Sei sulla pagina 1di 440

UNIVERSIT DEGLI STUDI DI ROMA TOR VERGATA

FACOLT DI LETTERE E FILOSOFIA CORSO DI LAUREA IN EDITORIA, COMUNICAZIONE MULTIMEDIALE E GIORNALISMO TESI IN ECONOMIA E GESTIONE DELLE IMPRESE EDITORIALI IL FUTURO DELLA CONOSCENZA ALL'EPOCA DELLE TECNOLOGIE DIGITALI. LIBERT, APERTURA E ACCESSIBILIT PER FAVORIRE LA CIRCOLAZIONE E LA CONSERVAZIONE DEI SAPERI Relatore: Chiar.ma Prof.ssa LUISA CAPELLI Correlatore: Chiar.mo Prof.re RAUL MORDENTI Laureando: LORENZO GREGORI Matr. 0114943

Anno Accademico 2010/2011

Happiness is real only when shared Christopher McCandless

Indice Capitolo primo I contenuti e i beni della conoscenza nell'epoca di Internet 1.1 Dalla tavoletta di cera al tablet PC: breve excursus storico 1.1.1 Il medium digitale e la nascita di internet 1.1.2 Gli antenati illustri del Web: il Memex di Bush e il progetto Xanadu 1.1.3 La centralit del web e la sua influenza sui media tradizionali 1.2 Una coda lunghissima e in continua espansione 1.2.1 L'insostenibile leggerezza del bit 1.2.2 Quando ancora il computer non esisteva: un passo indietro 1.3 Un 1 seguito da cento 0: il fenomeno Google 1.3.1 Caratteristiche del motore di ricerca pi potente e diffuso al mondo 1.3.2 Google Book Search: un nuovo Illuminismo o il primo passo verso una conoscenza oligarchica ed elitaria? 1.3.3 Google e la gestione della privacy: ma Big G davvero cos buono come sembra? 1.4 La nuova era del Web 2.0: come la rete sta cambiando il nostro modo di produrre e accedere ai contenuti e alla conoscenza 1.4.1 Wikipedia, ovvero come possibile avere a disposizione un'enciclopedia immensa, gratuita 5

9 26 37

50 60

73 81 101

115

1.4.2 1.4.3 1.4.4 1.4.5

e che non occupa spazio Anche le formiche nel loro piccolo... contribuiscono alla conoscenza universale C'era una volta La Gente Un Tempo Nota Come Il Pubblico There's no such as a free lunch: corsi di recupero sul Gratis per gli economisti classici The Dark Side of the Web: le voci dei critici

130 150 163 176

Capitolo secondo I beni comuni della conoscenza: una tragedia da scongiurare 2.1 Gli strati della cultura digitale: architettura fisica, hardware, software e contenuti veri e propri 2.1.1 Se la libert di internet anche una questione di cavi 2.1.2 Libert partecipazione: il software libero e open source 2.1.3 Io sto con i pinguini (e anche con gli gnu!): Stallman e Torvalds rivoluzionano l'universo dei sistemi operativi 2.2 I beni comuni della conoscenza: scongiurare una tragedia e riappropriarsi delle risorse pi preziose per il futuro della democrazia e della civilt 2.2.1 Questo teatro, per quanto bellissimo, se vuoto, un luogo morto 6

203 216 224

263

2.2.2 2.3 Prime vittime sul campo nella corsa alla recinzione: la comunicazione scientifica 311 327 343

2.3.1 2.3.2 L'incubo dei naviganti e il 404 file error: File not found 2.3.3 L'open access, una soluzione per contrastare il pedaggio della cultura e favorire la libera circolazione della conoscenza 2.3.4 Il backup: memoria della conoscenza per costruire il futuro 2.4 2.4.1 2.4.2 2.4.3 2.4.4 2.4.5 2.5 Tutta colpa del fattore ? Breve storia del copyright Niente di nuovo sotto il sole: l'infanzia del libro tra privilegi, commercio clandestino e pirateria 1710, l'annus mirabilis del copyright: diritti esclusivi ma limitati nel tempo Ma la storia non finisce qui: come un incentivo potuto divenire una barriera che limita sempre pi la creativit Se il matrimonio finch morti non vi separi, il copyright in America aspira all'eternit Copyright chiama Italia: il diritto d'autore di casa nostra

364 373 380 389 401

(CC): ceci n'est pas un copyright. Introduzione alle licenze Creative Commons 2.5.1 Fine dell'era All Rights Reserved?

414

Bibliografia

432

1.1 I piedi della nostra cultura si appoggiano sulle spalle di chi ci ha preceduto1.5.1 Rip, mix, burn e il gioco fatto!

Capitolo primo I contenuti e i beni della conoscenza nell'epoca di Internet

Dalla tavoletta di cera ai tablet PC: breve excursus storico Il medium digitale e la nascita di internet La realt contemporanea si distingue per essere strettamente legata a due concetti fondamentali: l'informazione e la comunicazione. Si tratta di quelle che potremmo considerare come due vere e proprie chiavi di lettura dell'intera storia dell'uomo, poich caratterizzano ogni aspetto della vita e delle relazioni fra l'individuo e la societ. Gli esseri umani, grazie a quel potentissimo strumento che il cervello, sono organismi in grado di elaborare e trasmettere informazione, in tutte le sue molteplici manifestazioni. La nostra architettura cerebrale (l'hardware della mente), grazie a un enorme numero di neuroni interconnessi attraverso un ancor pi alto numero di sinapsi, rappresenta di fatto un dispositivo ben pi potente di qualsiasi computer mai realizzato, che ci permette di svolgere i compiti pi disparati. La lettura di un libro, la visione di un film, ma anche una semplice passeggiata o una rilassante chiacchierata tra amici, rappresentano a tutti gli effetti occasioni in cui il cervello riceve le informazioni provenienti dall'esterno (mantenendoci nel solco del lessico informatico, potremmo considerare i nostri organi di senso al pari di vere e proprie periferiche di input e output) e le processa, preparandosi alla loro eventuale ritrasmissione verso l'esterno. in quest'ultimo passaggio che risiede la chiave della comunicazione, per mezzo della quale si realizza lo scambio interindividuale e quindi lo 9

svolgersi della convivenza sociale. Questa attivit comunicativa nata insieme all'uomo e per un lungo numero di secoli ha potuto contare esclusivamente su un medium rudimentale e limitato, rappresentato dall'uomo stesso. L'introduzione della scrittura ha poi consentito di fissare le informazioni su dei supporti, di modo che i contenuti potessero essere sottratti all'esistenza effimera ed evanescente dell'oralit e resi trasmissibili alle generazioni future. Questo carattere di persistenza ha senza dubbio contribuito allo sviluppo delle varie realt statuali, facendo dell'informazione una norma e un principio guida all'interno della societ. E l'invenzione della stampa a caratteri mobili segn in tal senso un'ulteriore tappa fondamentale, liberando per la prima volta la conoscenza dalle cattedrali e dalle roccaforti del sapere (virgolettato che forse non sarebbe neanche necessario, dal momento che la scrittura e il possesso dei manoscritti erano di fatto privilegio esclusivo della Chiesa e delle classi aristocratiche) e permettendo alle informazioni contenute nei libri una circolazione mai verificatasi in precedenza. Ancora oggi la tecnologia del libro, dopo pi di cinque secoli di vita, non ha subito grosse modificazioni e si rivela efficace ed economica, pur nella sua apparente semplicit. Ma il breve excursus che stiamo cercando di tracciare sull'evoluzione della comunicazione non pu prescindere dalle scoperte che si verificarono a partire dal XIX secolo e che hanno fatto del Novecento l'epoca in cui ebbe inizio la trasformazione in senso mediatico della societ. in questo periodo che videro la luce la radio, il cinematografo, la televisione, nonch il telefono (e i telefonini) e, come vedremo, il computer. Nel raggio di pochi decenni, e a ritmi di ricambio e innovazione sempre pi ridotti, si venuto strutturando il tessuto della realt contemporanea, sempre pi incentrata su di una 10

interazione comunicativa che si fonda sull'ausilio e sulle potenzialit dell'intermediazione tecnica. Tutto ci ha permesso di eliminare una serie di barriere e ostacoli fisici, quali ad esempio il tempo e la distanza, con cui l'uomo aveva da sempre dovuto fare i conti e permesso alle societ di arricchirsi e progredire grazie a scambi reciproci simultanei che prima non erano consentiti. Al tempo stesso la natura stessa del medium, sempre pi digitale, ha contribuito a diffondere un crescente livello di standardizzazione e omologazione dei contenuti, quasi mai sinonimo di evoluzione e miglioramento. Le novit provenienti dalla tecnologia si sono rivelate di successo quando hanno mostrato di poter integrare e completare i linguaggi e le istanze comunicative tipiche dei codici analogici. Ancora una volta, per compiere un effettivo salto di qualit e un arricchimento delle possibilit espressive dell'uomo, stato necessario che la creativit degli individui si potesse liberare senza vincoli e costrizioni. Non obiettivo di questo lavoro inserirsi nel dibattito infinito tra apocalittici e integrati nei confronti della tecnologia e ancor meno esprimere giudizi di merito verso un quadro che ancora in divenire. La tecnologia un prodotto umano e non di per s buona o cattiva, dipendendo di volta in volta dall'uso che se ne fa. Nel libro Quello che vuole la tecnologia, Kevin Kelly (2010) affronta in modo molto ampio la questione relativa alla natura e al ruolo che la tecnologia e i suoi artefatti materiali rivestono nella vita degli individui. Le manifestazioni della creativit e dell'ingegno umano permettono agli individui di ridurre lo sforzo fisico necessario al compimento di un lavoro, sono in grado di soddisfare bisogni e creare opportunit inaspettate. Al tempo stesso sono innumerevoli le occasioni che ci portano a guardare con sospetto e inquietudine alla

11

tecnologia1, sempre pi considerata come una realt autonoma e indipendente, fuori dal nostro controllo. Una tecnologia che ha acquisito un potere tale da potersi rivoltare perfino contro i suoi stessi creatori e che potrebbe realizzare la minaccia di un futuro in cui l'uomo sia dominato dalle macchine. Senza spingersi verso gli scenari che hanno fatto la fortuna di numerose pellicole e storie di fantascienza, innegabile che anche la pi lucida riflessione sul tema della tecnologia porta con s un ampio ventaglio di interrogativi e dilemmi:
oggi la nostra vita preda di una profonda e continua tensione tra i benefici dell'avere pi tecnologia e la necessit personale di averne di meno. Dovrei dare ai miei figli questo o quest'altro gadget? Ho tempo di imparare a usare questo dispositivo che mi far risparmiare tempo e fatica? E, andando pi a fondo: tutta questa tecnologia che cosa prende dalla mia vita? Che cos' questa forza globale che ci induce a provare amore e odio? Come dovremmo affrontarla? Possiamo opporre resistenza, oppure qualunque nuova tecnologia inevitabile? Devo essere favorevole o scettico verso questa valanga inarrestabile di cose nuove? La
1 I nostri geni si sono co-evoluti insieme alle nostre invenzioni. Solo negli ultimi diecimila anni, di fatto, i nostri geni si sono evoluti cento volte pi rapidamente della media dei precedenti sei milioni di anni. Questo non dovrebbe sorprendere: nel momento in cui abbiamo domesticato il cane (in tutte le sue razze) dal lupo, selezionato mucche, granturco e molte altre specie dai loro ormai irriconoscibili antenati, anche noi siamo stati domesticati. O meglio, ci siamo domesticati. I denti continuano a ridursi (per via della cottura, il nostro 'stomaco esterno'), i muscoli si assottigliano, il pelo scomparso. La tecnologia ci ha domesticati: alla stessa velocit a cui rifacciamo i nostri utensili, in un certo senso rifacciamo noi stessi. Stiamo co-evolvendo con la nostra tecnologia, e siamo dunque diventati profondamente codipendenti da essa. Se tutta la tecnologia anche l'ultimo dei coltelli o delle lance scomparisse dal pianeta, la nostra specie non sopravvivrebbe pi di qualche mese. Ormai siamo un tutt'uno con la tecnologia (p. 31).

12

mia decisione cambier qualcosa? (Kelly 2010, p. 12)

La tecnologia, secondo Kelly, sempre pi un'estensione della vita naturale: da un lato si configura come il prodotto della mente umana, ma dall'altro possiamo rilevare come la sua origine sia antichissima e precedente alla comparsa dell'uomo 2. La tecnologia non pu essere assimilata alla cultura: sarebbe
2 Molti altri animali avevano usato degli strumenti, milioni di anni prima di noi. Gli scimpanz si facevano, e naturalmente si fanno ancora, utensili da caccia utilizzando dei bastoncini che servono per estrarre le termiti dai tumuli del terreno, oppure battono con delle pietre per rompere i gusci di noce. Le termiti stesse costruiscono grandi torri di fango che utilizzano come abitazioni. Nei giardini le formiche allevano afidi e coltivano funghi. Gli uccelli intrecciano i rametti per i loro nidi. E alcuni polpi trovano e poi si portano appresso delle conchiglie come case mobili. La strategia di piegare l'ambiente ai propri fini, come se fosse una parte del corpo, vecchi almeno un miliardo di anni. I nostri antenati iniziarono a ricavare schegge di pietra, per dotarsi di artigli, circa due milioni e mezzo di anni fa. All'incirca duecentomila anni fa avevano messo a punto tecniche rudimentali per cuocere, o predigerire, con il fuoco. [] La caccia con l'ausilio della tecnologia, cio non pi mera ricerca di cibo senza l'uso di utensili, altrettanto antica. [] Queste tecnologie, che si tratti del bastoncino usato dagli scimpanz per estrarre le termiti o della lancia usata dall'uomo, della diga del castoro o di quella umana, del cesto pensile dell'uccello canoro o di quello degli umani, dei giardini delle formiche giardiniere o dei giardini umani, sono tutte fondamentalmente naturali. Noi tendiamo a isolare dalla natura la tecnologia manufatta, sino al punto di pensarla come una specie di 'antinatura', solo perch si sviluppata per competere con l'impatto e la forza del suo ambiente. Ma dal punto di vista delle sue origini e delle sue caratteristiche di base un utensile naturale tanto quanto la nostra vita. Gli esseri umani sono animali, su questo non c' alcun dubbio. Ma sono anche nonanimali, e pure su questo non c' alcun dubbio. Questa natura contraddittoria costituisce l'essenza della nostra identit. Analogamente la tecnologia , per definizione, innaturale; ma naturale se considerata in una sua pi ampia accezione. E anche questa contraddizione costituisce l'essenza dell'identit umana (p. 24).

13

inadeguato e riduttivo. Per differenziarla da questo concetto e coglierne a pieno le unicit, l'autore ha coniato un termine nuovo col quale
designare quel sistema allargato, globale, fortemente interconnesso di tecnologia che si anima intorno a noi. Ho deciso di chiamarlo technium. Il technium va oltre l'hardware e le macchine, per includere la cultura, l'arte, le istituzioni sociali e le creazioni intellettuali di ogni genere. Comprende entit intangibili come il software, le leggi, i concetti filosofici. E, cosa ancora pi importante, comprende gli impulsi generativi delle nostre invenzioni che stimolano ulteriori produzioni di strumenti, ulteriori invenzioni tecnologiche, ulteriori connessioni autoaccrescenti (p. 15).

D'altro canto, proprio in questi ultimi decenni, possibile evidenziare una tendenza dominate della tecnologia, che si traduce nella sua transizione verso una crescente incorporeit.
Oggetti fantastici divenivano sempre pi piccoli, impiegando meno materiale ma svolgendo pi funzioni. Certe tecnologie, fra le pi evolute, come i software, non avevano pi alcuna sostanza materiale. Non si trattava di uno sviluppo inedito; un qualunque elenco di grandi invenzioni fatte nella storia ne contiene tantissime, altrettanto basate su poca o nessuna sostanza fisica: il calendario, l'alfabeto, il compasso, la penicillina, la partita doppia, la Costituzione americana, la pillola anticoncezionale, la domesticazione degli animali, lo zero, la teoria dei germi, il laser, l'elettricit, il chip di silicio, e chi pi ne ha... La gran parte di queste invenzioni, se vi cadessero sulla punta del piede, non vi farebbero alcun male. La novit [] che ora questo processo di perdita della corporeit va accelerando 3. Gli scienziati [sono]
3 La nostra attuale migrazione economica da un'industria basata su beni materiali a un'economia della conoscenza fatta di beni intangibili

14

giunti a una scoperta sbalorditiva: comunque si voglia definire la vita, la sua essenza non risiede in forme materiali come DNA, tessuti o carne, ma nell'intangibile organizzazione dell'energia e delle informazioni contenute in quelle forme materiali. E dato che la tecnologia [] stata liberata dal suo contenitore fatto di atomi, [possiamo] vedere che, al suo centro, anch'essa [] costituita da idee e informazioni. Sia la vita sia la tecnologia [sembrano] dunque essere basate su flussi immateriali di informazione 4 (p. 15).

In tal senso cerchiamo di soffermarci sul computer e di approfondire le caratteristiche e le potenzialit che questo strumento apre in termini di comunicazione. In questo capitolo non ci dilungheremo molto sugli aspetti e sulle specifiche
(software, progetti, prodotti mediatici) non che l'ultima tappa in ordine di tempo di un percorso inesorabile verso l'immateriale. (Non che i processi materiali siano cessati, intendiamoci; solo che i processi intangibili ora hanno maggiore valore economico). Richard Fisher, presidente della Federal Reserve Bank di Dallas, sostiene: 'Dati provenienti praticamente da tutto il mondo ci mostrano che i consumatori, via via che i loro redditi salgono, tendono a spendere relativamente meno in merci e pi in servizi []. Una volta che le persone hanno soddisfatto i loro bisogni basilari, tendono a volere cure mediche, trasporti e comunicazioni, informazione, ricreazione, divertimento, consulenze finanziarie e legali, e altre cose del genere'. La perdita di corporeit del valore (pi valore, meno massa) una tendenza costante nell'ambito del technium (p. 50). 4 Il technium immerso in un suo oceano informazionale. Riflette ottomila anni di conoscenze umane. Se misurato come quantit di memoria digitale in uso, il technium oggi contiene 487 exabyte (10 20) di informazione, una quantit decisamente inferiore al totale della natura, ma in crescita esponenziale. La tecnologia espande i dati del 66 per cento all'anno, sopraffacendo il tasso di crescita di qualunque fonte naturale. In confronto ad altri pianeti vicini al nostro, o alla materia inerte che va alla deriva nello spazio infinito, una spessa coltre di apprendimento e d'informazione autorganizzata circonda il globo terrestre (ib.).

15

tecniche che sostengono l'architettura hardware e software di un calcolatore. Poich il nodo centrale cui ci stiamo dedicando quello della comunicazione, punteremo l'attenzione sull'analisi di internet e del web, due frontiere fondate sull'informatica, diventate per sempre pi diffuse al punto da poter essere pensate come due veri e propri spazi a s stanti. Queste due sfere sono sostenute dalla medesima impalcatura e logica che risiede dietro a qualsiasi dispositivo di ICT (Information and Communication Technology), ma soprattutto negli ultimi venti anni hanno pervaso a tal punto la vita pubblica e privata degli individui e le varie dimensioni delle societ, che ormai pensiamo ad esse come a qualcosa di autonomo. Internet (contrazione del termine Interconnected Networks, ovvero reti interconnesse)5 rappresenta una rete di computer mondiali ad accesso pubblico, sostenuta da un certo numero di protocolli6 (delle regole di comunicazione) e mosse i suoi primi passi di implementazione tra gli anni '50 e '60 del Novecento, durante il periodo della Guerra Fredda. Nella sua storia sociale del ciberspazio e della comunicazione elettronica, Carlo Gubitosa tiene a sottolineare come:
l'avventura umana e scientifica che ha dato vita alla Rete delle Reti non pu essere ridotta alla semplice realizzazione di un progetto militare di ricerca: Internet deve la sua nascita alla passione, all'impegno e allo sforzo coordinato di un grandissimo numero di studenti, ricercatori, docenti universitari e funzionari
5 Un breve quadro storico relativo allo sviluppo della Rete pu essere consultato su Wikipedia, alla voce Storia di Internet. Molto utili sono anche i lavori di Carlo Gubitosa, con particolare riferimento a Hacker, scienziati e pionieri, per i cui riferimenti bibliografici rimandiamo alla fine di questo volume. 6 I principali sono il TCP (Transmission Control Protocol) e l'IP (Internet Protocol).

16

pubblici che hanno saputo spendersi fino in fondo per far uscire i loro computer e le Universit da un atavico isolamento, creando una comunit virtuale dedicata alla ricerca, allo scambio scientifico e al progresso accademico. Pi che una conquista strategica delle forze armate statunitensi, Internet stata una conquista umana e culturale di un gruppo di pionieri che hanno creduto nel networking quando le Universit erano ancora gelosissime del tempo macchina dei propri calcolatori, e parlare di condivisione delle risorse suscitava grande diffidenza all'interno degli ambienti scientifici (Gubitosa 2007, p. 145).

Pur condividendo questa prospettiva, certo che la ricostruzione storica di questa straordinaria invenzione, che racchiude al suo interno tanto la componente tecnologica quanto un profondo bacino di capitale sociale, non pu trascurare il clima di tensione e reciproco controllo che sin dalla fine del secondo conflitto mondiale contraddistinse gli equilibri e le relazioni diplomatiche tra i due giganti della scena internazionale, contrapposti interpreti del modello capitalista da una parte e del nuovo corso comunista dall'altra. Spaventato dagli avanzamenti tecnologici dell'Unione Sovietica, che nel 1957 aveva lanciato in orbita il primo satellite artificiale (lo Sputnik), il dipartimento della Difesa degli Stati Uniti fond l'anno successivo un'agenzia finalizzata allo sviluppo delle ricerche scientifiche in campo militare. L'obiettivo principale dell'ARPA (Advanced Research Projects Agency) doveva essere
quello di superare la rivalit e la competizione tra esercito, marina ed aviazione, che fino a quel momento avevano realizzato, ognuno per proprio conto, dei progetti di ricerca a compartimenti stagni, facendosi concorrenza a vicenda (p. 146).

Essa poteva inoltre vantare il pregio di: 17

unire alcuni tra gli scienziati pi brillanti degli Stati Uniti, i quali mettono a punto il primo satellite Usa in diciotto mesi. Il primo direttore dell'ARPA Roy Johnson, strappato alla General Electric da McElroy7. Altri uomini reclutati per la nascita dell' ARPA vengono da industrie che hanno contratti con il Pentagono, come ad esempio Lockheed, Union Carbide e Convair. Nel 1960 uno dei pi grandi progetti di ricerca della storia delle telecomunicazioni prende vita all'interno della Rand Corporation, azienda statunitense incaricata di fornire al Pentagono servizi di consulenza. All'interno di questo Think Tank, Paul Baran realizza il primo lavoro di ricerca scientifica sulla commutazione di pacchetto (p. 146-147).

Accanto al modello di rete distribuita da quest'ultimo ideato (di cui parleremo pi approfonditamente nel prossimo capitolo), vale la pena accennare ai contributi di molti altri studiosi, ognuno dei quali rappresenta un tassello importante del pi ampio quadro che avrebbe portato alla nascita di internet.
Nel luglio del 1961 Leonard Kleinrock dell' UCLA, University of California Los Angeles, pubblica Information Flow in Large Communications Nets, un testo che getta le basi statistiche e matematiche per lo studio del traffico delle reti distribuite di trasmissione dati a pacchetto. L' ARPA affida a Kleinrock la realizzazione dell'NMC, Network Measurement Center, il centro di misurazione della rete situato presso l'UCLA. L'NMC diventer il primo nodo della futura ARPANET, con il compito di monitorare il traffico dei pacchetti attraverso i nodi che si sarebbero via via aggiunti (p. 148).

L'anno successivo Jack P. Ruina, che aveva sostituito il secondo direttore Austin W. Betts e fu dunque il primo
7 Neil McElroy, l'allora segretario della Difesa degli Stati Uniti d'America.

18

scienziato a dirigere l'agenzia, accolse


tra le file dell'ARPA Joseph Carl Robnett Licklider8, conosciuto anche come Lick, uno studioso di psicoacustica che avr un ruolo fondamentale nello sviluppo delle ricerche dell' ARPA. E che prima ancora dell'avvento dei personal computer riesce a intravedere un futuro in cui l'interconnessione dei calcolatori elettronici sar totalmente al servizio dell'umanit. [] Lick inizia cos una caccia ai cervelli, coinvolgendo nelle ricerche dell'ARPA tutti i pi grandi centri di ricerca e le pi prestigiose istituzioni universitarie degli Stati Uniti. Questa scelta condiziona fortemente l'evoluzione di ARPANET, che si sviluppa al di fuori degli ambienti militari, con il contributo fondamentale di tutti gli studenti universitari che iniziano ad utilizzare la rete di ARPANET a partire dal 1969, data di collegamento dei primi due nodi del network (pp. 148-150).

Un altro nome che non pu mancare in questa carrellata illustre quello di Larry Roberts, un ricercatore del Lincoln Laboratory che aveva supervisionato uno dei primi esperimenti di collegamento remoto tra due computer e che, proprio grazie al suo curriculum di tutto rispetto, nel dicembre del 1966 fu accolto negli uffici dell'ARPA. Le sue idee innovative in materia di reti distribuite non ottennero subito un generale consenso da parte di tutti i centri di ricerca e organismi universitari che operavano nel settore informatico molti ricercatori non
8 Per approfondire le innovative visioni di questo studioso riportiamo i titoli dei suoi scritti principali: i saggi Man-Computer Symbiosis (1960) e The Computer as a Communication Device (1968). Quest'ultimo, realizzato insieme a Bob Taylor, fornisce una prima definizione del concetto di comunit virtuali (on-line interactive communities), intese come gruppi che condividono interessi e passioni comuni e i cui membri possono quindi considerarsi vicini indipendentemente dal dato geografico.

19

vedevano di buon occhio l'idea di dover aprire all'esterno i propri centri di calcolo per condividere con altri le proprie risorse, gi fin troppo scarse (p. 153) ma ricevettero l'appoggio significativo di Doug Engelbart, che presso lo Stanford Research Institute stava sperimentando nuove forme di collegamento tra uomo e computer9. Passo fondamentale fu infine quello che port alla risoluzione della difficolt riguardante l'effettiva possibilit di mettere in comunicazione fra loro le diverse macchine. I vari partecipanti al progetto dell'ARPA si erano accorti ben presto delle difficolt di raccordo tra le varie sezioni e uffici dell'agenzia, ostacoli che rallentavano la gestione e impedivano lo scambio, la condivisione e la comunicazione fra i vari addetti ai lavori, in pratica l'assenza di tutte quelle che sono precondizioni necessarie a qualsiasi impresa della conoscenza. I computer impiegati nei vari progetti messi in campo non potevano infatti parlare tra di loro: eravamo ancora gli albori dell'era informatica, in cui era all'ordine del giorno la proliferazione di linguaggi e formati di archiviazione completamente diversi gli uni dagli altri (nonch spesso proprietari10). Per ovviare a
9 Engelbart e soci realizzano NIC, Network Information Center, il primo centro amministrativo della Rete che pi tardi prender il nome di InterNIC, per gestire in maniera decentralizzata servizi di documentazione e assistenza, relativamente alla struttura della rete e alla gestione dei nomi di dominio con i quali vengono identificati i computer collegati a Internet (ib.). 10 Con quest'etichetta intendiamo riferirci a tutte quelle applicazioni informatiche (per lo pi commerciali) che presentano restrizioni e limitazioni nel loro utilizzo e ancor pi per quanto riguarda la loro modificazione e distribuzione. Questa chiusura ottenuta tanto attraverso mezzi legali (licenze restrittive, copyright e brevetti), tanto dal punto di vista tecnico (all'utente preclusa la visualizzazione del codice sorgente soggiacente). Essi si collocano pertanto agli antipodi rispetto ai principi etici sostenuti dai movimenti dell'open source e del software

20

questa situazione era necessario un enorme lavoro di adattamento e riscrittura in una lingua comune delle informazioni, operazione molto costosa in termini di tempo e dispendio economico. Ci si rese conto della necessit di creare un canale comune che permettesse alle macchine e agli scienziati di comunicare, dal momento che
nel 1967 i modelli di computer in circolazione [sono] talmente diversi l'uno dall'altro che spesso anche calcolatori prodotti dalla stessa ditta richiedono enormi sforzi di programmazione e numerose modifiche all'hardware per essere in grado di comunicare. Clark suggerisce di utilizzare una sottorete di computer tutti uguali e compatibili, dedicati esclusivamente alle funzioni di trasmissione e ricezione dei dati. In questo modo i computer della sottorete avrebbero parlato tutti lo stesso linguaggio, senza problemi di compatibilit, e ogni nodo della rete avrebbe dovuto imparare solamente il linguaggio della sottorete anzich quello di tutti gli altri nodi a cui sarebbe stato connesso. I computer interposti tra i calcolatori universitari e la rete di comunicazione vera e propria vengono battezzati col nome IMP, Interface Message Processor (pp. 153-154).

E cos, dopo mesi di trattative e contatti febbrili, corse contro il tempo per rispettare i termini previsti dai contratti dell'ARPA e la redazione di alcuni documenti significativi in cui venivano descritti i protocolli di funzionamento della nuova rete,
il 30 agosto 1969 l'IMP numero uno parte dai laboratori della
BBN
11

libero. Nel secondo capitolo discuteremo di questo argomento in modo pi approfondito. 11 La Bolt, Beranek and Newman ( BBN), piccola ditta di Cambridge, Massachussetts, alla quale viene appaltata la realizzazione dei primi Interface Message Processors con un contratto da un milione di dollari.

21

al numero 50 di Moulton Street, per arrivare in aereo all' UCLA []: il primo embrione della futura Internet un computer senza hard disk, senza floppy (non erano ancora stati inventati), con soli 12K di memoria a nuclei di ferrite. Il codice di sistema necessario al funzionamento dell'IMP numero uno occupa pi di mezzo miglio di nastro perforato (circa 800 metri). [] Il primo settembre, nel weekend del Labour Day, iniziano le prime prove di funzionamento. Nel giro di un'ora il Sigma-7 dell' UCLA e l'IMP numero uno iniziano a scambiarsi dati e colloquiare come due vecchi amici che si conoscono da sempre. Il primo ottobre 1969 l'IMP numero due raggiunge lo Stanford Research Institute in California, a Menlo Park: questa la data a cui si fa ufficialmente risalire la nascita di Internet. La visione condivisa da Licklider, Baran, Davies, Roberts e tutti i pionieri di ARPANET diventa finalmente realt. Iniziano i primi esperimenti di collegamento con l'Universit di Los Angeles, e il nucleo della rete si estende con due nuovi nodi: a novembre il terzo IMP collega l'Universit di Santa Barbara al nodo dell'UCLA, e un mese pi tardi si unisce alla rete anche l'Universit dello Utah, che viene collegata allo Stanford Institute tramite l'IMP numero quattro. [] Nel giro di pochi mesi, un'idea che all'inizio appariva come una fantasia partorita da un gruppo di eccentrici scienziati si trasforma nel punto di partenza per quella che diventer una vera e propria rivoluzione del nostro modo di comunicare (pp. 157-158).

curioso notare come ancora oggi sia largamente diffusa l'idea che la vera anima della rete vada ricercata nel progetto di strategia difensiva messo in atto dai dipartimenti militari
La BBN nasce nel 1948 come azienda di consulenza per la progettazione dell'acustica in teatri e sale cinematografiche. Saranno proprio gli studi sull'acustica ad attirare J.C.R. Licklider in questa ditta, dove lavora per alcuni anni a partire dal 1957, permeando l'ambiente della sua passione per i computer []. L'azienda si trasforma in un prolifico centro di ricerca sulle tecnologie informatiche, al punto da meritare l soprannome di terza Universit di Cambridge accanto al MIT e Harvard (p. 155).

22

statunitensi. Gubitosa ricorda il ruolo determinante giocato da un articolo della rivista Time nella creazione e amplificazione di questa visione, quando il 3 dicembre 1993 lo scrittore Philip Elmer-Dewitt accenn alla
leggenda di una rete militare costruita con la precisa intenzione di mettere gli Stati Uniti in condizioni di affrontare una guerra termonucleare, disponendo di una rete di comunicazioni in grado di sopravvivere ad un eventuale bombardamento (p. 151).

Robert Taylor, direttore dell'IPTO (Information Processing Techniques Office), uno dei vari uffici che facevano capo all'ARPA, aveva scritto una lettera mai pubblicata al Time, per smentire questa immagine semplificata e riduttiva della storia di internet. Non possiamo, e tantomeno nostra intenzione, offrire, la versione definitiva e certa a proposito di questa diatriba: molto probabilmente, come spesso accade in casi simili, la verit si colloca in un terreno a met strada tra i fatti che abbiamo analizzato. Quello dell'Area 5112 infatti non solo un mito capace di stuzzicare la fantasia popolare e la fame di segretezza e cospirazione dei numerosi amanti delle teorie del complotto; al tempo stesso per dobbiamo rilevare come le dichiarazioni di Taylor rispecchino da vicino la realt delle circostanze dell'epoca.
In realt le reti a commutazione di pacchetto e la realizzazione di ARPANET sono solamente due tra i tanti progetti di ricerca di base portati avanti dall'ARPA in quegli anni, senza intuirne sin da subito i potenziali utilizzi, e non un sistema di comunicazione
12 Si tratta di una vasta area militare statunitense collocata nello stato del Nevada, utilizzata per testare armi e in particolare nuovi prototipi di aerei. Grazie anche a un certo filone cinematografico, il suo nome entrato ormai nell'immaginario collettivo come sinonimo di massima segretezza e mistero, stimolando la fantasia e le convinzioni di ufologi e teorici del complotto.

23

espressamente progettato per uno scenario postnucleare. Charles Herzfeld racconta la nascita di ARPANET in un articolo13 pubblicato su Scientific American nel settembre '95: ARPANET non nacque per assicurare le comunicazioni militari in caso di guerra nucleare questa un'impressione sbagliata abbastanza comune ma piuttosto per collegare computer e ricercatori delle Universit, assistendoli nel condurre ricerche sui calcolatori e sulle reti di comunicazione, e per usare questi computer nelle ricerche di base. Certamente eravamo consapevoli delle applicazioni potenziali di ARPANET per la sicurezza nazionale, ma gli sforzi per usare tale tecnologia a questo fine vennero molto dopo (pp. 151-152).

Questo supernetwork, basato sulla tecnologia rivoluzionaria della commutazione di pacchetto 14 e al tempo stesso sul ben pi tradizionale collegamento telefonico, era riuscito a mettere online per la prima volta i diversi gruppi di ricerca. In seguito, grazie all'espansione a perdita d'occhio dei diversi nodi che componevano la rete (gi nel 1971 il numero delle istituzioni collegate sale a quindici, mentre risale al 1973 il momento in cui ARPANET si aprir all'esterno degli Stati Uniti, collegando i nodi dell'University College di Londra e il Royal Radar Establishment della Norvegia) e allo sviluppo di alcuni protocolli chiave, internet assunse quella struttura che in larga parte ancora oggi la caratterizza 15.
13 Herzfeld, C., 1995, The Immaterial World, Scientific American, settembre, p. 214. 14 Principio tecnico che consente un accesso multiplo a ripartizione nel tempo, permettendo ad un canale di comunicazione di essere condiviso fra pi stazioni in modo non deterministico. L'invio di informazioni risulta dunque pi efficiente rispetto a quello tipico delle reti fondate sulla commutazione di circuito. 15 Nel 1983 il dipartimento della Difesa statunitense cre la rete MILNET, per scopi unicamente militari, destinando ARPA-INTERNET alla comunicazione nell'ambito della ricerca. Nel 1990 ARPANET venne smantellata e con gli anni si assistito alla graduale privatizzazione di Internet.

24

Sotto quest'ultimo punto di vista, l'anno da ricordare il 1974, quando Vinton Cerf e Robert Kahn offrirono il loro contributo allo sviluppo della rete attraverso l'introduzione del protocollo TCP (Transmission Control Protocol), che verr adottato da ARPANET nel 1983 e con il quale veniva definita la comunicazione tra computer remoti. Come illustra Gubitosa,
la nascita del TCP va ben oltre la semplice innovazione tecnologica: grazie a questo nuovo standard di trasmissione dei dati sulle reti a pacchetto possibile mettere in collegamento tra loro reti di diversa natura, attraverso dei ponti (gateways), che utilizzano il minimo denominatore comune del TCP per consentire lo scambio di pacchetti da una rete ad un'altra di tipo differente. Parallelamente allo sviluppo del nuovo protocollo, iniziano i primi esperimenti per l'estensione dell' ARPANET attraverso collegamenti satellitari e reti Packet Radio, dove i pacchetti non viaggiano attraverso i cavi ma nell'etere, cavalcando le onde radio. Questi esperimenti culminano in una dimostrazione del 1977, nella quale vengono fatti viaggiare pacchetti da un continente all'altro attraverso ARPANET, su reti satellitari e su reti Packet Radio. Nel 1978 il TCP diventa ufficialmente TCP/IP (Transmission Control Protocol Internet Protocol). Vengono separate le funzioni di istradamento dei pacchetti nella rete, riservate all'IP, da quelle di frammentazione e ricostruzione dei messaggi completi a partire dai singoli pacchetti, assegnate al TCP (p. 164).

significativo notare come accanto a questa crescita tecnologica, la rete and incontro a un parallelo e non meno frenetico sviluppo sociale: ci soffermeremo nel dettaglio su questo punto nel prossimo capitolo, per ora basti soltanto accennare a come gi in queste primissime fasi successive alla sua nascita, gli utenti inizia[ro]no a trasformare questa struttura di collegamento militare in un gigantesco ufficio 25

postale per comunicazioni personali (ib.). Gli antenati illustri del web: il memex di Bush e il progetto Xanadu Attualmente siamo cos abituati a sentir parlare di internet, a essere perennemente connessi, navigare ed eseguire acquisti in negozi virtuali, che quasi non facciamo pi caso a come utilizziamo questa terminologia. Abitanti di quella che per certi versi possiamo considerare la galassia post-Gutenberg tendiamo ad esempio a commettere il frequente errore di confondere e considerare sinonimi parole come internet e web. Mentre il primo rappresenta l'evoluzione dell'infrastruttura reticolare di cui per sommi capi abbiamo ricostruito la storia, il web altro non che uno dei servizi messi a disposizione e resi possibili da internet, al pari della posta elettronica e della possibilit di eseguire il trasferimento e la trasmissione dei dati16. L'acronimo WWW, che tutti noi conosciamo e quasi inconsciamente digitiamo sulle tastiere di computer e telefonini di ultima generazione, altro non che il World Wide Web, un mezzo di comunicazione che si distingue dai media tipici del XIX e XX secolo innanzitutto per la sua fondamentale natura multimediale e per la grande velocit che lo caratterizza. Esso si configura come un meta-medium e ancor pi come un iper-medium, capace di rivoluzionare la linearit e la sequenzialit preordinata tipica della testualit tradizionale, in favore di un'esperienza di accesso alle informazioni del tutto nuova e non prevedibile a priori. Con questo siamo ben lontani dall'affermare la morte del libro o, peggio, la fine della testualit. Il web stesso fondato sul testo (in tal senso rispecchia al massimo l'etimologia di questo
16 Servizi questi ultimi fondati su specifici protocolli: SMTP, POP e IMAP per quanto riguarda la posta elettronica; FTP per il secondo (cfr. nota 10).

26

termine che, dal latino textus, veicola il significato di tessuto, trama) ed strettamente legato all'operazione di scrittura, sia per quanto riguarda la sua manifestazione superficiale (le pagine web), sia ancor pi per quanto riguarda il livello ad esse soggiacente del codice17. L'invenzione del web datata alla fine degli anni ottanta quando Tim Berners-Lee, un fisico impegnato in un centro di ricerca nucleare, si accorse delle difficolt di comunicazione all'interno del CERN di Ginevra e cre un modo di condividere le risorse che fosse pi intuitivo e accessibile. All'epoca internet aveva gi fatto la sua comparsa, ma trasferire informazioni era un compito ancora troppo complesso per quanti non fossero esperti di informatica. Da un lato quelli erano gli anni in cui iniziarono ad affermarsi le prime interfacce grafiche dei computer18 che, rendendo amichevole e semplice il dialogo uomo-macchina, abbassarono drasticamente le barriere di accesso al mondo dell'informatica. Se per certi versi il computer sembrava essere ormai alla portata di tutti, d'altro canto era ancora forte l'ostacolo rappresentato dall'incomunicabilit reciproca dei programmi: scritti in linguaggi diversi e proprietari, essi non erano in grado di conversare e rendere disponibile l'accesso, se non dopo una
17 Dietro le quinte di ogni pagina vi infatti tutto lo script di codice (basato sul linguaggio HTML) che sostiene e descrive il contenuto della pagina stessa. Approfondiremo pi avanti questo aspetto relativo ai linguaggi di marcatura. 18 L'interfaccia grafica utente, nota anche come GUI (dall'inglese Graphical User Interface) consente di interagire con la macchina in modo rapido e intuitivo (basti pensare alla vera e propria rivoluzione rappresentata dall'introduzione di un dispositivo come il mouse), manipolando oggetti grafici convenzionali e rappresentativi e sostituendo le ben pi complicate interfacce a linea di comando. Nel 1984 Apple Macintosh introdusse il desktop publishing, aprendo a chiunque fosse in possesso di un personal computer la possibilit di esprimersi creativamente.

27

complessa trafila di operazioni di riscrittura e traduzione. Tim Berners-Lee, richiamandosi al concetto di ipertesto gi prefigurato da Vannevar Bush, sognava di realizzare un sistema di ricerca e accesso alle informazioni che fosse universale e portabile, indipendente cio dal sistema operativo del singolo computer e anche dallo stesso hardware. Il principio fondamentale di questa rete di nodi avrebbe dovuto permettere agli utenti di navigare liberamente, dal momento che una volta che si fosse messo a disposizione un documento, un database, un'immagine, un suono o un video, questo avrebbe dovuto essere accessibile a tutti, con qualsiasi tipo di computer e in qualsiasi paese. L'immagine di questa struttura di informazioni interconnesse su scala planetaria ci ricorda da vicino il mito dello Xanadu, una nozione questa gi menzionata all'interno di un poema di S. T. Coleridge (1816) che Ted Nelson 19 (1981) riprese, descrivendolo come un magico luogo della memoria, una rete ampia quanto il mondo, dedicata a servire centinaia di milioni di utenti simultaneamente, con dati, immagini e scritti archiviati nel corpo del mondo. Queste affermazioni, a prima vista deliranti e visionarie, ci permettono di tributare il giusto merito alla capacit di precorrere i tempi degli studiosi che le elaborarono; esse appaiono oggi estremamente razionali e familiari, in quanto rispecchiano la ragnatela di contenuti priva di linearit e densa di nodi di scambio e accesso che caratterizza il web. Lungi da volerle considerare delle profezie,
19 Filosofo, sociologo e pioniere dell'informatica, a Nelson si deve l'ideazione del termine ipertesto e ipermedia, gi nel 1963. Nel 1960 fond il progetto Xanadu (il cui sito ufficiale alla pagina http://xanadu.com), tentativo di realizzare un ipertesto diverso dallo stesso World Wide Web, affetto secondo Nelson dagli stessi limiti e vincoli di monodirezionalit e continua interruzione dei collegamenti che minano la validit degli ipertesti cartacei.

28

esse non rappresentano tuttavia un caso isolato e testimoniano come da sempre l'uomo abbia coltivato il sogno di creare una struttura che gli consentisse di archiviare e intervenire su tutta la sua conoscenza. L'ambizione di superare gli ostacoli, che l'oblio e l'usura dovuta al trascorrere delle generazioni da una parte e i forzati limiti imposti al nostro cervello dalla biologia dall'altra, frapponevano alla realizzazione di questa impresa possono essere infatti riscontrati anche nella descrizione del Memex ideato da Vannevar Bush e di cui tra poco forniremo una dettagliata descrizione: in questo caso gli spunti futuristici proposti dall'autore si scontravano con lo stato ancora embrionale in cui si trovava l'elettronica degli anni Cinquanta, eppure il suo dispositivo riflette in maniera sorprendente le funzionalit e le opportunit che caratterizzano il web come oggi lo conosciamo. Questo autore non a caso pu essere considerato il teorico anticipatore dell'ipertesto, di quell'elemento cio che pi di tanti altri ha profondamente modificato l'approccio ad attivit tradizionali e rimaste stabili per molti secoli, come la lettura, la fruizione dei contenuti e la scrittura, e che rappresenta la chiave di volta dei nuovi approcci comunicativi resi possibili dalle tecnologie informatiche. Le sue idee sono espresse nell'articolo As we may think, originariamente pubblicato nel luglio del 1945 sul periodico The Atlantic Monthly. Lo scienziato e tecnologo statunitense parte dal riconoscimento degli enormi passi avanti legati al progresso della scienza, grazie ai quali l'uomo ha sviluppato il pieno controllo delle necessit materiali (soddisfacendo i bisogni primari del reperimento del cibo, dell'abbigliamento e della costruzione di ripari) e provveduto alla propria sicurezza, emancipandosi dalle schiavit della mera esistenza. Accanto a ci l'aumentata consapevolezza dei processi biologici ha gradualmente liberato 29

l'umanit dalle malattie ed elevato l'aspettativa della vita. La scienza non si per limitata a tutto questo: ha reso pi rapida la comunicazione fra gli individui e portato alla formulazione di una mole enorme di idee che hanno permesso all'edificio della conoscenza di evolvere e sopravvivere alla vita dei singoli individui. Si assiste ad una proliferazione di studi e ricerche, all'insegna di una dilagante specializzazione: essa necessaria al progresso, ma allo stesso tempo rende quasi impossibile agli studiosi accedere, comprendere e ricordare i lavori e le conclusioni dei propri colleghi. difficile mantenersi al passo anche all'interno di una singola branca del sapere e, come ci ha insegnato il caso delle leggi della genetica di Mendel20, le modalit di trasmissione e diffusione dei risultati della ricerca si dimostrano ancora troppo antiquate e del tutto inadeguate agli obiettivi che si pongono. Bush sottolinea comunque come ci si trovi in un'epoca prossima al cambiamento della gestione della documentazione scientifica, grazie alle possibilit offerte da strumenti e dispositivi meccanici . Nel Settecento Leibnitz aveva concepito una macchina calcolatrice21 che per non riusc a concretizzare a causa del quadro economico e tecnologico dell'epoca: i costi della sua costruzione, in un'epoca ancora lontana dalla produzione di massa, avrebbero di gran lunga ecceduto il risparmio di fatica che essa prometteva. A quel tempo ogni
20 Mendel generalmente ricordato come il padre della genetica, ma le sue leggi dell'ereditariet, elaborate intorno la met dell'Ottocento, furono recepite solo agli inizi del Novecento, a seguito della riscoperta delle teorie dello scienziato boemo. 21 La macchina di Leibnitz ancora oggi considerata un congegno antesignano del calcolo automatico e della stessa informatica era uno strumento in grado di effettuare le quattro operazioni e l'estrazione di radice, grazie ad un meccanismo basato su un tamburo e delle ruote dentate.

30

operazione dipendeva esclusivamente da strumentazioni elementari come matite e fogli di carta e il concetto di complessit era quasi sempre sinonimo di irrealizzabilit. Nondimeno una simile sorte ebbero gli sforzi del matematico inglese Charles Babbage, le cui geniali intuizioni non portarono a risultati tangibili e furono nuovamente costrette a scontrarsi con i limiti della loro fattibilit. La sua straordinaria idea di calcolatore programmabile, per eseguire ogni genere di calcolo, era troppo avanti con i tempi e i suoi costi di realizzazione e mantenimento sarebbero stati troppo elevati da poter essere sostenuti. Ma ai nostri giorni, ricorda Bush, abbiamo risolto questi ostacoli tecnici ed ormai possibile realizzare a costi minimi macchine composte di parti sostituibili22. Mentre in passato le operazioni di esatto posizionamento e allineamento necessarie alla sua costruzione avrebbero occupato per mesi l'attivit di una corporazione di artigiani, ora il tutto potrebbe essere portato a termine per pochi centesimi. Come sottolinea Bush, il mondo giunto in un'epoca popolata da dispositivi complessi, ma economici e di semplice attuazione. Al centro della sua idea di Memex vi il concetto di registrazione (record) del quale afferma l'utilit per la scienza, in virt del fatto che essa pu essere ampliata con successive aggiunte, conservata e soprattutto consultata. I supporti per effettuare ci erano di fatto gi disponibili e numerosi, grazie alla scrittura e alla fotografia, all'esistenza delle pellicole (film), dei dischi di prima registrazione (wax disc) e di altri conduttori magnetici23. Illustra anche le potenzialit della microfilmatura,
22 Significativo in tal senso leggere l'originale in inglese, in cui tra l'altro si fa riferimento ad una ragnatela metallica, che sembra anticipare la diffusa e riuscita metafora del web. 23 Bush sottolinea in particolare gli imminenti progressi della fotografia, che porteranno a realizzare macchine dall'ingombro di poco superiore a

31

invitando il lettore ad ipotizzare un futuro prossimo in cui pellicole dello spessore di un foglio (destinate a diventare anche pi sottili) potranno contenere una quantit di informazioni pari a quelle di diecimila libri. L'Enciclopedia Britannica potr essere ridotta alle dimensioni di una scatola di fiammiferi e una libreria di un milione di volumi sar a nostra disposizione su una scrivania. Ora, l'uomo ha prodotto a partire dall'invenzione della stampa a caratteri mobili una mole di documenti (tra giornali, riviste, libri, opuscoli, lettere e quant'altro) pari a quanto spazio occuperebbe una biblioteca di un miliardo di libri; ebbene il tutto, opportunamente assemblato e compresso, potrebbe essere inserito all'interno di un furgone24. A questo punto Bush passa ad esaminare un altro punto chiave del suo progetto, che consiste nelle argomentazioni relative a come avviene la preparazione della registrazione originale. Il procedimento, almeno nell'epoca in cui l'autore scriveva, risulta caratterizzato da numerose fasi ed di fatto decisamente lungo ed impegnativo. Le informazioni sono
quelle di una noce, dotate di lenti con messa a fuoco universale e adattamento automatico a qualsiasi condizione di illuminazione; esse saranno provviste di pellicola a colori sufficiente per pi di cento scatti e in grado di implementare la tecnica stereoscopica. Grazie a queste dimensioni e alla semplicit di funzionamento (a quick squeeze, and the picture is taken), gli scienziati del futuro potranno portarle sempre con loro e averle a portata di mano per registrare ogni cosa reputino degna di essere memorizzata. Bush si spinge oltre, arrivando ad anticipare l'attuale tecnologia di sviluppo delle immagini digitali, che non prevede il coinvolgimento di liquidi e coloranti, n tantomeno il ricorso a procedimenti chimici, realizzando cos il suo sogno di fotografia a secco (dry photography). 24 Questa operazione risulterebbe anche economicamente vantaggiosa. Leggiamo nell'articolo infatti che, the material for the microfilm Britannica would cost a nickel, and it could be mailed anywhere for a cent (Bush 1945).

32

registrate scrivendo su fogli di carta o attraverso la macchina da scrivere; a questo segue il lavoro di sistemazione e correzione, seguito da un intricato processo di composizione tipografica, stampa e distribuzione finale. Pensiamo a cosa succederebbe se gli studiosi potessero mettere da parte l'operazione manuale di scrittura/digitazione su tasti e dettare invece le proprie idee direttamente a uno stenografo o a un rullo di registrazione. In realt, dice Bush, anche questa tecnologia gi sotto i nostri occhi, necessitando solo di essere combinata insieme per dare finalmente alla luce una macchina capace di dattilografare quello che le viene detto 25. Possiamo a questo punto immaginare un ricercatore del futuro nel suo laboratorio:
His hand are free, and he is not anchored. As he moves about and observes, he photographs and comments. Time is automatically recorded to tie the two records together. If he goes into the field, he may be connected by radio to his recorder. As he ponders over his notes in the evening, he again talks his comments into the record. His typed record, as well as his photographs, may both be in miniature, so that he projects them for examination (ib.).

Nella Section 5 dell'articolo, Bush afferma poi la possibilit di sviluppare una macchina che sia in grado di estrinsecare il ragionamento formale, il tutto per mezzo di soli circuiti elettrici. Sarebbe sufficiente inserire un set di premesse e
25 Bush si riferisce al Vocoder, una macchina capace di codificare un segnale audio, al cui progetto si stava lavorando nei Laboratori Bell e alla stenotipia, ovvero il sistema adoperato per trascrivere rapidamente un discorso, attraverso un apparecchio dotato di tastiera. Ancora una volta ci pare significativo riportare il passo originale tratto dall'articolo dell'Atlantic Monthly: combine these two elements, let the Vocoder run the stenotype, and the result is a machine wich types when talked to (ib.).

33

azionare una manovella perch un dispositivo di questo genere sia in grado di generare le varie conclusioni, ognuna in accordo con le leggi della logica. Inoltre egli auspica l'introduzione di un nuovo linguaggio, probabilmente basato su una sintassi di tipo posizionale, che possa semplificare il troppo complesso simbolismo della matematica. L'autore si pone poi un ulteriore problema, relativo alla questione della selezione: come potremo infatti essere certi di estrarre il record cui di volta in volta siamo interessati, tra la miriade di dati a nostra disposizione? Alcuni strumenti preposti a questo compito sono gi disponibili, ma risultano ancora troppo lenti; grazie all'uso di fotocellule e microfilm essi potranno invece confrontare oggetti ad un ritmo di migliaia al secondo e stampare le copie di quelli selezionati. Di fatto dietro a questo processo vi una logica molto semplice, basata sull'esame ripetuto di un gran numero di elementi, che d come risultato l'estrazione dei soli in possesso di determinate caratteristiche26. E cos potremmo immaginare di adottare delle particolari card in miniatura, provviste di determinati fori, la posizione dei quali sar letta da una fotocellula e avvier una certa operazione. Un altro ordine di difficolt legato all'artificialit e insufficienza dei nostri sistemi di indicizzazione e ordinamento della realt. Quando depositiamo dei dati in un archivio li disponiamo in ordine alfabetico o numerico e il modo in cui procediamo al loro reperimento avviene seguendone le tracce e passando da una sottoclasse a un'altra. Ma, sottolinea Bush, la mente umana non procede affatto per questa via. Essa opera per associazioni: quando concentrata su un pensiero, essa salta immediatamente al
26 Un esempio preso dal funzionamento che risiede dietro ai centralini telefonici. L'utente compone un numero e la macchina seleziona l'apparecchio ricevente, stabilendo nell'arco di pochi secondi una, e una sola, connessione fra milioni di combinazioni possibili.

34

successivo, che le suggerito dall'associazione di idee legata all'intricata rete di percorsi prodotti dalle cellule del nostro cervello. Un'altra caratteristica data dal fatto che i sentieri che sono seguiti meno frequentemente tendono a sbiadire, anche perch la memoria transitoria e imperfetta e gli elementi che la compongono non possono essere permanenti. Eppure la rapidit del funzionamento, l'intrico della struttura neuronale e la chiarezza di dettaglio delle immagini mentali, rappresentano l'apice della complessit in natura. Di certo l'uomo non pu sperare di ricreare in laboratorio questi processi, ma sarebbe almeno necessario che ne traesse ispirazione. In particolare dovremmo cercare di meccanizzare il compito di selezione associativa, lasciando da parte l'indicizzazione: non potremo eguagliare il cervello in termini di velocit e flessibilit, ma forse saremo in grado di superare la mente dal punto di vista della persistenza e della vividezza delle informazioni recuperate dagli archivi. Ed eccoci al punto in cui Bush descrive nel dettaglio il dispositivo denominato memex. Lo si pu immaginare come uno strumento per l'uso individuale, alla stregua di uno schedario privato e di una biblioteca automatizzata, all'interno del quale una persona pu conservare tutti i propri libri, registrazioni e corrispondenze e che, grazie alla tecnologia, pu essere consultato in modo rapido ed efficace. Esso incarna il vero e proprio supplemento alla memoria individuale ed caratterizzato da una scrivania27 sulla quale troviamo degli schermi (opportunamente inclinati per favorire la lettura di ci che su di essi viene proiettato), una tastiera e un certo numero di leve e bottoni. A un'estremit troviamo il materiale archiviato: non vi nessun pericolo che esso ingombri
27 Si noti l'anticipazione della metafora oggi diffusissima del desktop, tipica dell'interfaccia grafica dei moderni sistemi operativi.

35

eccessivamente la postazione perch l'uso dei microfilm garanzia di una notevole economia di spazio, che lascia inoltre gran parte di esso al meccanismo del memex (se anche avessimo un ritmo di inserimento dei dati dell'ordine delle cinquemila pagine al giorno, occorrerebbero centinaia di anni per riempire la sua capacit). Gran parte dei contenuti potranno essere direttamente acquistati e inseriti all'interno dei memex, ma ci sar l'ulteriore possibilit di registrarli autonomamente grazie ad un'apposita platina trasparente. Alla stregua di quanto avveniva nelle prime tipografie (e in modo simile a come faremmo oggi utilizzando uno scanner), questa versione moderna del torchio permetter di fotografare a secco il materiale apposto sulla platina, memorizzandolo in una determinata zona vuota della pellicola. Nel caso in cui si voglia invece consultare un determinato elemento, l'utilizzatore dovr solo digitare sulla tastiera il codice relativo e la pagina del libro in questione gli verr proiettata su uno degli schermi. Infine apposite leve permetteranno di scorrere le pagine alla velocit preferita, mentre un bottone speciale consentir di ritornare alla prima pagina. In questo modo qualsiasi libro potr essere immediatamente a nostra disposizione e consultato ancor pi agevolmente che se lo avessimo preso da uno scaffale, con l'ulteriore potenzialit di potervi aggiungere a margine delle note e dei commenti (sempre grazie alla fotografia a secco). Ma il memex, prosegue Bush nella Section 7 dell'articolo, si spinge oltre, tentando di ricreare i collegamenti per associazioni di idee tipici del funzionamento del cervello umano. Sar dunque possibile creare percorsi di ricerca assolutamente personali, legando insieme determinati oggetti secondo la pertinenza e gli interessi stabiliti dai singoli individui. L'utilit di questi tracciati personali star nel fatto che essi non tenderanno a scomparire (come invece avviene 36

nell'esperienza quotidiana, a causa dei limiti della memoria) e potranno essere fotografati e trasferiti (condivisi, diremmo oggi) in altri memex, portando cos alla nascita di nuove forme di enciclopedia, di strutturazione del pensiero nonch di risparmio cognitivo. Per concludere con le parole di Bush:
presumibly man's spirit should be elevated if he can better review his shady past and analyze more completely and objectively his present problems. He has built a civilization so complex that he needs to mechanize his records more fully if he is to push his experiment to its logical conclusion and not merely become bogged down part way there by overtaxing his limited memory. His excursion may be more enjoyable if he can reacquire the privilege of forgetting the manifold things he does not need to have immediately at hand, with some assurance that he can find them again if they prove important (ib).

La centralit del web e la sua influenza sui media tradizionali Con la chiarezza argomentativa che caratterizza i suoi scritti, Carlo Gubitosa evidenzia come:
il Web che conosciamo oggi sicuramente qualcosa di meno della visione di Nelson, ma sicuramente molti di pi di quello che si sarebbe potuto immaginare nel 1962, quando l'idea di un ipertesto globale iniziava a prendere forma, mentre i calcolatori elettronici presenti in tutto il mondo erano solo poche decine (2007, p. 203).

Se un primo tentativo di dare corpo al progetto futuristico di Bush e Nelson pu essere fatto risalire gi al 1967, quando un gruppo guidato da Andries Van Dam realizz presso la Brown University, negli Stati Uniti, l'Hypertext Editing System, uno dei primi sistemi finalizzati alla consultazione ipertestuale; 37

abbiamo anticipato che la vera e propria paternit del web deve essere riconosciuta all'europeo Tim Berners-Lee,
un giovane ricercatore che all'inizio degli anni '90 celebra il matrimonio tra l'idea di ipertesto, rimasta fino a quel momento poco pi di un'astrazione, e la tecnologia Internet, dove in quegli anni iniziava a fiorire un variegato sottobosco di sistemi dedicati all'information retrieval, ossia al recupero di informazioni (ib.).

Il punto di partenza di Lee era racchiuso nell'esigenza pratica di risolvere le difficolt organizzative e gestionali sperimentate quotidianamente sperimentate presso il CERN di Ginevra, un luogo cos creativamente caotico, dove decine di progetti di ricerca viaggiavano in parallelo, e dove spesso alcune informazioni cruciali si trovavano solamente nella testa delle persone incaricate di seguire un determinato progetto (pp. 203-204). Con notevole anticipo dei tempi, egli aveva colto la fondamentale importanza del ruolo della condivisione e dello scambio dei contenuti, possibilit che non erano affatto accessorie e collaterali, ma che costituivano le priorit e l'essenza stessa della rete.
Come una voce che grida nel deserto, Tim Berners-Lee grida all'industria informatica degli anni '90 che il mondo ha bisogno di un sistema per la condivisione di ipertesti su Internet, ma nessuna azienda disposta a prenderlo in considerazione. A quell'epoca c'erano gi in circolazione molti programmi per la lettura e il trattamento di ipertesti, ma nessuno era predisposto per scambiare informazioni via Internet. [] Di fronte alla sordit delle aziende informatiche, Il World Wide Web sembrava destinato ad una morte prematura, ma per una fortunata circostanza che cambia il corso della storia, Tim Berners-Lee fa un incontro destinato a segnare per sempre la propria esistenza e quella del mondo intero. Tra i colleghi del CERN, Tim fa amicizia con Robert Cailliau, un

38

ingegnere che rimane affascinato dalla visione di Berners-Lee e si convince della necessit di un sistema comune di condivisione dei dati da mettere a disposizione dei ricercatori. Da quel momento gli sforzi di entrambi vengono diretti verso un unico obiettivo: creare un ambiente di lavoro dove i dipendenti del CERN avrebbero potuto attingere ad un patrimonio comune di informazioni, indipendentemente dal computer o dal sistema operativo utilizzato (pp. 204-205).

Per far funzionare e rendere possibile tutto ci, Tim BernersLee svilupp tre protocolli indipendenti. Il primo di essi l' URI (Uniform Resource Identifier), sistema per cui a ogni documento pubblicato sul Web assume un indirizzo che lo identifica e individua tra gli altri, permettendone la sua reperibilit28. Il secondo elemento l'HTTP (HyperText Transfer Protocol), grazie al quale possibile sfogliare ipertesti sul Web all'interno della finestra di un'applicazione chiamata browser (ovviamente dopo aver digitato un appropriato identificatore di risorsa uniforme)29. Infine, il terzo e ultimo elemento, l' HTML, il linguaggio di rappresentazione degli ipertesti, considerato croce e delizia del web. Con un tempismo a dir poco romantico,
il giorno di Natale del 1990, nella sua workstation NEXT, Tim Berners-Lee lascia sotto l'albero un regalo per tutta l'umanit: il
28 Il problema, come vedremo pi avanti, che l'identificatore non permanente, ragion per cui non raro che le risorse modifichino indirizzo, complicando il loro reperimento e vanificando quindi l'efficacia del sistema. 29 Oltre all'http su Internet esistevano gi diversi protocolli per lo scambio di file e informazioni, come l'FTP (File Transfer Protocol, col quale si possono caricare e scaricare documenti in remoto da un computer a un altro) e l'STMP (Simple Mail Transfer Protocol, che permette di inviare messaggi di posta elettronica con eventuali allegati).

39

primo sito web della storia, nato all'interno del server nxoc01.cern.ch, a cui viene associato il pi noto alias info.cern.ch. Sul server viene pubblicato un indirizzario dei nomi e dei numeri di telefono del CERN. A questo punto c' un problema: a cosa serve un web dove l'unico sito esistente un elenco di ricercatori con numeri di telefono interni? Per attirare utenti c' bisogno di contenuti, ma per produrre contenuti c' bisogno di utenti. Tim Berners-Lee riesce a uscire da questo paradosso realizzando il browser in modo da poter accedere anche ai server 30 FTP per il trasferimento dei file e ai server dei newsgroup Usenet per l'accesso ai sistemi di messaggistica. All'interno di un'unica interfaccia utente vengono unificati i due pi grandi archivi di dati e informazioni presenti all'epoca su Internet. Attirati dal miele dei news server e degli archivi FTP, sciami di utenti iniziano ad affacciarsi alla nuova tecnologia ipertestuale. [] Il Web inizia a espandersi, e tra luglio e agosto del 1991 il server info.cern.ch registra un numero quotidiano di accessi che varia tra 10 e 100. Nell'estate dell'anno successivo gli accessi quotidiani al sito sono circa un migliaio al giorno, e dopo un altro anno arrivano a diecimila (pp. 208-209).

Ed a questo punto che inizieremo a chiarire perch in precedenza abbiamo definito l'HTML come croce e delizia del web. Da una parte infatti la sua notevole semplicit ha permesso una produzione esponenziale di siti e offerto a una miriade di persone uno strumento rapido e veloce per mettere a disposizione idee, risorse e documenti. L'altra faccia di questa estrema semplicit (accresciuta dagli editor WYSIWYG) per stata anche la sua maledizione, perch i pi vi si avvicinarono senza alcun bagaglio di esperienza e consapevolezza tecnica, alimentando una falsa illusione e vanificando almeno in questa fase iniziale le speranze di interoperabilit e portabilit del suo
30 Nel prossimo capitolo analizzeremo nel dettaglio questa forma di gruppi di discussione.

40

creatore. Ripercorriamo quindi le fasi salienti della storia dell'HyperText Markup Language. Nelle intenzioni del suo ideatore, il linguaggio di rappresentazione degli ipertesti doveva caratterizzarsi essenzialmente per la sua semplicit e facilit di utilizzo. Punto di partenza fu in tal senso l'SGML31, del quale Tim Berners-Lee allegger la potenza e flessibilit semantica, fermo restando per l'obiettivo di definire e descrivere la struttura logica dei documenti, lasciando in secondo piano il contenuto e ancor pi la veste presentazionale. Richiamandoci alla distinzione aristotelica tra essenza e accidenti, potremmo dire che lo scopo di questo linguaggio di marcatura ipertestuale era quello di cogliere gli elementi sostanziali di un documento, nonch i rapporti logici fra le sue varie componenti, affidando ad altri linguaggi il compito di descrizione dello stile, del formato e di tutti gli altri attributi grafici. Pertanto, a differenza di quanto avviene negli editor WYSIWYG (come ad esempio i programmi di videoscrittura, in cui per l'appunto quello che vedi ci che ottieni), l'HTML era stato dotato di una serie di tag limitate e predefinite, pur mantenendo una porta aperta alla possibilit di estensioni e aggiornamenti che non compromettessero comunque l'utilizzabilit delle versioni precedenti. Inoltre, aspetto che come vedremo non si riveler privo di conseguenze, fu riscontrata la possibilit di visualizzare il codice HTML attraverso la finestra del browser: questa trasparenza, inizialmente non prevista dalla stesso Tim Berners-Lee, fece s che moltissime schiere di utenti della rete
31 Lo Standard Generalized Markup Language un metalinguaggio che consente di definire altri linguaggi da utilizzare per la redazione di testi destinati a essere trasmessi e archiviati per mezzo di strumenti informatici. La sua principale funzione consiste nella stesura di una DTD (Document Type Definition), attraverso la quale si stabilisce in modo preciso il tipo di documento e la sua struttura logica.

41

potessero familiarizzare con i tag e iniziassero a scrivere e pubblicare direttamente e in piena autonomia i propri documenti in HTML. Il popolo degli autodidatti e degli smanettoni, accanto agli stessi sviluppatori, gioc cos un ruolo chiave nella partecipazione attiva al processo di crescita ed estensione del Web, riversando in questo universo ipertestuale un numero sempre pi grande di documenti, contenuti e pagine personali. Fu in questa fase, sotto molti punti di vista positiva e auspicabile, che si inizi a perdere il controllo, forzando la mano con l'HTML e spingendolo ben oltre i suoi confini di partenza. Le prime pagine web in effetti decisamente rudimentali e del tutto omologate, quanto di pi lontano dall'esperienza di luci, colori, immagini e sottofondi musicali, con cui siamo abituati ad avere a che fare oggi (e che anzi, alle volte cos abbondante da risultare fastidiosa e facilmente confondibile con il rumore). Non un caso se Jeffrey Zeldman, noto web designer attento ai temi dell'accessibilit dei siti internet e all'importanza degli standard, si spinse a definirle come una comunicazione progettata da fisici per altri fisici, fatta di pagine di testo in bianco e nero, scritte in Times New Roman e intervallate da parole blu sottolineate. Il medium del futuro, intorno al quale la comunit di utenti produttori e fruitori dei contenuti era in continuo fermento ed espansione, non poteva permettersi di offrire un approccio visuale cos piatto e privo di impatto, di fatto in tutto e per tutto simile a quello di un comune quotidiano o di un libro qualsiasi. La potenza dei collegamenti ipertestuali non era messa in discussione, ma doveva necessariamente essere accompagnata da una altrettanto innovativa esperienza estetica, in grado di catturare l'attenzione e in particolar modo di aprire le porte della multimedialit. 42

I contenuti che popolano il Web sono organizzati nei cosiddetti siti web, pagine composte da testo ed elementi grafici (con l'aggiunta a seconda dei casi di oggetti multimediali, come immagini, video e canzoni), le quali vengono visualizzate da computer e dispositivi similari attraverso specifici programmi, denominati web browser. Questi ultimi, come suggerisce il termine inglese (dal verbo to browse: sfogliare, navigare), sono in grado di interpretare il livello di codice con cui la pagina costruita e, attraverso le potenzialit di un'interfaccia grafica user-friendly, restituiscono all'utente un'esperienza visiva immediata e completa. Per chiarire questo punto per necessario fare un passo indietro e approfondire la natura e lo scopo del codice con cui sono scritte le pagine web. Come abbiamo detto in precedenza, i contenuti della rete si caratterizzano per la loro duplice testualit. Il livello pi nascosto pu essere paragonato al ruolo di tecnico delle luci e del suono in uno spettacolo teatrale: non viene visto mai dallo spettatore, ma (anche) dal suo operato che dipende il successo della rappresentazione e il favore della critica. Gli ipertesti che compongono l'enorme patrimonio di contenuti del Web sono una veste esteriore e fenomenica (gli attori, i ballerini e le scenografie), che per funzionare ha tuttavia bisogno di un'attenta e precisa regia. E questo ruolo decisivo proprio quello che svolgono i linguaggi di marcatura. Essi permettono di produrre e pubblicare le pagine ipertestuali, comunicandone la struttura grazie a una serie di marcatori (tag) che funzionano come vere e proprie etichette della porzione di testo cui si accompagnano. Questi set di descrittori del testo hanno la funzione di metadati e rispondono ad una precisa, per quanto semplice, sintassi 32: per mezzo di
32 In HTML e ancor pi nella sua pi recente evoluzione, XHTML, il marcatore scritto tra parentesi uncinate (con l'aggiunta di un simbolo di barra nel

43

loro dunque possibile individuare le principali unit logiche da cui una pagina composta (intestazione, autore, titolo, corpo del testo, paragrafo, liste, collegamenti ad altri documenti e immagini, per citare solo alcuni dei pi significativi). Queste informazioni strutturali non hanno un corrispettivo a livello di presentazione grafica ma, oltre all'importante ruolo descrittivo, giocano un ruolo fondamentale nelle operazioni di indicizzazione e reperimento dei contenuti da parte dei motori di ricerca. Gli algoritmi che permettono a Google e compagni di rispondere in frazioni di secondo alle interrogazioni digitate dagli utenti si basano infatti su software molto particolari (chiamati crawler o spider, appartenenti alla classe dei bot) che analizzano in modo metodico e automatizzato (e a velocit elevatissime) i contenuti della rete. Ci che davvero rileva che essi non vanno a leggere il livello manifesto dei documenti, concentrandosi piuttosto su tutte quelle meta-informazioni che invece sfuggono all'occhio umano33. Nonostante l'importanza di queste operazioni che puntano al nucleo logico e strutturale di un documento, il risultato prodotto dai linguaggi di marcatura ancora poca cosa se confrontato con gli effetti e i layout presentazionali di una pagina web, capace spesso di catturare l'attenzione del fruitore di turno (e, cosa ancora pi importante, di fare s che in seguito
tag di chiusura) e deve essere posto all'inizio e alla fine della porzione di testo marcata. Esempio: <p>Contenuto del paragrafo</p>, <head>Intestazione</head>. 33 Questo discorso diventa particolarmente significativo nel caso di Google, che ordina i suoi risultati attraverso il PageRank, un algoritmo che assegna un valore di rilevanza ad un sito proporzionalmente al numero di altri siti che ad esso rimandano. un modo per esprimere il rango di una pagina web riconducibile al concetto di popolarit tipico delle relazioni sociali umane, della quale misura l'importanza relativa rispetto all'intero docuverso digitale.

44

vi ritorni) proprio in virt del suo aspetto e impatto visivo. Potremmo dire che la descrizione logica di un sito sta alla sua formattazione e impaginazione come l'indice e la sinossi di un libro stanno alla sua copertina e veste grafica. Se un indice ben fatto pu fornire una prima idea dell'opera che si ha dinanzi, essendo una guida razionale in grado di semplificare il processo di interpretazione e lettura di un testo, infatti fuori discussione l'importanza che rivestono elementi come la font (si tratta del particolare carattere tipografico adottato, che dovrebbe essere sempre il pi coerente e adeguato possibile al tipo di messaggio che si sta veicolando), la presenza di un colore di sfondo e di altri ornamenti, nel sancire il successo o meno della comunicazione che la stessa opera vuole veicolare. Non dobbiamo mai dimenticare che ogni sito web non altro che un progetto di comunicazione. Chi volesse cimentarsi in questo tipo d'impresa dovrebbe avere sempre chiaro il seguente obiettivo di fondo: cercare nel pi breve tempo possibile di convincere il potenziale visitatore (che pu essere giunto su quel sito per puro caso e non essere intenzionato a fare eccessivi sforzi cognitivi per decifrare ci che esso contiene) che vale la pena collegarsi e mettersi in relazione con chi ha creato quei contenuti e cos conquistarlo e spingerlo ad una visita successiva. E per ottenere tutto ci necessario che le informazioni digitali siano al tempo stesso ben strutturate ed esteticamente gradevoli. Per farla breve, anche una questione di stile. Agli albori del Web i documenti che venivano prodotti erano molto semplici: si trattava di rudimentali pagine di testo in bianco e nero, scritte in carattere Times New Roman e con link sottolineati di colore blu. Chiunque conosceva il linguaggio di marcatura poteva trasformarsi in autore e pubblicare i propri pensieri e idee sulla Rete, ma il risultato visivo era ancora 45

estremamente modesto e appiattito. Un primo passo avanti si ebbe a seguito dell'introduzione del tag <img>, col quale fu possibile incorporare nel documento HTML anche delle immagini. Esso fu proposto da Marc Andreessen, un programmatore di Mosaic, il primo browser web grafico, che nel 1994 decise di mettersi in proprio, fondando una societ chiamata Netscape. Il browser di quest'ultima, Navigator, diventa ovviamente il programma di navigazione pi utilizzato dagli utenti della rete e, al fine di soddisfare le richieste provenienti da questo mercato in espansione, si premura di introdurre nel linguaggio HTML tutta una serie di funzionalit sempre pi attraenti34. Nel 1995 fa invece il suo ingresso sulla scena Microsoft, con il suo browser web Internet Explorer, corredato sin dall'inizio dal suo pacchetto di tag presentazionali (come ad esempio <marquee>, <iframe> e <bgsound>). E fu cos che ebbe inizio quella che passata alla storia come la guerra dei browser. Grazie a questi dispositivi il Web inizi ad espandersi in modo molto rapido, rivelando la sua enorme appetibilit economica, inscritta nella sua natura di vetrina e spazio ideale per i guadagni e il commercio, attirando l'attenzione delle imprese e della pubblicit. Inizi una vera e propria competizione all'ultimo sangue fra le principali aziende di browser, combattuta a colpi di modifiche agli standard e finalizzata a estendere e migliorare le potenzialit dell' HTML, a spese dei propri avversari. Il ragionamento su cui poggiava questa strategia era molto semplice: il browser il software che permette ai miei clienti di visualizzare le pagine web; incrementando le possibilit del linguaggio di scrittura delle pagine render l'esperienza di fruizione della mia utenza
34 Fanno la loro comparsa tag quali <background>, <frame>, <blink> e <font>, tutti non previsti nel set ideato da Tim Berners Lee poich finalizzati ad arricchire la sola resa grafica delle pagine web.

46

migliore rispetto a quella prodotta dal mio avversario e di conseguenza le persone sceglieranno il mio browser (e quindi maggiore utenza, maggiori guadagni). Venne cos introdotto un numero ingente di nuovi tag (che consentivano possibilit grafiche accattivanti, estensioni e integrazioni di materiale multimediale) che per erano proprietari e compatibili esclusivamente con un singolo browser. I contenuti non comunicavano tra loro e, se si sceglieva di scriverli adottando le regole di un determinato software, si doveva accettare in partenza il fatto che essi non sarebbero stati visualizzati da un altro. Si giunse alla situazione paradossale per cui una pagina doveva essere costruita in differenti versioni (con un elevato sovraccarico di lavoro in fase di progettazione), al fine di garantirne una diffusione pi ampia. Ancor pi, l'esperienza del Web divenne diversa e a volte addirittura impraticabile se non si sceglieva di sfogliarne le pagine con il browser giusto. E va da s che quando a comandare sono gli interessi e il posizionamento economico, la parola giusto non esiste ed altro non che un sinonimo di pi forte. Perch infatti sviluppare, e di conseguenza, pagare due siti per due piattaforme applicative diverse, quando una ha la maggioranza schiacciante? Alla fine la tutto fuorch democratica legge del mercato decret il vincitore e fu Internet Explorer a prevalere, quando nel 1998 Microsoft associ in modo indissolubile il suo browser al proprio sistema operativo Windows. Ma non possibile uscire indenni da nessuna guerra. Le vittime del conflitto appena descritto furono in primo luogo i navigatori, il nascente popolo del Web, che dovettero dire addio al sogno della condivisione universale delle informazioni. Va da s infatti che si inizi a progettare per il browser pi forte (e di conseguenza pi diffuso). In secondo luogo, a cadere sul campo fu proprio il linguaggio HTML, che perse il suo senso originario, diventando 47

un confuso e poco gestibile ibrido a met strada tra struttura e presentazione. La sua carica semantica e logica andarono perdute, cos come la possibilit di garantire la portabilit e interoperabilit dei documenti con esso prodotti. Al fine di recuperare questa situazione e portare avanti il sogno di un Web aperto e capace di mantenere la promessa della condivisione dei contenuti e dei saperi, nonch lo sviluppo della conoscenza, il World Wide Web Consortium35 (W3C) inizi ad elaborare una serie di interventi significativi36. Tim Berners-Lee e i suoi collaboratori decisero di puntare soprattutto su due fronti, ovvero l'XML da un lato e i CSS dall'altro. Il primo (il cui acronimo sta per eXtensible Markup Language), divenuto ormai uno standard di fatto, altro non che una versione semplificata del ben pi potente e complesso
35 Fondato nel 1994 da Tim Berners-Lee, ad esso contribuiscono numerosi partner illustri, tra cui il Laboratorio di Computer Science del MIT, l'Istituto nazionale francese per la ricerca su informatica e automatica (INRIA), la giapponese Keio University e lo stesso CERN di Ginevra, con la partecipazione esterna della Commissione Europea e della DARPA (l'ex ARPA, oggi divenuta Defense Advanced Research Projects Agency). Le attivit principale del consorzio riguardano la realizzazione di prodotti software di pubblico dominio e il supporto tecnico a sviluppatori e utenti di programmi web, che possono attingere anche da un'ampia raccolta di documenti. In particolare meritano attenzione le iniziative portate avanti dal W3C allo sviluppo di standard, tecniche e programmi per garantire l'accessibilit del World Wide Web anche a persone disabili (p. 215). Riportiamo in breve la sua mission, consigliando comunque un approfondimento nelle varie sezioni del sito ufficiale (www.w3.org): The W3C mission is to lead the World Wide Web to its full potential by developing protocols and guidelines that ensure the long-term growth of the Web. Below we discuss important aspects of this mission, all of which further W3C's vision of One Web. 36 Il W3C non un organismo dotato di potere normativo, pertanto le sue azioni assumono la forma di raccomandazioni, per quanto questo non significhi che possano imporsi come veri e propri standard de facto.

48

(Standard Generalized Markup Language), metalinguaggio di marcatura attraverso cui possibile creare altri linguaggi di markup, con cui strutturare documenti e informazioni non solo per il Web. E il suo ponte sui contenuti ipertestuali, l'XHTML, altro non che una riformulazione dell'HTML in XML, del quale cerca di ricalcare la coerenza e l'adozione delle regole sintattiche di un vero e proprio linguaggio di marcatura37. Per quanto riguarda invece la visualizzazione delle pagine, ci si concentr su un linguaggio di supporto, basato sui CSS38. I Cascading Style Sheets (fogli di stile a cascata) si occupano infatti di definire la formattazione dei contenuti digitali, incorporando al loro interno le scelte relative alla loro veste grafica e tipografica, promettendo finalmente di realizzare la completa e interoperabile separazione tra struttura e presentazione dei documenti. Per far s che questi obiettivi riuscissero a concretizzarsi di grande importanza fu il supporto e la campagna portata avanti dal Web Standards Project39. Il WaSP un gruppo di web designer fondato nel 1998, che si sempre mostrato sensibile alla necessit di diffondere gli standard all'interno della comunit della Rete e che dedica il suo impegno ad
SGML

37 Cosa che non avveniva nell'originale HTML, dove ad esempio alcuni tag potevano non essere chiusi, altri dovevano esserlo e altri ancora potevano indifferentemente essere chiusi o restare aperti. 38 Le prime specifiche furono rilasciate nel 1996, quando l'idea originaria di Tim Berners Lee era ancora quella per cui sarebbe stato il browser del visitatore a impostare l'aspetto della pagina web secondo il proprio foglio di stile incorporato. Nel 1998 usc la seconda versione dei CSS, arricchita da un gran numero di strumenti di impaginazione non limitati alla tipografia, mentre nel 2004 fu la volta della versione CSS 2.1. I CSS 3 non sono stati ancora emanati, ma risultano in fase di sviluppo. 39 Rimandiamo anche in questo caso al sito web dell'organizzazione (www.webstandards.org), dove possibile consultare la finalit e gli obiettivi principali del progetto.

49

incrementare l'accettazione delle raccomandazioni elaborate dal W3C. Ci che viene sottolineato ancora una volta l'importanza di ridurre il costo e la complessit dello sviluppo delle pagine web, attraverso l'adozione di regole e codici condivisi, capaci di garantire l'accessibilit, la durata e la permanenza a lungo termine dei documenti pubblicati sul Web. E i vantaggi della separazione di struttura e presentazione di un documento sono sotto gli occhi di tutti: coerenza di visualizzazione su scala globale (indipendentemente dal browser adottato); gestione agevolata dello stile del sito 40 e facilit per quanto riguarda i successivi interventi di riprogettazione; miglioramento dell'esperienza del visitatore 41, nonch dell'indicizzazione da parte dei motori di ricerca. Una coda lunghissima e in continua espansione L'insostenibile leggerezza del bit Ci che per rende unico il Web la sua possibilit di configurarsi come un contenitore, o per meglio dire un vero e proprio spazio, di informazioni e contenuti illimitato e costantemente accessibile, che sembra mantenere la promessa e il sogno di poter realizzare una biblioteca universale. Quell'aspirazione antichissima (basti pensare alla Biblioteca di Alessandria) e mai sopita dell'uomo, che pervade le riflessioni
40 proprio in tal senso che parliamo di fogli di stile a cascata (cascading): modificando una singola regola presentazionale, cambieremo automaticamente tutte le pagine del sito che a quella regola sono legate. 41 L'eliminazione del codice di presentazione dall'HTML permette di ridurre notevolmente il peso di una pagina web, rendendo pi rapida (e quindi meno frustrante per il visitatore) la velocit con cui essa viene caricata dal browser.

50

dello scrittore argentino Borges42 e le cui premesse filosofiche sono rintracciabili gi nel progetto del Memex di Vannevar Bush43 e nel sistema utopico Xanadu pensato da Ted Nelson, sembra oggi un obiettivo concreto e raggiungibile, che tra l'altro ognuno di noi pu contribuire a costruire. E tutto questo pu essere meglio compreso se riflettiamo sulla profonda differenza tra la realt prima dell'epoca digitale, quello che stato definito il mondo degli atomi (Anderson 2006), e il quadro contemporaneo basato su quelle nuove entit che sono i bit e gli impulsi elettrici, i mattoncini elementari della tecnologia informatica che hanno rivoluzionato gran parte delle imprese umane e alleggerito in modo drastico tutta una serie di ostacoli e barriere fisiche. Prime fra tutte lo spazio e il tempo. In un mondo cablato e interconnesso come il nostro 44 siamo infatti andati ben oltre il villaggio globale caro a McLuhan (1962) e assistiamo quotidianamente alla facilit e velocit con cui le informazioni viaggiano attraverso le autostrade digitali, consentendo interazioni e scambi pressoch sincroni anche tra individui separati da enormi distanze geografiche. Inoltre, abbiamo assistito ad una ridefinizione dell'industria dei contenuti, soprattutto nel campo dell'intrattenimento, che ha portato a definire in modo del tutto nuovo il concetto di cultura popolare. L'era del network broadcasting, caratterizzata dalla trasmissione simultanea dello stesso programma da parte di due stazioni segn nel corso del
42 Con riferimento particolare al racconto La biblioteca di Babele, inizialmente apparso nel 1941 all'interno della raccolta Il giardino dei sentieri che si biforcano e poi, nel 1944, nel volume Finzioni. 43 Ritorneremo pi avanti sulla straordinaria idea che Bush espresse nell'articolo As we may think, pubblicata nel 1945 sul periodico Atlantic Monthly. 44 Per quanto ancora elevato e grave sia il problema del digital divide e la disparit di interconnessione tra il Nord e il Sud del mondo.

51

Novecento la nascita di una cultura nazionale, condivisa e sincronizzata (Anderson 2006, p. 19). Fu l'ultimo anello di una serie di innovazioni tecniche e sociali che ebbero inizio con il fenomeno dell'urbanizzazione e della nascita delle prime grandi citt, legato alla moderna era industriale e alla crescita del sistema ferroviario. In America come in Europa aveva prevalso fino a quel momento una cultura locale, frammentata e separata dalle distanze e dalle difficolt comunicative che esse comportavano. Si trattava per lo pi di comunit molto piccole e autosufficienti, alimentate da economie di tipo agrario e aggregate dai valori della Chiesa, la principale unificatrice culturale della popolazione, grazie anche all'enorme diffusione che, a partire dall'introduzione della stampa a caratteri mobili, la Bibbia aveva potuto avere tra le masse (p. 17). A partire dall'Ottocento tuttavia questo microcosmo inizi ad arricchirsi di tutta una serie di invenzioni destinate ad ampliare sempre pi i confini, non solo geografici, ma anche mentali, degli individui, gettando le basi per quella cultura globale e ibrida che caratterizza i nostri giorni. Il miglioramento dell'arte tipografica, l'introduzione della fotografia e del fonografo, seguite a stretto giro dalla nascita del cinema, favorirono una prima ondata di cultura popolare. Grazie a canali come riviste, romanzi, spartiti musicali, pamphlet politici, cartoline, biglietti d'auguri e cataloghi commerciali, il mondo inizi ad essere pi vicino e strettamente connesso: i nuovi media acceleravano lo scambio e la diffusione di idee e tendenze, propagando mode e stili di vita comuni. E ancor pi avrebbero fatto la radio e la televisione, che inaugurarono l'epoca dei mezzi di trasmissione di massa, grazie anche alla particolarit tecnica della propagazione delle onde elettromagnetiche, in grado di coprire a costi prossimi allo zero distanze enormi e in grado

52

dunque di raggiungere le case di un'intera nazione 45. Nacquero cos i primi show di successo e le prime forme di divismo, alimentate dalla visibilit e popolarit che questi mezzi consentivano e su cui la quasi totalit del pubblico in possesso di un apparecchio ricevente si sintonizzava. in tal senso che Anderson (2006) parla di effetto boccione dell'acqua, richiamandosi a quell'occasione di socializzazione che avviene fra colleghi nei momenti di pausa dal lavoro, intorno a questo tipico punto di ritrovo degli uffici. Tra una battuta e l'altra la situazione classica era quella di finire a parlare di un evento culturale condiviso, come poteva essere il programma andato in onda la sera prima. E negli anni '50 e '60 del Novecento era normalissimo che la stragrande maggioranza delle persone avesse visto la stessa cosa e si fosse sintonizzata sullo stesso canale. Se solo provassimo ad ascoltare gli scambi di battute che avvengono oggi fra colleghi di lavoro o compagni di universit davanti alle macchinette del caff probabile che non riusciremmo a trovare due sole abitudini comuni in materia di dieta mediatica, rilevando come le scelte di intrattenimento compiute la sera precedente dalle varie persone siano ormai del tutto diverse. Che cosa ha reso possibile tutto ci? D'altra parte questo cambiamento non ha riguardato solamente la dieta televisiva quotidiana di milioni di individui, coinvolgendo piuttosto molti altri settori della cultura e del tempo libero. Pensiamo alla radicale trasformazione che ha interessato l'industria discografica, un settore che era secondo soltanto a Hollywood nella classifica dell'industria dell'intrattenimento (p. 21) e che negli ultimi decenni, e in particolare a partire dal 2000, risulta sempre pi in crisi.

45 Decisiva, come ricorda Anderson (2008), fu la tecnologia sviluppata dalla AT&T, basata sull'utilizzo delle reti telefoniche.

53

Chiamare in causa i danni provocati dalla pirateria 46 legittimo, ma rischia al tempo stesso di diventare un facile alibi e il sintomo di non aver colto il cambiamento di mentalit delle persone che in atto ormai da alcuni anni. Senza dubbio la tecnologia ha assestato un colpo molto forte ai guadagni delle etichette musicali, favorendo la migrazione di una moltitudine di clienti dai negozi di dischi agli spazi virtuali della rete, dove era possibile scaricare direttamente sul proprio computer musica gratuita. Ma l'altra faccia di questa medaglia sta nel riconoscere l'enorme offerta che il Web, per la sua pi volte citata natura di contenitore praticamente illimitato in cui si pu trovare quasi qualunque cosa, in grado di mettere a disposizione:
vero, la tecnologia aveva ispirato l'esodo dei clienti, ma non solo perch permetteva di scansare il registratore di cassa: il fatto che offriva anche una scelta enorme e senza precedenti, in termini di brani disponibili. Un normale network di file trading ha pi musica di qualsiasi negozio di dischi. E vista l'offerta, gli appassionati di musica non poterono rifiutarla. Oggi il pubblico non solo ha smesso di comprare tanti cd, ma sta anche perdendo quel gusto per i blockbuster che un tempo lo faceva riversare in massa nel negozio di dischi il giorno dell'uscita di un certo cd. Di fronte all'alternativa tra scegliere una boy band o scovare qualcosa di nuovo, sempre pi gente decide per la seconda opzione, e di solito resta maggiormente soddisfatta da ci che trova (pp. 23-24).

La parola chiave all'interno della citazione che abbiamo


46 Facciamo riferimento a Napster e altri servizi online di file trading P2P (peer-to-peer, da utente a utente), nonch allo scambio di CD masterizzati, tutte pratiche considerate dall'industria discografica come le principali cause della contrazione del proprio mercato e al centro di innumerevoli azioni legali.

54

riportato, e sulla quale conviene riflettere, appassionati. questa infatti una realt sempre pi emergente e nella quale possiamo imbatterci quotidianamente. Non stiamo facendo riferimento alla tendenza del dilettantismo allo sbaraglio che ha sempre registrato la sua presenza sui media mainstream e che ancora oggi presente, con risultati pi o meno riusciti, e purtroppo spesso culturalmente poco validi. Quello di cui stiamo parlando invece un fenomeno che ha a che fare principalmente con la rete e con la sua potentissima cassa di risonanza, che vede come protagonisti gli uomini e le donne della strada, persone comuni ma che comunque si distinguono le une dalle altre e che talvolta riescono a evidenziarsi e a mettere in mostra le proprie capacit e attitudini. In the future, everyone will be world-famous for 15 minutes, aveva affermato Andy Warhol nel 1968: questa frase, gi rivelatasi profetica, lo sembra ancor pi ai nostri giorni, nell'epoca della riproducibilit tecnica all'ennesima potenza, consentita da internet e dalle tecnologie digitali. Cosa ancor pi significativa, potrebbe declinarsi finalmente in modo virtuoso e costruttivo. I vari servizi tipici del web 2.0, su cui ci soffermeremo nel dettaglio pi avanti, con le punte di diamante rappresentate da Wikipedia e dai blog, consentono come non era mai avvenuto prima di abbandonare le vesti stantie e sorpassate di fruitori passivi, permettendo a chiunque di diventare produttore attivo di contenuti e idee, oltre che veri e propri editori di se stessi, il pi delle volte a costi prossimi o pari allo zero. Per concludere:
invece del boccione d'acqua, che attraversa le barriere culturali come soltanto l'assortimento casuale di personalit tipico del posto di lavoro riesce a fare, frequentiamo sempre pi delle trib tutte nostre, gruppi legati pi dall'affinit e da interessi comuni che dai palinsesti standardizzati delle emittenti. Al giorno d'oggi i nostri boccioni dell'acqua sono sempre pi virtuali ne esistono

55

tanti diversi fra loro, e la gente che vi si raduna attorno si autoselezionata. Da un mercato di massa, stiamo tornando verso una una nazione di nicchie, una nazione definita non dalla nostra geografia ma dai nostri interessi (p. 31).

Qualcosa di simile si verificata anche nel settore radiofonico, sempre pi colpito dalla crisi degli ascolti, tanto che nel 2005, in media ogni settimana una stazione rock americana chiudeva i battenti (p. 26). Accanto ad alcune innovazioni legislative47, evidente come negli ultimi anni le abitudini relative al consumo musicale delle persone siano cambiate rispetto al passato. La crescente diffusione del formato di archiviazione mp3 ha trasferito l'ascolto dei brani dalle frequenze delle stazioni radio ai lettori musicali portatili, all'interno dei quali possibile caricare le proprie compilation e gli album musicali preferiti. Questo formato di compressione, pur riducendo in parte la qualit del suono, caratterizzato da un rapporto di riduzione delle dimensioni dei file molto vantaggioso, tanto che nei lettori attualmente disponibili sul mercato si possono memorizzare librerie musicali composte da decine di migliaia di canzoni. In tal senso da qualche anno ormai un vero e proprio oggetto di culto il lettore iPod della Apple, in grado di combinare la praticit di utilizzo con un design elegante e innovativo, la cui potenza di memoria permette di inserire al suo interno migliaia
47 Per rimanere nel contesto americano, su tutte basti ricordare il Telecommunications Act del 1996, che attu una vera e propria liberalizzazione del settore, riducendo i monopoli e aprendo l' FM a migliaia di stazioni radiofoniche, e l'aumento dei controlli e della vigilanza da parte della FCC (Federal Communications Commission), al fine di arginare la presenza di contenuti osceni e oltraggiosi nelle trasmissioni, con il risultato di aumentare il livello di omogeneizzazione dei programmi e l'autocensura da parte degli autori.

56

di ore di musica, nonch video e fotografie 48. Tutto ci a dimostrazione del fatto che:
la musica in s non caduta in disgrazia. Anzi. Non c' mai stato momento migliore per essere un artista o un appassionato. Ma internet ad essere diventata il miglior veicolo di scoperta per la nuova musica, mentre il tradizionale modello di marketing, vendita e distribuzione caduto in disgrazia. Il sistema delle grandi case discografiche e della distribuzione al dettaglio, assurto a una dimensione titanica grazie alla macchina sforna-hit rappresentata dalla radio, si ritrovato con un business model dipendente dai dischi di platino e oggi non ce ne sono a sufficienza. Stiamo assistendo alla fine di un'epoca. Chiunque sia munito delle candide cuffiette sta ascoltando l'equivalente di una personale stazione radiofonica, ma priva di interruzioni pubblicitarie. La cultura oggi non consiste pi nel seguire la folla fino alla vetta delle classifiche, ma nel trovare un proprio stile ed esplorare territori lontani dal mainstream, come musiche di autori relativamente sconosciuti o classici dei tempi passati (pp. 27-28).

E una situazione analoga riscontrabile anche in tutti gli altri territori dell'intrattenimento e dei mass media. Ne La coda lunga, Chris Anderson elencava una serie di statistiche relative al 200549, che evidenziavano lo stato di grave malattia
48 Anderson osserva come: la caratteristica davvero dirompente dell'iPod era la sua memoria, ben 60 gigabyte (al momento essa si estesa fino a raggiungere i 160 GB, ndr). Ci permetteva al suo proprietario di portarsi dietro interi archivi musicali, fino a diecimila brani, un inventario pari a un piccolo negozio di dischi. Pochi anni dopo, l'iPod era diventato la personale colonna sonora di milioni di persone mentre camminavano per strada, mentre lavoravano, mentre viaggiavano sui mezzi pubblici(pp. 24-25). 49 L'elenco comprendeva il calo (in preoccupante accelerazione) del box office di Hollywood, la continua diminuzione del numero dei lettori di quotidiani e di acquirenti di riviste e infine il perenne ribasso degli share

57

di questi settori; oggi, a distanza di pi di sei anni, il quadro non pu che essere ulteriormente peggiorato. Se da un lato vero che tra gli anni '70 e '90 la televisione ha registrato una crescita continua, aumentando sempre pi l'offerta di canali e le ore di programmazione, grazie anche al via cavo e al satellite, innegabile che l'agente principale delle trasformazioni stata internet. L'iniziale passaggio dalla cultura di massa imposta dal palinsesto quando un americano di ceto medio la sera poteva scegliere tra tre o quattro film trasmessi in televisione, pi quelli proiettati nei cinema locali (p. 201) ad una prima forma di cultura di nicchia era gi iniziato nel corso degli anni Ottanta, quando la sinergia del formato VHS, insieme al videoregistratore e alle videoteche:
permise di portare migliaia di film in ogni salotto, tutte le sere. Il risultato fu una transizione da prodotti imposti (che fossero imposti nell'etere o nei cinema locali) a prodotti scelti. [] Quello che il videoregistratore e le videoteche anticiparono implicitamente fu la nascita dell'era della scelta infinita. Il sabato sera, grazie a quei negozi, la scelta di film disponibili aument di cento volte tanto. Anche la TV via cavo centuplic l'offerta televisiva. Oggi, grazie a Netflix50 e il noleggio DVD via e-mail, di mille volte tanto. E internet la aumenter di un milione di volte. Ogni volta che una nuova tecnologia permette una maggiore scelta, che sia il videoregistratore o internet, i consumatori ne fanno richiesta a gran voce. solo quello che vogliamo, e che forse abbiamo sempre voluto (pp. 201-202).
televisivi, cui contribuisce la preferenza accordata dagli spettatori al via cavo e alla tv satellitare (p. 28). 50 Societ statunitense che offre un servizio di noleggio di DVD e videogiochi via internet, la cui spedizione e riconsegna avviene tramite il servizio postale.

58

Un agente di modificazioni ancor pi sorprendente stato negli ultimi anni YouTube, un sito web di propriet della Google Inc., la cui popolarit in termini di traffico e connessioni tra le pi elevate della rete. Se Google rappresenta la coda lunga del reperimento dei contenuti e Wikipedia ha un'analoga funzione nel mettere a disposizione e archiviare definizioni che riguardano praticamente qualsiasi cosa, YouTube rappresenta probabilmente il pi consistente database virtuale di file video. Effettuando ricerche al suo interno ed entrando nella catena circolare (e in teoria infinita) di rimandi e suggerimenti ad altro materiale che esso offre, possibile perdersi in un numero impressionante di videoclip di canzoni, spezzoni di film e cartoni animati, notiziari e quant'altro possa essere fatto rientrare nella categoria di immagini in movimento. Dallo sport, alla politica, dai tutorial alle dimostrazioni di ricette, dalle band sconosciute che caricano le proprie performance e si autopromuovono alle schiere di individui qualsiasi che hanno trovato nello spazio della rete il proprio Speakers' corner domestico, capace di diffondere e amplificare un messaggio verso ogni angolo del pianeta, la grande novit di YouTube si misura ancora una volta nelle possibilit che esso mette nelle mani dell'esercito dei ProAm. Questa nuova televisione all'insegna della fantasia al comando, figlia anch'essa del Web 2.0, si presenta come qualcosa di totalmente lontano dal flusso di contenuti mainstream tipico del media tradizionale, del quale abbiamo usato il nome solo per comodit descrittiva. Al suo interno si pu davvero trovare di tutto, con un ritmo di aggiornamento e aggiunta dei materiali che riflette l'attualit e quanto ogni giorno accade nel mondo. Vengono inoltre proposti montaggi inediti e doppiaggi alternativi, all'insegna della filosofia tipica dell'ultimo decennio, che invita al rimescolamento dei 59

linguaggi e a quella commistione e sovrapposizione delle forme che pu apportare novit e condurre a creazioni del tutto originali e autonome rispetto a quelle da cui si era partiti. Come tutte le imprese che portano alla ribalta la creativit e l'ingegno degli individui comuni e di quanti non siano ancora stati riconosciuti dai canali ufficiali come artisti, evidente che YouTube presenta al suo interno una notevole variet di contenuti, in cui lo zoccolo duro di segnale deve inevitabilmente emergere e sgomitare con una certa quantit di rumore. Quel che certo, e che rileva ai fini della nostra argomentazione, l'ulteriore colpo destabilizzante che un fenomeno di questo genere ha assestato ai media tipici dell'era pre-digitale e che contribuisce ad alimentare quella immensa coda lunga che ci circonda e surclassa sempre pi grazie alla sua offerta e variet illimitate. Quando ancora il computer non esisteva: un passo indietro Quando parliamo di coda lunga la prima cosa che ci viene in mente internet, ma in realt il Web si limitato a unire gli elementi di una rivoluzione dell'offerta che covava da anni (p. 33). L'origine di questo concetto e l'idea di uno spazio espositivo illimitato pu infatti essere fatta risalire alla fine dell'Ottocento, quando un agente delle ferrovie del Minnesota fond quasi per caso una societ di distribuzione di orologi. L'idea di Richard Sears era quella di offrire un servizio, altrimenti difficilmente disponibile, a tutte quelle persone che abitavano in zone rurali, spesso lontane dal circuito di negozi tipico delle grandi citt e costrette magari a comprare gli stessi prodotti a prezzi molto pi alti presso le rivendite locali. L'intuizione di Sears fu nella capacit di riunire in un'unica formula vincente diversi ingredienti legati al progresso dell'epoca: una rete di trasporto e collegamento efficiente, 60

consentita dalle ferrovie; la possibilit di acquistare all'ingrosso, legata all'ormai avviata produzione di massa e in pi l'innovativo strumento di marketing rappresentato dal catalogo che, agendo in sinergia con le spedizioni postali, offriva la comodit e il vantaggio degli acquisti per corrispondenza. In breve tempo la specializzazione nei soli orologi fu sostituita da un'offerta sconfinata, in grado di soddisfare le esigenze di qualsiasi famiglia e tipo di attivit; nel 1906 Sears salut questo momento facendo costruire uno stabilimento che era, con i suoi trecentomila metri quadrati, l'edificio commerciale pi grande del mondo (p. 34).
Gli enormi depositi di Sears e Roebuck e l'efficiente attivit di smaltimento ordini ebbero degli effetti niente meno che rivoluzionari. Immaginate di essere un agricoltore residente nelle praterie del Kansas, pi di cent'anni fa; abitate a diverse ore di macchina dall'emporio pi vicino, e n i prodotti del negozio n la benzina sono a buon mercato. Poi, un bel giorno, la visita settimanale del postino vi porta il Catalogo di vendita per corrispondenza del 1897 di Sears, ovvero 786 pagine di tutto quello c' sotto il sole, a prezzi quasi incredibili. Il catalogo del 1897 era e lo tuttora strabiliante. Ancora oggi, nell'era di Amazon, sembra impossibile che potesse esserci una simile variet di articoli. In un volume spesso quanto un elenco telefonico sono ammassati 200.000 articoli e varianti assortite, tutti descritti con caratteri minuscoli, e circa 6000 illustrazioni a stampa litografica. [] Era una cosa sbalorditiva per una famiglia di agricoltori. Con un sonoro tonfo nella buca delle lettere, la scelta di prodotti disponibili aument di mille volte tanto rispetto al tipico inventario di un emporio. E, cosa ancora pi importante, il catalogo comportava un taglio del 50 per cento se non di pi ai prezzi, nonostante le spese di spedizione (pp. 34-35).

61

Ma le innovazioni non finivano qui. Sears mise in pratica una delle prime forme di marketing virale, consapevole che uno dei modi migliori per farsi conoscere e acquisire nuovi clienti fosse quello del passaparola. Offrendo premi e sconti in cambio della loro collaborazione, l'azienda si ingrand e conquist nuove fette di mercato proprio grazie alla pubblicit di coloro che erano gi acquirenti affezionati e soddisfatti, i quali distribuivano copie del catalogo a parenti, amici e vicini, contribuendo cos ad una diffusione ancor pi ampia e capillare. E ancora:
le tecniche di fornitura che Sears us per realizzare il suo miracolo di abbondanza non ci sono oggi estranee; una combinazione di merci stoccate nei suoi depositi e di merci stoccate in una rete di magazzini virtuali fornitori terzi che avrebbero evaso gli ordini direttamente dalla propria azienda. [] Anche dentro i magazzini le innovazioni furono incredibili. Preoccupati dalle inefficienze della spedizione, i manager di Sears elaborarono un sistema in base al quale ad ogni ordine arrivato veniva assegnato un tempo specifico entro il quale doveva essere evaso. L'articolo (o gli articoli) doveva trovarsi nel contenitore appropriato in sala d'assemblaggio al tempo stabilito. Per rispettare la tempistica, l'ordine viaggiava dal deposito all'ingrosso alla sala di imballaggio secondo un intricato sistema di nastri trasportatori e scivoli (p. 35).

Il passo successivo fu l'inaugurazione del grande magazzino, modello ancora oggi tra i pi diffusi e tipici dell'arredamento urbano delle nostre citt, che offriva una maggiore variet, prezzi pi bassi e un'unica meta per tutta la spesa della famiglia, oltre alla possibilit, per i clienti, di selezionare i prodotti direttamente dagli scaffali (p. 37). I primi decenni del Novecento erano stati caratterizzati, a livello industriale, dalla grande novit della produzione standardizzata di beni di 62

consumo di massa, che divennero pi economici e di conseguenza alla portata della maggior parte della popolazione. Enorme diffusione ebbe l'automobile, fiore all'occhiello del nuovo mercato dei prodotti in serie e dai prezzi abbordabili, che, soprattutto nel contesto americano, gioc un ruolo chiave nel modificare le abitudini e gli stili di vita di milioni di famiglie. Il problema delle distanze si fece infatti meno pressante, la popolazione inizi ad avere maggiore indipendenza e libert di movimento, nonch di tempo libero, e port a quasi definitivo compimento quel processo di spopolamento delle aree rurali in favore dei grandi nuclei urbani, gi avviatosi intorno alla fine dell'Ottocento. In questo quadro il grande magazzino soppiant il catalogo, soddisfacendo grazie alla sua enorme possibilit di scelta e offerta di prodotti i gusti e la domanda della popolazione cittadina. Ben presto questi luoghi divennero veri e propri templi dell'acquisto, status symbol della nascente Classe Media e agenti di tutta una serie di trasformazioni sociali e cambiamenti degli stili di vita. Basti pensare che:
negli anni Venti, l'emporio all'angolo offriva circa 700 articoli, per lo pi venduti in blocco, e i clienti dovevano rivolgersi a un altro negozio per la carne, le verdure fresche, i prodotti da forno, i prodotti caseari e altri articoli. Il supermercato aveva radunato tutti questi prodotti sotto un unico tetto. E, cosa ancora pi importante, il numero di prodotti trattati aument nettamente: da 6000 nel 1960, a 14.000 nel 1980, a pi di 30.000 oggi (pp.3738).

D'altra parte, intorno alla seconda met del Novecento qualcosa inizi a cambiare. Una prima spinta in tal senso fu quella che giunse in seguito all'introduzione dei numeri verdi, servizio telefonico di supporto al consumatore e al tempo 63

stesso una nuova formula di acquisto, che riuscirono ad attirare un grande quantitativo di clienti, invogliati dalla gratuit delle telefonate a carico del destinatario. Il boom del benessere economico, unito all'ormai acquisita indipendenza di spostamento consentita dall'ampia diffusione delle automobili, riport in quegli anni una consistente fetta della popolazione americana nei sobborghi e nelle province, alla larga dal caos e dall'affollamento delle metropoli. I numeri verdi riportarono in voga la pratica dell'acquisto da casa, agendo in sinergia con quella formula di pagamento comoda e senza vincoli che rappresentata dalla carta di credito. Va per sottolineato che:
rispetto all'era Sears, con i suoi imponenti depositi centralizzati stracolmi d'ogni cosa, quest'altra ondata di cataloghi si rivolgeva a nicchie specifiche. Grazie alla tecnologia della stampa a colori, i rivenditori stamparono centinaia, migliaia o addirittura milioni di cataloghi che battevano a tappeto indirizzari ben precisi, inviando vetrine cartacee delle loro mercanzie. Percentuali di risposta dell'1 per cento riuscivano ad essere redditizie. [] Ma per quanto impressionante potesse essere questa cornucopia di articoli per corrispondenza, il personal computer l'avrebbe presto surclassata (pp. 38-39).

L'e-commerce altro non che una versione elevata a potenza del catalogo, in cui l'offerta di prodotti pu raggiungere livelli mai sperimentati nell'universo degli atomi e in cui le condizioni di economicit riescono a farsi ancor pi vantaggiose. La rete internet si comporta di fatto come una linea telefonica, in grado di connettere le case degli individui con i servizi cui essi sono interessati, mentre il Web si configura sempre pi come il catalogo definitivo (p. 39), una terra dell'abbondanza in cui possibile pubblicizzare ed esporre qualsiasi cosa, senza alcun costo di stampa o 64

spedizione e con l'opportunit di raggiungere davvero chiunque. questa in ultima analisi l'essenza della coda lunga, questa metafora che ben rappresenta la trasformazione giunta a maturazione in questi ultimi anni e che sta riguardando non solo le sfere dell'economia e dei mercati, ma anche, e in misura non secondaria, i concetti stessi di creazione e fruizione della cultura. Al di l di qualsiasi parafrasi, vale la pena di riportare quella che secondo Anderson una sintesi della sua teoria:
la nostra cultura e la nostra economia si stanno affrancando dall'importanza attribuita a un numero relativamente esiguo di hit (prodotti e mercati mainstream), posizionati sulla testa della curva di domanda e si stanno spostando verso un largo numero di nicchie collocate sulla coda. In un'era che non deve pi soggiacere alle costrizioni dello spazio espositivo fisico e ad altri imbuti della distribuzione, beni e servizi per un target ristretto possono risultare economicamente attraenti quanto la solita minestra del mainstream (p. 45).

Quello che si sta verificando davanti ai nostri occhi un cambiamento che pu essere in parte accostato alla rivoluzione apportata dall'introduzione della stampa a caratteri mobili di Johannes Gutenberg. Fino a quel momento nel mondo non circolavano molti libri: i testi erano custoditi per lo pi nei monasteri o nelle preziose librerie dei palazzi reali, strumento di conoscenza e potere custodito gelosamente dalle classi che si trovavano ai vertici della societ. Il libro era un bene poco accessibile anche in conseguenza della difficolt e del costo (in termini di lavoro, tempo e materie prime) necessario alla sua realizzazione. La copiatura era un'operazione molto lenta e faticosa e proprio al fine di evitare fallimenti e sprechi, il sistema economico era orientato essenzialmente alla

65

produzione di nuove edizioni di opere preesistenti 51, della cui ricezione si poteva essere pi che certi (in particolare la Bibbia e i testi dei maestri del pensiero antico). Le opere originali erano praticamente inesistenti, con la conseguenza di non favorire in nessun modo l'affermazione di idee e fermenti progressisti, capaci di ribaltare concezioni reazionarie e di andare contro quello che era considerato l'inappellabile principio di autorit (espresso dalla formula ipse dixit). L'idea rivoluzionaria dell'orefice di Magonza, derivante dall'idea di riprodurre le diverse lettere che componevano i testi grazie a dei blocchetti metallici mobili, associata all'uso di supporti cartacei pi economici e alla disposizione di inchiostri pi efficaci52, rese la composizione dei testi da affidare al torchio molto pi semplice e veloce, aprendo una nuova stagione dell'editoria internazionale. La stampa dei testi classici non si arrest di colpo; tuttavia, soprattutto per quanto riguarda la Bibbia, i tipografi europei iniziarono a pubblicarne edizioni tradotte nelle diverse vulgate locali, ovvero scritte in tutte quelle lingue contemporanee diverse dal latino, che a
51 Nel Tredicesimo secolo San Bonaventura, un monaco francescano, descrisse quattro modi in cui si potevano fare i libri: copiare un'opera per intero, , copiare da varie opere unendole, copiare un libro preesistente aggiungendovi proprie integrazioni, oppure scrivere qualcosa di proprio ma integrandolo con citazioni tratte da altri. Ognuna di queste categorie aveva un nome, come amanuense o autore, ma Bonaventura sembr non aver preso in considerazione e certo non la descrisse la possibilit di creare un'opera del tutto originale. In quel periodo esistevano pochissimi libri, e molti erano copie della Bibbia: l'idea di editoria si fondava sulla ricreazione e la ricombinazione di testi esistenti pi che sulla produzione di nuovi (Shirky 2010, p. 39-40). 52 Per tutti questi aspetti concernenti i fattori materiali della stampa e tutti quegli elementi che potremmo considerare come il vero e proprio indotto dell'industria tipografica, rimandiamo al testo di Febvre e Jean-Martin (1958) indicato in bibliografia.

66

differenza di quest'ultima erano effettivamente comprese e parlate dalla stragrande maggioranza della popolazione 53.
La mossa successiva dei tipografi fu al tempo stesso semplice e sorprendente: stampare un mucchio di roba nuova. Prima dei caratteri mobili, molta della letteratura disponibile in Europa era in latino, e vecchia di almeno mille anni: poi, in un baleno, cominciarono a comparire libri nelle diverse lingue locali, libri il cui testo risaliva a mesi e non a secoli prima, libri che erano, nel complesso, diversi, contemporanei e popolari (il termine inglese novel, romanzo, nasce in quel periodo, quando la novit del contenuto era di per s la novit) (p. 40).

Accanto a questi indubbi lati positivi, si affacci per un diverso ordine di problemi legato alle concrete e frequenti possibilit di rischio finanziario. Il vero problema di stampare libri nuovi e moderni era connesso all'impossibilit di prevedere quale sarebbe stata la loro accoglienza da parte del pubblico: nel caso il testo non avesse venduto, l'oneroso investimento iniziale dell'editore-tipografo, necessario ad avviare la complessa filiera da cui si sarebbe originata la merce libro, sarebbe risultato vano e a lungo andare questa situazione avrebbe determinato il sicuro fallimento della sua attivit. Per limitare queste eventualit, i tipografi adottarono gli stessi comportamenti che caratterizzano da sempre il funzionamento delle grandi compagnie di media che si tratti di emittenti televisive o radiofoniche, case di produzione cinematografica o etichette discografiche, fino alle strategie ancora oggi applicate dalle case editrici nonch di qualsiasi
53 Sotto questo punto di vista, la pubblicazione della Bibbia tradotta in tedesco da Martin Lutero ebbe un ruolo fondamentale nella diffusione della riforma protestante, erodendo quel primato esclusivo in termini di interpretazione e intermediazione della parola sacra che fino quel momento era spettato alla Chiesa e alle autorit ecclesiastiche.

67

azienda che abbia fatto proprio il mantra del business di massimizzare i guadagni e limitare le perdite. Per gestire il rischio i tipografi assunsero su di s la responsabilit dell'errore operando una selezione volta a determinare, in base a previsioni pi o meno azzeccate e scelte dettate da valutazioni di opportunit, oltre che dalla considerazione dei (presunti) gusti del pubblico, quali fossero i libri degni di essere stampati. Il meccanismo in atto fu insomma quello tipico di qualsiasi circuito mainstream: accantonare i prodotti di nicchia e tutto ci che avesse un mercato ridotto e individuare (e sperare di centrare) le hit. Dal momento che:
un torchio tipografico costoso, deve essere usato da uno staff competente e, dato che il materiale va prodotto in anticipo sulla domanda, l'economia della stampa pone il rischio dalla parte della produzione. Di fatto, l'eventualit che un libro potesse essere impopolare sanc la transizione fra i tipografi (che stampavano copie di opere consacrate) e gli editori (che si assumevano il rischio della novit). Da allora sono nati molti nuovi media: le immagini e i suoni sono stati codificati in oggetti, dalle lastre fotografiche ai CD musicali; le onde elettromagnetiche sono state imbrigliate nella radio e nella televisione. Tutte queste rivoluzioni successive, per quanto diverse tra loro, hanno al loro centro l'economia di Gutenberg: la necessit di costi di investimento enormi. costoso possedere i mezzi di produzione, che siano un torchio tipografico o una stazione televisiva, il che rende la novit un'operazione fondamentalmente ad alto rischio. Se possedere e gestire i mezzi di produzione parecchio costoso, o se questo richiede uno staff, siete in un mondo dell'economia gutenberghiana. E se avete un'economia gutenberghiana, che siate un editore veneziano o un produttore hollywoodiano, avrete anche una gestione del rischio quattrocentesca, per cui chi produce deve decidere cosa va bene prima di mostrarla al pubblico. E in quel mondo gutenberghiano quasi tutti i media sono prodotti dai

68

media: il mondo in cui vivevamo tutti fino a pochi anni fa (p. 41).

L'avvento delle tecnologie digitali ha rivoluzionato questo quadro ed eliminato molti dei colli di bottiglia tipici dell'universo economico tradizionale: parafrasando due espressioni molto efficaci utilizzate da Chris Anderson (2006), abbiamo assistito alla transizione da un mercato di massa a una massa di mercati, inaugurando a pieno titolo un'era di scelta senza precedenti. Di certo non tutto cambiato: uno scrittore sconosciuto col sogno di vedere pubblicato da un'importante casa editrice il suo manoscritto ancora oggi dovr probabilmente penare molto e, nel caso non dovesse disporre di una storia straordinaria o dell'appoggio di qualche sponsor illustre, probabilmente vedr sfumare le proprie speranze. Allo stesso modo si comporteranno le case di produzione cinematografica, i cui investimenti continueranno ad essere destinati alla realizzazione di un ristretto Olimpo di pellicole, con registi e attori affermati, in grado di richiamare a colpo sicuro ampie quote di pubblico e riscuotere successo al botteghino. Ma accanto a queste macchine sforna-hit, fortemente squilibrate dalla parte del produttore, gli strumenti digitali e il canale di diffusione rappresentato da internet stanno offrendo all'uomo della strada sempre pi occasioni di visibilit e possibilit di concretizzare le proprie idee. L'esempio pi evidente di questa realt quello offerto dai blog e da qualsiasi altra piattaforma online dove avvengono discussioni e dibattiti: chiunque voglia inserire il proprio commento, articolo, recensione o qualsiasi altra forma di pensiero, non deve fare altro che digitarlo e cliccare il pulsante Pubblica. Non sar il paradiso, ma come se ognuno di noi si stesse pian piano trasformando in editore di se stesso, svincolandosi dai possibili rifiuti e dai giudizi di qualit e merito calati dall'alto dai 69

guardiani della pubblicazione. Forse nella maggior parte dei casi si tratter di comunicazioni effimere che si perderanno nei meandri della rete; quel che certo che questo destino non pu essere previsto in partenza, perch internet talmente sconfinata, e popolata da una moltitudine di persone cos variegata e densa di sfaccettature, che la ricezione di qualsiasi messaggio, video o informazione non pu essere in nessun modo valutata a priori. Come sottolinea Shirky (2010) citando il caso della scrittrice americana di origine cinese Maxine Hong Kingston, autrice di un editoriale in favore del presidente Obama rifiutato da tutti i quotidiani cui l'aveva inviato e pubblicato invece su Open.Salon.com, un sito che ospitava conversazioni sulla letteratura:
la pubblicazione sempre stata una cosa per cui dovevamo chiedere il permesso a qualcuno, e quel qualcuno erano gli editori. Oggi non pi. Gli editori continuano a svolgere altre funzioni nel selezionare, limare e commercializzare l'opera [], ma non costituiscono pi la barriera tra scrittura privata e scrittura pubblica. Nella gioia della Kingston per aver aggirato un rifiuto, racchiusa una verit presente da sempre ma tenuta nascosta per lungo tempo. Neppure gli autori pubblicati, come recita la stessa frase, hanno mai controllato la loro capacit di essere pubblicati. Pensate all'insieme di idee contenute in questa lista: pubblicit, pubblicizzare, pubblicare, pubblicazione, pubblicista (e publisher, editore). Sono tutte incentrate sull'atto di rendere pubblico qualcosa, il che stato storicamente difficile, complesso e costoso. Ma oggi non lo pi (Shirky 2010, p. 42).

Si sta aprendo una nuova epoca all'insegna della sperimentazione e dell'abbassamento della soglia di accesso alla sfera dell'autorialit54, con l'ulteriore vantaggio ai fini
54 Ma, come cercheremo di illustrare nel paragrafo 1.4.5, sono numerosi

70

dell'impegno civico e del livello di democrazia delle societ di facilitare le occasioni di scambio tra cittadini e la possibilit di contribuire alla definizione della cosa pubblica. Ancora nelle parole di Shirky:
oggi la rivoluzione incentrata sullo shock provocato dall'inclusione degli amatori tra i produttori: non abbiamo pi bisogno di chiedere l'aiuto o il permesso dei professionisti per dire cose in pubblico. [] Questa facolt di esprimersi pubblicamente e di unire le nostre capacit talmente diversa da quello cui eravamo abituati da costringerci a ripensare all'idea stessa di media: non sono solo qualcosa da consumare, ma qualcosa da usare. Di conseguenza, molte delle nostre idee consolidate sui media si stanno oggi sfaldando (p. 47).

Fino a poco tempo fa, e per tutto il corso del Novecento, la parola media stata una sorta di termine ombrello, un contenitore all'interno del quale erano raggruppate tanto il processo, quanto la produzione e il prodotto finale. Oggi le cose non seguono pi gli antichi tracciati:
l'insieme dei concetti legati alla parola media si sta disfacendo. Ci serve una nuova definizione di questo termine, che l'affranchi dall'essere connotata come qualcosa prodotto da professionisti e consumato da dilettanti. Ecco la mia: i media sono il tessuto connettivo della societ. I media sono il modo in cui sapete quando e dove si tiene la festa di compleanno del vostro amico. I media sono il modo in cui sapete cosa succede a Teheran, chi il sindaco di Tegucigalpa o il prezzo del t in Cina. I media sono il modo con cui sapete perch Kierkegaard fosse in disaccordo con Hegel o dove si terr la vostra prossima riunione. I media vi permettono di informarvi su tutto quello che a pi di venti
gli studiosi che mettono in discussione questi aspetti e le varie promesse che ruotano intorno al web 2.0.

71

chilometri di distanza. Tutte queste cose un tempo erano divise fra media pubblici (come le comunicazioni visive o grafiche fatte da piccoli gruppi di professionisti) e media personali (come le lettere personali o le telefonate fatte da cittadini qualsiasi). Oggi queste due modalit si sono fuse. Internet il primo mezzo ad avere un'economia post-gutenberghiana. Non c' bisogno che sappiate nulla della sua struttura per accorgervi di quanto sia diversa da qualsiasi altra forma di media propria dei cinquecento anni passati. Dal momento che tutti i dati sono digitali (espressi in forma di numero) non esiste pi una cosa come una copia. [] Grazie a questa curiosa propriet dei numeri, la vecchia distinzione tra strumenti copiatori per professionisti e per dilettanti macchine tipografiche che producono versioni ad alta qualit per i professionisti, macchine fotocopiatrici per il resto di noi finita. Tutti hanno accesso a un mezzo in grado di fare versioni cos identiche a se stesse che la vecchia distinzione tra originali e copie ha ceduto il posto a vantaggio di un numero illimitato di versioni ugualmente perfette. Inoltre, i mezzi di produzione digitale sono simmetrici. Una stazione televisiva un luogo estremamente costoso e complesso, attrezzato per inviare segnali, mentre un televisore un apparecchio relativamente semplice, fatto per ricevere quei segnali. Quando qualcuno compra una tv, il numero dei consumatori aumenta di uno, ma il numero dei produttori resta uguale. Invece, quando qualcuno compra un computer o un cellulare, il numero dei consumatori aumenta di uno, ma anche quello dei produttori. Il talento continua a essere distribuito un po' qua e un po' l, ma la semplice capacit di fare e condividere oggi molto pi diffusa, e si sta espandendo sempre di pi. [...] Infine, i nuovi media implicano un cambiamento economico. Con internet, tutti pagano una tariffa e possono usarla. Invece di essere un'azienda a possedere e gestire l'intero sistema, internet solo una serie di accordi su come far viaggiare i dati tra due punti. Chiunque si attenga a questi accordi, che sia una persona che lavori dal suo cellulare o una grande azienda, pu essere a pieno titolo un membro del network.

72

L'infrastruttura propriet dei produttori del contenuto: accessibile a chiunque paghi per usare il network, indipendentemente da come lo usa. Questo passaggio a un'economia post-gutenberghiana, fatto di copie perfette e intercambiabili e di capacit conversazionali, con la sua produzione simmetrica e i suoi costi ridotti fornisce i mezzi che consentono gran parte del comportamento generoso, sociale e creativo a cui stiamo assistendo (pp. 48-50).

Un 1 seguito da cento 0: il fenomeno Google. Caratteristiche del motore di ricerca pi potente e diffuso al mondo Ho appena digitato sulla barra di ricerca di Google la parola google e come risultato (dopo la bellezza di 0,25 secondi!) ho ottenuto circa 15 miliardi e 260 milioni di pagine web. La parola God mi ha restituito poco meno di 2 miliardi di occorrenze, superata da sex, che in questa stramba classifica si piazza decisamente avanti, con quasi 3,7 miliardi di esiti. Va bene, abbiamo giocato, ma come sempre, se si sa guardare, dietro al faceto si nasconde qualcosa di serio. E Google senza dubbio rientra a pieno titolo in quest'ultima categoria. Sono passati pi di tredici anni dalla sua fondazione e in questo ristretto arco di tempo esso diventato il motore di ricerca (e anche il sito web) pi visitato al mondo, nonch un'impresa commerciale tra le pi ricche e quotate, la cui popolarit e diffusione sono state sancite anche dall'introduzione di alcuni neologismi55. Era il 1998 quando due giovanissimi studenti
55 Le lingue sono uno dei banchi di prova pi forti dal punto di vista dell'attestazione e della valutazione del cambiamento di tempi e mentalit delle persone. In inglese nato il verbo transitivo to google, col significato esteso di fare una ricerca sul web, a cui si affiancano il

73

dell'Universit californiana di Stanford diedero vita alla Google Inc., societ che oggi ha raggiunto il valore di diversi miliardi di dollari. Larry Page e Sergey Brin elaborarono un algoritmo innovativo, dietro al quale poggiava una teoria di tipo relazionale che portava a considerare pi importanti e utili le pagine web citate con un maggior numero di link. L'aspirazione era quella di organizzare e rendere facilmente disponibile l'immensa quantit di informazioni presenti sul Web, una vastit iperbolica difficile da domare, ma che il motore di ricerca avrebbe permesso di districare e raggiungere in modo semplice e veloce. La scelta stessa del termine con cui battezzare questo search engine fuori dal comune doveva riflettere questi propositi, poich la parola Google altro non che l'adattamento del concetto matematico di Googol, ideato nel 1938 da E. Kosner e rappresentante un numero intero esprimibile con 1 seguito da cento 0. Nelle intenzioni dei suoi ideatori, questo numero enorme una sorta di metafora che incarna la vastit labirintica e profonda del World Wide Web, all'interno della quale il motore di ricerca permette di non perdersi e giungere ad ogni destinazione. Prima che Google facesse la sua comparsa, i principali motori di ricerca erano Yahoo! e AltaVista, che si basavano su una logica del tutto diversa. Yahoo! ricalcava per certi versi la modalit di funzionamento di un archivio, all'interno del quale le pagine e i siti web erano catalogati secondo una tassonomia di tipo categoriale. Alle spalle vi era tutta una serie di operazioni compiute manualmente, volte alla creazione di un database (che in pratica rappresentava un sottoinsieme dell'intero Web), all'interno del quale il motore effettuava la ricerca digitata dall'utente. Oggi questa societ si distingue principalmente per l'offerta di servizi internet e per le numerose
tedesco googeln e il nostro googlare.

74

partnership con il settore dei media, mentre il suo utilizzo come motore di ricerca diventato qualcosa di accessorio, o quantomeno secondario. sufficiente confrontare la sua homepage (all'indirizzo http://www.yahoo.com) con quella decisamente (e volutamente) minimalista di Google con il solo logo e la search bar che fanno bella mostra di s per avere un'idea chiara e immediata di questo aspetto e della diversa mission di queste due imprese commerciali 56. Il secondo concorrente era invece Altavista, che ormai stata acquisita dalla stessa Yahoo!, uno dei primi motori di ricerca basato su uno specifico software, che si distinse subito per la velocit di risposta, per quanto gli esiti delle ricerche non sempre risultavano conformi a quelle che erano le intenzioni dei suoi utenti. Google ha per rivoluzionato questo quadro ed riuscita a raggiungere questo successo grazie a diversi fattori, relativi sia all'aspetto materiale (la struttura hardware che la sostiene 57), sia
56 Il sito di Yahoo! si avvicina molto a quello dei portali internet, denso di pubblicit, notizie dell'ultima ora e utility varie (dall'oroscopo ai giochi, dalle classifiche alla gestione di un account di posta elettronica). 57 E anche sotto questo profilo l'azienda di Mountain View si caratterizza per aver adottato un approccio assolutamente originale. Google avrebbe potuto scegliere di affidarsi, per la sua potenza di calcolo, al pi sofisticato hardware disponibile sul mercato, progettato per gestire le esigenze di elaborazione pi impegnative e il maggior volume di traffico web; cos fecero i suoi concorrenti, che si concentrarono sul software e lasciarono che i produttori di hardware si occupassero di quest'altro aspetto. Ma lo sviluppo operativo progressivo cos profondamente radicato nella missione aziendale di 'Big G', e la possibilit di usufruire di sistemi rapidamente scalabili talmente essenziale per distinguersi dai rivali, che Google decise di assemblare da sola i computer, una strategia senza precedenti nel settore software. Utilizzando gli stessi componenti standard che rappresentano il nucleo di un personal computer e creando le macchine a partire da zero, stata in grado di incrementare la sua capacit in modo economico, efficace e illimitato

75

per via della sua logica di funzionamento. Dietro a questa potenza e supremazia di calcolo e di mercato vi infatti un vero e proprio arsenale elevatissimo di macchine, server e datacenter, sparsi in tutto il mondo e, soprattutto, l'attivit del programma spider Googlebot. questa struttura che permette a Google di effettuare una ricerca su milioni di pagine web in alcuni millisecondi, catalogare il Web e sondarlo periodicamente al fine di rinvenire nuove pagine da aggiungere al proprio database. Il tutto garantendo efficienza e rapidit, evitando i rallentamenti che di solito si verificano quando giungono nello stesso momento richieste in contemporanea da pi utenti. Ma quello che rappresenta il vero nucleo di questo motore di ricerca l'algoritmo che vi alla base e che distingue il funzionamento di Google da quello dei suoi concorrenti. Big G (Stross 2008) non avrebbe potuto raggiungere il gradino pi alto nella classifica dei search engine se si fosse limitato semplicemente ad associare il termine di ricerca digitato dall'utente con il contenuto di tutte le pagine web che vi si riferivano. Come afferm Craig Silverstein, il primo
(p. 55). Page e Brin hanno fondato una societ di software che si creata i suoi stessi strumenti. Sviluppando la capacit di sfornare in serie data center efficienti in termini di costi, l'azienda dispone dei mezzi per ampliare all'infinito i suoi database e per rendere costantemente scalabile il suo business. Via via che cresceva, ha sempre posseduto la necessaria capacit di elaborazione e non mai stata costretta a rimandare l'introduzione di nuovi servizi n tantomeno a rivedere i piani per costruire un nuovo centro o a scegliere una nuova sede a causa dell'opposizione locale. Questi fattori le permettono di espandersi, espandersi e ancora espandersi. Una simile strategia suscita sempre pi inquietudine tra alcuni utenti e tra i numerosi difensori della privacy che osservano il moltiplicarsi dei data center e si chiedono se Google intenda davvero utilizzare tutti i dati, buona parte dei quali sono personali, che si stanno accumulando nei suoi archivi digitali (p. 68).

76

dipendente assunto da Brin e Page nel 1998, un motore di ricerca che si rispetti doveva anche discriminare tra risultati buoni e risultati non altrettanto buoni (p. 29).
Per calcolare la rilevanza di una determinata pagina, il software di Google effettua una ricerca nel suo database di link riguardanti l'intero Web e individua quali siti hanno stabilito un collegamento con questa pagina., esprimendo quindi una raccomandazione. I siti che forniscono queste segnalazioni devono tuttavia essere esaminati attentamente, per stabilirne l'effettiva attendibilit. A questo scopo, il software ritorna al database di collegamenti per cercare quali siti raccomandano chi ha espresso la raccomandazione e, quando li ha individuati, chi raccomanda a sua volta questi ultimi e cos via, procedendo sempre a ritroso. La verifica di chi fa riferimento a chi pu forse sembrare una procedura infinita, come salire una scala di Escher, ma la lunga serie di calcoli alla fine produce un concentrato di relativa autorevolezza per ogni pagina della Rete, espressa sotto forma di un numero da 0 a 10 che indica se i redattori dei siti web considerano una determinata pagina autorevole e segnalabile ad altri (p. 31).

Stiamo parlando del PageRank (brevetto US 6285999) che potremmo tradurre in italiano come il rango di una pagina web. Esso si basa sul concetto di assegnare un certo peso numerico ad ogni elemento di un collegamento ipertestuale di un insieme di documenti (come ad esempio quelli che costituiscono il World Wide Web) con lo scopo di quantificare la sua importanza relativa all'interno della serie. Nel momento in cui effettuiamo una ricerca attraverso Google, dobbiamo pensare che la nostra interrogazione della rete simile ad un processo di elezione, i vincitori della quale otterranno il posizionamento pi elevato, che si concretizza nei termini di una maggiore visibilit, nella lunga lista di risultati che ci verranno mostrati. 77

Ogni link ad una pagina pu essere considerato alla stregua di un voto di sostegno e un'attestazione di fiducia: una sorta di consiglio che un sito (o meglio, il suo autore) offre ai propri visitatori e che dovrebbe essere indizio della pertinenza e validit dei contenuti di quella risorsa. Le complesse formule matematiche che permettono a Google di fare il suo lavoro accordano una preferenza ai siti che ricevono un numero di collegamenti ipertestuali superiore rispetto agli altri 58, tenendo al tempo stesso conto della qualit e del diverso valore di questi link. La sola quantit di quest'ultimi non pu infatti essere sufficiente a garantire un elevato posizionamento, poich un link ricevuto da una pagina che possiede un pagerank alto avr un peso maggiore rispetto a quello di un link proveniente da una pagina dal valore di pagerank inferiore (e contribuir in misura maggiore a far aumentare la popolarit della pagina che riceve quel collegamento ipertestuale). come se ci trovassimo di fronte a un sistema di raccomandazioni: non basta essere acclamati e sponsorizzati da una folta schiera di persone qualsiasi per avere successo e raggiungere determinati risultati, essendo piuttosto necessario che qualche individuo influente (e di per s affidabile e meritevole) appoggi e sostenga la nostra candidatura. Solo cos potremo sperare che la nostra pagina (e quindi il nostro messaggio, oppure la nostra proposta commerciale, o qualsiasi altra cosa vogliamo comunicare attraverso il Web) riesca a sgomitare tra la moltitudine dei contenuti della rete e possa raggiungere il suo fruitore (o, cosa ancor pi interessante, il suo cliente). Questo raffinato mix di popolarit e autorevolezza
58 Questo meccanismo alla base della Link Popularity, un'altra via che permette di misurare l'affidabilit dei contenuti di un sito web, che per presenta alcuni limiti, primo fra tutti la penalizzazione inevitabile dei siti piccoli e nati da poco, per i quali necessario parecchio tempo prima di ottenere una buona quantit di link da altri siti.

78

rappresenta un'evoluzione del metodo pi bruto basato sulla Link Popularity e permette una sorta di confronto incrociato che dovrebbe garantire agli utenti di ottenere risultati pi conformi alle loro intenzioni di ricerca e in cui siano privilegiati e messi in prima fila i contenuti pi affidabili. Vale la pena aprire una piccola parentesi che non vuole essere polemica, ma che risulta necessario approfondimento di quanto detto sinora, ancor pi alla luce del filo conduttore del presente lavoro, incentrato sui concetti di libert, democraticit e pari opportunit in materia di accesso e produzione dei contenuti e delle informazioni. Quando interroghiamo Google, inserendo una o pi parole chiave, il pi delle volte ci troveremo dinanzi a una coda lunga di risultati (indicizzati dall'attivit rapidissima e invisibile dei software bot) di fatto sconfinata, che pu essere misurata in modo accattivante e scherzoso contando il numero di volte che viene ripetuta la lettera o all'interno dell'immagine testuale che riporta il nome del motore di ricerca. La dislocazione di questi esiti, come abbiamo spiegato in precedenza, riflette il funzionamento dell'algoritmo di PageRank, il vero cuore e cervello nevralgico dell'intero sistema. L'ordine di arrivo dei risultati dovrebbe essere neutrale, cos come cieca e non soggetta a influenze esterne dovrebbe essere la tecnologia che alla sua base 59. L'uso del
59 Per poter raggiungere l'obiettivo di organizzare tutte le informazioni del mondo, Brin e Page decisero di trasformare il posizionamento dei risultati di ricerca in una questione puramente matematica: una volta che fossero stati generati in base alle formule del software, Google non avrebbe consentito a nessun essere umano di intervenire per perfezionarli. Page e Brin ritenevano che un approccio al problema della ricerca nel web basato su un software fornisse risultati superiori a quelli ottenibili con redattori umani. Era anche la strategia che meglio si prestava a essere scalabile. Anche ammettendo che i redattori umani fossero riusciti a essere imparziali, infatti, non sarebbe stato possibile reclutarne un numero sufficiente in modo abbastanza rapido (ed

79

verbo al condizionale d'obbligo, perch in pi di un'occasione Google stato al centro di polemiche dovute all'accusa di aver truccato la visibilit di alcune pagine web, contravvenendo a quello che dovrebbe essere un punto di vista imparziale60. In effetti dietro a un comportamento di questo tipo vi qualcosa di pi di semplici sospetti, soprattutto se consideriamo gli interessi molteplici che Google potrebbe avere in termini di accrescimento della popolarit dei siti partner (basti pensare che lo stesso YouTube fa capo alla stessa societ) o di quelli che al loro interno mettono in evidenza i messaggi pubblicitari amministrati dal servizio AdSense, anch'esso di sua propriet. Motivazioni di questo genere rappresentano una manipolazione della tecnologia e sono il segno di un'evidente deviazione dal sentiero dell'oggettivit e la cui azione mette in prima pagina ci che ha maggiori ritorni economici. In un certo senso potremmo paragonare tutto ci all'azione del doping nello sport: chi vi ricorre migliora le proprie prestazioni e di fatto arriva al traguardo prima degli altri. Ancora oggi, nell'epoca della velocit tipica del multitasking e della simultaneit in cui ci hanno proiettato le tecnologie digitali, la condizione umana si scontra con quella che probabilmente una delle risorse meno abbondanti e pi facilmente deperibili a nostra
economicamente sostenibile) per stare al passo con l'aggiunta di milioni, se non addirittura miliardi, di nuove pagine web (p. 54). 60 Cory Doctorow, di BoingBoing, sostenne che gli algoritmi che classificano le pagine 'riflettono i pregiudizi, le speranze, le convinzioni e le ipotesi dei programmatori che li elaborano', mentre nel 2008 Tim O'Reilly ha sottolineato che i creatori di siti web hanno ormai compreso il funzionamento dell'algoritmo e imparato a sfruttare il sistema, progettando pagine con scopi commerciali che ottengono un elevato indice di PageRank e si posizionano ai primi posti nei risultati di ricerca. Secondo la sua opinione, gli utenti pi accorti passano di proposito direttamente alla seconda pagina dei risultati, per evitare lo spam predominante nella prima (p. 85).

80

disposizione, ovvero il tempo. Il cervello stesso, per quanto meccanismo sofisticato e superiore a qualsiasi computer, si scontra con limiti strutturali (la nostra memoria non infinita) e d'attenzione: in questo quadro la possibilit di comparire ai primi posti nel ranking del motore di ricerca pi diffuso al mondo garantisce a quei contenuti un pubblico di lettori e clienti, costringendo al silenzio quanti risultano invece relegati nei bassifondi del web. Google Book Search: un nuovo Illuminismo o il primo passo verso una conoscenza oligarchica ed elitaria? Nonostante la sua vastit pressoch sconfinata 61, il web contiene solo una parte delle informazioni e dei contenuti creati dall'uomo, tra cui possiamo menzionare il materiale prodotto in epoche precedenti all'era informatica, che di conseguenza venne realizzato su supporti tradizionali quali la carta (per esempio libri, riviste, quotidiani e fotografie), pellicole di celluloide e nastri magnetici (come nel caso di registrazioni sonore e trasmissioni televisive d'epoca). L'ampiezza di questo bacino difficilmente misurabile, ma quel che certo che si tratta di un insieme di informazioni e dati che, se messi a disposizione degli strumenti di ricerca e visualizzazione digitali, potrebbero avvicinare le nostre esperienze di navigazione, consultazione, ricerca e semplice intrattenimento via computer al sogno di completezza ed esaustivit che ognuno di noi auspica. evidente pertanto l'appetibilit di
61 Per avere un'idea delle dimensioni totali del web e del numero di pagine indicizzate da Google, rimandiamo al link, ormai un po' datato (luglio 2008) ma comunque interessante, di un articolo tratto dal la testata gratuita online Punto Informatico, che dal 1996 realizza rubriche e forum di discussione che si occupano di internet, comunicazione e nuove tecnologie: http://punto-informatico.it/2371670/PI/News/neppuregoogle-puo-misurare-web.aspx.

81

questo universo di conoscenze per un'azienda come Google, gi in grado di gestire e indicizzare con successo la maggior parte dei contenuti che sono stati prodotti negli ultimi anni, ma sempre alla ricerca di nuove frontiere che siano in grado di potenziare ulteriormente le modalit e le possibilit degli utenti che a essa si affidano. Ed in tal senso che Brin e Page decisero di avventurarsi in un campo totalmente nuovo, legato alla volont di anticipare i tempi e digitalizzare gli esemplari pi rappresentativi del panorama dei medium tradizionali, ovvero i libri. Sarebbe stata questa l'operazione preliminare di un disegno pi ampio: una volta che i contenuti cartacei fossero stati trasformati in sequenze binarie infatti, sarebbero entrati a far parte dell'immenso archivio di Google e indicizzati ad opera del suo crawler (arricchendo cos le fonti cui il motore di ricerca attingeva ogni qual volta veniva interrogato). Si trattava di:
un progetto che presentava delle sfide totalmente diverse da quelle insite nell'indicizzazione e nella classificazione delle pagine web. La conversione dei volumi in bit digitali non aveva tanto a che fare con l'informatica quanto con altre aree di competenza, come l'ingegneria meccanica (progettare l'attrezzatura per l'imaging), la diplomazia (ottenere la cooperazione dei principali depositari di libri, ossia le biblioteche universitarie), la logistica (portare in tutta sicurezza i libri dal luogo in cui erano custoditi ai centri per la scansione e viceversa) e la giurisprudenza (fare in modo che questa procedura non violasse la legge sul copyright). Google si proponeva di digitalizzare non solo i volumi contenuti in un'unica grande biblioteca o i testi di maggior valore dal punto di vista accademico o quelli letti pi frequentemente o quelli pi acclamati dalla critica, ma tutti i libri, tutti i 32 milioni di libri elencati nel WorldCat, il catalogo unificato riguardante le venticinquemila biblioteche di tutti il mondo. Proprio ogni

82

singolo libro (p. 102).

Quando il progetto inizi a prendere corpo, Robert Darnton 62 si aveva appena assunto la direzione generale delle biblioteche dell'Universit di Harvard, una delle istituzioni accademiche con cui Google aveva iniziato a prendere accordi in vista della digitalizzazione del suo patrimonio librario. Un aspetto che non possiamo trascurare in questa ricostruzione che ha come protagonista il progetto denominato Google Book Search quello che ruota intorno alle finalit e all'uso che l'azienda di Mountain View avrebbe fatto dei materiali acquisiti. Per quanto si prospettasse la realizzazione di un database che sarebbe diventato la pi grande biblioteca del mondo, tale da superare i sogni pi arditi dei bibliofili dai tempi della biblioteca di Alessandria (Darnton 2009, p. 13), non possiamo dimenticare che:
Big G era una societ di capitali in mano a privati, le cui azioni non erano ancora quotate in Borsa ma i cui proprietari, i fondatori, gli investitori in capitale di rischio e i primi dipendenti cooperavano in un'attivit con scopo di lucro. Il management non considerava la digitalizzazione dei libri un progetto benefico, n intendeva donare fondi a organizzazioni no profit, come l'Universit del Michigan, che avevano gi avviato questo
62 Storico statunitense e professore professore di Storia del libro, ha fatto parte per quattro anni del comitato editoriale della Princeton University Press e per quindici anni del Consiglio di amministrazione della Oxford University Press (ramo statunitense). In seguito fu anche eltto nel Consiglio di amministrazione della Public Library di New York. Queste cariche, oltre che il suo campo di studi accademico incentrato in particolare sull'editoria nell'epoca dell'Illuminismo, gli hanno offerto un punto di osservazione privilegiato per cogliere l'evoluzione della cultura contemporanea e la sempre pi stretta correlazione fra media tradizionali e supporti digitali.

83

processo; preferiva piuttosto che Google effettuasse in modo autonomoamente tutta la digitalizzazione e poi usasse le copie digitali per i propri scopi. Google Book Search non permise di conseguire subito dei profitti, ma si ipotizzava che il progetto avrebbe a un certo punti prodotto un rendimento corrispondente allo smisurato investimento che l'azienda avrebbe dovuto effettuare per realizzarlo. La prospettiva di poter esplorare il contenuto di qualsiasi libro semplicemente navigando sul Web era sicuramente entusiasmante. Tuttavia, il proposito di una sola azienda, non certo mossa da finalit benefiche, di tracciare la via d'accesso digitale a tutte le informazioni del mondo contenute nei libri avrebbe inevitabilmente generato, quando fosse stata rivelata, qualche malumore (Stross 2008, p. 104).

Non a caso, fu proprio questa la reazione di Darnton:


pur abbacinato dalla visione di una megabiblioteca digitale, nutrivo non pochi dubbi sull'opportunit di permettere che le raccolte di volumi messe insieme da Harvard con fatica e spese enormi a partire dal 1638 entrassero a far parte di una speculazione commerciale. Ovviamente non ero contrario al progetto di rendere accessibili gratuitamente su Internet i testi di pubblico dominio []. Pi andavo a fondo della questione, pi Google mi appariva un grande monopolio interessato a conquistare mercati, anzich un naturale alleato delle biblioteche, le quali hanno l'unico scopo di conservare e diffondere il sapere (Darnton 2009, p. 14).

Per portare a termine questa colossale impresa, Google defin un piano d'azione decennale, cercando tra l'altro di identificare la strategia migliore (in termini di costo e tempo impiegato) con la quale procedere alla scansione vera e propria delle

84

opere63. Si sarebbe trattato di un investimento talmente oneroso64 che nessuna azienda avrebbe potuto cercare di avviare un'operazione analoga, offrendo a Google la possibilit di spiccare il volo e cercare di conseguire un risultato laddove altri avevano fallito65. Per risolvere il problema economico, i vertici di Mountain View adottarono una piano d'azione che si fondava sulla divisione dei libri in due macrocategorie: quelli
63 Le prime tecniche in tal senso adottate, che prevedevano il ricorso a bracci meccanici che si spostavano avanti e indietro, si rivelarono troppo lente. In seguito Si decise di servirsi di fotocamere digitali in grado di catturare un paio di immagini delle pagine affiancate in una frazione di secondo. 64 Sulla base dell'analisi delle esperienze precedentemente tentate in questo campo, il team di Google calcol una spesa media di digitalizzazione pari a 50 dollari per libro. Considerando il traguardo di 30 milioni di libri, il costo totale dell'operazione si sarebbe aggirato intorno alla cifra incredibile (anche per Google) di 1,5 miliardi di dollari. 65 Il primo progetto significativo che aveva affrontato l'impresa di digitalizzare tutti i libri del mondo era stato il Gutenberg, lanciato da Michael Hart nel 1971. Fu decisamente prematuro, dal momento che a quei tempi la digitalizzazione non aveva nulla a che fare con scanner e personal computer, non ancora inventati, ma si affidava alle tastiere collegate a un mainframe []. Egli cerc dei volontari che avessero un po' di tempo libero e la volont di digitare integralmente il testo di importanti opere letterarie di dominio pubblico. [] Il progetto Gutenberg rifuggiva dal concetto di edizioni autorevoli e accoglieva testi che erano per il 99,9% fedeli agli occhi del lettore comune. Non si pu dire che avanzasse a passo spedito nell'affrontare la letteratura mondiale: nel 2002 aveva digitalizzato appena circa 6300 libri, tutti solo in testo semplice, senza un'immagine della composizione tipografica delle pagine originali. Il suo obiettivo di rendere maggiormente accessibili le opere su carta era nobile, ma uno dei suoi limiti intrinseci era l'assunto che un lettore non avrebbe avuto bisogno o desiderio di altro che non fosse il puro testo, privo dei diversi stili e corpi tipografici, titoli correnti ed elementi meno evidenti dell'impianto di un libro stampato che concorrono a formare l'esperienza della lettura (Stross 2008, p. 105). Tra gli altri progetti di questo tipo possiamo citare il

85

ancora in commercio e quelli che non lo erano pi. Se per ottenere il prestito gratuito di quest'ultimi da parte delle pi importanti biblioteche statunitensi, Google mise in campo tutta la sua capacit diplomatica; per quanto riguardava i libri ancora in commercio, l'idea fu quella di individuare un certo numero di editori partner che avrebbero aiutato l'azienda nella sua impresa di digitalizzazione, fornendole i file che la casa editrice stessa utilizzava per la composizione elettronica d questi testi66. Ed qui che il problema legato al copyright si present in tutta la sua gravit, dando vita a procedimenti legali e valutazioni riguardanti la legittimit dell'intero progetto. Vediamo infatti come:
secondo la normativa statunitense sul diritto d'autore necessario avere il consenso del detentore per copiare un testo, tuttavia prevista la possibilit di riprodurne piccole porzioni per un utilizzo equo, che tratti il materiale in modo trasformativo e non si ripercuota sul valore commerciale dell'originale. Il progetto
programma messo in atto dalla Library of Congress e orientato alla digitalizzazione di quasi tutti i mezzi di comunicazione tranne i libri (documenti, immagini in movimento, registrazioni sonore e fotografie) e il Million Book Project, avviato nel 2001 dalla Carnegie Mellon University grazie a un importante sovvenzione da parte della National Science Foundation, che si propose di digitalizzare un gran numero di libri spedendoli in India e Cina al fine di ridurre il pi possibile i costi della scansione. Alla sua conclusione, nel 2007, il Million Book Project era riuscito a digitalizzare circa un milione e quattrocentomila libri. 66 Laddove ci si fosse trovati di fronte ad un problema di portabilit dei file digitali, Google riusciva a digitalizzare rapidamente una copia rilegata del libro senza costi eccessivi approfittando di una tecnologia definita nel settore 'scansione distruttiva': la rilegatura del libro viene staccata e le pagine infilate in un alimentatore di fogli per scanner ad alta velocit. Questa era la parte facile. Non sarebbe per stato altrettanto semplice digitalizzare, in modo non distruttivo, il 90% dei libri che non erano pi in commercio (p. 108).

86

di digitalizzazione di Google non sembrava rientrare chiaramente nell'utilizzo equo. L'azienda voleva fare una copia di tutta l'opera, in apparente violazione delle norme, ma non intendeva mettere a disposizione dei lettori il risultato della sua attivit: la copia sarebbe servita per preparare un indice del contenuto. Si sarebbe quindi potuto sostenere che l'indice era trasformativo e la riproduzione effettuata per prepararlo una forma di equo utilizzo; tuttavia, la societ avrebbe avuto delle difficolt a difendere questa tesi se gli utenti avessero trovato tutto ci che stavano cercando ricorrendo al suo indice, invece di acquistare il libro (pp. 109-110).

Nel frattempo anche Amazon aveva fatto dei passi avanti e iniziato a intavolare trattative con alcune case editrici in vista della possibilit di effettuare ricerche online all'interno dei libri protetti da copyright. Grazie al suo marchio e alla notoriet che la caratterizzavano, nel 2003 Amazon lanci il proprio servizio Cerca in questo libro, potendo contare su ben 190 editori; Google dal canto suo non era considerata allo stesso livello del pi grande e conosciuto negozio di libri online del mondo e pertanto Google Print, il suo primo tentativo nel campo dell'indicizzazione dei libri, riusc ad ottenere l'appoggio di un ristretto gruppo di editori. Al tempo stesso, mentre erano in corso i negoziati con le case editrici, la societ di Brin e Page stava infatti intrattenendo paralleli rapporti con le principali biblioteche di ricerca, dalle quali avrebbe potuto attingere al patrimonio di opere ormai fuori commercio e raggiungere cos l'obiettivo di digitalizzare tutti i libri mai pubblicati. E nel dicembre 2004 Google aveva raggiunto accordi per la scansione dei libri presenti nei fondi di istituzioni prestigiose del livello di Harvard, di Stanford, dell'Universit del Michigan, della Bodleian Library di Oxford e della New York Public Library. E fu a questo punto che, come sottolinea Stross 87

(2008), l'ambizione indusse Google all'impazienza, portandola a commettere un errore grossolano. Per contrastare il successo di Amazon e accelerare i tempi di concessione dei permessi da parte delle case editrici, Big G decise che avrebbe utilizzato i depositi delle biblioteche per accedere ai titoli in commercio che non era riuscita a ottenere dalle case editrici 67 (p. 111). La risposta dei diretti interessati non si fece attendere e:
sia gli autori sia gli editori si opposero con forza all'improvvisa violazione del principio che aveva guidato Google Print in origine, ossia indicizzare le opere ancora coperte dal copyright solo dietro autorizzazione. La societ rispose alle critiche con un annuncio che aliment altra pubblicit negativa per la sua iniziativa: nell'agosto 2005 afferm che avrebbe sospeso fino a novembre la scansione dei libri protetti dal diritto d'autore, in attesa che gli editori presentassero una lista di quelli di cui non intendevano autorizzare la riproduzione; dopo di che, l'azienda avrebbe ripreso a digitalizzare tutti i volumi non esplicitamente esclusi entro quella data. Puntare una pistola alla tempia di autori ed editori non era il modo migliore per calmare le acque. [] Non riuscendo a compiere alcun passo in avanti nelle trattative, nel settembre 2005 l'Authors Guild (l'Associazione degli autori americani) intent la prima causa legale per violazione su vasta scala del copyright da parte della Google Print Library. [] Il
67 La maggior parte delle biblioteche coinvolte non erano per altrettanto convinte della validit dell'operazione di Google e, temendo ripercussioni legali, decisero di agire di conseguenza. La Bodleian Library, per esempio, fu disposta a fornire solo i volumi pubblicati prima del 1900, la New York Public Library offr solamente opere non pi tutelate dal copyright, Harvard limit inizialmente le scansioni a circa quarantamila volumi, mentre Stanford annunci che avrebbe lasciato riprodurre a Google centinaia di migliaia, forse milioni di libri contenuti nel suo deposito, ma evit manifestamente di rispondere alla domanda sull'eventuale prestito di opere ancora coperte dal diritto d'autore (p. 112).

88

mese seguente, un gruppo di editori McGraw-Hill, Pearson Education, Penguin, Simon & Schuster e John Wiley & Sons intentarono una seconda azione legale: i ricorrenti protestavano con forza contro la riproduzione in massa di interi volumi tutelati dalla normativa sul copyright da parte di una societ commerciale, senza il previo consenso dei detentori dei diritti d'autore (pp. 112-113).

La difesa di Google, che tra l'altro pot contare su un'arringa di Lawrence Lessig, cerc di accostare l'operato dell'azienda alla funzione che avevano un tempo i cataloghi a schede, per i quali la legge non aveva mai imposto la concessione di un nulla osta da parte di un autore o di un editore. Ma a ben vedere:
questa tesi non considerava [...] che i risultati della ricerca di Google visualizzavano stralci contestuali del testo reale, un elemento che non era mai esistito prima nella storia dell'umanit: qualcosa in meno dell'intero volume, ma qualcosa in pi di un elenco sintetico comprendente autore, titolo, casa editrice e alcune voci sull'argomento principale proprie di un catalogo a schede. Google includeva alcune tutele volte a impedire che un utente potesse ottenere pi di tre frammenti per un termine di ricerca in un libro protetto da copyright, eppure questi estratti erano sufficienti per attirare pi visitatori, e un numero maggiore di visitatori comportava un incremento degli utili. Quindi, l'indice a schede del XXI secolo sollevava un'altra questione: l'azienda avrebbe dovuto dividere i profitti con autori ed editori? Oppure, come minimo, avrebbe dovuto condividere l'accesso ai suoi libri digitali con altri motori di ricerca? (p. 116)

Nel frattempo, il 28 ottobre 2008, le due parti annunciarono di aver raggiunto un accordo di transazione, conosciuto come Google Settlement. Esso prevede:

89

l'istituzione di un'agenzia chiamata Book Rights Registry, un Registro per rappresentare gli interessi dei titolari di copyright. Google vender l'accesso a una gigantesca banca dati composta principalmente di libri sotto copyright ma fuori catalogo che si trovano nelle biblioteche di ricerca. Le scuole, le universit e altre istituzioni potranno abbonarsi alla banca dati pagando una licenza istituzionale, mentre una licenza di pubblico accesso render questo materiale accessibile alle biblioteche pubbliche, dove Google permetter la visualizzazione gratuita dei libri scansionati da un solo terminale. Anche singoli utenti avranno la possibilit di visualizzare versioni digitalizzate dei libri e di stamparne un duplicato, acquistando una licenza clienti da Google, che collaborer con il Registro per la distribuzione dei ricavi tra i titolari dei diritti: Google ne tratterr il 37 percento, mentre il Registro distribuir il restante 63 percento agli aventi diritto. Nel frattempo, Google continuer a rendere disponibili gratuitamente per la lettura, il download e la riproduzione i libri in pubblico dominio. Dei sette milioni di volumi che Google dichiarava di aver digitalizzato alla data del novembre 2008, un milione costituito da opere in pubblico dominio; un milione da opere sotto copyright e reperibili sul mercato; mentre cinque milioni sono le opere sotto copyright ma fuori commercio. quest'ultima categoria quella che costituir la gran massa dei libri da rendere disponibili attraverso la licenza istituzionale (Darnton 2009, pp. 36-37).

L'autore de Il futuro del libro, cerca di illustrare il quadro attuale, volgendosi al passato e guardando in particolare al Secolo dei Lumi e alla Repubblica delle Lettere figlia di quel periodo, animata dalla fede nel potere della conoscenza e dall'esercizio dello spirito critico.
Il Settecento si immaginava la Repubblica delle Lettere come una nazione senza polizia, senza confini e senza diseguaglianze se non quelle determinate dal talento. Chiunque poteva farne parte,

90

purch praticasse i due requisiti fondamentali della cittadinanza, la scrittura e la lettura. Gli scrittori formulavano le idee, e i lettori le giudicavano. Grazie alla potenza della parola stampata, i giudizi si diffondevano in cerchi sempre pi ampi e le argomentazioni pi forti vincevano. La parola si diffondeva anche per mezzo della scrittura di lettere, perch il Settecento fu un'epoca di grandi scambi epistolari. Basta leggere a fondo la corrispondenza di Voltaire, Rousseau, Franklin e Jefferson ciascuna riempie una cinquantina di volumi per vedere in atto la Repubblica delle Lettere. Tutti e quattro questi autori dibatterono tutte le questioni del loro tempo in un flusso incessante di lettere che attraversava l'Europa e l'America in una rete di informazioni da una sponda all'altra dell'Atlantico. [] che visione commovente! Ma prima che il sentimento renda confusa quest'immagine del passato, devo aggiungere che la Repubblica delle Lettere era democratica soltanto in linea di principio. Nella pratica, era dominata dai figli delle migliori famiglie e dai ricchi. Lungi dall'essere in grado di mantenersi con la penna, quasi tutti gli scrittori dovevano corteggiare protettori, sollecitare sinecure, brigare per ottenere incarichi nei giornali, che erano controllati dallo Stato, schivare i censori e conquistarsi un posto nei salotti e nelle accademie, i luoghi dove si costruivano le reputazioni. Svillaneggiati dai loro superiori sulla scala sociale, si facevano guerra l'un l'altro. [] Ai conflitti personali si aggiungevano le distinzioni sociali. Lungi dal costituire un'agor egualitaria, la Repubblica delle Lettere era afflitta dalla medesima malattia che erodeva tutte le societ del Settecento: il privilegio. I privilegi non erano limitati all'aristocrazia. Nel mondo letterario francese si applicavano a tutto, compresa la stampa e la vendita dei libri 68, dominate da corporazioni esclusive, nonch i libri stessi, che non potevano essere pubblicati senza una licenza reale e l'approvazione dell'ufficio dei censori, da stamparsi in evidenza nel testo. [] A dispetto dei suoi princpi, la Repubblica delle Lettere era nella pratica un mondo chiuso, inaccessibile ai non
68 Questa parte verr trattata con maggior dettaglio nel secondo capitolo.

91

privilegiati (pp. 26-28).

Questa lunga citazione ci offre lo spunto per tracciare un confronto tra l'esempio del passato e la situazione che si sta delineando davanti ai nostri occhi. Le tecnologie digitali sviluppate nelle ultime decadi sembrano aver creato le possibilit per una nuove era all'insegna della diffusione e dell'accesso democratico alla conoscenza oltre che della partecipazione alla creazione dei saperi. In quest'ottica le iniziative di digitalizzazione sembrano quanto meno positive e degne di incoraggiamento, animate dalla volont di creare copie di scorta di materiali per lo pi inaccessibili al grande pubblico, in vista della loro preservazione e di una pi ampia circolazione. Tuttavia, come sottolinea Darnton, sarebbe ingenuo identificare internet come un agente dell'Illuminismo. E l'invito a mantenere sempre alto il livello della vigilanza esteso a ognuno di noi. Le possibilit della rete non sono messe in discussione, ma importante tenere a mente che molti dei suoi attori continuano a parlare e comprendere esclusivamente il linguaggio degli interessi commerciali e dei profitti. Essi:
vogliono controllare il gioco, dominarlo, diventare i padroni del campo. Competono tra loro, naturalmente, ma con una ferocia tale da eliminarsi a vicenda. La lotta per la sopravvivenza sta portando alla formazione di un oligopolio; e chiunque sar il vincitore, il vero sconfitto potrebbe essere il bene pubblico. [] Ma neppure noi possiamo starcene seduti a guardare, fiduciosi che le forze del mercato opereranno per il bene pubblico. Dobbiamo coinvolgerci, batterci con vigore, riconsegnare al pubblico il suo giusto predominio. [] S, digitalizzare necessario. Ma, ci che che pi conta, necessario democratizzare. Dobbiamo aprire l'accesso al nostro patrimonio culturale. In che modo? Riscrivendo le regole del gioco, subordinando gli interessi privati al bene pubblico, traendo ispirazione dalla Repubblica delle Lettere degli

92

Illuministi per creare una Repubblica digitale del sapere (pp. 3435).

Un altro esempio che trae spunto dal passato pu aiutarci a tracciare meglio il quadro del nostro presente. In questo caso ci richiamiamo ad una tendenza originatasi nell'Ottocento, che port a una crescente separazione e specializzazione dei diversi saperi: dal tutto organico che aveva caratterizzato l'Illuminismo, le varie discipline iniziarono a suddividersi in campi, sotto-campi e sotto-sotto-campi (p. 31) ben precisi, che si riflettevano in profili professionali e bagagli di conoscenze completamente peculiari. Fu un periodo in cui presero slancio le pubblicazioni accademiche prodotte dalle associazioni scientifiche, che circolavano all'interno di riviste altamente specialistiche e i cui abbonamenti venivano acquistati dalle biblioteche. Si trattava di un sistema particolarmente vantaggioso per gli editori, i quali potevano contare su una manodopera praticamente gratuita:
i professori [] scrivevano gli articoli, giudicavano il valore di quelli proposti per la pubblicazione e partecipavano al comitato scientifico, in parte per diffondere la conoscenza alla maniera dell'illuminismo, ma soprattutto per far progredire la propria carriera accademica (p. 32).

Nonostante questo vantaggio, le case editrici commerciali cominciarono ad attuare ulteriori speculazioni, aumentando progressivamente i costi degli abbonamenti. Questa tendenza, che tutt'oggi in atto69 e che parte dal presupposto per cui le
69 Gli effetti si leggono chiaramente nei bilanci di ogni biblioteca universitaria, alla voce acquisti: l'abbonamento annuale al Journal of Comparative Neurology costa oggi $ 25.910; quello a Tetrahedron $ 17.969 (o $ 39.739, se abbinato a pubblicazioni correlate, come da

93

biblioteche (soprattutto quelle universitarie) sono obbligate a rinnovare gli abbonamenti alle riviste, pena un destino di esclusione dalle novit della ricerca, ha per contribuito a creare un sistema malato e ingiusto, conducendo a un deterioramento a pi livelli della vita intellettuale e a un tradimento degli scopi della ricerca. Come evidenzia Darnton (2009):
a causa dei costi alle stelle dei periodici, biblioteche che in passato destinavano all'acquisto di monografie il 50 percento del budget di spesa per le nuove acquisizioni, adesso ne spendono il 25 percento, se non meno. Le case editrici universitarie, che dipendevano dalla vendita dei loro libri alle biblioteche, non riescono pi a coprire i costi di pubblicazione. E i giovani studiosi che dipendono dai libri pubblicati per la loro carriera accademica sono a rischio di estinzione (ib.).

Le origini di questa crisi possono essere fatte risalite agli anni Settanta del secolo scorso, quando le case editrici commerciali hanno iniziato ad aumentare in modo vertiginoso il prezzo dei periodici, al punto da sconvolgere i bilanci delle biblioteche di ricerca. Come rileva Darnton, oggi i prezzi sono assolutamente fuori controllo70 (p. 96). Il secondo aspetto di
pacchetto predisposto dalla casa editrice); il prezzo medio di una rivista di chimica di $ 3490 (ib.) 70 Nel 2007, per molte riviste scientifiche il costo degli abbonamenti superava i ventimila dollari l'anno. Nuclear Physics A & B, per esempio, costava $ 21.003, mentre le spese delle biblioteche per le pubblicazioni periodiche erano cresciute del 320 percento in vent'anni. Il prestigio derivante dall'essere pubblicati sulle riviste pi costose talmente importante, soprattutto nelle scienze 'dure', che per le biblioteche impossibile far accettare al corpo docente la cancellazione degli abbonamenti. Di conseguenza esse fanno fronte alle difficolt di bilancio sacrificando invece le monografie, mentre fino a non molti anni orsono queste ultime contavano per almeno met del bilancio di spesa.

94

questa situazione critica dato dalle preoccupanti condizioni in cui versano i bilanci delle case editrici universitarie. Un tempo esse riuscivano a sostenersi e coprire i costi proprio attraverso la vendita di opere monografiche alle biblioteche. Oggi, la diminuita domanda di questi testi sta inducendo le case editrici universitarie a tradire i propri ambiti di ricerca, pubblicare meno opere di erudizione e concentrarsi su libri che trattano temi di interesse locale, o di uccelli, di sport, di cucina, oppure su libri di 'midlist', con tirature non alte ma di buona tenuta (p. 97). La monografia ormai sempre pi a rischio di estinzione71, con conseguenze gravi sulla carriera accademica dei giovani studiosi. E quest'ultimo punto tristemente d'attualit anche nel nostro paese, dove il gran numero di riduzioni e tagli dei finanziamenti all'universit e alla ricerca ha alimentato una preoccupante fuga di cervelli all'estero da parte di un numero crescente di ricercatori e dottorandi, le cui professionalit e capacit sono schiacciate da un sistema che non punta alla crescita della conoscenza e che non in grado di
Oggi spesso non arrivano al 25 percento (pp. 96-97). 71 L'interrogativo rimane: pu l'autore di uno studio monografico valido ben fondato ma non accattivante, come ne usavano una ventina d'anni fa sperare di vederlo pubblicato? Se si interpellano professori ed editori, non si pu non rimanere scoraggiati. Tutti hanno un mucchio di esempi da citare di ottimi libri che hanno venduto poco o niente. Il caso che preferisco riguarda un lavoro straordinariamente ben fatto sulla Rivoluzione Francese, vincitore di tre importanti premi, che ha venduto 183 copie nell'edizione rilegata e 549 in brossura. Naturalmente ci sono argomenti, per esempio la guerra di secessione americana, che continuano a tenere bene. Nessun campo disciplinare pu essere eliminato, bench le case editrici universitarie ne abbiano abbandonati parecchi e bench la nozione stessa di settore distinto appaia problematica in certe discipline. Il panorama della ricerca troppo complesso perch lo si possa suddividere nettamente in settori; ma nel suo insieme e considerato come mercato, appare decisamente depresso (p. 98).

95

valorizzare il proprio capitale umano.


Qualunque ricercatore universitario conosce l'imperativo categorico: pubblicare o perire, che in pratica si traduce in: niente monografie, niente posto di ruolo. Gi difficile per un neodottorato ottenere un incarico, ma le vere difficolt cominciano in quel momento: trasferirsi in un nuovo ambiente, programmare corsi per la prima volta, trovare un partner o metter su famiglia e, problema dei problemi, pubblicare un libro. Supponiamo che contro ogni pronostico il giovane ricercatore riesca a trasformare nel giro di tre o quattro anni la sua tesi di dottorato in un'eccellente monografia: ce la far a pubblicarla? Improbabile. La redazione di qualunque casa editrice universitaria trabocca di tali manoscritti, ce ne sono a decine. Gli editor vi spiegheranno con un sospiro che la casa editrice pu permettersi di pubblicarne solo due o tre all'anno, descrivendo con un sospiro ancora pi sconsolato le pressioni che riceve dalle commissioni che assegnano le cattedre, le quali vogliono avere tra le mani il libro stampato, accompagnato dai giudizi di lettori e recensori. [] Con ogni probabilit, la carriera degli autori dei manoscritti non pubblicati rimarr bloccata, ed essi entreranno a far parte della folla fluttuante di insegnanti precari, che accettano incarichi qua e l, di solito con stipendi inadeguati, con scarse tutele previdenziali e nessun riconoscimento delle loro capacit (pp. 9899).

Sopra l'ingresso della Public Library di Boston campeggia la frase Aperta a tutti; mentre sulla parete della sala del Consiglio di amministrazione della Public Library di New York incisa in oro una dichiarazione di Thomas Jefferson che recita: Considero la diffusione dei lumi e dell'istruzione la risorsa pi sicura per migliorare la condizione umana, promuovere la virt e favorire la felicit dell'uomo. Dinanzi alle trasformazioni contemporanee, vale la pena chiedersi se 96

questi principi fondamentali siano portati a compimento, oppure se non siano altro che belle parole disattese dalla pratica. La realt sembra in effetti del tutto diversa:
quando colossi commerciali come Google mettono gli occhi sulle biblioteche, non vi vedono soltanto dei templi del sapere. Vi vedono risorse potenziali o, come dicono loro, dei contenuti pronti per essere sfruttati. I fondi librari delle biblioteche, messi insieme lungo i secoli con immenso dispendio di denaro e di energia, possono essere digitalizzati in massa a costi relativamente contenuti milioni di dollari, certo, ma nulla a paragone dell'investimento che sono costati. Le biblioteche esistono per promuovere un bene pubblico: per favorire la conoscenza, una conoscenza aperta a tutti. Le imprese capitalistiche esistono per fare soldi a beneficio dei loro azionisti []. Tuttavia, se permettiamo la commercializzazione del contenuto delle nostre biblioteche, ci scontriamo inevitabilmente con una contraddizione di fondo. Consentire che un soggetto privato digitalizzi le raccolte delle biblioteche e ne venda il risultato con modalit che non garantiscono il pi ampio accesso possibile equivarrebbe a ripetere l'errore compiuto quando le case editrici vollero sfruttare il mercato delle riviste scientifiche, ma su una scala infinitamente pi grande, perch questo trasformerebbe Internet in uno strumento perla privatizzazione di un sapere che attiene alla sfera pubblica (pp. 33-34).

E, ritornando al testo del Google Settlement, questi interrogativi si ripresentano in tutta la loro gravit:
ecco una proposta che potrebbe portare alla realizzazione della pi grande biblioteca del mondo. Una biblioteca in forma digitale, vero, ma di dimensioni tali da fare apparire minuscole le Biblioteche del Congresso e tutte le biblioteche nazionali d'Europa. Inoltre, applicando i termini dell'accordo raggiunto con autori ed editori, Google potrebbe diventare la pi grande

97

industria libraria del mondo non una catena di negozi, ma un fornitore elettronico di servizi capace di fare ad Amazon quello che Amazon ha fatto alle librerie tradizionali. Un'impresa di simili dimensioni susciter inevitabilmente reazioni dei due tipi citati: entusiasmo utopico da un lato, e dall'altro lamentazioni sul pericolo di una concentrazione del potere di controllo sull'accesso alle informazioni. Chi non si esalterebbe davanti alla prospettiva di mettere virtualmente tutti i libri esistenti presso le pi grandi biblioteche di ricerca d'America alla portata di tutti gli americani e forse in seguito dei cittadini di tutto il mondo dotati di un collegamento a Internet? I maghi informatici di Google non soltanto porteranno i libri ai lettori, ma apriranno alla ricerca e allo studio possibilit straordinarie, dalla funzionalit di ricerca di singole parole all'analisi testuale pi complessa. A certe condizioni, le biblioteche partner potranno usare le riproduzioni digitalizzate a loro disposizione per creare copie cartacee con cui sostituire i libri danneggiati o perduti. Google inoltre informatizzer i testi in modo da facilitare i lettori portatori di handicap (pp. 37-38).

Ma accanto a questo ventaglio di possibilit, le incertezze e le sfere d'ombra continuano a essere numerose72. probabile che Google mantenga fede alle proprie promesse, ma se questo il punto di partenza evidente come il futuro che abbiamo davanti sia del tutto imprevedibile e fragile. Che cosa potrebbe verificarsi se i vertici della societ dovessero cambiare e la nuova dirigenza decidesse di aumentare le tariffe di abbonamento?

72 Il fatto stesso di mettere a disposizione di ciascuna biblioteca solamente un terminale per la consultazione degli utenti appare quanto meno restrittiva. Un ulteriore paletto costituito dal fatto che, per poter stampare anche minime parti dei testi sotto copyright, i lettori dovranno versare una quota al detentore dei diritti d'autore.

98

Che cosa accadr nel caso in cui Google favorisca il profitto rispetto all'accessibilit? [] Pu darsi che Google decida di essere altruista nel fissare i prezzi, e io confido che cos avvenga; per potrebbe anche adottare una strategia simile a quella che si dimostrata cos efficace nel far lievitare i prezzi delle riviste scientifiche: in un primo tempo, attirare abbonati con basse tariffe iniziali, quindi, una volta agganciati i clienti, aumentarle fin dove lo consente il volume dell'utenza (p. 41).

Ancora una volta il vero rischio quello che pu sorgere da un soggetto capace di vantare una posizione di monopolio esclusivo73 - un monopolio di nuovo genere, che non riguarda le ferrovie o l'industria dell'acciaio, ma l'accesso all'informazione (p. 40) che consente di ridurre al silenzio i potenziali concorrenti e che lo mette in condizione di esercitare un controllo incontrastato sulla circolazione della conoscenza del domani. Proviamo ancora una volta a riflettere sul potere di Google nel ruolo di casellante delle informazioni (p. 69):
chiunque controlli i portali dei dati digitali pu esigere un pedaggio, farci pagare l'ingresso all'autostrada dell'informazione. Nel caso dei libri, le versioni digitali presenti nel database di Google saranno di propriet di Google,e Google potr stabilire il prezzo che vorr per permettervi l'accesso. Un buon tratto dell'autostrada sar di sua propriet. Nell'accordo di transizione ci sono, vero, alcune linee guida, molto generiche, da seguire per stabilire i prezzi, ma nessuna norma volta a impedire che questi salgano alle stelle. Google dovr concordare i livelli dei prezzi
73 Se si esclude Wikipedia, gi oggi Google detiene il controllo degli strumenti di accesso alle informazioni degli americani che vogliono trovare notizie su persone, merci, luoghi, praticamente qualunque cosa. In aggiunta al motore di ricerca iniziale, abbiamo Google Earth, Google Maps, Google Images, Google Labs, Google Finance, Google Health, Google Checkout, Google Alerts; e molte altre iniziative sono in arrivo (p. 42).

99

con il Book Rights Registry, cui spetter di risolvere le vertenze sul copyright e di erogare le royalty dovute. Ma questo Registro sar gestito da rappresentanti di autori ed editori, che hanno interesse a far lievitare i prezzi. Il pubblico, che il soggetto il cui interesse il pi grande di tutti, non ha voce nell'accordo. Le biblioteche, le scuole, le universit, i normali cittadini, coloro che i libri li leggono ma non rientrano nella classe dei possessori del copyright: tutti questi soggetti sono esclusi dall'aula dove si decideranno le sorti dell'accordo (pp. 69-70).

Questo errore di valutazione da parte di tutti noi dovrebbe rappresentare una lezione di cui far tesoro e cui prestare orecchio di fronte alle numerose minacce che circondano la democraticit e la libert della nostra cultura.
Questo esito non era stato previsto. Ripensando al processo di digitalizzazione iniziato negli anni Novanta dello scorso secolo, oggi vediamo quale grande occasione abbiamo sprecato. Un'iniziativa del Congresso e della Biblioteca del Congresso oppure una vasta alleanza fra le biblioteche di ricerca con l'appoggio di una coalizione di fondazioni avrebbero potuto realizzare la digitalizzazione a un costo accettabile e impostandola in maniera da porre al primo posto l'interesse pubblico. Spalmando i costi in vario modo per esempio, stabilendo un canone di noleggio calcolato sull'entit di utilizzazione di un database, oppure attingendo ai fondi del National Endowment for the Humanities o della Biblioteca del Congresso avremmo potuto garantire ad autori ed editori un legittimo guadagno, costituendo nello stesso tempo un archivio di informazioni in accesso libero o comunque a tariffe ragionevoli. Avremmo potuto creare una vera biblioteca digitale nazionale, l'equivalente odierno della biblioteca di Alessandria. Adesso troppo tardi. Non soltanto abbiamo mancato quell'occasione, ma stiamo lasciando che una questione di politica pubblica, il controllo dell'accesso all'informazione, sia definita da azioni

100

legali private (p. 39).

Google e la gestione della privacy: ma Big G davvero cos buono74 come sembra? Una delle caratteristiche peculiari di Google la tendenza verso una progressiva e inesorabile espansione delle proprie aree di interesse. L'aspirazione grandiosa di organizzare le informazioni a livello mondiale e renderle universalmente accessibili e fruibili (p. 11) che anima la societ di Mountain View sempre pi un traguardo concreto e realizzabile, frutto di un processo che si sta verificando direttamente sotto i nostri occhi. Vediamo infatti come:
se la versione 1.0 di Google si limitava alla ricerca di pagine web, con la 2.0 ci si spinti ben oltre, seguendo un approccio onnivoro: libri, notizie e video sono solo alcune tra le numerose categorie di informazioni che la societ californiana ha aggiunto ai suoi archivi, entrando in conflitto con interi settori quali l'editoria libraria, i giornali e l'intrattenimento televisivo. [] La sua crescita non stata frenata dall'orgoglio: quando non riuscita nel tentativo di conquistare nuovi mercati, ha investito somme rilevanti per acquisire le societ che possedevano ci che stava cercando. YouTube dominava di fatto il mercato dei video online e per la sua acquisizione stata disposta a sborsare nel 2006 1,65 miliardi di dollari; DoubleClick faceva la parte del leone nella rete pubblicitaria responsabile della collocazione di banner sui siti web e nel 2008 Google l'ha acquisita per 3,1 miliardi di dollari (p. 2).

Negli ultimi anni la sua colonizzazione non ha subito rallentamenti e le ambizioni sono cresciute di pari passo,
74 Abbiamo voluto giocare con quello che probabilmente il motto informale pi noto di Google, che recita Don't Be Evil (e che potremmo tradurre come Non essere malvagio).

101

allargandosi ad ambiti inaspettati e in cui il predominio di altre aziende sembrava assolutamente incontrastato e fuori discussione.
Oggi la sua aspirazione convincere i clienti ad adottare un nuovo modello per il personal computer, in diretta concorrenza con il marchio di Redmond [la Microsoft]. L'azienda conosciuta per i suoi strumenti di ricerca possiede infatti gi gran parte dell'infrastruttura necessaria per eseguire altre attivit, come la creazione di documenti simili a quelli prodotti dalle applicazioni del pacchetto Microsoft Office. Tra cui Word, Excel e PowerPoint. Ha iniziato a offrire il software come servizio utilizzando il suo stesso software e archiviando ed elaborando i dati degli utenti sui suoi server remoti. Pi i clienti ricorreranno a questi prodotti (simili a quelli della Microsoft), meno avranno bisogno di acquistare e gestire i programmi per i desktop. Il settore dell'informatica ha coniato un'espressione nuova di zecca, cloud computing, per descrivere questo modello di elaborazione estremamente centralizzato. I documenti di un utente sembreranno fluttuare nel cyberspazio, accessibili in ogni luogo grazie a una connessione Internet (p. 9).

sufficiente osservare la barra del men che si trova in alto nella sua home page per rendersi conto di come Google sia riuscita in pochissimi anni a colonizzare i principale ambiti di interesse della realt che ci circonda. E nel caso del servizio Google Maps evidente come questa espansione dei propri confini sia ben pi di una fortunata metafora. Dopo aver acquisito la minuscola societ 75 che aveva concepito la
75 Ci stiamo riferendo alla Keyhole, una piccola start-up della Silicon Valley, che aveva ideato un servizio online che avrebbe consentito ai clienti iscritti di utilizzare un PC per sorvolare una Terra virtuale tridimensionale, sfruttando immagini satellitari reali invece delle forme geometriche tipiche dei videogiochi generate dai computer (ib.). Si

102

tecnologia in grado di rimpicciolire la Terra (p. 149), il colosso di Mountain View avrebbe inaugurato un nuovo prodotto chiamato Google Earth. Si trattava di una prodezza che richiedeva la manipolazione di enormi quantit di dati (p. 146) e una grandissima potenza di calcolo 76, che fino a quel momento era stata un privilegio esclusivo delle macchine collocate nei seminterrati del Pentagono. E fu cos che,
nel giro di pochi anni, il globo terrestre virtuale ricostruito con le immagini satellitari pot essere visualizzato non solo dal Pentagono, ma da qualsiasi PC collegato a Internet. Nelle mani di Google le fotografie della superficie terrestre furono integrate con sovrapposizioni di vie cittadine, foto e video con marcatori geografici, elenchi di attivit commerciali e centinaia di altre categorie di informazioni, molte delle quali non erano state concepite inizialmente come dati geografici, ma potevano essere associate in qualche modo a un luogo. [] Le possibilit di esplorazione non erano limitate al nostro pianeta. Immagini della Luna, di Marte e delle costellazioni offrivano una veduta panoramica di tutto il cosmo (p. 148).
trattava di una possibilit affascinante, ma troppo avanzata per poter essere sfruttata a pieno dagli utenti domestici di internet dei primi anni 2000, quando le ancora molto lente velocit di connessione dei modem avrebbero trasformato in un'impresa impossibile l'operazione di caricare le ingombranti immagini satellitari. Keyhole riusc tuttavia a sopravvivere a questa situazione, cui si aggiunsero le difficolt legate alla crisi e al fallimento di molte dot-com della primavera del 2001, soprattutto grazie alle vendite del proprio servizio al settore dei professionisti del mercato immobiliare e ad alcune agenzie governative. Qualche anno dopo i tempi si sarebbero rivelati ben pi maturi e, dopo aver invitato Keyhole a tenere una presentazione presso la sua sede, nell'ottobre del 2004 Google procedette all'acquisizione. 76 Le raccolte di immagini satellitari della Terra sono tra le pi corpose dell'intero universo digitale: vengono misurate non in gigabyte o in terabyte, ma in petabyte, ossia milioni di gigabyte (pp. 146-147).

103

Nel frattempo, un team appositamente costituito stava lavorando allo sviluppo di quello che oggi conosciamo come Google Maps, un servizio di mappe e indicazioni stradali che pu essere fatto rientrare a pieno titolo nella pi ampia missione dell'azienda di organizzare tutte le informazioni del mondo. A un osservatore esterno la notizia di quanto appena detto potrebbe far nascere una domanda spontanea:
che cosa potevano avere a che fare le immagini satellitari con le ricerche sul Web? La risposta era [ed ]: pensare in grande. Pensare alla geografia non come a un semplice insieme di cartine stradali, ma come a una finestra su tutte le informazioni; pensare alla Terra stessa come a uno strumento di organizzazione per tutte le categorie di informazioni e alle immagini satellitari come a un mezzo per collocare gli utenti in un contesto geografico; pensare al modo in cui un utente interessato, per esempio, alla storia dell'Iraq pu virtualmente volare all'interno di Baghdad alla scoperta di documenti storici. Secondo la prospettiva dei googler, le immagini satellitari riguardavano da vicino le ricerche sul Web e qualsiasi altro tipo di ricerca di informazioni (p. 152).

Fu scritto uno specifico codice grazie al quale i dati provenienti dall'esterno dell'azienda potessero essere automaticamente incorporati alle sue mappe, offrendo a ogni utente la possibilit di dare vita a modalit del tutto inedite e personali di interpretare la geografia, associazioni ibride di carte e dati (p. 156) che presero il nome di mashup. Fu cos che:
potenziate con questa novit, le Google Maps riuscirono a visualizzare molto altro in aggiunta alle strade. Riproducevano i fast food di San Francisco e di altre citt, le stazioni di servizio pi convenienti dello Stato di New York e di altri luoghi, le corrispondenze su fatti di cronaca avvenuti a Chicago e in altre citt e le ultime notizie del New York Times o di altri giornali.

104

Questi e migliaia di altri siti dotati di mashup costituivano la versione introduttiva di un'interfaccia geografica per altre informazioni che non erano state inizialmente organizzate secondo questo tipo di riferimenti77 (p. 157).

E di l a poco, nel maggio 2007, a questi risultati gi grandiosi si sarebbe aggiunta l'ulteriore funzione Street View, con cartine stradali che riproducevano in modo completo e ad altezza d'uomo le vie, i negozi, gli edifici e l'intero arredo urbano delle nostre citt, automobili e passanti compresi (con i numeri di targa e i volti delle persone debitamente oscurati). Fotografie scattate al livello del suolo 78 si tradussero in immagini ad altissima risoluzione (fino a 10 centimetri per pixel) capaci di mettere a disposizione, a portata di mouse, l'esperienza di una passeggiata in qualsiasi angolo del mondo estremamente realistica e dettagliata. Ancora una volta la strategia massiva che la contraddistingue aveva portato Google ad andare oltre il successo della prima ora, ampliando e amplificando il giacimento di risorse e dati in suo possesso. E d'altra parte questo l'imperativo cui adattarsi se si vuole
77 Quello della geolocalizzazione si rivela ormai un settore in continua ascesa, capace di attrarre investimenti e risorse da parte di numerose aziende. Possiamo in tal senso citare il servizio offerto da Foursquare (https://it.foursquare.com/), un social network disponibile sia su web che su dispositivi mobili, che permette ai suoi membri di condividere la propria posizione con i propri contatti con la possibilit di segnalare e commentare i luoghi visitati e con il quale numerose aziende hanno stretto accordi e partnership commerciali (per esempio Zagat, Bravo, Cond Nast, The New York Times e American Express). 78 Queste furono realizzate da una societ esterna, la Immersive Media, che aveva inventato una videocamera 'geoimmersiva' simile a una sfera, con undici obiettivi distribuiti sulla sua superficie. Se collocata sul tettuccio di un'auto, registrava un video, continuamente marcato con dati GPS, che quando veniva riprodotto era in grado di offrire una veduta a 360 gradi da qualsiasi angolazione (p. 165).

105

primeggiare in un mercato altamente competitivo come quello del settore delle informazioni:
ottenere sempre di pi, di pi e ancora di pi. Fin dall'inizio, con la sua insistenza nel voler indicizzare tutti i siti web, evitando di operare una selezione efficace, l'azienda aveva compreso l'esigenza della completezza. Cos come con il programma Ricerca Libri aveva dimostrato la volont di raccogliere le sfide logistiche pi impegnative, ora, con i nuovi servizi di Google Earth e Google Maps, cercava di offrire prodotti pi completi di quelli dei rivali, che per la tallonavano da vicino. In questa frenetica competizione nessuno era disposto a fermarsi e a chiedersi s e si era spinto troppo oltre, ignorando le ragionevoli aspettative sulla privacy degli individui (p. 163).

Questa conquista geospaziale, se da un lato ha permesso riuscita a Google di aggiungere un ulteriore tassello alla sua ambizione ultima di creare una nuvola globale di informazioni, d'altro canto ha contribuito ad aggravare il disagio delle persone verso la crescente centralizzazione e posizione monopolistica dell'azienda di Mountain View, accendendo il timore di vedere la propria privacy esposta al controllo costante del Grande Fratello digitale. Come abbiamo illustrato in precedenza parlando dell'algoritmo del PageRank, questa pervasivit e capillarit nel controllo delle informazioni funzionale al servizio che Google cerca di offrire ai suoi clienti:
operare su larga scala non soltanto un'aspirazione aziendale ma un imperativo imposto dalla fondamentale tecnologia di ricerca, il software che giudica la qualit delle pagine web sulla base dei giudizi espressi in altre pagine web. Esso autoapprende; pi dati gestisce, pi diventa sofisticato. La massima preferita dagli ingegneri di Google : Pi dati uguale dati migliori. Progettare

106

su vasta scala il metodo per raccoglierli al fine di creare software ancora pi intelligenti. Non vi sono limiti al tipo di informazioni che contribuirebbero a migliorare il software. Un corollario al pi dati uguale dati migliori si basa sul presupposto che qualsiasi informazione non in forma digitale ed elaborabile dal software deve essere digitalizzata. Nel corso di una visita a Londra nel maggio 2007, a Eric Schmidt fu chiesto come si immaginava che sarebbe stata Google di l a cinque anni. La sua risposta fu che la quantit complessiva di informazioni possedute dalla societ era al momento ancora in una fase iniziale e che grazie a una raccolta pi ampia e pi precisa sarebbe stata in grado di generare in futuro risultati meglio confezionati su misura per ogni singolo utente. L'obiettivo finale fornire al software un numero sufficiente di dettagli relativi a ogni visitatore, in modo da produrre risposte personalizzate a domande quali: Che cosa far domani? o Che tipo di lavoro svolger? Non difficile immaginare un computer capace di soddisfare tali requisiti: basta pensare a HAL 9000 e alla sua onniscienza, che l'ha reso il personaggio pi inquietante e memorabile di 2001: Odissea nello spazio, l'adattamento cinematografico risalente al 1968 della saga di Arthur C. Clarke. In un'intervista del 2002, Sergey Brin ha rivelato che HAL l'obiettivo su cui si concentrano i nostri sforziper la sua capacit di memorizzare tutte le informazioni fornite e, secondo le sue stesse parole, di razionalizzarle. [] Se Google riuscir a dotare il suo supercomputer del potere di HAL (Brin ha ammesso: Siamo sulla buona strada), gestir un sistema che incarna il sogno dei pubblicitari: pi informazioni si conoscono riguardo a ogni visitatore, pi mirata sar la pubblicit. Migliori saranno le reazioni dei clienti, maggiori saranno i profitti dell'azienda (pp. 18-19).

Ma quale sar il prezzo di questo progresso? Quale la portata delle conseguenze per la vita e la privacy delle persone? Google riuscita a trasformare il mondo in uno spazio a misura 107

d'uomo, in cui possibile reperire ogni genere di informazione e in cui gli stessi spostamenti sono ormai a portata di clic, permettendoci di visitare ed esplorare qualsiasi luogo e paese della Terra. Ma il corollario naturale di questa conquista, parafrasando Randall Stross, che anche ogni persona divenuta accessibile a tutti. Siamo sempre pi trasparenti e decifrabili perch qualsiasi aspetto della nostra vita registrato e memorizzato dagli agenti virtuali di Google. Le scelte che compiamo quotidianamente, cos come le comunicazioni e preferenze che riflettono la nostra personalit e persino gli indirizzi che visitiamo (per esempio quando consultiamo Google Maps per individuare l'itinerario che ci porter ad un colloquio di lavoro o al ristorante dove abbiamo appuntamento con i nostri amici per una cena) rappresentano la merce oggi preziosissima dei dati, grazie ai quali possibile produrre annunci pubblicitari personalizzati e attraverso i quali l'algoritmo di Google pu continuare ad alimentarsi, in un processo di perenne apprendimento e affinamento della grana che caratterizza i suoi risultati. Per cercare di ricavare un utile dal servizio di posta elettronica Gmail, che veniva offerto gratuitamente agli utenti, uno specifico team di Mountain View propose l'idea di collocare annunci pubblicitari intelligenti, tagliati su misura in base ai gusti e agli interessi degli individui. Paul Buchheit (proprio il dipendente che aveva coniato lo slogan Don't Be Evil) realizz un sistema basato su un software di analisi semantica, in grado di esaminare il contenuto delle mail, individuare la funzione grammaticale di ciascun termine e sintetizzarne il significato in alcune parole chiave.
Lo mise in relazione con il database di annunci pubblicitari utilizzato da Google per i risultati di ricerca in Rete, progettato per associare a una determinata parola chiave annunci specifici,

108

dopo di che colleg il codice di questo sistema con il programma di posta elettronica, affinch proponesse automaticamente la pubblicit sulla base del contenuto di ogni singolo messaggio (pp. 177-178).

Inizialmente Brin e Page, oltre che la stessa Marissa Mayer, erano contrari a questo genere di pubblicit79. Gli spot generalisti (i classici banner) sarebbero stati percepiti come qualcosa di non pertinente e irrilevante, un'ennesima fonte di distrazione che avrebbe finito per irritare le persone. D'altra parte neanche l'alternativa di costruire annunci mirati sembrava promettente: si sarebbe potuto pensare che lo staff di Google leggesse la posta elettronica degli utenti, al fine di tracciarne un profilo e inviare spot pubblicitari ad personam, gettando ombre di inquietudine e sospetto sull'immagine e sull'operato dell'azienda. Nonostante questo veto, tanto la Mayer che Brin e Page si resero conto che l'idea di Buchheit poteva essere un'iniziativa significativa e che il sistema era a tutti gli effetti in grado di generare suggerimenti e consigli logici e utili. Una prova di questo entusiasmo data dal fatto che a partire da
79 Quando il motore di ricerca fu per la prima volta messo a disposizione del pubblico, i visitatori riscontrarono migliori risultati nella ricerca rispetto agli altri motori, ma osservarono anche che il servizio era totalmente privo di messaggi commerciali: Google faceva a meno di pop-up irritanti, banner luminosi e altre forme variegate di pubblicit che a quei tempi si contendevano l'attenzione dei visitatori del Web, in una 'corsa agli armamenti' sempre pi aggressiva. Brin e Page erano contrari al concetto stesso degli annunci pubblicitari inseriti in un sito per la ricerca di pagine web. In un saggio accademico scritto nell'aprile 1995, quando erano ancora studenti, criticavano 'i motori di ricerca finanziati dalla pubblicit', perch ritenevano che fossero 'naturalmente condizionati dagli inserzionisti e lontani dalle esigenze dei consumatori'. Affermarono che, per restare immune dalla tentazione di distorcere i risultati, un motore di ricerca doveva rimanere 'nell'ambito accademico' (p. 4).

109

questo esperimento Google avrebbe in seguito avviato AdSense, il suo pi importante programma pubblicitario 80,
che offre ai proprietari dei siti web l'opportunit di collocare sui siti stessi alcuni annunci forniti dalla rete di inserzionisti di Google. Il software di Big G scansiona automaticamente i siti che aderiscono, esegue un'analisi semantica del testo di ogni pagina e poi automaticamente seleziona gli annunci che vengono visualizzati sul lato destro, corrispondenti al significato del testo: la cosiddetta pubblicit contestuale. I proprietari dei siti e la societ di Mountain View si spartiscono i proventi ogni volta che i visitatori fanno clic sui link da loro sponsorizzati (pp. 178-179).

Se questa nuova frontiera dello spot vissuta ancora con una certa apprensione da parte del grande pubblico, Google si trov a dover affrontare un problema ben pi grande dal punto di vista del trattamento e della conservazione dei dati che raccoglieva.
Inizialmente si era messo in conto che l'hardware poco costoso al quale si affidava si sarebbe potuto guastare e che alcune informazioni catturate dai crawler sarebbero andate di tanto in tanto perse prima di averne le copie di backup. Queste perdite di dati erano irrilevanti finch il servizio offerto era semplicemente la ricerca sul Web, perch le informazioni sarebbero state nuovamente acquisite, entro poco tempo, dai crawler. Ma un'email non era sostituibile. Il programma di posta elettronica di Google ne avrebbe ricevuto una sola copia, che sarebbe rimasta su un computer i cui componenti erano inaffidabili. Big G
80 Il 99% delle entrate sono tuttora generate da questi annunci, molti dei quali oggi compaiono sulle pagine web di aziende affiliate, con le quali Google ha stretto degli accordi per collocare la pubblicit ricevendo una percentuale degli introiti. Non sono necessari espedienti visivi irritanti; bastano poche parole che, presentate nel momento giusto al pubblico giusto e con l'atteggiamento giusto, fanno meraviglie (pp. 6-7).

110

doveva riprogettare il suo sistema affinch fosse davvero sicuro. Per risolvere questo problema avrebbe potuto decidere di acquistare lo speciale hardware utilizzato dai principali fornitori di servizi di posta elettronica. Gli ingegneri valutarono questa possibilit, ma questa opzione si rivel inapplicabile per l'ambizioso progetto aziendale per motivi economici. All'epoca Yahoo proponeva caselle di 4 megabyte, mentre Google intendeva offrire gratuitamente a ogni utente uno spazio 250 volte superiore (1 gigabyte), che a quei tempi era considerato sufficiente per memorizzare permanentemente tutti i messaggi che una persona avrebbe ricevuto; sarebbe stato perci eccessivamente oneroso per la societ di Mountain View utilizzare lo stesso hardware dei concorrenti, che disponevano di componenti pi affidabili e pi costosi. L'unica via percorribile per attuare il piano era quella di impiegare lo stesso hardware economico utilizzato per la ricerca sul Web e sviluppare nuovi sistemi software che avrebbero evitato la perdita delle e-mail (pp. 179-180).

Uno spazio d'archiviazione di simile portata sembrava offrire la possibilit di conservazione eterna e totale delle informazioni, evitando agli utenti il fastidio di doversi destreggiare nella cancellazione dei messaggi passati per recuperare manciate di byte necessarie alla recezione delle e-mail nuove. Come al solito Google aveva pensato in grande e tradotto le sue aspirazioni nella concretezza di un servizio di gran lunga superiore a quello dei concorrenti. Tuttavia, la risposta del pubblico non fu cos entusiasta come ci si potrebbe attendere:
tra i primi utenti del servizio alcuni erano spaventati all'idea che Google leggesse le e-mail private per associarle agli annunci, mentre altri si lamentarono anche per la decisione di non inserire un pulsante per la cancellazione: costringendoli a destreggiarsi tra menu complicati per eliminare un messaggio, Gmail li incoraggiava a ignorare e a conservare semplicemente le e-mail

111

indesiderate. I due problemi, la lettura indiscreta e la conservazione dei messaggi, sembravano essere collegati in modo sinistro, come se la societ cercasse intenzionalmente di indagare il pi possibile nella vita privata degli utenti per scopi commerciali. Il team di Gmail aveva discusso a lungo sull'eventualit di inserire un pulsante Cancella, ma Buchheit sostenne strenuamente che non era necessario e la sua posizione fin per prevalere. Afferm che gli utenti avrebbero ricevuto un servizio migliore con un sistema che facilitasse al massimo la conservazione delle e-mail, risparmiando loro la fatica del sovraccarico cognitivo dovuto all'impegno di valutare se salvare o eliminare i messaggi. Secondo lui, grazie alla funzione di ricerca di Google presente in Gmail, avrebbero finalmente capito che era pi comodo archiviare tutto. Tuttavia, almeno per la prima generazione di utenti di questo servizio, la posta elettronica era una faccenda molto personale e conteneva le informazioni pi private che un individuo elabora in un giorno sul suo computer. Non intendevano ricevere istruzioni su come gestirla ed espressero apertamente le loro opinioni in merito (pp. 181-182).

Anche in materia di tutela della privacy degli utenti, le politiche adottate da Google e Gmail rappresentarono un motivo di preoccupazione e allarme. Infatti,
l'Electronic Communications Privacy Act (ECPA) che considerava la posta elettronica come un mezzo di comunicazione privato, al pari di una telefonata stabiliva che la polizia dovesse chiedere un'autorizzazione di intercettazione per leggerla. Tuttavia, una volta che un messaggio veniva archiviato centralmente non era pi considerato come uno strumento comunicativo privato, bens come un record in un database, e pertanto non era pi tutelato dalla legge. Inoltre, la politica sulla privacy di Google consentiva all'azienda di esaminare, o addirittura di consegnare a un ente governativo preposto

112

all'applicazione della legge, un'e-mail di un utente nei casi in cui non le sarebbe mai stato concesso avere accesso, teoricamente, alla corrispondenza cartacea dei clienti. [] Templeton 81 evidenzi il grave rischio che le e-mail potessero diventare un obiettivo per la sorveglianza governativa. Quando i documenti si trovano in casa della gente un loro controllo in massa non scalabile, sarebbe troppo costoso. Online, invece, lo perfettamente, osserv. Google si distingueva dalla concorrenza per la capacit di aggregare molte altre categorie di informazioni personali alle sue raccolte centralizzate. Mentre gli utenti trascorrevano sempre pi tempo online, veniva registrato automaticamente ci che facevano e ci che pensavano e Big G era ben contento di fungere da unico archivio di tutti questi dati (pp. 186-187).

Vale la pena sottolineare come a partire dal 1 marzo 2012, Google abbia aggiornato la sua normativa sulla privacy 82, scatenando una nuova ondata di proteste e lamentazioni 83. La trasformazione pi significativa rispetto alle versioni precedenti consiste nell'aver riunito in un unico documento i termini degli oltre 60 servizi offerti da Google, facendo s che tutte le informazioni condivise attraverso il log in ad un account Google potranno essere utilizzate da Big G in tutti i
81 Brad Templeton, presidente dell'Electronic Frontier Foundation ed ex consulente di Google. 82 Per l'informativa completa rilasciata da Google rimandiamo al link https://www.google.it/intl/it/policies/. 83 Rimandiamo tra gli altri all'articolo di Carlo Formenti su La pagina dei blog di Micromega, all'indirizzo: http://blog-micromega.blogautore.espresso.repubblica.it/2012/01/29/carloformenti-google-sempre-piu-grande-fratello/. Dello stesso autore, grande studioso di internet, riportiamo in bibliografia alcuni testi in cui vengono criticati e sfatati alcuni dei miti e degli scenari pi ottimistici che ruotano intorno al web e alle (presunte) nuove frontiere del digitale.

113

suoi servizi84. La societ dichiara di aver agito in vista della semplificazione e con l'obiettivo di personalizzare gli utenti, ma un fatto che le nuove norme non siano piaciute ai governi europei e nemmeno a un gran numero di procuratori generali degli Stati Uniti d'America. Su KyWeek (http://www.kyweek.com/), blog magazine che si occupa di internet e tecnologia, Fabio Porrino mette in evidenza come
gi attualmente ogni utente internet lasci[a] le proprie tracce in tutto quello che fa online; ma con queste nuove norme sulla privacy Google registrer in un unico luogo le cose che i propri utenti cercheranno, le email che invieranno tramite Gmail, i luoghi che consulteranno su Google Maps, i video che vedranno su YouTube, le discussioni che avranno su Google+ e non solo, per i possessori di Smartphone Android il legame sar ancora pi stretto, in questo caso Google potr conoscere il numero di telefono, la localizzazione dellutente in tempo reale se usa Latitude, i dati di Google Wallet per i pagamenti e molto altro. [] tutte le azioni di un utente Google dal primo marzo saranno associate ad un nome, un volto ed un numero di telefono. Ma la cosa pi grave uninversione esplicita delle norme precedenti. Come Google stessa faceva notare nel 2009: In precedenza offrivamo la ricerca personalizzata solo per gli utenti registrati e solo quando avevano la cronologia web attivata sui propri Google account. Quello che facciamo oggi invece espandere la ricerca personalizzata in modo da fornire questo servizio anche agli utenti non loggati. Questa nuova funzione permette di personalizzare i risultati di ricerca grazie ad un cookie anonimo della durata di 180 giorni. Questa unattivit completamente separata da un account Google e dalla cronologia di ricerca

84 Estratto tratto dal sito http://internet.liquida.it/focus/2012/02/28/dal-1marzo-le-nuove-regole-sulla-privacy-di-google-sfida-alla-trasparenza/.

114

(disponibile solo per gli utenti loggati)85.

Google ha informato del cambio di rotta con uno stretto anticipo rispetto alla data di inaugurazione della normativa, concedendo alle persone poco tempo per prendere una decisione difficile e controversa. Le prospettive erano quelle di controllare i propri dati personali e, dopo aver cercato di soppesarne le clausole, decidere se accettare o meno le nuove condizioni. Di fatto, considerato il primato di Google in quasi ogni campo abbia a che fare con il web e la familiarit e fidelizzazione degli utenti con il livello di qualit dei suoi servizi, si trattato di una scelta forzata, anche perch, considerata la ristrettezza dei tempi a disposizione, sarebbe stato praticamente impossibile organizzarsi e individuare soluzioni alternative. La nuova era del web 2.0: come la rete sta cambiando il nostro modo di produrre e accedere ai contenuti e alla conoscenza Wikipedia, ovvero come possibile avere a disposizione un'enciclopedia immensa, gratuita e che non occupa spazio Nel corso degli ultimi dieci anni il web ha subito un'ulteriore evoluzione, soprattutto dal punto di vista filosofico. L'infrastruttura che sostiene la rete infatti rimasta sostanzialmente la stessa, arricchita solo da alcune tecnologie di programmazione particolari e linguaggi di scripting, con l'integrazione di database e di sistemi di gestione dei contenuti. Per sottolineare questa evoluzione e questa cesura con la
85 L'articolo completo consultabile al seguente indirizzo web: http://www.kyweek.com/google-e-diventato-cattivo-con-le-nuovenorme-sulla-privacy/.

115

concezione che aveva dominato fino agli anni novanta, stata introdotta una vera e propria etichetta terminologica, tant' che oggi quasi tutti parlano di web 2.0. La caratteristica chiave di questa nuova versione della rete la sua natura fondamentalmente interattiva e dinamica, che si spinge ben oltre le possibilit offerte dal web 1.0, in cui l'utente poteva quasi esclusivamente navigare attraverso pagine statiche, effettuare ricerche e utilizzare la posta elettronica, configurandosi di fatto come un semplice fruitore passivo. L'elemento che si vuole sottolineare il cambio di piattaforma che si sta verificando e che ha portato qualcuno a preconizzare l'evoluzione del Web al ruolo di un sistema operativo 86. Nuovi linguaggi (come AJAX, DOM e JAVAscript, XML, XHTML, CSS e XMLhttpRequest) stanno contribuendo alla ridefinizione dei siti, arricchendoli di funzionalit da svolgere direttamente online e permettono di attuare sul web tutta una serie di operazioni e azioni che tradizionalmente erano effettuate sulla scrivania o attraverso il desktop del proprio sistema operativo. come se la realt si fosse trasferita direttamente in linea, liberandoci dall'intermediazione dei software che eravamo abituati a utilizzare offline. Facebook, Twitter, Flickr, YouTube, Myspace, Wikipedia, e la lista potrebbe essere molto pi lunga, sono ormai parole che tutti noi conosciamo e con le quali quotidianamente lavoriamo, ci dilettiamo e contribuiamo ad accrescere e che rappresentano i principali interpreti e artefici di questa sorta di rivoluzione digitale. Dietro di essa vi l'affascinante promessa della condivisione universale e della creazione partecipata e globale dei contenuti. In principio fu Blogger, un servizio nato nel 1999 in seno ad
86 questa ad esempio l'idea dell'editore scozzese Tim O'Reilly, attivo sostenitore tra l'altro del software libero e del movimento open source. Sempre a lui risulta legata la definizione del web 2.0, introdotta durante una conferenza del 2004.

116

una piccola societ californiana, che attualmente stato acquisito ed gestito da Google, che consentiva a chiunque di creare una particolare categoria di sito personale. I blog (termine che viene dalla contrazione di web log, una sorta di diario in rete) iniziarono a rappresentare una ulteriore possibilit per quanti volessero affidare e condividere in rete le proprie esperienze e i propri pensieri, abbassando ancor pi le soglie di ingresso al mondo del web. Grazie al ricorso ai programmi di gestione dei contenuti e ad un'interfaccia molto amichevole, Blogger permise di creare pagine personali senza neanche la necessit di conoscere il linguaggio di marcatura ipertestuale. La blogosfera ormai una protagonista significativa della rete e una sorta di agor del Terzo Millennio, caratterizzata da centinaia di milioni di diari aggiornati periodicamente, in cui spesso si produce informazione di qualit e all'interno della quale si cerca di creare lo spirito della discussione e del confronto, attraverso la possibilit di interagire con gli altri utenti, inviare feedback e messaggi agli autori, esprimere critiche o semplicemente offrire il proprio parere. Questo perch l'elemento costante del web 2.0 il suo essere naturalmente condiviso e sociale, un luogo della virtualit in cui possono prendere corpo esempi di cittadinanza attiva e democratica, capaci di far sentire la propria voce anche nella realt, e in cui il sapere, almeno nelle promesse, pu ricevere contributi da parte di ognuno. Il sistema di produzione e diffusione dei contenuti cui eravamo finora abituati, legato ai media tradizionali e basato sulla distribuzione uno-molti e su costi talmente elevati da poter essere sostenuti solo da poche grandi aziende (gruppi editoriali, emittenti radiotelevisive, industria discografica e cinematografica) continua a vivere e a rappresentare una fonte importantissima e affidabile di contenuti, ma sempre pi si rivelano al suo fianco le nuove 117

frontiere del digitale. Il mondo popolato da milioni di esperti amatoriali, da semiesperti e da gente normale che pensa di sapere qualcosa (Anderson 2006, p. 58) in ogni settore del sapere e dell'intrattenimento, anche al di fuori di contratti e ingaggi multimilionari, e in questo modo ognuno pu mettere in mostra e a servizio degli altri le proprie capacit, partecipando all'impresa collettiva della conoscenza. Attraverso queste innovative declinazioni della rete come se a ciascun individuo fosse messo a disposizione un microfono e una platea, con le quali esprimere il proprio messaggio e, nel caso sia riconosciuto come valido e interessante, ricevere visibilit e amplificazione su scala globale. La filiera di controlli dei tradizionali canali di comunicazione non viene messa in discussione e anzi continua ad essere la fonte principale di accesso alle informazioni e al variegato panorama dei contenuti, garanzia certificata di qualit e affidabilit. Quello che in questa sede ci preme sottolineare per l'importanza della ridefinizione dell'utente che la rete e il web 2.0 sembrano sempre pi consentire. Di sicuro non tutto ci che viene pubblicato sul web attendibile ed esente da critiche, ma quello che inevitabilmente perdiamo in un senso viene compensato dal guadagno in termini di partecipazione e accesso. Forse per la prima volta nella storia dell'uomo la conoscenza sta assumendo un carattere nuovo, fatto di dinamicit, mescolamento e continuo remix, a partire dal basso e con un ritmo di crescita altissimo. Un esempio in tal senso offerto da Wikipedia, ad oggi la pi imponente e famosa enciclopedia online, nata nel gennaio del 2001 su iniziativa dell'imprenditore statunitense Jimmy Wales. Il progetto cerc sin dall'inizio di conciliare l'elemento della gratuit e della partecipazione collettiva, con l'aggiunta della rapidit e della dinamicit dell'applicazione software Wiki 118

(termine che in lingua hawaiana significa per l'appunto veloce), la quale


consente a chiunque si connetta al web di andare su un sito e correggere, cancellare o integrare il materiale presente. L'obiettivo: niente meno che costruire un deposito dello scibile umano paragonabile alla biblioteca di Alessandria (ib.).

L'idea, come facile immaginare, ebbe un'accoglienza controversa e agli occhi di molti apparve del tutto insensata. Ci che sembrava essere minacciato e messo in discussione era il duro lavoro che da sempre aveva accompagnato la redazione di quelle opere cos peculiari che sono le enciclopedie.
Da un lato, era opinione diffusa che le enciclopedie non si facessero cos: da sempre, redigere voci del sapere era il compito di studiosi autorevoli. Tutto era cominciato grazie a una manciata di eruditi che avevano tentato di compiere l'impossibile. Nella Grecia antica, Aristotele si accinse a raccogliere tutto il sapere del suo tempo. Quattrocento anni dopo, Plinio il Vecchio, un patrizio romano, racchiuse in ben trentasette volumi le conoscenze contemporanee. Nel IX secolo, lo studioso cinese Tu Yu scrisse da solo un'enciclopedia. E nel 1700 Diderot e alcuni suoi sodali (tra cui Voltaire e Rousseau) impiegarono una trentina d'anni a creare l'Encyclopdie, ou Dictionaire Raisonn des Sciences, des Arts et des Mtiers. Il lavoro individuale gradualmente evolse in un lavoro di squadra, soprattutto dopo l'avvento della Rivoluzione Industriale. Alla fine del XVIII secolo, alcuni membri dello Scottish Enlightenment cominciarono ad applicare i principi di gestione scientifica del mondo industriale e le lezioni desunte dalle catene di montaggio alla creazione di un'enciclopedia mai vista al mondo. La terza edizione dell'Encyclopdia Britannica, pubblicata tra il 1788 e il 1797, ammontava a diciotto volumi pi un supplemento di due libri, per un totale di oltre 16000 pagine. Erano stati reclutati gruppi di esperti, incaricati di redigere le

119

diverse voci sotto la direzione di un responsabile e secondo un piano di lavoro dettagliato (pp. 58-59).

Prima di citare le cifre di quello che ormai un progetto consolidato e diffuso in tutto il mondo, per significativo accennare alle tappe salienti che hanno portato alla nascita di Wikipedia. Soprattutto perch l'idea di partenza dei suoi creatori era quella s di creare un'enciclopedia basata su internet, ma costruita attraverso un percorso di alto profilo, suddiviso in fasi rigidamente scandite e molto vicine al tradizionale processo redazionale di costruzione dei contenuti. Il suo fondatore, Jimmy Wales, aveva alle spalle un background di studi nel campo delle scienze finanziarie, con una vera e propria passione per i numeri, rafforzata da una certa dimestichezza con l'uso dei computer e con le tecniche di programmazione. Gli anni Novanta, epoca in cui Wales fu assunto presso una societ di trading, erano il periodo in cui la rete internet stava iniziando a conoscere il suo primo sviluppo, rappresentando un terreno di conquista molto appetibile per gli affari. In moltissimi si lanciarono nel business del dot-com, entusiasti delle promesse di guadagni che il neonato settore dei sistemi informatici prometteva. Sin dai tempi dell'universit, quello che allora era un trentenne originario dell'Alabama aveva mostrato un particolare interesse nei gruppi di discussione e nelle mailing list, questo nuovo modo di comunicare reso possibile dalla tecnologia digitale, che permetteva di scrivere messaggi ed opinioni che sarebbero poi stati letti da altre persone, magari distanti fisicamente, ma rese vicine da una medesima passione o comuni interessi. Fu proprio con una di queste, conosciuta in gruppo incentrato sulla filosofia, che Wales decise di fondare una societ di azioni da immettere nel settore dell'economia online. Era il 1996 e la BOMIS (acronimo della definizione scherzosa che Wales e il suo 120

socio Tim Shell davano di se stessi, quali bitter old men in suits, vecchi e duri uomini d'affari) aveva bisogno di trovare un efficace e produttivo modello commerciale, se non voleva correre il rischio di perdersi tra le innumerevoli ditte simili sorte in quegli anni. Sulla scia del successo dei primi motori di ricerca (Yahoo!, AltaVista, ed Excite) e con la ferma intenzione di proporsi come azienda a carattere sperimentale, i due decisero di proporsi come fornitori di servizi di directory, realizzando cio dei grandi contenitori di contenuti aggregati e associati fra loro: elenchi di siti web su ogni tipo di argomento da far visitare agli utenti in vista di una pi pi agevole esperienza di navigazione nella rete. Gli affari iniziarono ad andare bene e l'offerta della BOMIS inizi ad ampliarsi anche grazie alla mole di contenuti che essa incorpor e copi in modo del tutto lecito dal sito internet DMOZ. Esso fu inaugurato nel 1998 ed legato ai nomi di Rich Skrenta e Bob Truel, due ingegneri della Sun Microsystem, una societ di spicco nel mondo dell'industria informatica, i quali ebbero l'idea di creare una directory di siti internet basata su un concetto radicale: doveva essere realizzata per opera di volontari e distribuita pubblicamente usando una 'licenza libera' (Lih 2009, p. 29). Parleremo pi avanti delle premesse filosofiche legate al concetto di software libero, cercando di ricostruire nel dettaglio la figura di Richard Stallman, e il suo ruolo nella nascita della Free Software Foundation e della Licenza Pubblica Generica GNU; nonch l'altrettanto importante attivit dell'hacker finlandese Linus Torvalds, al quale di deve lo sviluppo di Linux, il primo sistema operativo a codice sorgente aperto e gratuito. Ci basti per il momento sottolineare che questi due filoni agirono in simultanea come fonti sotterranee di ispirazione e propulsione per quello che sarebbe poi stato la realizzazione di Wikipedia. Nel 1998 il software open source 121

aveva dimostrato di essere ormai maturo e in grado di competere dal punto di vista della qualit con le imprese commerciali e i loro prodotti a codice sorgente chiuso: sembrava impossibile che schiere di volontari sparsi per il mondo, per di pi privi di qualunque incentivo economico, potessero controllare lo sviluppo di sistemi in cui la precisione e il controllo erano prerogative essenziali, eppure i risultati stavano iniziando a fare bella mostra di s.
DMOZ ebbe origine per iniziativa di Skrenta e Truel con il nomignolo Gnuhoo, termine ibrido che voleva essere un omaggio tanto al progetto GNU di Stallman quanto alla directory Yahoo!, allora dominante. L'idea era quella di realizzare una directory di siti Internet mantenuta da volontari che avrebbero partecipato al progetto non per il tornaconto di un'azienda o di una singola persona, m a beneficio di tutto un vasto pubblico. Si trattava ancora una volta di fare ricorso all'etica hacker: rendere l'informazione libera per valorizzarla pi rapidamente. [] Il progetto DMOZ crebbe rapidamente in risalto e nel numero di volontari, vestendosi del titolo formale di Open Directory Project (ODP). L'aggettivo open (aperto) era ormai diventato la parola-chiave del decennio, potendosi riferire a una serie di altri termini: il codice sorgente del software, i contenuti di Internet, i formati e gli standard. Tutti erano caratterizzati dal fatto di essere aperti, cio di avere nella loro essenza l'idea della condivisione e della libert di poter essere modificati (p. 37).

Questo ampio bacino di ideali e visioni della conoscenza intesa come bene comune alla costruzione del quale tutti devono poter partecipare e dal quale ognuno deve essere libero di poter attingere rappresenta ancora oggi la missione di Wikipedia, creatura figlia del sogno di Wales e del suo entourage di colleghi e soci. Ci che colpisce fra l'altro il clima poco abbottonato, all'insegna dell'informalit e della colloquialit 122

che port alla nascita del legame di collaborazione fra quest'ultimo e Larry Sanger, accanto a Shell la seconda figura la cui importanza stata un fattore chiave per l'elaborazione di Wikipedia. Fu sempre nell'abito di una mailing list infatti che Wales conobbe un giovane dottorando in filosofia, dal quale fu colpito al punto da proporgli la guida del suo progetto di enciclopedia collaborativa e open source, che secondo l'ispirazione iniziale avrebbe dovuto avere il nome di Nupedia. Realizzare un'impresa della portata di un'enciclopedia, anche su un mezzo rapido e dinamico come internet, comunque un lavoro non semplice, che necessita di una precisa pianificazione, che permetta di chiarire una serie di obiettivi e le linee guida da perseguire al fine di raggiungerli. L'idea di accogliere i contributi di chiunque volesse mettersi a disposizione della comunit estremamente affascinante e all'insegna di quella democraticit e apertura di pensiero che dovrebbero essere le fondamenta di qualsiasi cosa abbia a che fare con la cultura; tuttavia evidente che ogni allargamento dei confini (e il web in tal senso si configura come uno spazio virtuale potenzialmente infinito) porta con s un fattore crescente di imprevedibilit e rischio. Era necessario stabilire dei paletti che consentissero di non perdere la rotta e convogliare al meglio gli sforzi dei partecipanti, limitando il pi possibile sia eventuali sabotaggi sia il pericolo di diffondere informazioni false e tendenziose.
Il primo problema che si trovarono ad affrontare era quello relativo alla parzialit dei contenuti dell'enciclopedia. Dovendo accogliere tramite Internet i contributi di volontari, era facile immaginare che ci si sarebbe trovati di fronte a una grande variet di opinioni e punti di vista. Occorreva il modo di integrare queste differenti posizioni. [] Wales, Shell e Sanger erano attratti dall'oggettivismo per una ragione: esso afferma che vi una realt

123

di oggetti e di fatti che non dipende dalla mente di ogni singolo individuo. [] Il compito della loro enciclopedia, quindi, era quello di descrivere ci che c' di vero nel mondo senza emettere giudizi. Sanger avrebbe posto la questione in questi termini: Siamo d'accordo nel ritenere che l'imparzialit consista in voci che non rappresentino particolari punti di vista su materie controverse, ma che piuttosto rappresentino equamente tutti gli aspetti della questione (p. 44).

E per raggiungere questo obiettivo:


Sanger aveva stabilito che, pur nello spirito open source, Nupedia, al pari delle enciclopedie tradizionali, avrebbe avuto bisogno una gestione da parte di un gruppo di esperti, come pure di un processo rigoroso fuori dal comune. [] All'avvio dei lavori nel febbraio del 2000, Sanger prepar la prima stesura dei principi di gestione per Nupedia. Le e-mail sarebbero state lo strumento di comunicazione con i volontari che egli avrebbe radunato sfruttando l'universo on-line e la sua esperienza di anni di collegamenti alla rete dall'universit. L'idea era di costituire un nucleo di dottori di ricerca, accademici e professionisti altamente qualificati che agissero come contributori e redattori (pp. 44-45).

Le ultime righe del passaggio che abbiamo riportato stonano molto con quello che sappiamo essere oggi Wikipedia e risultano lontani anni luce dal tipo di lavoro bottom-up dei suoi volontari, in cui l'assenza di barriere d'ingresso e l'incoraggiamento ad essere propositivi e partecipativi sono le premesse che sostengono l'intero progetto. In realt per, i primi passi di Wikipedia furono all'insegna di una concezione della creazione dei contenuti molto vicina a quella che caratterizza il processo redazionale tipico di una casa editrice tradizionale.

124

Sanger aveva concepito per Nupedia una struttura a livelli che combinasse la sua visione di un processo di qualit accademica con l'impiego efficace dei volontari reclutati su Internet. Egli propose di distinguere fra i ruoli di autore, redattore e correttore di bozze, basandosi sul convincimento per cui la qualit poteva essere gestita solo tramite una struttura gerarchica (p. 45).

Per comprendere meglio questa precisa suddivisione dei ruoli:


occorre osservare che il redattore di cui si parla si discosta alquanto dal concetto generico di contributore utilizzato in Wikipedia per fare riferimento a qualunque individuo, anche anonimo, che modifica una pagina. Nel contesto di Nupedia sono chiamati redattori soltanto coloro che, avendo superato un processo di selezione, possiedono un'autorit maggiore rispetto ai semplici autori (e pi avanti Sanger avrebbe chiarito il suo desiderio per cui ogni redattore fosse un vero esperto nel proprio campo di pertinenza e possedere il titolo di dottorato, ndr). [] Entro l'estate del 2000 giunse la prima decisione del comitato consultivo di Nupedia che, dopo una serie di discussioni via email, stabil di articolare nei seguenti sette passi il processo di creazione delle voci: 1. Assegnazione dell'incarico 2. Ricerca di un revisore capo 3. Revisione principale 4. Revisione aperta 5. Correzione principale delle bozze 6. Correzione aperta delle bozze 7. Approvazione finale e formattazione (pp. 46-47).

A circa un anno di distanza dall'avvio del progetto, ci si inizi ad accorgere che una sequenza redazionale cos rigida ed ermetica, poco aperta al contributo esterno e tale per cui le figure dei revisori capo erano fornite di un potere di scelta ed esclusione troppo elevato, mal si coniugava con quello che era 125

l'ideale di Wales e dei suoi soci. Per rendersi conto di quanto le sette tappe immaginate da Sanger rappresentassero un ostacolo concreto al decollo del progetto, basti pensare che:
nel settembre del 2000 fu pubblicata la prima voce ad aver completato le varie fasi del processo: si intitolava Atonalit ed era stata scritta dal tedesco Cristoph Hust, studioso di musica presso l'Institut der Johannes Gutenberg-Universitt. [] Alla fine della voce erano riportate 14 note in calce, 27 riferimenti bibliografici di approfondimento e una discografia di incisioni. [] Lo standard fissato per la creazione di una voce era abbastanza elevato. Si trattava di un sistema gestito da un gruppo ristretto di persone che richiedeva grandi competenze e un processo rigoroso. Tutto ci comportava la formazione di uno stretto collo di bottiglia (pp. 48-49).

Un aiuto fondamentale giunse dal mondo delle applicazioni web ed legato al nome di Ward Cunningham, uno dei pionieri di internet, fortemente legato al concetto di comunit, inteso come luogo in cui pu dispiegarsi la creativit degli individui e in cui le persone possono imparare le une dalle altre. Cunningham aveva maturato questa visione del mondo grazie anche alla passione che ebbe fin da giovane per l'universo dei radioamatori e, una volta ottenuta la specializzazione in informatica ed essendo stato assunto presso una societ che operava nel settore dell'industria elettronica, cerc di realizzare uno strumento che potesse mettere in pratica la sua idea. Nel 1987 la Apple Computer aveva installato gratuitamente all'interno dei suoi computer Macintosh un programma chiamato HyperCard: fu questo il punto di partenza che avrebbe portato Cunningham all'elaborazione del WikiWikiWeb e che indirettamente avrebbe avviato nella giusta direzione la rivoluzione di Wikipedia. HyperCard era 126

infatti:
un software rivoluzionario che permetteva per la prima volta di creare facilmente contenuti ipertestuali in forma libera, dando la possibilit agli utenti di cliccare sugli oggetti presenti sullo schermo per far apparire testi o altri contenuti multimediali. [] Abbinava alla facilit d'uso e di programmazione un'eccezionale potenza nella creazione dei contenuti. Non richiedeva alcuna esperienza di programmazione e persino i bambini potevano entrare in azione, creando le proprie pile di contenuti divertenti (pp. 56-57).

Un'applicazione di questo genere sembrava finalmente rendere concreto il progetto del Memex 87 ideato da Vannevar Bush (1945), quell'antenato dell'ipertesto che fino a quel momento non era potuto essere altro che un'idea affascinante, relegata nello stanzino delle invenzioni irrealizzabili. Cunningham lavor al miglioramento e alla risoluzione di alcuni problemi che aveva riscontrato su HyperCard, ricorrendo tra l'altro a Perl, un linguaggio di scripting molto malleabile, frutto di un progetto open source, e:

87 Nel terzo capitolo ci soffermeremo nel dettaglio su questo dispositivo, di cui Bush (1945) d un'accurata descrizione in un articolo pubblicato sul The Atlantic Monthly. Concepito come un insieme di registrazioni su microfilm relative a qualsiasi tipo di contenuto (basato su un medium tradizionale come la scrittura, ma aperto anche alla multimedialit), la caratteristica distintiva del Memex era quella di poter creare infiniti percorsi di collegamento tra le risorse su di esso caricate, secondo le modalit associative proprie di ciascun individuo. Si sarebbero potute creare nuove forme di enciclopedia e originali modalit di archiviazione delle informazioni e non un caso che il Memex viene generalmente considerato una delle pi significative premesse teoriche a quello che oggi il World Wide Web.

127

il 25 marzo del 1995 lanci il suo WikiWikiWeb 88 su C2.com, invitando la gente a far visita al sito. Fatto ancora pi importante, chiese ai visitatori di apportare modifiche e contributi al sito, dedicato alla condivisione di conoscenze sui temi della programmazione e dell'ingegneria del software. Non era necessario disporre di account o password, per quanto strano potesse apparire anche agli occhi degli utenti pi esperti. Le sottomissioni potevano avvenire senza bisogno di controlli particolari o forme di coordinamento centralizzato (p. 70).

Gi nel nome questo software voleva proporsi per la forte dimensione di rapidit e dinamicit che lo caratterizzavano. Cunningham decise di battezzare in questo modo la sua applicazione, dopo essersi ricordato di un'esperienza fatta durante il suo viaggio di nozze alle Hawaii:
Wiki il corrispondente hawaiano del termine veloce e raddoppiato in wiki wiki stava a significare super veloce. L'autobus Wiki Wiki che faceva servizio all'aeroporto per la precisione la navetta Chance RT-52 costituiva il pi veloce mezzo di collegamento tra i terminal (p. 69).

Quando Wales e Sanger scoprirono il WikiWikiWeb di Cunningham si resero conto della sua efficacia nel favorire la collaborazione fra gli utenti, proprio l'ingrediente che fino a quel momento era mancato a Nupedia e l'aveva spinta in una fase di stallo e preoccupante immobilismo. Grazie alla logica
88 Questa modalit di scrittura caratterizzata dalla presenza di pi lettere maiuscole all'interno di una stessa parola prende il nome di CamelCase, proprio perch l'effetto che si ottiene fa assomigliare le parole alle gobbe sulla schiena dei cammelli. Questa sintassi oggi molto diffusa anche in ambito commerciale (YouTube, MySpace, LiveJournal e molto altro ancora) e caratterizz anche le prime voci su Wikipedia, sostituita poi dalla notazione tra doppie parentesi quadre (p. 79).

128

del software open source, in cui il codice sorgente aperto e ognuno pu aggiungere miglioramenti, perfezionando il lavoro altrui, il WikiWikiWeb sub alcuni ritocchi e adattato in una versione che prese il nome di UseModWiki.
All'apparenza sembrava davvero un'idea strampalata: rendere accessibile un intero sito web in modo che chiunque, anche un estraneo,avrebbe potuto apportarvi modifiche. Il buon senso aveva sempre suggerito di tenere tutto sotto chiave per preservare la sicurezza su Internet. Allo stesso modo, l'opinione comune prevedeva di associare buoni livelli di qualit all'esigenza di essere selettivi e di imporre restrizioni nei confronti di chi potesse partecipare al processo di redazione. WikiWikiWeb, invece, demoliva queste barriere d'accesso e incoraggiava la gente a creare e modificare le informazioni in modo diretto (p. 52).

Sorprendente o meno, il 15 gennaio del 2001 il progetto wiki fu scorporato da quello principale di Nupedia: il sito Wikipedia.com fu lanciato e da quel momento avrebbe iniziato a procedere in modo autonomo. E:
alla fine del mese, Wikipedia era riuscita ad accumulare l'impressionante cifra di circa 600 voci. Certamente c'erano molti pezzi mancanti e si trattava ancora di un progetto per lo pi testuale poich non era ancora possibile caricare immagini. [] Tuttavia, nel giro di qualche settimana Wikipedia ottenne in termini quantitativi pi di quanto Nupedia aveva concretizzato in un anno. Era un messaggio importante (p. 80).

Le colonie di formiche (p. 96) e i branchi di piranha (p. 97) che popolavano il mondo virtuale e che erano sparsi per i quattro angoli del pianeta avevano finalmente un habitat a disposizione ed erano stati dotati degli strumenti necessari per mettersi al lavoro. 129

Anche le formiche nel loro piccolo... contribuiscono alla conoscenza universale Proviamo a questo punto a mettere sul piatto della bilancia qualcuno dei numeri di Wikipedia. Essa disponibile in 283 lingue e risulta composta da circa 20 milioni di articoli, posizionandosi al sesto posto fra i siti web pi frequentati e popolari su scala globale, frequentata secondo le stime da circa 365 milioni di lettori nel mondo89. Questo diverso modello produttivo crea un prodotto fluido, veloce, correggibile e gratuito (Anderson 2006, p. 59), alla cui base vi il modello del collettivo aperto, in cui chiunque pu offrire il proprio contributo. Non abbiamo pi a che fare con lite selezionate e chiuse di professionisti ed esperti, ma schiere di volontari cui offerta la possibilit di partecipare e mettere a disposizione degli altri le proprie conoscenze e il proprio bagaglio di sapere. Ancor pi, grazie alle potenzialit del software Wiki, possibile scongiurare l'inconveniente tipico delle enciclopedie fisiche e pi in generale di qualsiasi contenuto affidato ad un supporto materiale come la carta ovvero la fossilizzazione
89 I numeri di Wikipedia, e le statistiche periodicamente aggiornate relative al numero di articoli per ognuna delle sue lingue, sono consultabili all'indirizzo http://meta.wikimedia.org/wiki/List_of_Wikipedias. Per quanto riguarda invece il ranking delle pagine web pi visitate al mondo, si fatto riferimento ad Alexa (http://www.alexa.com), una compagnia leader nel campo dell'informazione sul web, che analizza il traffico della rete, tracciando una sorta di borsino di andamento e gradimento delle pagine web e permettendo tra l'altro di confrontare alcune caratteristiche socio-demografiche dell'utenza. A titolo di cronaca al momento (dicembre 2011), il podio dei siti pi cliccati al mondo vede al primo posto Google, seguito da Facebook e Yahoo!; la versione online dell'Enciclopdia Britannica presenta un indice di rank pari a 7103.

130

e l'immutabilit delle nozioni (che resister almeno fino al momento in cui non verr pubblicata una nuova edizione). Infatti:
tutto quello che dovete fare per dare il vostro contributo a Wikipedia collegarvi a internet: ogni voce ha la casella Modifica, su cui chiunque pu cliccare. Ognuno di noi esperto di qualcosa, e la bellezza di Wikipedia che praticamente non esiste argomento che sia troppo settoriale per avere la propria voce. Ci in netto contrasto con la Britannica. Se aprite quella grande enciclopedia e non trovate la voce che cercate o la trovate ma non vi sembra esaustiva, non potete far altro che battere un pugno sul tavolo o scrivere una lettera al curatore (non aspettatevi che vi risponda). Nel caso di Wikipedia, invece, potete correggere l'articolo o crearlo voi stessi. Proprio in questo passaggio, dal risentimento passivo alla partecipazione attiva, sta la grande differenza. Parafrasando la vecchia battuta sul tempo, tutti si lamentano dell'enciclopedia, ma ora potete fare qualcosa al riguardo (p. 60).

D'altra parte sono stati in molti a scagliarsi contro la non autorevolezza delle voci di Wikipedia, puntando il dito contro la (presunta) non affidabilit di quanto possibile trovare scritto nei suoi articoli. ovvio che, a differenza di quanto avviene nella stesura di un'enciclopedia tradizionale, in cui ogni parte viene sottoposta a numerosi controlli e revisioni ad opera di curatori professionisti e comitati editoriali, nel caso di Wikipedia gli errori, le sviste e le notizie improvvisate possono capitare con una frequenza ben pi alta. E allo stesso tempo facile incorrere in contenuti volutamente falsi, denigratori e di parte, costruiti e messi online con il solo scopo di offendere qualcuno, farsi pubblicit e destabilizzare il sistema. In tal senso l'ansia di protagonismo, gli interessi faziosi ed economici e l'illegalit sono alcune delle piaghe che hanno vita facile sul 131

Web e che risultano difficili da estirpare tanto (se non di pi) nel mondo dei bit, quanto nella realt fatta di atomi. Ma sarebbe altrettanto un errore quello di svalutare a priori tutto ci che gratuito e frutto di attivit spontanee e legate ad adesione spontanea, un pregiudizio ancora piuttosto diffuso che Wikipedia e molte altre iniziative partite dal basso che spopolano nella rete dovrebbero aiutare a combattere e correggere nella giusta direzione. Per comprendere la realt di cui stiamo parlando necessario che le nostre menti operino un cambio di prospettiva, un vero e proprio switch, alla pari di quanto avviene in un circuito elettrico. un concetto che gli umani faticano a comprendere e accettare (p. 61) perch nella nostra esperienza quotidiana e nella taglia media in cui viviamo non siamo abituati a ragionare in termini probabilistici e tanto meno siamo soliti avere a che fare con fenomeni di intelligenza emergente. Eppure proprio cos che Wikipedia funziona:
quando sono i professionisti curatori, accademici, giornalisti a condurre il gioco, perlomeno sappiamo che c' un garante della correttezza. Ma ormai dipendiamo sempre pi da sistemi in cui non esiste un simile ruolo; l'intelligenza si limita a emergere, come dire che sembra spuntare spontaneamente dai calcoli matematici. Questi sistemi probabilistici non sono perfetti, ma sono calibrati in modo da essere affidabili nel lungo periodo (e per grandi moli di dati), in linea con la legge dei grandi numeri, e un po' di ciarpame a livello di microscala il prezzo da pagare per avere una simile efficacia a livello di macroscala (ib.).

una situazione in cui a dominare il caso piuttosto che la certezza, ma poich ci troviamo davanti a numeri molto grandi quella che su microscala pu apparire come confusione e incertezza, su macroscala risulta un'impresa straordinariamente 132

riuscita e valida. In un saggio completamente dedicato all'argomento, Andrew Lih (2009) ha cercato di far luce sulla natura comunitaria e volontaristica che risiede dietro alle voci di questa rivoluzionaria enciclopedia e per fare ci ha confrontato l'attivit dei wikipediani con quanto avviene in alcuni gruppi e societ del mondo animale. Le dinamiche di funzionamento di Wikipedia possono essere con profitto paragonate agli esempi offerti dalla scienza a proposito del comportamento delle formiche, degli stormi di uccelli o di alcuni pesci. Sono tutti casi in cui un aggregato di individui, privo di una struttura gerarchica tale da permettere di ricondurre le azioni dei singoli agli ordini di un soggetto sovraordinato90, si rivela un insieme altamente organizzato e in grado di dar vita a pattern comportamentali complessi e intelligenti, cruciali per la sopravvivenza dell'intera colonia. Ci che si verifica all'interno dei formicai, cos come fra altre famiglie di insetti come le termiti, pu essere notato in quello spettacolo apparentemente inspiegabile, eppure cos altamente appagante dal punto di vista estetico, che rappresentato dal volo degli uccelli. Sono stati proposti modelli matematici e riferimenti alla geometria frattale per cercare di comprendere le traiettorie e le evoluzioni di questi stormi, in cui il livello di coordinazione di ogni volatile con il resto del gruppo e la rapidit di esecuzione raggiungono vette di altissimo livello. Come gi accennato, non ci troviamo di fronte all'esecuzione di una serie di ordini provenienti dall'alto e nemmeno abbiamo a che fare con un gruppo di individui esploratori che raccolgono l'informazione e ritornano poi a comunicarla a uno 'stato
90 vero che all'interno di un formicaio possiamo distinguere fra le formiche operaie, gli esemplari maschi e la regina, ma stato dimostrato che le formiche (malgrado la nostra erronea attribuzione di una qualche forma di 'comando supremo' da parte della regina) lavorano di fatto in modo distribuito e decentralizzato (Lih 2009, p. 95).

133

maggiore', il quale decide solo dopo essere stato messo a conoscenza della situazione (Benkirane 2002, p. 80)91. Quello che si verifica in questi casi l'emergere di comportamenti che sono frutto dell'interazione di ogni individuo con i propri compagni e in cui il risultato finale superiore alla somma delle parti. Con questo non vogliamo commettere l'errore di sopravvalutare questi schemi comportamentali, n tanto meno cadere nella diffusa tendenza di antropomorfizzare le societ animali, interpretando e distorcendo la natura, a causa del nostro punto di vista di osservatori umani. Denebourg (p. 8182) riporta il caso di quanto avviene all'interno di un termitaio, dove vi uno spazio appositamente destinato alla regina, una sorta di bunker costruito dalle termiti e variabile a seconda delle dimensioni della regina stessa. La cella reale si presenta come una sorta di bunker adattato alla sua forma, con un piccolo spazio consentito al passaggio delle operaie che si muovono per nutrire la sovrana e cercare le uova che essa ha deposto.
Se si aprono diversi termitai, si trovano regine di dimensioni diverse: se la regina pi piccola, anche il bunker sar pi piccolo, se invece pi grande il bunker sar pi grande. La regina del tutto inabile, tetraplegica, per nulla o quasi in grado di muoversi, perci non lei a modificare la struttura del bunker.
91 Abbiamo pensato di fare riferimento a questo testo, sotto alcuni punti di vista totalmente estraneo alla trattazione del presente lavoro, perch al suo interno possibile trovare una spiegazione molto chiara dei fenomeni emergenti. Il libro riporta al suo interno 18 interviste fra l'autore e altrettanti esponenti di spicco delle scienze dure e di alcune scienze cos dette morbide, come la sociologia e la filosofia, con l'obiettivo di far luce sulla teoria della complessit. La conversazione cui rimandiamo quella con Jean-Louis Deneubourg (pp. 76-92), chimico belga specializzato in studi sull'intelligenza collettiva, da sempre interessato alle societ animali.

134

In che modo possiamo sapere come funziona il sistema, intendo dire questa regolazione della dimensione della cella reale in funzione della dimensione della regina? molto semplice: bisogna sapere che la regina emette un segnale chimico che si diffonde intorno all'insetto. C' un campo olfattivo, molto debole a distanza ma che si rafforza man mano che ci si avvicina alla regina. Le operaie rispondono all'odore cos: se la concentrazione molto elevata esse tendono a demolire i muri che incontrano; al contrario, se la concentrazione media o debole, depositano del materiale, fanno del cemento e costruiscono. [] Basta questa piccola catena consequenziale di eventi: la regina si ingrossa e produce pi feromone, la quantit di feromone aumenta dove c' il muro, le termiti operaie sono spinte a demolire il muro in quel punto e a ricostruirlo un po' pi lontano, e cos via. Siamo in presenza di un sistema che sembra molto sofisticato, mentre in realt molto pi semplicemente la messa in atto di un piano, un pattern chimico (p. 82).

La scia di feromone ha l'effetto di un messaggio, un segnale di comunicazione implicita che modifica l'ambiente e guida il comportamento degli individui in esso immersi. Gli studiosi hanno rilevato la presenza di pilastri distribuiti in maniera pi o meno regolare all'interno dei termitai: come si poteva spiegare la loro costruzione?
In questo caso abbiamo un fenomeno di pura autorganizzazione. Perch? Perch le termiti masticano delle palline di terra, le impregnano di feromone e infine le depositano, inizialmente a caso. Ma una pallina intrisa di feromone e in seguito depositata incita le altre termiti a depositare un'altra pallina nello stesso posto; in questo modo viene avviato un processo autocatalitico, che conduce allo sviluppo di un pilastro. Ora, da dove viene la regolarit dell'insieme dei pilastri? Nel modello, cos come nella realt, l'odore diffuso dal pilastro in costruzione attira le termiti che si trovano nei dintorni. Questo processo di deposito di

135

materiale e di attrazione esercitata dall'odore sufficiente perch si produca una struttura spaziale regolare, ovvero una distribuzione regolare dei pilastri. Ma non esiste nessuna regola esplicita di misurazione nel cervello delle nostre piccole termiti. Non c' nessuna istruzione nel sistema. La struttura emerge dalla dinamica, senza nessuna codificazione esplicita. Siamo molto vicini alla situazione prevalente in chimica e in fisica chimica. Al giorno d'oggi tutti sono concordi nell'affermare che nel caso di una struttura [] le molecole non hanno alcun piano n istruzione per formare questa data struttura o quest'onda. la dinamica dell'interazione tra alcune regole per quanto riguarda le termiti depositare o da quel punto proviene un odore a produrre la struttura generale (pp. 83-84).

Facendo attenzione a non raggiungere affrettate conclusioni riduzioniste, e tenendo conto delle differenze che caratterizzano le scelte e i comportamenti degli agenti umani, comunque interessante evidenziare come diversi autori siano ricorsi a questo meccanismo di risposta biologico per spiegare le dinamiche cooperative che si verificano all'interno di Wikipedia. In particolare stato fatto un parallelo con il meccanismo di comunicazione della stigmergia, che deriva dalle parole greche stigma (segno) e ergon (lavoro), a proposito del quale Lih (2009) riporta la definizione di Joseph Reagle (2008), elaborata nella sua tesi di dottorato sui meccanismi di collaborazione tipici di Wikipedia:
il termine stigmergia stato coniato da Pierre-Paul Grasse per descrivere come le vespe e le termiti costruiscono strutture complesse lavorando in modo collettivo; come osserva Istvan Karsai, il termine descrive la situazione in cui il risultato di un lavoro precedente, piuttosto che la comunicazione diretta fra i costruttori, a spingere [e a dirigere] le vespe nell'esecuzione di un lavoro successivo (Lih 2009, p. 96).

136

Jimmy Wales si richiama invece all'edizione francese di Wikipedia, dove si descrive il fenomeno della collaborazione e della creazione degli articoli, ricorrendo alla felice espressione di effetto piranha. Questa metafora molto efficace e immediata, anche perch ognuno di noi ha ben presente il modo in cui questi terribili animaletti si muovono e sono in grado di attaccare e divorare le prede che hanno la sfortuna di essere vittime dei loro famelici morsi. Questi pesci carnivori si muovono e agiscono in branchi, all'interno dei quali ognuno attratto dall'attivit degli altri (p. 97): allo stesso modo avviene il processo che porta alla creazione delle voci e degli articoli di Wikipedia, seguendo un circolo virtuoso in base al quale il seme gettato da ogni volontario in grado di fungere da stimolo e punto di partenza per l'attivit di correzione e integrazione di chi verr dopo di lui.
Si comincia con lo scrivere una voce molto piccola che risulta essere abbastanza scadente, cos la gente inizia dapprima a piluccare quell'argomento e poi, in seguito a una specie di assalto frenetico, le voci si sviluppano (ib.).

Che cosa emerge dal confronto tra la Britannica e il modello Wikipedia? Il mero paragone tra numeri e cifre non sufficiente, ma pu offrirci un primo colpo d'occhio delle differenze fra queste due realt. Gli 80 mila articoli della Britannica rappresentano senza dubbio una fonte autorevole e controllata, frutto di un processo di creazione che ambisce alla perfezione, ma sono una fetta ben pi piccola dello scibile e dell'insieme di fatti, eventi e personaggi del mondo, di oggi come del passato, che potremmo invece reperire consultando Wikipedia. Oltre al vantaggio di avere tutto a portata di un clic (di contro alla notevole mole e all'elevato numero di volumi 137

che compongono una seria enciclopedia cartacea, a ben vedere la stessa Britannica non pu considerarsi completamente infallibile o esente da errori. Vale la pena sottolineare che:
pochissime voci nascono come capolavori in Wikipedia. Per la maggior parte, infatti, si tratta di documenti molto modesti, stubs (mozziconi), ossia abbozzi che possono partire anche da una sola riga di testo e che in alcuni casi risultano perfino difficilmente qualificabili come discorsi di senso compiuto. Nel gergo di Wikipedia, un abbozzo una voce breve e incompleta che necessita di essere ampliata da parte della comunit. Si tratta di un'altra delle peculiarit di Wikipedia, dato che nessuna enciclopedia andrebbe mai in stampa conservando al suo interno i resti di un lavoro lasciato a met. Ma nella cultura di Wikipedia lasciare visibile un abbozzo rappresenta un incitamento che serva a far intervenire altri contributori, per espandere e migliorare il progetto. Ancora una volta, si mette in atto un effetto stigmergico: modificare l'ambiente, lasciando in giro abbozzi che altri provvederanno a completare (p. 108).

A livello delle singole voci la qualit di Wikipedia variabile 92, ma se invece spostiamo il confronto su una scala pi grande, ci accorgiamo che a livello d'insieme essa probabilmente la migliore enciclopedia al mondo: pi grande, pi aggiornata e in molti casi pi esauriente persino della Britannica (Anderson 2006, p. 63). Abbiamo a che fare con un fenomeno probabilistico che funziona in modo brillante, ma del tutto al di fuori dei canoni editoriali tradizionali:
92 Anderson sottolinea come nella Britannica la qualit varia da, diciamo, 5 a 9, con una media di 7. In Wikipedia varia da 0 a 10, con una media, diciamo, di 5. Ma visto che Wikipedia ha dieci volte tanto le voci della Britannica, avete maggiori probabilit di trovare su Wikipedia una voce sensata sull'argomento che vi interessa (p. 64).

138

a rendere Wikipedia davvero straordinaria il il fatto che essa migliora nel corso del tempo: si cura organicamente come se la sua enorme e crescente armata di addetti fosse un sistema immunitario, sempre vigile e pronto a reagire contro qualsiasi batterio minacci l'organismo. E, come un sistema biologico, Wikipedia evolve, selezionando caratteristiche che l'aiutino a restare un passo avanti ai predatori e agli agenti patogeni presenti nell'ecosistema. [] L'errore di molti critici di aspettarsi qualcos'altro. Wikipedia semplicemente un animale diverso dalla Britannica. una comunit vivente, non un'opera statica di consultazione. Il vero miracolo di Wikipedia che questo sistema, aperto ai contributi e alle integrazioni di utenti non professionisti, non collassi nell'anarchia. Al contrario, ha in qualche modo auto-organizzato la pi completa enciclopedia della storia. Invertendo la tendenza dell'entropia, la forza catalizzante di Jimmy Wales mettere a disposizione alcune voci iniziali e un meccanismo che consenta ad altri di aggiungerne ha creato l'ordine dal caos (pp. 64-65).

Come detto, tuttavia, la sua carenza pi grande si misura sulle milioni di voci che per vari ordini di motivi opportunit, settorialismo, scarsa rilevanza e non ultimo, spazio fisico mancano e che i suoi autori sono costretti a trascurare. A differenza di Wikipedia, in cui a prevalere sono gli errori di commissione, in questo caso l'omissione a farla da padrone: la Britannica superficiale in certe categorie e sorpassata in molte altre (p. 62). L'universo digitale e la sua economia prossima alla gratuit consentono a Wikipedia di pubblicare voci su praticamente qualsiasi argomento, con l'ulteriore possibilit di poter effettuare aggiornamenti costanti e revisioni in diretta. Basti pensare in tal senso che:
non appena si verifica un evento, i wikipediani si mettono in

139

moto, come api in un alveare, per organizzare, compilare e archiviare nelle varie voci del sito web i loro aggiornatissimi rapporti. [] in modo da riportare sempre le ultimissime notizie. Questa continua attivit di registro storico del tutto senza precedenti ed la sola che pu colmare il tradizionale divario di conoscenza dovuto allo scarto di tempo che esiste fra la pubblicazione di un quotidiano e quella di un libro di storia. Le varie voci dell'edizione inglese di Wikipedia, in cui l'attivit procede ininterrotta, sono divenute un'istantanea delle condizioni del pianeta e fungono da bozza storiografica in continua preparazione (Lih 2009, p. 9-10).

Come utilizzatori forse pagheremo un piccolo scotto in termini di certezza e inoltre sar sempre bene mantenere alte la soglia d'attenzione e lo spirito critico infatti insieme ad articoli di erudizione e sapienza mozzafiato, c' un mare di stub (abbozzi di articoli, quasi delle voci 'segnaposto') e persino spam autogenerata (p. 63) ma avremo a disposizione un repertorio pressoch illimitato di contenuti cui attingere. Ancora una volta pu essere utile riportare le parole di Chris Anderson (2006):
il vantaggio dei sistemi probabilistici che beneficiano del sapere della massa e di conseguenza possono espandersi sia in ampiezza sia in profondit. Ma siccome lo fanno sacrificando la certezza assoluta a livello di microscala, dovete prendere ogni singolo risultato cum grano salis. Wikipedia dovrebbe essere la prima fonte d'informazione a cui rivolgersi, non l'ultima; dovrebbe essere un sito per raccogliere informazioni, non la definitiva bocca della verit. Lo stesso vale per i blog, nessuno dei quali autorevole in s. I blog sono una coda lunga, ed sempre un errore generalizzare circa la qualit o la natura del contenuto della coda lunga variabile ed eterogeneo per definizione. Ma collettivamente i blog stanno dimostrando di essere all'altezza dei media mainstream. Dovete solo leggerne pi d'uno prima di farvi

140

un'opinione (pp. 62-63).

Al punto a cui siamo giunti spontaneo domandarsi quale sia l'effettivo funzionamento di Wikipedia e quale in concreto il percorso che porta alla creazione di una nuova voce o alla modificazione di un articolo. Ci che di fatto sostiene l'enciclopedia di cui abbiamo sinora parlato un insieme di regole e pratiche, pi vicine alla forma di consuetudini e norme di buon senso che vere e proprie leggi scritte, risultato di una tacita accettazione all'interno della comunit dei wikipediani. E sono state queste dinamiche di gruppo di natura informale e scaturite dalla base, piuttosto che imposte e calate dall'alto, a decretare il successo e la longevit del progetto di Wikipedia. Tra i suoi partecipanti, che si tratti di contributori prolifici e costanti, o di visitatori occasionali e di passaggio, forte lo spirito di fiducia e responsabilit reciproca tipico dell'etica sorta agli albori di internet tra le prime comunit virtuali sparse per la rete. La lezione di Usenet93 e Netnews94, l'efficace e virtuoso esperimento di meta-moderazione promosso da Slashdot95 e le pi elementari prassi legate alla netiquette,
93 Si tratta di una rete di utenti lanciata nel 1979, prima ancora della nascita di Internet: Usenet, pertanto, ha rappresentato per molte persone il primo ingresso in una comunit globale on-line (Lih 2009, p. 100). Essa era basata sull'idea di creare isole virtuali i cui utenti potevano riunirsi per scambiare messaggi rispetto ad un determinato argomento, per quanto il processo comunicativo era di tipo asincrono, diverso dunque dalle modalit istantanee a cui siamo abituati oggi. 94 Netnews fu una delle prime piattaforme per lo scambio di messaggi all'interno di comunit online, la cui caratteristica peculiare era l'assenza di un'autenticazione a livello centrale per i suoi utenti: ciascuno poteva inviare qualunque cosa desiderasse utilizzando uno pseudonimo a scelta: in generale si faceva affidamento sul comportamento virtuoso della comunit (p. 100-101). 95 Slashdot.org un sito di notizie incentrato su argomenti di carattere tecnologico, che promuove e stimola il dibattito e la discussione fra gli utenti iscritti. Questo sito potuto diventare una fonte preziosa di

141

insieme all'ampio bacino di spunti e idee proveniente dalla filosofia e dall'etica hacker, sono confluiti all'interno di Wikipedia e ancora oggi sono garanzia della sua qualit. A proposito di questo infatti:
la comunit confida nel comportamento responsabile di ciascuno. Le lezioni apprese alla scuola di Usenet 96 per contrastare l'azione di vandali, piantagrane e individui molesti sono state messe in pratica dai membri della comunit di Wikipedia e, in particolare, da coloro che al suo interno si occupano di realizzare i vari strumenti software. Si pu impedire agli utenti sgraditi di intervenire sulle pagine del sito, come pure si possono bloccare
contenuti grazie all'idea di far s che fosse la stessa comunit dei partecipanti a vigilare su se stessa, al fine di ridurre il rumore e aumentare il livello del segnale. possibile dunque attribuire voti positivi o negativi ai commenti (evidenziando cos quelli pi meritevoli di attenzione) e, cosa ancor pi interessante, effettuare forme di metamoderazione, chiedendo agli utenti di valutare le valutazioni (che vengono selezionate in modo casuale). Il potere informativo di Slashdot dipendeva da individui che volontariamente assolvevano al compito della meta-moderazione. Era come il giardino di una comunit: la gente era investita della sua responsabilit e investiva tempo ed energie per coltivare quello speciale angolo di Internet (p. 82). 96 Ci si riferisce qui ad alcune strategie che furono attuate quando Internet inizi a diffondersi sempre pi capillarmente, decretando anche per Usenet la perdita dell'innocenza. La rete inizi a mettere in luce le possibilit commerciali che offriva, diventando un territorio di conquista sempre pi appetibile e ambito per societ e individui mossi dalla ricerca del profitto. Anche all'interno delle comunit di discussione le dinamiche legate allo spirito hacker iniziarono ad essere tradite: per ovviare a questi problemi vennero introdotte alcune soluzioni volte a preservare il rispetto e a limitare gli interventi dannosi di coloro i quali si rivelavano interessati al raggiungimento di fini estranei a quelli del gruppo. Tra queste vale la pena citare il cos detto kill file (una forma di filtro consistente in un elenco di parole indesiderate da comunicare al proprio lettore affinch provvedesse ad ignorarle) e una serie di software per contrastare i messaggi di spam.

142

determinate voci per prevenire atti di vandalismo. [...] Ad ogni modo va detto che, da quando Wikipedia ha preso il volo, la comunit sempre stata caratterizzata dalla presenza di gente che in maggioranza agisce in modo straordinariamente corretto e produttivo. un dato di fatto sul quale non tutti avrebbero scommesso, trattandosi di un sito che incoraggia chiunque a contribuire a qualsiasi pagina in qualunque momento (p. 103).

Un risultato di questa portata, soddisfacente non solo dal punto di vista quantitativo ma soprattutto per quanto riguarda la qualit raggiunta e la possibilit di miglioramento legata ai progetti aperti, non pu per prescindere da alcuni aspetti che di seguito intendiamo approfondire. Partiamo innanzitutto dal riconoscimento del fatto che anche su Wikipedia prevista una, seppur minima, struttura gerarchica. Alcuni utenti ricoprono infatti il ruolo di amministratori, anche se il surplus di funzioni a loro disposizione non li dota di un'autorit superiore rispetto agli altri, dal punto di vista editoriale. Wales ha sempre sottolineato l'umilt di questo ruolo e il carattere assolutamente non straordinario di chi si trova a ricoprirlo (e spesso ci si riferisce a loro come agli addetti alle pulizie); la loro stessa nomina affidata a un processo del tutto democratico e prevede un apposito forum all'interno di Wikipedia in cui gli aspiranti possono candidarsi e ricevere i voti della comunit. Questa particolare categoria di wikipediani contribuisce al mantenimento degli standard di imparzialit che rappresentano la missione di Wikipedia e si concretizzano nella possibilit di bloccare temporaneamente quanti siano ritenuti responsabili di danneggiamenti nei confronti del sito e di gestire le delicate operazioni di cancellazione. A proposito di quest'ultimo punto infatti:
in alcuni casi risultava fondamentale procedere alla soppressione

143

e alla completa rimozione di particolari informazioni dallo spazio pubblico di Wikipedia. Ci avveniva soprattutto nei casi di violazione del copyright e di argomentazioni diffamatorie o inappropriate riguardo alla vita privata di qualcuno. Lasciar circolare questo tipo di informazioni avrebbe potuto causare gravi conseguenze a livello legale. Pertanto si decise che solo agli amministratori designati membri fidati della comunit si sarebbe concessa la facolt di cancellare o eventualmente ripristinare le voci (p. 110).

Ma lo strumento che forse pi di tutti contribuisce a rendere vincente il mix tra lo sperimentalismo (non dimentichiamo che Wales e Sanger da sempre hanno invitato chiunque volesse collaborare alla redazione delle voci ad essere audace), la presenza di autori che sono per lo pi amatori e il buon livello in termini di qualit e affidabilit dei contenuti rappresentato dal fatto che Wikipedia conserva la memoria di tutti i cambiamenti che avvengono al suo interno. Per ogni voce il sistema registra qualunque aggiunta, modifica e cancellazione, riportandone fra l'altro i riferimenti temporali della data e dell'ora, nonch il nickname o l'indirizzo IP di chi l'ha effettuata. Questa sorta di ancora di salvataggio perennemente disponibile consentita dalla logica del software wiki e il fatto di averla prevista merito ancora una volta di Cunningham, il quale si era reso conto che:
in tal modo si poteva sempre disporre di una traccia completa delle modifiche e di un semplice meccanismo per ispezionare o annullare ogni revisione. La gente non aveva alcun timore quando provava a modificare il wiki, poich nessuna informazione andava definitivamente persa o distrutta. Le pagine potevano essere recuperate o riportate alla loro versione originaria (p. 71).

Oltretutto per gli utenti registrati prevista una funzionalit 144

che prende il nome di watchlist (nella versione italiana Osservati speciali) e che pu essere assimilata alla possibilit che i web browser offrono in termini di gestione dei siti preferiti. Essa investe i singoli individui di un interessante ruolo di controllori che, monitorando l'evoluzione dei contenuti, di fatto contribuiscono a mantenere sicure le pagine di Wikipedia e ottengono esiti positivi nel limitare le intrusioni dei sabotatori della conoscenza e di quanti mirano a diffondere notizie parziali e prive di fondamento. La watchlist infatti:
aiuta gli utenti a tenere traccia delle voci cui sono interessati o alle quali hanno contribuito. [] La capacit di seguire da vicino le modifiche relative alle voci di interesse conferiva a ciascuno un particolare incarico di supervisione, promuovendo pertanto un maggiore controllo sulle voci e il mantenimento di elevati standard di qualit. Per visualizzare con precisione le modifiche apportate su Wikipedia presente un importante strumento noto come diff. [] La funzione diff assolutamente fondamentale per l'attivit che si svolge secondo per secondo su Wikipedia. Quando si visualizza la cronologia di una voce, si possono confrontare in modo istantaneo due revisioni qualsiasi tramite il risultato della funzione diff che riporta aggiunte, cancellazioni e modifiche, aiutando cos gli utenti a tenere traccia dei cambiamenti (pp. 88-89).

La presenza di amministratori, con il compito di controllare che il progetto Wikipedia mantenga la rotta di qualit e neutralit che sin dalle origini ha sempre rappresentato l'ideale di Wales e Sanger, ci offre lo spunto per introdurre un aspetto che finora non avevamo ancora trattato. Conviene infatti spendere alcune parole sulla struttura economica sulla quale Wikipedia fondata. Non dobbiamo dimenticare come quella che oggi la pi grande enciclopedia del mondo (non vale la 145

pena ricorrere all'aggettivo online, che suonerebbe come un complemento di limitazione) sia nata nell'alveo di una societ commerciale e orientata al profitto, quale era appunto la BOMIS. Wikipedia, in una fase iniziale, doveva rappresentare una sorta di esperimento, un bacino di incubazione capace di far crescere in modo rapido la produzione di contenuti che sarebbero poi confluiti all'interno di Nupedia.com. Nel febbraio del 2002 quando il progetto era ormai ben avviato, una dichiarazione del co-fondatore ebbe un grande effetto destabilizzante, scuotendo come un fulmine a ciel sereno i volontari della comunit. Sanger stava attraversando un periodo critico dal punto di vista professionale: poich la BOMIS era andata incontro ad un periodo di calo dei profitti, si era stati costretti al suo interno a procedere in direzione di un alleggerimento del personale. Temporaneamente sospeso, egli continu comunque a prestare la sua opera in veste di volontario, in attesa di tempi migliori. In uno sciagurato messaggio inviato al gruppo, in cui accennava ai suoi programmi futuri, Sanger accenn tuttavia al seguente possibile scenario:
la BOMIS potrebbe vendere inserzioni pubblicitarie su Wikipedia nei prossimi mesi, e i ricavi ottenuti potrebbero rendere possibile un ritorno al mio vecchio incarico. Sarebbe magnifico. Ho amato tanto questo lavoro, e voglio fare qualcosa per far s che possa autofinanziarsi (p. 159).

Che si sia trattato di un'apertura possibilista tesa a valutare l'accoglienza della proposta da parte della comunit, oppure di un grosso malinteso, il solo accenno ad un piano economico di questo genere scaten una forte reazione fra i wikipediani. L'economia del dono (Anderson 2009, pag. 205) e della collaborazione gratuita e spontanea finalizzata ad estendere i confini della conoscenza erano da sempre state le parole chiave 146

del progetto Wikipedia; la possibilit che questo meccanismo virtuoso si potesse incrinare e subire le distorsioni, inevitabilmente collegate ai meccanismi del profitto, fu subito avvertita come una seria minaccia. Nonostante un gran numero di smentite, la situazione venutasi a creare non fu priva di conseguenze, la pi clamorosa e grave della quali oggi ricordata con il nome di scisma spagnolo. I responsabili dell'edizione spagnola, guidati da Edgar Enyedy, decisero infatti di separarsi dal progetto madre, copiando in blocco i contenuti di Wikipedia (operazione resa possibile e legittimata dalla licenza GNU Free Documentation License, simile alla licenza pubblica generica GNU di Stallman, ma applicata nello specifico ai contenuti scritti) e rendendoli disponibili su un altro sito:
il 26 febbraio lo scisma spagnolo fu ufficializzato con il nome di Enciclopedia Libre, ospitata presso l'Universit di Siviglia. Enyedy riusc a convincere quasi tutti i volontari a seguirlo, condannando l'edizione spagnola di Wikipedia a un periodo di relativa inattivit che dur per tutto il 2002. Entro fine anno, l'Enciclopedia Libre super le 10 000 voci e per lungo tempo sembr che, in seguito allo scisma, l'edizione spagnola di Wikipedia fosse destinata al rango di una sfortunata versione tascabile (Lih 2009, p. 160).

In seguito la situazione ritorn alla normalit: la ferita provocata dall'abbandono del progetto da parte di numerosi membri della comunit fu bilanciata da nuove schiere di partecipanti che, attratti dalla diffusa e crescente popolarit di Wikipedia, contribuirono ad allargare sempre pi le fila dei suoi collaboratori. Il numero di voci riprese a crescere e nell'autunno del 2004 si verific il contro-sorpasso nei confronti dell'Enciclopedia Libre. La vicenda serv come 147

monito e lasci una lezione importante, anche dal punto di vista della forza trainante che pu scaturire da un gruppo coeso e motivato, e dal momento che:
fu necessario pi di un anno affinch l'edizione spagnola di Wikipedia si rimettesse in sesto, ci spiega come mai questioni relative a scismi e inserzioni pubblicitarie rappresentino ancora oggi argomenti sensibili per la comunit. La pubblicit, in particolare, un vero e proprio cavo ad alta tensione per i wikipediani si consiglia di non toccarlo se non si vuole rimanere folgorati (ib.).

Anche a seguito di questa esperienza e per ribadirne l'essenza libera e gratuita, verso la met del 2003 la BOMIS procedette alla cessione della propriet del progetto Wikipedia alla Wikimedia Foundation, un'unit no-profit indipendente che era stata appena costituita con sede in Florida. Questa organizzazione97 incoraggia la crescita, lo sviluppo e la distribuzione di contenuti liberi e multilingue e opera per la realizzazione di alcuni dei pi significativi progetti di editoria aperta e collaborativa del mondo98, tutti sviluppati grazie alle potenzialit del software wiki e rilasciati attraverso una licenza
97 La cui pagina web pu essere visitata all'indirizzo: http://wikimediafoundation.org/wiki/Home. 98 Tra di essi ricordiamo, oltre a Wikipedia, Wiktionary (volto a creare un dizionario multilingue open content), Wikiquote (un archivio immenso di citazioni prese da discorsi di personaggi famosi, film, libri e qualsiasi altra fonte di interesse intellettuale), Wikibooks e Wikisource (archivio di risorse e-book destinato principalmente ad aiutare studenti e insegnanti delle scuole superiori e delle universit il primo; enorme raccolta di testi gratuiti e liberi, come punto di partenza per possibili traduzioni, il secondo), Wikispecies (database tassonomico aperto), Wikinews, Wikiversity e infine Wikimedia Commons (archivio centrale che raccoglie fotografie, diagrammi, mappe, video, animazioni, musica, suoni e altro materiale gratuito).

148

Creative Commons. Vengono inoltre elaborati dei Rapporti Annuali e fissati degli obiettivi da raggiungere nel breve e medio periodo. Tra le priorit che la Wikimedia Foundation si data per il 2015 vi sono ad esempio quelle di: aumentare il numero totale di persone servite ad 1 miliardo; aumentare il numero di voci offerte su Wikipedia a 50 milioni; assicurare informazioni di alta qualit tramite l'incremento della percentuale di materiale portato a standard di qualit elevata o molto elevata del 25%; incoraggiare i lettori a diventare contributori portando il numero complessivo di utenti, che fanno pi di 5 modifiche al mese, a 200.000; sostenere la sana diversit nella comunit di editing raddoppiando la percentuale di utenti donne al 25% e aumentando la percentuale di utenti del Sud del Mondo al 37%99. Va da s che l'attuazione di questi obiettivi non pu prescindere da un sostegno di ampia portata (di cui dovrebbero farsi promotori prima di tutto i governi e le istituzioni) e tanto meno pu fondarsi esclusivamente sull'attivit dei soli volontari. La partecipazione collettiva comunque indispensabile, ma dinanzi a traguardi che coinvolgono scelte in materia di politiche sociali, alfabetizzazione primaria e informatica, riduzione del digital divide e accesso alla conoscenza libero da
99 La fonte di queste informazioni il Piano Strategico di Wikimedia, che pu essere consultato e stampato gratuitamente all'indirizzo: http://wikimediafoundation.org/wiki/Wikimedia_Movement_Strategic_Pla n_Summary.

149

qualsiasi discriminazione, la necessit di mettere in campo risorse anche materiali appare in tutta la sua chiarezza e importanza. Non a caso la Wikimedia Foundation dichiara esplicitamente di avere bisogno dell'aiuto di tutti e invita gli utenti a partecipare, sia dedicando il proprio tempo e le proprie conoscenze, sia per il tramite di donazioni generose che permettano ai progetti di mantenersi attivi e raccogliere i risultati sperati. Di qui i periodici appelli e richieste di aiuto economico da parte del suo fondatore, che ogni volta senza nascondersi mette la sua faccia (letteralmente parlando, dal momento che i messaggi sono sempre corredati dal volto sorridente di Wales) davanti a queste necessit di sostegno. Wikipedia e rimane un'impresa gratuita e non commerciale, lontana anni luce dal potenziale di server e numero di dipendenti che caratterizza business di successo come Google e Yahoo!: il non tradimento della sua missione di democrazia culturale e diffusione della conoscenza non pu tuttavia prescindere dalle forme di finanziamento (anche in questo caso) volontario e spontaneo che animano i suoi partecipanti. C'era una volta La Gente Un Tempo Nota Come Il Pubblico100 In Surplus cognitivo, il guru del web Clay Shirky offre un gran numero di esempi di quella che pu essere considerata una
100 Riferimento all'espressione inglese The People Formerly Known as the Audience, che costituisce il titolo di un post di Jay Rosen, critico di media e professore di giornalismo presso la New York University. A essa Clay Shirky ricorre ripetutamente al fine di sottolineare come gli strumenti digitali e le pi varie modalit di social networking abbiano contribuito a trasformare il pubblico dei media da entit indistinta e omogenea, target passivo di comunicazioni e massaggi calati dall'alto che non offrivano possibilit di interazione, al suo ruolo decisamente pi attivo e protagonista, basato sulla continua alternanza di fruizionecreazione-partecipazione tipico dei nostri giorni.

150

vera e propria rivoluzione determinata dall'inclusione degli amatori tra i produttori, la quale sta sempre pi cambiando il panorama mediatico e le modalit della conversazione pubblica (Shirky 2010, p. 47). Le origini di questa tendenza possono essere fatte risalire alla seconda met del Novecento, ma solo negli ultimi anni, in coincidenza con la diffusione delle tecnologie digitali e soprattutto in seguito alla nascita di internet, che questo fenomeno ha iniziato a rivelare la sua reale portata. Infatti:
fin dalla Seconda guerra mondiale, l'aumento del PIL, del livello d'istruzione e dell'aspettativa di vita ha costretto il mondo industrializzato a occuparsi di qualcosa che fino ad allora non era mai stato gestito su scala nazionale: il tempo libero. La quantit di tempo non strutturato complessivamente disponibile per la popolazione istruita cresciuta a dismisura, sia per l'aumento del tasso di istruzione, sia perch quella popolazione vive pi a lungo lavorando di meno [] (pp. 5-6).

A differenza delle generazioni precedenti, gli individui iniziarono a disporre di miliardi di ore di tempo libero all'anno che nella maggior parte dei casi fu canalizzato verso quello che stato il medium pi influente e diffuso dell'era antecedente al computer, ovvero la televisione:
avevamo cos tanto tempo e cos pochi modi per passarlo che ogni cittadino del mondo sviluppato cominci a guardare la tv come se fosse un dovere. Ben presto la televisione fece la parte del leone con il nostro tempo libero: una media di venti ore abbondanti alla settimana, a livello mondiale. Nella storia dei mezzi di comunicazione, solo la radio da sempre altrettanto onnipresente, ma spesso il suo ascolto si accompagna ad altre attivit, come il lavoro o il viaggio, mentre per la maggior parte della gente il pi delle volte guardare la tv l'attivit (siccome la televisione passa

151

attraverso gli occhi, oltre che per le orecchie, immobilizza anche gli spettatori moderatamente attenti, bloccandoli sulla sedia o sul divano, un prerequisito per il consumo). [] nello spazio di una generazione, guardare la televisione [] diventato un lavoro parttime per tutti i cittadini del mondo sviluppato. I tecnologi amano dire che la dose che fa il veleno: un consumo moderato di alcool o di caffeina va bene, ma una dose eccessiva pu essere fatale. Analogamente, la questione della tv non riguarda il contenuto dei singoli programmi, ma il loro volume: l'effetto sugli individui e sulla cultura nel suo insieme dipende dalla dose. Noi non guardavamo una bella tv o una brutta tv, guardavamo tutto: sitcom, soap opera, pubblicit, televendite. La decisione di guardare la tv spesso veniva prima di sapere cosa ci sarebbe stato sullo schermo a quell'ora. Non quel che vediamo, ma quanto vediamo, ora dopo ora, giorno dopo giorno, anno dopo anno, nel corso della nostra vita: una persona nata nel 1960, a oggi ha guardato qualcosa come cinquantamila ore di tv, e probabilmente ne guarder altre trentamila prima di morire (pp. 6-7).

L'autore paragona questa sorta di narcosi collettiva da schermo all'impennata registrata nel consumo di sostanze alcoliche (in particolar modo gin) da parte della popolazione di Londra nella prima met del Settecento. La prima industrializzazione aveva innescato grandi modificazioni al tessuto sociale, con conseguenze profonde sulla vita delle persone. Si venne a delineare un quadro del tutto inedito, all'insegna di un rapido ritmo della crescita demografica e dell'urbanizzazione, in cui enormi masse di individui si ritrovarono all'improvviso radunate in uno stesso luogo; al tempo stesso l'et industriale determin il declino della ruralit e di tutte quelle abitudini e legami sociali tipici della vita nelle campagne. E cos non dobbiamo stupirci se il gin divent una sorta di anestetico per una popolazione sempre pi numerosa e alle prese con i nuovi stress della vita cittadina (p. 3). Ancora: 152

agendo come lubrificante sociale per un'umanit alle prese con una vita sconosciuta e spesso spietata, il gin imped ai suoi estimatori di andare completamente a pezzi, permettendogli di lasciarsi andare un po' alla volta. Si tratt di una sbronza collettiva, su scala urbana (ib.).

Fino a pochi anni fa, a quanto pare, la televisione ha di fatto rappresentato per una vasta fetta della popolazione mondiale un meccanismo di difesa e piacere analogo a quello fornito dal liquore aromatizzato con bacche di ginepro. Gli anni del secondo dopoguerra, e questo soprattutto negli Stati Uniti d'America, sono stati caratterizzati dal passaggio dal modello delle citt densamente popolate, affiancate da comunit rurali forti, ad una realt in cui le persone si ritrovano immerse in una situazione pi slegata e distaccata, in cui il pendolarismo lavorativo e la rilocazione sono divenute delle costanti. E di fronte a tutto ci, la risposta pi frequente stata quella di prendere in mano il telecomando e fissare lo sguardo sullo schermo. Nonostante molti studi abbiano dimostrato una stretta correlazione tra il consumo televisivo e l'infelicit delle persone101, il numero di ore dedicate a questo medium continuato a crescere, sottraendo quote di tempo che si sarebbero potute impiegare con gli amici, la famiglia e in numerose altre occasioni di socializzazione. Vissuta come un'attivit che ci dovrebbe aiutare a sentirci meno soli, la tv, attivit solitaria per eccellenza, ha in realt innescato un circolo
101 Non solo le persone infelici guardano molta pi tv di quelle felici, ma [] guardare la tv fa accantonare altre attivit che, pur non essendo cos coinvolgenti come la tv, potrebbero dare maggiori soddisfazioni a lungo termine. Passare molte ore davanti al piccolo schermo, invece, ci porta a cercare continue e maggiori aspirazioni materiali, e a una maggiore ansia (p. 7).

153

vizioso il cui esito pi evidente il trionfo della solitudine e della sottovalutazione dell'importanza che le relazioni interpersonali rivestono nel determinare il grado di soddisfazione esistenziale delle persone. Come fare per ribaltare questa tendenza? Possiamo trarre una lezione in tal senso ripensando alle iniziative intraprese nel Settecento per cercare di arginare la piaga sociale dell'abuso di alcolici:
nel tentativo di restaurare le regole della Londra preindustriale, il Parlamento si scagli contro il gin: a partire dal 1729, e per tre decenni, promulg leggi su leggi che proibivano vari aspetti della produzione, del consumo o della vendita del gin. Questa strategia fu del tutto inefficace, se non controproducente. Partor solo un gioco al gatto e al topo che dur trent'anni: come si usa dire, fatta la legge, trovato l'inganno. Il Parlamento dichiar illegali i superalcolici aromatizzati, e i distillatori smisero di aggiungere bacche di ginepro al liquore. Ne viet la vendita, e allora le donne presero a smerciarlo in bottiglie che tenevano nascoste sotto le gonne, mentre taluni personaggi dotati di maggior spirito imprenditoriale crearono i negozi Puss and Mew: il cliente, attratto da un'anonima porticina segnalata dal disegno di un gatto (Puss), dopo aver detto la parola d'ordine (Mew, miao) e pagato il venditore nascosto dietro la porta, riceveva in cambio il suo bicchierino di gin (p. 4).

Queste iniziative non funzionarono perch consideravano la febbre del gin come il problema da risolvere, trascurando il cuore della questione e cio il disagio e l'incapacit di adattamento alle nuove condizioni sociali, alle quali la gente non era in grado di rispondere con i tradizionali modelli civici a disposizione. Non a caso:
il consumo di gin diminu solo quando la societ si riorganizz

154

tenendo conto delle nuove realt urbane create dall'incredibile densit sociale di Londra, attuando la ristrutturazione che la trasform in una citt moderna, una delle prime. Molte delle istituzioni cui ci riferiamo quando parliamo di mondo industrializzato in realt sorsero in risposta al clima sociale scaturito dall'industrializzazione, e non dall'industrializzazione in s. Le societ di mutuo soccorso offrirono una gestione condivisa del rischio al di fuori dei tradizionali legami parentali o religiosi. La diffusione dei caff prima e dei ristoranti poi fu stimolata dalla maggiore concentrazione demografica. I partiti politici iniziarono a rivolgersi ai poveri delle citt e a mettere in campo candidati pi attenti alle loro esigenze. Questi cambiamenti avvennero solo quando la densit cittadina smise di essere trattata come una crisi e cominci a essere considerata un dato di fatto, addirittura un'opportunit. Il consumo di gin, dovuto soprattutto a gente che si anestetizzava di fronte agli orrori della vita urbana, cominci a calare anche perch le nuove strutture sociali mitigarono quegli orrori. L'aumento della popolazione e della ricchezza media permise l'avvento di nuovi tipi di istituzioni; invece di folle impazzite, gli architetti della nuova societ videro un surplus urbano, effetto collaterale dell'industrializzazione. E noi? Cosa dire della nostra generazione? (pp. 4-5)

Grazie alla tecnologia che pervade sempre pi ogni aspetto della nostra esistenza, offrendo il vantaggio di rendere gli spostamenti pi rapidi, le interazioni meno costose e il lavoro stesso un'attivit fortemente de-materializzata, negli ultimi decenni l'uomo ha potuto disporre di quote crescenti di tempo libero, un vero e proprio extra bonus, una fetta di ore della giornate da dedicare ad attivit personali estranee al soddisfacimento dei bisogni primari (mangiare, dormire e lavorare). Al tempo stesso le ultime generazioni, rispetto a quelle che le hanno preceduto, hanno potuto beneficiare in misura maggiore dei vantaggi dell'istruzione; proprio per 155

sottolineare quest'ultimo aspetto, Shirky si riferisce all'aumentata disponibilit di tempo libero adottando il termine surplus cognitivo. E come mostra l'autore:
all'inizio, la societ non sa mai bene cosa farsene, di un surplus (per questo un surplus). Da quando abbiamo un surplus di tempo libero davvero imponente miliardi e poi triliardi di ore all'anno perlopi lo abbiamo passato a guardare programmi televisivi perch quell'uso del tempo libero ci sembrava migliore delle alternative disponibili. Certo, avremo potuto fare sport, leggere libri o suonare musica con gli amici, ma il pi delle volte non lo abbiamo fatto, perch le soglie di quelle attivit erano troppo alte, in confronto al sedersi e guardare. La vita nel mondo sviluppato fatta di parecchia partecipazione passiva: al lavoro siamo pigroni della scrivania, a casa siamo pantofolai da poltrona. una realt abbastanza facile da spiegare se partiamo dal presupposto che abbiamo voluto essere partecipanti passivi pi di quanto non volessimo altre cose. [] Ma oggi, per la prima volta nella storia della televisione, alcune schiere di giovani guardano la tv meno dei loro genitori. Molti studi sulla popolazione su studenti di scuola secondaria, utenti della banda larga e di You Tube hanno sottolineato questo cambiamento, e la loro conclusione sempre la stessa: le popolazioni giovani con accesso ai media veloci e interattivi stanno modificando il loro comportamento, allontanandosi dai media che presuppongono puro consumo. Anche quando guardano video online, una cosa apparentemente analoga al guardare la televisione, hanno la possibilit di commentare il materiale, di condividerlo con gli amici, di etichettarlo, votarlo e classificarlo e, naturalmente, di parlarne con altri spettatori in tutto il mondo. [] Le scelte che portano a un minore consumo di televisione sono al tempo stesso piccole ed enormi. Le piccole scelte sono individuali: qualcuno decide semplicemente di passare la prossima ora a parlare con gli amici o a giocare o a creare qualcosa invece di guardare e basta. Le scelte enormi sono quelle collettive, un accumulo di piccole

156

scelte di milioni di persone: la migrazione cumulativa verso la partecipazione di un'intera popolazione permette la creazione di una Wikipedia (pp. 11-12).

Un aspetto che l'autore vuole sottolineare quello relativo a come sia stato possibile trasformare il materiale grezzo del tempo libero (p. 153) in quella risorsa estremamente potente che il surplus cognitivo. Il carattere sempre pi sociale dei nuovi media, unito alle inedite possibilit offerte dalla tecnologia digitale hanno di certo creato delle condizioni materiali favorevoli, ma presi da soli non sono sufficienti a spiegare la svolta in termini di condivisione e conversazione pubblica che si sta svolgendo davanti ai nostri occhi. Gli strumenti consentono di partecipare, ma in nessun modo inscritto nell'accoppiata hardware/software di un computer, n tanto meno nei cavi o protocolli che sostengono internet, che gli utenti del Ventunesimo secolo modificassero in chiave attiva la tradizionale relazione instaurata con i mezzi di comunicazione. La stessa somiglianza tra il televisore e lo schermo di un computer lampante: come avvenuto per quasi tutto il Novecento, l'uomo avrebbe potuto continuare ad essere untrattato da semplice spettatore, bersaglio passivo e manipolabile di messaggi preconfezionati creati dai signori dell'informazione. Se la rete si sta pian piano trasformando nello spazio virtuale in cui il discorso pubblico e l'esercizio della cittadinanza prendono corpo, perch accanto ai mezzi tecnici sono intervenute le dimensioni della motivazione (il movente, come lo definisce Shirky) e delle opportunit. Accanto a quello di Wikipedia, un altro esempio degno di nota, ed esemplificativo di quanto appena detto, che possiamo citare quello di Ushaidi.com (il termine in lingua swahili significa testimone, testimonianza), un servizio nato in Kenya e volto a informare i cittadini sulle esplosioni di 157

violenza etnica. Nonostante il governo keniota avesse esplicitamente vietato ai media tradizionali di dare notizia di quanto stava accadendo, un'attivista politica per mezzo del suo blog incominci a denunciare la situazione, invitando i suoi lettori a commentare ed eventualmente fornire ulteriori testimonianze al riguardo. Il successo e la partecipazione delle persone a questa iniziativa fu talmente grande che il sito si ampli, prevedendo un sistema automatico (il carico di testimonianze aveva raggiunti un volume tale da non poter essere pi gestito manualmente) che ordinasse i rapporti dei cittadini e fornisse quasi in tempo reale una localizzazione su mappa dei luoghi dove si verificavano le violenze. Il valore civile di questo servizio altissimo e si misura non solo nella sua carica informativa, ma soprattutto nella possibilit che esso offre alle persone in termini di aiuto e comprensione non filtrata della realt che le circonda. Non dobbiamo infatti dimenticare che Ushaidi.com un progetto portato avanti da individui non professionisti, al di fuori delle logiche spesso partigiane o vittime della censura che caratterizzano le notizie prodotte dai professionisti dei media o dalle fonti governative, abili a manipolare gli eventi e a trascurare episodi scomodi.
Ushaidi fu creato per aggregare un sapere disponibile ma disseminato, per riunire conoscenze frammentate di singoli testimoni in un quadro nazionale. Anche se le informazioni che il pubblico voleva erano in possesso del governo, Ushaidi fu animato dall'idea che ricostruirle da zero, con gli input dei cittadini, fosse pi facile che cercare di ottenerle dalle autorit. Il progetto nacque sotto forma di un sito web, ma gli sviluppatori di Ushaidi.com presto aggiunsero la possibilit di inviare informazioni via sms, e a quel punto le notizie iniziarono ad arrivare a fiotti. Vari mesi dopo l'esordio di Ushaidi.com, la Kennedy School of Government di Harvard mise a confronto i

158

dati del sito con quelli dei media tradizionali e concluse che Ushaidi era stato pi efficace nel segnalare gli atti di violenza al loro nascere (invece di darne notizia solo una volta conclusisi), pi efficace nel riportare atti di violenza non fatali, che spesso precedono episodi mortali, e pi efficace nel fornire notizie provenienti da una vasta area geografica, compresi i distretti rurali. [] Quando si resero conto del potenziale del sito, i suoi fondatori decisero di trasformare Ushaidi in una piattaforma, cos che chiunque potesse allestire un proprio servizio per raccogliere e mappare le informazioni arrivate via SMS. L'idea di agevolare l'accesso a vari tipi di conoscenza collettiva si diffusa oltre i confini del Kenya. Fin dal suo esordio, all'inizio del 2008, Ushaidi stato usato per denunciare atti di violenza nella Repubblica democratica del Congo, per monitorare seggi elettorali e prevenire brogli in India e in Messico, per registrare le scorte di medicine essenziali in molti paesi dell'Africa orientale, e per localizzare i feriti dopo il terremoto ad Haiti e in Cile. Una manciata di persone, lavorando con strumenti limitati e con poco tempo e poco denaro, riuscita a creare una risorsa che nessuno si sarebbe mai neppure immaginato cinque anni prima. Come tutte le belle storie, quella di Ushaidi istruttiva sotto diversi punti di vista: la gente vuole fare qualcosa per rendere il mondo un posto migliore, e d una mano se invitata a farlo. L'accesso a strumenti economici e flessibili elimina molte delle barriere che impediscono l'accesso a strade nuove. Non serve un computer di ultima generazione per sfruttare il surplus cognitivo: possono bastare dei semplici telefoni. Ma una delle lezioni pi importanti questa: una volta che siate riusciti a sfruttare il surplus in modo che interessi alla gente, altri potranno replicare la vostra tecnica, ripetutamente, in tutto il mondo (pp. 16-17).

Ma la rete e le sue declinazioni della partecipazione collettiva non hanno tutte lo stesso valore in termini di coinvolgimento della sfera pubblica e di esercizio della democrazia: l'obiettivo che cerca di portare avanti Wikipedia nel campo della cultura e 159

del sapere mondiale e ci che riuscito a realizzare Ushaidi a livello di impegno politico e sensibilizzazione pubblica dei cittadini costituiscono in realt delle eccezioni, delle isole di valore nel maremagnum di internet e dei contenuti online. A ben vedere il web risulta infatti popolato da un'infinit di progetti usa e getta, creati col minimo sforzo e che non ambiscono a niente di pi di un grezzo umorismo (p. 17). Per fornire uno dei pi tipici esempi di questo lato oscuro del disimpegno e del divertimento fine a se stesso, Shirky fa riferimento al sito ICanHasCheezburger.com, una vastissima raccolta di immagini di gatti e altri animali, alle cui pose e atteggiamenti curiosi vengono abbinate delle simpatiche didascalie scritte in gergo102. Ci troviamo in questo caso all'estremo opposto di Ushaidi.com: a differenza dell'attivit e delle difficolt cui vanno incontro i reporter amatoriali che agiscono su quella piattaforma, possiamo dire che
il processo di creazione dei lolcat sia l'atto creativo pi stupido possibile (non mancano altri candidati, naturalmente, ma i lolcat sono un caso esemplare). Fatta in fretta e con scarsa perizia, l'immagine lolcat media ha il valore sociale di una stella filante e una vita culturale lunga come quella di una farfalla. Eppure chiunque guardi un lolcat riceve un secondo messaggio: anche tu puoi partecipare a questo gioco, proprio perch i lolcat sono cos facili da creare, e perch chiunque pu aggiungere una stupida didascalia alla foto di un bel gatto (o cane o criceto o tricheco Cheezburger un mangiatempo che non fa discriminazioni) e poi condividere la sua creazione con il resto del mondo (pp. 17-18).
102Questi esempi di comicit prendono il nome di lolcat, termine che riunisce la parola gatto e l'espressione lol, a sua volta acronimo dell'espressione inglese laugh out loud (ridere rumorosamente), molto usata come abbreviazione negli sms o nelle comunicazioni digitali informali.

160

Nonostante ci, sempre facendo gli opportuni distinguo, anche la creazione di un'immagine di questo tipo prevede il rispetto di alcune regole basilari e a seconda dei risultati possibile attribuire a questa forma di atto creativo una minore o maggiore qualit. Ci che rileva in questo caso e che contribuisce ad allargare il solco tra l'epoca attuale e il lungo periodo precedente dominato dal consumo di televisione e di materiali creati da professionisti, che anche l'atto creativo pi stupido possibile pur sempre un atto creativo (p. 18). Come sottolinea l'autore:
il vero divario tra il non far nulla e il fare qualcosa, e chi fa lolcat ha colmato quel divario. [] Il piacere contenuto in anche tu puoi partecipare a questo gioco non sta soltanto nel fare, ma anche nel condividere. L'espressione contenuto generato dall'utente, l'attuale etichetta per atti creativi amatoriali, in realt non descrive solo atti personali, ma anche atti sociali. I lolcat non sono solo generati dagli utenti, sono anche condivisi dagli utenti. La condivisione di fatto ci che rende divertente il creare: nessuno creerebbe un lolcat per tenerselo tutto per s. L'atomizzazione della vita sociale nel Ventesimo secolo ci ha spinti cos lontano dalla cultura partecipativa che, quando questa riaffiorata, abbiamo avuto bisogno dell'espressione cultura partecipativa per descriverla. Prima quest'espressione non esisteva, anzi, sarebbe stata una specie di tautologia. Una parte importante della cultura prevedeva la partecipazione i raduni, gli eventi, le esibizioni locali e del resto, da dove altro veniva la cultura se non dalla gente? Il semplice atto di creare qualcosa pensando agli altri e poi di condividerla con loro rappresenta, come minimo, un'eco di quel vecchio modello di cultura, oggi in veste tecnologica (pp. 18-19).

Oggi pi che mai evidente lo sbilanciamento e lo squilibrio

161

che ha caratterizzato i media del Novecento103, pensati esclusivamente per una fruizione e un consumo del tutto passivi: la stazione televisiva produce dei contenuti, in un certo senso parla agli spettatori, ma quest'ultimi di fatto non possono rispondere o fornire i propri input (la stessa formula delle telefonate da casa o il meccanismo del televoto sono pur sempre forme di intervento indiretto e opportunamente filtrato). Non un caso descriviamo questo comportamento con un termine come consumo, pi spesso associato ad attivit materiali quali il mangiare o l'esaurimento di una certa risorsa (la legna che avevo messo nel camino stata consumata dal fuoco, l'automobile ha consumato gran parte del carburante e cos via), ben distanti dai valori intellettuali e culturali che dovrebbero essere coinvolti durante la ricezione di contenuti e messaggi.
Ogni giorno ci sono sempre pi prove che se offrite alle persone l'opportunit di produrre e condividere prima o poi la coglieranno, anche se non si erano mai comportate cos in precedenza e anche se non sono abili quanto i professionisti. Questo non significa che smetteremo di guardare passivamente la tv, significa solo che il consumo non sar l'unico modo in cui useremo i media e che qualsiasi cambiamento, per quanto piccolo, nel modo in cui useremo quel trilione di ore di tempo libero all'anno, sar
103 Da questo punto di vista un perfetto esempio di canale equilibrato dato dal telefono (non a caso elemento chiave delle connessioni internet): quando acquistate un telefono, nessuno vi chiede se volete solo ascoltare o se volete usarlo anche per parlare. La partecipazione insita nel telefono, e lo stesso vale per il computer. Quando comprate una macchina che vi permette di consumare contenuto digitale, comprate anche una macchina che lo produce. Inoltre potete condividere il materiale con i vostri amici, e potete parlare di quel che consumate o producete o condividete. Non si tratta di caratteristiche aggiuntive, sono comprese nel pacchetto base (p. 21).

162

probabilmente importante. Ampliare i nostri orizzonti fino a includere produzione e condivisione non implica che, per ottenere grandi cambiamenti nei risultati, sia necessario apportare grandi modifiche al nostro comportamento personale. Il surplus cognitivo mondiale cos enorme che piccole variazioni possono avere, nel loro insieme, immense ramificazioni. Immaginiamo che tutto rimanga uguale al 99 per cento, che la gente continui a consumare il 99 per cento della televisione che consumava prima, ritagliandosi solo l'1 per cento di tempo per produrre e condividere. La popolazione connessa continua a guardare pi di un trilione di ore di tv all'anno? Bene, l'un per cento di questa cifra pi di cento volte il tempo dedicato ogni anno a Wikipedia (pp. 21-22).

There's no such as a free lunch: corsi di recupero sul Gratis per gli economisti classici L'esempio di Wikipedia uno dei pi virtuosi ed evidenti casi della novit del Web 2.0, che essenzialmente ruota intorno a due dimensioni fondamentali: la partecipazione collettiva e la gratuit. In questo paragrafo cercheremo di illustrarle e analizzarle nel dettaglio. Uno degli elementi che pi colpisce di Wikipedia il fatto che essa sia nata, e continui a svilupparsi, grazie a un lavoro di gruppo di natura volontaristica e su scala mondiale. Dietro ai suoi articoli non si celano autori di professione o scrittori retribuiti, n tanto meno gli attori della filiera tipica di una casa editrice, ma un esercito composto di amatori e individui comuni, che magari non sono esperti riconosciuti o luminari di uno specifico settore della scienza o della letteratura, ma che comunque dimostrano di poter offrire il proprio bagaglio di sapere, contribuendo cos alla realizzazione di uno degli esperimenti culturali pi affascinanti del nostro tempo.
Wikipedia un'iniziativa centrata sull'uomo che invita a una

163

partecipazione massiccia. Sovverte ogni autorit di tipo top-down, accresce il potenziale degli individui e sfrutta il lavoro inutilizzato di quanti, precedentemente isolati all'interno di reti sociali distinte, si trovano ora riuniti insieme da Internet. Non necessario essere un esperto di tecnologia, n tanto meno possedere una laurea in informatica. In effetti, tutto ci che serve saper cliccare su Modifica per aggiustare qualcosa qua e l. [] La comunit rafforza anche altri valori del Web 2.0: il riutilizzo e il rimescolamento. Se si sa costruire e imparare dal lavoro degli altri, i contenuti diventano inarrestabili e possono evolvere molto pi velocemente (p. 130).

Siamo di fatto entrati in quella che l'era Pro-Am, un'epoca in cui professionisti e amatori lavorano fianco a fianco (Anderson 2006, p. 53) e, grazie alla potenza e possibilit di comunicazione simultanea della rete, in maniera sempre pi concertata e caratterizzata da scambi e integrazioni reciproche. Se volessimo individuare un momento chiave di questo cambiamento, potremmo rilevare come suggerisce Anderson (pp. 51-55) la data del 23 febbraio 1987, quando da pi parti della Terra fu osservato il bagliore di luce derivato dall'esplosione, avvenuta 168 mila anni prima, di una supernova, confermando cos la teoria che metteva in correlazione lo scarto temporale esistente tra la comparsa dei neutrini e la luce visibile. Una validazione di questa portata sarebbe stata impossibile da ottenere da parte dei soli astronomi professionisti, per quanto potessero disporre di osservatori e strumenti estremamente sofisticati:
il telescopio avrebbe dovuto essere puntato sulla direzione giusta al momento giusto. Inutile che stia a dirlo: la volta celeste terribilmente grande [] per osservare il cielo quanto basta ad avere una (eventuale) chance di individuare un simile evento (pp. 51-52).

164

Un ulteriore esempio del ruolo di crescente importanza riconosciuto agli amatori, nonch del diffuso clima di collaborazione e cooperazione che sta pian piano scardinando le torri d'avorio in cui molti professionisti continuano a rinchiudersi, offerto dal progetto SETI@home (Search for Extraterrestrial Intelligence at Home) della NASA. Anche in questo caso ci troviamo di fronte ad un caso di manodopera volontaria proveniente dall'astronomia, scienza in cui la possibilit di effettuare scoperte si scontra con l'ostacolo concreto e ineludibile della vastit del campo di indagine, in cui la necessit di far coincidere la dimensione spaziale (il luogo di osservazione) con quella temporale (il momento in cui il fenomeno si sta effettivamente manifestando) un prerequisito di base. Il progetto in questione sfrutta la possibilit di interconnessione di internet (c' una mailing list in cui i vari partecipanti sono registrati) e un software apposito con il tempo libero (il programma in questione gira mentre i computer sono in stand-by) e la passione di un collettivo di volontari, infatti:
tra i circa ottocento amatori presenti nell'indirizzario, c' chi registra le proprie osservazioni per divertimento e chi spera di guadagnarsi l'immortalit grazie a una scoperta che porti il suo nome. La cosa notevole che nessuno di loro lo fa per avere un ritorno economico. Nell'astronomia, la manodopera volontaria ha un suo posto naturale. Ancora una volta, il problema del cielo che devi guardare nel posto giusto al momento giusto per poter testimoniare nuovi, importanti fenomeni come gli asteroidi o l'evoluzione stellare. Non importa se il telescopio grande o costoso; conta il numero di bulbi oculari piantati sulla volta celeste in un determinato momento. Gli appassionati moltiplicano di parecchie volte la manodopera dell'astronomia e non solo guardando le stelle dal cortile di casa (p. 54).

165

Ancora una volta siamo di fronte a una curiosa declinazione del proverbio che esalta la forza proveniente da un gran numero di persone, di contro ai risultati che possono emergere dagli sforzi di un singolo individuo. Le scienze e le arti continueranno a progredire grazie alle capacit di poche e isolate menti geniali, le sole in grado di scoprire nuove teorie, di modificare la visione del mondo e di ribaltare paradigmi consolidati e fino a quel momento inattaccabili. Ma comunque rassicurante, o per lo meno degno di menzione, il fatto che un contributo a tutto ci potrebbe provenire anche da questi operai del sapere, le cui motivazioni, hobby e interessi personali, porteranno forse a risultati meno esaltanti, ma comunque capaci di accrescere e mantenere in moto il carro della nostra conoscenza. E, come nel caso della Supernova 1987A, in cui il contributo alla conferma di una teoria astronomica rimase legato a due amatori in Nuova Zelanda e in Australia, a un ex amatore che stava studiando per diventare un professionista in Cile, e a dei fisici professionisti negli Stati Uniti e in Giappone (p. 53), potrebbe darsi il caso per cui anche a queste partecipazioni dal basso venga riconosciuto il giusto merito all'interno delle pubblicazioni scientifiche pi importanti. Ma come stato possibile giungere a questi risultati? A ben vedere, secondo Anderson (2006), la vera novit di tutta questa faccenda non il concetto in s, ma il modo di attuazione (p. 55). Richiamandosi addirittura ad alcuni passaggi del pensiero marxista, il direttore di Wired rileva come da alcuni anni a questa parte l'innovazione e la disposizione tecnologica abbiano favorito una democratizzazione dei mezzi di produzione (ib.) talmente grande da avere trasformato i consumatori passivi in produttori attivi e volontari. L'evoluzione delle strumentazioni, e 166

soprattutto il ritmo incessante che caratterizza l'aumento della potenza e delle prestazioni dei computer, tale da far s che costi un tempo insostenibili tendono inevitabilmente a crollare, abbassando le barriere economiche di accesso a questi prodotti. In astronomia tutto era stato reso possibile grazie ai telescopi Dobson, i CCD (dispositivi di accoppiamento di carica e internet (p.53), spostandoci su un altro fronte:
proprio come la chitarra elettrica e il garage hanno democratizzato la musica pop quarant'anni fa, le suite di applicativi stanno democratizzando lo studio cinematografico o discografico. GarageBand della Apple, in dotazione gratuita su ogni Mac, saluta l'utente con il suggerimento: Incidi la tua prossima grande hit, e fornisce gli strumenti necessari. Analogamente, le videocamere digitali e i software di editing (gratuiti con ogni copia di Windows e con ogni Mac) stanno mettendo questo tipo di strumenti nelle mani del classico filmmaker casalingo strumenti un tempo riservati ai soli professionisti (p. 56).

Dove prima ci si accontentava di quanto veniva prodotto da un ristretto numero di case di produzione cinematografiche ed emittenti radiofoniche, oppure delle notizie rese disponibili su quotidiani e riviste affermate, il quadro contemporaneo si presenta infinitamente pi vasto e vario. Tra amatori che caricano su YouTube i propri video inediti o le versioni smontate e ri-montate, e spesso ri-doppiate, di film o trasmissioni televisive; dai mash-up alle cover, passando per i remix, di brani famosi ad opera di band e artisti in cerca di visibilit e ribalta; dalla possibilit di creare e condividere un portfolio delle proprie fotografie digitali su Flickr fino alla moltitudine di giornalisti free lance che mirano ad andare oltre l'omogeneit e unidirezionalit delle notizie tipica dei media 167

mainstream, cercando di dar voce a chi costretto al silenzio oppure attuando vere e proprie campagne di controinformazione. Per non parlare di quello sconfinato sottobosco fatto di cultura trash, kitsch e totalmente settoriale che pu essere esibito e che, grazie a internet, pu trovare il suo pubblico di cultori e affezionati. questo a cui facevamo riferimento quando in precedenza abbiamo parlato dei Pro-Am e del popolo di volontari e appassionati che attraverso la tecnologia e quell'enorme cassa di risonanza che la rete hanno finalmente trovato un mezzo per esprimersi e un canale per farsi ascoltare. Ed questa la prima potente forza della coda lunga, come la definisce Anderson, che in azione sotto i nostri occhi e che sta rivoluzionando il concetto stesso di cultura e di accesso alla conoscenza. A questo punto una domanda d'obbligo:
perch lo fanno? Perch una persona crea qualcosa di valore (che sia la voce di un'enciclopedia piuttosto che un'osservazione astronomica) senza un business plan o neppure la prospettiva di una paga? Si tratta di una questione fondamentale, se si vuole capire la coda lunga, anche perch molto di quello che popola la curva non nasce con intenti commerciali. [] I motivi per creare non sono gli stessi sulla testa e sulla coda della curva. Un solo modello economico non funziona per entrambe. Immaginate che la coda del grafico cominci, sulla testa, come un'economia monetaria tradizionale e termini, sulla coda, in un'economia non monetaria. Nello spazio intermedio c' un miscuglio di entrambe. Su nella testa, dove i prodotti beneficiano dei potenti, ma costosi, canali di distribuzione del mercato di massa, sono le motivazioni commerciali a dettare legge. il regno dei professionisti, e per quanto possano amare quel che fanno, si tratta sempre di lavoro. I costi di produzione e distribuzione sono troppo elevati per consentire che l'economia si faccia da parte a favore della creativit. il denaro a muovere il processo. Gi nella coda,

168

invece, dove i costi di produzione e distribuzione sono bassi (grazie alla forza democratizzante delle tecnologie digitali), le motivazioni commerciali spesso sono secondarie. Piuttosto, la gente crea per i motivi pi diversi bisogno di esprimersi, divertimento, sperimentazione e via dicendo. La ragione per cui forse si pu parlare di economia che c' una moneta che pu essere motivante esattamente quanto il denaro: la reputazione (p. 67).

All'interno della grande etichetta filosofica del Web 2.0 confluito un insieme di ideali e concezioni che hanno chiari riflessi a livello politico e sociale e che possono essere ricondotti all'etica hacker. grazie a questa visione della tecnologia e della conoscenza che l'informatica negli ultimi anni ha registrato uno sviluppo sempre pi rapido e linguaggi di programmazione nati dall'apertura del codice sorgente hanno potuto migliorarsi e iniziare a sfidare il predominio dei prodotti commerciali rigidamente protetti dalle barriere del copyright e della clausola tutti i diritti riservati. Yochai Benkler, professore di legge ad Harvard, ha dedicato un saggio a questo argomento (2002), analizzando le ragioni che spingono le persone a partecipare a progetti liberi e interrogandosi sulla natura della peer production. Le comunit il cui lavoro ha portato a sviluppare il sistema operativo GNU/Linux, il web server Apache e il linguaggio di programmazione Perl, solo per citare le punte di diamante relative all'informatica di una lista ben pi ampia di prodotti ed idee sono costituite da individui che non partecipano a questi progetti perch qualcuno ha offerto loro la prospettiva di un ritorno economico o un qualsiasi altro tipo di ricompensa diretta. Il testo, non a caso distribuito con una licenza Creative Commons, illustra come il movimento per il software libero non possa essere ricondotto al denaro, ovvero al tipico incentivo che muove il progresso 169

all'interno delle societ umane. Le persone donano il loro tempo e mettono a disposizione della collettivit il proprio bagaglio di saperi e abilit in vista di quella che Benkler definisce una produzione tra pari basata sul bene comune, la quale poggia su ordine di incentivi e motivazioni lontane da quelle che sono stabilite dall'economia tradizionale. Da un lato vi un appagamento socio-psicologico (p. 59), frutto dell'interazione con un gruppo di individui privo di strutture gerarchiche e rafforzato dal senso di appartenenza ad una comunit. Sull'altro versante, vi una comprensibile gratificazione edonistica personale (ib.) che scaturisce dalla soddisfazione di poter lasciare la propria firma e contribuire a qualcosa di duraturo e che potr essere utilizzato/apprezzato anche da altri. Riportando queste considerazioni sul tema che abbiamo affrontato nel paragrafo precedente, evidente che:
la magia di Wikipedia si verifica quando questi due elementi si vengono a combinare. I diversi capricci e le diverse passioni di ognuno spaziano nei pi svariati campi la creazione di mappe, le verifiche ortografiche, le statistiche sportive, la storia dei francobolli e trovano facilmente una sponda in quell'amalgama di tematiche che Wikipedia, con l'effetto ulteriore di inserirsi e ispirare le attivit degli altri. Non c' mai penuria di cose da fare []. Inoltre, non esistono scadenze e non c' nessuno che imponga un particolare ritmo al lavoro. [] Ma il discorso non si conclude con l'analisi dell'operato di un singolo. I contributi di una persona non sono confinati in rimessa o nel retrobottega. Nell'universo aperto e trasparente di Wikipedia nessuna attivit rimane isolata, ma determina tutta una serie di effetti: appare sulla pagina delle ultime modifiche, provoca una segnalazione nelle watchlist di altri utenti, viene visualizzata da centinaia di visitatori casuali cui capita di incontrarla durante la navigazione. Di qui l'effetto piranha o, per essere pi specifici, l'effetto stigmergico. Le modifiche apportate da una persona all'ambiente

170

ispirano altri per qualcosa di pi grande, generando un effetto a cascata che attraversa tutta la comunit (Lih 2009, pp. 127-128).

Per chiarire questo punto, che sembra contraddire e disattendere tutti i principi economici con cui siamo da sempre stati abituati a fare i conti, dobbiamo anche avere presente la particolare natura della tecnologia digitale. L'universo dei bit sta diventando ogni giorno di pi un universo completamente a s, in continua espansione e all'interno del quale i cambiamenti si verificano a velocit sconcertanti. Quando parliamo di digitale dobbiamo innanzitutto distinguere tra diversi livelli e in particolar modo pensare in termini di potenza di calcolo dei processori, di capienza dei supporti di archiviazione e di velocit della banda di trasmissione dei dati. Sono queste tre dimensioni, che si collegano e sovrappongono, che hanno consentito la nascita della coda lunga e che hanno riscritto le regole dell'economia, all'insegna di prezzi ormai prossimi allo zero. L'eccezionalit di questa situazione sta proprio nel fatto che grazie a queste strumentazioni, e ai linguaggi logici che le fanno funzionare, possibile generare valore in una moltitudine di forme diverse (di cui Wikipedia una delle pi significative manifestazioni) per poi distribuirlo e renderlo disponibile a costi minimi, se non addirittura nulli.
Questa tripletta di tecnologie pi veloci, migliori e meno care si trova riunita online, ed per questo che oggi abbiamo a disposizione servizi gratuiti come YouTube: una quantit sostanzialmente illimitata di filmati che possiamo guardare all'istante, e a risoluzione sempre migliore. Solo pochi anni fa sarebbe stato costosissimo. Mai nel corso della storia umana, i requisiti primari di un'economia industriale erano calati di prezzo cos in fretta e cos a lungo. Questo il motore dietro al nuovo Gratis, quello che va oltre i trucchi del marketing o il

171

sovvenzionamento incrociato104. In un mondo in cui i prezzi sembrano aumentare di continuo, il costo di qualsiasi cosa si basi su queste tre tecnologie sempre destinato a scendere. E continuer a scendere fino ad approssimarsi allo zero (Anderson 2009, p. 89).

Si tratta di una trasformazione ancor pi drastica di quella che in passato fu resa possibile dall'introduzione della catena di montaggio, che segn il tramonto della maggior parte delle manifatture artigianali e l'inizio della produzione industriale standardizzata, perch di fatto:
nel regno digitale, dove a essere creati in abbondanza sono in ultima analisi effimeri bit di informazione elettroni, fotoni e flusso magnetico nulla pu frenare la corsa di quelle leggi del raddoppio (p. 93).

inscritto nella natura dei processi industriali che, con il trascorrere del tempo, per effetto di due principi che agiscono in sinergia e che sono noti come curva di apprendimento e curva di esperienza105, l'intera produzione diventi pi veloce,
104 Con questo termine Anderson fa riferimento ad una forma indiretta, e di fatto illusoria, di gratuit. Rientrano in questa categoria i seguenti casi: prodotti a pagamento che sovvenzionano prodotti gratuiti ( il caso degli articoli civetta); prodotti gratuiti al momento dell'acquisto, che verranno pagati in un secondo momento; trattamenti differenziati a seconda della disponibilit o capacit di pagare (come ad esempio il caso degli uomini che pagano l'ingresso nei locali in cui le donne entrano gratis, le promozioni per cui i bambini entrano gratis, oppure i sistemi di tassazione progressiva per cui i ricchi pagano di pi in modo che i meno ricchi paghino di meno, e a volte nulla). (pp. 27-30). 105 Il principio della curva di apprendimento ha a che vedere essenzialmente con il lavoro umano, sottolineando una relazione di proporzionalit inversa tra il numero di volte che un individuo esegue un certo compito e il tempo necessario a portarlo a termine. Quando

172

economica e tenda a una maggiore efficienza. Nel caso dei processi basati sui semiconduttori, questo livello di ottimizzazione risulta per ancor pi amplificato106, al punto da non poter essere spiegato allo stesso modo di quanto avviene nell'industria tradizionale. La rapidit con cui il prezzo dei transistor inizi a calare, a partire dagli anni Settanta, fu tale da rendere chiaro che si stava assistendo ad un fenomeno assolutamente unico.
La peculiarit dei semiconduttori una caratteristica di molti prodotti high tech: hanno un altissimo rapporto cervello/muscoli. In termini economici, per crearli servono fattori molti pi intellettuali che materiali. Dopotutto, i microchip non sono che sabbia (silicio) assemblata in modo molto astuto. [] E pi un prodotto composto di idee anzich di materia, pi in fretta pu scendere di prezzo. questa la radice dell'abbondanza che conduce al Gratis nel mondo digitale, che oggi esprimiamo in breve con la legge di Moore (pp. 94-95).
parliamo di curva di esperienza ci riferiamo invece ad una situazione pi complessa e relativa ad un'economia di scala, che va oltre l'apprendimento dei singoli lavoratori ed caratterizzata da effetti pi vasti. In questo caso infatti si potuto notare come a mano a mano che i prodotti venivano sfornati in quantit maggiori, i costi calavano di una percentuale costante e prevedibile (tra il 10 e il 25 per cento) in concomitanza di ogni raddoppio di volume (ib.). 106 I primi transistor si situavano all'estremo pi elevato della scala calcolata dal BCG (il Boston Consulting Group, organismo che si occupava del monitoraggio delle industrie tecnologiche e dei progressi da queste raggiunti, a cui si deve tra l'altro l'introduzione del principio della curva di esperienza, ndr), e il loro prezzo continuava a calare. Nell'arco di dieci anni, le vendite del transistor Fairchild 1211 aumentarono di quattromila volte: cio dodici raddoppi, che secondo la teoria della curva dell'esperienza dovevano far scendere il prezzo fino a un trentesimo della cifra originale. Invece il prezzo croll a un millesimo di quella cifra (p. 94).

173

Secondo quest'ultima che paradossalmente porta il nome di un autore diverso dal suo vero ispiratore, ovvero Carver Mead, docente del Caltech che per primo studi il corollario economico della legge di Moore circa il raddoppio della densit dei transistor se la potenza di calcolo di un computer, a parit di costo, raddoppia ogni due anni, allora il costo di una data unit di potenza dovr dimezzarsi nello stesso periodo (p. 96). Ancor pi,
Mead si reso conto che questo effetto economico portava con s un imperativo morale. Se i transistor stanno diventando troppo a buon mercato per misurarli, allora dovremmo smettere di misurarli, e quindi di pensare a quanto costano: dobbiamo smettere di tenerli da conto come se fossero merce rara e iniziare a trattarli come la merce abbondante che sono in realt. In altri termini, dovremmo letteralmente iniziare a sprecarli (p. 97).

La riduzione delle dimensioni dei materiali, accompagnata dall'aumentata capacit di memorizzazione, ha reso i supporti di archiviazione digitali sempre pi capienti ed economici. Dai floppy disk ai CD-ROM, passando per i DVD, i dischi Blu-ray, le memorie di massa portatili e infine i dischi rigidi che consentono ormai di memorizzare dati per una quantit di alcuni terabyte107, l'elenco molto lungo e per certi versi somiglia ad un bollettino di guerra, in cui le vittime sono supporti ormai sorpassati e poco efficienti, piegati dall'inarrestabile ritmo della legge di Moore e sostituiti dagli ultimi ritrovati della fisica e della scienza dei materiali. Lo stesso discorso vale per quanto riguarda la potenza di calcolo dei computer, i cui microprocessori hanno raggiunto ormai una velocit di calcolo di 3 gigahertz (pari all'incirca a tre miliardi
107 Un terabyte (TB) equivalente a 1012, ovvero circa settantamila floppy disk da 1,44 MB.

174

di istruzioni al secondo), e dei principali strumenti digitali che ci circondano. Infine abbiamo il livello della banda di trasmissione, ingrediente chiave della rete internet, legato ai progressi dell'ottica:
inviare dati su lunghe distanze soprattutto una questione di fotoni, non di elettroni. Interruttori ottici convertono i bit on/off del codice binario in pulsazioni di luce laser a diverse frequenze, e quelle lambda (la lettera greca usata per indicare la lunghezza d'onda) viaggiano in fibre di vetro cos puro che la luce rimbalza sulle pareti interne senza distorsioni n perdita di qualit, per centinaia di chilometri (p. 102).

Come abbiamo gi accennato, questa accelerazione reciproca e continua, che vede protagoniste una tecnologia che evolve migliorando le proprie prestazioni e una sfera di costi di realizzazione e prezzi d'acquisto che tende ad abbassarsi sempre pi, legata alla particolare natura dell'universo digitale. Quando si ha a che fare con strumenti e dispositivi in cui il substrato materiale s significativo ma non preponderante quanto la combinazione di elementi immateriali come la conoscenza e l'informazione, inevitabile che l'innovazione si muova pi rapidamente del normale e che si confermino le evidenze previste dalla legge di Moore. Nelle parole di Anderson (2009):
ora che questa tripletta di tecnologie potenza di calcolo, capacit di archiviazione dati e banda si riunita a formare il web, le abbondanze si sono sommate. [] il web diventato la terra della gratuit, non a causa dell'ideologia ma dell'economia. Il prezzo crollato fino al costo marginale, e il costo marginale di tutto ci che online talmente prossimo allo zero che vale la pena di arrotondarlo a zero. [] Tutto ci che i bit toccano risente anche delle loro peculiari propriet economiche: pi a buon

175

mercato, migliore, pi veloce. Rendete digitale un allarme antifurto e lo trasformerete in uno dei tanti nodi della rete internet, con abbondanza di memoria, banda e potenza praticamente gratis. per questo che c' un forte incentivo a rendere digitale qualsiasi cosa: perch ci che diventa digitale entra a far parte di qualcosa di pi grande, qualcosa che non solo va pi veloce, ma accelera continuamente. I bit sono steroidi per l'industria, come lo stata l'elettricit: permettono a ogni cosa di costare meno e fare di pi. La differenza che i bit continuano a migliorare come per magia anno dopo anno: non si tratta di una trasformazione una tantum come per l'elettricit, ma di una rivoluzione perenne, in cui ogni nuova generazione di prodotti a met prezzo e doppie prestazioni spalanca possibilit inedite (pp. 103-105).

The Dark Side of the Web: le voci dei critici A questo punto della nostra analisi dobbiamo tuttavia rilevare come non tutti gli studiosi concordino nell'accordare grande valore e giudizi favorevoli agli scenari comunicativi delineati dalle tecnologie digitali pi in generale. Numerosi autori un po' in tutto il mondo si sono soffermati su alcune criticit di internet e dei social media, tracciando un quadro all'insegna del pessimismo e della constatazione di quelle che potremmo definire come le mitologie e le false promesse del web 2.0. In un articolo pubblicato online su Il Sole 24 ore, Luca De Biase descrive la situazione attuale per cui,
immerse nella Rete, le persone hanno l'esperienza di un iperpresente nel quale tutte le conoscenze sono accessibili. Ma accessibili nello stesso tempo. un'enorme ricchezza e un cambio di prospettiva. Si arriva ai risultati, che sono straordinariamente arricchenti, ma senza sperimentare quelle inefficienze con le quali si acquisisce la consapevolezza dei modi diversi con i quali sono stati realizzati: i podcast delle lezioni al Collge de France,

176

accanto ai brani di Lady Gaga; le voci del popolo di Wikipedia accanto ai documenti dell'Europeana; le foto pubblicitarie accanto alle riproduzioni delle collezioni museali. Un web della consultazione, facilitata da Google, da iTunes, da Bing, da Wolfram Alpha. Al quale si aggiunge il web della segnalazione: la vita quotidiana su Facebook, su Twitter, con Delicious, mostra che l'interessante spesso lo scambio di link, foto, video. Si bravi "conversatori" con gli "amici" nel momento in cui si danno agli altri suggerimenti davvero interessanti o semplicemente curiosi, bizzarri. un livello dello scambio di conoscenze che ne produce meno di quante ne faccia circolare. Chi ci sa fare, ne emerge con la mente pi aperta, chi si chiude tra i soliti amici culturalmente omogenei, perde un'occasione. Come accade, del resto, a chi si chiude in una stanza ad abbeverarsi solo di programmi televisivi. C' chi lo fa. E c' bisogno dunque di migliorare la nostra consapevolezza delle qualit e dei difetti di questo strumento108.

Pochi giorni prima, in un articolo pubblicato sulla stessa testata109, Gianni Riotta si richiama alle considerazioni di Jaron Lanier, guru di internet e autore di diversi saggi sull'argomento, a proposito della deriva che vede il web spingersi verso un'omologazione e un appiattimento crescenti e in cui la stessa Wikipedia, da molti considerata la punta di diamante della partecipazione, non fa altro che generare una poltiglia di informazione amorfa che rischia di distruggere le idee, il
108 L'articolo completo, intitolato Nella Rete c' quello che siamo e risalente al 13 gennaio 2010, disponibile al link: http://www.ilsole24ore.com/art/SoleOnLine4/Tempo%20libero%20e %20Cultura/2010/01/web-futuro-internet-contenuti.shtml? uuid=2529de54-0016-11df-a9f5-2f77730cf3d1&DocRulesView=Libero. 109 L'articolo del 10 gennaio 2010, intitolato Cara, vecchia internet vai sul sito www.verit, pu essere letto all'indirizzo: http://www.ilsole24ore.com/art/SoleOnLine4/Tempo%20libero%20e %20Cultura/2010/01/web-il_futuro_della_rete.shtml.

177

dibattito, la critica (ib.). Autore di un testo dal programmatico titolo Tu non sei un gadget: perch dobbiamo impedire che la cultura digitale si impadronisca delle nostre vite, Lanier si scaglia contro il falso mito della saggezza delle folle 110, descrivendo i risultati delle iniziative open source e open content alla stregua di espropriazioni della propriet intellettuale, vere e proprie forme di Maoismo digitale 111. Se pensiamo che Lanier fu uno dei padri della realt virtuale e tra i rivoluzionari del cyberspazio, non si pu che rimanere stupiti delle sue parole. Come riportato nel gi citato articolo di Riotta, l'autore punta il dito contro la trasformazione dell'universo digitale in un enorme contenitore di materiale effimero privo di valore, un immenso calderone di banalit.
Mettere ogni giorno insieme, senza alcuna selezione, gli argomenti dei filosofi e le arrabbiature del tizio davanti al cappuccino tiepido, l'analisi economica di un Nobel e lo sfogo del qualunquista di turno, pu essere celebrato dagli ingenui alla moda come open source e democrazia di rete. Il pericolo invece riassunto bene nelle parole del guru Lanier: I blog anonimi, con i loro inutili commenti, gli scherzi frivoli di tanti video ci hanno tutti ridotti a formichine liete di avere la faccina su Facebook, la battuta su Twitter e la pasquinata firmata Zorro sul sito. [...] Sui primi due giornali italiani, Repubblica e Corriere, i video pi visti online questo sabato comprendono la
110 L'obiettivo polemico in questo caso il testo di James Surowiecki, intitolato per l'appunto La saggezza della folla, in cui l'autore afferma come i prodotti culturali che sono il risultato di un lavoro collettivo e di gruppo abbiano un valore pi elevato rispetto a quello di ci che viene creato a livello individuale. 111 Per un ulteriore approfondimento del punto di vista critico di Lanier rimandiamo al saggio Digital Maoism: The Hazards of the New Online Collectivism, pubblicato sulla rivista digitale Edge e consultabile gratuitamente all'indirizzo web: http://www.edge.org/3rd_culture/lanier06/lanier06_index.html.

178

ragazza che si tuffa nel lago e sbatte il sedere perch gelato, la scema che fa la capriola e cade dal letto, il fusto che solleva 150 chili e sviene, il reporter sfiorato da un aereo e la cliente infuriata che devasta il locale perch il panino non le piace troppo. Lamenta Lanier: Ai tempi della rivoluzione internet io e i miei collaboratori venivamo sempre irrisi, perch prevedevamo che il web avrebbe potuto dare libera espressione a milioni di individui. Macch, ci dicevano, alla gente piace guardare la tv, non stare davanti a un computer. Quando la rivoluzione c' stata, per, la creativit stata uccisa, e il web ha perso la dignit intellettuale. Se volete sapere qualcosa la chiedete a Google, che vi manda a Wikipedia, punto e basta. Altrimenti la gente finisce nella bolla dei siti arrabbiati, degli ultras, dove ascolta solo chi rafforza le sue idee. Che cosa diventata dunque la discussione su internet nel 2010? Il pioniere Lanier, come tanti rivoluzionari del '900, non potrebbe essere pi amaro e realista. Ovviamente un coro collettivo non pu servire a scrivere la storia, n possiamo affidare l'opinione pubblica a capannelli di assatanati sui blog. La massa ha il potere di distorcere la storia, danneggiando le minoranze, e gli insulti dei teppisti online ossificano il dibattito e disperdono la ragione. [] La rete e rester il nostro futuro. I nostri figli ragioneranno sulla rete. L'informazione dell'opinione pubblica critica passer sempre pi dalla carta alla rete. Dunque non dobbiamo come ci ammonisce Jaron Lanier permettere ai teppisti di inquinarla con le loro farneticazioni e garantirne l'informazione, la cultura e l'eccellenza contro l'omogeneizzazione e il qualunquismo. Google come aggregatore industriale di sapere, Wikipedia come aggregatore volontario di sapere, un'azienda strepitosa e un gruppo sterminato di volontari, non possono continuare a mischiare diamanti e cocci di bottiglia112.

In un altro articolo113, Luca De Biase prende in considerazione i


112 Vedi nota 104. 113 L'articolo, intitolato I commons e l'ecosistema dell'informazione: eden,

179

cos detti civic media, quelle piattaforme sulle quali i cittadini sviluppano informazione ispirandosi a principi di responsabilit e collaborazione, trasparenza e documentazione. Ebbene,
nella pratica chi vuole sviluppare civilmente il suo contributo all'informazione incontra mille difficolt: innanzitutto, i principi sono appunto ispiratori ma la loro applicazione in buona fede richiede la maturazione di una comune esperienza dei metodi concretamente utilizzabili di volta in volta; in secondo luogo, il rumore generale rende talvolta difficile distinguere le informazioni orientate alla cittadinanza da quelle orientate all'interesse di chi le mette in giro; in terzo luogo, c' chi approfitta della buona fede degli altri per imbrogliare le carte, cercare attenzione distribuendo rumors, allarmi, sensazionalismi... Del resto, i punti di vista sono tanto diversi che difficile mettersi d'accordo su qualunque cosa. C' chi non cessa di denunciare l'eccessivo ottimismo di chi ritiene che le persone attive in rete possano produrre informazioni utili a sapere come stanno le cose []. Del resto le bufale che ogni giorno circolano in rete non fanno che confortare l'idea che ci sia molta confusione in rete114. E d'altra parte, c' chi ci tiene a ribadire che i blog sono fatti per dare libert a tutti di affermare le proprie idee personali e che saranno i lettori a scegliere chi leggere115.

De Biase mette in guardia dal grande rischio attuale per cui


utopia e mondo reale, datato 6 gennaio 2012, tratto dal blog dell'autore e pu essere consultato al link: http://blog.debiase.com/2012/01/icommons-e-lecosistema-dellin.html. 114 L'autore si richiama a un articolo di Marco Massarotto (Twitter ha un problema di credibilit?), di cui riportiamo il link: http://internetpr.it/2011/12/04/twitter-ha-un-problema-di-credibilita/. 115 Il riferimento in questo caso all'articolo Circa i Blog col Bollino Blu... (http://blog.tagliaerbe.com/2011/12/blog-bollino-blu.html) di Davide Pozzi, autore del Tagliablog.

180

la rete, anche a causa dell'eccessiva rapidit che essa ha introdotto negli scambi e nelle relazioni, potrebbe accentuare la tendenza gi in atto alla frammentazione della societ in una quantit di minoranze separate116, creando tanti piccoli ghetti e club che non stimolano il dialogo e l'apertura, ma piuttosto fanno s che le persone parlino solamente con chi condivide le stesse idee di fondo, gli stessi interessi quotidiani, le stesse curiosit, le stesse ideologie, le stesse paure. E,
queste minoranze rafforzate dalla sensazione di un forte scambio di informazioni al loro interno possono apparire come mondi che bastano culturalmente a se stessi, mentre invece creano delle distorsioni nella percezione della realt.

Come espresso gi in un'altra occasione117, l'autore non si limita a una passiva denuncia del problema, invitando piuttosto ognuno di noi all'impegno e alla consapevolezza:
occorre creare le condizioni perch sia interessante percorrere in rete anche strade alternative, cercare approfondimenti imprevisti e notizie impopolari o differenti e potersene fidare. I
116 Per questa e le altre citazioni tratte dall'articolo di De Biase, si veda la nota 108. 117 Nell'articolo gi citato alla nota 103, De Biase evidenzia come internet finora sia evoluta verso direzioni impreviste, ma essenzialmente sulla scorta dell'iniziativa di chi ha visto in [essa] un'opportunit e ha tentato di coglierla. L'atteggiamento di chi interessato alla rete, per il modo in cui costruita, non mai quello di subire quello che produce e giudicarlo: l'atteggiamento quello di prendere in mano un progetto e realizzarlo. Per migliorare la situazione dal suo punto di vista. Perch la rete non soltanto quello che : anche quello che si vorrebbe che fosse. Quello che critici o entusiasti sperano che diventi. E il bello che niente impedisce a chiunque abbia un progetto in mente, di provare a realizzarlo. Non chiedetevi che cosa pu fare il web per voi: chiedetevi che cosa voi potete fare per il web [...].

181

professionisti possono svolgere una parte di questo lavoro, se ritrovano le ragioni della loro affidabilit. Ma anche i cittadini possono dare una mano, soprattutto se a loro volta maturano la consapevolezza del fatto che la collaborazione con chi non la pensa necessariamente allo stesso modo non un fatto scontato: ha bisogno di un metodo e di principi orientati a salvaguardare e coltivare quello che i cittadini stessi hanno in comune. Tutto questo perfettamente in linea con alcune dinamiche storiche molto importanti del mondo attuale. Mentre stato e mercato non cessano di dimostrare i loro difetti, si sta rivalutando l'importanza sociale, culturale ed economica dei commons della conoscenza. I commons, come ricordava Lessig [2001], sono una ricchezza di tutti. I sostenitori dei commons culturali sono piuttosto antistatalisti perch pensano che la comunit si possa arrangiare da sola a gestirli e manutenerli [nel prossimo capitolo analizzeremo nel dettaglio i beni comuni della conoscenza, con particolare riferimento al lavoro di Charlotte Hess ed Elinor Ostrom]. E sono critici dell'approccio capitalistico quando sfrutta i commons fino a impoverirli o li recinta e privatizza impedendone l'uso alla comunit. I commons rischiano la tragedia della loro consunzione se le comunit non sono consapevoli del loro valore e li lasciano senza manutenzione, se non li rispettano, se consentono ai furbi di appropriarsene e rovinarli. Ma quando ne riconoscono il valore ne traggono una ricchezza immensa. I commons culturali hanno bisogno di comunit consapevoli. Attive. Colte. Internet un grande bene comune. Molte imprese capitalistiche si abbeverano della sua ricchezza e sono sempre al limite di sfruttarla troppo, come molti temono facciano Google o Facebook. Molte organizzazioni non profit al contrario arricchiscono il bene comune della conoscenza che si sviluppa in rete, come secondo molti sta facendo Wikipedia. Milioni di persone violente e ignoranti calpestano internet per trarne un vantaggio immediato, rovinandone la qualit. Milioni di altre persone usano la rete per collaborare e costruire fiducia, conoscenza e cittadinanza. Di certo, la consapevolezza e l'orientamento attivo delle comunit

182

che riconoscono quando la rete le arricchisca di conoscenze e di opportunit vanno a loro volta coltivati. Ma un fatto appare piuttosto chiaro: un'internet sana e ricca, aperta e neutrale conviene a tutti per molto tempo, una internet ipersfruttata e recintata conviene a pochi per poco tempo. Le ragioni per dare un contributo costruttivo non sono dettate dall'ottimismo: ma dal realismo.

Contro il dilagare del fenomeno dell'autorialit dal basso, esemplificato dalla produzione e circolazione esponenziali di contenuti generati dall'utente (il cos detto UGC, UserGenerated Content) si scaglia Andrew Keen, autore di Dilettanti.com. Egli lamenta il sempre pi diffuso declino della qualit e dell'attendibilit di contenuti che sono prodotti da non esperti e anonimi, rivelando come dietro alle apparenze di una disintermediazione capace di democratizzare i processi conoscitivi e produttivi118 si celi in realt una mistificazione. Quella del web 2.0 insomma, non sarebbe altro che un'ideologia,
che in realt propone una forma di appiattimento del mondo e di svaporamento dei valori che tengono insieme processi educativi, conoscitivi e produttivi. Si tratterebbe di una miscela di tecnoilluminismo e principi libertari, quelli propri delle ideologie che stanno alla base di molta vulgata sullo sviluppo di Internet, che tende a valorizzare lesistenza dei mercati di nicchia eliminando la fondamentale funzione degli intermediari culturali ad esempio i giornalisti professionisti, gli editori, le case
118 Riferimento all'articolo Network pragmatism ed ecosistema dell'informazione, tratto dal blog di Giovanni Boccia Artieri, professore ordinario presso la Facolt di Sociologia dell'Universit degli Studi di Urbino Carlo Bo, consultabile al link: http://mediamondo.wordpress.com/2012/01/07/network-pragmatism-edecosistema-dellinformazione/.

183

discografiche a favore di una big conversation su ogni argomento, quando in realt abbiamo a che fare con, come scrive Keen, milioni e milioni di scimmie esuberanti [] che stanno dando vita a una foresta infinita di mediocrit119.

Al tempo stesso Boccia Artieri invita all'approfondimento di una questione che non pu essere liquidata in uno scontro polare ed estremizzato, attribuendo certezza e autorit ai contenuti realizzati da autori professionisti e scaricando nella categoria del ciarpame e dell'inutile tutto ci che viene prodotto all'interno di circuiti informali e non istituzionalizzati.
Ad esempio gli obiettivi di un regista e la macchina industriale di massa che sta alle sue spalle e quelli di un teenager che carica un video su YouTube con lintento di intrattenere gli amici sono, ovviamente, diversi e non in competizione. Quando per ci troviamo di fronte ad un servizio con contenuto giornalistico prodotto dal basso, con riprese, ad esempio, da una zona di guerra o con la messa online del video Morti collaterali da parte di Wikileaks, denuncia anonimizzata rispetto alle fonti, in cui si vede luccisione da parte dei militari USA di una dozzina di civili compresi due membri di Reuters in Iraq, allora la realt che stiamo valutando si fa un po pi complessa. Oppure se pensiamo alla distribuzione di contenuti su blog e Twitter della rivoluzione Verde in Iran non possiamo pensare di liquidare in modo semplicistico gli UGC. Logiche relazionali e forme dellinformazione si connettono in modi complessi. E anche quando si pensa alla realt dei contenuti online come ad una melassa indifferenziata di mediocrit, con la difficolt di selezionare non avendo pi efficaci intermediari culturali e, quindi, ad una conseguenza deterministica sulla cultura nei termini di un appiattimento, forse si generalizzano meccanismi che in realt funzionano diversamente (ib.).
119 Vedi nota 113.

184

Una possibile soluzione al pericolo di dar vita a una cultura digitale omologata e priva di valore, ci dice Boccia Artieri, potrebbero essere
nuove forme di intermediazione collaborativa tra professionisti ed amatori che, non dissolvendo il processo di mediazione, in realt mostr[i]no nuove e complesse forme di collaborazione e di codipendenza. Saper costruire una rete efficace in cui la sintesi e il trattamento dellinformazione [siano] prodott[i] da un mix fra diversi curatori pi vicini e distanti da noi in termini di friendship, miscelando cos dimensione emotiva e conoscitiva dellinformazione, diventer una necessit. [] Ma per farlo dobbiamo cominciare a pensare la Rete attraverso parametri culturali diversi da quelli che hanno caratterizzato il '900 che siano in grado di tenere conto del fatto che la relazione fra forme di comunicazione interpersonale e forme di comunicazione di massa si riarticolata ed ha assunto nuove possibilit di raccordo dopo che per lungo tempo ci siamo abituati a pensarle e ad osservarle come ambiti distinti e inaccoppiabili. Ecco credo che molto del lavoro che abbiamo da fare e delle cose che dobbiamo capire stiano su questo versante, in unottica di network pragmatism (ib.).

Nel solco degli apocalittici del web 2.0, in totale antitesi con l'ottimismo di uno Shirky, si colloca anche il pensiero di Evgeny Morozov, uno dei principali critici del cyberutopismo e autore di The Net Delusion. Come ci invita a fare Luca Dello Iacovo sulle colonne di un articolo120 de Il Sole 24 ore a lui dedicato, per comprendere meglio il pensiero di questo blogger e ricercatore universitario pu essere utile accennare alla sua vicenda biografica e in particolare alla sua
120 L'articolo disponibile al link: http://www.ilsole24ore.com/art/tecnologie/2011-04-14/evgeny-morozov161204.shtml?uuid=AarH9tOD.

185

origine bielorussa, la nazione dove sopravvive l'ultimo dittatore dell'Europa, il presidente Alexander Lukashenko. Egli
ha partecipato a organizzazioni non governative impegnate per la democrazia nell'Europa orientale. Poi entrato nella Open Net Initiative, un'associazione per difendere la liber di espressione attraverso internet. Ma ha conquistato l'attenzione dei blogger tre anni fa, quando ha scritto un post sulle proteste in Moldavia, al confine con la Romania: i manifestanti comunicano su Twitter per amplificare la loro voce, come sarebbe avvenuto pochi mesi dopo in Iran durante la rivoluzione Twitter, quando gli studenti scendono in piazza contro i risultati delle elezioni presidenziali. E arriva una pioggia di messaggi sui social network. Morozov, per, stato tra i primi a dubitare dello slogan rivoluzione Twitter. Poco tempo dopo dimostra che in realt soltanto una frazione delle comunicazioni proveniva dall'Iran. La maggior parte, invece, ha origine all'estero: gli utenti segnalano link o inoltrano altri micropost. E alimentano l'attenzione dell'opinione pubblica internazionale. Morozov scrive in quei giorni che l'attivit sui social network stata un grande aiuto per portare le informazioni fuori dalla nazione. Ma se abbia contribuito a organizzare le proteste un'idea che i media stanno dichiarando al momentonon del tutto certo. Una piattaforma pubblica come Twitter non molto utile per pianificare una rivoluzione (le autorit potrebbero leggere i messaggi!). E il suo blog, Net Effect, diventa un punto di riferimento per giornalisti, politici, analisti. Inotre pubblica articoli per la stampa internazionale: Economist, Wall Street Journal, Financial Times, Washington Post. L'ex attivista della Bielorussia ha criticato altre volte l'ideologia di chi sostiene che internet sia sempre sinonimo di democrazia. [] [Nel suo libro] ricorda, per esempio, che la caduta del muro di Berlino stata ricollegata alla diffusione di fotocopiatrici e fax che hanno facilitato la diffusione di messaggi per la libert dietro la cortina dell'informazione

186

nell'ex URSS. Ma, sottolinea Morozov, sono ipotesi prive di analisi dei contesti sociali, culturali e politici. Negli ultimi anni ha esplorato Runet, l'universo online delle Russia contemporanea: osserva che la proliferazione di contenuti di intrattenimento attraverso video e social network non incrina il consenso verso il Cremlino. Anzi, alcuni blogger sono diventati parte dell'establishment (ib.).

In un articolo online121, Tom Chatfield, giornalista del The Observer, osserva come il punto di vista critico di Morozov emerga chiaramente quando l'autore, tralasciando il dibattito relativo a ci che le tecnologie digitali dovrebbero e possono fare per noi, si sofferma sull'uso che le masse attualmente fanno di questi strumenti e che si traduce esclusivamente nei termini dell'intrattenimento e della validazione personale.
A questo proposito egli si aggancia a una lunga tradizione di pensatori, che si estende nel passato, dalle accuse di Kierkegaard nei confronti della natura irresponsabile e disimpegnata dei giornali, al sospetto platonico in base al quale la scrittura stessa potrebbe danneggiare il pensiero critico. Internet, argomenta Morozov, non sta coltivando una generazione di attivisti, bens di indolenti, che sono convinti che un click a una petizione su Facebook sia equivalente a un atto politico [] e che dissipano le proprie energie tra migliaia di distrazioni. Fra tutte le tecniche di censura, quella del panem et circenses si configura ancora oggi come la pi efficace. Il dittatore saggio non quello che accende la curiosit dei suoi sudditi oscurando siti web, ma colui che elargisce al popolo comfort, pornografia e spettacoli. In questo senso tutti i ragionamenti di Morozov convergono verso un medesimo obiettivo: la lotta contro il compiacimento. [] C'
121 L'articolo risale al gennaio 2011 ed disponibile al link http://www.guardian.co.uk/books/2011/jan/09/net-delusion-morozovreview.

187

una vera e propria angoscia al riguardo che emerge chiaramente quando Morozov si riferisce alla sua terra natale, la Bielorussia, dove nessun tweet arrabbiato n alcun messaggio di protesta, non importa quanto eloquente, stato in grado di riaccendere lo spirito democratico della popolazione, la maggior parte della quale sta affondando sempre pi in un serbatoio senza fondo di confusione ed edonismo, appositamente creato da un governo che sicuramente ha letto Huxley122. davvero in tutto questo che consiste il nostro nuovo mondo? Morozov non vede l'ora che la sacra luce della ragione possa illuminare gli angoli oscuri del web123.

Altrettanto negativo il giudizio che Nicholas Carr esprime nei confronti di internet e degli strumenti digitali, che sempre pi pervadono la quotidianit degli individui al punto da comprometterne l'autonomia e le capacit intellettuali. La rete ci sta cambiando, avverte Carr, alterando il cervello e mettendo a repentaglio le nostre facolt mnemoniche e la possibilit stessa di concentrare l'attenzione su un determinato argomento. In un articolo124 firmato da Massimo Gaggi e tratto dal sito del Corriere della sera, possibile farsi un'idea delle ambiguit
122 Il riferimento a Il mondo nuovo (Brave New World) un romanzo di fantascienza distopico del 1932, scritto da Aldous Huxley, in cui viene descritta una societ futura solo apparentemente ideale, dominata in realt dal controllo mentale e dallo svuotamento esistenziale degli individui. 123 Per un ulteriore approfondimento, consigliamo la lettura dell'articolo Se il web piace ai potenti, in cui possibile trovare un'intervista di Nicola Bruno a Evgeny Morozov, pubblicata su L'Espresso del 24 febbraio 2011, disponibile gratuitamente in PDF all'indirizzo http://nicolabruno.wordpress.com/2011/02/19/intervista-ad-evgenymorozov/. 124 L'articolo, pubblicato in data 27 marzo 2010, disponibile al link http://www.corriere.it/cultura/10_marzo_27/gaggi_rete_e417c1d0-397a11df-862c-00144f02aabe.shtml,

188

che secondo l'autore americano caratterizzano internet e le tecnologie a essa collegate. Quest'ultime infatti
offrono opportunit straordinarie di accesso a nuove informazioni, ma hanno un costo sociale e culturale troppo alto: insieme alla lettura, trasformano il nostro modo di analizzare le cose, i meccanismi dellapprendimento. Passando dalla pagina di carta allo schermo perdiamo la capacit di concentrazione, sviluppiamo un modo di ragionare pi superficiale, diventiamo dei pancake people, come dice il commediografo Richard Foreman: larghi e sottili come una frittella perch, saltando continuamente da un pezzo dinformazione allaltra grazie ai link, arriviamo ovunque vogliamo, ma al tempo stesso perdiamo spessore perch non abbiamo pi tempo per riflettere, contemplare. Soffermarsi a sviluppare unanalisi profonda sta diventando una cosa innaturale125.

Carr considerato da molti come un nemico della tecnologia, ma come egli stesso tiene a sottolineare il suo atto d'accusa contro la cultura internet non il frutto di un atteggiamento tecnofobo oltranzista, quanto piuttosto il risultato di una consapevolezza acquisita a seguito di una familiarit prolungata e diretta con gli strumenti digitali. Come leggiamo nell'articolo gi citato, lo studioso dichiara di essere
sempre stato un tecnofilo, non un tecnofobo. Ma il mio entusiasmo si man mano attenuato con la scoperta che, oltre ai vantaggi che sono sotto gli occhi di tutti, la Rete ci porta anche svantaggi assai meno evidenti e proprio per questo pi pericolosi. Anche perch gli effetti saranno profondi e permanenti. [] Negli ultimi due anni mi sono sforzato di andare oltre il personale, esaminando le evidenze scientifiche e sociali di come Internet e anche rivoluzioni precedenti come quella
125 Vedi nota 119.

189

dellalfabeto hanno cambiato la storia intellettuale dellumanit. E di come le nuove tecnologie influenzano la struttura del nostro cervello perfino a livello cellulare.

Il richiamo al caso della Cushing Academy, un college americano con una lunga e prestigiosa tradizione alle spalle, dove le collezioni di libri sono state sostituite da computer per fare delle ricerche, offre a Carr lo spunto per interrogarsi sul ruolo che le istituzioni scolastiche possono e dovrebbero giocare in questo contesto in perenne trasformazione.
La scuola dovrebbe insegnare a usare con saggezza le nuove tecnologie. In realt, per, gli educatori e perfino i bibliotecari si stanno abituando allidea che tutta linformazione e il materiale di studio possano essere distribuiti agli studenti in forma digitale. Dal punto di vista economico ha certamente senso: costa meno. Ma limitarsi a riempire le stanze di sistemi elettronici miope. Come ci insegna McLuhan, il mezzo conta, e parecchio. Senza libri non solo pi difficile concentrarsi, ma si spinti a cercare di volta in volta su Internet le nozioni fin qui apprese e archiviate nella nostra memoria profonda. La perdita della memoria di lungo periodo il rischio pi grosso [] (ib.).

E a chi come Larry Sanger (cofondatore di Wikipedia) lo accusa di essere eccessivamente pessimista e di nutrire troppa poca fiducia nelle capacit degli uomini di gestire con lucidit le possibilit offerte dai progressi della tecnologia, l'autore di The Shallows risponde paragonando i fautori della libert totale nell'universo digitale a quanti auspicano una maggiore apertura nel mercato delle armi.
[Questi] ragionano nello stesso modo quando dicono: le armi non uccidono gli uomini, sono gli uomini che uccidono altri uomini. Non voglio fare polemiche e vorrei che Larry avesse ragione: io

190

non sono un determinista tecnologico. Purtroppo lesperienza ci dice che la sua una visione un po nave: quando una nuova tecnologia diventa di uso comune, tende a cambiare le nostre abitudini, il modo in cui lavoriamo, il modo in cui socializziamo ed educhiamo i nostri figli. E ci avviene lungo percorsi che in gran parte sfuggono al nostro controllo. successo in passato con lalfabeto o lintroduzione della stampa. Succede, a maggior ragione, oggi con Internet. La gente tende a non esercitare le possibilit di controllo, magari perch le interruzioni, le distrazioni che trova in rete, le portano pezzi di informazione interessante, o anche solo divertente. [] A far fare soldi alle societ della Rete il nostro moto perpetuo da un sito allaltro, da una pagina web allaltra. Sono i nostri clic compulsivi a far crescere gli incassi pubblicitari. Lultima cosa che pu desiderare una societ come Google che diventiamo pi riflessivi, che ci soffermiamo di pi su una singola fonte dinformazione (ib.).

La lista degli autori che hanno messo in luce le criticit e le degenerazioni della rete, nonch gli effetti collaterali che un certo uso di internet pu avere sull'esistenza delle persone potrebbe essere ancora molto lunga126. Per concludere questa parte della nostra analisi, vogliamo citare un pensiero di Stefano Quintarelli, un informatico che nel suo blog (http://blog.quintarelli.it/blog/) dichiara come ormai Internet [sia] una dimensione dellesistenza, [...] un luogo dove si svolge una parte sempre pi consistente della nostra vita e delle nostre relazioni127. Come illustra a pi riprese Kevin Kelly (2010), inevitabile che accanto ai vantaggi e alle comodit che ogni tecnologia introduce nella vita delle persone si
126 Per approfondire ulteriormente l'argomento rimandiamo in particolare alle opere di Geert Lovink (2004, 2007) e Fabio Metitieri (2009), citate in bibliografia. 127 Si tratta di un post del 13 aprile 2012, disponibile al link http://blog.quintarelli.it/blog/2012/04/internet-bene-comune.html.

191

manifestino anche dei problemi e delle criticit 128.


Nel 1917 Orville Wright pronunci queste parole: L'aeroplano contribuir alla pace in diversi modi, fino al punto, credo, di rendere la guerra impossibile. [] Non si trattava per della prima grande promessa della tecnologia: lo stesso anno Jules Verne aveva annunciato che il sottomarino potrebbe essere la causa dell'interruzione di ogni conflitto, poich le flotte diventeranno inutili e, dato che altri materiali bellici continuano a migliorare, la guerra diventer impossibile. Lo svedese Alfred Nobel, inventore della dinamite e fondatore del premio che porta il suo nome, era davvero convinto che i suoi esplosivi sarebbero stati un deterrente per la guerra: La mia dinamite porter alla pace pi rapidamente di mille trattati internazionali. Allo stesso modo, quando nel 1893 fu chiesto a Hiram Maxim, inventore
128 Se ci si schiera a favore della tecnologia bisogna anche valutarne i costi. Migliaia di tradizionali attivit di puro sostentamento sono state modificate dalla tecnologia, e gli stili di vita ad esse connessi sono scomparsi. Oggi centinaia di milioni di persone fanno lavori che odiano per produrre cose per le quali non hanno il minimo interesse; per giunta, spesso queste attivit causano problemi fisici, disabilit o danni permanenti. La tecnologia crea un sacco di nuove occupazioni palesemente pericolose (l'estrazione di carbone nelle miniere, tanto per fare un esempio). Allo stesso tempo i programmi d'istruzione di massa e i media spingono la gente a disprezzare i lavori manuali a basso tasso tecnologico per dedicarsi alla ricerca di impieghi legati al mondo del technium digitale. Ma la separazione tra la testa e le mani crea tensione nella psiche umana, e la natura sedentaria di questi lavori, spesso meglio retribuiti, mette a rischio la salute mentale e fisica delle persone. La tecnologia s'insinua negli spazi tra gli individui fino a occuparli completamente; possiamo tenere sotto controllo non solo ci che fanno i nostri vicini, ma tutti coloro che per qualche ragione desideriamo spiare. Siamo 'amici' di cinquemila persone, quando in realt nel nostro cuore non abbiamo spazio che per una cinquantina di loro. La rivoluzione che la tecnologia ha imposto alle nostre vite ci ha reso individui manipolabili da chiunque: opinione pubblica, pubblicitari, politici e il sistema stesso, anche senza che ce ne rendiamo conto (Kelly 2010, pp. 128-129).

192

della mitragliatrice, se quella nuova arma non avrebbe reso ancora pi terribile la guerra, la sua risposta fu: No, al contrario, la render impossibile. [] David Nye, esperto di storia della tecnologia, fra le invenzioni che avrebbero dovuto eliminare definitivamente la guerra e portare a una pace universale annovera anche il siluro, la mongolfiera, i gas tossici, le mine, i missili e le armi laser. Ogni nuova forma di comunicazione sostiene Nye dal telegrafo al telefono, fino a radio, cinema, televisione e Internet, stata preceduta dall'annuncio che avrebbe garantito libert di parola e libera circolazione delle idee (p. 128).

sufficiente sfogliare le pagine di un libro di storia, aprire un quotidiano o ascoltare le notizie trasmesse dai telegiornali per rendersi conto del numero di conflitti, faide e stragi che si verificano ogni giorno nel mondo. Quello della pace globale, ancora oggi, anno 2012, un sogno, un'utopia la cui realizzazione appare sempre pi irrealizzabile. Allo stesso tempo non necessario considerare gli equilibri internazionali e i rapporti fra i diversi Stati del pianeta per rendersi conto della pericolosa china che l'uomo sta percorrendo, provocando distruzione e inquinamento in ecosistemi e habitat biologici, sconvolgendo climi e contribuendo all'estinzione di una quota crescente di specie e organismi viventi.
in atto un vero scempio su questo non c' dubbio in molti casi perpetrato ai danni della natura in nome del progresso tecnologico. L'acciaio per il technium viene estratto dalle viscere della Terra; il legname spesso il risultato della deforestazione, mentre plastica ed energia derivano dal petrolio e ritornano in circolo sotto forma di gas tossici. Dove un tempo c'erano praterie e terre paludose oggi sorgono fabbriche, e un terzo della superficie terrestre gi stato alterato dall'agricoltura e dall'antropizzazione. Montagne rase al suolo, laghi inquinati,

193

fiumi deviati, foreste spazzate via, aria avvelenata e biodiversit quasi azzerata: la lista molto lunga, ma il danno peggiore la civilizzazione l'ha compiuto facendo estinguere per sempre numerose specie uniche. Se in termini di ere geologiche la scomparsa di una forma di vita ogni quattro anni ritenuto un tasso normale, rispetto al passato oggi questo numero si come minimo quadruplicato: pi verosimilmente, lo abbiamo moltiplicato per migliaia di volte (p. 129).

Nel suo libro del 2010, Quello che vuole la tecnologia, Kelly sottolinea con lucidit come di fatto tutte le forme di tecnologia abbiano pregi e difetti:
non ci sono tecnologie senza pecche, e nessuna neutrale. Le conseguenze corrono insieme alla loro natura dirompente. Le tecnologie potenti saranno tali in tutti i sensi, nel bene e nel male. Non esiste una tecnologia molto costruttiva che non sia anche molto distruttiva, cos come non esiste una grande idea che non possa essere distorta finendo per causare grande danno. Dopo tutto anche la pi brillante delle menti umane capace di pensieri omicidi. In realt nessuna invenzione o idea tremenda in s e per s, a meno che non venga usata nel modo sbagliato. Dovrebbe essere questa la prima legge dell'aspettativa tecnologica: maggiore la promessa insita in una nuova tecnologia, maggiore anche il suo potenziale dannoso. Questo altrettanto vero per le nuove amatissime tecnologie che sono oggi i motori di ricerca, gli ipertesti, la stessa rete. Queste invenzioni immensamente potenti hanno scatenato un livello di creativit come non si era pi avuto dai tempi del Rinascimento, ma quando (non se, quando) se ne abusa, la loro capacit di condizionare i comportamenti individuali diventa terribile. Se probabile che una nuova tecnologia dia origine a un vantaggio mai visto prima, sar anche probabile che dia origine a un problema mai visto prima (p. 159).

194

Quando abbiamo a che fare con la tecnologia inutile (se non addirittura impossibile) ricorrere a proibizioni e divieti e tantomeno appellarsi a un principio di precauzione che, in nome della sicurezza, non farebbe altro che bloccare e respingere qualsiasi innovazione e novit129. Quella dell'incertezza una dimensione ineludibile e ineliminabile della nostra esistenza, contro la quale c' ben poco da fare. Piuttosto che arenarci e difendere ostinatamente i baluardi sinora consolidati bene aprirsi al futuro e alla scoperta guidati
129 Tutte le versioni del principio di precauzione hanno in comune questo assioma: si deve dimostrare assolutamente che una tecnologia non produca danni prima di adottarla. Prima di diffonderla, bisogna essere assolutamente certi che sia sicura; in mancanza di questa sicurezza dovrebbe essere proibita, limitata, modificata, scartata, ignorata. In altri termini, la prima risposta a una nuova idea dovrebbe essere l'inazione, fino a che non sia stato accertato che non ci sono rischi. Quando compare un'innovazione, dovremmo fare una pausa. Solo dopo che una nuova tecnologia stata giudicata idonea alla certezza della scienza possiamo provare a conviverci. A prima vista un approccio di questo tipo ragionevole e prudente, no? Il danno deve essere anticipato, meglio prevenire che curare ecc. ecc. Peccato che il principio di precauzione funzioni pi in teoria che in pratica. 'Il principio di precauzione ottimo per una cosa: fermare il progresso tecnologico' sostiene Max More, filosofo e futurologo che si occupa di questi temi. Cass R. Sustein, che per smontare il principio di precauzione ha scritto un intero libro, afferma: 'Dobbiamo mettere in discussione il principio di precauzione non perch ci porta su una cattiva strada, ma perch, per quel che vale, non ci porta da nessuna parte'. Qualunque buon prodotto causa danni da qualche parte, per cui, secondo la logica ristretta di un assunto assoluto come il principio di precauzione, nessuna tecnologia dovrebbe essere consentita. Nemmeno una sua versione pi tollerante permetterebbe la comparsa tempestiva di nuove tecnologie. Comunque vada in teoria, sul piano pratico non siamo in grado di considerare tutti i rischi, a prescindere dal loro grado di probabilit, mentre un tentativo di tener conto addirittura di tutti i rischi pi improbabili impedirebbe di sfruttare i vantaggi potenziali pi verosimili (pp. 159-160).

195

da un atteggiamento impegnato e consapevole, che ci faccia procedere a fianco delle tecnologie, insieme a loro, non contro di loro (p. 163). Piuttosto che da una precauzione totale e invalidante le nostre scelte dovrebbero essere guidate da un principio di proazione che, se da un lato pu spingere l'uomo verso il raggiungimento di nuovi traguardi, sia al tempo stesso un monito in grado di rendere le persone sempre consapevoli della provvisoriet dei successi ottenuti, il mantenimento dei quali richiede un collaudo e una vigilanza costanti, nonch la possibilit di dover effettuare correzioni, passi indietro e rettifiche. Questo perch
il messaggio del technium che qualunque scelta meglio di nessuna scelta,: per questo la tecnologia tende a far pendere la bilancia leggermente verso il lato positivo, anche se causa tanti problemi. [] Alla fin fine la tecnologia un modo di pensare: una certa tecnologia un pensiero espresso. Non bisogna fare di tutta l'erba un fascio, certo: ci sono teorie stupide, risposte sbagliate e idee insulse. Se un laser militare e l'azione di disobbedienza civile di Gandhi sono entrambe opere utili dell'immaginazione umana, e quindi sono entrambe tecnologie, tra le due c' una bella differenza. Alcune possibilit restringono le scelte future, mentre altre sono gravide di altre possibilit. Tuttavia, la risposta pi adeguata a un'idea spregevole non smettere di pensare, ma tirar fuori un'idea migliore. A conti fatti dovremmo preferire una cattiva idea a nessuna idea: infatti, se una cattiva idea pu essere emendata, l'assenza di pensiero non offre alcuna speranza. Lo stesso vale per il technium. La risposta pi adeguata a una tecnologia spregevole non fermare o smettere di produrre una tecnologia, ma svilupparne una migliore, una che sia pi conviviale. Conviviale una gran bella parola che letteralmente significa compatibile con la vita. [] La manifestazione conviviale di una tecnologia offre: Cooperazione: promette collaborazione tra individui e

196

istituzioni. Trasparenza: le sue origini e la sua propriet sono chiare. Il suo funzionamento comprensibile ai non esperti. Non ci sono vantaggi asimmetrici di conoscenza per nessuno dei suoi utilizzatori. Decentralizzazione: la propriet, la produzione e il controllo sono distribuiti. Non monopolizzata da un'lite professionale. Flessibilit: per gli utilizzatori facile modificarne, adattarne, migliorarne, o ispezionarne il nucleo interno. Gli individui possono liberamente scegliere di usarla o di farne a meno. Ridondanza: non l'unica soluzione, n un monopolio, ma una fra le tante opzioni. Efficienza: minimizza l'impatto sugli ecosistemi. Ha un'alta efficienza in termini di energia e di materiali ed facile da riciclare (p. 167).

Nel corso del prossimo capitolo cercheremo di illustrare le iniziative pi significative dal punto di vista del raggiungimento dell'obiettivo di modificare internet nella direzione di una maggiore e duratura convivialit, all'interno di un movimento culturale pi generale che guarda alla conoscenza prodotta e veicolata attraverso le tecnologie digitali in modo aperto e partecipativo. Ancora una volta, per quanto le traiettorie della tecnologia possano apparire inevitabili e al di fuori della nostra influenza, le scelte dell'uomo si rivelano fondamentali e ci mettono nella condizione di accogliere i doni dello sviluppo tecnico. Come sottolinea Kevin Kelly (2010), di fronte all'accelerazione del progresso e delle innovazioni che quotidianamente sperimentiamo non dobbiamo rimanere inerti e passivi: dovremmo darci da fare con i preparativi (p. 113),

197

scegliere130 di diventare migliori e [] decidere di modificare i nostri assunti legali, politici ed economici (ib.) per riuscire ad andare incontro alla tecnologia, educando noi stessi e i nostri figli verso una gestione responsabile e bilanciata della stessa, capace di massimizzare le opportunit e i vantaggi del technium e limitarne rischi e aberrazioni.
130 Infatti la libera scelta non solo crea il tipo di persona che siamo (la nostra ineffabile personalit), ma plasma anche il technium. Potremmo non essere in grado di tracciare le linee generali, su macroscala, di un sistema basato sull'automazione industriale (catene di montaggio, energia da combustibili fossili, istruzione di massa, sudditanza all'orologio), ma possiamo intervenire sugli elementi specifici delle singole parti. Abbiamo libert d'azione nello stabilire i principi guida della nostra istruzione, cos da indurre il sistema formativo a massimizzare l'uguaglianza oppure favorire l'eccellenza e l'innovazione. Possiamo indirizzare l'invenzione della catena di montaggio verso un'ottimizzazione del prodotto o verso un'ottimizzazione delle competenze dei lavoratori: due percorsi che generano culture differenti. Qualunque sistema tecnologico pu essere impostato con valori di default alternativi che modificheranno il carattere e la personalit di quella tecnologia. [] Sostenere che il technium spinge se stesso attraverso forme tecnologiche determinate e inevitabili non significa dire che tutta la tecnologia sia una certezza matematica. La mia affermazione suggerisce una direzione, non un destino. [] Il progresso tecnologico ci offre tantissime possibilit e, se siamo intelligenti e avveduti, anche modi migliori per anticipare queste tendenze. Le nostre scelte in campo tecnologico contano; bench limitate da forme di sviluppo predeterminate, le caratteristiche specifiche di una certa fase tecnologica, sono per noi importantissime. [...] L'attuale dilemma della tecnologia, dunque, non ci abbandoner mai. Gli esseri umani sono allo stesso tempo padroni e schiavi del technium, e il nostro destino di vivere in questo scomodo ruolo dualistico. [] Non dovremmo per preoccuparci se sia il caso o meno di accoglierla [la tecnologia]: siamo gi andati ben oltre, ormai con la tecnologia viviamo in simbiosi. Su macroscala, il technium sta seguendo una sua progressione inevitabile. Su microscala, per, comanda la volont. La nostra scelta sta nel seguire

198

questa direzione, nell'estendere a tutti e a tutto opzioni e opportunit e nel giocarci al meglio i dettagli. Oppure possiamo scegliere (poco saggiamente, a mio avviso) di opporre resistenza al nostro secondo io (pp. 121-123).

199

200

Capitolo secondo I beni comuni della conoscenza: una tragedia da scongiurare

La storia che intendiamo raccontare in questo capitolo diversa da quanto detto finora. I protagonisti saranno pi o meno gli stessi che abbiamo gi introdotto, i quali siamo certi che il lettore conosceva bene ancor prima di avvicinarsi a questo lavoro; a maggior ragione ne avr potuto approfondire la familiarit dopo le pagine precedenti. Quello che intendiamo modificare nel corso di questo capitolo la prospettiva e la lente di ingrandimento attraverso la quale osservare la vastissima realt della comunicazione umana e il punto di vista pi circoscritto, ma denso di tematiche e criticit, della conoscenza nell'era delle tecnologie digitali. Prendendo spunto dal modo di procedere di Lessig (2001), la nostra analisi si muover per strati (layers), esaminando nello specifico i diversi livelli in cui un sistema di comunicazione pu essere suddiviso, gli stessi che sotto tutti i punti di vista lo rendono possibile131. Egli: alla base pone lo strato "fisico", attraverso il quale viaggia la
comunicazione. Questo il computer, o i cavi che collegano il computer a Internet. Nel mezzo vi uno strato "logico" o
131 Ne Il futuro delle idee, Lessig dichiara di essersi a sua volta ispirato agli assunti teorici di Yochai Benkler, che ha fatto suo il criterio di lettura tipico degli architetti di network. Si veda al riguardo: Benkler, Y., 2000, From Consumer to Users: Shifting the Deeper Structures of Regulation Toward Sustainable Commons and User Access, Federal Communications Law Journal, anche disponibile all'indirizzo http://www.law.indiana.edu/fclj/pubs/v52/no3/benkler1.pdf.

201

"codice", che fa funzionare l'hardware. Tra questi potremmo includere i protocolli che definiscono Internet e il software che fa funzionare tali parametri. In cima, infine, colloca uno strato "di contenuto", ci che viene propriamente detto o trasmesso attraverso tali cavi: esso include immagini digitali, testi, film online e cose simili. Questi tre strati lavorano assieme in modo da definire un sistema di comunicazione (Lessig 2001, p. 27).

Ognuno di questi livelli pu essere caratterizzato da due stati fondamentali, quello di apertura e libert da una parte e quello di chiusura e controllo dall'altra. Le diverse combinazioni possibili sono all'origine dei pi diversi sistemi di comunicazione, dei quali sempre Lessig a fornire una breve rassegna. Potremo avere quindi il particolare caso dello Speakers' Corner di Hyde Park, in cui sia lo strato fisico (il parco), sia lo strato di codice (il linguaggio utilizzato), sia lo strato di contenuto (tutto ci che viene detto e che pu spaziare dalle arringhe di veri e propri oratori agli sfoghi dello svitato di turno) sono liberi e non di propriet, svincolati dunque da forme superiori di controllo. Oppure l'esempio del Madison Square Garden, che oltre a essere uno stadio anche un auditorium: ferme restando la libert dei contenuti e delle loro modalit espressive, al suo interno possono accedere soltanto coloro che hanno pagato il biglietto (abbiamo pertanto uno strato fisico controllato). C' poi la modalit con cui risulta organizzata la comunicazione telefonica (con una infrastruttura fisica e logica di propriet della societ che gestisce questo servizio) e infine quanto avviene nella televisione via cavo, dove:
lo strato fisico, i cavi che veicolano il contenuto nelle case, di propriet. Lo lo strato di codice: sono le compagnie via cavo a decidere cosa viene trasmesso nelle vostre case. Ed di propriet

202

anche lo strato di contenuto: gli show trasmessi sono protetti da copyright. Tutti e tre gli strati sono sotto il controllo della compagnia della tv via cavo: nessuno strato della comunicazione, nel senso inteso da Benkler, resta libero (p. 28).

E internet? Quale mix contraddistingue la rete di network che avvolge il mondo e che alla base delle nostre modalit di comunicazione e interazione? Scopo di questo capitolo proprio quello di addentrarci nelle profondit di questo medium, un po' come dei geologi che scavano la crosta terrestre per scoprire cosa si cela al suo interno. Procedendo per strati, appunto. Gli strati della cultura digitale: architettura fisica, hardware, software e contenuti veri e propri Se la libert di internet anche una questione di cavi Nella veste inedita di scavatori, avanzeremo dal livello pi esterno e fisico, verso quello che il nucleo immateriale fatto delle idee e dei contenuti che popolano la rete internet. La nascita di questo "network di network" (p. 30) risale alla sperimentazione americana finalizzata all'individuazione di un sistema di comunicazione affidabile e sicuro, che fosse invulnerabile ad un attacco nucleare. Un compito di portata cos strategica e vitale fu affidato a Paul Baran, ricercatore della Rand Corporation, un'azienda statunitense incaricata di fornire servizi di consulenza al Pentagono. Egli part dall'analisi del sistema allora vigente, relativo alle comunicazioni telefoniche gestite dall'American Telephone & Telegraph (AT&T). Il "sistema Bell" (p. 31) come veniva allora definito per sottolinearne lo strapotere e il controllo pressoch indiscusso sul mercato era: 203

l'effettivo governatore delle comunicazioni. Lo stato e la Federal Communications Commission (FCC) potevano regolarla, ma l'informazione e la cooperazione che rendeva possibile il controllo aveva fonte nella stessa AT&T. Che, fin dal primissimo inizio dell'interconnessione nel 1912, era stata il padrone delle telecomunicazioni in America (ib.).

Dopo una prima fase all'insegna di un'ampia e aperta competizione tra la Bell e altre societ indipendenti per portare il servizio telefonico nelle case degli americani, nei vertici dell'AT&T si inizi a diffondere "l'idea che la sicurezza sarebbe venuta soltanto dalla fusione con la concorrenza" (p. 32). Favorita da una legge antitrust che negli anni Venti del Novecento era particolarmente morbida e indulgente, la Bell stipul una serie di accordi con il governo che di fatto le garantirono il monopolio nel settore delle comunicazioni. Nella sua ricostruzione storica, Paul Baran pot rendersi conto che:
i monopoli non sono tutti un male, e indubbiamente questo monopolio di bene ne port molto. L'AT&T produsse uno straordinario sistema telefonico, colleg l'85 per cento delle abitazioni americane nel 1965, all'apice del proprio potere monopolistico. Spese miliardi di dollari a sostegno della ricerca sulle telecomunicazioni. I laboratori della Bell inventarono la tecnologia delle fibre ottiche, il transistor, e una marea di altri importanti progressi tecnologici. I suoi scienziati si guadagnarono almeno una mezza dozzina di premi Nobel per la fisica (p. 33).

Ma d'altra parte il fatto che l' AT&T fosse l'unico gestore sulla piazza produsse anche chiusura e impossibilit di apportare innovazioni che non fossero maturate nell'alveo dell'azienda stessa. Infatti:
per gran parte del Ventesimo secolo, era illegale anche il solo

204

sperimentare sul sistema telefonico: un crimine collegare un apparecchio a un sistema telefonico che non fosse costruito o espressamente autorizzato dall' AT&T. [...] La telecomunicazione dunque si evolveva come voleva la Bell (p 34).

Cosa pi importante, Baran giunse a rendersi conto che una rete di questo genere era troppo concentrata e priva di impianti di riserva efficaci, col risultato disastroso ai fini della sopravvivenza della nazione che non sarebbe stata in grado di resistere a un attacco nucleare. La sua proposta di soluzione nasceva da un'idea fondamentalmente differente e consisteva in un modello che si avvicinava molto a quello che in un futuro prossimo sarebbe stata internet. Fu cos che venne proposta la tecnologia della "commutazione a pacchetto", in base alla quale:
se si digitalizzava una conversazione, traducendola da onde in bit, per poi spezzettare il flusso conseguente in pacchetti, questi pacchetti potevano fluire in rete indipendentemente l'uno dall'altro (packet switching) creando l'impressione di una conversazione in tempo reale all'altro capo. [...] Ci che importante che Baran individu un sistema di telecomunicazioni impostato in modo diverso da quello allora dominante e che un sistema di telecomunicazioni diverso avrebbe influenzato un'evoluzione delle telecomunicazioni radicalmente diversa (p. 35).

Per chiarire questo cambio di paradigma, pu essere utile citare le parole di Carlo Gubitosa (2007), che dedica un capitolo del suo studio sulla storia della comunicazione elettronica al contributo chiave elaborato da Baran, descrivendolo con uno stile vivido e facilmente comprensibile anche ai non esperti. L'autore italiano sottolinea come:
per i suoi studi sulle reti di trasmissione dati, Baran si [sia]

205

ispira[to] alla rete pi complessa in assoluto, il cervello umano. Il risultato un modello, che battezza col nome di "rete distribuita" (distributed network), basato sulla ridondanza e la molteplicit dei collegamenti. La duplicazione e la sovrabbondanza di connessioni del progetto di Baran ricorda quella del cervello umano, nel quale le funzioni di una parte danneggiata possono essere rimpiazzate da una nuova connessione realizzata con i neuroni rimasti intatti. Un'altra idea rivoluzionaria quella di frazionare i messaggi in diverse unit elementari di informazione, chiamati "pacchetti" di dati, ognuno dei quali in grado di seguire un percorso differente all'interno della rete (Gubitosa 2007, p. 147).

Un progetto di questo genere sarebbe dovuto svilupparsi di concerto e con la collaborazione dell' AT&T, ma quest'ultima si oppose fermamente, portando avanti l'obiezione che un simile modello non sarebbe stato realizzabile, dietro la quale si celava la reale volont di difendere il proprio monopolio. D'altro canto tutto ci molto comprensibile e rientra a pieno nell'ordine delle cose per cui "il desiderio naturale di ogni azienda difendere il proprio mercato" (Lessig 2001, p. 37); infatti:
come dice Baran, l'AT&T "non voleva nessun altro nella propria parrocchia". Controllava i cavi: nient'altro che la propria tecnologia poteva essere attaccata e nessun altro sistema di telecomunicazioni sarebbe stato concesso. Era una sola azienda a decidere, attraverso i propri laboratori e con la propria visione di come le cose dovessero succedere (p. 36).

Quando si accorse che il progetto stava per essere affidato alla Defense Communications Agency (DCA), un'agenzia del governo priva della necessaria esperienza nel settore delle telecomunicazioni, e resosi conto del probabile rischio di vedere "pasticciato il lavoro" (p. 37) che aveva in mente, Baran decise di mollare tutto. 206

Internet viene comunemente considerata un network di network ed qualcosa di differente da una rete telefonica. Essa si "appoggia" a reti telefoniche e cavi che sono propriet privata, ma dietro di essa vi una logica diversa da quella che ad esempio era alla base dell'AT&T. I protocolli che sostengono questo network si fondano su un principio definito "end-to-end argument" (e2e), descritto gi nel 1981 dagli architetti di rete J. Saltzer, D. Clark e D. P. Reed. Esso "consta nel mantenere i dettagli delle informazioni ai due punti estremi della comunicazione, lasciando il network in s relativamente semplice" (p. 38). Per comprendere questo punto dobbiamo tenere conto della distinzione che i progettisti di rete fanno tra i computer posti alla "fine", cio agli estremi di un network, e quelli che si trovano al suo interno. I primi sono le macchine usate per accedere al network (il computer o il telefono cellulare che usiamo per connetterci a internet per esempio), destinate a svolgere alcune funzioni necessarie; i secondi dovrebbero invece svolgere solamente compiti molto semplici e marginali. Un'architettura di questo genere si distingue per la flessibilit e l'efficienza che la caratterizzano e probabilmente nessun principio pu essere considerato paragonabile a quello dell'e2e, il cui ruolo nel determinare il successo di internet si sarebbe rivelato fondamentale. Anche per le sue conseguenze politiche, aspetto quest'ultimo che tocca da vicino il cuore del presente lavoro. D'altra parte:
il codice del cyberspazio, ovvero la sua architettura, il software e l'hardware che applicano tale architettura, regolano la vita nel cyberspazio in generale. Il codice la sua legge. O, nelle parole di Mitch Kapor, cofondatore della Electronic Frontier Foundation (EFF). "l'architettura politica". [...] I pi riflettono su come concetti quali "architettura", o "software", o pi semplicemente, "codice" rendano possibili o limitino le cose cui pensiamo in

207

quanto esseri umani, come l'espressione, o la privacy, o il diritto di accesso (p. 39).

Lessig sottolinea pi volte come ci sia un legame strettisimo tra l'architettura e il grado di innovazione che un sistema pu offrire, sia in termini commerciali, che ancor pi culturali. Ed proprio nella combinazione tecnica che sostiene internet che risiede la chiave di volta del suo grandissimo potenziale di progresso e della sua carica sovversiva rispetto alle modalit di comunicazione che l'hanno preceduta. Per fare luce su questi aspetti, cerchiamo dunque di sollevare il coperchio e guardare all'interno dell'ingranaggio. Innanzitutto in un network di questo tipo le varie applicazioni avrebbero funzionato su computer collocati ai suoi estremi: per chiunque avesse voluto apportare innovazioni o proporre usi alternativi (per esempio usare internet per fare delle telefonate) sarebbe stato sufficiente connettere i propri computer al network, in modo da far girare le proprie applicazioni. Senza dover cambiare nulla alle macchine che gi si trovavano all'interno della rete. I protocolli di internet sono poi "ciechi", nel senso che si occupano semplicemente di impacchettare e veicolare le informazioni. In pratica non riservano un trattamento differenziato a certe applicazioni a discapito di altre e proprio per questo il network pu essere aperto a qualsiasi innovazione possibile, nonch a evolvere in modi non previsti dai suoi progettisti originari. Terzo punto infine, conseguenza di quanto appena detto:
il design attua una piattaforma di tipo neutro, neutrale nel senso che il proprietario del network non pu discriminare certi pacchetti per favorirne altri, il network non pu discriminare il progetto di un innovatore. Se una nuova applicazione minaccia un'applicazione dominante, non c' nulla che il network possa

208

fare. La rete rimarr 'applicazione (p. 41).

neutrale,

indipendentemente

dalla

Ci che questa infrastruttura tecnica veicola di fatto un preciso ideale filosofico, all'insegna dell'apertura e di una crescita senza orientamenti calati dall'alto e tantomeno autorit centralizzate, per cui "il network stesso non avrebbe controllato come sarebbe cresciuto" (ib.). Per questo tipo di sistemi stata pensata una definizione che forse pu apparire poco lusinghiera, ma ci preme ancora una volta sottolineare la loro importanza in termini di grado di innovazione che essi consentono. I "network sciocchi" infatti, a differenza dei loro fratelli maggiori "intelligenti", conservano tutta l'informazione all'interno delle macchine, mantenendo la rete stessa il pi semplice possibile. Esempi di design end-to-end, oltre a quello di internet, sono offerti da diversi ambiti ed esperienze della nostra vita quotidiana, a cominciare dalla rete elettrica e dalla rete stradale132. Non intendiamo qui porci come nemici assoluti di qualsiasi forma di controllo, che peraltro si rivela pi che necessario in molti ambiti della nostra esistenza. Ci che intendiamo ribadire piuttosto la completa dicotomia e impossibilit di coniugare il controllo con il desiderio di raggiungere l'innovazione. Questi due obiettivi manifestano una completa e reciproca irriducibilit e questo stato di cose vale a maggior ragione quando si ha a che fare con realt
132 In un'autostrada (fatta salva la questione relativa al pedaggio) pu entrare qualsiasi automobile, senza la necessit di iscriversi precedentemente alla rete, inserendo dati relativi all'orario di partenza o alle tappe previste, come avviene ad esempio nei traffico aereo dei voli. Per usufruire della rete sufficiente che il veicolo funzioni correttamente e che l'automobilista sia in possesso di una patente valida, senza che sia l'autostrada a decidere se e quando sia possibile usarla (pp. 42-43).

209

imprevedibili e dal futuro incerto. Infatti:


quando l'uso futuro di una tecnologia non pu essere previsto, lasciare incontrollata la tecnologia il modo migliore di farle trovare il tipo giusto d'innovazione. La duttilit, l'abilit di un sistema di evolversi facilmente in modi diversi, ottimale in un mondo di incertezze. Questa strategia un atteggiamento. Dichiara al mondo di non conoscere in che modo potranno funzionare questo sistema o network. basata sull'idea dell'incertezza. Quando s'ignora in che modo si evolver un sistema, lo si costruisce in modo da permettere uno sviluppo massimo. Questa stata la motivazione chiave degli architetti originali di Internet. Avevano molto talento: nessuno era particolarmente esperto. Ma al talento si associa la modestia. E gli architetti del network originale sapevano soprattutto di non sapere per che cosa questo network sarebbe stato utilizzato. [...] In questo modo il sistema end-to-end disabilita il controllo centrale sugli sviluppi del network. [...] Nuove applicazioni "possono essere aggiunte a Internet senza che ci sia bisogno di alcun cambiamento al network esistente". L'"architettura" del network disegnata in modo da essere "neutrale rispetto all'applicazione e al contenuto". Mettendo l'intelligenza agli estremi, il network non in grado di dire quali funzioni o contenuti siano lecite o meno (pp. 43-44).

E ancora:
Grazie all'e2e, gli innovatori sanno di non aver bisogno di alcun permesso per iscrivere un'applicazione "a Internet" prima che questa sia operativa: non c' bisogno di alcun permesso per usare la banda. E2e significa che il network progettato per assicurare che non possa essere il network a decidere a quali innovazioni sar dato di girare. Il sistema costruito costituito in modo da restare aperto a qualsiasi innovazione (p. 44).

210

La nascita stessa del World Wide Web un esempio di come un sistema aperto permette all'innovazione di attecchire e svilupparsi. Dal momento che la Rete era un sistema aperto e decentralizzato, i protocolli ideati da Tim Berners-Lee per condividere le informazioni e migliorare la comunicazione fra i computer del CERN semplicemente si appoggiarono all'insieme di regole che gi definivano internet. Ancor pi, aderendo a un orientamento ispirato alla massima diffusione della conoscenza e della ricerca, egli rifiut di privatizzare l'uso di questi protocolli, che altrimenti si sarebbero potuti trasformare in una fonte di guadagno, che avrebbe per finito per imbrigliare e limitare le possibilit di accesso e partecipazione. Con grande lungimiranza, Berners-Lee convinse il CERN a rilasciare nel pubblico dominio i diritti dell'insieme di regole che costituiscono la base del Web, permettendo tra le altre cose di costruire documenti ipertestuali e scambiare file tra computer interconnessi133. Giunti a questo punto, evidente la netta divergenza fra il modello aperto e slegato dal controllo che caratterizza internet e il modello gerarchico e basato sulla richiesta di permessi, messo in atto dall'AT&T. Oltre all'insieme di elaborazioni teoriche che abbiamo appena nominato, un fattore chiave della nascita di internet fu la possibilit per la Rete di connettersi alla preesistente rete telefonica. In questo caso risult fondamentale l'intervento governativo che introdusse una regolamentazione
133 Il Web fu concepito come un'alternativa ai sistemi di comunicazione chiusi, come un mezzo aperto a chiunque desiderasse pubblicare o leggere, ideato non solo per facilitare l'accesso alle informazioni, ma anche per risalire alle origini di un'idea, con un semplice clic su un collegamento: nessun confine geografico, nessuno steccato, nessun ostacolo per i navigatori che esplorando la Rete, link dopo link, trovano informazioni al tempo stesso utili e gratuite, in qualunque parte del mondo si trovino (Stross 2008, p. 25).

211

finalizzata all'ingresso di nuovi concorrenti nel settore delle telecomunicazioni, favorendo l'apertura del settore all'innovazione e fissando dei limiti al controllo unico dell'AT&T. Fin qui si pu avere l'impressione di aver ascoltato una storia a lieto fine, nel corso della quale i problemi incontrati sono stati comunque risolti al meglio e sanciti dal successo. In realt il racconto che stiamo cercando di sviluppare riguarda un processo dinamico e continuo, che non possiamo considerare concluso e che deve essere quotidianamente rapportato al futuro. Infatti non pu essere sufficiente riscontrare che ad oggi la natura della Rete animata dal principio dell'end-to-end; il punto fondamentale che dobbiamo avere sempre davanti agli occhi che "il design che internet ha ora, non necessariamente sar lo stesso domani" (p. 45). Questo perch:
il design attuale pu essere arricchito di nuovi controlli o nuove tecnologie. E se questo vero, la caratteristica dell'e2e, qui considerata centrale per il network, pu ora essere rimossa dal network man mano che questo viene cambiato. Il codice che definisce il network a un dato momento non necessariamente pu essere quello che lo definir successivamente. E man mano che questo codice cambia, con esso cambieranno anche i valori protetti dal network (ib.).

Prima di introdurre il prossimo strato della nostra analisi, vale la pena sottolineare come l'apertura della rete sia una condizione essenziale e strategica per la sopravvivenza della stessa Google, la quale
ha bisogno che Internet rimanga aperto e fedele al suo spirito fondante, senza muri (pagamento di tariffe), senza steccati (abbonamenti), senza barriere (software proprietari) e senza

212

nessun altro ostacolo che impedisca il libero scambio di informazioni (Stross 2008, p. 23).

In una societ sempre pi smaterializzata come la nostra, le informazioni si configurano come una merce preziosa, un bene dotato di un valore commerciale da accumulare e non da condividere (ib.): se i siti wiki rappresentano il grado massimo di apertura, in cui ognuno pu intervenire, commentare e modificare il lavoro di chi lo ha preceduto, siti come Facebook134 si posizionano sul versante opposto, configurandosi come club e oasi private, in cui l'ingresso consentito ai soli iscritti. E per realizzare l'ambizione di organizzare tutte le informazioni del mondo, il motore di ricerca di Google ha bisogno di avere accesso a tutta la Rete e non solo ai fazzoletti di terra che rimangono fuori degli orticelli recintati dei social network (p. 24). L'accostamento di due termini come aperto e rete potr sembrare un ossimoro, eppure nei suoi primi anni di vita il web si configur come uno spazio libero e decentralizzato, il regno degli accademici, degli scrittori dilettanti e di altre persone senza alcun interesse
134 Per Google, lo sviluppo di Facebook era piuttosto preoccupante. Nel momento in cui i suoi membri si registravano, le loro comunicazioni e attivit online diventavano inaccessibili dall'esterno. Quanti pi membri si iscrivevano a questo sito e quanto pi tempo passavano entro i suoi confini accoglienti, ma chiusi e fuori della portata dello spider di Google, tanto pi lentamente si arricchiva la miniera di informazioni esplorabili nel web aperto. [] In un batter d'occhio Facebook divenne un universo web in miniatura, protetto da un muro inaccessibile a Google. Pi si dotava di software completi provenienti dall'esterno, meno motivi avevano i suoi iscritti per uscirne. [] Steve Rubel, un dirigente di Edelman, la megaimpresa di pubbliche relazioni che vantava tra i suoi clienti anche MySpace, si lament di Facebook in questi termini sul suo blog: 'Non restituisce nulla al grande Web. Vi entrano molte cose, ma non ne esce niente. Ci che succede in Facebook, resta in Facebook'(pp. 33-34).

213

in attivit commerciali, ma desiderose di condividere le informazioni e incuranti di un'eventuale remunerazione135 (p. 26). Se Google ha potuto raggiungere e consolidare la propria posizione di leadership e sbaragliare qualsiasi concorrente anche merito di un fortunato tempismo. Nei primi anni di vita del web il traffico di utenti era alquanto ridotto, cos come assai esiguo era il numero dei siti da visitare 136.
Ma nel 1998 la Rete era gi molto pi estesa ed era emersa la necessit di un motore che non si limitasse ad associare semplicemente il termine di ricerca con il contenuto di tutte le pagine web che vi si riferivano. [] Google non avrebbe potuto
135 Prima dell'avvento del Web le informazioni erano s disponibili online, ma l'accesso a esse era molto costoso. La prima generazione di servizi informativi digitali comprendeva i provider di dati commerciali, come Dialog della Lockheed, nato negli anni Settanta, che applicava tariffe esose alle aziende clienti; la seconda generazione di servizi pre-Web fu fornita, a pagamento, ai consumatori da American Online ( AOL), CompuServe e Prodigy, che offrivano l'accesso alle loro reti private raggiungibili con un modem dial-up tramite la linea telefonica di casa; le informazioni erano riservate agli abbonati. Nessuno, nei primi anni Novanta, poteva prevedere che il Web avrebbe ospitato una tale quantit di dati, liberamente disponibili e di alta qualit. L'unico modello di business che sembrava praticabile era basato sulla costruzione di steccati attorno alle informazioni e sull'imposizione agli utenti di tariffe per poterli superare (p. 27). La stessa Microsoft, quando nel 1992 inizi a progettare il suo servizio informativo che nel 1995 avrebbe preso il nome di MSN, ader al modello di rete chiusa allora dominante. 136 Nel giugno 1993, due anni dopo il suo lancio, meno dello 0,5% del traffico su Internet veniva utilizzato per le pagine web; il resto era destinato alla posta elettronica, ai trasferimenti di file e alle discussioni nei newsgroup. In effetti non vi erano molti siti da visitare sul Web: a quei tempi ne esistevano 130 circa. Nel 1994 un anno dopo il lancio di Mosaic, il primo popolare browser i siti erano diventati 2700, ma il traffico sul Web corrispondeva solo al 6% dell'intero traffico su Internet. La Rete era ancora una novit (p. 26).

214

offrire nessun servizio di ricerca se le pagine web fossero state inaccessibili al suo spider, il software che sistematicamente perlustrava il Web raccogliendo copie di pagine che venivano poi indicizzate e analizzate [] (p. 29).

Queste considerazioni rappresentano uno spunto utile a valutare in modo pi obiettivo alcune delle contraddizioni che caratterizzano l'azienda di Mountain View. Google ha fatto dell'apertura e della libert le parole d'ordine della propria attivit, contrapponendosi alle minacce che da pi fronti hanno messo in luce la trasformazione del web in uno spazio inaccessibile e a pagamento. Eppure non sono poche le contraddizioni137 che caratterizzano la creatura di Brin e Page. Nel primo capitolo abbiamo gi discusso del rischio che Google si trasformi in un gigantesco monopolio dell'informazione, capace di abbracciare in maniera tentacolare qualsiasi aspetto e ambito della vita delle persone. Per la sopravvivenza di un universo digitale accessibile a tutti e svincolato da divieti e restrizioni, bene tenere a mente che non possiamo contare esclusivamente sull'operato di aziende private. Per il momento le cose sembrano funzionare discretamente, ma nulla consente di fare previsioni su ci che sar domani. Fintanto che la sorte della nostra conoscenza e il futuro della cultura far affidamento su imprese che in ultima analisi sono mantenute in vita dal conseguimento di profitti, le nostre aspettative non potranno essere del tutto rosee. Sono queste le ragioni che ci portano ad auspicare una maggiore
137 Come sottolinea Stross, Google utilizza ampiamente il software open source per le sue stesse attivit, ma non ha reso di dominio pubblico gli algoritmi di ricerca proprietari. un'azienda affezionata ai suoi segreti e non si aggiudicherebbe alcun premio in un concorso sulla trasparenza aziendale. Eppure, rispetto a Microsoft, viene associata pi direttamente alle aziende del settore che si riconoscono nel modello aperto (pp. 2425).

215

presa di coscienza del problema in questione da parte delle istituzioni, degli ambienti accademici e del grande bacino di cittadini virtuali che utilizzano e contribuiscono alla crescita della rete. vigilando, favorendo la possibilit di espressione di voci fuori dal coro e mantenendo alto il livello di concorrenza del mercato che internet e i suoi miliardi di saperi potranno essere a disposizione di tutti, ricalcando il modello urbanistico della piazza piuttosto che quello della roccaforte difensiva. "Libert partecipazione": il software libero e open source In una posizione intermedia tra il livello materiale su cui poggia l'infrastruttura comunicativa che stiamo analizzando e la sfera, per cos dire "alta", dei contenuti da essa veicolati troviamo lo strato del codice, che potremmo paragonare ai tanti libretti d'istruzione che ognuno di noi incontra nella propria vita e che svolgono la funzione di guidare e spiegare il modo in cui un certo oggetto va utilizzato o montato perch possa funzionare correttamente. Nello specifico, quando parliamo di codice a proposito di computer, possibile distinguere tra un "codice sorgente" e un "codice oggetto". Mentre il primo scritto dall'uomo e consiste in un insieme di comandi logici finalizzati a istruire la macchina su ci che dovr fare, il secondo corrisponde al linguaggio effettivamente "compreso" dai computer, ovvero il codice binario, niente di pi che una complicatissima (per noi agenti umani) sequenza di zero e uno. Le fondamenta teoriche di quest'ultimo possono essere fatte risalire all'algebra della logica simbolica delineata intorno alla met dell'Ottocento dal matematico inglese Boole 138 che,
138 Ci riferiamo in particolare al trattato di logica formale The Mathematical Analysis of Logic (1848) e a quella che pu essere considerata la sua opera maggiore, cio An Investigations of the Laws of Thought, on which are founded the Mathematical Theories of Logic and

216

con i suoi teoremi e postulati, porta con s un cambiamento di prospettiva talmente rivoluzionario da essere compreso solo a un secolo di distanza, quando l'avvento dell'elettronica rende necessario l'utilizzo di un'algebra capace di rappresentare concetti come "vero", "falso" e altre astrazioni logiche formulate attraverso i linguaggi naturali dell'uomo, utilizzando "operatori logici" che permettono di esprimere gli stessi concetti in termini matematici, con simboli come "0" e "1", oppure utilizzando il linguaggio dei circuiti elettrici: acceso/spento, corrente/assenza di corrente. L'algebra di Boole, molti anni dopo la morte del suo creatore, si rivela uno strumento potentissimo per creare una corrispondenza tra le astrazioni logiche della programmazione dei calcolatori e le operazioni fisiche realizzate concretamente dai dispositivi elettrici ed elettronici dei computer (Gubitosa 2007, p. 52).

Mentre in quella che Gubitosa definisce come l'era dei "dinosauri dell'informatica" (pp. 64-70) le funzioni dei primi esemplari di calcolatore automatico erano direttamente collegate via cavo alle macchine139, sempre pi "oggi la polpa dei computer il software" (Lessig 2001, p. 55). Questa modalit di codificazione risultava piuttosto ingombrante: a titolo esemplificativo basti solo pensare alle dimensioni e ad alcuni dei numeri che caratterizzavano l'ENIAC (Electronic Numerical Integrator and Calculator), uno dei primi calcolatori informatici della storia, costituito dalla bellezza di
18.000 tubi a vuoto, alimentati da una piccola centrale elettrica, [che] consentivano a questo apparecchio di effettuare 5.000
Probabilities (1854). 139 A ben vedere questa caratteristica persiste ancora ai nostri giorni, limitatamente all'insieme di istruzioni (firmware) che vengono eseguite nella sequenza di avvio del computer, le quali sono integrate direttamente nelle componenti elettroniche.

217

operazioni al secondo, con 30 tonnellate di peso, 30 metri di lunghezza, 3 di larghezza e 1 di profondit, 140.000 Watt di consumo, 70.000 resistenze, 10.000 condensatori e 6.000 interruttori. Secondo alcuni biografi dell'ENIAC, la prima accensione di questo calcolatore ha provocato un abbassamento di corrente in tutta la citt di Philadelphia e durante il funzionamento la temperatura dell'aria intorno alla macchina raggiungeva i 120 gradi Fahrenheit (Gubitosa 2007, p. 67).

Numeri che risultano impressionanti ancora oggi, figuriamoci nell'ormai lontano 1946, quando tale strumento fu realizzato presso la Moore School of Electrical Engineering della Pennsylvania University! Intorno agli anni Sessanta inizi a prendere sempre pi piede un approccio diverso alla programmazione, basato sulla realizzazione di istruzioni logiche pensate dall'uomo, in seguito opportunamente compilate e tradotte in codice oggetto, quest'ultimo comprensibile e manipolabile dall'elaboratore. In questa fase iniziale, le aziende produttrici di computer non si preoccupavano molto di questo strato di codice: esse
scrivevano il software, ma quel software era specifico delle macchine di quell'azienda. Ciascuna aveva il proprio sistema operativo (l'OS, il programma sul quale girano tutti gli altri programmi). Questi sistemi operativi non erano compatibili. Un programma scritto per una macchina IBM non funzionava su un computer della Data General. Dunque le aziende non avevano certo ragione di preoccuparsi se un programma veniva "rubato". Queste operavano nel settore del mercato dei computer. Se qualcuno "rubava" un programma destinato a un computer particolare, poteva utilizzarlo soltanto nel caso in cui aveva quel computer. Era un mondo di macchine incompatibili e questo creava inconvenienti a tutti coloro che dipendevano da molti tipi diversi di macchina per esaltare il proprio lavoro (Lessig 2001, p.

218

55).

Quelle caratteristiche fondamentali rappresentate dalla portabilit e interoperabilit, cui abbiamo gi accennato nel precedente capitolo, erano di fatto del tutto assenti, obbligando gli operatori del settore informatico ad adottare e conoscere linguaggi diversi, pena l'impossibilit di dialogare con le strumentazioni a loro disposizione. Il tentativo di adottare un nuovo corso e introdurre un cambiamento radicale in un mondo popolato da software proprietari, all'insegna della competizione e dell'assenza di scambi reciproci, strano a dirsi, provenne dall'AT&T. Il colosso americano delle telecomunicazioni, che nella competizione per l'accesso allo strato fisico aveva cercato in tutti i modi di far valere il proprio monopolio, in questo caso si rese protagonista di un'azione che puntava nella direzione opposta, orientata all'apertura e alla condivisione. Il risultato pi importante di questa visione fu raggiunto nel 1969, quando Ken Thompson e Dennis Ritchie, ricercatori presso i laboratori Bell, svilupparono il sistema operativo Unix che, scritto per mezzo di un linguaggio di programmazione "di alto livello" 140 flessibile, aperto e intuitivo, quale "C", "sarebbe diventato,
140 Si tratta di quella classe di linguaggi di programmazione costituiti da un insieme di istruzioni (espresse sotto forma di parole, generalmente nella lingua inglese) corrispondenti alle operazioni che verranno compiute dall'elaboratore. A differenza dei "linguaggi macchina", costituiti da istruzioni elementari, espresse in codice binario e strettamente connesse ad una specifica struttura fisica (diversa da processore a processore, al punto che per far funzionare lo stesso programma su un altro apparecchio necessario riscrivere il relativo linguaggio macchina), un linguaggio di alto livello astrae dalle caratteristiche fisiche dell'hardware su cui opera e pu "girare" su computer diversi. La traduzione che permette alla macchina di eseguire effettivamente le istruzioni veicolate dal linguaggio di alto livello effettuata per mezzo di un programma "compilatore".

219

grazie alla sua altissima portabilit, una piattaforma comune su cui i programmi potevano funzionare" (ib.). Ma le virt lungimiranti dell'AT&T non si limitavano a questo, dal momento che, pur continuando a detenerne i diritti, l'azienda decise di non commercializzare il nuovo sistema operativo, che era infatti ceduto gratuitamente alle universit e a chiunque lo volesse:
i dipartimenti d'informatica potevano usare il codice sorgente (entro certi limiti) per insegnare ai propri studenti come veniva scritto un sistema operativo. Il sistema poteva essere criticato, proprio come gli studenti di letteratura all'universit possono fare delle disamine su Shakespeare perch hanno a disposizione le sue tragedie. E mentre questo sistema veniva compreso, soluzioni a imperfezioni del sistema erano riportate all' AT&T. Il processo produsse un network vasto e potente di persone che cominciavano a parlare il linguaggio di Unix e una generazione che cresceva "allevata" all'uso di Unix. Cos, in questo periodo, Unix era un commons, un bene comune. Il codice di Unix, un commons; la conoscenza generata da questo codice, un commons; e cos l'opportunit di innovare con e su questo codice. Nessuno aveva bisogno del permesso dell'AT&T per sapere come funzionasse il suo file di sistema o come l' OS gestisse la stampa. Unix era un giacimento di conoscenza reso disponibile al pubblico. Su questo tesoro edificarono in molti (p. 56).

Una delle collaborazioni pi proficue in tal senso fu quella che prese vita tra Thompson e il Dipartimento di scienze dell'informazione dell'Universit di Berkeley e che condusse all'elaborazione di numerose versioni di Unix, in una logica aperta al contributo e alla messa in discussione dei traguardi consolidati, in vista del raggiungimento di miglioramenti e obiettivi ulteriori. In questo quadro, le aziende informatiche, sempre pronte a sfruttare i benefici e le potenzialit dei mercati 220

in espansione, e resesi conto della posizione di favore di Unix e del riconoscimento di standard tributatogli dagli utenti, avevano cercato di
spingere il proprio "dialetto" Unix, sperando che si afferm[asse] sulle varianti proposte dai concorrenti. [Nonostante ci] sar l'Universit di Berkeley, tuttavia, ad avere l'ultima parola, sviluppando nel corso degli anni versioni di Unix non commerciali e liberamente utilizzabili, che diventano le pi diffuse e apprezzate dagli utenti di questo leggendario sistema operativo. Nel 1977, dopo la partenza di Thompson, due allievi di Berkeley, Bill Joy e Chuck Haley, iniziano a interessarsi allo sviluppo del "kernel" di Unix, il "nocciolo" del sistema operativo. Il loro lavoro d vita alla "Berkeley Software Distribution", una "distribuzione" del sistema operativo Unix gi pronta da installare, che poteva essere ottenuta semplicemente contattando Bill Joy a Berkeley e richiedendo la spedizione di un nastro contenente i programmi necessari all'installazione di Unix. Joy non mosso da interessi commerciali, ma la motivazione che lo spinge a spedire una copia di Unix a chiunque ne faccia richiesta la possibilit di migliorare ulteriormente le prestazioni del sistema operativo grazie ad una "base di utenti" pi estesa, che avrebbe fornito preziosi suggerimenti per nuove funzioni e individuato un maggior numero di errori. Il concetto di "distribuzione" pu inizialmente sconcertare chi abituato a sistemi operativi commerciali, prodotti e sviluppati da un unico distributore. Unix, che non nasce come un prodotto commerciale ma come un progetto di ricerca, nel corso degli anni viene migliorato e perfezionato da pi gruppi che producono differenti versioni di Unix, chiamate appunto "distribuzioni", lasciando agli utenti il compito di individuare la distribuzione pi adatta alle proprie esigenze (Gubitosa 2007, pp. 185-186).

Le distribuzioni di Unix iniziano a susseguirsi a brevi distanze le une dalle altre, cos come crescente risulta essere 221

l'apprezzamento da parte degli ambienti scientifici e universitari e che culminer nel dicembre 1979 con l'ottenimento di un generoso finanziamento da parte del DARPA, finalizzato alla realizzazione di una versione che fosse dotata di funzionalit che rispondessero ad alcune esigenze precise dell'agenzia governativa statunitense. Mentre il ritmo di lavoro a Berkeley non subisce rallentamenti, nel 1982 Bill Joy lascia l'Universit e fonda la Sun Microsystems, un'azienda produttrice di workstation destinate a grandi aziende e centri universitari. Inutile dirlo, le nuove macchine della Sun erano dotate del sistema operativo Unix, incluso direttamente all'interno dei computer, senza alcun costo aggiuntivo. Ed a questo punto che possiamo comprendere con maggiore chiarezza il nucleo di questo progetto, la cui rinuncia al mero dato quantitativo del guadagno rende Unix qualcosa di totalmente diverso dai prodotti sviluppati dalle aziende che hanno eletto il business e il posizionamento sul mercato quale propria unica missione. E cos infatti:
le "generazioni" di Unix si susseguono con regolarit fino al giugno 1989, data di nascita della "Networking Release 1", una versione di Unix caratterizzata dalla totale libert di utilizzo del codice sorgente. Un sistema operativo un po' come il "motore" di un computer, e se il motore della macchina permette di far girare le ruote del veicolo, il sistema operativo lo strumento che consente di utilizzare la tastiera, lo schermo, i lettori CD e tutte le altre risorse di un computer. Il "codice sorgente" (source code) di un sistema operativo o di un programma informatico l'insieme delle istruzioni che regolano il funzionamento del sistema operativo o del programma in questione. Per migliorare o aggiungere nuove funzioni a Unix o a qualunque altro "motore informatico", necessario poter conoscere e modificare il suo codice sorgente. I sistemi operativi commerciali (ad esempio quelli prodotti da Microsoft) sono programmi gi belli e pronti,

222

distribuiti in forma "eseguibile" o "binaria", cio senza la possibilit di accedere al codice sorgente. come avere il motore di una macchina chiuso in una scatola nera, senza la possibilit di ripararlo o migliorarlo in caso di difetti o malfunzionamenti. Fino alla "Networking Release 1", per ottenere le varie versioni della Berkeley Software Distribution bisognava versare una somma alla AT&T, che aveva sviluppato il primo embrione di Unix, per ottenere una "licenza di accesso al codice sorgente" (source license), necessaria per poter aprire la "scatola nera" di Unix e aggiungere nuove funzioni o migliorare quelle gi esistenti (p. 188).

Gli sviluppatori di Berkeley cercarono invece di allargare sempre pi il numero dei programmi liberamente distribuibili che componevano il sistema Unix, al punto che, coinvolgendo il popolo della rete, iniziarono a riscrivere ex novo i programmi di sistema e le funzioni aggiuntive (utilities) al fine di rimpiazzare quelli vincolati e sottoposti a pagamento prodotti dall'AT&T. La scelta dell'azienda di trasformare la sua creatura in un affare economico e il potere di controllo che la licenza di accesso al codice sorgente metteva nelle sue mani furono vissute come un vero e proprio tradimento: "una generazione aveva dedicato la propria carriera professionale a imparare e sviluppare il sistema Unix. E ora l' AT&T reclamava il diritto esclusivo sul prodotto di queste conoscenze" (Lessig 2001, p. 57). La passione e l'unione di intenti di quelle "colonie di formiche" della rete che avevamo gi osservato all'opera nel caso di Wikipedia riusc a portare avanti i propri obiettivi, tra i quali vale la pena ricordare il rilascio della "Networking Release 2" e di 386/BSD (1992), una versione di Unix quest'ultima scritta appositamente per i microprocessori Intel 80386 dei personal computer domestici. La prima parte della storia che stiamo raccontando finisce sempre nel 1992, quando: 223

la AT&T cede alla Novell, azienda specializzata in reti informatiche locali, la sua societ specializzata in Unix.: Unix System Laboratories. Il prezzo pagato di 150 milioni di dollari. A sua volta la Novell ceder le sue attivit relative a Unix alla SCO, Santa Cruz Operation, nel settembre 1995. Questo sistema operativo, figlio ribelle di cui nessun genitore vuol prendersi cura, ha grandi difficolt a diventare un prodotto redditizio: nessuno riesce ad appropriarsene e a chiuderlo nella gabbia del copyright quando si ancora in tempo. Nonostante il suo fallimento commerciale, la storia di Unix caratterizzata da un grande successo tra gli appassionati di informatica e nel mondo universitario, dove questo strumento libero stato migliorato, anno dopo anno, dal lavoro coordinato di miriadi di sviluppatori sparsi per il pianeta e uniti grazie all'"intelligenza collettiva" delle reti telematiche (Gubitosa 2007, p. 191).

Io sto con i pinguini (e anche con gli gnu!): Stallman e Torvalds rivoluzionano l'universo dei sistemi operativi Il progetto legato al sistema UNIX non rappresenta un caso isolato, ma una delle numerose declinazioni di un pi ampio fermento culturale cresciuto in parallelo alla nascita della rete e capace di dar vita a iniziative molto significative, tutte animate da un approccio partecipativo e decentralizzato all'utilizzo e allo sviluppo delle risorse digitali. in questo ampio bacino che muovono i primi passi gli "hacker", appassionati di informatica, per lo pi autodidatti, un vero e proprio esercito legato alla controcultura e alfiere della libert d'informazione. Il termine oggi, soprattutto tra i non addetti ai lavori, ha perso questa connotazione originaria positiva e viene utilizzato erroneamente per descrivere i pirati informatici e quanti utilizzano le proprie conoscenze e abilit informatiche per compiere azioni illegali, diffondere virus e violare la privacy, intrufolandosi negli archivi e nelle banche dati di aziende o privati cittadini. In questo modo andata persa l'originaria 224

valenza di una comunit animata da una concezione etica dell'accesso alla conoscenza molto vicina a quella che caratterizza oggi il movimento che lotta per l'affermazione e la salvaguardia dei commons. I suoi membri sono caratterizzati
dal gusto di risolvere problemi applicando la propria intelligenza a qualsiasi sfida intellettuale con uno spirito giocoso. Questa attitudine ad affrontare come un gioco anche i problemi pi seri distingue gli hacker da altri programmatori che hanno le stesse abilit, ma le considerano unicamente come uno strumento di lavoro, e non come uno strumento per l'espressione libera e creativa della mente, realizzata attraverso le tecnologie. Gli hacker mettono in pratica questa loro attitudine in molti modi: migliorando circuiti e programmi, usando oscilloscopi, saldatori e linguaggi di programmazione ad alto livello per giocare con altri hacker e accettare sfide intellettuali per il puro piacere di vincerle, e non come un lavoro commissionato da qualcun altro. L'obiettivo che un hacker si prefigge non semplicemente far funzionare le cose, ma giocare con la logica per trovare soluzioni che siano anche eleganti, e non solo efficaci, in una gara continua per riscrivere lo stesso algoritmo usando una riga di codice in meno. In gergo "a good hack" una soluzione brillante ad un problema informatico o di natura pratica, una sorta di uovo di Colombo che fa dire: "cavoli, questa s che una furbata". Il verbo "to hack" significa letteralmente "fare a pezzi", "smontare", e il lavoro dei primi hacker simile a quello di quei bambini che smontano il ferro da stiro di casa per vedere come fatto dentro e capire come funziona. La loro "casa" il MIT, e al posto del "ferro da stiro" c' il PDP-1141, che viene smontato, programmato, migliorato, riparato,
141 Il PDP-1 (Programmed Data Processor-1) fu il primo computer di questa serie sviluppato dalla Digital Equipment Corporation, un'azienda pionieristica nel settore dell'informatica, che lo mise in commercio nel 1960. Esso ricordato soprattutto come il primo computer su cui abbia girato un videogioco (si trattava di Spacewar!, anch'esso distribuito liberamente e gratuitamente). Nel capitolo 7 del libro di Gubitosa (pp.

225

utilizzato per intere notti e in ogni ritaglio di tempo lasciato libero dagli utenti autorizzati, che utilizzano per i loro lavori universitari programmi scritti dagli stessi hacker. In questo ambiente creativo e libero vengono sviluppate tecniche informatiche, programmi e algoritmi in uso ancora oggi. Nessuno dei primi hacker ha voglia di mettere sotto brevetto le proprie idee, e chiudere i programmi nella gabbia del copyright una possibilit che non viene nemmeno presa in considerazione. Un good hack deve essere libero. Ogni programma realizzato aperto ai miglioramenti degli altri, in un processo di perfezionamento continuo e collettivo di tutte le creazioni della prima comunit hacker (pp. 73-74).

Un altro versante riconducibile a questi principi e ideali, in questo caso ancor pi significativo perch di fatto anticip la stessa internet, quello che nel 1979 port due studenti della Duke University alla creazione del sistema di messaggistica Usenet142 (Unix uSErs NETwork). Anche in questo caso i
71-78) viene giustamente sottolineata l'importanza che la programmazione nel campo dei videogiochi, espressa da schiere di giovanissimi appassionati di tecnologia, rivestir sia dal punto di vista dello sviluppo dell'informatica, sia come bacino all'interno del quale coltivare i valori dell'etica hacker. Queste forme di intrattenimento, nate per lo pi nell'alveo dei campus universitari, basate su grafiche talmente rudimentali da far sorridere i pi navigati utilizzatori di consolle dei nostri giorni , rappresenteranno infatti una "palestra" ideale per acquisire dimestichezza con la programmazione e la scrittura di codice. La carriera straordinaria e all'insegna della sperimentazione dello stesso Steve Jobs, rileva Gubitosa, prese il via nel 1976, quando progett Breakout (in cui una pallina, che rimbalza su una superficie respingente mossa dal giocatore, deve distruggere un muro di mattoni) per la compagnia di videogiochi Atari. Lasciata l'azienda, e in seguito a un viaggio in India, Jobs e il suo compagno di studi Wozniak iniziarono a lavorare al progetto che avrebbe portato alla creazione del personal computer Apple I. 142 "Definita in un primo momento 'a poor's man Internet' (l'Internet dei poveri), Usenet si arricchisce ben presto di una propria cultura e di una

226

programmi necessari al suo funzionamento, indispensabili per poter partecipare alle discussioni telematiche, furono resi disponibili e distribuiti gratuitamente. Il principio di funzionamento era quello dei vecchi sistemi BBS143 (Bullettin Board Systems), i quali
permettevano a piccole comunit di utenti di connettersi a un
fisionomia creativa e partecipativa, che arricchiscono arpanet a partire dal 1981, anno di incontro tra le due reti" (Gubitosa 2007, p. 167). 143 Si tratta di quelle che potremmo definire come le prime "bacheche elettroniche" (Gubitosa 2007, pp. 172-182), sviluppate in quel periodo di limbo in cui internet era ancora "un 'giocattolo' riservato ai centri accademici e al mondo della ricerca scientifica, [...] ben lontani dalla diffusione di massa a cui siamo abituati oggi" (p. 172). Il loro sviluppo strettamente legato al nome di Ward Christensen, un ingegnere dell' IBM che pu essere considerato il padre della "telematica sociale di base" (ib.), il quale realizz e distribu gratuitamente un programma ( MODEM) che permetteva a due computer domestici di scambiarsi informazioni per mezzo delle linee telefoniche. "Nel 1978 Ward Christensen e Randy Suess creano il primo Bullettin Board System, chiamato CBBS. [...] un computer dedicato alla messaggistica, che utilizza un modem per scambiare posta elettronica e messaggi relativi a computer conference, gruppi di discussione collettiva che ruotano attorno ai pi svariati argomenti. Il tutto avviene come se si appendessero dei messaggi ad un pannello virtuale, che pu essere consultato da chiunque semplicemente collegando il proprio computer alla bacheca elettronica per mezzo di un modem. Le reti di telematica 'amatoriale' o 'di base' degli anni '80 non sono altro che tanti BBS collegati tra loro [...] I collegamenti di queste reti sono di tipo 'commutato': i nodi della rete non sono permanentemente connessi tra loro, ma solo in alcuni momenti della giornata. Di notte, quando telefonare costa poco, i messaggi vengono fatti circolare su tutti i computer collegati alla rete. La tecnica quella del 'pony express': ogni nodo telefona e riceve una telefonata da quelli a lui pi vicini. Questo meccanismo detto anche di 'Store and Forward' (raccogli e inoltra), proprio perch i messaggi vengono prima ricevuti e immagazzinati, e poi inoltrati nottetempo sugli altri nodi attraverso una o pi telefonate, gestite in modo completamente automatico dai computer che

227

computer centrale (solitamente tramite un modem e una linea telefonica) per prendere parte a discussioni dattiloscritte riguardanti argomenti di comune interesse: attivit in ambito informatico, sport o qualunque altro tema il sysop ossia l'operatore del sistema consentisse di trattare. Ogni singolo sistema poteva gestire un'isola virtuale, ciascuna relativa a un insieme diverso di utenti formato da qualche decina o centinaia di persone. [...] Come avviene nei processi di osmosi, i messaggi venivano comunicati da un computer all'altro realizzando una catena di trasferimenti che faceva rimbalzare le informazioni attraverso i diversi gruppi di utenti. Questo processo non avveniva "in diretta", secondo le modalit istantanee cui oggi siamo abituati navigando su Internet, pertanto la discussione non poteva svolgersi in tempo reale, ma piuttosto nell'arco di ore o giorni (Lih 2009, pp. 97-98).

Una delle prime piattaforme che si svilupp a partire da questo sistema fu Netnews, uno spazio di discussione globale in cui venivano trattati i pi diversi argomenti, dalle semplici ed effimere "chiacchiere da bar" tra singoli utenti, ad argomenti pi rilevanti, che potevano aprire dibattiti approfonditi e dar vita a forme di enciclopedismo e costruzione del sapere dal basso. Le informazioni maggiormente richieste potevano essere evidenziate, di modo che gli interessati potessero reperirle pi facilmente: in un'era antecedente alla nascita del World Wide Web, gli utenti di Netnews avevano crearono le FAQ (Frequently Asked Questions) un modo comodo e rapido per rendere disponibile e fruibile la conoscenza accumulata attraverso un lavoro partecipativo e volontario, che ispirer la stessa Wikipedia. proprio in questi ambienti in cui forse vero che la fisicit si ritrova annullata e diventa virtuale, ma non per
costituiscono i nodi della rete" (pp. 175-176)

228

questo i legami fra i membri delle comunit online possono essere meno solidi e privi di responsabilit che nel mondo reale che ancora una volta si sperimentano le emergenti modalit della condivisione, della libert di accesso e trasformazione dei contenuti, e dove la nobile aspirazione alla costruzione di una conoscenza priva di gerarchie e non sottomessa alle tradizionali regole del mercato, prender ulteriore corpo, confluendo nel movimento per il software libero. Si tratta dell'ultimo tassello della storia che stiamo tentando di ricostruire: per fare ci dobbiamo riprendere il discorso dal punto in cui l'avevamo lasciato, quando eravamo giunti a parlare del tradimento compiuto da parte dell'AT&T ai danni degli ideali che avevano caratterizzato il sistema operativo Unix, e introdurre nella nostra storia un nuovo e leggendario personaggio. Richard Stallman forse un predestinato, dal momento che il suo anno di nascita, il 1953, coincide con quello in cui Claude Shannon pubblic il suo studio sull'intelligenza artificiale gi da bambino aveva mostrato una precoce passione per i computer e il calcolo: negli anni Settanta vestir i panni di ricercatore al MIT, assimilando i principi della condivisione e apertura del codice sorgente, fino a diventare "l'ultimo custode dell'etica hacker" (Gubitosa 2007, p. 193). Il frutto del suo lavoro presso i laboratori del Massachusetts Institute of Technology l'EMACS, un elaboratore di testi
che permette agli utenti di personalizzarlo senza limite: la sua architettura aperta incoraggia le persone ad aggiungervi nuove funzioni e a migliorarlo continuamente. Stallman distribuisce gratis il programma a chiunque accetti la sua unica condizione: rendere disponibili tutte le estensioni e i cambiamenti apportati al programma, in modo da collaborare al suo miglioramento. EMACS diviene quasi subito l'editor di testi standard nei dipartimenti universitari di informatica (ib.).

229

Un programma aperto e dinamico, a cui ognuno era chiamato a partecipare per offrire il proprio bagaglio di conoscenze e abilit tecniche, circondato tuttavia da un mondo e da una societ che funzionavano in modo diverso e che stavano deviando sempre pi verso una conoscenza recintata e sottoposta "a pedaggio". Vale la pena accennare alla vicenda che port Stallman ad abbandonare i laboratori del MIT e avviare il progetto GNU all'interno della Free Software Foundation, poich si tratta dell'ennesima dimostrazione di quella deriva protezionistica che negli ultimi decenni sta investendo la conoscenza ed espropriando le risorse digitali alla collettivit che le ha create. Presso l'Artificial Intelligence Lab del MIT, dove Stallman lavorava, era stata installata, e salutata con grande entusiasmo, una stampante laser prodotta dalla Xerox. Il dispositivo era molto veloce e preciso, ma al tempo stesso si inceppava con una certa frequenza. Di fatto non si trattava di una situazione grave: problemi simili rappresentano il cibo quotidiano per le menti dei giovani ricercatori informatici, che vivono queste difficolt come sfide intellettuali stimolanti, sulle quali misurare le proprie capacit di "smanettoni". Stallman e colleghi pensarono bene di scrivere un programma che li avvertisse quando la stampante non funzionava, di modo che chi si trovava nelle sue vicinanze potesse intervenire e sistemarla. La vera criticit si manifest quando, in seguito all'aggiornamento del driver che faceva funzionare la stampante da parte del laboratorio del MIT, Stallman chiese alla Xerox una copia del codice sorgente, in modo da poter inserire anche nella versione aggiornata l'escamotage anti-bloccaggio. Infatti:
il software che gestiva la stampante non era software libero. Era arrivato incluso nella stampante, era soltanto un file binario. Non potevamo averne il codice sorgente; la Xerox non ci avrebbe fatto

230

avere il codice sorgente. Cos, nonostante le nostre capacit di sviluppatori [...] eravamo del tutto inadeguati ad aggiungere questa funzione al software della stampante (p. 195).

Stallman visse questa esperienza come una profonda ingiustizia, sperimentando sulla propria pelle la sordit e la fedelt ai soli principi guida del guadagno tipica delle aziende commerciali. Se l'"obiettivo della scienza e della tecnologia quello di sviluppare informazioni utili per l'umanit, onde aiutare la gente ad avere una vita migliore" (p. 196), la scelta della Xerox di non divulgare e mantenere segreto il codice sorgente dei propri programmi, agli occhi di Stallman, poteva essere assimilato a un tradimento della missione della scienza e all'esplicita rinuncia alla cooperazione con l'intera umanit. Questo perch un programma informatico di fatto assomiglia molto a una ricetta:
una serie di passaggi per arrivare al risultato che si prefissati. Perci altrettanto naturale fare la stessa cosa con il software passarne una copia agli amici. E apportarvi delle modifiche, perch il lavoro per cui era stato scritto non esattamente quanto vogliamo. E, dopo averlo modificato, probabile possa tornare utile ad altri. Forse costoro devono fare un lavoro simile al nostro. Cos ci chiederanno: "Posso averne una copia?". Naturalmente, se vogliamo essere gentili, gliela diamo. cos che si comporta una persona decente. Immaginiamo allora cosa accadrebbe se le ricette venissero impacchettate dentro scatole nere. Non se ne potrebbero vedere gli ingredienti usati, per non parlare neppure di modificarli, e immaginando di averne fatto una copia per un amico, vi chiamerebbero pirata e cercherebbero di sbattervi in galera per anni. Un mondo simile creerebbe proteste tremende da parte di tutti, non solo di coloro che sono soliti scambiare ricette. Ma questo esattamente il mondo del software proprietario. Un mondo in cui la comune decenza verso gli altri proibita o

231

impedita (p. 194).

A partire da questa constatazione e con l'intento dichiarato di opporsi al sistema imperante, Stallman inaugur il progetto 144 GNU , con l'obiettivo di sviluppare un sistema operativo completo da rilasciare come software libero. In questo modo, a differenza di quanto avviene nel caso dei software proprietari, gli utenti avrebbero potuto godere di alcune libert fondamentali: possibilit di copiare il programma, cederlo ad altri (gratuitamente o dietro compenso), accedere al codice sorgente e agire su di esso al fine di migliorarlo o adattarlo alle proprie esigenze e infine distribuirne le versioni modificate (innescando una sorta di effetto virale virtuoso). Per stabilire in modo univoco questi principi e tutelare il lavoro di quanti avrebbero partecipato al progetto, Stallman mise inoltre a punto una licenza specifica per il software libero, la GNU GPL145 (General Public License), che
alle libert fondamentali elencate in precedenza [...] aggiunge una
144 Si tratta di un acronimo ricorsivo, una sorta di gioco di parole molto in voga presso la comunit hacker, che contiene al suo interno una chiara ed esplicita presa di posizione: le tre lettere che compongono la sigla GNU sono infatti le iniziali della frase "GNU's Not Unix" ("GNU non Unix"). 145 Un altra categoria di licenza GNU quella relativa alla documentazione libera, che prende il nome di GFDL (General Free Documentation License) e viene applicata a contenuti scritti. Nel gennaio del 2001 Jimmy Wales decise di adottarla per Wikipedia, sostituendo la licenza fino a quel momento adottata (la Nupedia Open Content) che, pur permettendo di copiare e modificare i contenuti dell'enciclopedia online, lasciava alla BOMIS la titolarit dei diritti d'autore sugli stessi. "La licenza GFDL essenzialmente incorpora lo stesso concetto di libert e la stessa propriet 'virale' gi presenti nella GPL. [...] Ci significa che non possibile contribuire a opere sottoposte ai termini della licenza GFDL con testi che non siano a essa conformi (di qui la sua fama di licenza "virale")" (Lih 2009, p. 86).

232

condizione: tutte le versioni modificate di software GPL devono obbligatoriamente essere rilasciate secondo la stessa licenza. Questa condizione viene definita "copyleft", e trasforma la libert di un software in un carattere ereditario che si conserva anche nelle versioni modificate. [...] Di fatto la licenza GNU GPL attualmente la licenza di software libero pi utilizzata al mondo (p. 197).

Ancor pi, per far s che questi ideali non rimanessero semplici astrazioni, nel 1985 cre la Free Software Foundation ( FSF), impegnata nell'applicazione di applicazioni software libere, tutte sottoposte alla nuova Licenza Pubblica Generica GNU.
In un mondo dominato da colossi informatici che imponevano il loro software proprietario, Stallman vedeva la FSF come un baluardo per tener viva la fiamma della cultura hacker, permettendo cos ai programmatori di ispezionare i meandri del "codice sorgente" che girava all'interno dei computer, al fine di accrescere le loro conoscenze. L'accesso al codice sorgente (che rappresenta il DNA dei programmi dei computer) era un'operazione vietata dalla maggior parte delle imprese commerciali, o al limite concessa solo a prezzi molto elevati. La parola inglese "free" utilizzata da Stallman creava una certa confusione poich determinava una fastidiosa collisione di significati (riferendosi indifferentemente sia al concetto d libert sia a quello di gratuit). Stallman fu pronto a chiarire l'ambiguit evidenziando che il termine "free" in Free Software Foundation va inteso pensando alla libert di parola e non a una birra gratis (Lih 2009, pp. 3334).

Nonostante la celebrit e il carisma del suo fondatore, e malgrado il gran numero di sostenitori che aderirono all'impresa, nel 1992, a otto anni dall'inizio dei lavori, il progetto entr in una fase di stallo, coincidente tra l'altro con 233

un periodo in cui Stallman ebbe un problema alle mani che gli impediva di scrivere con la tastiera. Gli ingredienti e gli strumenti necessari alla creazione di un sistema operativo completo e portabile erano praticamente tutti a disposizione, ci che ancora mancava era per il cuore che avrebbe fatto funzionare l'intera struttura, il nucleo (kernel) senza il quale l'opera non poteva essere portata a compimento. La soluzione tuttavia non tard a essere raggiunta, provenendo dalla mente di un giovane hacker finlandese, Linus Benedict Torvalds, al cui decisivo contributo si deve la nascita del sistema operativo libero GNU/Linux. Anche in questo ci sembra di avere a che fare con la figura di uno straordinario enfant prodige, il cui destino sembra delineato gi a partire dai primissimi anni di vita; non a caso:
la passione per l'informatica colpisce Linus gi ad 11 anni, quando il nonno, docente universitario di matematica e statistica, gli regala uno dei primi computer Commodore, il VIC-20. Linus, dopo essere entrato all'Universit di Helsinki nel 1988 come studente di informatica, si appassiona allo studio dei sistemi operativi dopo aver scoperto Minix, un sistema operativo simile a Unix, ma pi semplice e meno potente. Minix era stato creato per i personal computer degli anni '80, macchine dalla potenza non molto elevata. Pi che un sistema operativo vero e proprio, Minix era uno strumento didattico, e infatti il suo autore era uno dei maggiori studiosi di sistemi operativi, il professor Andrew Tanenbaum, che aveva l'obiettivo di mettere a disposizione dei suoi studenti un sistema operativo "da laboratorio" simile a UNIX, con cui fare esperimenti e mettere in pratica le cose scritte dallo stesso Tanenbaum nel suo testo intitolato Operating Systems: Design and Implementation, un libro che ancora oggi uno dei classici della letteratura scientifica nel settore informatico (Gubitosa 2007, p. 198).

234

Per cercare di superare i limiti di Minix, Torvalds inizi a costruirne un'alternativa dotata di maggiori funzioni, pubblicando via via i suoi risultati in rete, aprendosi ai suggerimenti e ai punti di vista che la vastissima comunit di ricercatori e hacker gli avrebbe potuto offrire in vista del migliore risultato possibile 146. Linus
caric, quindi, tutto su un server, invitando la gente a dare un'occhiata , e avvenne un fatto curioso. C'era chi scaricava le sue modifiche, le testava, migliorava il codice correggendo qualche piccolo errore o difetto e, soprattutto, gli rimandava indietro il nuovo codice aggiornato. Egli era solito raccogliere i contributi che gli giungevano, integrarli e rilasciare una nuova versione aggiornata a disposizione per il download, il tutto nel giro di qualche giorno. La catena proseguiva con l'introduzione di nuove correzioni e miglioramenti che regolarmente tornavano a Linus. Si venne cos a creare una massa critica dedita a questo processo, con la produzione di un numero sempre crescente di revisioni, all'interno di quello che era diventato un circolo virtuoso. Linus non era l'artefice del perfezionamento del software, ma agiva semplicemente da coordinatore principale di questa nuova comunit di appassionati, mentre il progetto aveva una vita propria (Lih 2009, pp. 35-36).

Ancora una volta grazie agli effetti positivi di un processo stigmergico, a distanza di pochi mesi dal suo inizio, anche
146 Uno studio ha stimato che nella realizzazione del software Fedora Linux 9 sia stato speso il corrispettivo di sessantamila anni lavorativi individuali. Tutte insieme, quasi mezzo milione di persone sparse in tutto il mondo sta attualmente lavorando alla sbalorditiva quantit di quattrocentomila differenti progetti open source. Stiamo parlando di quasi il doppio della forza lavoro della General Motors, ma senza capi. La tecnologia collaborativa funziona cos bene che molti di questi collaboratori non si sono mai incontrati e vivono magari in paesi lontanissimi (Kelly 2010, p. 195).

235

questo progetto giunse a piena maturazione, suggellata nel 1992 dalla decisione di Linus Torvalds di assegnare alla sua creatura tutte le libert previste dalla GPL di Stallman:
cos che dal matrimonio tra il kernel di Torvalds e i programmi del progetto gnu nasce GNU/Linux, un sistema operativo completamente libero. La possibilit di copiare, utilizzare, modificare e migliorare a piacimento GNU/Linux lo trasformano nello strumento ideale per gli hacker, i programmatori, i sistemisti e gli sviluppatori di software di tutto il mondo, che sin dall'inizio collaborano per lo sviluppo e la crescita del sistema. [...] I frutti dell'impegno di Stallman, Torvalds e di tutti i programmatori, ingegneri e sviluppatori che aderiscono al movimento del software libero maturano con una rapidit impressionante proprio perch lo sviluppo di GNU/Linux aperto a tutti, e le sue varie versioni sono disponibili liberamente in rete, anzich essere coperte dal segreto industriale, come avviene ad esempio per i prodotti commerciali Microsoft. l'intelligenza collettiva della rete a determinare lo sviluppo di GNU/Linux, al quale hanno contribuito programmatori sparsi in tutto il mondo dando vita ad una vera e propria "task force" di sviluppatori, riconoscendosi nell'iniziativa di Torvalds e nei principi del Free Software stabiliti dalla GNU GPL. Con un susseguirsi vorticoso di nuove versioni, nel giro di pochi anni GNU/Linux diventa una validissima alternativa ai sistemi operativi commerciali e proprietari, e se l'utenza di base continua a rimanere ancorata al sistema operativo Windows, per l'installazione e la gestione dei nodi Internet, GNU/Linux diventa lo standard di fatto. Nel mondo degli addetti ai lavori sono servite a poco le colossali operazioni di marketing che hanno spinto le varie versioni di Windows all'interno dei nostri computer: gli amministratori di sistemi informatici preferiscono di gran lunga utilizzare GNU/Linux anzich i sistemi operativi Microsoft (Gubitosa 2007, pp. 200-201).

Alla luce di quanto finora detto, possiamo richiamarci a quanto 236

ci fa giustamente osservare Lawrence Lessig (2001), e affermare che GNU/Linux "costituisce in primo luogo un commons di codice, poi di conoscenza e infine di innovazione sopra il codice stesso" (p. 59). Un esempio altrettanto valido del successo dei progetti open source il cammino che ha portato a costruire il server Apache147, che sempre Lessig (2001) ci aiuta a ricostruire:
un server quella parte dell'infrastruttura di Rete che "serve" i contenuti. Quando si va su una pagina web e se ne vede il contenuto, il computer che fornisce quel contenuto il server. Agli inizi della Rete ci si aspettava che aziende come Netscape Corporation costruissero e vendessero server. Netscape lo fece, come altri, compresa la Microsoft. Ma, oltre a queste iniziative commerciali, c'era una versione di un server della Rete che venne resa disponibile gratuitamente. Questa era il server prodotto dalla National Center for Supercomputing Applications (NCSA). Il server NCSA era adeguato ma difettoso. Ma poich finanziato dal governo, il codice sorgente era gratuito. L'unico requisito che il NCSA imponeva, era di dichiarare i credit del NCSA. Un gruppo di primi utenti del protocollo HTTP cominciarono a condividere delle "patches" del server cio dei frammenti di codice che miglioravano o correggevano il codice stesso rendendolo pi efficiente. A un certo punto, il gruppo decise di formare un
147 "Linus e Apache sono i due progetti open source pi importanti.

Ma ce ne sono altri ancora. Perl, sviluppato da Larry Wall, un linguaggio di programmazione che rende possibile una manipolazione di testo ad alta capacit. il cemento che permette a gran parte della Rete di funzionare. Anch'esso stato sviluppato come progetto open source ed di gran lunga il linguaggio dominante della propria categoria, adattato a tutti i pi importanti sistemi operativi. E ancora pi a fondo, nei meandri del codice di Internet vi sono altri sistemi che sono ancora pi importanti per la Rete" (p. 60).

237

collettivo che avrebbe costruito un nuovo server sopra quello del NCSA. Questo server, chiamato Apache [...], venne dunque diffuso nel mondo come un server libero, open source. Apache s'impose rapidamente. Man mano che la sua quota di mercato cresceva, gli utenti contribuivano con ulteriori patches. I programmatori lavoravano sodo per integrarle. La qualit del server progred rapidamente. Apache divenne rapidamente il server numero uno al mondo. [...] I programmatori che crearono i server Apache non sono stati pagati da un'azienda chiamata "Apache". Molti di essi lavoravano part-time, pagati dalle aziende per le quali lavoravano. Secondo uno dei leader del progetto, il mago della Rete Brian Behlendorf, questo "volontariato essenziale" stato cruciale per il progetto. Il lavoro necessario doveva provenire da persone motivate ad aiutare il progetto, non soltanto da gente pagata dalle nove alle cinque (pp. 59-60).

Il codice informatico con cui scritto questo web server protetto dalla licenza Apache, una particolare forma di copyright che:
garantisce che nessuno, neppure i suoi creatori, possano impedire alle versioni di Apache di continuare a circolare liberamente e gratuitamente (freely). Potete prendere il codice, fare una vostra versione di Apache e venderla, ma non potete impedire a un altro di creare una versione concorrenziale e di distribuirla gratuitamente. L'effetto concreto di questa licenza (e il motivo per cui Behlendorf e i suoi colleghi svilupparono anche la licenza e non solo il software) di far s che chiunque apporti un miglioramento ad Apache possa condividerlo senza problemi, senza paura di vedersi alienare il suo lavoro. La licenza rende l'accesso ad Apache un diritto per i suoi programmatori e un regalo per i suoi utilizzatori. Il progetto Apache coniuga un incredibile ventaglio di talenti diversi; alcuni collaboratori cercano di inaugurare nuove vie, altri tentano di rendere la versione attuale pi veloce, e altri ancora di aggiustare i "bachi".

238

Nessuno pu fare tutte queste cose da solo, per i gruppi di persone possono essere destabilizzati dai desideri contrastanti dei gli individui coinvolti. La libert di accesso e la gratuit dell'uso illimitato di Apache, sancite giuridicamente, fanno s che, sebbene ci sia chi pu fare (e fa) versioni commerciali del codice, la maggioranza dei programmatori che ci lavora si dedichi alla versione gratuita. Inoltre, siccome chiunque pu modificare una versione di Apache per il suo uso personale, la licenza incoraggia molto la sperimentazione, e i risultati di quegli esperimenti possono finire nella versione principale. Se gli ostacoli alla partecipazione sono bassi, pi facile fare ricerca e integrare i risultati rispetto a quello che succede con un prodotto sviluppato commercialmente. I progressi di Apache (e di tutti i grandi progetti di software gratuito) dipendono dall'esistenza di un gruppo collaborativo di persone, e la capacit di arruolare quel gruppo e di integrarne il lavoro spiega il predominio decennale di Apache. Non un caso che Apache sia non commerciale: deve esserlo per poter inglobare i contributi del maggior numero di persone possibili, e nel modo pi economico possibile. Limitarne l'accesso esclusivamente a dipendenti stipendiati o consentirne l'uso solo a clienti paganti alzerebbe delle barriere che impedirebbero ad Apache di essere robusto, flessibile e popolare quanto lo oggi (Shirky 2010, p. 98).

Traendo ancora spunto dalle parole di Shirky,


il metodo di Apache di organizzare l'attivit di gruppo sia vecchio sia nuovo. Come altri circoli collaborativi, tutto ha avuto inizio da un gruppo storico di programmatori, una squadra di una mezza dozzina di persone a San Francisco, riunite attorno a Behlendorf ma non dirette da lui, che stava cercando soprattutto di migliorare il software che usava. Via via che cresceva l'utilit del software, cresceva anche il numero dei collaboratori, e via via che aumentavano i collaboratori, aumentava l'utilit del software. Il gruppo di collaboratori si ampli sino a includere dozzine, poi

239

centinaia, e oggi migliaia di persone. Ma non tutte sono entrate a far parte del nucleo iniziale; molte sono diventate membri periferici, il cui contributo stato spesso meno rilevante di quello dei fondatori, ma il cui lavoro nel complesso ha concorso in modo sostanziale a migliorare Apache milioni di piccole aggiunte e di correzioni che tutte insieme producono un cambiamento positivo continuo e a diffonderne l'uso un po' dappertutto. [...] Diversamente dai vecchi modelli di circoli collaborativi, per, l'iniziativa di Apache globale: il progetto ha accolto contributi e miglioramenti di programmatori da dozzine di paesi diversi. anche largamente virtuale, perch coniuga occasionali incontri vis--vis tra i suoi collaboratori con un mucchio di lavoro e di conversazioni online. E lo strumento che garantisce ai collaboratori di poter sempre accedere al loro lavoro, la licenza Apache, una struttura legale creata precisamente per sostenere questo stile globale e virtuale di collaborazione. Il progetto Apache dimostra che oggi possiamo creare iniziative di gruppo che operano su larga scala, senza sobbarcarci tutti i costi normalmente associati a gruppo cos grandi (p. 99-100).

La straordinariet di queste piattaforme gratuite e partecipative148 pu essere colta e apprezzata in tutta la sua grandezza pensando al ruolo chiave che esse hanno giocato (e auspichiamo possano continuare a giocare) nella costruzione di internet, ovvero dello "spazio pi importante per l'innovazione dei nostri tempi" (pp. 60-61). Il codice rappresenta un bene comune che tutti siamo chiamati a custodire e mantenere aperto, anche perch i benefici che esso mette a disposizione
148 Oltre ai gi citati GNU/Linux e Apache Web Server, che rappresentano i casi pi esemplificativi e le punte di diamante del successo legato al movimento per il Free/Libre and Open Source Software ( FOSS), possiamo anche citare i risultati di grande livello raggiunti dal linguaggio di programmazione Php, dal database relazionale MYSQL, dal web browser Firefox, nonch dalla suite di applicativi per ufficio OpenOffice (che sto utilizzando per scrivere queste pagine).

240

possono essere raccolti dall'intera comunit, senza che l'utilizzo di qualcuno riduca le possibilit degli altri (non competitivit); allo stesso tempo esso costituisce un bacino di conoscenze che non sono statiche e fisse, ma evolvono e migliorano in misura proporzionale al numero di quanti vi possono accedere. Tanto pi che qualora una strada intrapresa si dovesse rivelare poco adatta, il sapere costruito fino a quel punto non andrebbe distrutto n ci obbligherebbe a ripartire da zero. Il codice rappresenta in tal senso un'opera dinamica, continuamente aggiornata e affinata, oltre che uno strumento che si pu personalizzare e "piegare" attraverso opportuni aggiustamenti alle proprie specifiche esigenze. A ben vedere lo stesso web, lo spazio di contenuti e informazioni pi grande a nostra disposizione, si potuto sviluppare nella direzione oggi prevalente della condivisione e delle relazioni sociali 2.0 grazie all'apertura del codice ad esso soggiacente. La scelta di Tim Berners-Lee di consegnare l'HTML all'umanit, evitando cos di rinchiuderlo nelle restrittive gabbie del copyright o di un brevetto, rappresenta una esplicita affermazione del valore dell'apertura e della possibilit di apprendere "rubando con gli occhi" e imparando da quanti ci hanno preceduto. Infatti,
il codice performativo: ci che dice, fa. Di conseguenza si impara dal codice non soltanto leggendolo, ma anche applicandolo. Basti pensare al codice che costruisce il World Wide Web: le pagine web sono scritte prevalentemente attraverso un linguaggio markup chiamato HTML. Questo linguaggio consta di una serie di tags che fanno s che testo o grafica siano mostrati su una pagina web. Ciascuno dei navigatori pi diffusi ha una funzione che rivela la fonte della pagina web in visione. Se si vede una pagina di cui si vuole anche sapere come stata creata, semplicemente si usa la funzione "visualizza HTML" di quella pagina e questa si muta nella serie di codici che l'hanno generata.

241

Questa caratteristica del World Wide Web si tradusse in un'estrema facilit da parte dei programmatori nell'apprendere la costruzione delle pagine. Gran parte dell'apprendimento agli inizi si limitava semplicemente a copiare una pagine e modificarla secondo il desiderio del programmatore. [...] Si scelse questo assetto per il World Wide Web. Non c'era bisogno che il codice sorgente di una pagina web fosse visibile. [...] Ma se fosse stato cos, il commons di conoscenza della Rete sarebbe stato assai ridotto, con una riduzione proporzionale della crescita e dell'innovazione del World Wide Web. Disegnare la Rete in modo che fosse aperta signific la sua crescita pi rapida (pp. 61-62).

Richiamandoci ancora una volta a Lessig (2001), possiamo notare come il senso ultimo del software open source, il valore sul quale misurare la sua reale importanza, non risiede soltanto nella libert che esso offre di agire sui programmi, in vista di una loro modificazione e miglioramento. Parafrasando l'autore de Il futuro delle idee (p. 65), vogliamo evidenziare come l'aspetto davvero essenziale di un codice aperto si misuri sulla garanzia che esso offre in termini onest e neutralit delle piattaforme, permettendo cos di creare un ambiente di sviluppo e innovazione nei confronti del quale gli utenti riversino fiducia e siano liberi. Cos come un'architettura basata sul principio dell'end-to-end era alla base di un'innovazione democratica e priva di controllo gerarchico, allo stesso modo:
gli utenti di un progetto a codice aperto non sono dunque degli ostaggi. [...] Non sono gli ostaggi di un cattivo codice: il diritto di lavorarvi assicurato. Nemmeno sono ostaggi di un codice strategico: il codice aperto non pu comportarsi strategicamente. Insieme, queste due caratteristiche costituiscono il commons di innovazione creato da Internet. Colgono il valore pubblico sostenuto da codice aperto. Ma c' una sfida relativa ai progetti open source che alcuni ritengono insormontabile: far s che che ci

242

siano sufficienti incentivi a creare codice aperto. Il codice aperto crea un commons; ma con questo tipo di commons il problema non quello dell'esaurimento delle risorse. Il problema invece assicurare un incentivo sufficiente a fornire un codice nuovo o migliorato, in altre parole, un problema di approvvigionamento. In un mondo dove il software si vende come la gomma da masticare, e dove il valore si pensa consista nel potere di controllare chi pu copiare questo codice, per molti risulta difficile capire come possa esserci incentivo sufficiente a creare un codice che viene dato a chiunque lo voglia (p. 72-73).

I programmi informatici che si tratti degli applicativi che utilizziamo per scrivere documenti o ritoccare fotografie oppure di quel gran numero di sistemi, per lo pi sconosciuti all'utente medio, che fanno funzionare i computer o sostengono l'architettura della rete sono diventati ormai un elemento che pervade la quotidianit delle persone e sul quale non riflettiamo pi di tanto. una caratteristica tipica dell'evoluzione tecnologica: usare ripetutamente un certo oggetto, cos come esserne continuamente a contatto diretto (oltre che indiretto, tra ci che vediamo fare ad altre persone o che "impariamo" ascoltando e osservando i messaggi della pubblicit) crea familiarit con lo stesso, al punto che strumenti che al momento della loro introduzione rappresentarono scoperte capaci di rivoluzionare l'esistenza delle persone, diventano accessori comuni, che esitiamo quasi a definire "tecnologia" . Basti pensare alla ruota, ad una forchetta o a quel parallelepipedo compatto e sfogliabile che il libro. Anche se il tempo trascorso dall'introduzione dei computer e dei telefoni cellulari ancora relativamente piccolo, questi dispositivi stanno catturando sempre pi la nostra attenzione, plasmando i comportamenti e modificando il nostro modo di affrontare i diversi compiti della vita. Ancor pi, per le generazioni di 243

nativi digitali, figli di un'epoca in cui si era gi verificato il tramonto della dimensione analogica, essi non rappresentano niente di eccezionale e sono visti come il corredo naturale dell'esistenza. Eppure, come ci fa notare Charles M. Schweik nel suo saggio intitolato Il software gratuito/open source come modello per l'istituzione di beni comuni nella scienza (Hess, Ostrom 2007, pp. 297-327), "di fatto, lo sviluppo del software una forma di scienza, e il software in quanto prodotto una forma di propriet intellettuale" (p. 299). In particolare, grazie alla collaborazione e partecipazione cooperativa consentita dagli scambi via internet, i progetti FOSS danno vita a una forma di bene comune pubblico in cui ci che veramente rileva l'azione collettiva, piuttosto che il rischio di sfruttamento eccessivo che potrebbe portare alla distruzione della risorsa (come era il caso di un bacino di pesca o di un pascolo):
importante notare che i progetti FOSS producono questo bene pubblico attraverso un regime di propriet comune [...]: ossia una forma di bene comune. Nella letteratura sui beni comuni ambientali, l'espressione propriet comune definita come una risorsa [...] sulla quale i membri di un gruppo definito detengono una serie di diritti legali, compresa la facolt di escludere i non membri dall'uso di quella risorsa [...]. Alcuni lettori che non hanno familiarit con il FOSS potranno sorprendersi nel sentire che in esso sono coinvolti diritti di propriet (copyright) e questioni di possesso [...]. Ma in conseguenza di licenze FOSS (descritte con maggior dettaglio pi avanti), alcuni individui coinvolti nel progetto possono effettivamente vantare diritti legali sul codice (la risorsa), hanno il controllo su che cosa andr inserito in versioni future del software e possono escludere altri dalla possibilit di inserire nuovo codice per una nuova release [...] (p. 300).

Grazie ai principi del copyleft enunciati da Stallman stato 244

dunque possibile creare uno spazio per l'innovazione e la sperimentazione che fosse alternativo agli approcci tradizionali estremi del copyright pieno (tutti i diritti riservati) o del dominio pubblico (nessun copyright). Una terza via che permette di governare i beni comuni del software, facendo s che i loro autori possano decidere quali diritti trattenere e, attraverso le licenze, quali cedere. Diversi studi hanno poi evidenziato come la maggior parte dei progetti FOSS, anche quelli caratterizzati da crescita elevata in termini di utenti finali, sia legata, soprattutto negli stadi iniziali, all'attivit di gruppi ristretti di individui e piccoli team di sviluppo. Lo stesso Shirky (2010), nella parte conclusiva del suo libro, condensa questo aspetto in un paragrafo non a caso intitolato "partite piccoli" (p. 161), in cui sottolinea come:
il webserver Apache non si avvalso fin dall'inizio di migliaia di programmatori; all'inizio erano solo una mezza dozzina, e solo quando furono riusciti a fare qualcosa che meritava attenzione il gruppo raddoppi, e solo quando questo gruppo fece qualcosa di valido, raddoppi di nuovo. I progetti che funzionano solo se si ingrandiscono di solito non si ingrandiscono affatto; chi si ostina a voler creare un successo su grande scala domani, in realt rischia di ridurre le possibilit di creare oggi quei piccoli successi che gli servirebbero per centrare il suo obiettivo. Nei social media, un'autentica legge di natura che per avere un sistema che sia grande e valido molto meglio cominciare con un sistema che sia piccolo e valido e poi lavorare per ingrandirlo, invece che partire da un sistema che sia grande e mediocre e lavorare per migliorarlo (pp. 161-162).

Altra caratteristica fondamentale delle iniziative FOSS quella relativa alla natura prettamente volontaria della partecipazione, che come evidenziato quando abbiamo parlato di alcuni dei risultati pi virtuosi del web 2.0 continua a stupire molti 245

economisti e sociologi, i quali hanno cercato di individuare le ragioni che spingono i programmatori a mettere a disposizione gratuitamente il proprio tempo e impegno a favore della collettivit. Rifacendoci allo studio di Schweik,
le analisi mostrano che ci sono diversi tipi di motivazioni, che possono essere riunite in tre categorie: "tecnologiche", "sociopolitiche" ed "economiche" [...]. Uno dei motivi principali dal punto di vista tecnologico perch qualcuno partecipi a titolo volontario che si avverte l'esigenza di software che attualmente non disponibile o troppo costoso, ma il singolo programmatore comprende di non essere in grado di svilupparlo da solo. Una motivazione sociopolitica importante nei contesti FOSS che il programmatore riponga fede in un movimento sociale o politico (per esempio la filosofia il software dev'essere libero della Free Software Foundation, o la motivazione di sfidare un presunto monopolio sul software) o desideri partecipare a una comunit pi vasta con un interesse in comune. La passione un altro attributo sociale che rappresenta un motore importante per la partecipazione volontaria. [...] Tra le spiegazioni economiche della partecipazione volontaria ai progetti FOSS c' l'obiettivo di costruire capitale umano attraverso l'apprendimento, la lettura di codice di software gi esistente e il processo di peer review per il codice presentato [...]; nonch quello di segnalare le proprie abilit di esperto, nella speranza di future opportunit di lavoro. Attribuire la paternit del codice agli autori una norma fondamentale nei progetti FOSS [...]: da questo punto di vista, la partecipazione volontaria al FOSS vista come un investimento sul proprio futuro [...] e come un modo per crearsi una reputazione [...] (Hess, Ostrom 2007, pp. 306-307).

L'impegno e la durata dell'adesione al progetto inoltre strettamente legato al riconoscimento da parte dei partecipanti dei benefici e dell'utilit connessi al lavoro che si sta portando 246

avanti: maggiore sar il valore percepito pi alta sar la mole di tempo e sforzi che i programmatori e le aziende dedicheranno allo sviluppo dei software. Oltre a ci, le collaborazioni FOSS non possono prescindere dall'attributo chiave dell'infrastruttura basata su internet, capace di creare nella sfera virtuale quell'ambiente di apertura e dialogo necessario alla cooperazione e al coordinamento dei diversi soggetti coinvolti. sempre Schweik a mostrarci come:
nei progetti FOSS, la collaborazione di gruppo sostenuta attraverso la comunicazione basata sul web e i sistemi di controllo di versione. Per esempio, il sito www.sourceforge.net, che gestisce progetti FOSS, fornisce funzioni per la comunicazione nel gruppo e sistemi di controllo di versione basati sul Concurring Versioning System o CVS [...]. Il CVS e altri sistemi di controllo versione: archiviano le varie versioni del software; permettono il recupero dei moduli; permettono il deposito di nuovi materiali e proteggono dal problema della sovrascrittura e dell'eliminazione casuale del lavoro di altri; documentano la storia dei cambiamenti e i contributi dei partecipanti nel corso del tempo (author tracking); forniscono funzioni di analisi per identificare differenze tra varie versioni dei moduli; forniscono la possibilit di avvertire via e-mail gli abbonati quando le componenti di un progetto sono spostate, aggiornate o cancellate. [...] In altri termini, il sistema CVS di fatto articola alcune regole operative del progetto e le fa rispettare. In breve, i progetti FOSS si evolvono nel tempo come risultato delle loro configurazioni di regole in uso (per esempio licenze, strutture di governo), attributi comunitari (per esempio volontari e utenti motivati o programmatori retribuiti), attributi fisici legati alla struttura del

247

software per facilitare la collaborazione, e strumenti efficaci per la coordinazione del team e la gestione del contenuto. Crediamo che queste componenti forniscano le basi per un nuovo paradigma della ricerca scientifica collaborativa: un bene comune della scienza analogo al FOSS (p. 309).

Proprio quest'ultimo aspetto fornisce lo spunto per la proposta di estendere il paradigma tipico del FOSS, al fine di cogliere e applicare le opportunit che esso offre alla creazione di un bene comune della scienza. Sotto molti riguardi possiamo riconoscere una notevole somiglianza fra il software e un articolo di ricerca scientifica: entrambi sono forme di propriet intellettuale, originate attraverso un percorso analogo. Il processo di correzioni, integrazioni e modifiche successive che porta al rilascio di una certa versione del software pu infatti essere assimilato alla pratica di "sottoporre e far pubblicare gli articoli in riviste con peer review" (p. 310). Ma, come cercheremo di evidenziare grazie al contributo di Schweik, il modello del FOSS porta con s ulteriori vantaggi ed elementi positivi, che ci spingono a prospettare una sua pi generale estensione al processo che porta alla creazione di un bene comune della scienza. Vediamo come:
in primo luogo, nei contesti di collaborazione FOSS l'intero prodotto di ricerca (il software) condiviso con la comunit, compreso il processo di ricerca (sviluppo del software), anzich soltanto i risultati finali (come la pubblicazione del software). Per esempio, il cvs e altri sistemi consentono di tornare a un aggiornamento precedente attraverso gli archivi del sistema. conservata una storia dello sviluppo del software e si possono recuperare vecchie versioni del codice per vedere come si evoluto nel tempo. Questo sistema diverso dal modello editoriale tradizionale tipico di gran parte delle riviste scientifiche, in cui le limitazioni di estensione (numero di parole)

248

determinano ci che pu essere fornito alla comunit. In quasi tutti i contesti editoriali tradizionali, ci che pubblicato tutto ci che disponibile. Non c' un metodo valido per ripercorrere la storia, per esempio per osservare l'elaborazione dei dati che ha condotto a un passo o a una tavola statistica nel testo pubblicato. In secondo luogo, la natura di libero accesso dei progetti FOSS fornisce un'opportunit di partecipare a individui esterni alla struttura organizzativa; in questo differisce da gran parte dei progetti tradizionali di ricerca scientifica, in genere strettamente controllati e che di solito limitano la partecipazione alle persone associate con una o poche associazioni. In terzo luogo, i diritti garantiti da molte licenze FOSS di duplicare e distribuire liberamente copie della propriet intellettuale (software) sono assai diversi dalle politiche di molte riviste scientifiche, che mantengono il pieno copyright ed esigono che il lettore chieda il permesso prima di poter duplicare [...]. In quarto luogo, la collaborazione al FOSS via Internet potenzialmente aumenta la velocit con cui le innovazioni possono essere pubblicate, in confronto all'editoria standard su carta. I sistemi di peer review in contesti FOSS possono richiedere tempistiche analoghe a quelle dei tradizionali processi di peer review nelle riviste scientifiche, ma l'atto di pubblicare i risultati (per esempio miglioramenti a un modulo di programma) pu velocizzarsi molto di fatto, pu arrivare quasi all'immediatezza una volta completato il processo di peer review (pp. 310-311)

A questo punto risulta chiaro che per concretizzare gli obiettivi sinora enunciati, l'aspetto pi urgente sul quale concentrare gli sforzi quello legato all'individuazione dei giusti incentivi (anche a livello di finanziamento) e delle azioni di governance che siano capaci di garantire la sopravvivenza nel tempo di queste iniziative e offrire adeguate forme di riconoscimento e tutela agli studiosi e scienziati contributori. Dal punto di vista della protezione legale dei contenuti (come vedremo pi avanti 249

nel dettaglio) sono stati gi fatti significativi passi avanti. Nello specifico, grazie al lavoro di Creative Commons, i principi del copyleft applicati da Stallman al software sono stati estesi a qualsiasi forma di propriet intellettuale149, dalle opere musicali o artistiche, ai video, compresi testi e programmi di lezioni educative. Per riferirci al "lavoro scientifico comunicato in una forma diversa dal software" (p. 315), adotteremo l'espressione generica di contenuto libero (open content). Le licenze di contenuto libero rappresentano una grande novit, ma presentano ancora alcune difficolt e problematiche, soprattutto quando ci si trova di fronte alla clausola che concede la possibilit di creare opere derivate dal contenuto originale. In questo caso siamo proiettati in una zona di confine, ben lontana dai parametri che caratterizzano l'editoria tradizionale e in cui il rischio di incorrere nel plagio si fa decisamente concreto. Approfittando del permesso accordato nel testo della licenza, qualcuno potrebbe copiare ampie sezioni del testo di partenza, aggiungere qualcosa, effettuare qualche abile revisione di comodo e aggiungere il proprio nome come coautore dell'articolo. Si tratta di casi limite che per non possono essere trascurati, pena la perdita di valore del significato pi profondo della condivisione della ricerca scientifica, oltre che la svalutazione e l'ingiustizia nei confronti di chi ha speso le proprie conoscenze al servizio della creazione di un bene comune della scienza per vedere in seguito vanificati questi sforzi e "piratato" il proprio lavoro. Un consiglio in tal senso potrebbe essere quello di applicare agli articoli accademici e
149 Ed importante osservare che le persone coinvolte nel Creative Commons hanno recentemente dato vita a un progetto di 'Science Commons', centrato su tre aree: promuovere l'accesso libero alle pubblicazioni scientifiche, sviluppare modelli di licenza standard per facilitare un accesso pi ampio all'informazione scientifica ed esplorare modi per accrescere la condivisione dei dati scientifici [...] (p. 314).

250

scientifici un approccio pi restrittivo, con licenze "No opere derivate", rendere pi efficaci le soluzioni tecniche che consentono di tenere traccia dei contributi degli autori e
incoraggiare comunque altre opzioni come la libera copia e distribuzione di questi articoli, che diffusi via Internet promuoveranno il libero accesso a livello globale e probabilmente consentiranno un'evoluzione pi rapida del campo di ricerca (p. 316).

Ma ritorniamo ora sulla questione cruciale dell'identificazione degli incentivi capaci di innescare e tenere vivo, anche nel settore della comunicazione scientifica, quel tassello indispensabile alla creazione di un bene comune della conoscenza che l'economia del dono. Innanzitutto vale la pena sottolineare come vi sia una netta somiglianza fra gli incentivi che abbiamo visto essere alla base dell'azione dei programmatori FOSS e quelli che guidano le ricerche di scienziati e accademici. Alcuni studi hanno dimostrato che:
molte persone in ambito scientifico e accademico stanno promuovendo un movimento sociale non dissimile da quello di Stallman. Le persone che partecipano a questi programmi ritengono che la conoscenza scientifica sia un bene pubblico, e che dovrebbero essere progettate e sviluppate istituzioni che incoraggino la costruzione e il mantenimento permanente di tale bene pubblico. In secondo luogo, ben prima che emergesse il FOSS, accademici e scienziati avevano gi affinato le proprie capacit con la lettura di materiali pubblicati e altri materiali, e attraverso il processo di peer review dell'editoria scientifica. Di certo molti nella comunit scientifica e nel mondo accademico (dottorandi, docenti giovani e persino docenti anziani) sarebbero disposti ad affinare le proprie capacit attraverso le componenti di apprendimento a distanza come la lettura del "sorgente" (per

251

esempio modelli, articoli e e cos via) e attraverso la peer review con feedback. In terzo luogo, come i programmatori FOSS, docenti e scienziati sono motivati a mostrare le proprie capacit ad altre persone interessate nell'ambito scientifico. Questo particolarmente importante nel caso di giovani scienziati che cercano un lavoro o tentano di conseguire prestigio in vista di una cattedra (p. 317).

Tutte queste ragioni suggeriscono l'attrattiva in termini di segnalazione e apprendimento insita in un bene comune scientifico a contenuto aperto e la conseguente alta probabilit di adesione a esso da parte del mondo scientifico e accademico. Come gi accennato in precedenza, il nodo pi spinoso su cui sciogliere le riserve, soprattutto di fronte alla fluidit e dinamicit del medium digitale, quello legato alla necessit di attribuire in modo chiaro e duraturo ogni opera al suo autore, conservando in tutte le opere derivate la dichiarazione del copyright (e quindi la paternit originaria) ed esplicitando le modifiche e gli aggiornamenti apportati dagli autori successivi. Non si tratta di fare nulla pi di quanto gi avviene nel mondo del software e dell'open source:
estendendo la stessa logica all'idea di beni comuni scientifici basati sul contenuto libero, sar pi probabile che gli scienziati contribuiscano con nuovi contenuti di ricerca, se saranno in grado di mantenere il copyright sulle opere originali allo stesso modo in cui ci riesce un programmatore usando la GPL. Ci significa che occorrer sviluppare meccanismi che alleghino analoghe informazioni sul copyright (magari una licenza Creative Commons) a ogni prodotto della ricerca [...]. In breve, l'infrastruttura costruita per sostenere una collaborazione a contenuto libero nella scienza [...] dovr includere un buon riepilogo storico di come qualcuno ha contribuito nel tempo a un nuovo modulo di modello, a un nuovo articolo derivato [...], a

252

scoperte empiriche o ad altro contenuto relativo al progetto. E sarebbe utile se nella progettazione di un'infrastruttura collaborativa a contenuto libero esistessero delle direttive su come misurare i contributi in base alle informazioni di attribuzione all'autore conservate nel sistema (come la somma di citazioni). [...] Il rischio pi concreto che potrebbe correre uno scienziato o un ricercatore che seguisse le mie proposte che, una volta resi disponibili con modalit open source o con licenza sui contenuti i propri prodotti analitici (per esempio modelli) o anche i dati, potrebbe essere "battuto sul tempo" da qualcun altro che utilizzi questi materiali in un articolo pubblicato su una rivista con peer review o in un libro. una questione di grande importanza per quei ricercatori che non hanno ancora un incarico accademico. Di conseguenza, per far funzionare questa idea nel contesto attuale della cultura scientifica e accademica, vitale collegare i contributi open source e a contenuto libero al processo di pubblicazione con peer review. In altri termini, dobbiamo andare verso quella che io chiamo "una rivista elettronica di nuova generazione" (pp. 318-319).

In questo viaggio in vista dell'estensione del modello dei beni comuni della conoscenza all'impresa scientifica, le questioni relative alle strutture di governo e alle forme di regolamentazione interna da adottare si rivelano altrettanto importanti, poich da esse che dipende gran parte della riuscita e della durata dei commons. Ancora una volta, la pietra di paragone principale ci fornita dal contesto del FOSS:
gli studi condotti su quello che forse uno dei pi grandi (in termini di partecipazione) progetti open source, il sistema operativo Linux, riferiscono che lo sviluppatore principale ha agito come un "dittatore benevolo" che lavorava con un team di "luogotenenti fidati" competenti in un particolare ambito [...]. In alcuni progetti FOSS, gli aspiranti sviluppatori salgono nella gerarchia decisionale lavorando dapprima ai margini del progetto

253

(fornendo resoconti dei bug) e poi, con il tempo, contribuendo sempre pi al mantenimento o allo sviluppo del codice sorgente vero e proprio. [...] nell'estendere il paradigma FOSS alla collaborazione nella ricerca scientifica sarebbero di notevole importanza considerazioni sulla progettazione e composizione del sistema di regole che governa le pratiche operative, sul modo in cui quelle regole sono modificate nel tempo, su chi ha l'autorit di operare questi cambiamenti, e sulle modalit di risoluzione dei conflitti. ipotizzabile che un bene comune della scienza a contenuto libero, che comunichi attraverso un'infrastruttura di rivista elettronica "di nuova generazione", possa in ultima analisi aver bisogno di un organismo di governo che combini componenti della gestione e organizzazione delle riviste professionali di oggi (per esempio un editor e un comitato editoriale) e del modo in cui sono organizzati i progetti FOSS (pp. 321-322).

Infine, ultima ma non in ordine di rilevanza, la questione legata al finanziamento dei beni comuni della scienza, particolarmente pressante se consideriamo la natura volontaria del modello che stiamo cercando di descrivere, in cui l'eventualit di un abbandono o cessazione dei contributi da parte di un attore pu avere conseguenze negative sulla stabilit del bene comune e ripercussioni sull'intera comunit150. Spostandoci dal territorio del software FOSS a
150 "Questo problema ha condotto un professionista del FOSS a commentare, durante un incontro dell'UNESCO a Parigi su questioni legate alla scienza e al pubblico dominio [...], che l'unico modo in cui i progetti FOSS potranno avere successo (in termini di longevit e crescita elevata) sar la sponsorizzazione da parte di un ente pubblico nazionale. Naturalmente, il sostegno del governo non il solo modo in un progetto FOSS pu avere successo; ma il punto fondamentale che con tutta probabilit (almeno per i progetti pi grandi) sar richiesto un certo livello di sostegno finanziario. Probabilmente ci spiega perch, almeno in parte, alcuni dei pi grandi progetti di software FOSS hanno incorporato e creato

254

quello dei beni comuni a contenuto scientifico libero, le domande sono le medesime e concernono l'individuazione della forma di sostegno finanziario pi adatta a compensare tanto l'impegno (in termini di tempo ed energie) messo in campo dai partecipanti al progetto, quanto i costi necessari al mantenimento dell'infrastruttura che rende disponibile il bene comune e ne coordina le attivit 151. Come evidenzia l'autore:
la transizione da una rivista cartacea a una rivista elettronica basata sul web pu far risparmiare qualcosa (se non altro i costi della stampa), ma la struttura di peer review in un bene comune della scienza basato sul contenuto libero, in cui gli elaborati da valutare hanno un'ottica pi ampia [...] far sicuramente aumentare l'investimento di tempo richiesto da revisori ed editor di varie componenti e i costi di queste attivit. Resta aperta la domanda se gli editori di riviste tradizionali che seguono un modello di sottoscrizioni per cui "l'utente paga" e adottano una filosofia di "tutti i diritti riservati" sarebbero disposti a migrare verso una strategia di licenze a contenuto libero. Nell'editoria tradizionale in cui l'abbonato paga, il contenuto una serie di
fondazioni [...]. E in effetti, nell'ambito del software open source, si trovano progetti che rientrano in una variet di schemi di sostegno finanziario non solo da parte del governo tra cui: il modello di sussidio governativo; finanziamento filantropico; consorzi di aziende; investimenti da parte di aziende; capitale di rischio/banche d'investimenti; donazioni da parte di partecipanti o utenti; o un ibrido/combinazione di questi. Si potrebbe ipotizzare che il successo a lungo termine di alcuni progetti FOSS di alto profilo sia il risultato dell'impegno da parte di aziende coma la IBM o la Sun Microsystems, che pagano dipendenti della propria organizzazione per contribuire a questi sforzi [...]" (p. 323). 151 Come evidenzia Schweik, un problema che potrebbe incombere sui commons della scienza potrebbe essere quello legato alla "tendenza da parte delle universit a trattare le idee generate dai loro docenti come beni privati o di "club", su cui possibile capitalizzare in un mercato" (p. 324).

255

manoscritti trattato come un bene di club, ed cos che queste aziende ottengono un reddito. L'idea di accesso libero e di distribuzione gratuita attraverso licenze a contenuto libero contraddice direttamente questo modello. Ma la domanda da porsi piuttosto simile alla questione del perch un'azienda come l' IBM possa decidere di partecipare a progetti open source, e cio: nel contesto di un software open source, che cos' che produce reddito e lo rende un modello di business valido? Non ho fonti da citare per sostenerlo, ma dopo aver discusso la questione con alcuni professionisti del settore, la mia impressione che parte della redditivit si stia allontanando dal software come prodotto, spostandosi verso un ruolo pi simile al supporto o al servizio. Questo fa sorgere un'altra domanda: si potrebbe creare un modello alternativo per la pubblicazione di riviste elettroniche che sostenga un bene comune scientifico basato sul contenuto libero e che fornisca anche alcuni servizi che generino reddito? (p. 325).

I beni comuni della conoscenza: scongiurare una tragedia e riappropriarsi delle risorse pi preziose per il futuro della democrazia e della civilt Prima di addentrarci ulteriormente e passare dall'analisi dello strato del codice e al nucleo vero e proprio dei contenuti, utile sospendere momentaneamente il corso della nostra trattazione e introdurre un concetto chiave, che si riveler necessario a ottenere uno sguardo d'insieme sulla materia che stiamo descrivendo. Il livello fisico s un fondamentale ingrediente di un sistema di comunicazione e la sua natura libera pone le basi per l'apertura dell'intero network; ma evidente che quando ci riferiamo a cavi e fili stiamo parlando di qualcosa di molto lontano dall'immagine che abbiamo della conoscenza e del sapere. Anche l'hardware e il substrato 256

materiale sono frutto di un processo creativo denso di studi e sforzi, ma si tratta pur sempre di uno strato di premesse al di sopra delle quali ci aspettiamo di veder innalzato il grande edificio della produzione culturale umana, che punta a fissare e conservare i pensieri e le grandi costruzioni teoriche, le formule e i principi matematici accanto alle opere d'arte della letteratura e delle arti, mantenendo al tempo stesso traccia di tutte le mode, velleit passeggere e semplici divertissement che fanno da paio alle conquiste intellettuali e a conti fatto sono in grado di raccontare altrettanto bene il clima e la "temperatura" di un'epoca e di un periodo storico. Questa sezione volta ad affrontare e approfondire un campo di studi ancora poco diffuso nel nostro Paese, per il quale ci richiameremo alla tradizione giuridica anglosassone e in particolar modo ad una raccolta di saggi curata da Charlotte Hess ed Elinor Ostrom (2007), quest'ultima premio Nobel per l'economia 2009. Questo lavoro costituisce una pietra miliare della letteratura sul tema dei beni comuni (commons) e offre una sintesi di punti di vista, idee e proposte maturate nel corso del Workshop sulla comunicazione scientifica come bene comune tenutosi nel 2004.
L'obiettivo primario dell'incontro era la produzione di saggi che potessero fornire ad altri studiosi, ai ricercatori e ai professionisti che creano risorse digitali e influenzano le politiche in tale materia un quadro generale dello stato attuale delle ricerche sulla comunicazione culturale scientifica come bene comune, un'idea della direzione in cui quelle ricerche si muovono e la consapevolezza dei dilemmi critici e delle questioni politiche implicate. Abbiamo volutamente riunito un gruppo di studiosi capaci di affrontare problemi sia teorici sia empirici: ovvero, in grado di fondare su una sintesi organica della teoria e della prassi attuali la discussione sulle ricerche e l'azione futura (Hess,

257

Ostrom 2007, p. L).

Sempre nelle parole delle due autrici, nella prefazione chiarito come:
il gruppo si prefiggeva di integrare prospettive che nel dibattito sulla comunicazione culturale e scientifica risultano di frequente isolate: i diritti di propriet intellettuale; la tecnologia dell'informazione (che include l'hardware, il software, il codice l'open source, le infrastrutture); le biblioteche tradizionali; le biblioteche digitali; l'invenzione e la creativit; la scienza collaborativa; i processi democratici e di cittadinanza; l'azione collettiva; l'economia dell'informazione; la gestione, diffusione e preservazione della documentazione scientifica e accademica (p. LI).

Prima di soffermarci sull'analisi della conoscenza, quale "risorsa condivisa" ed "ecosistema complesso" (p. 3) sar bene introdurre il concetto protagonista del presente capitolo. Tradizionalmente con il termine "beni comuni" (commons) ci si riferiti a delle risorse naturali condivise da un gruppo di pi o meno ampio di persone152. Come chiarisce in modo esaustivo Paolo Ferri, nell'introduzione all'edizione italiana del libro della coppia Hess-Ostrom (2007):

152 "La risorsa pu essere piccola e servire a un gruppo ristretto (il frigorifero di famiglia), pu prestarsi all'utilizzo di una comunit (i marciapiedi, i parchi giochi, le biblioteche ecc.), oppure pu estendersi a livello internazionale o globale (i fondali marini, l'atmosfera, Internet e la conoscenza scientifica). I beni comuni possono essere ben delimitati (come nel caso di un parco pubblico o una biblioteca), possono attraversare confini e frontiere (il fiume Danubio, gli animali che migrano, Internet), oppure possono essere privi di confini delimitati (la conoscenza, lo strato di ozono)" (pp. 5-6).

258

la nozione di "beni comuni" identifica, perci, tutti quei beni materiali e immateriali l'ambiente, le foreste, il mare come ecosistema e come territorio di pesca, le acque interne, le infrastrutture e i servizi di pubblica utilit ma anche immateriali la fiducia sociale, la solidariet, la sicurezza e ovviamente la conoscenza (su supporto analogico e digitale) che costituiscono un patrimonio collettivo di una comunit e il cui sfruttamento deve essere regolato, per impedire che queste risorse comuni, a causa del depauperamento indiscriminato a opera di questo o quel soggetto, si esauriscano (p. XXIII).

Adottare un approccio di questo tipo "significa assumere un punto di vista pi olistico, allo scopo di valutare quale sia il modo migliore per gestire una risorsa" (Bollier, in Hess-Ostrom 2007, p. 30). Dobbiamo riconoscere che al momento:
in corso una rivoluzione silenziosa: un numero sempre maggiore di attivisti, studiosi, ambientalisti, programmatori di software, utenti di Internet, ricercatori nel campo delle biotecnologie, delle zone di pesca e in molti altri ambiti si mostrano insoddisfatti della definizione standard di mercato. Sono scettici sul fatto che rigidi diritti di propriet e scambi economici siano l'unico modo per gestire efficacemente una risorsa; ci particolarmente vero nel contesto di Internet, dove copiare e condividere le informazioni estremamente facile e poco costoso. Inoltre sempre pi persone esprimono preoccupazione di fronte alla tendenza del mercato di considerare ogni cosa come una merce in vendita. Le informazioni genetiche sono ormai brevettate di routine, le riserve di acqua dolce vengono acquistate dalle multinazionali e intere citt sono state messe in vendita su eBay. Poich la teoria del mercato postula che la "ricchezza" si crea quando alle risorse sono assegnati diritti di propriet privata e prezzi, spesso questa teoria incontra difficolt nel rispettare il valore effettivo delle risorse inalienabili. [...] In questo contesto, il linguaggio dei beni comuni svolge un ruolo

259

importante in quanto fornisce un modello alternativo coerente per allineare al meglio i temi economici, sociali ed etici. in grado di parlare dell'inalienabilit di certe risorse e dell'importanza di proteggere gli interessi della comunit. I beni comuni colmano una lacuna teorica, spiegando come si possa creare valore significativo e sostenerlo anche al di fuori del sistema del mercato. Il paradigma dei beni comuni non si rivolge primariamente a un sistema di propriet, contratti e mercati, ma a norme e regole sociali e a meccanismi legali che permettono alle persone di condividere la propriet e il controllo delle risorse. [...] In questo senso, i beni comuni sono una forma culturale nuova (cio riconosciuta di recente) che si svela progressivamente davanti a noi (pp. 31-32).

In tal senso i beni comuni rappresentano una sorta di "terza forza nella vita politica per esprimere i propri interessi al di sopra e contro quelli del mercato e dello Stato" (p. 37); se i fautori del mercato promuovono l'ingresso della legge nel controllo di materie cos "vive" (ib.), d'altra parte
i fautori dei beni comuni obiettano invece che tali elementi innati della natura l'ereditariet, le informazioni genetiche, l'ambiente, le specie animali, l'atmosfera siano un'eredit comune a tutta l'umanit; da un punto di vista etico, questi beni appartengono a tutti (posto che debbano essere controllati dagli umani), e quindi vanno considerati beni comuni. Ci accade perch il linguaggio del mercato e della propriet privata tende a ragionare in termini di valore di scambio e di prezzo, non della "cosa-in-s". La visione del mondo insita nel discorso economico tratta le risorse naturali come essenzialmente fungibili, e ritiene che alla scarsit si possa rimediare aumentando i prezzi. L'economia tende a considerare la natura come una risorsa oggettiva da sfruttare e governare secondo la legge della domanda e dell'offerta, non come una forza vitale con cui gli esseri umani dovrebbero forse interagire in base a criteri diversi. Quindi per quanto utili possano

260

rivelarsi in alcune aree le politiche basate sul mercato, il sistema del mercato nel suo complesso non tende spontaneamente a preservare la natura (p. 38).

Ovviamente in un quadro del genere rientrano anche questioni relative ai diritti di propriet e ai regimi di controllo adottati, per cui:
ogni societ ha risorse che sono libere e risorse che sono controllate. Le risorse libere sono quelle disponibili a poter essere prese; controllate sono quelle per il cui uso bisogna ottenere il permesso di qualcuno. La teoria della relativit di Einstein una risorsa libera. Puoi prenderla e usarla senza il permesso di nessuno. L'ultimo alloggio di Einstein a Princeton, nel New Jersey, una risorsa controllata. Dormire all 112 di Mercer Street richiede il permesso dell'Institute for Advanced Studies (Lessig 2006, p. 18).

Come ben sanno gli esperti di pubblicit e come di fatto possiamo renderci conto osservando chi ci circonda e attuando una rudimentale auto-analisi, le etichette che rimandano ai concetti di "gratuit" e "libert" (intesa come assenza di prezzo) sono in grado di fare miracoli e accendere immediatamente l'immaginario collettivo. Spesso per ci si sofferma sulla superficie delle parole, senza ragionare sul loro significato profondo e cadendo in fraintendimenti e visioni riduttive e appiattite della realt. Come spiega Anderson (2009) in un testo completamente dedicato all'argomento:
Gratis pu significare molte cose, e ha assunto accezioni diverse nel corso degli anni. un'idea che fa sorgere sospetti, ma ha il potere di attirare l'attenzione come poche altre. [...] Nelle lingue neolatine, come il francese, lo spagnolo o l'italiano, il concetto pi lineare perch non viene espresso da una singola

261

parola ma da due parole diverse: una derivata dal latino liber (libero) e l'altra da gratis (contrazione di gratiis, per ringraziare, quindi senza ricompensa o a prezzo zero). In spagnolo, per esempio, libre una buona cosa (libert di parola eccetera) mentre gratis fa nascere il sospetto di un trucco di marketing. In inglese, per, queste due parole sono riunite in una, free. un vantaggio per il marketing: le connotazioni positive di libert implicite nella parola free abbassano le nostre difese di fronte ai trucchetti usati da chi vuol venderci qualcosa (p. 23).

La materia a cui interessata la nostra tesi la libert che caratterizza le risorse aperte, l'utilizzo delle quali non sottoposto a controlli, oppure soggetto ad autorizzazioni che per sono concesse in modo neutro e non discriminatorio. In alcuni casi l'elemento libero che connaturato ai beni di questo tipo accompagnato dall'ulteriore attributo della gratuit economica ( questo il caso dei contenuti di Wikipedia, che possono essere visualizzati senza dover pagare nulla e che chiunque libero di creare e modificare), ma non si tratta di una regola universale. Pu sembrare banale, ma questa differenza semantica una ragione ulteriore per sgombrare il campo dagli equivoci. Vale la pena infatti ribadire la fondamentale differenza di ideali, valori e prospettive, che sussiste tra una birra gratis (free beer) e una conquista purtroppo ancora oggi negata a molte popolazioni del mondo quale la libert di parola (free speech); tra il processo di crescita delle idee continuo e partecipativo, favorito dalla Free Software Foundation da una parte e le formule 3x2 tipiche di un qualsiasi supermercato. Dopo aver ribadito questo intento, giunto il momento di entrare nel vivo del discorso intorno alla categoria peculiare di beni comuni protagonista del testo di Hess-Ostrom (2007), un campo d'indagine forse ancora in fase di sviluppo, ma che si rivela essere ormai una questione 262

ineludibile e all'ordine del giorno nella nostra realt contemporanea. "Questo teatro, per quanto bellissimo, se vuoto, un luogo morto"153 In tal senso, richiamandoci al recente passato e all'attualit, vogliamo accennare a due questioni che hanno acceso anche nel nostro paese l'attenzione e il dibattito pubblico sui beni comuni. Ci stiamo riferendo ai due referendum sull'acqua sui quali gli italiani furono chiamati a esprimere il proprio voto nelle date del 12 e 13 giugno 2011 e all'occupazione (casualmente avviata proprio a partire dal 14 giugno dello stesso anno e tutt'ora in corso) del Teatro Valle di Roma. Con la Legge 133/2008 veniva convertito un decreto-legge del 25 giugno del 2008, "recante disposizioni urgenti per lo sviluppo economico, la semplificazione, la competitivit, la stabilizzazione della finanza pubblica e la perequazione tributaria"154. Uno dei nodi pi controversi del testo legislativo, accanto ai punti riguardanti la riforma della scuola e dell'universit, era quello espresso dall'articolo 23-bis, relativo alla disciplina in materia di affidamento e gestione dei servizi pubblici locali di rilevanza economica, "in applicazione della disciplina comunitaria e al fine di favorire la pi ampia diffusione dei principi di concorrenza, di libert di stabilimento
153 Citazione tratta da un intervento del giurista Ugo Mattei (professore di diritto civile all'Universit di Torino; autore fra l'altro del testo Beni comuni, un manifesto, 2011, Roma-Bari, Laterza), durante un'assemblea cittadina tenutasi durante l'occupazione del Teatro Valle di Roma. Il video pu essere visualizzato su YouTube ai seguenti indirizzi: http://www.youtube.com/watch?v=732TP9wTtXQ (parte I) e http://www.youtube.com/watch?v=uo4hq95yauI&feature=relmfu (parte II). 154 Per il testo integrale, rimandiamo al documento consultabile all'indirizzo web http://www.camera.it/parlam/leggi/08133l.htm.

263

e di libera prestazione dei servizi di tutti gli operatori economici interessati alla gestione di servizi di interesse generale in ambito locale, nonch di garantire il diritto di tutti gli utenti all'universalit ed accessibilit dei servizi pubblici locali ed al livello essenziale delle prestazioni". Come espresso al secondo comma dell'articolo, "il conferimento della gestione dei servizi pubblici locali avviene, in via ordinaria, a favore di imprenditori o di societ in qualunque forma costituite, individuati mediante procedure competitive ad evidenza pubblica, nel rispetto dei principi del Trattato che istituisce la Comunit europea e dei principi generali relativi ai contratti pubblici e, in particolare, dei principi di economicit, efficacia, imparzialit, trasparenza, adeguata pubblicit, non discriminazione, parit di trattamento, mutuo riconoscimento, proporzionalit". Mentre il comma 5, pur ribadendo la propriet pubblica delle reti, afferma la possibilit che la gestione delle stesse possa essere affidata a soggetti privati (addirittura, nel caso tale scelta risulti economicamente vantaggiosa, la legge consente l'affidamento simultaneo con gara di una pluralit di servizi pubblici locali). L'intento del dettato normativo era quello di imprimere, anche in materia di servizi pubblici e quindi nel settore dei rifiuti, trasporti, energia elettrica e gas, nonch in materia di acqua una svolta liberalizzatrice 155 capace di allargare il mercato e far crescere l'economia. Altro punto cruciale (anche se meno rilevante ai fini della nostra analisi) era rappresentato dall'articolo 154 del decreto legislativo 152/2006, relativo alla "tariffa del servizio
155 Argomento ancora oggi molto controverso e tutt'altro che risolto: basti pensare all'ondata di proteste e serrate che ha caratterizzato tutta la penisola italiana, portata avanti dai lavoratori delle categorie i cui interessi risultavano maggiormente colpiti dal decreto-legge 1/2012, ribattezzato "Cresci Italia", finalizzato a favorire "la concorrenza, lo sviluppo delle infrastrutture e la competitivit".

264

idrico integrato"156, in base al quale veniva concesso al gestore di ottenere profitti garantiti sulla tariffa, come remunerazione del capitale investito e senza alcun collegamento a qualsiasi logica di reinvestimento per il miglioramento qualitativo del servizio. I sostenitori del s per l'acqua come bene pubblico consideravano in particolare questo articolo come una sorta di "cavallo di Troia", capace di favorire l'ingresso dei privati nella gestione dei servizi idrici e di conseguenza la possibilit di trarre profitti sull'acqua. L'obiettivo dichiarato del comitato promotore per il referendum era quello di abrogare questi articoli, riaffermando l'universalit di un bene comune come l'acqua, considerato al tempo stesso come un diritto umano essenziale, appartenente a tutti i cittadini. Il motto "due s per dire no" aveva lo scopo di sensibilizzare l'opinione pubblica affinch esprimesse il suo rifiuto nei confronti di norme attraverso le quali il Governo avrebbe di fatto consegnato questo bene primario nelle mani dei privati e delle grandi multinazionali157. Nonostante il referendum del giugno 2010 non riscosse un elevato livello di partecipazione (circa il 54,8% degli aventi diritto al voto), le ragioni del s registrarono un risultato quasi plebiscitario (la percentuale dei s fu rispettivamente del 95,35% per il primo quesito e del 95,8% per il secondo). Se nel caso dell'acqua evidente il richiamo a quella grande categoria delle risorse naturali condivise da una comunit al pari dell'aria che respiriamo, di un pascolo o di un bacino di
156 Anche in questo caso rimandiamo al testo completo del decreto legislativo, di cui si pu prendere visione all'indirizzo web http://www.camera.it/parlam/leggi/deleghe/06152dl2.htm#109. 157 Per ulteriori dettagli rimandiamo a http://www.referendumacqua.it/ e http://www.acquabenecomune.org/raccoltafirme/index.php, indirizzi internet in cui sono enunciate nel dettaglio le motivazioni e le diverse tappe che hanno condotto al referendum sull'acqua come bene comune.

265

pesca l'altra forma di protesta cui abbiamo accennato in precedenza risulta pi sottile e del tutto affine al nuovo modo di guardare alla conoscenza come bene comune, nucleo della nostra argomentazione e tema centrale di molti degli autori in essa citati. Prima di entrare nel vivo dell'analisi dell'azione che ha portato all'occupazione del Teatro Valle di Roma per doveroso approfondire ulteriormente alcuni punti. Il movimento TQ158 per esempio si recentemente espresso a proposito della necessit di valorizzare la funzione civile e costituzionale159 del nostro patrimonio artistico. Non solo:
il patrimonio di propriet pubblica deve essere mantenuto con denaro pubblico: esattamente come le scuole o gli ospedali pubblici. Fatti salvi i principi generali di competenza [] potranno ammettersi al pi concorsi privati di finanziamenti, di
158 Si tratta di un movimento nato nel 2011 (http://www.generazionetq.org/) su iniziativa di un gruppo di lavoratrici e lavoratori della conoscenza (scrittori, critici, editori, editor, giornalisti, storici, artisti, musicisti, insegnanti, ricercatori, ecc.) che cercano di andare oltre la linea d'ombra oggi dilagante, riaffermare il proprio impegno di cittadini e portare avanti forme di attivismo intellettuale che siano in grado di contrastare il ristagno culturale e politico che caratterizza il nostro Paese. 159 Ci stiamo riferendo alla parte del manifesto di TQ relativa al patrimonio storico-artistico e archeologico, pubblicata il 4 aprile 2012 sul sito del movimento e disponibile al seguente link: http://www.generazionetq.org/2012/04/04/manifesto-tq5-sul-patrimoniostorico-artistico-e-archeologico/. qui che leggiamo come: "Occorre dire che il patrimonio non un lusso per i ricchi n un mezzo per intrattenersi nel 'tempo libero', ma al contrario serve allaumento della cultura ed un importante strumento per la rimozione degli 'ostacoli di ordine economico e sociale che impediscono il pieno sviluppo della persona umana' e per lattuazione piena delleguaglianza costituzionale. E occorre anche dire che, dunque, il suo fine non quello di produrre reddito. Che, cio, il patrimonio storico e artistico della nazione NON il petrolio dItalia".

266

controllata finalizzazione costituzionale. Il patrimonio di propriet pubblica deve rimanere tale: e sono dunque inammissibili le alienazioni di sue parti a privati. Esso non deve essere privatizzato nemmeno moralmente o culturalmente attraverso prestiti, noleggi, appalti gestionali esclusivi o cessioni temporanee che di fatto ne sottraggono alla collettivit il governo, immancabilmente socializzandone le perdite (in termine di conservazione e di degrado culturale) e privatizzandone gli eventuali utili. [] Il patrimonio appartiene alla nazione italiana (e in un senso pi lato esso un bene comune allintera umanit), e anzi la rappresenta e la struttura non meno della lingua. per questo che il sistema di tutela deve rimanere nazionale e statale, e non pu essere regionalizzato o localizzato. [] Il patrimonio propriet di ogni cittadino (non pro quota, ma per intero) senza differenze di credo religioso. Il patrimonio, cio, laico: ed tale anche quello religioso e sacro. In altre parole, al significato sacro delle grandi chiese monumentali italiane si sovrapposto un significato costituzionale e civile che, non negando il primo, impedisce alla gerarchia ecclesiastica di disporre a suo arbitrio di tali porzioni del patrimonio stesso. [] Il patrimonio che abbiamo ereditato dalle generazioni passate e che dobbiamo trasmettere a quelle future (e del quale dobbiamo render conto a tutta lumanit) deve rimanere affidato ad una rete di tutela che obbedisca alla Costituzione, alla legge, alla scienza e alla coscienza, e non pu cadere nella disponibilit delle autorit politiche che decidono a maggioranza. Ogni forma del plebiscitarismo ormai largamente invalso nel Paese appare, infatti, particolarmente pericolosa se applicata al patrimonio160.

I firmatari ribadiscono inoltre il carattere coestensivo e globale del patrimonio storico e artistico italiano, i cui beni non possono essere considerati alla stregua di capolavori 'assoluti' (cio, letteralmente, 'sciolti' da ogni rete di rapporti significanti) (ib.), ma devono essere valutati in un quadro pi
160 Vedi nota 154.

267

ampio, che tenga conto del rapporto di unit indissolubile che essi intrattengono con l'ambiente circostante161. Questo manifesto ci permette di entrare nel vivo della questione relativa ai beni comuni, quelle risorse funzionali all'esercizio di diritti fondamentali e al libero sviluppo della personalit, che devono essere salvaguardati sottraendoli alla logica distruttiva del breve periodo, proiettando la loro tutela nel mondo pi lontano, abitato dalle generazioni future162. Per quanto a prima vista la differenza possa apparire minima, se non addirittura irrilevante, quando parliamo di beni comuni abbiamo in mente qualcosa che non pu essere ricondotto al concetto di bene pubblico. Come scrive Stefano Rodot:
proprio la dimensione collettiva scardina la dicotomia pubblicoprivato, intorno alla quale si venuta organizzando nella modernit la dimensione proprietaria. Compare una dimensione diversa, che ci porta al di l dell'individualismo proprietario e della tradizionale gestione pubblica dei beni. Non un' altra forma di propriet, dunque, ma l' opposto della propriet, com' stato detto icasticamente negli Stati Uniti fin dal 2003. Di questa prospettiva vi traccia nella nostra Costituzione che, all'articolo
161 Nel loro manifesto, i membri di TQ sostengono inoltre la necessit di un generale ripensamento della formazione delle figure chiamate a operare nell'ambito della tutela materiale e morale del patrimonio artistico, a partire da una messa in discussione dei corsi e delle facolt di Beni culturali. Il cambiamento auspicato passa anche attraverso la restituzione di dignit e utilit intellettuali alla presenza della storia dell'arte sui media italiani, che oggi sta invece andando incontro a delle preoccupanti derive commerciali, considerata come un prodotto merceologico fra i tanti e sottoposta pertanto alle medesime logiche di marketing e sfruttamento. 162 Riferimento a un articolo online de La Repubblica, firmato da Stefano Rodot e pubblicato il 5 gennaio 2012, disponibile al link http://ricerca.repubblica.it/repubblica/archivio/repubblica/2012/01/05/ilvalore-dei-beni-comuni.html.

268

43, prevede la possibilit di affidare, oltre che ad enti pubblici, a comunit di lavoratori o di utenti la gestione di servizi essenziali, fonti di energia, situazioni di monopolio. Il punto chiave, di conseguenza, non pi quello dell'appartenenza del bene, ma quello della sua gestione, che deve garantire l' accesso al bene e vedere la partecipazione di soggetti interessati. I beni comuni sono a titolarit diffusa, appartengono a tutti e a nessuno, nel senso che tutti devono poter accedere a essi e nessuno pu vantare pretese esclusive. Devono essere amministrati muovendo dal principio di solidariet. Indisponibili per il mercato, i beni comuni si presentano cos come strumento essenziale perch i diritti di cittadinanza, quelli che appartengono a tutti in quanto persone, possano essere effettivamente esercitati. Al tempo stesso, per, la costruzione dei beni comuni come categoria autonoma, distinta dalle storiche visioni della propriet, esige analisi che partano proprio dal collegamento tra specifici beni e specifici diritti, individuando le modalit secondo cui quel patrimonio comune si articola e si differenzia al suo interno 163.
163 Subito dopo Rodot si esprime al riguardo a proposito delle peculiarit che caratterizzano i beni comuni di internet: Se, ad esempio, si considera la conoscenza in Rete, uno dei temi centrali nella discussione, ci si avvede subito della sua specificit. Luciano Gallino ne ha giustamente parlato come di un bene pubblico globale. Ma proprio questa sua globalit rende problematico, o improponibile, uno schema istituzionale di gestione che faccia capo ad una comunit di utenti, cosa necessaria e possibile in altri casi. Come si estrae questa comunit dai miliardi di soggetti che costituiscono il popolo di Internet? Di nuovo una sfida alle categorie abituali. La tutela della conoscenza in Rete non passa attraverso l'individuazione di un gestore, ma attraverso la definizione delle condizioni d' uso del bene, che deve essere direttamente accessibile da tutti gli interessati, sia pure con i temperamenti minimi resi necessari dalle diverse modalit con cui la conoscenza viene prodotta. Qui, dunque, non opera il modello partecipativo e, al tempo stesso, la possibilit di fruire del bene non esige politiche redistributive di risorse perch le persone possano usarlo. il modo stesso in cui il bene viene costruito a renderlo accessibile a tutti gli interessati.

269

Proprio l' osservazione della realt italiana ci offre esempi del modo in cui la logica dei beni comuni cominci a produrre effetti istituzionali. Il comune di Napoli ha istituito un assessorato per i beni comuni; la Regione Puglia ha approvato una legge, pur assai controversa, sull'acqua pubblica; la Regione Piemonte ne ha approvata una sugli open data, sull'accesso alle proprie informazioni; in Senato sono stati presentati due disegni di legge sui beni comuni e vi sono proposte regionali, come in Sicilia. Si sta costruendo una rete dei comuni ed una larga coalizione sociale lavora ad una Carta europea. Quel che unifica queste iniziative la loro origine nell'azione di gruppi e movimenti in grado di mobilitare i cittadini e di dare continuit alla loro presenza. Una novit politica che i partiti soffrono, o avversano. Ancora inconsapevoli, dunque, del fatto che non siamo di fronte ad una questione marginale o settoriale, ma ad una diversa idea della politica e delle sue forme, capace non solo di dare voce alle persone, ma di costruire soggettivit politiche, di redistribuire poteri. un tema "costituzionale", almeno per tutti quelli che, volgendo lo sguardo sul mondo, colgono l' insostenibilit crescente degli assetti ciecamente affidati alla legge naturale dei mercati164.

Come afferma il professor Ugo Mattei infatti,


la cosa importante quando si riflette sulla nozione di bene comune l'uscita da una logica di tipo puramente aziendalistico e mercificatorio, una logica meccanicistica, una logica che estranea il soggetto rispetto all'oggetto e si entra viceversa in una logica della condivisione, che di per s logica ecologica e logica di lungo periodo. [...] quando tu consegni l'acqua, cos come quando tu consegni un teatro non molto diverso a una societ per azioni privata, avente come scopo quello di fare dei profitti e degli utili, consegni questo bene comune ad una logica che una logica necessariamente di profitto e di breve periodo. Ed una
164 Vedi nota 157.

270

logica che incompatibile con determinate esperienze del vivere insieme. [...] una logica che si fa carico di quelli che sono interessi della riproduzione e non soltanto interessi della produzione165.

Come gi accennato, possiamo ora entrare nel vivo di un movimento che costituisce un caso inedito nel panorama italiano, "un percorso di lotta che, evidenziando lo stato di emergenza in cui verte il sistema culturale italiano, ha assunto poi carattere costituente"166, culminato nell'occupazione del Teatro Valle, un luogo di grandissima importanza storica e valore culturale, non solo per la citt di Roma ma per tutto il nostro Paese. La causa scatenante tutto ci pu essere fatta risalire alla soppressione in seguito al decreto-legge 78 del 31 maggio 2010167 dell'Ente Teatrale Italiano (ETI), un ente senza fini di lucro istituito con lo scopo di promuovere e diffondere lo spettacolo e le attivit teatrali (in particolare la prosa, la musica e la danza), nato nel 1942, in pieno periodo di guerra, quando i contenuti delle diverse manifestazioni della cultura italiana erano ispirate dalle ragioni della propaganda fascista con la supervisione del Ministero della Cultura Popolare. Ci
165 Dichiarazioni sbobinate dal video di cui alla nota 17: sia dal punto di vista della punteggiatura, che per quanto riguarda la scelta dei corsivi, le scelte sono del tutto personali, mosse dall'intento esclusivo di adattare alla pagina scritta l'enfasi e le pause caratteristiche del parlato. 166 Sono gli stessi occupanti ad adottare questa definizione nella sezione "Chi siamo" del sito http://www.teatrovalleoccupato.it/chi-siamo, che rappresenta un'utile strumento tanto per conoscere gli ultimi sviluppi quanto le origini dell'occupazione. 167 Tale decreto, recante "misure urgenti in materia di stabilizzazione finanziaria e di competitivit economica", ha soppresso alcuni enti statali ritenuti inutili, tra cui l' ETI, trasferendo i compiti e le attribuzioni di quest'ultimo al Ministero per i Beni e le Attivit Culturali (in particolare alla Direzione Generale per lo Spettacolo dal Vivo).

271

che stato stabilito dalla manovra finanziaria del Governo in realt emblematico dello stato in cui gi da alcuni anni versa l'arte e la cultura in Italia. Il principale volano di ogni sviluppo, tanto dei singoli quanto ancor pi della collettivit, questi "motori immateriali" fatti di idee e creativit che avrebbero bisogno al pari di tanti altri settori produttivi di investimenti e risorse proprio perch grazie a essi che l'intera societ e la stessa economia possono crescere e progredire ebbene risultano sempre le vittime designate di qualsiasi intervento finalizzato alla riduzione delle spese e al risanamento del bilancio. Per usare le parole di Fabrizio Gifuni 168, stiamo assistendo a un vento col quale non possibile ragionare, poich nella natura del vento il fatto che quando si alza non ce ne sia pi per nessuno. Ed questo un vento che si traduce in politiche che guardano solo all'immediato presente e ignorano la reale portata di scelte le cui conseguenze potrebbero gravare sul futuro delle generazioni pi giovani. I giri di vite e i tagli ai finanziamenti che colpiscono la scuola, l'universit e l'intero panorama culturale del nostro Paese sacrificano un patrimonio unico e non recuperabile, in vista di vantaggi privati effimeri e riservati a pochi, senza accorgersi che la chiusura di teatri, musei e di qualsiasi altra centrale del sapere non fine a se stessa, ma equivale a una pi ampia "chiusura di teste", riduzione dell'esercizio della ragione, del dibattito e del pensiero critico. Continuiamo ad aggiungere stanze e ad aumentare il numero di piani dell'edificio della
168 Questo intervento, insieme a quello di altri artisti (tra cui Silvio Orlando, Roberto Benigni, Andrea Camilleri ed Elio Germano), pu essere visualizzato in uno dei numerosi video dedicati alla protesta disponibilicaricabili su YouTube che, combinando immagini e dichiarazioni, ripercorrono i momenti principali che hanno portato alla nascita del presidio fisso al Teatro Valle. In tal senso rimandiamo al link http://www.youtube.com/watch?v=p2DnYUoe5do&feature=related.

272

nostra societ, senza accorgerci che le fondamenta su cui esso poggia sono sempre pi precarie e trascurate. alla luce di queste considerazioni, e in vista della riaffermazione dei propri diritti, che "le Lavoratrici e i Lavoratori dello Spettacolo, del cinema, del teatro e della danza; artisti, tecnici e operatori, stabili, precari e intermittenti" hanno dato vita all'occupazione del Teatro Valle di Roma. "Questo gruppo eterogeneo di attori, studenti delle scuole di teatro e di cinema, volti noti e meno noti, dai vent'anni in su, fermamente convinti che un'altra organizzazione teatrale sia possibile" (Martellini 2012, p. 17) si sente escluso dai luoghi e dalle dinamiche in cui si decide e si progetta la politica culturale e, al grido di "Come l'acqua, come l'aria, riprendiamoci il Valle", sta cercando di ribadire e portare all'attenzione generale il problema della privatizzazione dei beni comuni. Come leggiamo nel sito web dell'iniziativa, l'obiettivo quello di "far crescere un'altra concezione della vita e dell'arte". "Il teatro una cosa di tutti; il teatro della citt, appartiene a tutti, per cui un diritto della popolazione vivere nel teatro" sottolinea Elio Germano, a testimonianza di quello che dovrebbe essere il valore universale dei beni comuni, che sono un qualcosa che appartiene a tutti quanti, ma emergono soltanto nel momento in cui un numero significativo di persone ne prende coscienza e lotta per farli valere. Ma quella del Valle non solo una vicenda appassionante, un esempio isolato di cittadinanza attiva ed esercizio dell'impegno civile partito dal basso, che stato capace di attirare l'attenzione del grande pubblico (pensiamo alle oltre 23.700 persone che hanno firmato l'appello lanciato dagli occupanti); la vicenda che ha come protagonista il gioiello architettonico settecentesco anche una "questione ingarbugliata" (ib.) che si spinta oltre i limiti della legalit. "La brutale realt" (ib.) risiede nel fatto che lo spazio stato 273

occupato abusivamente,
e il Comune, tanto per dirne una, potrebbe da un giorno all'altro stancarsi di pagare le utenze, e chiudere i rubinetti. Per non parlare del rischio sgombero. Nessuno avr mai il coraggio, certo: il Valle diventato un simbolo ben oltre i confini nazionali. Gli occupanti mostrano orgogliosi l'appoggio dell'Unione dei Teatri d'Europa, di Ariane Mnouchkine del Theatre du Soleil, del regista-star berlinese Thomas Ostermaier. Ma non basta per spazzare via la cappa dell'illegalit (ib.).

Il punto di vista degli occupanti chiaro e pu essere condensato nel pensiero espresso da Andrea Camilleri, il quale afferma che "come gli operai occupano le fabbriche, trovo giusto che vengano occupati i teatri". Si tratta di un'azione forte, una modalit di lotta che frutto di esasperazione e che nasce dalla presa di coscienza della mancanza di interlocutori e dalla divergenza sulle strade da intraprendere per la risoluzione del conflitto in atto. Il tavolo delle trattative pieno di criticit e sempre pi sembra di trovarsi di fronte a un "dialogo fra sordi" (ib.). A luglio 2011 il Teatro Valle passato dal Mibac a Roma Capitale e l'assessore comunale alla Cultura, Dino Gasperini, ha illustrato il progetto di fare della struttura
il punto d'eccellenza di quella Casa dei teatri e della drammaturgia contemporanea comprendente i teatri di cintura pi il Villino Corsini, il teatro di Villa Torlonia, il Silvano Toti Globe Theatre. Decine di compagnie potranno mostrare il loro lavoro nel circuito, dotato di sale prove e per la formazione nei mestieri dello spettacolo. Ho appena incontrato il ministro Ornaghi [Ministro per i Beni e le Attivit Culturali, il cui mandato ha avuto inizio il 16 novembre 2011], interessato a partecipare. Il Valle sar il punto d'arrivo e di partenza, uno spazio interamente pubblico, gestito da un comitato d'indirizzo composto dalle

274

diverse istituzioni e un direttore artistico, sul modello della Casa del Cinema (ib.).

L'assessore afferma inoltre l'importanza del dialogo, ribadendo al tempo stesso la necessit di liberare lo spazio: continuando di questo passo, aggiunge, gli artefici della protesta si trasformerebbero "in privati che arrogano per s un bene pubblico" (ib.). Negli stessi giorni si fatta sentire anche la voce del sindaco di Roma Gianni Alemanno, il quale, dopo aver dichiarato come il Teatro Valle sia diventato "ormai un centro sociale mascherato" (Ciccarelli 2012), ha auspicato una moral suasion nei confronti degli occupanti e proposto la candidatura di Giorgio Albertazzi per la futura direzione artistica del Teatro. "Il nostro referente non il Comune! Il teatro ha un valore nazionale" (Martellini 2012) stata la replica dei "comunardi" (ib.). Nelle parole dell'attrice Ilenia Caleo:
"Alemanno indica una candidatura in un settore ancor prima di essere eletto [il mandato del sindaco Alemanno scadr per l'appunto nel 2013], perpetuando l'abitudine dei politici di nominare i responsabili artistici dei teatri all'ora del t, di domenica pomeriggio. Anche questa consuetudine di rivolgere appelli al dialogo rivela una logica di cooptazione, oltrech l'idea che le lotte politiche siano tutt'al pi delle vertenze. A noi, l'idea del centro sociale non dispiace, ma nel caso del Valle non questo in discussione. Noi non escludiamo il piano istituzionale, anzi lo stiamo ripensando con l'idea di una fondazione basata sulla democrazia partecipativa e l'azionariato diffuso. L'occupazione un atto illegale, ma segna la delegittimazione di una classe politica la cui ingerenza penalizza tutti i nostri settori, anche economicamente. La politica non ha argomenti e, anzi, usa sfacciatamente concetti e parole di cui, fino a un anno fa, non conosceva il significato al fine di riprodurre un sistema di cui

275

costituisce il problema, non la soluzione". Gli occupanti chiedono infine dove sono finiti gli 1,2 milioni di euro promessi da Alemanno per la stagione del Valle e propongono un audit pubblico per decidere come usarli insieme ai cittadini (Ciccarelli 2012).

Nel frattempo il teatro ha continuato a vivere e non ha chiuso i battenti; il suo foyer aperto a visitatori, curiosi e aspiranti soci, mentre la sala continua a ospitare spettacoli (proprio in questi giorni stata presentata in una conferenza stampa la programmazione futura), laboratori e workshop. Ma l'aspetto davvero significativo dell'intera vicenda stata la risposta da parte della comunit169 che si sta traducendo nella volont di dare vita alla "Fondazione Teatro Valle Bene Comune", legittimata da uno statuto170 disponibile online, un documento work in progress alla cui stesura tutti i cittadini sono chiamati a partecipare ed esprimersi. Vale la pena riportare alcuni dei suoi passaggi pi significativi, in cui sono molti i punti di contatto con quanto abbiamo potuto leggere nel
169 "Abbiamo raccolto 80.000 euro. Ne servono 250.000 per arrivare a creare una Fondazione, la prima in Europa intesa come bene comune. Ciascuno di noi, artisti e cittadini, potr diventare socio, non importa la cifra stanziata. La Regione, che per ipotesi metta un milione avr un diritto a un voto, allo stesso modo di chi mette un euro. L'assemblea esprimer un consiglio, a quale spetter la decisione sulla direzione artistica, mai in carica oltre un certo periodo e affidabile non solo a singoli, ma anche a compagini pi ampie. Basta con il sistema delle nomine" (Martellini 2012). 170 La versione 0.2 (bozza del 20/12/2011) dello stesso pu essere visualizzata in formato PDF cliccando sul link che si trova all'indirizzo internet http://www.teatrovalleoccupato.it/partecipa-alla-proposta-distatuto-lo-spazio-per-contribuire-e-online, dove inoltre possibile aprire una finestra attraverso la quale lasciare il proprio contributo. Le due citazioni successive sono tratte rispettivamente dal Preambolo e dalla premessa della Vocazione.

276

testo curato da Charlotte Hess ed Elinor Ostrom (2007), cos come forte l'eco dei pensieri di Lawrence Lessig (2001, 2004):
Noi intendiamo farci protagonisti del processo di trasformazione che in tutto il mondo travolge il diritto inteso come mera burocrazia e forma e che ha prodotto l'emersione della categoria dei beni comuni a livello costituzionale, normativo e giurisprudenziale. Il bene comune non dato, si manifesta attraverso l'agire condiviso, il frutto di relazioni sociali tra pari e fonte inesauribile di innovazioni e creativit. Il bene comune nasce dal basso e dalla partecipazione attiva e diretta della cittadinanza. Il bene comune si autorganizza per definizione e difende la propria autonomia sia dall'interesse proprietario privato sia dalle istituzioni pubbliche che governano con logiche privatistiche e autoritarie i beni pubblici. Noi siamo idealmente collegati a tutte le altre comunit in lotta per la difesa dei beni comuni, ovunque queste si trovino. Immaginiamo, per un mondo nuovo, istituzioni nuove, partecipate, ecologiche, autorevoli, rispettose della creativit di tutti, che siano capaci finalmente di opporsi allinteresse privato e allaccumulo senza fine. Noi sappiamo che i beni comuni costituiscono un genere giuridico nuovo, indipendente rispetto al titolo di appartenenza, direttamente legati allattuazione di valori promessi nella Costituzione italiana nata dalla Resistenza, ma sottratti al nostro vivere comune perch continuamente traditi dalle oligarchie private e pubbliche. Noi proclamiamo, cominciando dal Valle, che i beni comuni vanno posti fuori commercio perch appartengono a tutti, ossia allumanit nella sua interezza e sono radicalmente incompatibili con l'interesse privato al profitto e alla rendita. I beni comuni sono imprescindibili per lesercizio dei diritti fondamentali nonch al libero sviluppo della persona. Noi vogliamo dimostrare, cominciando dal Valle, che un ente pubblico che cerca di privatizzare beni comuni tradisce il proprio mandato costituzionale e per questo sol fatto li abbandona alla libera

277

occupabilit e riappropriazione giustificata direttamente dalla Costituzione. Noi perci proclamiamo con il presente atto di autonomia privata che un antico ed unico spazio fisico come il Teatro Valle a pieno titolo un bene comune. Esso inscindibilmente collegato con la cultura, bisogno e diritto fondamentale di ogni persona, e come tale deve far parte di un ampio progetto che coinvolga i lavoratori della cultura e i cittadini tutti per il pieno riconoscimento del loro fondamentale ruolo economico, politico e culturale di resistenza nei confronti della mercificazione e della decadenza sociale.

Il testo, ancora in fieri, provvede all'individuazione dei diversi organi (l'Assemblea, il Consiglio, la Direzione Artistica, il Comitato Garanti, il Tesoriere e il Collegio Revisori) ed esprime inoltre la nuova vocazione del Teatro quale spazio "dedicato alle drammaturgie italiane e contemporanee", rispondendo all'esigenza di riaprire un processo di narrazione e rappresentazione della realt, che
nell'ultimo mezzo secolo della vita del nostro paese ha subito un'involuzione, un congelamento. La narrazione del presente stata colonizzata dalla politica, che trasformatasi nell'amministrazione pubblica delle immagini, ne ha acquisito il monopolio producendo una spaccatura profonda tra realt e sua rappresentazione. Gli artisti si sono lasciati da un lato sottrarre i propri strumenti di svelamento dei meccanismi mistificatori e dallaltro spogliare della forza sovversiva della creazione di realt diverse, possibili, immaginarie. Salvo poche eccezioni, che rimarcano la tendenza generale, le scritture sceniche si sono rintanate nella rinuncia alla contemporaneit o in una soggezione autocensoria. Estetica, tematiche, funzione didattica e sociale, denuncia, sono recinti spesso rigorosamente separati nei quali sopravvivono le creature in cattivit che non si azzardano a immaginare realt differenti, che non affondano lo sguardo nella carne degli uomini. necessario rifondare un processo di

278

apprendimento, che si immerga nella contemporaneit, indagando tutte le forme di scrittura scenica, mettendole a confronto, favorendone la contaminazione. Tutto questo deve accadere nel luogo fisico del teatro, dove gli artisti si incontrano e scontrano, studiano, dialogano, osservano, si aprono. fondamentale la creazione di un crocevia di esperienze, nazionali e internazionali, che raccolga linguaggi diversi e intergenerazionali, che muti costantemente i suoi indirizzi, mantenendo costante l'apertura e plurali le proposte formative.

Tra gli obiettivi, non ancora messi nero su bianco ma tra le priorit degli occupanti del Valle, vi quello di fare del teatro un centro permanente di formazione per i professionisti e le maestranze del mondo dello spettacolo, e conseguentemente una via per lo sbocco lavorativo, nonch un luogo di formazione e apprendimento per lo stesso pubblico. Un modello altro in cui l'arte e la cultura diventano leve per un pi ampio cambiamento politico e civile della societ, al fine di arginare la drammatica crisi della democrazia rappresentativa che stiamo vivendo in questi anni. Sempre nelle parole del professor Ugo Mattei:
con la crisi della rappresentanza democratica esiste una sola alternativa per il popolo sovrano e l'alternativa quella dell'azione diretta [...] ossia esperienze di produzione di un altro tipo di legalit, di un altro tipo di giuridicit. Non stiamo parlando di illegalit: stiamo parlando di costruzione di modelli di legalit che siano altri rispetto a un modello che riduce tutto alla dialettica fra Stato e propriet privata, escludendo i beni comuni. E la costruzione di beni comuni fa parte di questo modello e di questo momento costituente essenziale oggi [...]. Una cosa che appartiene a tutti [come] questo teatro costruito nei secoli con lo sforzo della fiscalit generale, con lo sforzo di tutti quanti che riflette il lavoro, la passione, l'emozione, le narrazioni di tutta una

279

serie di persone, generazioni dopo generazioni, per trecento anni in questo luogo pu essere privatizzato con un semplicissimo decreto del ministro in carica; il quale, senza dover passare per alcun controllo di tipo parlamentare (quindi senza nessun tipo di riserva di legge), senza dover dimostrare alcuna pubblica utilit, pu vendersi qualsiasi cespite del patrimonio pubblico considerato patrimonio dello Stato, e con quei soldi farci quel cavolo che gli pare, compreso comprare pi auto blu. Noi abbiamo un passaggio dal privato al pubblico garantito da un sistema costituzionale, e abbiamo un passaggio dal pubblico al privato che al di fuori di tutte le garanzie; ed un passaggio del quale i governi di centro-destra e di centro-sinistra [...] hanno abusato con grande abbondanza a partire dalla prima parte degli anni Novanta. [...] Queste sono le battaglie in qualche misura che i beni comuni riescono a far declinare insieme, costruendo un senso comune di proposito, [permettendo] di ricostituzionalizzare una fase storica del capitalismo cognitivo che non pu pi funzionare con le strutture attuali della democrazia liberale. [...] Il diritto oggi pu essere declinato soltanto su pratiche collettive. Quindi quello che molto importante da questo punto di vista recuperare il senso del collettivo, che significa rifiuto radicale di qualsiasi retorica fondata sulla concorrenza, di qualsiasi modo di vedere il mondo come un sistema di individui in lotta fra loro per la sopravvivenza, secondo un modello di darwinismo sociale che ha fatto assolutamente il suo tempo e al quale occorre dire basta171.

Perch, come sintetizzano ancora una volta le parole di Andrea Camilleri, "ogni uomo cultura" 172.

171 Vedi nota 22. 172 Anche questa citazione tratta dal video presente su YouTube, intitolato "Teatro Valle Occupato Chi siamo", del quale abbiamo gi riportato il link alla nota 23.

280

TITOLO SOTTOPARAGRAFO A partire dagli anni Novanta il quadro comunicativo che circonda e plasma le societ in cui viviamo sempre pi legato a contenuti e messaggi di natura digitale, nati e pensati per essere trasmessi e fruiti con l'ausilio di tecnologie informatiche, tra le quali spiccano i personal computer e, da qualche anno ormai, i telefonini di terza e quarta generazione. Accanto a questi dispositivi hardware e ai software che ne sostengono la strumentazione, l'altro grande protagonista di questa svolta culturale stata internet e in particolar modo ci che si originato da una sua costola, ovvero il web. Quest'ultimo pensabile come un vero e proprio ecosistema, al cui interno possibile inserire e reperire una quantit vastissima di contenuti, entrare a far parte di comunit e gruppi di interesse, sia a scopo puramente ludico, che con ben determinate finalit professionali, e allo stesso tempo entrare in contatto con gli uffici e gli sportelli "virtuali" di societ, istituzioni accademiche, pubbliche amministrazioni e di tutte quelle realt che hanno colto le potenzialit dei bit e stanno affiancando alle loro sedi e attivit fisiche una crescente presenza s immateriale, ma altrettanto significativa e strategica. Ed cos che, pi o meno a partire dal 1995, si iniziato a parlare in riferimento a questa grandissima mole di contenuti e interazioni veicolate dalla rete la definizione di "beni comuni della conoscenza". questa una chiave di lettura gi consolidata e ampiamente utilizzata per definire la produzione culturale e il sapere che gli uomini sono stati capaci di accumulare nel corso dei secoli e che creano e rinnovano ogni giorno. Tuttavia a lungo prevalsa l'abitudine di riconoscere l'ingresso e la cittadinanza nel tempio della conoscenza solo a determinate categorie di prodotti culturali, sottoposti a precisi criteri di selezione e rispondenti a rigidi requisiti. Tutto questo 281

avveniva perch erano le stesse produzioni dei contenuti e forme del sapere ad essere scandite in fasi precise e inequivocabili. Parlando di cinema, la prima cosa che veniva in mente era l'industria delle case di produzione e lo star system di Hollywood e Cinecitt, cos come i milioni di sconosciuti con il sogno di veder pubblicato un proprio manoscritto erano ben consci della strada in salita che avevano dinanzi e che l'unica possibilit era quella di tartassare la buca delle lettere del numero pi ampio possibile di case editrici e sperare in una risposta favorevole; lo stesso discorso e simili complicazioni sarebbero state patite nel settore della musica o da quanti volevano uscire alla ribalta nel mondo delle arti visive. Non si trattava solo dell'aura che si accompagna all'arte e alla cultura "alte", ma anche e soprattutto della conseguenza logica del modo di funzionare della macchina produttrice dei contenuti, caratterizzata da costi elevatissimi, dall'imperativo di ridurre al minimo i rischi e dalla presenza al suo interno di molteplici fasi di controllo e supervisione. Come abbiamo illustrato in pi parti del primo capitolo, l'avvento delle tecnologie digitali ha senz'altro rivoluzionato le modalit di creazione e distribuzione dei contenuti, con internet a rappresentare un contenitore pressoch illimitato cui affidare idee, manufatti multimediali e quant'altro sia possibile immaginare. Accanto a video, file musicali e blog, troviamo anche spazi di informazione alternativa e indipendente, piazze di discussione virtuali aggregate dalla pura e semplice condivisione di interessi, comunit accomunate dalla ricerca e dalla sperimentazione nel campo del software e della tecnologia, siti di biblioteche e universit che iniziano a spostarsi nell'universo smaterializzato della rete, cui dedicano sempre pi attenzione e risorse in termini di investimento, sia per raggiungere maggiormente gli individui, sia al fine di ridurre alcuni costi tipici del mondo "in 282

carne e ossa". Nonostante una certa dose di "rumore" che accompagna parte di ci che circola nel Web, tra i suoi nodi e nelle sue centinaia di migliaia di pagine possibile trovare qualit, impegno, motivazione e pensieri che indubbiamente meritano di essere sostenuti, conservati e archiviati, al fine di replicare nel quadro delle applicazioni informatiche quel processo di fissazione e memorizzazione del sapere tipico dei supporti tradizionali. Non si tratta di un'operazione facile ed evidente la necessit che una riflessione teorica e un riconoscimento delle criticit in campo affianchi e preceda gli auspicabili interventi in materia di governo e sostenibilit di queste risorse. Il quadro tutt'altro che semplice: vero che il digitale portatore di grandi innovazioni e possibilit, ma al tempo stesso porta con s problemi nuovi e spesso amplifica controversie di vecchia data. Nei paragrafi di questo capitolo cercheremo pertanto di sollevare le diverse questioni all'ordine del giorno, cercando di alternare i livelli di analisi della nostra trattazione e, come gi anticipato in apertura, muovendoci in particolar modo tra il livello del codice e quello dei contenuti. Ma prima di affrontare nel dettaglio questi argomenti, sar bene ribadire il punto di vista che abbiamo a cuore, sul quale sembra ancora prevalere una diffusa cecit culturale e che auspichiamo possa raggiungere nel breve periodo la sensibilit del grande pubblico.
Viviamo in un periodo in cui l'opinione dominante che "il mondo intero si gestisce meglio se suddiviso tra proprietari privati". L'idea vera e propria che diritti non esclusivi possano essere pi efficienti di quelli esclusivi entra raramente nel dibattito. Il presupposto il controllo, e la politica pubblica dedicata alla sua massimizzazione. Ma c' un'altra opinione: non che la propriet sia un male in s, o che i mercati siano corrotti, o che il governo sia il miglior mezzo per allocare le risorse, ma che

283

le libere risorse, o quelle tenute in comune, a volte, creano pi ricchezza e opportunit per la societ che non se fossero private (Lessig 2001, p. 90).

Perch la giurisprudenza e la tradizione legale talvolta ha agito nella direzione dei commons, lasciando nella sfera dei beni comuni alcune risorse? Che cosa caratterizza beni particolari come le strade pubbliche, i passaggi navigabili e le piazze di una citt?
Prima di tutto, queste risorse sono "fisicamente capaci di monopolizzazione da parte di privati". Monopolio significa potere e il monopolista sarebbe in grado di esercitare quel potere sulla comunit. Secondo, il pubblico ha la precedenza su di esse perch "le stesse propriet hanno maggior valore quando usate da un numero indefinito e illimitato di persone". [...] Mantenere la risorsa nelle mani di una comunit un modo per garantire che nessun singolo approfitti del valore creato da questa. [...] Quando la risorsa ha un valore in quanto aperta; quando il suo valore aumenta solo perch ha pi utenti; quando "pi ce n' meglio ", allora sensato attribuire molto del proprio valore al suo essere pubblica (p. 91).

partendo da queste premesse che Lessig (2001) attribuisce a internet la natura di bene comune, ribadendo la priorit del suo mantenimento libero e aperto. Tanto pi quando prevale l'incertezza relativa all'uso e alla destinazione di una risorsa infatti meglio lasciarla nel commons e disponibile a tutti. Come abbiamo visto, quando la Rete vide la luce nessuno, nemmeno i suoi fondatori, aveva chiaro quale sarebbe stato il suo utilizzo. Qualcuno pensava che avrebbe rappresentato un valido sostituto del telefono, ma chi immaginava che da una sua costola si sarebbe originato l'archivio di documenti ipertestuali e multimediali pi esteso di qualsiasi biblioteca fisica che sia 284

mai stata immaginata, e che rappresenta il web? Oppure che da questo network informatico su vasta scala si sarebbero originate modalit inedite di socialit fra individui, nonch esperimenti di condivisione e intelligenza collettiva a livello planetario? Da tutto ci facile concludere che:
proprio quando si ha minore comprensione su come una risorsa verr usata, a maggior ragione bisogna tenerla in un commons. E quando si ha una visione chiara di quello che ne sar l'uso, la si dovrebbe destinare a un sistema di controllo. La ragione chiara. Quando una risorsa ha un uso chiaro, allora da una prospettiva sociale, l'obiettivo semplicemente assicurare che la risorsa sia disponibile all'uso migliore in tutti i sensi. Per raggiungere questo scopo si possono utilizzare dei sistemi di propriet. Assegnando in forte diritto di propriet ai proprietari di tali risorse, si pu essere certi che massimizzeranno la resa della risorsa assicurandosi l'apporto di coloro che sono meglio in grado di usarla. Ma se non vi una chiara opzione per l'uso della risorsa allora meglio lasciarla nel commons, in modo che in molti possano sperimentarne utilizzi diversi. Ignorare l'uso futuro di una risorsa una buona ragione per renderla ampiamente disponibile. [...] dove l'incertezza maggiore, il progetto di network che adotta l'end-to-end ne massimizza il valore; dove l'incertezza invece scarsa, allora l'end-to-end non ha valore particolare (pp. 92-93).

Fantasmi vecchi e nemici nuovi, tra pirateria, free riding e legislazione sul copyright I beni comuni della conoscenza rappresentano una categoria molto peculiare nell'ampio panorama dei commons, ma di fatto anch'essi si trovano a dover fronteggiare minacce e problemi potenziali che affliggono i beni comuni dell'ambiente fisico. Se anche questo tipo di risorse si trova al riparo dal problema della 285

sottraibilit173, pur vero che gli ostacoli non sono pochi e spesso di difficile risoluzione. La conoscenza infatti per natura un bene non-sottraibile, una delle poche eccezioni capaci di confermare la regola dell'esaurimento e del deperimento che invece contraddistingue i diversi prodotti naturali e artificiali con cui abbiamo a che fare quotidianamente. In questo senso poche metafore possono esprimere meglio questo significato, di quanto sia riuscito a fare Thomas Jefferson, uno dei padri fondatori degli Stati Uniti d'America, quando in una lettera174 scrisse che "chi riceve un'idea da me, ricava conoscenza senza diminuire la mia; come chi accende la sua candela con la mia, riceve luce senza lasciarmi al buio" (Lessig 2004, p. 50). Questa immagine condensa l'essenza stessa delle idee e del pensiero che devono poter essere liberi da vincoli e in grado di propagarsi e diffondersi senza limitazioni e imposizioni dettate da interessi parziali o di qualsiasi altro ordine (in primis economico). Entrando ancor pi nel dettaglio:
nel linguaggio dell'economista un'idea non perfettamente escludibile. possibile tenere un segreto, (e pertanto escludere altri da questo segreto) ma, una volta rivelato, non possibile
173 Si tratta di una caratteristica tipica delle risorse comuni, dovuta al fatto che nel "mondo degli atomi" praticamente ogni bene (anche l'aria che respiriamo) quantificabile e non illimitato. Pertanto l'uso che ne fa una persona (pensiamo ad esempio a una zona di pesca) inevitabilmente riduce la quantit di benefici disponibili per gli altri individui. 174 Lettera scritta da Thomas Jefferson a Isaac Mc Pherson e datata 13 agosto 1813, della quale possibile consultare il testo originale all'indirizzo http://www.red-bean.com/kfogel/jefferson-macphersonletter.html. Non un caso che il testo sia stato pubblicato all'interno del sito di una persona impegnata presso Civic Commons (http://civiccommons.org/), un'organizzazione no profit che promuove e sviluppa software e tecnologie open source per i governi.

286

ricrearlo. Non possibile (ancora) cancellare ci che ci entrato in testa. In secondo luogo, descrive il carattere non competitivo di risorse come le idee. Il consumo di altri non diminuisce il nostro, cos come l'altrui accendere una candela non ci riduce all'oscurit. Questi due punti ne suggeriscono un terzo: che la "natura" ha creato questo mondo per garantire che "le idee si propaghino liberamente attraverso il pianeta". Tra i suoi disegni c'era l'Illuminismo. Ne consegue dunque che senza il governo, nello stato di natura non vi sarebbe niente di simile a un brevetto, dal momento che il brevetto concesso per le "invenzioni" e queste, "in natura", non possono essere "oggetto di propriet". [...] Quel che segue poi molto importante: il sistema di controllo che stato costituito per le risorse competitive (terra, automobili, computer) non necessariamente appropriato per risorse non competitive (idee, musica, espressione). Anzi, lo stesso sistema per entrambi i tipi di risorse potrebbe rivelarsi davvero dannoso. Cos un sistema legale, o in generale una societ, devastare attenta a calibrare il tipo di controllo al tipo di risorsa. Un'unica misura non va bene per tutto (Lessig 2001, pp. 98-99).

Ma al di l del fatto che in molte aree del mondo ancora oggi queste aspettative risultano del tutto disattese e incatenate a opera di regimi autoritari oppure, in un'ottica ancor pi grave, rivelano la loro impossibilit a causa della povert e dell'analfabetismo, nonostante i beni comuni della conoscenza siano per cos dire "senza fondo", essi si trovano a dover fronteggiare un gran numero di difficolt. Quando il Web cess di essere un'attrattiva appannaggio esclusivo del popolo dei nerd e dei geek175 e, grazie anche ai protocolli e al linguaggio di
175 Si tratta di due espressioni della lingua inglese che, come tutte le definizioni volte a etichettare e classificare gli individui, hanno s il vantaggio della concisione e dell'immediatezza, ma tendono ad appiattire i gruppi sociali e a sfociare nel pregiudizio e nello stereotipo. Il termine nerd in particolare ha un'accezione maggiormente denigratoria ed usato per riferirsi a persone molto dotate intellettualmente, ma

287

marcatura introdotti da Tim Berners Lee, inizi a espandersi a velocit rapidissime, si inizi a manifestare il problema di mantenere l'ambiente della rete "pulito" e al riparo da potenziali vandali e altre fonti di danni. Gli studiosi si accorsero che si potevano applicare anche alla sfera dell'informazione digitale tutta una serie di atteggiamenti e disposizioni come la congestione, il sovrautilizzo, il free riding176 e il conflitto che fino a quel momento erano state chiavi d'interpretazione per altri tipi di beni comuni. Un'altra serie di dilemmi che si stanno manifestando sempre pi intorno ai commons della conoscenza sono quelli relativi alla deriva merceologica dei contenuti digitali e ai processi di recinzione177 e iperbrevettazione (overpatenting) cui essi stanno andando
emarginate a livello di amicizie e compagnie (il classico genio disadattato e preso in giro da tutti, con tanto di occhiali, mocassini e vestiti poco alla moda). Un geek invece una sorta di "smanettone", ovvero un soggetto molto esperto in scienza e tecnologia, soprattutto informatiche. In questo caso il termine ha una valenza per lo pi positiva e sono le persone stesse a fregiarsi di tale caratterizzazione. 176 Questo termine nato per descrivere la scorretta abitudine di chi usufruisce del trasporto pubblico senza pagare il biglietto. "Il free riding si verifica quando singoli individui sono tentati di nascondere le proprie preferenze ed evitare di pagare il prezzo di un bene, scaricandolo su qualcun altro. Quando vi sono altre persone che desiderano consumare un bene pubblico, egli sa che potr beneficiare ugualmente del bene, senza essere costretto a pagare. Di qui la necessit in alcuni casi di imporre il pagamento attraverso la tassazione e di garantire l'offerta del bene mediante l'intervento pubblico" (Hess, Ostrom 2007, p. 4). 177 "Si utilizza qui il riferimento al termine inglese che identifica il fenomeno delle enclosure o inclosure. Il termine utilizzato nella storiografia economica per indicare il processo durante il quale in Inghilterra e nel Galles ebbe fine il regime dei 'campi aperti': in particolare, la storiografia di impronta marxista o neomarxista intende con questo fenomeno il processo che a partire dal XVI-XVII secolo permise ai nobili e ai proprietari terrieri di 'recintare', appunto, le terre comuni, appropriandosene per sfruttarle a fini privati" (p. 5).

288

incontro. Accanto a questo dobbiamo considerare che nell'epoca delle tecnologie digitali, gran parte dei beni comuni della conoscenza sono frutto di sforzi di produzione concertata e di gruppo (pensiamo ancora una volta agli esempi di Wikipedia e del sistema operativo open source Linux) e pertanto "richiedono una forte azione collettiva e solidi meccanismi di autogoverno, oltre a un livello elevato di capitale sociale da parte dei protagonisti dell'iniziativa" (p. 7). Inoltre:
le questioni essenziali per qualsiasi analisi dei beni comuni investono inevitabilmente l'equit, l'efficienza e la sostenibilit. La nozione di equit si riferisce alle questioni relative alla misura del prelievo di una risorsa e al contributo al suo mantenimento. L'efficienza riguarda la produzione, la gestione e l'uso ottimale di una risorsa. La sostenibilit ha invece a che fare con gli esiti a lungo termine (p. 8).

Innanzitutto doverosa una precisazione relativa all'uso della parola "conoscenza", di cui la coppia Hess-Ostrom (2007) d una definizione estesa volta a identificare:
tutte le idee, le informazioni e i dati comprensibili, in qualsiasi forma essi vengano espressi o ottenuti. [...] tutte le forme di sapere conseguito attraverso l'esperienza o lo studio, sia esso espresso in forma di cultura locale, scientifica, erudita o in qualsiasi altra. Il concetto include anche le opere creative come per esempio la musica, le arti visive e il teatro (pp. 9-10).

Si tratta di una realt dalla veste dialettica e ambivalente, se pensiamo che da un lato essa costituisce un elemento fondante della societ, ma d'altro canto pu essere posta tra i beni immateriali dell'uomo, quei bisogni non legati alla 289

sopravvivenza, che non hanno dunque nulla a che vedere con la soddisfazione di necessit primarie quali il mangiare, il bere e la ricerca di un riparo. Ancora, la conoscenza per il vero motore del progresso e dell'innovazione, il volano dello sviluppo di un popolo e l'insieme di valori, tradizioni e saperi che rappresentano il capitale sociale e la memoria dei vari gruppi umani. La sua complessit si manifesta poi nel riconoscere la sua "faccia" economica e la possibilit di considerare a tutti gli effetti i suoi prodotti come merce scambiabile dotata di un certo valore. E poi:
la conoscenza cumulativa. Nel caso delle idee l'effetto cumulativo genera vantaggi per tutti nella misura l'accesso a tale patrimonio sia aperto a tutti, ma sia quello dell'accesso sia quello della conservazione erano problemi seri gi molto prima dell'avvento delle tecnologie digitali. Una quantit infinita di conoscenza attende di essere disvelata. La scoperta delle conoscenze future un tesoro collettivo di cui dobbiamo rispondere di fronte alle generazioni che ci seguiranno. Ecco perch la sfida di quella attuale tenere aperti i sentieri della scoperta (p. 10).

Ampliando ulteriormente questo punto di vista, possiamo notare come:


molti beni comuni "informazionali" esemplificano quella che alcuni commentatori hanno chiamato "la cornucopia dei beni comuni", in cui si crea tanto pi valore quante pi sono le persone che usano la risorsa e si uniscono alla comunit sociale. Il principio operativo : "pi si , meglio ". Il valore di una rete telefonica, della letteratura scientifica o di un software open source di fatto aumenta all'aumentare del numero delle persone che partecipano all'impresa: un fenomeno che gli economisti definiscono "effetti di rete". Internet e le varie tecnologie digitali

290

sono oggi molto diffuse, il che permette nuove forme di comunicazione e collaborazione sociale: in questo contesto, la cornucopia dei beni comuni diventata un fenomeno generalizzato. Siamo in fase di migrazione da una cultura "gutenberghiana" o della stampa, con scorte limitate di opere "fissate", canoniche, a una cultura digitale in cui le opere sono in continua evoluzione e possono essere riprodotte e distribuite facilmente e in maniera praticamente gratuita. Il nostro sistema dei mass media, basato su una produzione centralizzata e distribuzione uno-a-molti, sar presto eclissato da una rete multimediale di produzione decentralizzata e distribuzione moltia-molti (p. 39).

Questo modo polivalente e multidimensionale di guardare alla realt oggetto di studio del nostro lavoro in contrasto con la visione corrente della letteratura economica che, ponendo l'enfasi sul solo attributo dell'esclusione178, definisce la conoscenza come un classico esempio di bene pubblico "puro", disponibile cio per tutti e tale per cui il suo utilizzo da parte di un individuo non compromette le possibilit d'uso degli altri. Ampliando il discorso intorno a quanto avevamo affermato a inizio di paragrafo, vogliamo qui adottare la duplice classificazione che propongono Hess-Ostrom, le quali considerano l'elemento della sottraibilit (definita anche come rivalit) come un fattore determinante e di pari importanza anche per definire la natura della conoscenza 179. Per cui:
178 Esso permette di distinguere i beni in pubblici, ovvero caratterizzati da un accesso libero e generalizzato, e privati, quando invece dal loro uso possono essere esclusi alcuni individui. 179 Ne scaturisce una tabella (p. 11) in cui possiamo distinguere tra beni pubblici (di difficile escludibilit e bassa sottraibilit, come ad esempio un tramonto), beni di club (bassa sottraibilit ma facilmente escludibili, come l'abbonamento a una rivista), risorse comuni (in cui l'attributo dell'escludibilit basso ma risulta alta la sottraibilit, il caso di una

291

la conoscenza, nella sua forma intangibile, rientrata allora nella categoria di bene pubblico, dal momento che, una volta compiuta una scoperta, difficile impedire ad altre persone di venirne a conoscenza. L'utilizzo della conoscenza (come per esempio la teoria della relativit di Einstein) da parte di una persona non sottrae nulla alla capacit di fruizione da parte di un'altra persona. Questo esempio, naturalmente, si riferisce alle idee, ai pensieri e al sapere derivanti dalla lettura di un libro: non al libro in quanto oggetto, che sarebbe classificato come bene privato (ib.).

Va inoltre detto che l'attenzione delle due autrici rivolta alla conoscenza in forma digitale,
principalmente perch le tecnologie che consentono una distribuzione globale e interattiva dell'informazione hanno trasformato radicalmente la struttura della conoscenza come risorsa. Uno dei fattori critici relativi alla conoscenza digitale la continua e radicale trasformazione ("ipercambiamento" o hyperchange) delle tecnologie e delle reti sociali che coinvolge ogni aspetto della gestione e del governo delle conoscenze, compresi i modi in cui esse sono generate, immagazzinate e conservate. [...] Gran parte dei problemi e dilemmi che affrontiamo in questo libro sono sorti in seguito all'invenzione delle nuove tecnologie digitali. L'introduzione di nuove tecnologie pu rivelarsi decisiva per la robustezza o la vulnerabilit di un bene comune. Le nuove tecnologie possono consentire l'appropriazione di quelli che prima erano beni pubblici gratuiti e liberi: cos avvenuto, per esempio, nel caso di numerosi "beni comuni globali" come i fondali marini, l'atmosfera, lo spettro elettromagnetico e lo spazio. Questa capacit di appropriarsi di ci che prima non consentiva appropriazione determina una metamorfosi sostanziale nella natura stessa della risorsa: da bene pubblico non sottraibile e non
biblioteca) e infine beni privati (come un personal computer, in cui sia l'escludibilit che la sottraibilit sono elevate).

292

esclusivo, essa convertita in una risorsa comune che deve essere gestita, monitorata e protetta, per garantirne la sostenibilit e la preservazione (pp. 12-13).

Vale la pena a questo punto introdurre il pensiero del biologo Garrett Hardin che in un articolo del 1968, il quale rappresenta un crocevia che non pu essere trascurato in questo campo di studi, ha introdotto il modello della "tragedia dei beni comuni" (e Tragedy of the Commons proprio il titolo del suo scritto). La metafora della sovrappopolazione di cui parleremo fra poco infatti il punto di partenza delle argomentazioni portate avanti da Hess-Ostrom, una sorta di bersaglio polemico che cercano di ribaltare e sovvertire, in funzione di una visione della realt radicalmente diversa. Il pensiero di Hardin pu essere esemplificato nel modo che segue:
prendiamo in considerazione un bene comune, come per esempio un tratto di mare particolarmente pescoso al di fuori delle acque territoriali di questo o di quel Paese. legittimo che ogni pescatore che usufruisce di questa risorsa cerchi di sfruttarla al meglio, cio cerchi di recarsi a pescare in quel territorio il maggior numero di volte possibile. Ora, se il numero di pescatori che sfrutta quell'area di pesca cresce per in maniera sproporzionata rispetto alla capacit dell'ambiente naturale di rigenerarsi, quel tratto di mare, troppo sfruttato, cessa di essere una risorsa per la comunit dei pescatori e diventa improduttivo a causa dell'eccessivo depauperamento ittico. Hardin sostiene come questa logica valga per tutti i beni comuni, affermando in sostanza che la natura stessa di un bene comune implichi, inevitabilmente, tale tragedia. Secondo Hardin, cio, ogni pescatore prigioniero di un meccanismo o di un sistema che lo forza ad accrescere il pi possibile la quantit di pesce che ricava da quel tratto di mare. Ma le risorse di quell'area marina, cos come tutte le risorse, sono limitate, e quindi, secondo Hardin, la

293

"tragedia" il destino che attende tutti i beni comuni (pp. XXIV).

XXIII-

E questo perch:
la stessa libert di cui godono i pescatori che li conduce alla rovina: "La rovina il destino ineluttabile di tutti coloro che perseguono il proprio interesse in una societ che professa il libero accesso alle risorse comuni. una libert foriera di disastro generale" (p. XXIV).

Il ragionamento di Hardin pu anche essere giusto; quello che non condividiamo semmai il fatto che egli lo proponga come una regola generale, priva di eccezioni e applicabile in qualsiasi contesto. In molti hanno evidenziato come il suo discorso contenga alcune tesi che si sono rivelate errate e in particolar modo hanno puntato il dito contro l'assenza di riferimenti alla questione della gestione dei beni comuni (laddove l'autore parla solo di libero accesso), l'aver assunto come scontato un quadro in cui l'azione delle persone sia all'insegna di scarsi scambi comunicativi e reciprocit, fondata esclusivamente sulla competizione e sul soddisfacimento del proprio interesse immediato. Allo stesso modo non piace la riduttivit delle soluzioni proposte per scongiurare tale tragedia, che oscillano polarmente tra gli estremi della privatizzazione e dell'intervento governativo. Consapevoli dei distinguo che necessario non sottovalutare quando si ha a che fare con una realt atipica come la conoscenza e animate da un approccio interdisciplinare al problema, le due autrici ribaltano la pessimistica definizione di Hardin, trasformandola in una "tragicommedia dei beni comuni" (p. 13), proprio alla luce dell'evidenza per cui:

294

si verificano certamente situazioni in cui applicato il suo modello, ma molti gruppi si sono dimostrati in grado di gestire e sostenere con efficacia le risorse comuni, purch dispongano di condizioni adatte, come regole appropriate, meccanismi efficaci per la risoluzione dei conflitti e ben definiti confini per il gruppo titolare della risorsa (p. 14).

Non solo, perch quella di Hardin infatti:


un'analisi che i conservatori in tema di diritti di propriet hanno usato per opporsi alla gestione governativa delle risorse pubbliche. Oggi, tuttavia, un'ampia letteratura mostra che, con una corretta progettazione istituzionale e norme sociali adeguate, un bene comune socialmente gestito pu essere totalmente sostenibile per lunghi periodi di tempo. La "tragedia" non affatto inevitabile (pp. 35-36).

Ci nonostante al momento esistono diverse criticit che minacciano l'informazione e la conoscenza e che rischiano di condurre questo speciale insieme di commons verso un finale tragico. Ci riferiamo soprattutto alla "recinzione" crescente che da pi fronti spinge i beni della conoscenza verso i territori di una legislazione sempre pi rigida ed ermetica, trasformandoli da risorsa democratica e condivisa, vitale per l'azione e la crescita collettiva delle societ, in beni di consumo paragonabili a merce, accessibili solo attraverso forme di pagamento e dopo aver effettuato percorsi complicati di sottoscrizione. A partire dagli ultimi decenni del Novecento stiamo assistendo ad un film gi visto, quella "storia di privatizzazione, di ricchi contro poveri, di lite contro masse popolari" (p.16) che si svolse in Europa tra il XVII e il XIX secolo e vide lo Stato e i proprietari terrieri protagonisti della limitazione delle aree demaniali (zone agricole, foreste e 295

pascoli comuni) e dell'abolizione dei diritti comuni. I vincoli legali sul codice informatico e la nuova legislazione sulla propriet intellettuale (Digital Millenium Copyright Act, TradeRelated Aspects of Intellectual Property Rights, Copyright Term Extension Act, Patriot Act), i prezzi elevati e altro ancora, hanno contribuito al verificarsi di un "secondo movimento di enclosure" (ib.) e, recintando gli "intangibili beni comuni della mente" (ib.), stanno di fatto riducendo il libero accesso alle informazioni pubbliche, scientifiche e governative. Sono tematiche vitali per la sopravvivenza e i valori di cui si fa portatrice una societ libera e democratica, tenuto conto del tipo di realt di cui si sta aumentando il controllo e che si sta procedendo a limitare. Infatti:
il libero accesso all'informazione cosa ben diversa dal libero accesso alla terra o all'acqua: in quest'ultimo caso, accesso libero pu significare "gratuito per tutti", come nei pascoli descritti da Hardin, il che pu condurre a un consumo eccessivo e all'esaurimento della risorsa. Con la conoscenza e l'informazione distribuita, generalmente la risorsa non sottraibile. Come osserva Suber in questo volume (capitolo 7180), nell'ecosistema dell'informazione accesso "libero" significa accesso gratuito e senza restrizioni, senza costi n necessit di permessi (anche se gli autori che scelgono di rendere disponibili gratuitamente le loro opere possono comunque mantenerne il copyright). In questo caso, invece di generare effetti negativi, il libero accesso all'informazione genera vantaggi per tutti: pi le informazioni sono di qualit, maggiori sono i benefici per la collettivit (pp. 17-18).

Le autrici ribadiscono come ognuno di noi si trovi a dover


180Il riferimento al saggio di Peter Suber, intitolato Creare un bene comune attraverso il libero accesso, che apre la terza parte del libro curato da Hess-Ostrom (2007, pp. 177-219).

296

fronteggiare un crocevia significativo e, vista l'importanza della posta in gioco, promuovono il dibattito e la riflessione, richiamando l'attenzione di tutti. Ancora una volta internet a essere al centro del dilemma, questa rete straordinaria che con una mano sembra offrire potenzialit enormi e un accesso senza precedenti alle informazioni, mentre con l'altra sembra sottrarre e chiudere a chiave tutto ci, rivelando un'ambiguit di fondo che non pu essere trascurata. Riportando le loro parole:
la conoscenza, che nella sua forma digitale sembra possedere il dono dell'ubiquit, in realt oggi pi vulnerabile che mai. Per esempio, quando biblioteche e singoli individui acquistavano una rivista cartacea, la dispersione territoriale di una molteplicit di copie garantiva la conservazione delle opere. Quando invece le riviste vengono pubblicate in forma digitale e concesse in licenza alle biblioteche o agli individui, le opere sono centralizzate e vulnerabili ai capricci dell'editore o del caso. Se un utente fa affidamento sul fatto che certi periodici siano indicizzati in LexisNexis181 o altri importanti servizi di indicizzazione sar frustrato nell'apprendere, un giorno, che le opere di suo interesse sono state abbandonate e non verranno pi indicizzate. Molte informazioni di fonte governativa che erano liberamente disponibili online sono state oscurate dopo l'11 settembre e non pi sostituite. Per non parlare della facilit con cui i cyberterroristi possono infettare o danneggiare un sistema, o sottrarre informazioni confidenziali. Per altro verso, le iniziative di azione collettiva, come il libero accesso e lo sviluppo di software Free/Libre e Open Source, assicurano oggi alle risorse digitali un'accessibilit e una robustezza decisamente superiori. in corso un ampio dibattito sulle iniziative da avviare per
181 Si tratta di una compagnia operante principalmente nel contesto anglosassone che fornisce servizi di consultazione e accesso (a pagamento) a una documentazione di carattere giuridico e finanziario.

297

accrescere la sicurezza della conoscenza digitale senza bloccarne l'accesso a chi pu trarre beneficio dal suo utilizzo (p. 19).

Sottolineando il paradosso che caratterizza lo scenario moderno, sempre pi attraversato dalle coppie dialettiche di apertura/recinzione e partecipazione/inaccessibilit, interessante quanto sottolineato da Bollier182, il quale nel suo intervento rileva come:
le innovazioni nel settore high-tech hanno stimolato la crescita di comunit online, mentre, sul versante opposto le aziende cercano di impedire l'accesso a sempre pi contenuti attraverso la crittografia e una pi ampia protezione del copyright. [...] I clienti si ribellano contro gli alti prezzi che le aziende chiedono per le riviste scientifiche, i CD musicali e le banche dati online. Obiettano ai regolamenti di "gestione dei diritti digitali" che mettono sotto chiave il contenuto, limitano i diritti di uso legittimo (fair use) degli utenti e restringono il pubblico dominio. Si ribellano ai termini sempre pi lunghi della protezione del copyright e ai tentativi di calpestare la first-sale doctrine ("dottrina della prima vendita", che permette agli acquirenti di noleggiare o prestare DVD, libri e altri prodotti). C' chi si oppone poi alle licenze shrink-wrap (inserite nella confezione) e clickthrough (accettazione dei termini attraverso il sito web), attive rispettivamente sul software e sui siti web, che riducono le tutele dei consumatori e ne minano i diritti (pp. 41-42).

Seguendo il filo rosso tracciato dalla coppia Hess-Ostrom e grazie anche ai contributi degli autori dei saggi da loro curati, cercheremo di analizzare le questioni e le problematiche pi urgenti relative al tema dei commons della conoscenza.
182 Riferimento a Lo sviluppo del paradigma dei beni comuni, il saggio di D. Bollier che fa parte dei contributi raccolti all'interno dell'opera di Hess e Ostrom (2007, pp. 29-44).

298

Ci muoveremo su fronti diversi e spesso in reciproca opposizione, dal tema del copyright al discorso sul software libero e open source; dal problema dell'archiviazione del Web e della preservazione della sua memoria storica all'importanza delle biblioteche (reali e virtuali) come spazi di incontro aperti alla libert e vere e proprie "piazze del sapere" (Agnoli 2009). Doverosa sar anche la riflessione sull'individuazione delle possibili soluzioni e dei soggetti in grado di accogliere la sfida di individuare sistemi normativi capaci di accrescere il potenziale umano degli individui, conciliando le esigenze del libero accesso con l'assicurazione del giusto riconoscimento e sostegno da tributare a coloro che creano il sapere nelle sue varie forme. Infine prenderemo in considerazione alcuni esempi tratti dalla realt, dedicando una particolare attenzione al panorama della comunicazione scientifica in ambito accademico e al vertiginoso aumento dei costi di abbonamento a periodici e riviste elettroniche, nonch ad alcune novit portate avanti da Google, il principale attore e interprete sulla scena digitale dei nostri tempi. Le domande si rivelano numerose e non sempre il cammino necessario per giungere a una risposta, ancor prima che a una soluzione, si rivela pacifico e agevole. La nostra ambizione ancora una volta quella di diffondere la conoscenza di un settore di studio ancora poco frequentato, ma che riteniamo meriti i riflettori dell'ampio pubblico, accanto a consapevolezza e sensibilizzazione maggiori. Con lucidit e un approccio interdisciplinare, HessOstrom ci mettono dinanzi a questioni che non possono essere rimandate e dalle quali dipender il futuro e la buona salute delle societ in cui viviamo. Per rendersi conto della loro portata basta accennare agli interrogativi che le due autrici sollevano:

299

come costruire forme efficaci di azione collettiva e iniziative di autorganizzazione e autogoverno? Come liberarci da sistemi limitanti e a percorso obbligato, e progettare invece con creativit nuovi sistemi che si avvalgano delle illimitate capacit delle tecnologie dell'informazione digitale? Com' possibile salvaguardare con efficacia tutto ci che ha valore nel mantenimento e nella preservazione della documentazione culturale e scientifica? Come stabilire le priorit, di fronte a tanta nuova ricchezza di informazioni digitali? Come valutare il nostro attuale lavoro? Come monitorare i nostri progressi? Chi dovrebbe governare Internet? Come ottenere equit e giustizia? Come proteggere gli interessi e la libert creativa degli autori, assicurando al contempo il pi ampio accesso possibile alla nuova conoscenza e alle nuove informazioni? Come possono le universit coprire i costi dell'acquisto di riviste i cui prezzi stanno aumentando in modo esponenziale? In che modo lo sviluppo degli archivi digitali influir sul lavoro degli editori accademici? Come possono essere conservati per i secoli futuri i lavori scientifici esclusivamente in digitale? Quali sono i modelli di business appropriati ed efficaci per la conservazione della conoscenza? (Hess, Ostrom 2007, pp. 26-27)

Prime vittime sul campo nella corsa alla recinzione: la comunicazione scientifica [TITOLO SOTTOPARAGRAFO] Uno dei pi importanti e irrinunciabili requisiti necessari al progresso dei saperi consiste nella possibilit che gli studiosi abbiano un accesso libero e pressoch illimitato alle idee. Fino a pochi anni fa, in tal senso giocavano un ruolo predominante le biblioteche e le istituzioni culturali, veri e propri beni comuni della conoscenza "in mattoni e cemento", luoghi di propulsione in cui prendeva corpo tanto lo studio e la ricerca 300

individuali, quanto l'incontro e lo scambio reciproco di stimoli e punti di vista. L'espansione del Web ha contribuito a riconfigurare il nostro spazio fisico: il vantaggio in termini di ubiquit e rapidit delle comunicazioni consentito dalle trasmissioni digitali, unito al costo ridottissimo dei bit, ha determinato un cambiamento degli equilibri cui eravamo abituati e che tra le altre cose si concretizzato con la presenza e il trasferimento di molti soggetti nel cyberspazio. Case editrici e fondazioni accademiche che prima svolgevano i propri compiti esclusivamente nello spazio fisico, pubblicando edizioni cartacee di riviste, bollettini, periodici e qualsiasi altra forma "confezionata" di contenuti, si sono sempre pi allontanate dalla dimensione fisica e hanno iniziato a realizzare le proprie attivit e business nell'universo immateriale delle reti. Nel tempo che abbiamo descritto in apertura di sottoparagrafo, il progresso della scienza e l'erudizione erano legate alla possibilit degli individui di recarsi nei luoghi che custodivano le copie di libri e giornali, dove era possibile visionare microfilm, fotografie e atlanti geografici oppure ascoltare le registrazioni di interviste e opere musicali; oggi, tutte queste operazioni hanno un sapore romantico e un vago fascino retr poich il sapere si misura nella possibilit di "avere accesso alla conoscenza e alle informazioni online" (p. 83). Questo cambio di paradigma che interessa i media grazie ai quali entriamo in contatto con i contenuti non rappresenterebbe di per s un problema; il dato allarmante per legato al fatto che queste stesse tecnologie sono sempre pi frequentemente protagoniste di un processo di recinzione che ostacola il libero flusso delle idee e, nello specifico, mette a dura prova la sostenibilit e la stessa sopravvivenza della comunicazione scientifica. Stiamo vivendo una nuova era di enclosures, pi sottile ma 301

non per questo meno grave, un processo che forse nella forma pu sembrare diverso dal fenomeno che caratterizz il Medioevo e port alla privatizzazione dei pascoli e dei terreni comuni, fino a quel momento liberi appannaggio dell'intera comunit. Nella sostanza per ci troviamo di fronte a scopi del tutto simili, legati a interessi parziali che perdono di vista il bene comune e pubblico; una recrudescente spinta alla chiusura e alla cultura deviata del permesso e delle autorizzazioni infinite che, riguardando i beni probabilmente pi significativi delle nostre societ dematerializzate (informazioni, dati, notizie e molto altro ancora), si rivela ancor pi preoccupante. Constatare questo stato di cose fonte di sconforto e grande disillusione, soprattutto se pensiamo a quel recente passato in cui le tecnologie digitali furono salutate come strumenti in grado di modificare in positivo le nostre societ, non solo in grado di assistere l'uomo nello svolgimento di compiti e operazioni intellettuali altrimenti molto lunghe e dispendiose, ma anche per la grande innovazione in termini di accesso e offerta illimitata di contenuti e materiali, al di l dei tradizionali vincoli spaziali (sia dal punto di vista delle distanze geografiche, che per quanto riguarda la vastissima capacit di memorizzazione dei supporti digitali) e temporali. Quello che era stato il sogno e la grande aspirazione degli studiosi e degli enciclopedisti dell'antichit, cos come dei philosophes illuministi e, in anni pi prossimi a noi, di pensatori e scienziati come Vannevar Bush e lo stesso Tim Berners Lee, si sta di fatto trasformando in un'utopia fantasiosa e sembra essere sul punto di scoppiare, proprio come avvenne alla bolla speculativa della New Economy alla fine degli anni Novanta. Si tratta a tutti gli effetti di un paradosso, perch come rilevano Hess-Ostrom 183
183Il riferimento in questo caso al saggio Contrastare la "recinzione": rivendicare i beni comuni della conoscenza di Nancy Kranich, presente

302

(2007):
bench sempre pi persone abbiano accesso ai computer e a Internet, informazioni di grande valore vengono ritirate, perse, privatizzate o rese inaccessibili al pubblico, che un tempo invece vi poteva accedere. Di fatto, questo "giardino murato" o "recinzione" online costituisce una minaccia sempre pi grande per il principio democratico dell'informazione dei cittadini e per quello scientifico della cumulabilit della conoscenza. L'apparenza inganna: ci sembra di avere di pi, ma in realt abbiamo sempre meno. Le promesse dell'era dell'informazione non sono state mantenute: grandi porzioni di contenuti online sono state colpite da restrizioni imposte dai governi o da controlli da parte delle aziende, per esempio misure di protezione tecnologica, licenze e altre tecniche per la gestione dei diritti digitali; tutti questi fattori restringono l'accesso alle informazioni e ne limitano l'uso. Di conseguenza, molti contenuti online sono oggi riservati, avvolti e "impacchettati": considerati come segreti o privati, anzich essere visti come propriet pubblica o comune (p. 85).

Le basi di questo stato di cose iniziarono a essere poste intorno alla met del XX secolo, quando prese il via una collaborazione fra il governo degli Stati Uniti e l'industria della difesa finalizzata alla creazione di banche dati informatizzate che avrebbero sostituito le forme di registrazione tradizionali e garantito maggiore efficienza ed efficacia. Fra i tanti sistemi nati in questo periodo, fu sviluppato ad opera della Lockheed "Dialog", che aveva la particolarit di non rappresentare soltanto una raccolta di dati relativi alla difesa, ma anche tutta una serie ordinata di informazioni didattiche e mediche. Queste banche dati erano imprese che poterono essere create e mantenute grazie al sostegno e ai finanziamenti federali;
all'interno del libro di Hess-Ostrom (2007, pp. 83-125).

303

l'industria dell'informazione che cominciava a prendere forma intorno agli anni Sessanta inizi per a temere le conseguenze di quello che si stava configurando come un crescente monopolio governativo sulle informazioni e diede voce a questi timori sollecitando le autorit politiche alla riduzione ed eliminazione dei propri programmi di pubblicazione. E cos;
nel decennio successivo, l'amministrazione Reagan elimin moltissime pubblicazioni prodotte dal governo, delegando a privati alcuni programmi federali relativi a biblioteche e informazione (con la conseguente chiusura di molte importanti biblioteche federali di ricerca) e affidandosi il pi possibile al settore privato per la diffusione di informazioni di provenienza governativa. Con il successivo sviluppo delle reti, del World Wide Web e dei contenuti digitali, le pubblicazioni del governo in formato elettronico sono diventate un grosso business. Ma molte pubblicazioni ancora prodotte dal governo non sono pi incluse nei cataloghi standard, distribuiti attraverso il programma federale Depository Library, n sono pi archiviate o conservate per un accesso pubblico permanente. Negli anni ottanta, mentre le pubblicazioni del governo venivano privatizzate, molte associazioni accademiche hanno involontariamente agevolato la recinzione dei beni comuni quando hanno delegato la pubblicazione delle proprie riviste ad aziende private, allo scopo di contenere le quote associative e generare reddito. I prezzi delle riviste scientifiche sono saliti alle stelle e i gruppi editoriali ne hanno limitato l'accesso attraverso costose licenze, che spesso richiedevano l'acquisto di pacchetti o aggregati di testate. Purtroppo, quando i prezzi delle riviste hanno superato i budget delle biblioteche, i profitti a breve termine per le aziende sono stati rapidamente controbilanciati da cospicue perdite in termini di accesso ai risultati della ricerca. [...] All'inizio degli anni novanta, le fusioni tra gli editori di riviste scientifiche avevano lasciato il mercato nelle mani di pochi gruppi internazionali, mettendo sotto pressione i gi ristretti budget per l'istruzione

304

superiore con l'imposizione di abbonamenti che arrivavano a costare anche 20.000 dollari [...]. La dipendenza delle riviste scientifiche dal settore privato obbliga in sostanza le universit a finanziare la ricerca, a consegnarla a titolo gratuito a editori commerciali e poi a ricomprarla da costoro a prezzi astronomici. A causa dei fortissimi aumenti nei costi delle riviste il 220% dal 1986, a fronte di un aumento dell'indice dei prezzi al consumo pari al 64% le biblioteche di ricerca non hanno potuto fare a meno di disdire molti dei loro abbonamenti (pp. 86-88).

Accanto a questa spirale negativa, legata all'imposizione di un costo diretto di accesso sempre pi elevato, gli editori e gli aggregatori di informazioni hanno iniziato a imporre ai consumatori e alle biblioteche tutta una serie di limitazioni e restrizioni in materia di uso e condivisione dei materiali digitali, indipendentemente dal fatto che si trattasse di contenuti protetti da copyright o di pubblico dominio. Anche in questo caso le istituzioni culturali pubbliche si trovano in una condizione di dipendenza e forte svantaggio di fronte al settore privato dei colossi dell'industria, il cui unico obiettivo di incrementare i guadagni viene perseguito nei modi pi inaspettati, non solo spingendo sempre pi in alto il prezzo di acquisizione dei dati in loro possesso, ma soprattutto sigillando e controllando il modo in cui queste informazioni vengono poi utilizzate e distribuite. Si tratta di una duplice "recinzione", per cui:
alcune licenze vengono imposte agli utenti per il solo fatto di aprire confezioni avvolte nel cellophane o scaricare software da Internet; altre, siglate dalle biblioteche, richiedono negoziati complessi prima degli acquisti elettronici, e spesso obbligano le biblioteche ad acquistare pacchetti composti da pi prodotti molti dei quali di scarso interesse per poter ricevere le testate pi richieste. Inoltre, questi contratti centralizzano il controllo sul

305

flusso di informazioni e cancellano molte protezioni per l'utente garantite dalle leggi sul copyright, come i diritti di uso legittimo relativi alla visione, riproduzione e citazione di porzioni limitate di materiali protetti da copyright, oltre a proibire alle biblioteche di dare in prestito materiali a persone esterne alla struttura, o di archiviarli e conservarli per i futuri utenti. Per giunta, poich questi database protetti da licenza sono concessi in uso e non propriamente venduti per il possesso, la biblioteca si ritrova con pi nulla da offrire agli utenti se interrompe l'abbonamento, anche dopo aver pagato quote annuali per molti anni. Se si rendono necessari tagli al budget, spiega Siva Vaidhyanathan184, "la biblioteca non ha traccia di ci che ha acquistato: nessuna documentazione, nessun archivio. Tutto perduto" (pp. 88-89).

E come se tutto ci non fosse gi abbastanza:


proprio mentre biblioteche e studiosi sono messi sotto pressione per sostenere la produzione e preservazione della conoscenza, si trovano di fronte all'imposizione di nuove misure di protezione tecnologica come le tecniche di digital rights management185 (gestione dei diritti digitali, DRM), che impediscono ai singoli individui di dare in prestito e condividere opere creative, o di farne un "uso legittimo" attraverso commenti, parodie, studi eruditi o articoli di giornale. Il Congresso ha esacerbato questo problema approvando leggi come quella del 1998, il Digital
184 L'autrice del saggio fa riferimento al testo The Anarchist in the Library, pubblicato nel 2004 dalla casa editrice newyorkese Basic Books. 185Si tratta di tutti quei sistemi tecnologici che consentono a coloro che detengono il diritto d'autore su un certo materiale di esercitarlo, proteggendo e rendendo tracciabili i contenuti anche nella sfera digitale. Questa sorta di "filigrana elettronica" nascosta all'interno di tali file e ne regolamenta l'utilizzo ricorrendo per lo pi alle tecniche di crittografia. I DRM garantiscono che l'accesso ai contenuti da parte degli utenti finali avvenga a seguito di procedure di profilazione e autenticazione e permettono anche di controllare eventuali copie illegali create a partire dai file originali.

306

Millenium Copyright Act (DMCA), che commina sanzioni penali a chi elude la crittografia e le altre misure tecnologiche di protezione, nonch a chi distribuisce strumenti per eluderle; o il Sonny Bono Copyright Term Extension Act (CTEA), che estende di vent'anni la gi lunga durata del copyright, congelando cos il dominio pubblico in cui le opere sono liberamente distribuibili, copiabili e condivisibili. [...] Di recente, i tribunali hanno rafforzato queste azioni del Congresso che recintano ulteriormente il pubblico dominio e limitano i diritti del pubblico di utilizzare le informazioni. [...] Nel 2000, il tribunale ha imposto la chiusura di Napster, un servizio di condivisione di file musicali. Sistemi meno centralizzati come Grokster e KaZaA hanno preso il posto di Napster, ma anch'essi sono stati denunciati per "concorso" in violazione del copyright. Nel 2003 l'industria discografica ha cominciato a intentare cause contro centinaia di persone accusate di scaricare musica protetta da copyright, anche se molti di costoro condividevano file in maniera legale. I continui sforzi delle aziende che compongono l'"industria del copyright" per far chiudere i servizi di file sharing, perseguire individui per supposte violazioni del copyright e bloccare o recintare le informazioni in altri modi hanno prodotto vivaci contestazioni sul piano delle politiche per l'informazione e la cultura, e una riduzione nello scambio legittimo di informazioni (pp. 89-91).

Ci stiamo concentrando principalmente sul contesto americano perch proprio in questo Paese che il controllo sulle informazioni si fa ogni giorno pi pressante e invasivo. Persino una misura per certi versi utile come il filtro su internet, che nasce con l'intento positivo di limitare l'esposizione dei minori al gran numero di contenuti pedopornografici o comunque sia dannosi che possibile reperire sulla Rete, si rivelato essere uno strumento dannoso e poco efficace. In base al Children's Internet Protection Act del 2003, questi filtri sono diventati de 307

facto obbligatori nelle scuole e nelle biblioteche pubbliche degli Stati Uniti, poich un eventuale rifiuto alla loro installazione bloccherebbe i fondi federali che queste istituzioni ricevono. La contraddizione risiede nel fatto che questi dispositivi si dimostrano eccessivamente sensibili e limitanti, inibendo anche l'accesso di molto materiale legale e utile e tutto ci pu accadere perch la legge impone che essi siano attivi anche sui computer che vengono utilizzati esclusivamente dagli adulti e dal personale. E l'elenco non finisce qui, infatti:
un altro tipo di recinzione tornato in auge in seguito agli attacchi terroristici dell'11 settembre 2001, quando il governo statunitense ha messo in atto una serie di misure volte ad aumentare la sicurezza della nazione bloccando le informazioni "sensibili". Queste misure, simili a molte altre imposte durante la guerra fredda, accrescono notevolmente la segretezza del governo quasi a ogni livello, restringendo l'accesso a informazioni critiche sulla sanit e la sicurezza, e rimuovendo informazioni sensibili ma non segretate da siti web e riviste scientifiche. La pi clamorosa di queste misure il Patriot Act, approvato appena un mese dopo gli attacchi insieme a molte controverse misure di sorveglianza. [...] Ancor prima che questa legge venisse approvata, il procuratore generale John Ashcroft ha cercato di restringere l'accesso alle informazioni governative inviando agli enti pubblici un memorandum in cui li esortava a rifiutare ove possibile le richieste che si appellavano al Freedom of Information Act, ribaltando le precedenti linee guida che proibivano di diffondere informazioni solo nell'ipotesi che farlo potesse causare danni. Il governo sta anche revocando altre informazioni attraverso il processo di segretazione: l'Information Security Oversight Office degli Stati Uniti ha dichiarato la cifra record di 15,6 milioni di documenti segretati nel 2004, con un aumento del 10% rispetto al 2003 e del 50% rispetto al 2001 (pp.

308

92-93).

L'amministrazione Bush in particolare ha portato avanti una campagna "oscurantista" che ha circondato di barriere e restrizioni d'accesso contenuti che prima erano liberamente consultabili dai cittadini, come dati pubblici, siti web, documenti presidenziali e persino molte informazioni frutto di ricerche di rilevanza scientifica. Il pi delle volte la decisione di considerare tutto questo materiale come "sensibile" o nevralgico per la sicurezza nazionale per stata frutto di decisioni arbitrarie e non meglio precisati richiami a possibili allarmi, uno sproporzionato paternalismo cautelativo che ha chiuso sotto chiave informazioni un tempo aperte e che sta restringendo sempre pi la sfera d'azione civile dei cittadini. Un rimedio di questa portata rischia per di apportare pi danni che benefici, un po' come se un genitore decidesse di prevenire le allergie e le malattie che potrebbero colpire il proprio figlio, sigillandolo in casa all'interno di una bolla di vetro. Il paragone potr sembrare poco pertinente, ma un fatto concreto che:
tutte queste limitazioni all'accesso pubblico post 11 settembre hanno spinto i decisori di tutto lo spettro politico, compreso il presidente della Commissione September Eleven, a esprimere preoccupazione per le restrizioni non necessarie che il governo sta imponendo a informazioni essenziali per la sanit e la sicurezza pubblica. Le restrizioni sono necessarie per proteggere da minacce reali; ma ricercatori e studiosi, teorici e attivisti delle libert civili e bibliotecari mettono in guardia: se la segretezza e non l'apertura diventa la norma, ne risulter frenata la libert indispensabile per accelerare il progresso della conoscenza tecnica e aiutare il Paese a comprendere proprio le potenziali minacce. Restrizioni cos zelanti dell'accesso alle informazioni provocano una "recinzione" non necessaria dei dati pubblici: "recinzione" che compromette l'innovazione, frustra la creativit

309

di studiosi e ricercatori impegnati nella soluzione di problemi globali (p. 94).

Se le scelte politiche e gli interessi aziendali rappresentano le cause manifeste del processo di privatizzazione della conoscenza, relegata in archivi segreti e inaccessibili oppure visualizzabile solo previo pagamento di onerosi costi di abbonamento, non dobbiamo trascurare un fattore altrettanto critico che contribuisce ad aggravare la salute democratica delle nostre societ. Ancora oggi continuano infatti a essere evidenti le disparit di accesso a internet, e agli strumenti necessari al conseguimento di una alfabetizzazione informatica, fra le lite di "connessi e cablati" e una percentuale molto elevata della popolazione mondiale che invece esclusa da tutto ci. In societ quasi del tutto dematerializzate come quelle in cui viviamo, in cui tutte le informazioni sono tradotte in sequenze binarie che percorrono le autostrade delle reti in fibra ottica, in cui anche le pi semplici operazioni quotidiane risultano ormai legate a un modem e al terminale di un computer e il denaro stesso ha perso la sua fisicit, sostituito da flussi e transazioni virtuali, la questione del digital divide dovrebbe cessare di essere un problema secondario ed entrare di prepotenza tra le priorit dell'agenda politica dei governi e delle amministrazioni. Questa moltitudine di individui che non sono raggiunti dalla tecnologia, e che non dispongono degli strumenti culturali per imparare a utilizzare dispositivi che nelle opulente societ occidentali vengono invece dati per scontati, rappresentando quasi un'estensione del cervello e degli arti sin da quando siamo bambini, di fatto non esistono e non possono far valere in nessun modo le proprie istanze e rivendicazioni. Nel saggio di cui autrice, Nancy Kranich riporta quanto osservato da Larry Irving, ex direttore della National Telecommunications 310

and Information Administration (NTIA), il quale sottolinea come questo problema sia evidente anche all'interno delle strutture scolastiche di uno stesso paese, dal momento che:
gli studenti delle scuole d'lite ben attrezzate spesso hanno pi contatto con, e pi esperienza di, strumenti informativi sofisticati, il che conferisce loro un notevole vantaggio. Al contrario, gli studenti dei college e delle universit tradizionalmente frequentati da afroamericani, delle istituzioni che si rivolgono alla popolazione ispanica o delle scuole tribali probabilmente disporranno di tecnologie e infrastrutture pi vecchie e di un numero inferiore di abbonamenti a riviste elettroniche (oltre alle loro limitate esperienze pre-college) che li penalizzano rispetto alla preparazione necessaria per entrare nel mondo del lavoro. Anche coloro che riescono ad avere accesso ai computer e alle reti di telecomunicazioni spesso mancano delle competenze adeguate per utilizzare efficacemente queste risorse. Troppi studenti, docenti e cittadini sono incapaci di identificare, valutare e applicare le informazioni e comunicarle con efficienza, efficacia e responsabilit: competenze essenziali per imparare, far progredire la conoscenza e ottenere buoni risultati sul lavoro, oltre che per svolgere le attivit quotidiane richieste ai cittadini di una societ sviluppata e democratica (p. 95).

Questa presa di coscienza dei rischi e delle difficolt che minano la stabilit e il futuro della societ della comunicazione in cui siamo immersi non pu per prescindere da un altro ordine di problemi, che riguarda da vicino la natura delle informazioni digitali. L'incubo dei naviganti e il 404 error: File not found Quante volte, indossando i panni del navigatore della rete alla ricerca di un certo contenuto, oppure mentre decidevamo di tornare a visitare un sito web che ci aveva favorevolmente 311

colpito, ci sar capitato di visualizzare quell'inappellabile comunicato del browser che ci dichiara che non possibile recuperare quella risorsa informativa? Oppure, scorrendo l'elenco di tutte quelle ricevute, invano abbiamo cercato una ben precisa mail, scoprendo che era scomparsa poich, semplicemente, dal punto di vista digitale essa aveva cessato di esistere? Il senso di impotenza e sconforto che sar derivato da questi fallimenti sar stato proporzionale all'importanza della situazione, ma in entrambi i casi ognuno di noi avr provato un certo fastidio, scontrandosi con un ostacolo che non pu essere aggirato e che frustra le nostre capacit. Un senso simile a quello sperimentato da chi avesse salvato dei dati significativi all'interno di un CD, per poi scoprire che a seguito di alcuni graffi presenti sulla sua superficie, tale contenuto non poteva pi essere visualizzato e aperto. Un po' come quando scopriamo che la banda della carta di credito o il chip all'interno della sim card del telefonino si sono smagnetizzati e ci costringono a pagare in contanti (o a rinunciare del tutto all'acquisto) e a contattare l'assistenza tecnica che gestisce il nostro servizio di telefonia mobile. Questa breve "carrellata degli orrori" segnala come il progresso tecnologico s portatore di molti vantaggi e comodit, consentendoci di risparmiare energie e memoria e delegando tutta una serie di compiti e operazioni alle capacit di calcolo e archiviazione dell'accoppiata software/hardware; al tempo stesso per ogni innovazione fragile e vulnerabile, necessitando di un periodo di sedimentazione che sia in grado di renderla pi sicura e facilmente gestibile. Il ritmo con il quale i laboratori di ricerca da una parte e il mercato dall'altra sfornano a distanza di pochi mesi prodotti e dispositivi sempre pi potenti e miniaturizzati non facilita quel processo di stabilizzazione che ha caratterizzato operazioni che consideriamo banali ma che 312

compiamo decine di volte anche in una sola giornata e che solo il trascorrere dei secoli ha potuto affinare al punto da renderci completamente padrone di esse. Forse l'accostamento di due parole come "tecnologia" e "libro" potr far sorridere i pi, e suonare privo di senso soprattutto alle generazioni pi giovani dei nativi digitali; sta di fatto che la tecnica di registrare le informazioni su di un supporto cartaceo prima a mano, nel caso dei manoscritti; in seguito all'invenzione della stampa a caratteri mobili, per mezzo di strumenti specifici che dal torchio giungono fino alle pi moderne stampanti laser anch'essa un ritrovato dell'ingegno umano e, nel momento in cui venne introdotta, rappresent il massimo in termini di novit e progresso, al pari dei pi sofisticati artefatti informatici dei nostri tempi. La "nascita del libro" (Febvre, Martin 1958) rappresent una rivoluzione culturale e sociale di portata enorme e in un primo momento la sua diffusione incontr resistenze e obiezioni da parte di quanti erano fautori di posizioni reazionarie e volevano conservare lo stato di privilegio e esclusivit che caratterizzava il sapere, appannaggio della sola classe dirigente e da cui le masse erano escluse. Tuttavia, ancora oggi a distanza di secoli dalla sua comparsa, senza voler apparire retrogradi o datati, ci sentiamo di evidenziare la grande validit e longevit di questo supporto, capace di resistere con discreto successo all'azione usurante del trascorrere del tempo e ai recenti tentativi di imitazione, aggiornamento e restyling digitale ad opera delle aziende produttrici di e-book. Al di l delle molteplici e controverse opinioni che potrebbero originarsi su questo argomento, in questa sede ci preme sottolineare la grande stabilit e affidabilit che caratterizzano l'oggetto libro e che lo distinguono nettamente dai suoi discendenti di silicio e bit. Se escludiamo la distruzione arrecata dall'acqua e dal fuoco, che 313

rappresentano i nemici di prima categoria della carta, e i danni procurati dall'incuria dell'uomo, questi parallelepipedi composti da pagine si dimostrano prodotti notevolmente resistenti e quasi privi di data di scadenza. Ne sono testimonianza i manoscritti e gli incunaboli ancora oggi presenti nei monasteri o nelle collezioni di fortunati bibliofili, e forse ancor pi lo dimostrano i papiri e i rotoli di pergamene giunti a noi e protetti nelle teche di musei e archivi privati. In questi ultimi casi non si tratta propriamente di carta, ma la logica soggiacente sempre la stessa: in quanto oggetti materiali i libri possono essere preservati e destinati alle generazioni future in modo concreto e tangibile, come faremmo (e di fatto facciamo) per qualsiasi altro bene che ci interessa e intendiamo conservare. Purtroppo uno stesso destino non ancora tra le caratteristiche di punta delle tecnologie informatiche, i cui dati sono paradossalmente pi deperibili e soggetti all'oblio e necessitano di interventi di salvataggio e manutenzione frequenti e accurati, nonch una particolare attenzione circa lo stato dei vari dispositivi di memoria, facilmente attaccabili da graffi e scalfitture che potrebbero compromettere la capacit di visualizzare le informazioni in essi codificati da parte delle testine laser dei rispettivi strumenti di lettura. Un problema analogo e non meno grave poi quello che deriva dall'assenza di portabilit che spesso affligge i file informatici, una situazione per cui contenuti creati e salvati attraverso un determinato software (proprietario) possono essere aperti esclusivamente da quel determinato programma o dalla macchina prodotta da una specifica azienda, risultando illeggibili e inutilizzabili da altri dispositivi o linguaggi. Le case di produzione ottengono il vantaggio economico di legare la clientela ai propri marchi e ottengono fidelizzazione, ma in realt non fanno altro che 314

imporre la propria tirannia a un'utenza che non ha a disposizione alternative e non libera di scambiare e condividere le sue informazioni con quanti ricorrono ad applicazioni e computer prodotti dalle aziende concorrenti. In aggiunta a ci, non dobbiamo dimenticare che i supporti rappresentano un'entit dinamica e in continua evoluzione: a scadenze regolari di alcuni anni il progresso della scienza dei materiali, unito a nuove tecniche di stoccaggio dei dati, permette di introdurre nuovi supporti, caratterizzati da un rapporto capienza/ingombro sempre pi vantaggioso. Se i floppy disk sono ormai un cimelio introvabile e dal fascino vintage, tanto che gi da alcuni anni i computer escono dalle fabbriche sprovvisti dell'ingresso che permetteva di leggerli, evidente che audiocassette e VHS saranno le prossime vittime sacrificate dalla inesorabile ricerca del supporto perfetto. CD e DVD si trovano ancora in una posizione salda e costituiscono i principali e pi diffusi dispositivi in cui salvare le nostre informazioni digitali, sotto forma di documenti, file audio o video; solo una questione di tempo per, poich anche il loro attuale primato destinato a essere eroso e sostituito da nuovi formati ancora pi efficienti (come ad esempio i dischi Bluray). Un'analisi dei problemi e delle questioni pi urgenti relative allo stato dei beni comuni della conoscenza nell'epoca della comunicazione digitale non pu pertanto prescindere da questi aspetti, per nulla marginali e peregrini rispetto alle discussioni finora prese in esame. Non possiamo perdere di vista il fatto che in un'era che ha fatto proprie le metafore della Rete e del docuverso in cui la ricerca e lo studio assumono sempre pi i connotati dell'esplorazione e della navigazione, tra risorse non pi accomunate dalla consequenzialit, ma legate da logiche ipertestuali e raggiungibili secondo percorsi ogni volta imprevedibili e irripetibili si fa ancora pi urgente la 315

necessit di punti fermi e "bussole", che siano in grado di ancorare e orientare i percorsi mentali degli individui, conducendoli all'informazione pertinente ed evitando lo smarrimento nei meandri di "rumore" e spazzatura che si nascondono fra i nodi del Web. La rappresentazione del World Wide Web come un enorme tessuto, la cui trama di fili rappresenterebbe la miriade di collegamenti esistenti fra i miliardi di pagine che lo compongono, evidenzia l'importanza di salvaguardare in modo permanente tali rimandi, onde evitare vicoli ciechi e qualsiasi altro tipo di smarrimento. Nel saggio intitolato Preservare i beni comuni della conoscenza186, Donald J. Waters accenna a una storia della nota a pi di pagina, che esalti l'eccezionalit di questo strumento intellettuale, sul quale poggia e si alimenta qualsiasi tipo di studio e arricchimento del sapere. Le note permettono infatti di allargare il punto di vista di qualsiasi discorso, creando una struttura a pi livelli, densa di rimandi a fonti e ad altre opere. Perch sia possibile che questo potenziale in termini di progresso della conoscenza si esalti per necessario che "le opere oggetto di rimando i referenti [siano] state adeguatamente preservate e [possano] essere messe alla prova" (p. 151):
in altri termini, quando gli studiosi usano sistemi di citazione per collegare un'opera a un'altra, stabiliscono ed esercitano tessuti sotterranei di fiducia. Questi tessuti a loro volta legano i ricercatori ad altri ricercatori, gli insegnanti agli studenti e i creatori agli utenti, al di l di spazio e tempo, a formare comunit scientifiche durevoli e produttive. Le opere collegate rappresentano le risorse comuni della conoscenza i beni comuni della conoscenza sulle quali operano i membri di queste
186 Saggio che costituisce uno dei numerosi contributi raccolti nel volume a cura di Hess-Ostrom (2007), chiudendone la seconda parte (pp. 151173).

316

comunit per produrre nuova conoscenza. I collegamenti funzionano, la fiducia si mantiene e i beni comuni nutrono la vita intellettuale soltanto quando il lettore in grado di controllare i riferimenti all'altro capo; e quel controllo dipende da un sistema costante e affidabile per preservare le conoscenze condivise (p. 152).

Il tema della conservazione dei contenuti digitali al centro del contributo di questo autore, la cui attenzione dedicata in modo particolare ai sistemi di comunicazione scientifica, all'interno dei quali la transizione dalla carta ai bit una pratica cos ampiamente diffusa da essere divenuta la norma. Infatti:
oggi, sempre pi studiosi pubblicano articoli in riviste elettroniche, partecipano a progetti di pubblicazione di libri elettronici e costituiscono nuovi tipi di risorse che sfruttano le capacit del mezzo digitale di collegare e aggregare materiali e di simulare e visualizzare relazioni complesse. Inoltre, avvalorano le proprie ricerche con citazioni di questi e di molti altri materiali digitali, oltre a fonti pi tradizionali. Questa erudizione elettronica altrettanto importante, per l'accumulo di cultura e per la creazione di conoscenza, di quanto lo erano un tempo le pubblicazioni a stampa, ed quindi altrettanto importante preservarla (p. 153).

a questo punto per che emerge un problema non trascurabile. Se la conservazione pu essere definita
come il processo mediante cui ci si assicura che le conoscenze condivise si mantengano intatte: che i materiali scientifici siano disponibili per chi intenda citarli e che, quando vengono citati, rimangano disponibili per la consultazione e lo studio ulteriore (ib.)

317

risulta evidente che sin dall'antichit tale responsabilit sempre stata assunta e portata avanti dalle biblioteche, soprattutto quelle universitarie, che hanno svolto il ruolo importantissimo di custodi e distributori del sapere, salvaguardando in forma cartacea le fonti scientifiche e
acquistando dagli editori libri e riviste destinate ai ricercatori, insegnanti e studenti della comunit locale. Queste strutture immagazzinano le opere in luoghi specifici e in ambienti protetti, riparano le legature e le pagine ove necessario, e trasferiscono su microfilm oppure digitalizzano i volumi a rischio di deterioramento (ib.).

L'attuale tendenza alla smaterializzazione dei contenuti e dei materiali della ricerca scientifica altera un quadro che era ormai consolidato, mettendo sempre pi in discussione e stravolgendo la missione secolare delle biblioteche e delle altre istituzioni di conservazione della cultura. Un tempo gli articoli, le riviste e i bollettini scientifici conducevano una doppia esistenza: la pubblicazione cartacea era la regola, accanto alla quale, per assecondare l'evoluzione della comunicazione e allargare lo spettro delle possibilit degli utenti, venivano create delle versioni digitali reperibili e consultabili attraverso il medium della Rete. Da qualche anno a questa parte per gli equilibri delle forze in campo si sono del tutto ribaltati, al punto che molti attori del mondo dell'editoria hanno abbandonato l'universo fisico tradizionale per riconvertirsi in editori elettronici tout court. In questo nuovo scenario le biblioteche non acquistano pi il possesso, reale e tangibile, delle riviste e dei libri in formato elettronico, ma sottoscrivono delle licenze che regolano le modalit d'uso e distribuzione di risorse digitali che di fatto risiedono su server remoti, al di fuori del loro controllo diretto. Alla luce di quanto detto sinora 318

chiaro che il tema della conservazione non pu essere rimandato: esso pone all'ordine del giorno preoccupazioni e interrogativi ai quali necessario rispondere in tempi sufficientemente brevi. Nel frattempo:
i materiali digitali si stanno dimostrando fragili ed effimeri, con conseguenze potenzialmente gravi per la condivisione delle conoscenze. Brewster Kahle, che ha fondato l'Internet Archive per preservare porzioni del web, stima che un oggetto presente sul web abbia oggi un'aspettativa di vita media che si aggira intorno ai 100 giorni. La mortalit elevata anche per la letteratura scientifica basata sul web. Secondo uno studio pubblicato su "Science" nell'ottobre 2003, oltre il 30% degli articoli in una serie di riviste mediche e scientifiche ad alto impatto contenevano uno o pi rimandi a indirizzi web, ma "la percentuale di rimandi a siti non pi attivi aumentata dal 3,8% dopo tre mesi al 10% do 15 mesi, fino al 13% a 27 mesi dalla pubblicazione. Uno studio simile condotto nel 2001 ha rilevato che la percentuale di rimandi a siti Internet inattivi aumentava dal 23% dopo due anni al 53% dopo sette anni dalla pubblicazione187. Con uno sforzo ulteriore, molte opere citate nei rimandi inattivi potevano comunque essere reperite, ma in zone diverse della rete e senza alcuna conferma della loro provenienza, n alcuna prova che i contenuti non fossero stati alterati. I risultati di questi studi gettano un'ombra di dubbio sull'assennatezza della pratica di citare fonti online [...] e indicano chiaramente che l'ecosistema digitale delle conoscenze condivise altamente instabile e che la loro preservazione tutt'altro che assicurata (pp. 154-155).

Waters prende in considerazione il caso specifico delle riviste elettroniche (e-journals), richiamandosi a un progetto finalizzato alla pianificazione della conservazione risalente
187 Per questi dati rimandiamo all'ampia bibliografia presente al termine del saggio in questione (Hess, Ostrom 2007, pp. 391-394).

319

all'autunno del 2000, indetto dalla fondazione Andrew W. Mellon e a cui furono invitate a partecipare sette fra le pi importanti universit degli Stati Uniti, unitamente a editori da esse selezionati. Nonostante la fattibilit tecnica della conservazione elettronica, questi progetti entrarono ben presto in una fase di stallo poich si trovarono ad affrontare i ben noti problemi economici e politici che caratterizzano i beni pubblici. In particolar modo criticit riguardanti le modalit di finanziamento, il free riding e l'individuazione di incentivi capaci di spingere gli individui e le istituzioni a partecipare al mantenimento di un bene. Di nuovo, si parano davanti ai nostri occhi la rassegnazione e le soluzioni drastiche prospettate da Hardin nel pi volte citato articolo The Tragedy of the Commons (1968): di fronte all'egoismo dell'uomo e richiamandosi al pensiero di Thomas Hobbes, egli proponeva di risolvere la questione del finanziamento e della sostenibilit dei beni comuni, affidandosi al potere coercitivo del governo (il Leviatano) oppure incoraggiando la privatizzazione e le capacit di ottimizzazione insite nel mercato. Certamente, e questo l'argomento centrale dell'articolo di Waters:
sia i governi sia gli interessi privati hanno ruoli da svolgere nella conservazione dei beni comuni della conoscenza; ma molte ricerche sperimentali e sul campo nell'economia politica dei beni comuni hanno altres mostrato che il pessimismo di Hardin sulle prospettive del mantenimento delle risorse comuni era infondato. Un caso dopo l'altro, si dimostra che gruppi di persone con un interesse comune in una risorsa condivisa svilupperanno e raggiungeranno un accordo nella messa a punto di meccanismi su base comunitaria per controllare e finanziare la preservazione della risorsa (pp. 157-158).

320

Partiamo innanzitutto dalla definizione dei tre ruoli che entrano in gioco nel processo di archiviazione e che consistono in produttore, consumatore e archivio. Il primo rappresentato dal singolo o dal gruppo di individui che creano un oggetto informativo e che sono i titolari dei diritti di propriet ad esso collegati. Tali contenuti costituiscono il servizio che il produttore pu vendere, offrire in licenza o tramite altri accordi all'utente-consumatore. Infine, l'archivio " responsabile dell'esercizio dei diritti e dei doveri legati alla conservazione della documentazione culturale, storica o accademica" (p. 158). A seconda del modo in cui questi tre ruoli si combinano reciprocamente, potremo ottenere cinque diversi modelli organizzativi: due esempi di "archivi organizzativi", accanto a un "archivio del produttore", un "archivio del consumatore" e un "archivio basato su comunit". Ci che rende simili i primi due modelli il fatto che in entrambi i casi:
il produttore degli oggetti informativi e il consumatore del servizio di conservazione appartengono alla medesima organizzazione, la quale ha un fortissimo interesse e incentivo a preservare gli oggetti che produce. La differenza tra i due modelli che nel primo caso (Modello A) l'archivio ospitato entro i confini dell'organizzazione, mentre nel secondo (Modello B) l'archivio esternalizzato presso un fornitore terzo (p. 159).

Il Modello C rappresenta invece un caso in cui l'allineamento organizzativo coinvolge il produttore e l'archivio, in vista del fine di conservare parte della documentazione culturale che potr essere cos destinata ai consumatori (esempi di archivi del produttore sono quelli delle case editrici e gli stessi autoarchivi degli autori). Ferma restando la comprensione da parte degli editori dell'importanza della preservazione dei contenuti (le loro banche dati rappresentano sia una fonte 321

futura di reddito, sia i mattoni sopra i quali costruire nuove imprese conoscitive, nonch i riferimenti che obbligatorio mantenere in vita, pena l'impossibilit di rimandarvi attraverso citazioni e note), la domanda che rileva se queste iniziative di conservazione rientrino a pieno titolo tra le priorit che stanno a cuore ai produttori. La credibilit di questi archivi sembra essere messa in discussione dal fatto che
di solito gli editori di riviste non considerano la conservazione a lungo termine parte della loro missione e delle loro responsabilit. La fattibilit a lungo termine di qualsiasi archivio del produttore che essi creano quindi dubbia, e la preoccupazione principale se le loro pubblicazioni elettroniche sono prodotte in un formato preservabile che possa sopravvivere al di fuori del bozzolo del sistema proprietario usato dall'editore. Un ingrediente necessario per una prova di preservabilit il trasferimento di dati dalla loro sede originaria verso archivi esterni, e finch gli editori rifiutano o sono incapaci di fare questi trasferimenti, la prova non pu essere effettuata (p. 161).

Ulteriore punto debole degli archivi del produttore, strettamente connesso all'immaterialit delle pubblicazioni elettroniche, che sono conservate online e mancano pertanto di copie fisiche, il fatto che la loro eventuale rimozione (per esempio a seguito di ripensamenti o dispute sul copyright da parte degli autori) provoca conseguenze altamente dannose, sparizioni preoccupanti che sommate insieme determinano quello che Waters ha efficacemente descritto come un "effetto groviera" (p. 162) nella documentazione accademica. Altro caso invece quello degli archivi del consumatore, sempre pi diffusi nell'attuale era del Web 2.0, in cui il ruolo di archiviazione e conservazione portato avanti dal singolo utente. Per quanto la passione e gli interessi di questi individui 322

siano in grado di realizzare collezioni di documenti di valore significativo, numerosi sono i dubbi e le incertezze relative alla capacit di sostenere queste imprese sul lungo termine. Infine, siamo giunti a quello che l'ultimo modello organizzativo, forse il pi interessante e complesso di tutti, in cui
ciascuno dei tre ruoli significativi svolto da attori indipendenti. Idealmente, emerger una rete di archivi digitali dotati di tutte le competenze necessarie, che sar responsabile della conservazione delle riviste elettroniche e di altri materiali digitali di rilevanza culturale e scientifica. [...] Ma la caratteristica organizzativa principale di questo modello per la preservazione delle riviste elettroniche che i membri della comunit accademica, compresi i produttori (soprattutto gli editori), i consumatori rappresentati dai ricercatori e dalle loro istituzioni accademiche, e le biblioteche troverebbero modi per risolvere insieme questo pressante problema188 (p. 163).
188 All'interno del saggio si fa riferimento a due sistemi di conservazione basati su comunit promossi e sostenuti dalla fondazione Mellon, la cui capacit di responsabilizzare e far lavorare di concerto i diversi attori coinvolti fa ben sperare sulla loro riuscita in particolare, e sulla possibilit di trovare soluzioni al problema della conservazione delle risorse digitali pi in generale. Si tratta di Portico, una nuova organizzazione "progettata per preservare i file sorgente usati per pubblicare riviste elettroniche" (p. 164) che "ha avviato una relazione di business con dieci editori, ha sviluppato meccanismi per trasferire dati dagli archivi di questi ultimi e ha progettato e costruito un prototipo di repository cooperativo" (ib.). L'altra iniziativa, legata alla Stanford University, sta sviluppando un sistema di archiviazione che prende il nome di LOCKSS (Lots of Copies Keeps Stuff Safe): un software simile a quello dei motori di ricerca stato autorizzato dagli editori a catturare documenti e presentazioni che introducono ai contenuti delle loro riviste, che possono cos essere distribuite in modo protetto nei campus locali. Come suggerisce il suo acronimo, "una caratteristica importante del LOCKSS che progettato per prevenire guasti fatali nel sistema di archiviazione mediante la creazione di ridondanze e di costante verifica

323

Il fatto che questi modelli siano portati avanti da soggetti distinti e indipendenti, sia dai titolari dei diritti di propriet sui contenuti che dagli utenti consumatori, rappresenta il vero punto di forza degli archivi basati su comunit, che si configurano sempre pi come "terze parti affidabili" (p. 165), quali ad esempio universit e istituzioni culturali, le quali hanno veramente a cuore il tema della conservazione. Non vogliamo con ci sostenere che tutti i problemi siano stati risolti, anche perch per portare a compimento iniziative di questa portata c' bisogno di accordo (per esempio stabilire quali materiali vadano conservati) e coordinamento tra le parti coinvolte; sembra tuttavia possibile che questo tipo di organizzazione sia capace di costituirsi come intermediario, in grado di "creare un modello di business che raggiunga un equilibrio e riesca a offrire benefici a entrambi i lati" (p. 166). Un'azienda che fornisce carte di credito rappresenta un caso tipico di intermediario all'interno di un mercato bilaterale: da un lato devono essere previsti degli incentivi che spingano i negozianti ad accettare pagamenti per mezzo di carta di credito, dall'altro i clienti devono ottenere un vantaggio che li spinga ad utilizzarla. evidente l'importanza di saper lavorare su entrambi i lati del mercato e questo problema a ben vedere simile a quello che caratterizza gli archivi basati su comunit,
che devono trovare un modello che coinvolga sia gli editori sia i lettori: i lettori, e soprattutto le biblioteche, non sono interessati a partecipare agli archivi a meno che essi non contengano un ampio numero di riviste, e gli editori sarebbero restii a concedere le proprie testate se la domanda da parte di biblioteche e lettori attraverso gli archivi non fosse reale. Il problema del mercato bilaterale che affligge gli archivi basati su comunit aggravato dal fatto che il prodotto la conservazione che cercano di creare
e rimozione dei bug (p. 165).

324

per la comunit un bene pubblico. Come abbiamo visto, difficile escludere membri della comunit dai benefici della conservazione. La possibilit del free riding rende quindi arduo stimolare la partecipazione agli archivi basati su comunit. Tuttavia, l'esclusione difficile ma non impossibile. Ci che la conservazione garantisce l'accesso futuro all'opera preservata, e una soluzione al problema del free riding consiste nel creare un'associazione volontaria, o club, di partecipanti che traggono benefici reciproci dall'esserne soci, e nel trattare la preservazione come un bene di club in cui certi benefici chiave, tra cui quello dell'accesso futuro garantito, sono limitati ai partecipanti. Come sostengono Richard Cornes e Todd Sandler189, i club forniscono un'importante "alternativa esterna all'amministrazione pubblica nella fornitura di beni comuni". Portico e LOCKSS hanno di fatto organizzato dei club come mezzo per fornire le proprie soluzioni di conservazione basata su comunit (p. 167).

Un esempio che traduce in realt queste premesse costituito dalla Digital Public Library of America (DPLA190), il cui lancio stato annunciato nel mese di aprile 2012191 da parte di Robert Darnton, direttore della biblioteca dell'Universit di Harvard.
189 Per i riferimenti ai lavori di questi autori rimandiamo alla bibliografia del saggio di Waters (pp. 391-394). 190 Per la pagina web della DPLA rimandiamo al sito http://dp.la/. 191 Per l'annuncio in questione rimandiamo ad alcuni articoli online tutti in inglese, a parte uno pubblicato sulla versione elettronica de Il Sole 24 Ore reperibili ai link di seguito riportati: http://lj.libraryjournal.com/2012/04/copyright/darnton-makes-the-casefor-dpla-at-columbia-law/, http://earlymodernonlinebib.wordpress.com/category/robert-darnton/, http://blogs.law.harvard.edu/dplaalpha/2012/04/05/press-americandigital-public-library-promised-for-2013/, http://www.teleread.com/library/robert-darnton-promises-digital-publiclibrary-by-2013/ e http://www.ilsole24ore.com/art/cultura/2011-0530/darnton-direttore-harvard-metteremo-133032.shtml? uuid=AaSPqobD.

325

La notizia dell'avvio dell'iniziativa, previsto per l'aprile del 2013, stata data dallo stesso Darnton durante un intervento intitolato Digitize, Democratize: Libraries and the Future of Books, tenutosi presso il Kernochan Center della Columbia Law School. Accennando alla diffusa privatizzazione della conoscenza e al progetto di digitalizzazione portato avanti da Google, Darnton sottolinea come la DPLA sia una prova a favore della possibilit di costruire una biblioteca digitale di massa in vista del bene comune, al di l delle sole logiche commerciali. Rivolgendosi a un pubblico composto in larga parte da uomini di legge, egli ribadisce la questione spinosa riguardante le opere ancora coperte da copyright, invocando la partecipazione di tutti alla risoluzione di un problema tra le cui possibili soluzioni vi potrebbe essere quella di un richiamo alle clausole relative al fair use previste nel Copyright Act (considerata la mission no-profit alla base della DPLA) nonch quella di una concessione volontaria da parte degli stessi autori. Come Darnton, anche noi siamo consapevoli dei numerosi nodi ancora da sciogliere, ma non per questo non possiamo non guardare con ottimismo ed entusiasmo a questa impresa che promette di mettere a disposizione di tutti la versione digitale di pi di 2 milioni di libri di pubblico dominio, traducendo in realt il sogno di rendere accessibile la nostra eredit culturale all'intera collettivit, in modo libero e senza pedaggi di ingresso. Auspicando un equilibrio fra le ragioni del business e la democratizzazione della conoscenza, l'autore suggerisce di considerare le barriere del copyright in modo pi flessibile, alla stregua di un moving wall, un muro mobile capace di avanzare anno dopo anno, parallelamente alla scadenza dei diritti e alla volont dei titolari di far s che le proprie opere siano digitalizzate e messe a disposizione del grande pubblico.

326

L'open access, una soluzione per contrastare il pedaggio della cultura e favorire la libera circolazione della conoscenza Nel corso di questo capitolo siamo tornati pi volte sulla caratteristica fondamentalmente aperta che caratterizza internet e che sin dalle origini ha portato allo sviluppo della rete informativa pi grande del mondo. I protocolli del web ideati da Tim Berners-Lee, cos come il principio dell'e2e, hanno giocato un ruolo chiave nella strutturazione non gerarchica e priva di barriere di questo nuovo mezzo di comunicazione che, oltre a offrire la possibilit di collegamento fra persone, rappresenta anche una banca dati digitale vastissima e multimediale (video, testi, musica e qualsiasi manifestazione del pensiero traducibile in codice binario). Al tempo stesso abbiamo messo in evidenza alcune tendenze (l'estensione ad libitum del copyright che descriveremo nel dettaglio pi avanti, un controllo sempre pi diffuso da parte dei governi e dei privati, la recinzione di crescenti porzioni di contenuti sottratti alla collettivit) che obbligano alla riflessione e che ci inducono a mitigare gli entusiasmi e le speranze relative al futuro della cultura e alla sopravvivenza stessa di un sapere critico e fruibile da tutti, indipendentemente dalle sole logiche imposte dal mercato. in quest'ottica, e nell'alveo del nostro discorso riguardante i beni comuni della conoscenza, che vogliamo ora introdurre il tema del libero accesso ai contenuti, la cui importanza centrale nei campi della ricerca e della comunicazione scientifica. Il termine open access (OA) rappresenta un attributo col quale possiamo riferirci a tutta la letteratura in formato digitale192 che risiede su un server
192 Questo aspetto fa dei contenuti OA dei beni comuni non rivali (o non sottraibili): l'utilizzo da parte di un individuo non produce il logoramento n l'esaurimento della risorsa, che potr pertanto essere disponibile per un numero indefinito di persone. In questo senso, per

327

internet (prerequisito fisico) e che non risulti coperta da copyright o altri vincoli di licenza. Per far s che questo prerequisito legale sia soddisfatto possibile:
rendere l'opera di pubblico dominio, oppure ottenere il consenso di chi detiene il copyright per tutti gli usi accademici legittimi, come la lettura, il download, la copia, la condivisione, l'archiviazione, la stampa, la ricerca, il link e l'indicizzazione. Acconsentire a questi usi significa rinunciare ad altri diritti garantiti dalla legislazione sul copyright. Ma questo compatibile con il mantenimento degli altri diritti, come quello di bloccare la distribuzione di copie manipolate o con errata attribuzione. Alcuni autori di contenuti OA mantengono anche il diritto di impedire il riutilizzo commerciale (p. 177).

Come sintetizza Peter Suber193 nel suo contributo all'interno del testo curato da Hess e Ostrom (2007), possiamo quindi dire che:
la letteratura OA letteratura senza barriere, prodotta rimuovendo quelle di prezzo e autorizzazione che bloccano l'accesso e limitano l'uso di gran parte della letteratura pubblicata in modo convenzionale, a mezzo stampa oppure online194 (ib.).
quanto possa sembrare curioso, possiamo affermare che l' OA era fisicamente impossibile nell'era in cui l'unico supporto della scrittura era la carta stampata. 193 Vedi nota 37. 194 Per completezza vale la pena riportare la definizione del "libero accesso" fatta dalla Budapest Open Access Initiative, che nel febbraio 2002 ha standardizzato l'espressione in questione: "con "libero accesso" intendiamo la disponibilit [della letteratura] a titolo gratuito sulla rete Internet pubblica, cos che ogni utente possa leggere, scaricare, copiare, distribuire, stampare, ricercare o creare collegamenti al testo completo di questi articoli, sottoporli a crawling allo scopo di indicizzarli, trasferirli come dati in un programma, o usarli per qualsiasi altro scopo legittimo,

328

L'ulteriore prerequisito economico ci che permette di finanziare la realizzazione dell'aspetto fisico e legale, provvedendo per esempio alla digitalizzazione o alla messa online di un'opera. Questo aspetto permette di evidenziare come:
in breve, la letteratura OA [sia] gratuita per lettori e utenti, ma non per i produttori, i quali hanno bisogno di introiti o sussidi. L' OA deve la sua origine e parte del suo grande fascino al fatto che pubblicare su Internet consente una diffusione pi ampia e a costi pi bassi rispetto a ogni precedente forma di pubblicazione. Questa combinazione rivoluzionaria troppo positiva per essere ignorata, ma, per quanto bassi, i costi devono essere coperti perch l'OA sia sostenibile (p. 179).

Possiamo inoltre evidenziare come:


per definizione, la letteratura OA non esclude nessuno, o almeno nessuno che disponga di una connessione a Internet. Viceversa, le riviste elettroniche non OA cercano in tutti i modi di escludere i non abbonati dalla lettura degli articoli, anche se i non abbonati possono consultare l'indice, gli abstract e altri contenuti. Questa esclusione costa denaro a chi esclude: un primo costo quello della gestione dei diritti digitali, o DRM, il software-lucchetto che si apre per gli utenti autorizzati e blocca l'accesso a chi non autorizzato; un secondo costo scrivere e applicare l'accordo di licenza che vincola gli abbonati; un terzo la gestione degli abbonamenti (tenere traccia di chi autorizzato, e svolgere mansioni correlate quali sollecitare, raccogliere e rinnovare gli
senza barriere finanziarie, legali o tecniche, a parte quelle legate alla possibilit di accedere alla rete Internet. L'unico vincolo alla riproduzione e alla distribuzione nonch l'unico ruolo per il copyright in quest'ambito dovrebbe essere quello di garantire agli autori il controllo sull'integrit della propria opera e il diritto di essere correttamente riconosciuti e citati come autori" (p. 178).

329

abbonamenti e mantenere gli attuali indirizzi o dati di autenticazione) (pp. 194-195).

Uno dei maggiori ostacoli all'estensione dell'open access al maggior numero possibile di contenuti dato dal fatto che molti di essi (in particolare film, opere musicali, romanzi, notizie e software), in quanto procurano royalty, rappresentano per i loro creatori delle fonti di guadagno cui difficile rinunciare. "Ci sono sono alcune prove del fatto che l' OA non interferisce necessariamente con il reddito, e che anzi in alcune circostanze pu addirittura incrementarlo"195 (p. 182), ma nonostante ci il timore di veder ridotti i propri profitti fa s che i detentori del copyright siano ancora oggi restii a concedere i
195 "Ci sono infatti prove che l' OA non solo compatibile con le vendite di testi a stampa e le royalty, ma le fa addirittura aumentare. [...] Le edizioni gratuite sicuramente sottraggono qualcosa alle vendite delle edizioni commerciali, ma interessante notare che aggiungono pi di quanto non tolgano. [...] A prima vista, ci pu apparire controintuitivo e arcano. Come possibile che il conto economico non sia compromesso dai parassiti che leggono le edizioni gratuite online e non comprano mai quelle a stampa? La risposta che pochissime persone sono disposte a leggere interi libri online o a stampare interi volumi con la stampante di casa. La maggior parte dei lettori consulta i libri interamente disponibili online solo per "assaggiarli": quando sono sicuri che un libro risponda alle loro esigenze e ai loro interessi, con tutta probabilit sono disposti a pagare per un'edizione a stampa. Amazon sta sfruttando commercialmente questa teoria con il suo nuovo servizio, Search Inside the Book, che fornisce una ricerca gratuita nell'intero testo ma non la possibilit di leggerlo tutto per un numero crescente di libri produttori di royalty. [...] Un risultato importante che in questo modo l' OA non limitato alla letteratura esente da royalty. L' OA dipende ancora dal pubblico dominio o dal consenso del detentore del copyright, ma ora stiamo scoprendo che tale consenso compatibile con le royalty. Questo amplia la portata dell'OA, dalla piccola e anomala categoria della letteratura esente da royalty alla categoria vastissima e consueta della letteratura che produce royalty" (pp. 217-219).

330

permessi necessari ad aprire e diffondere liberamente tali contenuti. E, come abbiamo pi volte ripetuto, un sistema caratterizzato da restrizioni e concessioni di autorizzazione non porta alla cultura universalmente accessibile e condivisa che dovrebbe costituire il punto di partenza di una societ democratica e fondata sulla ragione. L'urgenza di questo discorso si fa ancor pi forte nel caso della conoscenza scientifica e dei materiali della ricerca, un sapere che ognuno di noi dovrebbe poter essere libero di consultare e approfondire e la cui validit non pu che confrontarsi con le dimensione della pubblicit e della diffusione collettiva. Le due forme principali attraverso cui fornire libero accesso sono rappresentate dal modello degli archivi (o repository) e da quello delle riviste. I primi non praticano la peer review, limitandosi a rendere universalmente e liberamente disponibili i propri contenuti. Questa struttura fa s che i costi di realizzazione e mantenimento di un repository siano piuttosto bassi, misurabili in "una certa quantit di spazio sul server e un po' di lavoro da parte di un tecnico" (p. 180). D'altra parte le riviste OA mettono a disposizione un servizio analogo a quello degli archivi, con l'offerta aggiuntiva della peer review. Quest'ultima rappresenta la voce di spesa pi significativa, anche se sempre fra gli editor e i recensori sempre pi diffusa la pratica di effettuare gratuitamente il lavoro di valutazione degli articoli. L'aspetto relativo alla sostenibilit di questa categoria di riviste non di scarso interesse: se queste forme di editoria elettronica aspirano a essere realmente OA non possono infatti coprire le proprie spese facendo pagare i lettori o le biblioteche, ma devono pensare a forme alternative di finanziamento che non facciano subire loro una perdita economica. In questo caso un modello abbastanza diffuso quello che prevede "una tariffa di elaborazione su ogni articolo 331

accettato, che va pagata dall'autore o dal datore di lavoro dell'autore, da chi sovvenziona le sue ricerche o dallo stato" (pp. 180-181). Si tratta di un:
modello di finanziamento anticipato [che] impone un pagamento allo sponsor dell'autore per gli articoli in uscita, non allo sponsor del lettore per gli articoli in entrata: richiede, cio, un pagamento per la diffusione, non per l'accesso. Da questo punto di vista somiglia al modello di finanziamento radiotelevisivo: se sono gli inserzionisti a sostenere tutti gli oneri di produzione, allora uno studio televisivo pu trasmettere un programma senza costi per gli spettatori. Nel caso della televisione e della radio, il modello funziona perch gli inserzionisti sono disposti a pagare per far passare il loro messaggio. In quello degli articoli di ricerca scientifica, il modello funziona perch gli autori sono disposti a rinunciare alle royalty per far passare il loro messaggio, e sempre pi istituzioni che impiegano ricercatori o fondi di ricerca sono disposte a considerare i costi di diffusione come parte del costo della ricerca196 (p. 181).

Quella dei materiali della ricerca (articoli con peer review e preprint) una categoria particolare di contenuti, la cui peculiarit consiste nel fatto che essi non producono royalty ai loro creatori. Vi alle spalle una tradizione molto antica, basti pensare che "da quando furono fondate le prime riviste scientifiche, nel 1665 a Londra e a Parigi, [esse] non hanno mai pagato gli autori per gli articoli" (p. 183). Affermazioni di
196 Un modello di questo genere non pu tuttavia essere valido in tutti i settori della ricerca. Esso funziona molto bene nel campo della biomedicina, ma mostra i suoi limiti nel caso delle scienze umane, dove la possibilit di reperire fondi e finanziamenti si fa pi dura e difficoltosa. In questi casi un'alternativa interessante rappresentata dal modello in cui sono le biblioteche universitarie a diventare i soggetti che pubblicano riviste OA.

332

questo tipo riportano all'attenzione le domande che ci eravamo gi posti quando abbiamo analizzato il movimento per il software open source e per l'ampio fenomeno di produzione gratuita tipico del web 2.0:
Quale incentivo hanno gli autori per pubblicare senza compenso? [...] La parte pi importante della risposta, allora, che gli autori vogliono che il loro lavoro sia notato, letto, ripreso, approfondito, applicato, utilizzato e citato. Vogliono anche che sulla rivista sia ben evidente la data, per stabilire la precedenza rispetto ad altri scienziati che lavorano allo stesso argomento. Se operano presso un'universit, questo modo di far progredire la conoscenza far progredire anche le loro carriere. Queste ricompense intangibili (rese poi tangibili mediante cattedre e promozioni) compensano i ricercatori dell'aver rinunciato alle royalty sui loro articoli. Spiega perch costoro non sono solo disponibili, ma addirittura entusiasti di sottoporre i loro articoli a riviste che non li pagano, e perfino a riviste che hanno la temerariet di pretendere un diritto di propriet o un copyright. Potremmo dire che la letteratura esente da royalty sia letteratura donata. Gli autori di articoli li donano alle riviste. Se questo termine pi semplice e diretto possiamo usarlo, purch comprendiamo che rinunciare al reddito sugli articoli non equivale a rinunciare ai diritti di propriet intellettuale. [...] La donazione da parte dell'autore strettamente legata alla libert scientifica. I ricercatori possono permettersi di donare i loro articoli perch sono stipendiati dalle universit. I loro stipendi li affrancano dalle leggi di mercato, quindi possono scrivere articoli su riviste senza pensare a che cosa "venderebbe" di pi o a che cosa potrebbe interessare a un mercato pi ampio. Questo li rende liberi di essere polemici o di sostenere idee impopolari: una componente fondamentale della libert scientifica. Li rende anche liberi di specializzarsi in un ambito di studi molto ristretto, o di difendere idee che interessano a pochissime altre persone al mondo (pp. 183-184).

333

Alla luce di questo evidente che, a differenza dei musicisti e dei cineasti tanto per trovare un termine di confronto, i ricercatori non hanno alcun interesse a opporsi all'open access. L'adesione a questa forma di pubblicazione libera e gratuita non rappresenta dal loro punto di vista alcuno svantaggio (gli articolo di cui sono autori sono gi esenti da royalty): non hanno niente da perdere e tutto da guadagnare, in termini di visibilit e diffusione delle proprie ricerche. Infatti:
i ricercatori hanno interesse a diffondere il loro lavoro a tutti coloro che possono farne uso. Vogliono il pubblico pi vasto possibile, perch questo il modo migliore per essere notati, letti, utilizzati e citati. Per la letteratura esente da royalty, allargare la sfera dell'uso legittimo va a vantaggio degli interessi dell'autore; per la letteratura che genera royalty, al contrario, si scontra con gli interessi dell'autore. Gli autori che hanno rinunciato alle royalty non hanno bisogno di proteggere una fonte di reddito [...]. In breve, gli autori di articoli su riviste scientifiche scrivono avendo di mira l'impatto, non il denaro. Un modo ancora pi forte di esprimere questo concetto che le riviste convenzionali che limitano l'accesso ai soli clienti paganti danneggiano gli interessi degli autori accademici, e sono attraenti solo quando offrono un compenso in termini di prestigio. Il prestigio spesso fa la differenza per i ricercatori che vogliono ottenere una cattedra o una promozione. Ma quando le riviste OA si saranno affermate abbastanza da ottenere prestigio in proporzione alla qualit, anche questa attrattiva delle riviste convenzionali sparir (pp. 185-186).

Oggi, la letteratura esente da royalty ancora molto rara, anche perch in questa categoria rientrano "generi" altamente specialistici, con i quali la maggior parte delle persone ha poco o nulla a che fare197. Tutto ci rende particolarmente difficile la
197 Rientrano in questa grande famiglia testuale la letteratura scientifica primaria (articoli di ricerca con peer review e relativi preprint), le fonti

334

possibilit di realizzare un bene comune della conoscenza attraverso il libero accesso. Alla base di questa criticit vi sono le storture tipiche del sistema del copyright che, pensato per quelle opere produttrici di royalty, viene indiscriminatamente esteso anche alla letteratura esente da royalty. E questa confusione "impone oneri inutili agli utenti, che devono chiedere il permesso per qualsiasi cosa si collochi al di fuori dell'uso legittimo" (p. 187). Ma gli aspetti negativi non si riducono solo a questo:
un altro problema che la rarit della letteratura esente da royalty rende ancor pi difficile modificare le politiche, ottenere sostegno e disarmare le obiezioni. [...] in genere chi non appartiene alla comunit scientifica, compresi i decisori politici, non si rende conto che le riviste scientifiche pubblicano articoli senza comprarli e senza pagare l'autore. Quindi, finch non gli si spiega la situazione, molti di costoro sono poco inclini a sostenere l' OA, perch credono che imponga un sacrificio agli autori o che dipenda dall'abolizione o violazione del copyright (ib.).

Sono in pochi ancora a rendersene conto, ma la letteratura open access, oltre al circolo virtuoso in termini di libera circolazione della ricerca di cui abbiamo gi parlato, veicola un gran numero di vantaggi anche dal punto di vista economico. Innanzitutto, grazie alla "pubblicazione" su server, essa consente l'abbattimento dei tradizionali costi di stampa; inoltre, la sua natura aperta e priva di barriere d'accesso, permette a chi voglia costituire un repository o una rivista elettronica OA di eludere le spese legate all'infrastruttura che sostiene gli
primarie del diritto pubblico e il grande contenitore della "letteratura grigia" (brevetti; pubblicazioni interne di un'organizzazione; rapporti tecnici e di ricerca; atti di congressi, convegni e seminari; tesi di laurea; dispense di corsi; linee guida per tecniche di laboratorio e metodi di analisi).

335

abbonamenti e il DRM. Come ricorda l'autore, non dobbiamo per trascurare altri quattro tipi di ostacolo che, anche una volta risolte le questioni dei costi e delle autorizzazioni, continuano a frapporsi alla piena realizzazione di un bene davvero accessibile a livello universale:
1. 2. 3. 4. barriere per i disabili: gran parte dei siti web non sono ancora pienamente accessibili agli utenti disabili; barriere linguistiche: gran parte della letteratura online in lingua inglese, o in una sola lingua, e la traduzione automatica ha molti difetti; barriere connesse al filtraggio e alla censura: sempre pi scuole, datori di lavoro e governi vogliono porre dei limiti a ci che possiamo vedere; barriere di connettivit: il digital divide costringe offline miliardi di persone, tra cui milioni di ricercatori seri (p. 196).

Se il medium digitale una garanzia contro il depauperamento di queste risorse, capace di scongiurare la tragedia hardiniana, non si pu tuttavia affermare che i beni comuni OA siano invulnerabili e al riparo da qualsiasi tipo di criticit. Suber distingue in tal senso tra esaurimenti tragici e stalli tragici, riferendosi nel caso di quest'ultimi a quelle situazioni in cui:
molti diversi individui o organizzazioni vogliono prendere la stessa decisione, ma nessuno intende farlo per primo. Oppure, tutti vogliono seguire un piano comune o realizzare un bene comune, ma nessuno vuole fare passi avanti in quella direzione prima degli altri. Il risultato non la distruzione di un bene comune, ma una paralisi che impedisce ad altri attori, altrimenti motivati, di creare un bene comune. In una classica tragedia dell'esaurimento, gli utenti individuali sono incentivati a esaurire, anche a esaurire ci che tutti considerano utile. In uno stallo tragico, gli individui sono invece incentivati ad attendere o

336

rimandare, posticipando la creazione di ci che tutti, peraltro, considerano utile. La prima situazione distrugge perversamente ci che gi dotato di valore, mentre la seconda impedisce perversamente la realizzazione di qualcosa di valore. [...] Questi sono casi in cui i primi soggetti che adottano una misura temono di essere sfruttati da profittatori che la attuano solo in seguito, o di accollarsi oneri che questi ultimi si risparmieranno grazie al proprio ritardo198 (p. 197).

Se tutte le riviste fossero OA, il sistema attualmente in uso, basato su costosi abbonamenti a riviste convenzionali non avrebbe pi ragion d'essere e le universit potrebbero risparmiare una quota notevole dei propri fondi. A quel punto dovrebbero pagare solo per gli articoli in uscita scritti dai propri docenti, non pi per quelli in entrata (ad accesso aperto) scritti da altri docenti. In quest'ottica la situazione attuale per caratterizzata da una fase di stallo in quanto:
le universit non possono permettersi l'OA per gli articoli in uscita finch non avranno disdetto l'abbonamento a un certo numero di riviste convenzionali; ma non possono disdirne un numero sufficiente finch l'OA non sar abbastanza diffuso. Nel corso di un periodo di transizione di durata indefinita, le universit o altri
198 "Se l'OA si diffonde, fornir a motori di ricerca generalisti o non accademici, come Google o Yahoo, un corpus pi vasto e pi utile di contenuti da indicizzare. Non appena i motori lo indicizzeranno, potranno attendersi di incrementare il traffico e vendere pi inserzioni. Per questo motivo, nel loro interesse incoraggiare l' OA e anche contribuire a finanziarlo. Ci sono sempre pi prove che i motori di ricerca vedano la situazione proprio in questi termini; ma nessuno di loro vuole essere il primo. Non appena un motore di ricerca investir nella conversione in OA di una risorsa a pagamento, immediatamente i suoi concorrenti la potranno indicizzare: in tal modo gli imitatori sfrutteranno il lavoro dei pionieri e li priveranno del vantaggio competitivo che potrebbe giustificare l'investimento (p. 198).

337

sponsor di ricerca dovranno pagare per entrambi i tipi di riviste. Questi costi di transizione potrebbero scoraggiare o rallentare l'emergere di un modello editoriale che non soltanto superiore per tutti gli scopi scientifici e accademici, ma anche meno costoso. Qui lo stallo non consiste nel fatto che le universit temporeggiano, ma nel fatto che esse aspettano che l' OA porti loro il risparmio che consentirebbe di pagare l'OA stesso (p. 199).

Ma alla base di questo circolo vizioso c' un errore di valutazione fatto dalle universit: esse non dovranno infatti sostenere da sole i costi di elaborazione imposti dalle riviste OA. Innanzitutto, quasi nessuna rivista open access fa pagare costi di elaborazione, che per lo pi vengono finanziati dalle fondazioni che sovvenzionano la ricerca; in secondo luogo, le universit potrebbero iniziare a disdire abbonamenti costosi (come per esempio hanno fatto, tra il 2004 e il 2005, grandi atenei quali Harvard, Cornell, Duke, Universit della California) e fornire OA attraverso archivi digitali propri, per poi decidere se farlo attraverso vere e proprie riviste OA con tariffe di elaborazione. Tuttavia, anche qualora le universit iniziassero a investire nel sistema OA, la tragedia dello stallo si presenterebbe in tutta la sua gravit, laddove
altre universit potranno godere di accesso aperto a quegli articoli senza ricambiare. Gli ultimi ad adottare l' OA potranno sfruttare il lavoro svolto da tutti gli altri. Quindi le universit potrebbero pensare: "Non faremo questo investimento, che beneficia altri, finch un numero sufficiente di universit non lo far, beneficiando noi". Ragionando in questo modo finiscono per attendere che sia un'altra a fare la prima mossa, e tutte restano paralizzate (ib.).

Si potrebbe uscire da questo fraintendimento, suggerisce Suber, riconoscendo che in questo caso il "lavoro dei pionieri" (p. 338

200) non andrebbe "inseguitori" (ib.):

sacrificato

saccheggiato

dagli

i pionieri [saranno] ricompensati per il fatto di essersi mossi per primi, anche se altri non reciprocano: hanno acquistato l' OA per le ricerche dei loro docenti, aumentando la visibilit e l'impatto dell'opera, degli autori, dell'istituzione. Le universit non avrebbero politiche del tipo "pubblica o muori", se non avessero gi deciso che questo tipo di visibilit e impatto nel loro interesse. Inoltre, gli inseguitori [verranno] puniti per il loro ritardo: perdono un'occasione di fornire maggiore visibilit e impatto al proprio output di ricerca, e rallentano la transizione di tutti all'OA, prolungando il tempo durante il quale dovranno ancora pagare gli abbonamenti. [...] Parlando di "sfruttatori" (o free rider) non voglio comunque dare l'impressione che fare un uso libero della letteratura OA sia parassitario: la libert d'utilizzo esattamente ci che i fornitori di OA intendono e desiderano, proprio come i produttori televisivi apprezzano gl spettatori "parassiti". Il parassitismo diventa un fenomeno negativo quando qualcuno che dovrebbe pagare gode di uso libero, o quando l'uso libero esaurisce il bene pubblico (pp. 200-201).

Infine, un ostacolo legato all'ancora scarso prestigio e impatto che (spesso erroneamente) aleggia intorno alle riviste OA, rispetto all'immagine consolidata delle riviste tradizionali, anche se qualitativamente inferiori. In pratica, le nuove riviste hanno bisogno di prestigio per attirare articoli eccellenti, ma al tempo stesso hanno bisogno di articoli eccellenti per acquisire prestigio. Come uscire da questo stallo? Dobbiamo pensare che la fama di una rivista solo uno degli incentivi che spinge gli autori a selezionarla come "vetrina" per i propri articoli:
ulteriori incentivi sono costituiti dalla circolazione e dall'impatto della pubblicazione. Le riviste OA hanno una circolazione pi

339

vasta di qualsiasi rivista convenzionale, anche di quelle pi prestigiose e meno costose. [...] incrementando il pubblico o la circolazione, l'OA accresce l'impatto delle citazioni. In secondo luogo, le riviste OA possono diventare prestigiose al pari di qualsiasi rivista convenzionale, anche se occorre un certo tempo. [...] Infine, naturalmente, possiamo aggirare completamente il problema convertendo all'OA una prestigiosa rivista convenzionale, anzich lanciarne una nuova e lavorare per farla diventare prestigiosa (pp. 201-202).

Per accelerare la risoluzione di questi stalli potremmo anche auspicare l'intervento di una forza esterna, capace di fare pressione e "costringere" tutti gli attori coinvolti a mettere da parte gli indugi e gli interessi parziali in vista di un'azione in contemporanea. In tal senso, l'adozione e la diffusione della cultura OA potrebbe essere favorita da forme di "sovvenzionamento condizionato" messe in atto dalle agenzie di finanziamento (le quali potrebbero obbligare i beneficiari dei fondi a rendere pubblici i risultati della ricerca attraverso archivi OA), da parte dei governi (imponendo l'accesso aperto ai risultati delle ricerche finanziate dai contribuenti) oppure a opera delle stesse universit, che potrebbero richiedere ai propri docenti di depositare i loro articoli negli archivi OA dell'ateneo. Ma queste regole calate dall'alto trascurano un punto fondamentale, relativo al "primato degli autori per il conseguimento di un bene comune OA" (p. 205). Il gioco di fatto nelle loro mani poich sono gli autori a decidere se proporre i propri articoli alle riviste OA (o depositarli in repository OA) e sempre a essi spetta la facolt di decidere se trasferire o meno il copyright. Quindi,
anche se lettori, biblioteche, universit, fondazioni e governi desiderano l'OA per i loro motivi, una parte importante di ci che

340

possono fare per promuoverlo guidare, aiutare o spronare gli autori. In questo senso, sono questi ultimi a svolgere il ruolo di massima influenza nella campagna a favore dell' OA, e l'ostacolo maggiore dunque rappresentato dall'inerzia o dallo scarso impegno profuso dagli autori (p. 206).

Per raggiungere questo obiettivo prima di tutto indispensabile "educare gli autori all'OA" (ib.): potr sembrare un paradosso, ma gran parte degli autori, troppo indaffarati e occupati con le proprie ricerche, ancora non conosce l'universo del libero accesso. In quest'ottica, essi potranno convincersi a pieno dei benefici in termini di impatto e circolazione delle idee favoriti dall'OA qualora questi consigli e raccomandazioni provengano da colleghi e ricercatori come loro. In questo caso, infatti, una testimonianza di prima mano degna di fiducia varr pi di qualsiasi argomentazione razionale e spiegazione dettagliata. I benefici derivanti dalla diffusione dell' OA sono vasti e di portata generale, ma gli autori per primi potrebbero riceverne in misura significativa. E questi vantaggi sono reali e si misurano in un:
aumento visibile nel numero delle e-mail ricevute da lettori seri, nell'inclusione nei programmi dei corsi, nei link dagli indici online, negli inviti a congressi importanti, nelle citazioni in altre pubblicazioni (p. 207).

Un altro fattore che disincentiva gli autori a fornire OA alle proprie opere dato da una forma di ricatto spesso adottata dalle riviste convenzionali, le quali non accettano articoli gi pubblicati altrove199. Abbandonare questa regola distorta potr rimuovere la diffidenza che gli autori ancora oggi avvertono
199 Questa politica nota nel mondo del giornalismo come "regola di Ingelfinger", dal nome del direttore del New England Journal of Medicine che si caratterizz per la sua adozione.

341

nei confronti delle iniziative OA, con l'ulteriore possibilit di accrescere la popolarit e il prestigio di quest'ultime (e questo aspetto innescher un circolo virtuoso che contribuir ad attirare altri autori). Ma le prospettive che ruotano intorno ai beni comuni fondati sul libero accesso, non si limitano agli scenari positivi che potrebbero favorire gli autori. Un altro attore chiave rappresentato dai bibliotecari, i quali
auspicano l'OA, perch, nella misura in cui prender piede, risolver la crisi dei prezzi dei periodici e quella connessa relativa ai premessi, per effetto della quale leggi sbilanciate sul copyright, accordi di licenza non negoziabili e lucchetti sul software che spesso vanno oltre i termini delle leggi e degli accordi impediscono alle biblioteche e ai loro clienti di servirsi di costose riviste elettroniche nei modi in cui potrebbero farlo con quelle a stampa (p. 212).

Il problema semmai quello di riuscire a coordinare le forze dei bibliotecari e dei ricercatori che, pur avendo a mente lo stesso obiettivo, spesso non riescono ad agire di concerto, indebolendo di conseguenza l'efficacia delle proprie istanze. Un'altra strada da percorrere potrebbe essere quella di convogliare verso una stessa direzione le diverse argomentazioni a favore dell'OA espresse dai ricercatori e dai governi del Primo e del Terzo mondo. Nei paesi in via di sviluppo l'OA potrebbe portare con s due ordini di vantaggi: consentirebbe l'accesso alla letteratura scientifica e ai risultati della ricerca a un gran numero di istituzioni, finora escluse per ragioni economiche; al tempo stesso la pubblicazione su archivi gratuiti online potrebbe offrire anche nei paesi pi avanzati quella visibilit e pubblicit che spesso non concessa ai lavori e ai progetti accademici che sono portati avanti nel 342

Terzo mondo. D'altra parte il sostegno nei confronti dell' OA da parte del Primo mondo orientato ad allargare ulteriormente la capillarit della diffusione della ricerca contemporanea, che gli elevati costi di abbonamento e la tendenza alla recinzione della conoscenza stanno rendendo sempre pi complicata anche per le istituzioni pi ricche. Entrambi guardano insomma con favore ai benefici del libero accesso, ma la differenza tra i due approcci rende la transizione pi lenta e contrastata, laddove la condivisione del medesimo obiettivo dovrebbe invece accelerare e amplificare il processo di trasformazione auspicato. Il backup: memoria della conoscenza per costruire il futuro Un punto molto interessante dell'analisi di Robert Darnton (2009) quello che sottolinea "l'innata instabilit dei testi" (p. 45), grazie al quale possiamo renderci conto di come le tecnologie digitali non abbiano in realt decretato una rottura totale con gli aspetti pi tipici della quadro comunicativo del nostro passato. Lungi dall'essere entrati in una nuova era, l'autore cerca di dimostrare che, a suo modo, "ogni epoca stata un'et dell'informazione, e che l'informazione sempre stata instabile" (ib.). Partiamo da un confronto classico, relativo al mondo del giornalismo. Oggi,
i blog creano le notizie e le notizie possono assumere la forma di realt testuale che batte la realt che abbiamo sotto gli naso. Oggi molti giornalisti passano pi tempo a scorrere i blog che non a verificare le notizie con le tradizionali fonti di informazione, come i portavoce delle pubbliche autorit. Nell'et dell'informazione, la notizia ha rotto i suoi ormeggi convenzionali, moltiplicando la possibilit di diffondere informazioni false a livello globale. Viviamo in un'epoca di accessibilit senza precedenti a informazioni sempre pi

343

inattendibili. O no? La mia tesi che le notizie sono sempre state un artefatto e non hanno mai corrisposto esattamente ai fatti realmente accaduti. Tendiamo a considerare la prima pagina dei quotidiani uno specchio degli avvenimenti di ieri, ma essa stata confezionata ieri sera confezionata in senso letterale, da redattori addetti all'impaginazione, che l'hanno costruita secondo convenzioni arbitrarie [...]. L'impostazione grafica orienta il lettore e suggerisce il senso da dare alle notizie. La notizia in s assume la forma di narrazione scritta da professionisti in base alle convenzioni apprese nel corso della loro formazione [...]. La notizia non il fatto accaduto, ma il racconto del fatto accaduto (pp. 46-47).

Questa consapevolezza nasce in Darnton da un'esperienza diretta, risalente a quando era ancora all'universit e, per diventare cronista, trascorse un periodo di tirocinio come inviato presso una centrale di polizia200. Proprio per questo
200 "Alla centrale gli avvenimenti arrivavano sotto forma di trascrizioni delle chiamate telefoniche ricevute dagli operatori. Questi fogli riportavano di tutto, dall'avvistamento di cani randagi alla segnalazione di un omicidio, e si accumulavano al ritmo di una dozzina ogni mezz'ora. Il mio compito consisteva nell'andarli a ritirare da un agente al secondo piano, dargli una scorsa alla ricerca di casi interessanti, e informare della potenziale notizia i cronisti veterani di una decina di testate che giocavano a poker nella sala stampa al piano terreno. [...] Imparai presto a ignorare i cadaveri 'ordinari' e i furti ai distributori di benzina, ma mi ci volle parecchio tempo per riuscire a individuare i casi davvero 'buoni', come una rapina in un supermarket rispettabile o lo scoppio delle condutture in qualche zona centrale della citt. Una sera trovai una segnalazione talmente 'buona' (stupro e omicidio in uno), che invece di passare dalla sala poker andai direttamente alla squadra omicidi. Quando la indicai all'agente di turno, lui mi lanci uno sguardo pieno di commiserazione: 'Non hai visto questo, ragazzino?' disse indicando una b tra parentesi accanto ai nomi della vittima e dell'indiziato. Soltanto allora notai che tutti i nomi erano seguiti da una b o da una w: black e white. Nessuno mi aveva spiegato che i reati

344

motivo egli pu dichiarare che,


avendo imparato come si scrivono le notizie, non mi fido dei giornali come fonte di informazione e mi stupisce che alcuni storici li considerino una fonte primaria per conoscere la verit dei fatti. Secondo me i giornali andrebbero consultati per sapere come la gente del tempo ricostruiva gli avvenimenti, non gi per trarne una conoscenza attendibile sugli avvenimenti stessi (p. 49).

E la lista di esempi tratti dall'"ra pre-internet" (p. 53) non si esaurisce certo qui. Studi comparati effettuati su diverse copie della prima edizione in folio delle opere di Shakespeare (il famoso First Folio) hanno rivelato come di fatto ciascuna di esse sia diversa dalle altre201. Ieri come oggi, i contenuti manifestano la propria mutevolezza e il loro carattere in perenne divenire, in base al quale i messaggi subiscono cambiamenti e nel momento stesso in cui vengono trasmessi. Questo stato di cose dovrebbe portare alla luce un ordine di problemi nuovo, sul quale una consapevolezza generale risulta ancora poco diffusa e che concerne una definizione delle biblioteche che sia al passo con i tempi dettati dallo sviluppo tecnologico. Se l'instabilit dell'informazione non una
rigurdanti i neri non andavano considerati notizie" (pp. 47-48). 201 "Durante la stampa del libro nella bottega di William Jaggard nel 1622 e 1623, infatti, ne furono licenziate tre emissioni molto diverde tra loro. In una mancava Troilo e Cressida, un'altra conteneva la tragedia la completo, un'altra ancora aveva il testo principale ma senza il prologo e portava, sul retro della pagina contenente la prima scena, il finale di Romeo e Giulietta annullato con un frego. A queste differenze si aggiungevano almeno cento correzioni "volanti", inserite mentre il processo di stampa era in corso, e la situazione era peggiorata dalla curiosa abitudine, da parte di almeno nove tipografi, di comporre il testo shekespeariano mentre ne seguivano altri, a volte abbandonandolo nelle mani di giovani apprendisti inesperti" (ib.).

345

dimensione nuova della nostra epoca, la sua conversione in dati espressi in codice binario, unita al trasferimento della maggior parte dei contenuti dai supporti tradizionali (la carta prima di tutto) agli archivi smaterializzati, rappresenta un unicum nella societ comunicativa del XXI secolo. Se i bibliografi hanno potuto, a distanza di secoli, ricostruire il processo di produzione del corpus Shakespeariano e gli studiosi hanno potuto evidenziare le differenze fra l'originale dell'Encyclopdie di Diderot e la sua edizione maggiormente diffusa202, perch qualcuno ha conservato questi manufatti della conoscenza, facendo in modo che le loro copie giungessero nelle nostre mani. Accanto alla necessit di favorire una crescente diffusione dei saperi, attraverso banche dati aperte o fondate sul libero accesso, ci dobbiamo assumere la responsabilit di mantenere viva la nostra memoria storica, occupandoci della preservazione di ci che per sua stessa natura rischia di essere destinato ad un oblio prematuro, ovvero "la raccolta e conservazione dei materiali 'nati digitali'" (p. 75). Questo ordine di idee parte dalla considerazione di come:
in tutta la Rete si [siano] moltiplicati i siti web. Essendo cresciuti in maniera disordinata su iniziativa di singoli individui, essi a volte risultano impenetrabili ai motori di ricerca, reciprocamente incompatibili nella configurazione di loro metadati e, soprattutto effimeri: hanno la tendenza a scomparire nel cyberspazio (ib.).

Che cosa possiamo dire a proposito delle biblioteche e delle iniziative messe in campo per contrastare il pericolo di
202 Quest'ultima conteneva centinaia di pagine in pi, non presenti nell'originale. A quanto pare dietro a questa circostanza vi era una ragione di ordine economico: "il suo redattore era un ecclesiastico che, per ottenere la sponsorizzazione del suo vescovo, aveva imbottito il testo con brani di un sermone del prelato" (ib.).

346

"amnesia collettiva" che gravita intorno al nostro immediato futuro? E cosa emerge dal confronto fra gli interventi pubblici e operazioni portate avanti da soggetti privati, come per esempio Google? E la nostra analisi non pu che prendere le mosse dall'evoluzione delle biblioteche.
Per gli studenti degli anni Cinquanta, [esse] erano cittadelle del sapere. Il sapere era confezionato in tomi rilegati, e la grande biblioteca sembrava esserne il contenitore deputato. Salire i gradini della Public Library di New York, sotto l'occhio vigile dei grandi leoni di pietra posti a guardia dell'ingresso, ed entrare nella monumentale sala di lettura al terzo piano, era penetrare in un mondo che comprendeva tutto lo scibile umano. Il sapere era ordinato in categorie standard, indicizzato per autori e titoli nello schedario e consultabile sulle pagine di libri. In tutte le universit, la biblioteca si ergeva al centro del campus. Era l'edificio pi imponente, un tempio (un'impressione accentuata dalle colonne classicheggianti), un luogo dove leggere in silenzio: proibito parlare, mangiare, disturbare, distrarsi, a parte qualche sguardo furtivo a una potenziale conquista china solennemente sul suo libro. Anche oggi gli studenti hanno parole di rispetto per le loro biblioteche, ma spesso le sale di lettura rimangono pressoch vuote. [...] Gli studenti moderni e postmoderni svolgono le loro ricerche sul computer nella propria stanza. Per loro, il sapere arriva online, non sta nelle biblioteche. Sanno che le biblioteche non potranno mai contenerlo dentro le loro mura, perch le informazioni sono infinite, distribuite ovunque su Internet, e per scovarle occorre un motore di ricerca, non una serie di schede cartacee. Ma anche questa potrebbe essere una grande illusione o meglio, per metterla in modo positivo, c' qualcosa di vero in entrambe le concezioni, quella della biblioteca come cittadella e quella di Internet come spazio libero e aperto (p. 55).

Per ritornare al tema relativo a Google Book Search, introdotto nel primo capitolo, vale la pena sottolineare alcuni dei 347

numerosi limiti del progetto portato avanti dal colosso di Mountain View, testimonianza di come, in un campo nevralgico come la cultura, le strategie "solitarie" non possano condurre al pieno successo e come sia invece necessaria un'azione coordinata e cooperante fra pi attori, pubblici e privati. Innanzitutto, pensare che Google possa digitalizzare tutti i libri che siano mai stati pubblicati va ben oltre qualsiasi utopia: anche immaginando che riesca a raggiungere percentuali elevate, rimarr fuori un nucleo enorme di libri (su tutti l'insieme di opere che appartengono alle collezioni di biblioteche che non hanno stretto accordi con l'azienda informatica) cui, chi volesse affidare la propria ricerca esclusivamente a Google, sarebbe impossibile accedere. Al tempo stesso, anche se oggi pu apparire uno scenario irreale, un dato di fatto che
nell'ambiente in rapida evoluzione della tecnologia elettronica le aziende declinano rapidamente. Google potrebbe sciogliersi o la sua tecnologia essere eclissata da una ancora pi potente, che renderebbe il suo database obsoleto e non pi accessibile, come accaduto ai vecchi floppy disk e CD-ROM. Le aziende elettroniche nascono e muoiono. Le biblioteche di ricerca durano nei secoli. Meglio rafforzarle, piuttosto che dichiararle obsolete, perch l'obsolescenza connaturata semmai ai media elettronici (p. 60).

Collegato a quest'ordine di problemi vi poi la questione legata alla "durata della vita" delle copie digitali:
col tempo i bit si degradano. I documenti potrebbero andare smarriti nel cyberspazio a causa dell'obsolescenza del formato in cui sono codificati. Hardware e software si estinguono a un ritmo allarmante. Finch non sar risolto l'increscioso problema della sopravvivenza elettronica, tutti i testi "nati digitali" appartengono a una specie a rischio. L'ossessione di creare sempre nuovi media

348

ha inibito gli sforzi per salvaguardare quelli vecchi. Abbiamo perduto l'80 percento di tutti i film muti e il 50 percento di tutti i film girati prima della seconda guerra mondiale. Niente sa preservare i testi (eccettuando il caso di quelli scritti su pergamena o incisi nella pietra) meglio dell'inchiostro su carta, specialmente carta fabbricata prima dell'Ottocento. Il miglior sistema di conservazione che sia mai stato inventato antiquato e premoderno: il libro (pp. 60-61).

Infine, pur con tutta la buona volont e l'impegno a garantire elevatissimi livelli di qualit, inevitabile che Google commetter degli errori o delle sviste: potrebbe trascurare alcuni libri, saltare delle pagine o creare una percentuale, seppur minima, di immagini sfocate che forniranno pertanto una riproduzione imperfetta delle opere originali203. L'azienda ha inoltre dichiarato di voler digitalizzare molte versioni di uno stesso libro: in questo caso la domanda pi interessante riguarda i criteri che verranno adottati nell'assegnare rilevanza alle diverse opere. Al pari di quanto abbiamo visto a proposito dell'algoritmo di ranking che ordina le pagine web, saranno questi criteri a giocare un ruolo chiave nella determinazione della visibilit dei testi. La preoccupazione fra gli studiosi in questo caso connessa al fatto che Google di fatto un'azienda
203 D'altro canto, "perfino se sar accurata, l'immagine digitalizzata che comparir sullo schermo del computer non riuscir mai a rendere certi aspetti cruciali di un libro. Per esempio le dimensioni. L'esperienza di leggere un volumetto in dodicesimo, pensato per essere tenuto agevolmente con una mano, ben diversa da quella di leggere un monumentale in folio appoggiato a un leggio. L'esperienza sensoriale di un libro importante: la grana della carta, la qualit della stampa, il tipo di rilegatura. I suoi aspetti fisici forniscono indizi sulla sua esistenza in quanto elemento del sistema sociale ed economico in cui si inscrive; se poi contiene note a margine, pu rivelarci molte cose circa il posto che occupava nella vita intellettuale dei suoi lettori. E poi c' l'odore dei libri" (p. 62).

349

informatica, estranea alle procedure e agli standard prescritti dalla scienza bibliografica (per esempio, privilegiare la prima edizione a stampa o l'edizione pi aderente all'esplicita intenzione dell'autore): "applicher lo stesso metodo che usa per ordinare i risultati di tutte le altre ricerche, si tratti di dentifrici o divi del cinema?" (p. 61) Non intenzione di Darnton farsi portavoce di un pensiero che guarda esclusivamente al passato e rifiuta le novit introdotte dalla tecnologia. Uno degli aspetti che pi sta a cuore all'autore per quello riguardante la salvaguardia e la valorizzazione delle biblioteche, il cui ruolo non ha perso importanza a seguito della svolta informatica degli ultimi decenni, facendosi semmai ancora pi decisivo per il bene di tutta la societ. A cominciare dalle biblioteche private (per lo pi quelle appartenenti a universit prestigiose come Harvard, Yale, Princeton e Stanford) che non possono chiudersi al pubblico e sottrarsi alla propria missione di custodi e al tempo stesso propagatori della conoscenza. La cultura e la sua diffusione mal si accordano al privilegio: in tal senso, laddove una completa apertura in senso fisico non sia possibile (numero di utenti difficilmente gestibile, rischio di deterioramento di opere particolarmente preziose e antiche), potrebbe giungere in aiuto proprio l'innovazione tecnologica. La biblioteca potrebbe dunque aprirsi telematicamente ai cittadini, mettendo a disposizione gratuitamente il proprio patrimonio intellettuale 204.
204 Darnton riporta l'esperienza vissuta in prima persona presso la biblioteca di Harvard, dove stato istituito un ufficio per le comunicazioni scientifiche che mette a disposizione online un deposito di tutti gli articoli scientifici prodotti dalle facolt che vi aderiscono (con la previsione di radunare anche versioni digitali delle tesi di dottorato e ampie porzioni di letteratura grigia). "La biblioteca di Harvard sta espandendo questa funzione attraverso l'Open Collections Program. Finanziandosi con sovvenzioni delle fondazioni Hewlett e Arcadia, ha

350

Sul versante particolarmente denso di criticit dei materiali "nati digitali", una nota a parte meritano i messaggi di posta elettronica, veicolo di informazioni talvolta fini a se stesse, che comunque, considerate nel loro insieme, soprattutto quando si tratta di corrispondenze tra accademici, assumono un significato ben pi rilevante, sia come tappe di un pi ampio percorso di ricerca, sia come indicatori della "temperatura" di una societ. In questo caso, le complicazioni tecniche e giuridiche, in primo luogo in materia di tutela della privacy, si fanno pi pressanti, ma quel che certo che "proprio per il fatto che ormai molti scambi sono condotti via web, stiamo perdendo traccia di gran parte delle odierne comunicazioni" (p. 75). Le "cose da fare" all'ordine del giorno sono numerose e caratterizzate da un elevato impatto economico 205, ragione
digitalizzato libri, opuscoli, manoscritti, stampe e fotografie sparsi in una dozzina di biblioteche di facolt e accomunati dalla rilevanza riguardo a una serie di argomenti specifici. [...] Quello di andare incontro al mondo un dovere che Harvard sente profondamente, perch la sua biblioteca contiene materiale che non esiste altrove. [...] Le collezioni speciali distribuite in tutto il sistema bibliotecario contengono molti testi di grande importanza anche per altri Paesi. [...] Le enormi collezioni di testi di zoologia, botanica e medicina sono in corso di digitalizzazione e di distribuzione attraverso servizi in libero accesso come la Biodiversity Heritage Library e la Public Library of Science, con lke sue collezioni di riviste specialistiche. La digitalizzazione su una simile scala richiede la collaborazione di pi istituzioni diverse: in molte biblioteche di ricerca giacciono collezioni speciali che rimangono inutilizzate e sono note unicamente ad alcuni specialisti. Soltanto rendendole disponibili attraverso un impegno collettivo e secondo il principio del libero accesso possiamo tener fede ai nostri obblighi nei confronti dello studio e della conoscenza" (pp. 73-74) 205"Se vogliono continuare a svilupparsi nel futuro, le biblioteche di ricerca devono associarsi e fare causa comune. Per tutto il ventesimo secolo hanno prosperato ciascuna indipendentemente dalle altre e mantenendosi libere dall'interferenza dello Stato. Ma nel ventunesimo si trovano di fronte al compito impossibile di progredire su due fronti

351

ulteriore che dovrebbe spingere ad abbandonare le modalit di gestione tradizionale e "a cercare di unire le forze con alleati potenziali che condividono problemi analoghi" (p. 76). Da questo punto di vista:
un'alleanza naturale potrebbe essere quella tra le biblioteche universitarie e le case editrici universitarie. Le due istituzioni hanno raramente rapporti, anche quando sono vicine di casa nello stesso campus, eppure condividono il medesimo scopo: la diffusione del sapere e della conoscenza. Forse siamo vittime di un'accezione troppo angusta del verbo "pubblicare"; lo associamo esclusivamente ai professionisti che producono libri e periodici. Pubblicare significa "rendere pubblico", un'attivit che, pure, a partire dal quattordicesimo secolo era intesa in senso ampio, come indicano i dizionari: "divulgare, diffondere; rendere ufficialmente di pubblica conoscenza; rendere di pubblico dominio". Questa definizione presenta una curiosa analogia con la mission dichiarata di Google: "Organizzare le informazioni a
contemporaneamente, il fronte analogico e quello digitale. I loro bilanci non reggono un tale carico di spese. Devono pertanto formare dei consorzi, decidere di concentrare gli investimenti su certe materie, lasciandone altre alle biblioteche consociate. [...] dobbiamo arrivare alla realizzazione di una biblioteca digitale nazionale e poi mondiale. Google ha dimostrato la fattibilit dell'impresa, ma anche indicato il pericolo a cui andremo incontro se seguiremo la strada sbagliata: quello, cio, di favorire il profitto privato a spese del bene pubblico. I cambiamenti tecnologici modificano il paesaggio delle informazioni troppo velocemente perch si possa prevedere come esso si presenter di qui a dieci anni. Ma il momento di agire adesso, se vogliamo indirizzare il cambiamento a vantaggio di tutti. Occorre l'intervento dello Stato per impedire l'affermarsi di un regime di monopolio e occorre l'interazione tra le biblioteche per promuovere un progetto comune. Digitalizzare e democratizzare: non una formula di facile attuazione, ma l'unica efficace, se davvero vogliamo tradurre in realt l'ideale della Repubblica delle Lettere, che in passato sembrava soltanto una bella utopia" (pp. 8081).

352

livello mondiale e renderle universalmente accessibili e fruibili". Potrebbe essere la mission di una casa editrice. O di una biblioteca di ricerca (pp. 76-77).

Alla luce di quanto sinora detto, vogliamo accennare a un'iniziativa che sta cercando di muoversi nella direzione di salvaguardare le informazioni digitali. Il suo principale responsabile Brewster Kahle, personaggio poliedrico, da sempre sensibile ai temi della digitalizzazione e del libero accesso ai contenuti, fondatore della Open Content Alliance206 (OCA) e di Internet Archive. Ed in particolare a quest'ultima iniziativa che vogliamo dedicare la nostra attenzione. Sulla pagina del sito che illustra i punti salienti del progetto (http://archive.org/about/about.php) possibile leggere questa sintetica spiegazione:
the Internet Archive is a 501(c)(3) non-profit that was founded to build an Internet library. Its purposes include offering permanent access for researchers, historians, scholars, people with disabilities, and the general public to historical collections that exist in digital format. Founded in 1996 and located in San Francisco, the Archive has been receiving data donations from Alexa Internet and others. In late 1999, the organization started to grow to include more well-rounded collections. Now the Internet Archive includes texts, audio, moving images, and software as
206 Si tratta di un consorzio di organizzazioni che ha come finalit la creazione di un archivio di testi digitali permanente e ad accesso pubblico. La sua creazione venne annunciata nell'ottobre del 2005 da parte di Yahoo! e Internet Archive, dall'Universit della California, dall'Universit di Toronto e altre istituzioni (la stessa Microsoft fece parte dell'OCA fino al maggio 2008). L'approccio adottato dall'Open Content Alliance si distingue nettamente dall'atteggiamento pi spregiudicato di Google Book Search, dal momento che essa digitalizza e rende disponibili a tutti i motori di ricerca solo le copie delle opere che hanno ricevuto l'autorizzazione da parte dei detentori dei diritti d'autore.

353

well as archived web pages in our collections, and provides specialized services for adaptive reading and information access for the blind and other persons with disabilities207.

Il punto di partenza di questo straordinario progetto di conservazione digitale molto semplice e sembra rappresentare la conclusione naturale di quanto finora detto. Le funzioni fondamentali di una biblioteca sono quelle di preservare gli artefatti culturali di una societ e fornire l'accesso ad essi. Affinch le biblioteche possano continuare a portare avanti la propria missione di educazione e scolarizzazione anche nell'epoca attuale, all'insegna delle tecnologie digitali, essenziale che le loro funzioni tradizionali siano aggiornate ed estese al mondo digitale. Molte delle prime pellicole cinematografiche erano soggette alla pratica di venire "riciclate", al fine di recuperare l'argento di cui erano composte. La biblioteca di Alessandria, antichissimo centro di apprendimento in cui era custodita la copia di qualunque libro del mondo, fu distrutta e rasa al suolo da un incendio. E ancora oggi, come viene ricordato all'interno del sito web di Internet Archive, non esistono archivi comprensivi per i programmi televisivi e radiofonici. Siamo ormai entrati a pieno nel XXI secolo, ma ancora non ci rendiamo conto dei rischi e della
207 Internet Archive un'organizzazione no-profit fondata per costruire una biblioteca della rete. Tra i suoi propositi vi la volont di fornire un accesso permanente alle collezioni che esistono in formato digitale per i ricercatori, gli storici, gli studiosi, le persone con disabilit e il pubblico in generale. Fondato nel 1996 e situato a San Francisco, l'Archivio ha ricevuto donazioni da Alexa Internet e altre istituzioni. Nel 1999 l'organizzazione inizi a crescere e ad ampliare a tutto tondo l'offerta di materiali. Attualmente le collezioni di Internet Archive includono testi, documenti sonori, filmati e software, oltre che un archivio di pagine web e dispone di servizi specializzati in grado di favorire la lettura e l'accesso alle informazioni alle persone non vedenti o con altri tipi di disabilit.

354

fragilit della nostra produzione culturale:


but without cultural artifacts, civilization has no memory and no mechanism to learn from its successes and failures. And paradoxically, with the explosion of the Internet, we live in what Danny Hillis has referred to as our "digital dark age". The Internet Archive is working to prevent the Internet - a new medium with major historical significance - and other "born-digital" materials from disappearing into the past. Collaborating with institutions including the Library of Congress and the Smithsonian, we are working to preserve a record for generations to come. Open and free access to literature and other writings has long been considered essential to education and to the maintenance of an open society. Public and philanthropic enterprises have supported it through the ages. The Internet Archive is opening its collections to researchers, historians, and scholars. [...] At present, the size of our Web collection is such that using it requires programming skills. However, we are hopeful about the development of tools and methods that will give the general public easy and meaningful access to our collective history. In addition to developing our own collections, we are working to promote the formation of other Internet libraries in the United States and elsewhere208.
208 Senza artefatti culturali la civilt non ha memoria e non dispone dei meccanismi che le consentono di imparare tanto dai suoi successi quanto anche dai fallimenti. E paradossalmente, nonostante l'esplosione di internet, noi viviamo in quella che stata definita da Danny Hills come 'l'oscura et digitale'. Internet Archive lavora per preservare internet un nuovo medium dotato di un grandissimo valore storico e tutti gli altri materiali 'nati digitali' dalla loro scomparsa nel passato. Collaborando con istituzioni quali la Biblioteca del Congresso e lo Smithsonian, stiamo lavorando per la conservazione, lasciando una traccia alle generazioni che verranno. Il libero accesso alla letteratura e alle altre opere scritte sempre stato considerato essenziale per l'educazione e il mantenimento di una societ aperta. Nel corso delle epoche questo obiettivo stato portato avanti da imprese pubbliche e filantropiche.

355

I progetti principali in cui si snoda l'attivit di Internet Archive rappresentano inoltre una curiosa sintesi fra antico e nuovo, analogico e digitale. Un esempio "Open Library", esemplificato dal motto "una pagina web per qualsiasi libro mai pubblicato", grazie al quale attualmente pi di venti milioni di libri hanno una pagina dedicata e per pi di un milione di essi possibile accedere a una versione full-text scaricabile. In un articolo tratto dal blog di Internet Archive 209 e significativamente intitolato Why preserve books?, Brewster Kahle introduce un aspetto molto interessante del suo progetto di conservazione. Egli ribadisce l'importanza della digitalizzazione, ma accanto a essa sottolinea la parallela necessit di conservare le copie fisiche dei libri:
a reason to preserve the physical book that has been digitized is that it is the authentic and original version that can be used as a reference in the future. If there is ever a controversy about the digital version, the original can be examined. A seed bank such as the Svalbard Global Seed Vault is seen as an authoritative and safe version of crops we are growing. Saving physical copies of digitized books might at least be seen in a similar light as an authoritative and safe copy that may be called upon in the future210.
Internet Archive sta mettendo a disposizione le sue collezioni ai ricercatori, agli storici e agli studiosi. [] Al momento la dimensione della nostra collezione web tale che il suo utilizzo richiede abilit di programmazione. Tuttavia siamo fiduciosi riguardo alla possibilit di sviluppare strumenti e metodi che faciliteranno l'accesso alle nostre collezioni da parte del grande pubblico. Accanto al miglioramento delle nostre raccolte, stiamo lavorando per promuovere la formazione di altre biblioteche digitali, negli Stati Uniti e in altre parti del mondo. 209 Consultabile al link: http://blog.archive.org/2011/06/06/why-preservebooks-the-new-physical-archive-of-the-internet-archive/. 210 Una delle ragioni per preservare la versione fisica di un libro che stato digitalizzato data dal fatto che questa ne rappresenta la versione

356

Accanto alla trasformazione digitale, Kahle e la sua equipe sta portando avanti la costruzione del "physical archive", che di recente People Magazine211 ha definito come un'"arca di No per i libri". Una sorta di "banca del seme" che sia in grado di custodire in modo adeguato oggetti importanti e metterci al riparo da eventuali catastrofi:
the goal is to preserve one copy of every published work. The universe of unique titles has been estimated at close to one hundred million items. Many of these are rare or unique, so we do not expect most of these to come to the Internet Archive; they will instead remain in their current libraries. But the opportunity to preserve over ten million items is possible, so we have designed a system that will expand to this level. Ten million books is approximately the size of a world-class university library or public library, so we see this as a worthwhile goal. If we are successful, then this set of cultural materials will last for centuries and could be beneficial in ways that we cannot predict. [...] To start this project, the Internet Archive solicited donations of several hundred thousand books in dozens of languages in
originale e autentica, che potr essere utilizzata come punto di riferimento nel futuro. Qualora ci siano delle controversie relativamente alle copie digitali, si potr cercare di scioglierle esaminando l'originale. Una banca del seme alla stregua della Svalbard Global Seed Vault, che pu essere vista come una versione d'autorit e sicurezza per i raccolti che stiamo facendo crescere. La salvaguardia delle versioni fisiche dei libri digitalizzati permette di mantenere a disposizione una copia certa e autorevole dei contenuti, cui sar sempre possibile richiamarci nel futuro. 211 Si tratta del numero del 2 aprile 2012, del quale possibile leggere la notizia e visualizzare la pagina sul blog di Internet Archive, all'indirizzo http://blog.archive.org/2012/04/04/brewster-kahle-featured-in-peoplemagazine/. Si veda anche l'articolo in prima pagina dedicato dal New York Times, di cui si d notizia sullo stesso blog il 4 marzo 2012, e di cui riportiamo l'URL (http://blog.archive.org/2012/03/04/page-1-of-thenytimes-in-a-flood-tide-of-digital-data-an-ark-full-of-books/).

357

subjects such as history, literature, science, and engineering. Working with donors of books has been rewarding because an alternative for many of these books was the used book market or being destroyed. We have found everyone involved has a visceral repulsion to destroying books. The Internet Archive staff helped some donors with packing and transportation, which sped projects and decreased wear and tear on the materials212.

Il sistema di conservazione fisica inizi a essere sviluppato nel gennaio del 2009: potendo tenere conto tra l'altro di un gran numero di studi documentati sulla preservazione delle fibre di carta, l'ingegnere Tom McCarty diede il via ad Oakland, in California, a dei test di prova per la costruzione di un sistema di archiviazione modulare, basato su container navali, forse
212 L'obiettivo quello di creare una copia di ogni opera pubblicata. Secondo le stime, l'universo dei titoli rari si avvicina ai cento milioni di testi. In molti di questi casi si tratta di opere esclusive o uniche, per cui ci aspettiamo che la maggior parte di queste non entrer a far parte dell'Internet Archive; esse rimarranno nelle biblioteche in cui gi si trovano. Ma l'opportunit di preservare pi di dieci milioni di libri concreta e per questo motivo abbiamo progettato un sistema in grado di espandersi a questo livello. Dieci milioni di libri approssimativamente la dimensione di una biblioteca universitaria o pubblica di livello mondiale e pertanto consideriamo questo come un degno traguardo. Se avremo successo, questo set di materiali culturali resister per centinaia di anni e produrr benefici in modi che ancora non possiamo prevedere. [] Per avviare questo progetto, Internet Archive ha sollecitato la donazione di centinaia di migliaia di libri, in dozzine di lingue e argomenti diversi, come la storia, la letteratura, la scienza e l'ingegneria. Ricorrere alla donazione di libri stato ulteriormente gratificante perch per molte di queste opere le uniche alternative erano il mercato dei libri usati o il macero. E abbiamo notato come chiunque sia coinvolto nell'iniziativa provi un'innata repulsione per la distruzione dei libri. Lo staff di Internet Archive ha aiutato alcuni donatori a raccogliere e trasportare questi materiali, velocizzando il progetto e riducendo l'usura e il logorio delle opere.

358

l'infrastruttura di deposito pi utilizzata nel corso del ventesimo secolo. L'essenza del design ideato, perfezionato nel giugno del 2011 a Richmond, California, consiste nella previsione di diversi strati di protezione, ognuno dei quali potr essere periodicamente monitorato e ispezionato. I testi vengono catalogati, ponendo inoltre al loro interno un inserto in "acid free paper" che contiene informazioni relative al libro e alla sua collocazione. In edifici pensati appositamente per questa funzione vengono depositate file di container "modificati", in maniera tale da presentare condizioni ambientali controllate e idonee alla conservazione della carta (50-60 gradi Fahrenheit e un tasso di umidit relativa del 30%), all'interno dei quali sono collocati blocchi di scatoloni etichettati, ognuno dei quali contiene circa 40 libri. L'archivio fisico, di propriet di organizzazioni no-profit (da questo punto di vista la necessit di individuare finanziamenti e sponsor interessati a sostenere il progetto risulta di fondamentale importanza per la riuscita e la sopravvivenza dello stesso), pensato per resistere a insetti e roditori; permette di controllare la temperatura e l'umidit e rallentare l'acidificazione della carta, proteggendo al tempo stesso i materiali dal fuoco e dall'acqua. Che cosa ci pu insegnare un'iniziativa di questa portata? L'elemento di maggiore interesse che emerge da questa forma duplice di conservazione dato dall'idea di agire contemporaneamente tanto sui bit quanto sul medium tradizionale rappresentato dalla carta. Una strategia di salvaguardia che aperta al futuro ma che non traccia una linea di rottura con il passato, che tiene conto dei progressi legati alle moderne strumentazioni, ma che allo stesso tempo rispetta e riconosce i meriti delle tecnologie del passato. Un approccio multidimensionale molto vicino a quello adottato da Robert

359

Darnton (2009), capace di esaltare le possibilit degli e-book 213 e insieme farsi interprete di un vero e proprio "inno alla carta"214 (pp. 137-159). Questa filosofia della conservazione si riflette nell'altro grande filone che caratterizza l'attivit di Internet Archive e il cui risultato pi significativo rappresentato dalla Wayback
213 Ne parla nel capitolo dedicato al progetto Gutenberg-e (pp. 105-128), da lui promosso, con il coinvolgimento della American Historical Association (AHA). In particolare Darnton sottolinea le possibilit che l'editoria elettronica pu offrire nel restituire nuova vitalit alla monografia in ambito storiografico (settore in cui la pubblicazione tradizionale negli ultimi anni si rivelata sempre pi antieconomica), con conseguenze positive per la carriera accademica dei giovani studiosi che incontrano difficolt ad essere pubblicati attraverso i canali tradizionali. 214 In questo capitolo (che in realt un saggio del 2001), Darnton evidenzia le incertezze e la cecit di chi voglia basare la conservazione dei contenuti affidandosi esclusivamente ai formati digitali. Viene denunciata la pratica diffusa fra gli stessi bibliotecari di distruggere i libri (si fa riferimento alla tecnica della "squinternatura", quasi una tortura consistente nel privare un volume della sua rilegatura, al fine di aprire pi agevolmente le sue pagine e poterle microfilmare) e mandare al macero intere collezioni mossi dall'intento di liberare spazio e tranquillizzati dalla disponibilit di copie su microfilm. Ma "il microfilm non un surrogato adeguato della carta. Nel microfilm i processi chimici distruttivi sono pi gravi. Le pellicole, che si pensava dovessero durare in eterno, sono piene di graffi e di bolle; sono sbiadite al limite dell'illeggibilit; si sono crepate e ristrette e ricoperte di muffe puzzolenti, quando non si sono fuse con la bobina riducendosi a un ammasso di celluloide. Le serie di giornali microfilmati presentano spesso dei vuoti, l dove il tecnico ha inavvertitamente saltato una pagina o sbagliato la messa a fuoco. [...] E i prezzi sono pazzeschi: una raccolta microfilmata del Philadelphia Inquirer, delle cui annate cartacee la State Library della Pennsylvania e la Free Library di Philadelphia si sono sbarazzate durante la prima ondata di 'conservazione' mediante microfilm, costa oggi $ 621.515. Leggere su

360

Machine215. Accanto all'archiviazione digitale e fisica dei libri infatti, a partire dal 1996, Brewster Kahle e i suoi colleghi hanno realizzato una sorta di macchina del tempo digitale, capace di "fotografare" e "congelare" versioni di siti internet del passato e che fino ad oggi ha archiviato i "fermi immagine" di oltre 150 miliardi di pagine web. Attraverso un'interfaccia molto semplice possibile digitare l'indirizzo del sito cui si interessati, attendere il tempo di caricamento e vedersi restituito una sorta di calendario in cui, in corrispondenza di una certa data, viene visualizzata la versione del sito com'era in quel preciso momento216. Il servizio Wayback Machine si basa
microfilm uno strazio. Quella di passare ore a far scorrere manualmente immagini sfocate sotto la luce rovente della lampada, gli occhi incollati a uno schermo, un'esperienza che pu far passare a chiunque la voglia di fare ricerche negli archivi, per non parlare dei conati di nausea che provoca" (pp. 140-141). 215 Questo nome un riferimento alla WABAC machine, una macchina del tempo immaginaria utilizzata dai personaggi di un cartone animato americano della fortunata serie "The Rocky and Bullwinkle Show". Nell'episodio intitolato Peabody's Improbable History, i due protagonisti (il cane Peabody e il bambino Sherman) utilizzano questa macchina per incontrare personaggi storici famosi, vivendo di persona (e spesso alterando) importanti momenti ed eventi del passato. 216 Abbiamo provato a inserire l'URL del sito della facolt di lettere dell'universit di Tor Vergata (http://www.lettere.uniroma2.it) e visualizzato una "fotografia" di come appariva il sito nel febbraio del 2000. curioso evidenziare la differenza con il design odierno e ancor pi notare il cambiamento della facolt sia al livello della didattica, sia dal punto di vista della sua collocazione geografica. Su uno sfondo magenta campeggiava un quadro del Botticelli; tra le informazioni veniva riportato l'indirizzo della sede, sita in via Arrigo Cavaglieri 6 (diverso dall'attuale via Columbia 1) e l'offerta didattica si limitava a quattro corsi di laurea (DAMS (musica), Filosofia, Lettere, Lingue e letterature straniere), tutt'altra cosa rispetto alla sovrabbondante offerta formativa di oggi divisa in corsi di laurea triennale e magistrale (per non parlare dei corsi ex Legge 509).

361

sullo spider di Alexa (azienda statunitense che conduce indagini statistiche sul traffico internet e che al tempo stesso fornisce anche un motore di ricerca) e permette dunque di memorizzare i cambiamenti e l'evoluzione dei siti web, rivelandosi particolarmente utile nel caso in cui si cerchi di recuperare pagine o siti andati persi e per quanti siano alla ricerca di prove una volta pubblicate e in seguito cancellate. Il risultato , come lo definiscono i suoi stessi creatori, un "archivio tridimensionale", un enorme database che non si limita a scattare un'"istantanea" superficiale di una pagina web, restituendo anche immagini e altri documenti collegati (i link delle pagine archiviate continuano a funzionare a tutti gli effetti). Sul sito di Internet Archive (all'indirizzo http://archive.org/web/hardware.php), possibile farsi un'idea della strumentazione hardware che sostiene questa grandiosa impresa di salvaguardia dei contenuti digitali. In tal senso, a conclusione di questo paragrafo, vogliamo riportare la descrizione di un'altra iniziativa degna d'attenzione, che si pone anch'essa al servizio del nostro fondamentale "diritto a ricordare". Ci stiamo riferendo al Progetto Rosetta della Long Now Foundation217, una collaborazione mondiale fra linguisti e persone madrelingua finalizzata a preservare dal
217 Per maggiori dettagli rimandiamo alla pagine web: http://longnow.org/. La fondazione orientata a una valorizzazione della cultura umana, all'insegna del recupero dei valori della responsabilit e della "lentezza", contrapposta agli imperativi oggi dominanti basati sulla coppia pi veloce/meno costoso. Accanto al Progetto Rosetta, la fondazione sta portando avanti un'iniziativa volta a realizzare l'"orologio del lungo presente" (the 10,000 Year Clock), una macchina che sia in grado di funzionare per i prossimi dieci millenni, con un intervento umano ridotto al minimo, basata su materiali a basso costo e alimentata da fonti energetiche rinnovabili (per approfondimenti rimandiamo all'indirizzo http://longnow.org/clock/, dove si pu consultare la sezione del sito della Long Now Foundation che tratta questo specifico aspetto).

362

rischio di oblio ed estinzione il nostro gi depauperato patrimonio di diversit linguistica. A causa della crescente omogeneizzazione culturale accelerata dalla globalizzazione, nei prossimi anni la lingua inglese continuer sempre pi a recitare la parte di protagonista nella maggior parte dei contesti comunicativi, ponendo a rischio la sopravvivenza di linguaggi parlati da comunit ridotte, spesso non formalizzati e trasmessi esclusivamente a livello orale. Si calcola che entro il prossimo secolo potremmo perdere qualcosa tra il 50 e il 90 % degli idiomi attualmente parlati nel mondo: dal momento che il linguaggio d corpo alla cultura umana e rappresenta il mezzo principale per la sua trasmissione e diffusione, la perdita di saperi e tradizioni potrebbe essere gravissima. L'obiettivo proprio quello di scongiurare questi scenari e realizzare un archivio digitale fondato sul libero accesso che possa conservare al suo interno un totale di pi di mille lingue. L'idea assai affascinante quella di realizzare anche un oggetto concreto, una moderna versione della stele di Rosetta, che funga da tavola comparativa e collezione parallela di testi espressi in diversi linguaggi. Potremmo immaginare di inserire al suo interno i maggiori testi della letteratura mondiale, le cure sperimentate in grado di combattere malattie ed epidemie, oppure cianotipie grazie alle quali riprodurre le pi importanti strumentazioni tecnologiche mai elaborate: non ci sono limiti all'immaginazione per il bagaglio di conoscenze che potrebbe essere inserito e preservato per la memoria delle generazioni future. Il prototipo fisico di questo archivio a lungo termine un disco di nichel del diametro di tre pollici, sulla cui superficie possono essere incise al microscopio circa 14.000 pagine di informazioni (e che l'occhio umano potr leggere attraverso un processo di ingrandimento). A protezione del disco sar una sfera di acciaio e vetro per mezzo della quale 363

esso verr messo al riparo da urti e graffi e messo in condizione di conservarsi leggibile per migliaia di anni 218. Tutta colpa del fattore ? Breve storia del copyright
Niente di nuovo sotto il sole: l'infanzia del libro tra privilegi, commercio clandestino e pirateria

"Il mestiere dell'autore" (Febvre, Martin 1958) ci appare oggi come qualcosa di consolidato e ben definito, un'etichetta ricca di fascino e genialit all'interno della quale includiamo le pi disparate figure di artisti, scrittori, musicisti e quanti (fortunati) riescono a fare della creativit, fantasia e capacit espressiva di cui sono portatori il proprio lavoro. Parliamo di mestiere perch di fatto si tratta di questo, ovvero di un sistema che garantisce dei guadagni materiali che premiano e compensano gli sforzi dell'autore in questione. Il creatore di contenuti infatti colui che produce qualcosa di innovativo, o trasforma qualcosa di gi esistente arricchendolo di sfumature e interpretazioni inedite, e da questo ricava un utile economico (accanto a un intangibile ma altrettanto importante riconoscimento da parte del suo pubblico). Questo passaggio pu avvenire grazie alla vendita diretta delle sue opere, attraverso l'esecuzione ed esposizione delle stesse in occasione di eventi particolari (ad esempio concerti, mostre e proiezioni cinematografiche) oppure tramite i benefici indiretti legati al copyright, che per un certo periodo di tempo stabilito dalla legge tutela le creazioni autoriali. In realt non fu sempre cos:
il sistema oggi consueto, ma occorse molto tempo prima che
218Per maggiori dettagli relativi al disco rimandiamo alla specifica sezione del sito del Progetto Rosetta, raggiungibile all'indirizzo http://rosettaproject.org/disk/concept/.

364

fosse escogitato e accettato. Del resto, non era immaginabile prima dell'invenzione della stampa. I manoscritti venivano s riprodotti in serie dai copisti; ma come poter pensare nel Medioevo che questi remunerassero l'autore d'un testo, di cui essi non avevano il monopolio, e che, in fin dei conti, chiunque aveva il diritto di copiare? Di conseguenza, gli autori che non scrivevano solo per amore della gloria e non avevano un reddito sufficiente, non potevano non ricorrere alla protezione d'un gran signore, d'un mecenate e vendere esemplari fatti copiare a spese di questi. Quando apparve la stampa, non vi furono bruschi cambiamenti. Gli stampatori, come i copisti, non avevano il monopolio delle opere che pubblicavano (pp. 198-199).

Per lungo tempo le figure dei letterati furono costrette a mantenersi entrando nelle officine tipografiche e vestendo i ben pi umili panni dei correttori di bozze. Questo veloce salto nel passato rappresenta al tempo stesso un'occasione per rendersi conto di come la pirateria e il commercio illegale delle opere creative non sia un'invenzione esclusivamente contemporanea, connaturata alle tecnologie digitali. Come ricostruiscono in modo approfondito Lucien Febvre e Henri-Jean Martin, in un paragrafo della loro opera significativamente intitolato Privilegi e contraffazioni (pp. 304-313),
nei primi tempi della stampa, quando un editore faceva uscire un'opera, nulla impediva ad un altro libraio di stampare, se lo trovava interessante, lo stesso testo. In un primo tempo, questo modo di fare present pochi inconvenienti: si stampavano, soprattutto in origine, testi antichi, gi noti e diffusi per tradizione manoscritta; tra le opere da pubblicare, la scelta era enorme e il bisogno di libri tale, che spesso si potevano stampare contemporaneamente parecchie edizioni d'un testo importante senza troppo danno [...]. La situazione mut quando il mercato librario si fu organizzato, gli scritti pi comuni cominciarono a

365

diffondersi in gran quantit e si cominci a far uscire via via opere d'autori contemporanei. La concorrenza tra editori si fece pi aspra, e, col sorgere dei problemi di prezzo, ancor pi grande fu la tentazione di ristampare un'opera appena uscita, in quanto il frodatore non doveva affrontare spese di impaginazione e si salvava dal remunerare gli autori [...]. Questi sistemi rischiavano di paralizzare le iniziative degli editori pi intraprendenti e pi accurati, che potevano sempre temere di non vender la bella edizione eseguita con forti spese, perch contraffatta appena pubblicata. Per evitare l'inconveniente, gli editori che iniziavano una pubblicazione pi importante furono sempre pi indotti a sollecitare dalle autorit governative un privilegio, che desse loro, per un certo periodo, il monopolio della stampa e della vendita del testo pubblicato (pp. 304-305).

Questa vicenda un'importante fonte di insegnamento perch mostra ancora una volta i rischi che caratterizzano un sistema fondato sull'anarchia e l'assenza totale di controllo. Rischi che conducono a pratiche deprecabili e malcostumi diffusi, che inducono le autorit a individuare strategie in grado di risolverli, col risultato frequente di individuare cure peggiori del male che si cerca di arginare. La richiesta di privilegi, nell'immaginario dei librai, doveva rappresentare una via in grado di proteggere gli sforzi e gli investimenti da loro sostenuti, nonch costituire un deterrente all'attivit di pirateria e vero e proprio free riding ante litteram compiuta dai loro concorrenti pi spregiudicati. I governi si dimostrarono favorevoli ad accogliere queste istanze che, a partire dalle concessioni accordate dal duca di Milano e dal Senato veneto gi a partire dalla fine del 1400, nel corso del Cinquecento si diffusero largamente in tutti i paesi europei l'invenzione della stampa aveva attecchito e trovato terreno fertile (Francia e Germania in testa). Da questo quadro emerse per una profonda contraddizione legata alla particolare natura dello 366

strumento del privilegio, che nelle mani dell'autorit fin per trasformarsi in "un'arma per meglio sorvegliare l'attivit degli stampatori" (p. 306) e generare un sistema di corruzione e connivenza in base al quale gli editori pi manipolabili e in grazia alla Corte erano avvantaggiati e investiti di veri e propri monopoli sulle opere che stampavano. Una tendenza al riconoscimento di proroghe ai privilegi e all'attribuzione di privilegi sui libri antichi contribuiva a rendere ancor pi grave una situazione gi all'insegna della disuguaglianza e della parzialit, a tutto danno della "biodiversit" culturale. Infatti:
cos inteso, il regime dei privilegi di stampa consentiva di favorire un libraio a spese degli altri: in Francia avvantaggiava i grandi editori parigini pi vicini al potere regio, pi docili e pi noti, a spese dei provinciali. Poich dalla seconda met del secolo XVII in poi gli autori fecero stampare le proprie opere esclusivamente a Parigi, gli editori di provincia rimasero senza testi da mettere sotto i torchi. Quando un'opera pubblicata a Parigi aveva successo, essi aspettavano con impazienza che l'esclusiva finisse per pubblicarla a loro volta, e non mancavano di protestare quando era concessa una proroga al privilegio. Per poter mantenere in attivit i torchi, quegli editori erano spesso indotti a stampare clandestinamente le opere, nonostante i privilegi dei librai parigini e nonostante la polizia, a volte complice e per solito impotente. Ma non era questo, forse, l'inconveniente maggiore del regime dei privilegi. Ogni paese, a volte ogni principe, concedeva privilegi validi soltanto nell'ambito dei suoi stati, non oltre. Se Francia, Inghilterra e Spagna, con l'unit nazionale gi raggiunta, potevano di solito assorbire intere edizioni, i privilegi accordati dai principi italiani o tedeschi, e persino dall'imperatore, davano agli editori una garanzia spesso illusoria. Di conseguenza, i grandi librai che si dedicavano al commercio internazionale del libro, vivevano continuamente nel timore di vedersi contraffare un'edizione appena pubblicata con forti spese (pp. 307-308).

367

Per tre secoli, dal Quattrocento al Settecento, i vizi e le imperfezioni della legislazione editoriale, unitamente ai criteri del tutto sui generis in base ai quali avveniva la concessione dei privilegi, determinarono il moltiplicarsi delle edizioni contraffatte e la nascita di un commercio librario sempre pi clandestino. Sotto quest'ultimo riguardo, anche l'attivit di censura gioc un ruolo decisivo nel consolidare un clima di illegalit, controlli e proibizioni che dal punto di vista della diffusione delle conoscenze e della libera circolazione delle idee si rivela ai nostri occhi grave quanto lo stato di iniziale anarchia da cui eravamo partiti. Soprattutto perch, come sempre in questi casi, ne scatur una sorta di guerra dai toni sempre pi aspri e degenerati, all'insegna di colpi bassi e azioni di rappresaglia, nella quale ad ogni comportamento di una delle due parti in gioco l'altra replicava in modo ancor pi amplificato e drastico (sia che si trattasse di restrizioni imposte dalle autorit, che di accresciuta spregiudicatezza da parte degli editori "fuorilegge" e contrari al sistema). La Chiesa cattolica, custode dell'ortodossia, aveva riconosciuto sin dall'inizio le potenzialit in termini di diffusione della fede che l'invenzione della stampa prometteva e favor l'impianto di numerose officine tipografiche. D'altro canto,
soprattutto quando s'annunci la Riforma, le autorit ecclesiastiche si preoccuparono di vedere i torchi al servizio di idee eterodosse, e stimarono necessario impedire alla stampa di moltiplicare i cattivi libri. A tal fine, gi nel 1475, l'Universit di Colonia ricevette dal Papa un privilegio che l'autorizzava a censurare stampatori, editori e autori e persino i lettori dei libri dannosi. [...] Sarebbe vano, e senza dubbio impossibile, enumerare tutte le deliberazioni analoghe e le condanne moltiplicatesi in modo incredibile durante il secolo xvi. Contentiamoci di segnalare che il numero dei libri proibiti

368

aumenta d'allora in poi con ritmo tale che diventa necessario compilare senza posa molteplici indici che ne elenchino i principali (pp. 310-311).

Anche il potere secolare fece sentire la propria mano pesante, intervenendo sempre pi in materia di polizia libraria, limitando l'introduzione di libri stranieri e cercando di impedire la pubblicazione o l'imitazione di tutte quelle opere che, secondo una definizione molto vaga nonch soggetta a interpretazioni di comodo, venivano considerate proibite in quanto dannose e ostili tanto ai governanti quanto all'ordine costituito. Le pene previste divennero sempre pi severe e molti librai furono condotti alla rovina, tuttavia il fermento culturale del tempo non riusc a essere ridotto al silenzio. Proprio il Settecento fu infatti il secolo in cui maturarono e si diffusero le opere degli illuministi francesi: il loro messaggio basato sull'esaltazione dello spirito critico e della forza dirompente della ragione pot attecchire e diffondersi proprio grazie ad una rete di stamperie e commercianti clandestini che riuscivano a eludere i controlli della censura e a promuovere la libera circolazione delle idee. Dopo questa digressione, che aveva lo scopo di illustrare la ricorsivit della Storia, in cui spesso possiamo riconoscere nel presente situazioni e problemi gi sperimentati e incontrati nel passato, vogliamo per tornare all'argomento dal quale eravamo partiti, che ruotava intorno alla figura dell'autore. Nei primi decenni successivi all'introduzione della stampa, esaurito l'impulso iniziale che aveva portato alla pubblicazione in innumerevoli edizioni "doppione" di testi antichi, da parte dei librai incominci a essere avvertita la necessit di opere inedite. E cos,
intuendo l'influsso che potranno esercitare per mezzo della

369

stampa, sono sempre pi numerosi gli autori che sottopongono al libraio i propri manoscritti. Per molti di loro, amatori di belle lettere, pi o meno in rottura col chiostro, il problema della vita materiale si impone con forza. Non tutti sono abbastanza fortunati o abbastanza disciplinati da trovare una sistemazione stabile come correttori. Chieder denaro al libraio, cui affidano l'opera e che ne ricaver un utile, e perci vendere il prodotto del proprio spirito, non ancora entrato nei costumi: gli autori del Cinquecento, e alcuni del Seicento, rifiutano d'accettare simile umiliazione. Cos, il sistema cui pare ricorressero molti autori deriva dal tradizionale mecenatismo. Quando un'opera esce dai torchi, gli autori ne richiedono alcune copie, cosa pi che naturale, e ai tempi di Erasmo prendono l'abitudine di inviarli a qualche ricco signore, amico delle lettere, accompagnati da lusinghiere epistole dedicatorie: omaggio che il signore sapr apprezzare e ricompensare con un regalo di denaro. Nel secolo XVI, la cosa appare lecita e onorevolissima; come l'abitudine, ben presto acquisita, di far stampare all'inizio o alla fine dell'opera, epistole o versi encomiastici, rivolti ai potenti protettori che non mancano, anche loro, di pagare [...]. Il sistema, che oggi ci urta, appariva allora naturalissimo, molto pi onorevole, ripetiamolo, del vendere il manoscritto a un editore. [...] Erasmo viveva proprio della sua penna. Moltiplicava le dediche, la sua fama gli permetteva di richiedere agli editori un numero abbastanza rilevante di esemplari, e aveva organizzato in tutta Europa una vera e propria rete d'agenti che li distribuivano e raccoglievano le ricompense (pp. 199-200).

In un quadro di questo genere in cui l'abilit e la sopravvivenza degli autori non si misurava tanto nella qualit delle loro creazioni, quanto nella capacit di districarsi nel mercato, ingraziarsi il favore e le grazie della nobilt e comportarsi alla stregua di un "uomo d'affari" (p. 204) al danno legato alla precariet di questa condizione potevano aggiungersi ulteriori beffe. Nella bottega del celebre editore 370

Plantin infatti, nel caso di opere per cui era prevista una vendita limitata, vi era la prassi consolidata di obbligare gli autori ad acquistare un certo quantitativo delle copie stampate. Sar solo a partire dal Seicento, che soprattutto gli autori di romanzi e opere teatrali (tra i quali ricordiamo i nomi di Corneille, La Fontaine e Molire) inizieranno a vendere i propri scritti, anche se "gli autori che riescono a spillare forti somme al libraio sono per ben pochi" (p. 202). Come sottolineano Febvre e Martin:
tranne forse casi isolati, le somme ricevute dagli autori rimangono abbastanza piccole. Per vivere devono ricorrere ad altri mezzi. [...] I gran signori continuando, sia per prestigio sia per amore delle lettere, a mantenere scrittori nei propri palazzi. E con quale bassezza eran ricercate le pensioni concesse da Luigi XIV! In realt, i letterati non avevano ancora conquistato la propria indipendenza di fronte ai potenti e al governo, per lo meno in Francia. Le cose andavano cos, perch allora i diritti degli autori non erano ancora protetti. Quando i librai avevano acquistato un manoscritto, l'autore non aveva pi nulla a che vedere con la pubblicazione dell'opera. Anzi, non esistendo il principio della propriet letteraria, ogni libraio aveva il diritto di pubblicare i manoscritti, di cui riusciva a procurarsi una copia, senza consultare l'autore (pp. 202-203).

Simili condizioni sembrano incredibili ai nostri occhi, eppure tutte queste pratiche rappresentarono a lungo la costante delle relazioni fra autori e librai/editori. Possiamo inoltre citare lo svantaggioso meccanismo in base al quale la somma che quest'ultimi avrebbero versato per l'acquisto del manoscritto veniva fissata prima della sua pubblicazione, quando in nessun modo si poteva immaginare quale sarebbe stata l'accoglienza dell'opera da parte del pubblico. Nel caso di un successo, l'autore si sarebbe pertanto trovato escluso dai guadagni legati alla vendita delle ristampe. Se a ci aggiungiamo che ancora 371

nel Settecento la pratica di concedere proroghe ai privilegi dei librai era ampiamente diffusa, ci possiamo rendere conto della forza sociale e della ricchezza economica che questa classe riusciva a ottenere, di contro alla miseria in cui il pi delle volte versavano gli effettivi autori e produttori dei contenuti. Per tentare di arginare questo strapotere e partecipare in modo pi attivo agli utili derivanti dal proprio lavoro,
un po' dappertutto, molti autori dalla fine del secolo XVI tentarono di farsi stampare le opere per conto proprio. [...] Ma erano tentativi molto mal visti da librai e stampatori, che procuravano di ostacolare con ogni mezzo lo smercio delle opere pubblicate "per conto dell'autore". Se ne occupavano le corporazioni e cercavano di far proibire agli autori quella pratica; e spesso vi riuscivano (pp. 203-204).

La dignit degli autori era bersagliata da pi fronti e le difficolt sempre numerose e difficili da superare; tuttavia era prossimo il tempo in cui l'autore sarebbe potuto finalmente diventare "padrone della propria opera" (p. 208), infatti:
a poco a poco si andava verso l'attuale soluzione: il riconoscimento giuridico della "propriet letteraria" dell'autore sull'opera per un certo periodo, prima che diventi di "dominio pubblico", e la partecipazione dell'autore, in una forma qualsiasi, nei casi in cui era praticamente possibile, agli utili ricavati dalla vendita delle copie. Su questo punto l'Inghilterra indic la via. Pare che fin dal Seicento i librai a volte accettassero d'impegnarsi con l'autore, che cedeva loro un manoscritto, a non ristamparlo senza il suo consenso, e certamente non senza versargli un'altra somma. Il 27 aprile 1667, quando il poeta vende il manoscritto del Paradise Lost per cinque sterline, l'editore Samuel Simmons promette promette che non appena esaurita la prima edizione di milletrecento esemplari, Milton ricever di nuovo cinque sterline,

372

e che la stessa somma gli sar versata quando saranno vendute le copie della seconda e terza edizione. (p. 204).

Una nuova era all'insegna della legislazione in materia di diritti d'autore stava dunque prendendo forma. 1710, l'annus mirabilis del copyright: diritti esclusivi ma limitati nel tempo Il copyright (letteralmente "diritto di copia"), o diritto d'autore219, rappresenta una forma di tutela di quella categoria di propriet a s stante che l'opera creativa. Riflettendo su queste parole pu emergere un iniziale senso di straniamento, dovuto forse al fatto che:
nel linguaggio comune definire il copyright un diritto di "propriet" un po' fuorviante, perch quella del copyright una propriet di tipo particolare. Anzi, l'idea stessa di propriet di un'idea o di un modo di espressione appare molto strana. Capisco di che cosa mi approprio quando prendo il tavolo da picnic che qualcuno ha lasciato nel suo giardino. Prendo una cosa, il tavolo da picnic e, dopo che l'ho presa, l'altro non ce l'ha pi. Ma di che cosa mi approprio quando prendo la buona idea che qualcuno ha avuto quando ha messo il tavolo da picnic in giardino se per esempio, vado in un grande magazzino, compro anch'io un tavolo e lo metto in giardino? Che cosa sto prendendo in questo caso? Il punto non riguarda soltanto la concretezza dei tavoli da picnic rispetto alle idee, anche se si tratta di una differenza importante.
219 Nonostante l'apparente interscambiabilit dei termini e la sovrapposizione sinonimica che spesso viene operata nel linguaggio comune, bene sottolineare come copyright e diritto d'autore non siano la stessa cosa. Con il primo ci stiamo riferendo all'istituto giuridico caratteristico degli ordinamenti di common law, tipici dei paesi anglosassoni, mentre con il secondo ci si richiama alla figura propria degli ordinamenti di civil law (come l'Italia).

373

La questione piuttosto che in una situazione normale anzi, praticamente in ogni caso tranne che in una gamma ridotta di eccezioni le idee diffuse nel mondo sono libere. [...] Le eccezioni al libero utilizzo sono idee ed espressioni che rientrano nel campo di azione delle legislazioni sui brevetti e sul copyright, e di alcuni altri ambiti di cui non mi occuper in questa sede. Qui la legge dice che non ci si pu appropriare delle mie idee o delle mie espressioni creative senza il mio permesso: la legge trasforma in propriet l'intangibile (Lessig 2004, p. 50).

Ai nostri giorni la questione del copyright si rivela centrale in qualsiasi discussione legata al concetto di trasmissione e accesso alle diverse manifestazioni della cultura, coinvolgendo tematiche quali la libert e la democrazia e rappresentando pertanto un parametro chiave con cui misurare il grado di apertura di una societ. Quello che per lungo tempo ha rappresentato una conquista normativa capace di valorizzare e ripagare gli sforzi e le idee degli autori, si sta oggi pian piano trasformando in una legislazione estremista, sempre pi rigida e duratura, un lucchetto impenetrabile che imbriglia lo sviluppo delle idee, uno strumento votato alla staticit e alla protezione di interessi gi consolidati che non guarda al futuro. Su questo terreno si sta combattendo una battaglia che vede protagonisti i "guerrieri del copyright" (ib.) da una parte e i fautori di una cultura libera e aperta dall'altra; un dibattito dagli esiti non scontati che rivela la sua affinit con la nostra tesi anche perch strettamente connesso alle nuove tecnologie di cui ci siamo finora occupati. E, come in tutti i racconti che si rispettino, anche in questo caso sar bene incominciare dal principio. La data pi significativa in tema di diritto d'autore fu senza dubbio quella del 1710, anno in cui il Parlamento britannico introdusse la legislazione sul copyright, allora conosciuta come "Statute of Anne". Tale normativa: 374

stabiliva che da quel momento tutte le opere pubblicate avrebbero avuto un copyright della durata di quattordici anni, rinnovabile una volta nel caso l'autore fosse vivo, e che tutte le opere pubblicate prima del 1710 avrebbero ottenuto una sola estensione di altri ventun anni (p. 51).

All'epoca non esistevano altre leggi che disciplinassero questa materia: la validit del Licensing Act, una norma che era stata introdotta nel 1662 e che assegnava agli editori il monopolio sulla stampa (di modo da facilitare il controllo da parte della Corona su quanto veniva pubblicato), era infatti decaduta a partire dal 1695. L'assenza di diritto positivo non significa tuttavia che non esistessero delle norme dettate da una tradizione ampiamente radicata di usi e comportamenti, quel diritto consuetudinario (noto anche come "common law") che tipico del sistema giuridico anglo-americano. Di fatto lo "Statuto di Anna" era stato promulgato a seguito delle pressioni della categoria degli editori (o "bookseller") che temevano la concorrenza degli editori stranieri e in particolar modo scozzesi, che sempre pi si stavano dedicando alla pubblicazione ed esportazione di libri in Inghilterra.
Lo statuto garantiva all'autore o "proprietario" di un libro il diritto esclusivo di stamparlo. Con una importante limitazione, tuttavia, e con gran sdegno dei bookseller, la norma assegnava loro questo diritto per un periodo di tempo limitato. Alla scadenza di quel periodo il copyright si estingueva, l'opera diventava libera e poteva essere stampata da chiunque (p. 52).

Nel suo testo, Lessig (2001) invita a interrogarsi sulla natura del diritto di copyright, che se oggi un concetto molto esteso, nel corso del XVIII secolo era un "diritto assai ristretto" (ib.), una serie di limitazioni molto specifiche volto a impedire che un 375

libro venisse pubblicato in modo indiscriminato e da parte di qualsiasi soggetto. Esso:


non controllava in alcun senso pi generale il modo in cui un'opera potesse essere usata. Oggi il diritto comprende una lunga serie di restrizioni alla libert altrui: garantisce all'autore il diritto esclusivo alla copia, il diritto esclusivo alla distribuzione, il diritto esclusivo alla pubblica esecuzione, e via di seguito (ib.).

Com'era tipico della mentalit inglese, che era portata a guardare con scetticismo e ostilit alle forme monopolistiche, tanto pi quando concesse dalla Corona,
il "copy-right" assegnava soltanto il diritto esclusivo alla stampa niente di meno, ovviamente, ma anche nulla di pi. [...] Lo stato avrebbe tutelato il diritto esclusivo, ma soltanto fintanto che portava benefici alla societ. I britannici conoscevano i danni causati dal favoritismo verso interessi particolari; approvarono quindi una legge intesa a bloccarlo (p. 53).

Fin qui per non abbiamo ancora detto nulla sulla figura dei bookseller, una categoria molto lontana dal profilo tipico delle case editrici moderne, dotata di notevole ascendente politico e portatrice di privilegi commerciali che era disposta a difendere in ogni modo. La diffusione della conoscenza erano di fatto nelle loro mani e da pi parti si era iniziato a prendere coscienza del fatto che questo loro potere non si sposava con lo spirito critico e gli ideali di libert di accesso alla cultura e all'istruzione, tipici dell'Illuminismo. E pertanto:
per equilibrare un simile potere, il Parlamento decise di incrementare la concorrenza tra i "venditori di libri", e il modo pi semplice per farlo fu quello di distribuire il patrimonio dei volumi di valore. Di conseguenza, il Parlamento limit la durata

376

del copyright, garantendo cos che i libri di valore risultassero disponibili per la stampa a qualsiasi editore, dopo un periodo di tempo limitato. Cos la decisione di stabilire un termine di appena ventun anni per le opere esistenti fu un compromesso per opporsi al potere dei bookseller. La limitazione sulla durata fu un modo indiretto per assicurare la concorrenza tra gli editori, e quindi la costruzione e le diffusione della cultura (ib.).

Questa ondata di liberalizzazioni ante litteram scosse la posizione di mercato favorevole che gli editori inglesi avevano puntellato e consolidato nel corso dei decenni e innesc una reazione finalizzata a persuadere il Parlamento a estendere i termini di durata del loro diritto. Richieste che furono puntualmente respinte, alla luce dell'evidenza che non vi era:
alcuna ragione per concedere ora una durata maggiore, che non verr rispettata con richieste di nuove estensioni, man mano che si estinguono le vecchie scadenze; per cui, se dovesse passare, questa proposta in effetti stabilir un monopolio perpetuo, una cosa meritatamente odiosa agli occhi della legge; diverrebbe un grande ostacolo al commercio, scoraggerebbe l'apprendimento, non sarebbe un beneficio per gli autori, ma una tassa generale per il pubblico; e tutto ci soltanto per incrementare i guadagni privati dei venditori di libri (p. 54).

Con lungimiranza e coscienza del proprio ruolo di promotore imparziale dello sviluppo della societ, il Parlamento era ben consapevole dell'ingordigia e dell'ansia di profitto degli editori e aveva intuito che quella di assecondare le loro istanze non era la strada giusta da percorrere. I bookseller tuttavia non si tirarono indietro di fronte a questi ostacoli e decisero di portare la diatriba in tribunale, appellandosi al gi menzionato diritto consuetudinario, in base al quale era vietato appropriarsi della "propriet" creativa di una persona senza il suo permesso. Con 377

una serie di casi alla mano, essi sostennero dinanzi al giudice che il "vuoto normativo" originatosi con la decadenza delle protezioni determinate dallo Statute of Anne sarebbe stato colmato da quanto stabilito dalle norme di common law. Quest'ultimo infatti non era da considerarsi estinto e rimetteva nelle mani degli editori la possibilit di vietare la pubblicazione di un libro, cessazione o meno del relativo copyright. Ebbe inizio una vera e propria battaglia, dalla quale emerse la figura eroica di Alexander Donaldson, proprietario di una casa editrice scozzese specializzata proprio nelle ristampe economiche di quelle opere per cui in base allo Statuto di Anna erano scaduti i termini del copyright. Il risultato della delibera della Camera dei Lord assume ancora oggi un senso importantissimo:
con una maggioranza di due a uno (22 contro 11) respinse l'idea del copyright perpetuo. Qualunque fosse l'interpretazione del diritto consuetudinario, da quel momento al copyright era stato assegnato un periodo di tempo determinato, scaduto il quale l'opera tutelata dal copyright diventava di pubblico dominio. "Il pubblico dominio". Prima del caso Donaldson v. Beckett, in Inghilterra non esisteva un'idea precisa di che cosa fosse. Prima del 1774, esisteva la radicata convinzione che il copyright stabilito dal diritto consuetudinario fosse perpetuo. Dopo il 1774, nacque il il pubblico dominio. Per la prima volta nella storia anglo-americana, il controllo legale sui lavori creativi era decaduto, e le opere pi importanti della storia inglese comprese quelle di Shakespeare, Bacon, Milton, Johnson e Bunyan potevano considerarsi libere da vincoli giuridici. difficile per noi immaginarlo, ma questa decisione della Camera dei Lord aliment una straordinaria reazione a livello popolare e politico. In Scozia, dove operava la maggior parte degli "editori pirata", la gente scese per le strade a celebrare la sentenza (p. 56).

378

A Londra, come ci si pu immaginare, le reazioni degli editori furono di segno decisamente opposto, con un'intera categoria che inizi a vedersi minacciata dall'ingresso di nuovi attori nel mercato in espansione della pubblicazione e vendita dei libri. In molti erano certi di vedere di l a poco vanificati i propri investimenti e quella tranquillit d'azione che aveva fino a quel momento garantito un capitale e una rendita sicura. Scenari di questo tipo erano esageratamente negativi e legati a visioni parziali, anche se:
non esagerato dire che il cambiamento fu profondo. La sentenza della Camera dei Lord signific che i bookseller non potevano pi controllare il modo in cui la cultura sarebbe cresciuta e si sarebbe sviluppata in Inghilterra. Da allora, in Inghilterra, la cultura fu libera. Ci non significava che non c'era pi un copyright da rispettare, perch ovviamente, per un periodo di tempo limitato dopo l'uscita di un'opera, gli editori mantenevano il diritto esclusivo a controllarne la pubblicazione. Ci non significava neanche che fosse concesso rubare i libri, perch, anche dopo la scadenza del copyright bisognava pur sempre acquistarli da qualcuno. Ma libera nel senso che la cultura, e il suo sviluppo, non sarebbero stati pi controllati da un piccolo gruppo di editori. Come ogni mercato libero, anche quello della cultura libera sarebbe cresciuto secondo le scelte dei consumatori e dei produttori. La cultura inglese si sarebbe sviluppata tramite i memi220 che avrebbero replicato e sostenuto. Scelte operate
220 In un certo senso il concetto di "meme" rappresenta nell'ambito della cultura l'equivalente dei geni nel campo dell'ereditariet (di qui anche la somiglianza lessicale fra i due termini) ed stato proposto e analizzato per la prima volta da Richard Dawkins (1976), all'interno del saggio "Il gene egoista". Si tratta di unit elementari di informazione (nelle sue forme e supporti pi disparati, da un'idea ad un motivo musicale, da una lingua a un film) che possono evolvere, subire mutazioni e che le menti sono in grado di replicare e propagare, determinando cos la loro eventuale trasmissione alle generazioni future.

379

all'interno di un contesto competitivo, non di un contesto le cui scelte sul tipo di cultura messa a disposizione del pubblico e sulle modalit d'accesso vengono fatte da pochi senza tenere conto dei desideri di molti (ib.).

Ma la storia non finisce qui: come un incentivo ha potuto divenire una barriera che limita sempre pi la creativit Scorrendo i capitoli del libro di Lessig (2004) potr capitare di fare la conoscenza indiretta di un personaggio il cui nome forse dir poco o nulla al lettore italiano, ma che rivest un ruolo significativo nel contesto statunitense e la cui vicenda entra a pieno titolo nelle pagine della nostra analisi. Jack Valenti ricopr per moltissimi anni il ruolo di presidente della Motion Picture Association of America (MPAA), un'associazione di categoria costituita nel 1922 con l'obiettivo di tutelare gli interessi delle case di produzione cinematografica (non a caso sono suoi membri i sette maggiori studi cinematografici degli Stati Uniti: Walt Disney, Sony Pictures Entertainment, MetroGoldwin-Mayer, Paramount Pictures, Twentieth Century Fox, Universal Studios e Warner Brothers). Quando Lessig tracciava il profilo di questa figura da pi parti considerata come "il lobbysta forse pi importante ed efficiente di Washington" (Lessig 2004, p. 67), il personaggio in questione era ancora in vita221 e si era sempre distinto per la grande capacit e influenza politica. Attraverso l'organizzazione da lui presieduta, Valenti ha ripetutamente cercato di imporre una definizione forte ed estrema del concetto di "propriet creativa", la quale dovrebbe essere equiparata al regime tipico di qualsiasi altro tipo di propriet. Portavoce e capofila degli interessi della grande industria cinematografica, Valenti sostenne un punto di vista in base al quale "ai titolari della propriet creativa [dovessero] essere assegnati gli stessi diritti e la stessa protezione
221 Jack Valenti venuto a mancare nell'aprile del 2007.

380

riconosciuti a tutti gli altri proprietari di questa nazione" (p. 68). Una tradizione di valori e lotte di pi di due secoli, tra cui abbiamo ricordato il significativo successo dell'editore scozzese Donaldson, finirebbe cos spazzata via in favore degli interessi monopolistici di pochi soggetti, che vedrebbero accrescere nelle loro mani il potere e il controllo sul libero ingegno degli individui. In tal senso:
sarebbe un terribile errore rifiutare la storia. Abbiamo sempre trattato i diritti della propriet creativa in modo diverso da quanto viene riconosciuto a tutti gli altri titolari di una propriet. Non mai stata la stessa cosa. E non dovrebbe mai esserlo perch, per quanto possa apparire poco intuitivo, questa equiparazione indebolirebbe in modo sostanziale l'opportunit di creare per i nuovi autori. La creativit dipende dal fatto che i titolari della stessa non ne abbiano un controllo perfetto. Organizzazioni come la MPAA, nel cui direttivo sono presenti le persone pi potenti della vecchia guardia, nutrono scarso interesse, nonostante la loro retorica, a permettere che il nuovo possa scalzarli. Nessuna organizzazione lo vorrebbe. Nessuna persona. (Parliamo dei docenti di ruolo, tanto per fare un esempio). Ma quel che bene per la MPAA non lo necessariamente per l'America. Una societ che difende gli ideali della cultura libera deve appunto tutelare la possibilit che la nuova creativit minacci quella vecchia (p. 69).

Per ribadire queste argomentazioni, Lessig (2004) si richiama al dettato costituzionale, evidenziando come il tema della propriet fosse stato precisato con cura e in anticipo sui tempi gi dai suoi stessi estensori. La Costituzione degli Stati Uniti d'America riconosce la sacralit della propriet (un esempio dato dal fatto che al governo riconosciuta la possibilit di effettuare espropriazioni per pubblica utilit, ma solo dopo aver corrisposto un indennizzo al suo proprietario), ma al tempo stesso riserva un trattamento distinto alle opere 381

intellettuali e alle altre forme di propriet creativa. E infatti:


nell'articolo che assegna al Congresso l'autorit di attribuire a qualcuno la "propriet creativa", la Costituzione impone che dopo un "periodo di tempo limitato", il Congresso rientri in possesso dei diritti assegnati e liberi la "propriet creativa" perch diventi di pubblico dominio. Eppure quando opera in questo modo, quando alla scadenza del termine "si appropria" del nostro copyright e lo rende di dominio pubblico, il Congresso non ha alcun obbligo di corrispondere il "giusto compenso" per tale "appropriazione". Piuttosto, la stessa Costituzione che impone un risarcimento per il nostro terreno, ci ingiunge di perdere il diritto alla "propriet creativa" senza alcun compenso. Perci la stessa Costituzione ad affermare esplicitamente che a queste due forme di propriet non debbano essere riconosciuti uguali diritti. Vanno chiaramente trattate in maniera diversa. [...] Perch gli estensori, fanatici della propriet come erano, rifiutarono la posizione secondo la quale alla propriet creativa devono essere riconosciuti gli stessi diritti di ogni altra propriet? Perch hanno imposto alla propriet creativa l'esistenza del pubblico dominio? (pp. 69-70)

Per rispondere a queste domande, Lessig (2004) propone un modello generale che descrive il modo in cui un individui o il gruppo possono essere regolamentati e limitati nella propria possibilit di agire. Egli individua quattro vincoli fondamentali che possono essere pi o meno presenti e che sono: la legge (lo Stato impone delle restrizioni dovute a regole, alla cui violazione possono seguire punizioni), le norme (anche in questo caso la violazione seguita da una pena, ma si tratta di un tipo diverso di vincolo, stabilito dalla comunit), il mercato (ancora una volta si tratta di norme e leggi, in base alle quali "possiamo fare X se paghiamo Y; saremo pagati M se facciamo N" [p. 71]) e infine tutti quei vincoli sul nostro comportamento che sono determinati dall'architettura del mondo fisico. Queste 382

quattro dimensioni interagiscono tra loro e in un determinato periodo storico proprio il loro "stato" a determinare ci che una persona effettivamente libera o meno di fare. Per capire meglio questo punto:
pensiamo, per esempio, alla "libert" di guidare un auto a forte velocit. Tale libert in parte limitata per legge: i limiti di velocit stabiliscono quanto veloci si possa andare in luoghi specifici in momenti particolari. in parte vincolata dall'architettura: gli appositi dossi, per esempio, inducono a rallentare la maggior parte degli autisti di buon senso; i regolatori degli autobus, altro esempio, impostano la velocit massima di guida. La libert parzialmente limitata dal mercato: il risparmio di carburante diminuisce con l'aumento della velocit, perci il prezzo della benzina a porre indirettamente un limite. E, infine, le norme di una comunit possono vincolare o meno la libert di correre in macchina. Se passiamo a 70 km all'ora davanti alla scuola del quartiere, probabile che verremo puniti dai vicini. La stessa norma non avrebbe identica efficacia in un'altra citt, oppure di notte. Anche il punto finale di questo semplice modello dovrebbe risultare abbastanza chiaro: anche se le quattro modalit sono analiticamente indipendenti, la legge svolge un ruolo particolare nei confronti delle altre tre. La legge, in altri termini, talvolta agisce rendendo pi rigidi o pi laschi i vincoli di una determinata modalit. [...] Questi vincoli possono perci cambiare, e possono essere modificati (pp. 71-72).

Non questo il punto e Lessig (2004) non si schiera accanto ai conservatori a oltranza e tantomeno al fianco dei difensori a priori della possibilit di modificare le leggi e lo stesso dettato costituzionale. Quello che l'autore vuole sottolineare ancora una volta il carattere del tutto particolare della materia che soggetti come Valenti vorrebbero vedere sottoposta ad un regime normativo differente da quello pensato in origine da 383

Jefferson e dagli altri padri fondatori. E queste preoccupazioni risultano rafforzate dal riconoscimento del diverso quadro tecnologico e comunicativo che ci circonda. Nella regolamentazione del copyright prima di internet esiste un equilibrio tra legge, norme, mercato e architettura:
la legge limita la capacit di copiare e di condividere i contenuti, imponendo sanzioni a coloro che lo fanno. Tali sanzioni sono rafforzate dalle tecnologie che rendono difficile (architettura) e costosa (mercato) la copia e la condivisione di contenuti. Infine, le sanzioni sono mitigate da norme riconosciute da tutti per esempio, i ragazzi che registrano su cassetta i dischi degli amici. Questi utilizzi di materiale protetto da copyright possono ben considerarsi una violazione, ma le norme della societ (almeno, prima di Internet) non consideravano un problema tale forma di violazione. Prendiamo ora in considerazione Internet o, pi precisamente, tecnologie quali mp3 e la condivisione p2p. Qui il vincolo dell'architettura cambia in maniera notevole, come pure quello del mercato. E mentre entrambe le modalit allentano la regolamentazione del copyright, le norme vanno accumulandosi. L'equilibrio perfetto (almeno per i guerrieri) della vita prima di Internet, si trasforma in un vero e proprio stato d'anarchia nel dopo Internet. Da qui il senso e la giustificazione della reazione dei guerrieri. La tecnologia cambiata, essi dicono, e l'effetto di questo mutamento, quando si ramifica attraverso il mercato e le norme, la perdita dell'equilibrio nella tutela dei diritti dei titolari del copyright (p. 73).

Di qui la richiesta di una stretta sulla legislazione che disciplinava la propriet creativa, che si concretizz nel 1995 con la preparazione da parte del Ministero del Commercio statunitense di un "libro bianco" volto a individuare le strategie222 da percorrere per rispondere ai cambiamenti
222"Il documento sosteneva che (1) il Congresso avrebbe dovuto rafforzare

384

apportati dalle tecnologie digitali e per difendere le ragioni dei sostenitori del diritto d'autore a tutti i costi. Fin qui, tutto normale, "perci non c' nulla di sbagliato o di sorprendente nella campagna dell'industria produttrice di contenuti per tutelarsi dalle dannose conseguenze dell'innovazione tecnologica" (p. 74). Istanze e pressioni di questo tipo rientrano nelle regole del gioco e nelle possibilit che un sistema democratico accorda ai suoi cittadini; tuttavia ci non di per s una garanzia della legittimit e della validit delle richieste espresse, infatti:
il solo fatto che un particolare settore d'interesse chieda il sostegno del governo non significa che tale sostegno vada accordato. E solo perch la tecnologia ha indebolito un determinato modo di lavorare, non significa che il governo debba intervenire per sostenere quel vecchio comportamento. [...] In una societ libera, dove vige il libero mercato, basata sulla libert di impresa e di commercio, il ruolo del governo non quello di dare sostegno a un determinato tipo di business a discapito degli altri. Il suo ruolo non quello di scegliere i vincitori e di tutelarli contro le perdite. Se il governo si comportasse cos a livello generale, non ci sarebbe alcun progresso. [...] Un mondo in cui i concorrenti con idee nuove devono combattere non soltanto con il mercato ma anche con il governo un mondo in cui le nuove idee non potranno farcela. un mondo statico, affetto da una stagnazione sempre pi concentrata. l'Unione Sovietica sotto Breznev. Quindi, pur essendo comprensibile che le industrie minacciate da nuove tecnologie che le obbligano a cambiare le
le leggi in tema di propriet intellettuale, (2) l'imprenditoria avrebbe dovuto adottare innovative tecniche di marketing, (3) i tecnologi avrebbero dovuto spingere per lo sviluppo di codice atto a proteggere il materiale tutelato da copyright e (4) gli educatori avrebbero dovuto indirizzare i ragazzi verso una maggiore sensibilit nei confronti della protezione del copyright" (ib.).

385

loro pratiche imprenditoriali chiedano protezione al governo, dovere specifico di chi decide le politiche operative garantire che quella tutela non divenga un deterrente per il progresso. dovere di chi decide, in altri termini, assicurarsi che i cambiamenti apportati, in risposta alla richiesta di coloro che sono danneggiati dalle tecnologie emergenti, risultino tali da preservare gli incentivi e le opportunit per l'innovazione e il cambiamento. Nel contesto delle normative che regolano la libert di espressione dove rientrano ovviamente le leggi sul copyright questo dovere ancora pi pressante (pp. 74-75).

Il messaggio che vogliamo far arrivare al lettore non privo di sfumature e pertanto utile chiarire meglio la nostra posizione. Quella che stiamo cercando di difendere non una posizione vicina all'anarchia, con una societ priva di controllo e stabilit e in cui gli autori siano privati del giusto compenso per le proprie opere. E tantomeno vogliamo essere confusi con quanti manifestano comportamenti di pirateria o free riding che, approfittando dei molti spazi "franchi" presenti nella Rete, accedono indebitamente alla creativit altrui, danneggiando e usurpando grandi quantit di risorse comuni e capitale sociale. Sposando a pieno quanto sintetizzato dal sottotitolo del saggio di Lessig (2004), nostra intenzione allontanare le trappole di chi riduce la realt a scontro bipolare fra definizioni reciprocamente incomunicabili e opposte. Non esiste solo il "bianco" e il "nero", ci che "gratuito" di contro a qualcos'altro che prevede una formula di pagamento e pertanto non possiamo appiattire il tema oggetto del nostro studio alla coppia dialettica che pone l'assenza totale di controllo da un lato e un regime di permessi e autorizzazioni dall'altro. Se faremo nostre queste premesse, verr da s riconoscere che:
una cultura libera non priva di propriet; non una cultura in

386

cui gli artisti non vengono ricompensati. Una cultura senza propriet, in cui i creatori non ricevono un compenso, anarchia, non libert. E io non intendo promuovere l'anarchia. Al contrario, la cultura libera che difendo in questo libro in equilibrio tra anarchia e controllo. La cultura libera, al pari del libero mercato, colma di propriet. Trabocca di norme sulla propriet e di contratti che vengono applicati dallo stato. Ma proprio come il libero mercato si corrompe se la propriet diventa feudale, anche una cultura libera pu essere danneggiata dall'estremismo nei diritti di propriet che la definiscono. Questo ci che oggi temo per la nostra cultura (p. 3).

partendo dallo stesso timore che abbiamo deciso di affrontare questo viaggio nello sconfinato territorio dei commons della conoscenza, cercando di tracciare una sintesi parziale delle criticit e dei diversi attori in esso coinvolti. Si tratta di un ritratto in continuo movimento, perch la condizione della dinamicit una prerogativa connaturata al contesto tecnologico davanti ai nostri occhi: la vera sfida per quanti cercano di trovare delle soluzioni ai presenti problemi quella di non farsi schiacciare dalla rapidit delle trasformazioni e rimanere in linea con la rotta che ci si dati. L'obiettivo essenziale per il futuro e il benessere "immateriale" delle nostre societ: le scelte e le linee d'azione sono nelle mani dei nostri governanti e delle istituzioni competenti, ma ciascuno di noi pu mettere in campo il proprio personale contributo. Il modello economico occidentale, che per molti secoli stato protagonista della scena mondiale, sta di fatto attraversando un periodo di notevole difficolt. Su pi fronti, il castello di certezze e prosperit che credevamo inattaccabile e invincibile sta mettendo a nudo la fragilit delle sue fondamenta. Un'economia in perenne recessione sta letteralmente trascinando intere nazioni verso il fallimento, il mercato del 387

lavoro sempre pi un malato incurabile, privo di possibilit e offerte occupazionali che aggravano ancor pi il gi grigio futuro dei giovani e le difficolt di milioni di famiglie alle prese con lo spettro del bilancio quotidiano. In tutto ci, il diffuso immobilismo delle forze politiche, sempre pi distanti dal cittadino e incapaci di offrire occasioni di partecipazione "dal basso", aumentano la mancanza di sicurezza sociale e mettono in dubbio la sopravvivenza di quella res publica che dovrebbe rappresentare il cuore di una vera democrazia. Dinanzi a questi macro problemi, potr sembrare inutile, se non poco opportuno, preoccuparsi di entit astratte come la conoscenza o la disponibilit dei contenuti prodotti e distribuiti attraverso le tecnologie digitali. Questi beni non sono affatto primari e, richiamandoci a quanto teorizzato dallo psicologo statunitense A. Maslow, potremmo posizionarli ai piani alti di una ipotetica piramide dei bisogni umani, laddove invece nell'ampiezza della base andremmo a inserire le necessit elementari e immediate per la nostra sopravvivenza. Se ci in parte vero, ancora una volta non dobbiamo perdere di vista il fatto che la scena su cui si svolgono le nostre esistenze del tutto diversa da quella dei secoli passati. L'informatica e le reti che elaborano e trasmettono i dati, pur nella loro apparente virtualit, hanno un impatto sempre pi consistente e "reale" sulle vite delle persone ed da esse che dipender la maggior parte degli aspetti e delle attivit del nostro agire nel mondo. Questioni come l'accesso alle pubblicazioni scientifiche, la costituzione di un archivio della memoria del Web, il ripensamento del diritto d'autore e il discorso pi generale dell'apertura della conoscenza, possono forse apparire ancora come problemi che non sono all'ordine del giorno. Ma sarebbe una svista e un errore con conseguenze poco prevedibili. La rivoluzione digitale che continua a realizzarsi sotto i nostri 388

occhi rappresenta infatti un unicum nell'evoluzione del pensiero dell'uomo: in questo ambito la storia e le negligenze del passato non potrebbero tornarci utili a prevedere gli scenari possibili e tantomeno a rimediare in tempo a situazioni negative. Considerando poi la crescita esponenziale che contraddistingue questo settore, in cui l'introduzione delle novit si misura al ritmo di mesi, piuttosto che dei decenni, dovrebbe essere chiaro a tutti che la lungimiranza e la presa di coscienza sono obblighi che non possono essere rimandati. Le minacce da allontanare sono quelle di societ chiuse e incomunicabili, in cui l'informazione sar un nuovo tipo di bene di lusso, capace di garantire potere e controllo alle lite che vi avranno accesso. Una sorta di oligarchia della conoscenza che non favorir lo sviluppo del pensiero e in cui, quasi fosse in un limbo, la maggior parte dei cittadini sar privata degli strumenti di verifica dei propri governanti, costretta a delegare loro qualsiasi iniziativa e scelta. Non stiamo esagerando o ricorrendo a immagini che di frequente popolano i libri o il cinema di fantascienza; semplicemente dobbiamo riconoscere che il futuro gi immerso nel presente e tutti noi possiamo dare il nostro aiuto per renderlo almeno un po' migliore. Se il matrimonio finch morti non vi separi, il copyright in America aspira all'eternit Il primo articolo, sezione VIII, della Costituzione degli Stati Uniti d'America attribuisce al Congresso il compito di "promuovere il progresso della scienza e delle arti utili, garantendo per periodi di tempo limitato agli autori e agli inventori il diritto esclusivo sui rispettivi scritti e scoperte". L'aggettivo "limitato" gioca un ruolo decisivo, una dichiarazione di intenti che rivela il medesimo obiettivo della 389

legislazione inglese sul copyright: "avere la sicurezza che pochi individui non [possano] esercitare un controllo sproporzionato sulla cultura" (p. 76). Cos come lo Statuto di Anna era finalizzato a contrastare il monopolio degli editori e favorire la libera circolazione delle idee, allo stesso modo la Costituzione americana realizza una struttura volta a impedire qualsiasi concentrazione di potere nelle mani di una singola categoria, riconoscendo un copyright esplicitamente temporaneo "agli autori e agli inventori". Eppure, come sottolinea Lessig (2004):
dubito che gli estensori della Costituzione riconoscerebbero la regolamentazione che oggi definiamo "copyright". La portata di tale regolamentazione va ben oltre qualsiasi loro eventuale considerazione. Per iniziare a comprendere ci che fecero, occorre mettere il nostro "copyright" nel giusto contesto: dobbiamo considerarne i cambiamenti avvenuti nei 210 anni trascorsi dalla prima impostazione. Alcuni di essi sono avvenuti per legge, alcuni alla luce delle trasformazioni tecnologiche e altri alla luce dei cambiamenti tecnologici imposti da una specifica concentrazione di potere nel mercato (p. 77).

Cerchiamo di ricostruire i passaggi salienti di questa storia. La nuova nazione americana, sul finire del XVIII secolo, si trov a vivere una situazione giuridica molto affine a quella che avevano affrontato gli inglesi pochi anni prima:
molti stati avevano approvato normative a protezione della propriet creativa, e alcuni ritenevano che simili normative operassero semplicemente come supplemento ai diritti della "common law" che gi la tutelavano. Ci significava che negli Stati Uniti del 1790 non esisteva alcun pubblico dominio garantito. Se il copyright era protetto dal diritto consuetudinario, allora non c'era un modo semplice per sapere se un'opera pubblicata negli Stati Uniti fosse tutelata o libera. Cos come in

390

Inghilterra, questa prolungata incertezza rendeva difficile agli editori affidarsi al pubblico dominio per ristampare e distribuire le opere. Quell'incertezza ebbe termine dopo l'approvazione da parte del Congresso della legislazione che riconosceva il diritto d'autore. Poich la legge federale si sovrapponeva a qualsiasi altra normativa contraria a livello statale, la tutela federale per i lavori protetti da copyright elimin ogni protezione statale. Proprio come in Inghilterra lo Statute of Anne alla fine comport il decadere del copyright per tutte le opere inglesi, anche lo statuto federale decret l'estinzione di qualsiasi copyright statale. Nel 1790, il Congresso approv la prima legislazione sul diritto d'autore. Essa creava il copyright federale e ne stabiliva una durata di quattordici anni. Se l'autore era vivo alla fine di quei quattordici anni, poteva decidere di rinnovarlo per altri quattordici. Se non lo faceva, l'opera diveniva di pubblico dominio (pp. 77-78).

Una durata di quattordici anni pu sembrarci estremamente ridotta, ma questa percezione legata al regime di durata estremamente prolungata che caratterizza il diritto d'autore ai nostri giorni. All'epoca era molto piccola la percentuale di autori che rinnovava il copyright scaduto; tutti gli altri consentivano a liberare le proprie opere nel pubblico dominio. Ancor pi una simile struttura dovrebbe apparire sensata a fruitori di una cultura sempre pi "usa e getta" e one shot come quella che viene prodotta nel XXI secolo, in cui le mode sono sempre pi passeggere ed effimere e gli stili nascono e declinano a velocit impressionante e
la maggior parte dei lavori creativi in realt ha una vita commerciale di appena un paio d'anni. Buona parte dei libri va fuori catalogo dopo un anno. Quando ci accade, i libri usati vengono scambiati senza sottostare alle regolamentazioni sul copyright. Perci in pratica i libri non sono pi sotto il controllo

391

del copyright. L'unico utilizzo pratico e commerciale a quel punto rivenderli come libri usati; un uso effettivamente libero poich non concerne la pubblicazione (p. 78).

Se, in sintonia con queste considerazioni, non stupisce che:


nei primi cento anni della Repubblica, la durata del copyright fu modificata una volta. Nel 1831 il termine venne esteso da un massimo di 28 anni (14+14, ndr) a un massimo di 42 anni, aumentando la durata iniziale da 14 a 28 anni. Nei successivi cinquant'anni, il termine venne esteso ancora una volta. Nel 1909 il Congresso spost la durata del rinnovo da 14 a 28 anni, stabilendo una durata massima complessiva di 56 anni (ib.).

L'accoglienza di due richieste di prolungamento del diritto d'autore nell'arco di un secolo e mezzo non rappresenta qualcosa di straordinario. Esse possono essere ricondotte a quel ripensamento che periodicamente interessa qualsiasi disciplina giuridica relativa a materie soggette all'evoluzione dei tempi e alla comparsa di esigenze che non potevano essere previste al momento della sua stesura originale. Ci che appare del tutto inspiegabile il trend pi recente per cui,
a partire dal 1962, il Congresso diede inizio a una pratica che da allora ha caratterizzato la normativa sul copyright. Per undici volte negli ultimi quarant'anni, ha esteso i termini esistenti; per due volte in questi quarant'anni ha allungato la durata dei copyright futuri. All'inizio le estensioni dei copyright esistenti erano brevi, appena uno o due anni. Nel 1976, il Congresso allung tutti i copyright esistenti di diciannove anni. E nel 1998, con il Sonny Bono Copyright Term Extension Act, estese di vent'anni la durata dei copyright esistenti e futuri. L'effetto di queste estensioni semplicemente quello di penalizzare, o ritardare, il passaggio delle opere al pubblico dominio. [...]

392

L'effetto di queste estensioni stato esacerbato da un ulteriore mutamento, scarsamente notato, della legge sul copyright. Come ho detto in precedenza, gli estensori della Costituzione stabilirono un regime suddiviso in due parti, richiedendo al titolare del copyright di decidere per il rinnovo dopo la scadenza iniziale. [...] Nel 1976 gli Stati Uniti abbandonarono questo ragionevole sistema. A tutte le opere create dopo il 1978 venne applicata un'unica durata il termine massimo. Per gli autori "naturali" fu di cinquant'anni dopo la morte. Per le aziende fu di settantacinque. In seguito, nel 1992, il Congresso abbandon la richiesta di presentare la richiesta di rinnovo per tutti i lavori creati prima del 1978. A ogni opera ancora sotto copyright venne accordata la durata massima allora disponibile. Dopo il Sonny Bono Act, quel termine era di novantacinque anni. Questo cambiamento signific che per la legge americana non esisteva pi un modo automatico per garantire che le opere non pi sfruttate divenissero di pubblico dominio. [...] Nonostante il requisito di legge che i termini siano "limitati", non abbiamo alcuna prova che ci sia qualcosa in grado di imporre limiti. L'effetto di queste trasformazioni sulla durata media del copyright enorme (pp. 78-79).

Le modificazioni che hanno interessato questa disciplina non si sono per limitate ad agire sulla sola dimensione temporale, aumentando notevolmente anche il raggio d'azione e la portata del copyright. Nel 1790 esso copriva soltanto mappe, diagrammi e libri e non si estendeva a quell'ampia, e un po' fumosa, categoria che prende il nome di "opere derivate". Questo voleva dire che a un soggetto diverso dall'autore era per esempio concessa la possibilit di tradurre un lavoro protetto da copyright o adattarne la storia in una forma diversa. Anche questa sfera di usi leciti, cos come i prodotti culturali oggetto della normativa, hanno subito nel corso dei decenni notevoli trasformazioni, al punto che oggi 393

il diritto copre praticamente qualsiasi lavoro creativo a cui venga data una forma tangibile. La musica cos come l'architettura, il dramma teatrale come i programmi informatici. Assegna al titolare del copyright di un'opera creativa non soltanto il diritto esclusivo a "pubblicarla", ma anche il diritto esclusivo al controllo su qualunque sua "copia". E quel che pi significativo per il nostro obiettivo in quest'ambito, il diritto riconosce al titolare del copyright non solo il controllo sul proprio lavoro, ma anche su ogni "opera derivata" che si possa ricavare dall'originale. In tal modo il diritto copre una quantit sempre maggiore di lavoro creativo, lo tutela in modo pi ampio e protegge le opere che derivano in modo significativo dall'opera creativa iniziale (p. 80).

Sotto un altro punto di vista invece, la disciplina che stiamo esaminando si fatta molto pi elastica e lasca. I vincoli procedurali che la caratterizzavano prevedevano infatti l'obbligo di deposito e registrazione delle opere creative, operazione che terminava con l'apposizione della famosa e che decretava di fatto il loro diverso status rispetto alla maggioranza delle opere che non sembravano avere bisogno di alcun copyright. Il quadro ormai cambiato perch:
tutte queste "formalit" vennero abolite dal sistema americano quando si decise di seguire la legislazione europea. Non occorre registrare un'opera per ottenere il copyright; ora il copyright automatico e lo si applica a prescindere dalla presenza del contrassegno ; ed esiste indipendentemente dalla disponibilit di una copia destinata all'uso altrui. [...] Se scriviamo un libro, esso viene automaticamente posto sotto tutela. Anzi, non soltanto il libro. Ogni e-mail, ogni appunto per il nostro partner, ogni scarabocchio, ogni atto creativo espresso in forma tangibile tutto ci viene automaticamente posto sotto copyright. Non c' bisogno di registrare un'opera o di contrassegnarla con la . La

394

tutela una conseguenza della creazione, non della procedura per ottenerla. Questa tutela ci d il diritto (soggetto a una serie limitata di eccezioni relative al "fair use") di controllare il modo in cui altri copiano l'opera, che lo facciano per ripubblicarla o per condividerne un estratto. Fin qui la parte ovvia. Ogni sistema di copyright mira a controllare l'editoria concorrente. Ma esiste una seconda parte dell'attuale copyright che non affatto cos scontata. Si tratta della tutela dei "diritti derivati". Se scriviamo un libro, nessuno pu farne un film senza permesso. Nessuno pu tradurlo senza autorizzazione. Non se ne pu trarre un compendio, se non si autorizzati. Tutti questi usi derivati del lavoro originario sono controllati dal titolare del copyright. In altri termini, ora il copyright non soltanto il diritto esclusivo sui nostri scritti, ma anche su una notevole percentuale di scritti successivi ispirati dai primi (pp. 80-81).

Riflettendo su quest'ultimo aspetto, ci accorgiamo subito della controversia e della complessit di questa restrizione. la natura stessa del concetto di "opera derivata", cos densa di sfumature e livelli differenti a seconda di quanta distanza vi sia tra essa e il lavoro di partenza a cui ci si ispirati, che ne fa un oggetto d'analisi sfuggente e impossibile da inquadrare una volta per tutte. Occorre infatti considerare i casi uno per volta e valutare se si dinanzi a qualcosa di diverso e non rinviabile all'originale, il quale ha s rappresentato uno spunto ispiratore, ma dal quale l'esito finale si distacca nettamente, o piuttosto se non abbiamo a che fare con un caso di plagio ed esplicita pirateria. In tal caso la legge avrebbe avuto ragione a impedire una violazione/appropriazione le cui ripercussioni negative avrebbero danneggiato il primo autore; d'altra parte un'estensione normativa di questa portata sembra essere un rimedio eccessivo e sproporzionato per la "malattia" che tenta di arginare. Nel suo libro Lessig (2004) insiste molto sul carattere cumulativo e riassemblativo della nostra cultura, che 395

nel corso dei secoli si sempre alimentata attraverso un processo incessante di modificazioni, rimescolamenti, variazioni e piccole aggiunte su basi gi consolidate, che per certi versi sembra riflettere la celebre legge della conservazione della materia introdotta dal chimico francese Lavoisier, in base alla quale "nulla si crea, nulla si distrugge, tutto si trasforma". L'autore presenta alcuni illustri e forse inaspettati esempi di questo meccanismo vecchio come il mondo, grazie al quale venuto a costituirsi, un piano sopra un altro, l'edificio della conoscenza e dell'intrattenimento che ci circonda, una sorta di tessuto patchwork, reso possibile dalla giustapposizione di idee, personaggi, teorie, storie e quant'altro possa essere ricondotto nella categoria del sapere umano. Dando una piccola scorsa a questa carrellata di "prestiti" e innovazioni potremo renderci conto che liberare l'attivit dei produttori di contenuti da vincoli e normative troppo rigide, non solo aggiunge elementi di novit o ribalta il punto di vista di un materiale gi esistente, ma in ultima analisi permette di creare davvero qualcosa di imprevedibile e inaspettato. Un simile percorso quello che nel 1928 port alla nascita del personaggio di Topolino, che fece la sua comparsa in Steamboat Willie, il primo cartone animato sincronizzato con il sonoro. Avvalendosi di una tecnica sperimentata l'anno precedente nella prima pellicola sonora, Il cantante di jazz (The Jazz Singer), Walt Disney si rese protagonista di un ulteriore rifacimento illustre, ispirato questa volta al film di Buster Keaton Steamboat Bill, Jr., uscito lo stesso anno e del quale la versione con protagonista Topolino chiaramente la parodia diretta. Un simile discorso vale anche per la maggior parte dei lungometraggi della casa d'animazione statunitense, che Lessig (2004) definisce esplicitamente come chiari esempi "della 'creativit alla Walt Disney', una forma di espressione e di 396

genialit che costruisce sulla cultura che ci circonda e produce qualcosa di diverso" (p. 16). Infatti:
i primi cartoni animati erano pieni di caricature leggere variazioni su temi di successo; rifacimenti di racconti tradizionali. La chiave del successo stava nella brillantezza delle differenze. Con Disney, fu il suono a far scintillare le animazioni. Pi tardi, fu la qualit del suo lavoro rispetto alle produzioni dei concorrenti. Eppure tutto questo era costruito su una base presa in prestito. Disney aggiungeva alcuni elementi a opere realizzate da altri prima di lui, creando qualcosa di nuovo semplicemente sulla base di qualcosa di vecchio. Talvolta il prestito si riduceva a poca cosa. Altre volte era significativo. Prendiamo i racconti dei fratelli Grimm. Se non li conoscete, forse li ritenete storie carine, gioiose, adatte per far addormentare i bambini. In realt, per noi i racconti dei fratelli Grimm sono alquanto macabri. Sono rari e forse troppo pretenziosi quei genitori che hanno il coraggio di leggere queste storie sanguinarie e moraliste ai propri figli, prima che si addormentino o in qualsiasi altro momento. Disney prese questi racconti e li ripropose trasferendoli in un'epoca nuova. Diede loro animazione, con personaggi e luce propri. Senza eliminare del tutto gli elementi di paura e di pericolo, rese divertente quel che era truce, e diffuse un genuino sentimento di compassione laddove prima c'era il terrore. [...] In tutti questi film, Disney (oppure, la Disney, Inc.) si impadron degli spunti creativi della cultura che che lo circondava, li mescol con l'eccezionale talento personale e fece bruciare questa miscela nell'anima della propria cultura. Impadronirsi, mescolare, bruciare223 (ib.).
223Quest'ultima frase si rif a un passaggio di un altro saggio di Lessig (2001, p. 15) in cui l'autore riporta il testo di una pubblicit della Apple. Lo slogan (Rip, mix, burn. Dopotutto, la tua musica.) era un esplicito invito rivolto ai consumatori affinch si avvalessero della tecnologia dell'azienda informatica per provare un'esperienza del tutto nuova di fruizione e creazione dei contenuti (fermo restando l'obiettivo primario di vendere computer). "Perch la tecnologia che la Apple (e,

397

Spostiamoci ora di molto dai riferimenti del nostro immaginario tipico e cerchiamo di analizzare la forma di animazione dei fumetti giapponesi, noti anche come manga. In particolare vogliamo considerare il fenomeno dei doujinshi, i quali sono:
una sorta di fumetti-imitazione. Un'etica ricca di sfumature governa la creazione dei doujinshi. Se un fumetto soltanto una copia non doujinshi; l'artista deve fornire un contributo all'arte che imita, trasformandola in modo sottile oppure sostanziale. Un fumetto doujinshi pu perci prendere un soggetto noto e svilupparlo in maniera diversa seguendo una trama differente. Oppure pu mantenere lo stesso personaggio, modificandone per leggermente l'aspetto. Non esiste una formula sul rendere "diverso" il doujinshi. Ma per poter essere considerati veri doujinshi i fumetti devono essere diversi. Ci sono persino dei comitati che controllano i doujinshi prima di ammetterli alle varie esposizioni e rifiutano qualsiasi imitazione che non sia altro che una copia. Questi fumetti non rappresentano una piccola parte del mercato dei manga. Ne costituiscono una parte significativa. Oltre 33.000 "circoli" di autori in tutto il Giappone producono questi esempi di creativit alla Walt Disney. [...] L'aspetto pi imbarazzante del mercato dei doujinshi, almeno per chi pratica il diritto, che ne venga consentita l'esistenza. Per la legislazione giapponese sul diritto d'autore, che in tal senso (sulla carta) riflette quella americana, il mercato del doujinshi illegale. I fumetti doujinshi sono chiaramente delle "opere derivate". Non esiste alcuna pratica generalizzata da parte degli artisti doujinshi per garantirsi il permesso dei creatori di manga. L'usanza invece
ovviamente, altri) vendono potrebbe consentire a questa generazione di fare con la nostra cultura quello che le generazioni passate hanno fatto fin dall'inizio del consorzio umano: appropriarsi di ci che la nostra cultura. To rip it, copiarla; to mix it, rielabolarla in qualunque modo l'utente voglia; e finalmente, cosa pi importante, to burn it, pubblicarla e renderla visibile e udibile da altri (ib.)".

398

semplicemente quella di prendere e modificare le creazioni altrui, come Walt Disney fece con Steamboat Bill, Jr. [...] Eppure in Giappone questo mercato illegale esiste e anzi fiorisce, e molti ritengono che sia proprio la sua esistenza a far prosperare i manga. Come mi disse lo scrittore di fumetti americano Judd Winick, "nei primi tempi di vita dei fumetti in America accadeva qualcosa di simile a quel che avviene ora in Giappone... i fumetti americani nacquero copiandosi a vicenda... cos che [gli artisti] imparano a disegnare immergendosi nei libri di fumetti e, anzich ricalcarli, osservandoli e ricopiandoli"... e costruendovi sopra (Lessig 2004, pp. 17-18).

Ancor pi interessante la ricostruzione che l'autore fa delle vicende che hanno portato alla nascita di ogni settore importante dei grandi media odierni (cinematografico, discografico, radiofonico e della tv via cavo), dietro ai quali si celano in realt vere e proprie storie di pirateria, intesa come utilizzo della propriet altrui senza il legittimo detentore ne abbia consentito il permesso. Potr sembrare un'affermazione paradossale, ma "Hollywood fu costruita da pirati in fuga" (p. 33), ovvero da un gruppo di artisti e registi che si autodefinivano indipendenti e che agli inizi del XX secolo abbandonarono la costa orientale in favore della California "per sfuggire al controllo che i brevetti avevano garantito all'inventore della cinematografia, Thomas Edison (ib.)". La MPPC (Motion Pictures Patents Company) e la General Film Company (un organo supplementare messo in campo dalla Societ dei Brevetti) ag con rigore nei confronti del movimento indipendente, che si rifiutava di mettere in regola la propria posizione rispetto alla licenza e cercava di creare un mercato sotterraneo alimentato dal ricorso ad apparecchiature illegali e pellicole importate.

399

I Napster di quei giorni, gli "indipendenti", erano aziende come la Fox. E non diversamente da quanto avviene oggi, questi indipendenti si scontravano con una vigorosa opposizione. [...] Ci convinse gli indipendenti ad abbandonare la costa orientale. La California era abbastanza lontana dalla portata di Edison, perch i cineasti potessero piratarne le invenzioni senza dover temere la legge. [...] Naturalmente, la California si svilupp rapidamente e, alla fine, il braccio repressivo della legislazione federale raggiunse anche l'occidente. Ma poich i brevetti garantivano a chi li deteneva un monopolio "limitato" (all'epoca appena diciassette anni), quando si raggiunse un numero sufficiente di agenti federali i brevetti erano estinti. Era nata una nuova industria, in parte scaturita dalla pirateria contro la propriet creativa di Edison (p. 34).

Questa rassegna potrebbe continuare per pagine e pagine, ma prima di passare a un altro punto della questione ci preme riportare un ultimo interessante caso di trasformazione e remix di contenuti gi esistenti, che con l'attuale modello di copyright non pu in pratica vedere la luce. Ancora una volta prendiamo spunto dal testo di Lessig (2004) per presentare la vicenda di Alex Alben, un avvocato impiegato presso un'azienda di intrattenimento digitale, cui fu commissionata nei primi anni Novanta la realizzazione di un certo numero di CD-ROM contenenti retrospettive di attori famosi. Si decise di iniziare con Clint Eastwood con l'idea di inserire nel prodotto finale quanto pi materiale possibile potesse riflettere i lavori e la carriera artistica di questo grande personaggio del cinema internazionale, dalle interviste alle sequenze dei suoi film, dai manifesti alle sceneggiature delle parti da lui interpretate. Superato il primo ostacolo dell'autorizzazione all'utilizzo dei contenuti da parte della Warner Brothers (la casa di produzione cinematografica per la quale Eastwood interpret il maggior numero di pellicole della sua vita), si present il mastodontico 400

problema di ottenere il permesso di tutti gli altri attori che erano visibili nelle medesime sequenze, cos come la concessione all'utilizzo dei brani musicali in esse presenti. Il progetto fu portato a compimento, ma fu necessario un anno di duro lavoro solamente per ottenere il benestare sui diritti di riutilizzo! Per non parlare delle ingenti risorse messe in campo per compensare tutti coloro che comparivano in quelle sequenze. La genesi di questo prodotto d'intrattenimento non pu che portarci a delle domande circa il senso e l'opportunit di una simile normativa, la quale, piuttosto che favorire la produzione di sapere e l'introduzione di nuovi contenuti, sembra frenare e imbavagliare la fantasia dei creatori della conoscenza. Lo stesso autore si domanda se non sarebbe meglio:
che ci fosse un qualche tipo di licenza regolamentata per legge, da pagare per essere liberi di fare un uso derivato di spezzoni, come in questo caso? Aveva davvero senso che un successivo autore dovesse rintracciare ogni singolo artista, attore, regista, musicista, e ottenere un esplicito permesso da ciascuno di loro? La creativit non sarebbe maggiormente favorita, se la componente legale del processo creativo diventasse pi lineare? [...] Alben lavorava per una grande societ. L'azienda aveva il sostegno finanziario di alcuni tra i pi ricchi investitori del mondo. Di conseguenza, poteva vantare autorit ed entrature impossibili per un comune Web designer. Perci, se lui ci ha impiegato un anno, quanto tempo ci avrebbe messo un altro? E quanta creativit non trova una via per concretizzarsi soltanto a causa dei costi elevati per ottenere il nulla-osta sui diritti? Questi costi sono il fardello imposto da un certo tipo di regolamentazione (p. 61).

Copyright chiama Italia: il diritto d'autore di casa nostra Che cosa possiamo dire della disciplina relativa alla propriet intellettuale vigente in Italia? Innanzitutto dobbiamo 401

rilevare come nel nostro paese questa materia rientri nell'ambito della civil law224, la forma di ordinamento giuridico pi diffusa a livello continentale, che trova nella legislazione (ovvero da quell'aggregato di leggi, norme e codici) la sua principale forma di legittimazione. La fonte normativa che affronta lo specifico ambito del diritto d'autore 225 in Italia la Legge n. 633 del 22 aprile 1941 (e successive modificazioni), denominata Legge a protezione del diritto d'autore e di altri diritti connessi al suo esercizio. Ai sensi di questa legge sono protette le opere dell'ingegno di carattere creativo che appartengono alla letteratura, alla musica, alle arti figurative, all'architettura, al teatro ed alla cinematografia, qualunque ne sia il modo o la forma di espressione 226. Nell'articolo 2 del testo normativo fornito un elenco dettagliato delle diverse categorie di opere comprese nella protezione, tra le quali, ai fini della nostra argomentazione, troviamo anche le opere fotografiche e quelle espresse con procedimento analogo a quello della fotografia, i programmi per elaboratore, in qualsiasi forma espressi purch originali e le banche di dati, intese come raccolte di opere, dati o altri elementi [] individualmente accessibili mediante mezzi elettronici o in altro modo. Possiamo inoltre ricordare come ancora oggi, per godere della protezione del diritto d'autore non sia necessario alcun tipo di registrazione dell'opera (art. 106), ferma restando
224 Questo modello di ordinamento giuridico deriva dal diritto romanogiustinianeo e si differenzia dal modello che caratterizza i paesi anglosassoni (common law), fondato essenzialmente sui precedenti giurisprudenziali. 225 Laddove negli ordinamenti caratterizzati dal modello della common law troviamo invece l'istituto del copyright. 226 Per questo e per i successivi riferimenti al dettato normativo, rimandiamo al testo completo della legge, consultabile al seguente link: http://www.interlex.it/testi/l41_633.htm.

402

l'esistenza di un registro227 presso il quale possibile depositare la propria opera (art. 103). Questo avviene poich si ritiene che il diritto si origini incondizionatamente al momento stesso della creazione dell'opera, senza che pertanto vi sia alcun obbligo di deposito228, registrazione o pubblicazione della stessa (a differenza di quanto avviene invece nel campo dei brevetti). La legge dispone in capo all'autore la facolt (positiva) di sfruttare la propria opera in ogni forma e modo, riconoscendo al tempo stesso un'ampia gamma di facolt esclusive 229 (negative) volte a impedire lo sfruttamento economico della proprio lavoro creativo da parte di soggetti terzi. In Italia, i diritti patrimoniali derivanti dall'utilizzazione economica dell'opera durano per tutta la vita dell'autore e fino a 70 anni dalla morte di quest'ultimo (art. 25). Questi piccoli accenni rappresentano solo un'introduzione a una materia complessa e articolata, densa di problematiche e
227 Tale registro pubblico generale istituito presso la Presidenza del Consiglio dei Ministri, mentre la SIAE (Societ Italiana degli Autori ed Editori) si occupa di tenere un registro pubblico speciale per le opere cinematografiche. 228 D'altro canto va da s che, qualora ci siano delle controversie legali (dinanzi a due opere palesemente simili, stabilire per esempio quale debba essere considerata la pi originale o perlomeno antecedente), l'eventuale registrazione di un'opera (con la data come prova decisiva), pu fornire indicazioni precise e sciogliere dubbi relativi all'attribuzione della paternit/priorit della stessa. 229 In particolare si tratta della facolt di pubblicazione; riproduzione; trascrizione; esecuzione, rappresentazione o recitazione in pubblico; comunicazione al pubblico o diffusione attraverso mezzi di comunicazione a distanza (telegrafo, telefono, radio, televisione, satellite, via cavo e la stessa internet); messa a disposizione del pubblico mediante una fruizione di tipo on demand (quelle modalit in cui il luogo e il momento in cui accedere a una determinata opera frutto di una scelta del tutto individuale, slegata dai tradizionali canali distributivi uno-molti); distribuzione; traduzione; vendita; noleggio e prestito.

403

fondamentalmente non al passo con i tempi. L'anacronismo del dettato normativo italiano appare in tutta la sua evidenza gi dalla semplice constatazione della data in cui il nucleo principale della legge fu redatto. Un'epoca ormai lontana, la cui distanza temporale dai nostri giorni accentuata dal gran numero di innovazioni tecniche che negli ultimi sessant'anni hanno esteso e modificato l'universo della comunicazione e (soprattutto) della creazione artistica. La nascita di internet e le nuove possibilit artistiche dal basso messe a disposizione dalle tecnologie digitali sono solo due degli elementi di novit che hanno contribuito a scavare un solco sempre pi ampio con un periodo che era basato esclusivamente su media analogici (la stessa televisione aveva mosso i suoi primi passi negli anni '30, subendo una battuta d'arresto negli anni della Seconda Guerra mondiale) e totalmente estraneo alle modalit di accesso e distribuzione dei nostri giorni. Il testo originale della legge risalente al 1941 nel corso degli anni stato rivisto, ma il pi delle volte il lavoro del legislatore si tradotto in piccole modificazioni e aggiunte, incapaci di sciogliere riserve e che, piuttosto che snellire e semplificare la materia, hanno contribuito a renderla ancor pi oscura e farraginosa. Nonch restrittiva. In alcuni casi la mancata conoscenza di alcune delle pi tipiche caratteristiche della sfera digitale ha fatto s che le legge stessa si ritorcesse contro se stessa, in una chiara ed evidente contraddizione di fondo. Questi aspetti emergono soprattutto se consideriamo ci che la legge dispone in materia di riutilizzo di materiali e contenuti, una pratica al cui interno andrebbero distinti diversi livelli, dal puro e semplice copia e incolla, talvolta sconfinante nel plagio, a forme pi articolate che hanno come obiettivo una trasformazione e rielaborazione personale di una certa opera, finalizzata al raggiungimento di un risultato nuovo. Quelle pratiche sempre pi diffuse dagli 404

strumenti informatici e su cui si fonda l'essenza stessa del web 2.0, fucina di una creativit partecipativa e riassemblativa che non punta alla mera riproduzione dei contenuti, quanto piuttosto alla possibilit che ogni individuo si faccia autore, apportando il proprio bagaglio di conoscenze e talenti al servizio di un circolo virtuoso della creazione collettiva. importante che sia chiaro che il nostro intento non quello di mettere in discussione la necessit di regolare l'ecosistema digitale della rete. Non stiamo recitando la parte degli ottimisti a oltranza e non stiamo sostenendo che internet per natura buona ed esente da criticit. La rete composta di cavi e informazioni binarie, ma fondamentalmente composta da persone, ognuna con i propri scopi, attitudini e interessi privati, tra i quali c' anche chi ha tra le sue priorit l'obiettivo di eludere la legge, fare pirateria e sfruttare il lavoro di altri. Le norme sono pertanto necessarie e utili, indispensabili alla sopravvivenza/convivenza degli utenti e dovrebbero giocare un ruolo decisivo nel garantire che la rete si mantenga libera e al servizio della crescita della collettivit. Le restrizioni a tappeto, la cultura del divieto e dei semafori rossi non condurranno a nessun risultato favorevole, accentuando la spinta sovversiva e illegale dei pi audaci da un lato e inibendo e riducendo al silenzio la voce di milioni di cittadini e Pro-Am. Ci che sarebbe necessario, a nostro avviso, un vero e proprio ripensamento dell'intera disciplina, che nasca dalla riflessione e presa di coscienza dei diversi aspetti che caratterizzano il nuovo contesto digitale e in cui siano chiamati a esprimersi e a mettere in campo le proprie competenze i soggetti che usano il web e le generazioni pi giovani. Un lavoro collettivo, che permetta di mettere in luce gli aspetti pi elementari della produzione e circolazione dei contenuti all'epoca delle tecnologie digitali, che abbia come sue finalit la tutela e il 405

giusto riconoscimento degli autori, ma che al tempo stesso non ponga eccessivi paletti a quell'effetto stigmergico di cui abbiamo gi parlato, favorendo in modo esteso la creativit e l'accesso. Queste considerazioni offrono lo spunto per introdurre la situazione del fair use, un ambito previsto negli ordinamenti di common law, che in Italia risulta poco limpido e al centro di discussioni. L'articolo 70 della L. 633/41 sembra garantire un certo margine di utilizzazioni libere di un'opera, giustificato da particolari finalit (per scopi di critica, discussione e insegnamento), riconoscendo il diritto di compiere il riassunto, la citazione o la riproduzione di brani o di parti di una qualsiasi opera, nei limiti delle gi citate finalit e purch queste non costituiscano concorrenza all'utilizzazione economica dell'opera. D'altro canto la negazione dell'esistenza del fair use da parte della nostra giurisprudenza, unitamente all'atteggiamento della SIAE di esigere compensi anche per opere protette da diritto d'autore utilizzate in attivit didattiche, sembrano far propendere per un'interpretazione decisamente restrittiva di questa sfera normativa. Dal punto di vista della nostra analisi, incentrata sugli usi e riusi dei contenuti digitali, vale la pena soffermarci un momento sul comma 1-bis dell'articolo 70, in base al quale:
consentita la libera pubblicazione attraverso attraverso la rete internet, a titolo gratuito, di immagini e musiche a bassa risoluzione o degradate, per uso didattico o scientifico e solo nel caso in cui tale utilizzo non sia a scopo di lucro.

Tale modifica, risalente al 21 dicembre 2007, rappresenta una misura quanto meno ambigua e incompleta, che non a caso stata definita da qualcuno230 come la prima norma in Italia ad
230 Ci stiamo riferendo a un articolo di Luca Spinelli, intitolato Italia, al via le immagini degradate, pubblicato sulla testata online Punto

406

autorizzare la pubblicazione di intere opere coperte da copyright, ma anche la prima a stabilire limiti qualitativi alla diffusione sul web. Sono molti i punti lasciati in sospeso dal testo normativo: si parla di musiche, ma il mancato accenno alla componente letteraria lascerebbe intendere che le canzoni, le trasmissioni radiofoniche e soprattutto le opere testuali non rientrino tra le categorie fatte oggetto della concessione. Il rifermento alle immagini sembra includere anche le fotografie, lasciando scoperto per il vastissimo ambito dei video, di cui ben conosciamo l'enorme diffusione via web. Il vero punto della discordia poi rappresentato dall'aggettivo degradate, sul cui significato sono in molti a interrogarsi. Come evidenziato sulle colonne di InterLex, rivista elettronica che si occupa di tecnologia e questioni giuridiche a essa correlate curata da Manlio Cammarata,
c' da chiedersi che significa "bassa risoluzione". Nella pubblicazione di un'immagine sul web la risoluzione determina le dimensioni dell'immagine stessa in relazione alla risoluzione dello schermo, quindi l'espressione potrebbe significare "si possono pubblicare solo immagini piccole". Per quanto riguarda i suoni, "bassa risoluzione" pu significare una minore frequenza di campionamento. Che senso ha? Ancora: che vuol dire l'aggettivo "degradate"? Immagini sfocate? Suoni distorti o con un forte rumore di fondo? Aspettiamo con curiosit il previsto decreto per capire come sar risolta la questione. Ma l'aspetto pi preoccupante che questi usi sono liberi solo a scopi scientifici o didattici, e non (come sarebbe logico) per qualsiasi scopo divulgativo non a fini di lucro, come per le enciclopedie online. Il principio, di buon senso, dovrebbe essere che tutto ci che disponibile gratis al pubblico dovrebbe poter essere riprodotto
Informatico, reperibile gratuitamente al seguente link http://puntoinformatico.it/2183742/PI/Commenti/italia-al-via-immaginidegradate.aspx

407

gratis, alla sola condizione che la riproduzione non abbia fini di lucro. Invece oggi la tendenza a vietare tutto e ad assoggettare a balzelli qualsiasi uso di testi, immagini o suoni. Tendenza che contraddice la filosofia del web e le ragioni stesse della sua crescita. Insomma, se in tutto questo c' qualcosa di "degradato" proprio la norma in questione, che riflette l'ormai insostenibile degrado della nostra produzione legislativa231.

In base al dettato legislativo quale dovrebbe essere l'uso di formati per loro stessa natura compressi (e quindi degradati) come l'mp3 e il jpg, in cui sono archiviati la stragrande maggioranza dei file musicali e delle immagini scambiate in rete? Lo stesso discorso vale per il riferimento a usi didattici o scientifici, espressione non specificata e per la quale manca una definizione univoca. Questa indeterminatezza fondata su un errore di valutazione fu salutata con entusiasmo da molti naviganti e utenti della rete, speranzosi di veder finalmente liberalizzato lo scambio peer to peer di materiale protetto da copyright. D'altro canto non si fece attendere la replica dei principali interessati appartenenti al mondo dell'industria culturale:
Enzo Mazza, presidente FIMI (Federazione dell'industria musicale italiana), intanto, cassava ogni speranza sul nascere affermando: "la legge non ci preoccupa perch sappiamo gi come sar il decreto che fisser i paletti: per uso didattico si intenderanno solo i siti che si occupano ufficialmente di didattica, quindi istituzioni accademiche. Nemmeno i siti personali di professori"232.

Come sottolinea Spinelli, i limiti di questa normativa cos


231 L'articolo in esame risale al gennaio 2008 e pu essere consultato al link http://www.interlex.it/copyright/degradata.htm. 232 Vedi nota 169.

408

approssimativa erano riscontrabili gi nelle premesse che avevano portato alla sua elaborazione:
il nuovo comma, approvato nel dicembre 2007 su proposta della Commissione Cultura di Pietro Folena, nasce dalla pressione esercitata dal web e dalla comunit di Wikipedia a seguito della nota vicenda sulla "libert di panorama" (ovvero l'impossibilit di riprodurre liberamente sul web monumenti e palazzi). La prima versione del testo, infatti, parlava esplicitamente di liberalizzare gli usi "didattici ed enciclopedici" sul web: ci di cui si occupa Wikipedia, insomma. In seguito alla discussione, si poi deciso di modificare il testo in un pi generico "usi scientifici". Non solo: la norma stata inserita quasi di straforo all'interno di un disegno di legge che prevedeva alcune modifiche allo status della SIAE, modifiche molto importanti ed utili per le corporazioni coinvolte e quindi urgenti da approvare. Si tratta, insomma, di una norma animata da intenti innovativi ma scritta ed approvata in grande fretta e avendo in mente un singolo problema, quello di Wikipedia (problema, a quanto pare, nemmeno risolto). Difficile e pericoloso applicarla ora all'intero Web, oltretutto in mancanza del decreto attuativo che indicher i limiti alla libert di diffusione. La situazione governativa italiana non lascia presagire tempi brevi per l'emanazione del decreto, n si pu intuire a priori quali saranno le direzioni politiche che lo ispireranno a seguito delle prossime elezioni. Intanto, in attesa di novit, l'estrema cautela sulla pubblicazione online di materiale coperto da copyright resta d'obbligo.

Un altro nervo scoperto quello riguardante la disciplina imposta dall'AGCOM, l'Autorit per la Garanzia nelle Comunicazioni. Ci stiamo riferendo nello specifico alla delibera n. 668/10/CONS relativa alle linee di provvedimento in materia di tutela del diritto d'autore sulle reti di

409

comunicazione elettronica233. E sin dall'inizo sono stati in molti (numerose associazioni tra cui Adiconsum, Agor Digitale, Altroconsumo, Assonet-Confesercenti, AssoproviderConfcommercio, Studio Legale Sarzana) a scagliarsi contro un provvedimento che sembrava decretare la morte del web italiano e introdurre una pericolosa ondata di censura nell'ambito della comunicazione via internet. Cerchiamo di capire pertanto quali siano le novit e le misure introdotte da questa delibera. Come riportato dal suo titolo, l'obiettivo principale quello di proteggere il diritto d'autore, tutelando i legittimi titolari dalla pirateria, pratica altamente diffusa (e resa possibile) dai canali digitali, conciliando tutto ci con gli interessi dei consumatori/utenti. Sulla base del decreto legislativo n. 70 del 2003, l'Autorit, in quanto dotata di poteri di vigilanza, legittimata a intervenire, in un tempo ragionevole e senza l'obbligo di passare dalla magistratura, nei riguardi dei gestori dei siti internet sui quali dovessero essere ospitati contenuti digitali coperti da copyright, senza lautorizzazione del titolare. Accanto a questa parte orientata al divieto e al controllo, rientra tra i compiti dell'Autorit quello di individuare misure di sostegno allo sviluppo dei contenuti digitali e di nuovi modelli di business, per la promozione delle quali si fa affidamento in modo principale al mercato e alla libera iniziativa economica dei soggetti interessati. Che tradotto nelle parole degli oppositori alla delibera, significa pi poteri nelle mani dei top players e delle lobby dell'industria del copyright. Come rileva Noemi Ricci, in un articolo del 30 giugno 2011234,
233 Per questa fonte rimandiamo all'indirizzo http://www.agcom.it/Default.aspxmessage=visualizzadocument&DocID=54 15, dove possibile consultare il testo integrale della delibera, che pu essere visualizzata e scaricata in formato PDF. 234 L'articolo, pubblicato sul portale delle piccole e medie imprese PMI.it

410

la folta schiera di oppositori preoccupata per lingente mole di segnalazioni che invader lAGCOM, che sar difficilmente in grado di smaltire con i dovuti approfondimenti sul caso in questione. Ad essere penalizzata, secondo gli avversari, sar la libert di informazione in Rete e a farne le spese saranno soprattutto i siti che in realt non hanno un collegamento diretto con la pirateria, ma che possono entrarvi in contatto in maniera solo occasionale e magari non volontaria. In particolare sotto accusa la totale discrezionalit delle decisioni che andrebbe a ledere la democraticit e la pluralit di opinioni che finora hanno contraddistinto la Rete Internet.

Alessandro Longo, che cura uno spazio online dove scrive di tecnologia e diritti digitali235, in un articolo del 6 luglio 2011 illustra l'iter che verrebbe a delinearsi, qualora sulla rete venga riscontrata una violazione del copyright:
per i siti italiani, il detentore di diritti dautore chieder al sito di rimuovere entro quattro giorni un contenuto che considera illecito. Qualora lesito non risulti soddisfacente per una delle parti, questa potr rivolgersi allAutorit, la quale, a seguito di un trasparente contraddittorio della durata di 10 giorni, potr impartire nei successivi 20 giorni (prorogabili di altri 15) un ordine di rimozione selettiva dei contenuti illegali o, rispettivamente, di loro ripristino, a seconda di quale delle richieste rivoltegli risulti fondata. Se AGCOM ritiene che il contenuto davvero illecito, chieder al sito di rimuoverlo. In caso di rifiuto, lo multer (fino a 250 mila euro). Comunque il sito potr rivolgersi al TAR del Lazio per opporsi alla multa. La procedura si blocca se una delle due parti si rivolge alla magistratura. Per i siti esteri, alla fine del contraddittorio (che si
(http://www.pmi.it), pu essere letto all'indirizzo: http://www.pmi.it/impresa/normativa/news/9359/copyright-deliberaagcom-censura-web-dal-6-luglio.html. 235 Il sito si trova all'URL: http://www.alongo.it/.

411

svolger come per i siti italiani), AGCOM mander alcuni avvisi ai provider internet, che saranno liberi di oscurare o no il sito. Eventualmente, AGCOM si potr rivolgere poi alla magistratura, a cui spetteranno ulteriori misure. Nel testo precedente invece 236 AGCOM si arrogava il diritto di oscurare il sito direttamente .

In questo breve viaggio tra le maglie del diritto italiano in materia di comunicazioni e protezione del diritto d'autore, vogliamo infine fare un accenno a un'altra disposizione controversa, esposta alla ribalta dell'attenzione pubblica da un comunicato del 4 ottobre 2011 apparso sul sito di Wikipedia 237. Il riferimento al DDL intercettazioni (approvato dalla Camera il 11 giugno 2009 e modificato dal Senato il 10 giugno 2010) che, alla lettera a) del comma 29 recita:
per i siti informatici, ivi compresi i giornali quotidiani e periodici diffusi per via telematica, le dichiarazioni o le rettifiche sono pubblicate, entro quarantotto ore dalla richiesta, con le stesse caratteristiche grafiche, la stessa metodologia di accesso al sito e la stessa visibilit della notizia cui si riferiscono238.

Nel comunicato sopracitato, firmato dagli utenti di Wikipedia, si sottolinea come questa norma rischia di mettere in discussione l'esistenza stessa di Wikipedia, un progetto di enciclopedia che fa della neutralit, della libert e della verificabilit dei contenuti i suoi pilastri fondamentali, ma che, essendo basata su una costruzione collettiva e dinamica dei contenuti, non pu essere equiparata e sottoposta alla
236 Per l'articolo in questione rimandiamo al lin