Sei sulla pagina 1di 110

Marco Ciaffone

Italia
Il Bel Paese conta circa 30 milioni di utenti con collegamento
ad Internet, dei quali più di 23 milioni quelli realmente attivi,
rappresentanti il 64,6% della popolazione compresa tra gli 11 e
i 74 anni [1]. Ma l’Italia è anche un paese dove più della metà
delle famiglie non ha mai utilizzato neanche una risorsa del
web e dove più di 10 milioni di utenti sono fermi al “web
1.0”[2]. Il cammino della regolamentazione della Rete nostrana
riflette queste contraddizioni e arretratezze risultando
travagliato, oltre che, agli albori, molto confuso; appare chiara
la difficoltà di adattarsi al “cambio di paradigma” imposto dalle
nuove tecnologie [3]. All’inizio del percorso la scarsa
conoscenza della materia faceva pendere l’autorità per misure
repressive spesso grossolane nei metodi e nelle sanzioni
(queste ultime, nel dubbio, quasi sempre pesantissime). Gli
esempi non mancano, dai “selvaggi” sequestri di hardware
della metà degli anni novanta alle tesi secondo le quali le e-
mail, non essendo regolate come la posta cartacea ed altri tipi
di corrispondenza, non fossero coperte dalle tutele di
segretezza proprie di queste ultime. In un articolo apparso sulla
rivista online “InterLex” del 12 maggio 2004, Daniele Coliva
ricorda inoltre come l’attuazione delle norme sui computer
crime dei primi anni 90 [4] avesse dato vita ad episodi spesso
bizzarri, come il sequestro di tappetini per mouse, ciabatte

1
multi presa e stanze da letto dove risiedevano i computer degli
imputati. Ancora: nel DDL S57 del 2001 si trovavano
grossolani errori che indicavano il quasi totale digiuno del
legislatore da competenze tecniche, come quando si traduceva
la parola log in “file di logo” o si parlava di “motori di
telecomunicazione” e “gestori dei server” senza specificare
cosa si intendesse nello specifico per questi. I decenni
successivi avrebbero visto questo cammino progredire ma, alle
soglie del 2011, non certo brillare.

Diritto d’Autore: Norme, Utilizzi della Rete e Infrazioni

La tutela del diritto d’autore è forse la più spinosa questione in


materia di Internet; i suoi confini sono ancora da definire in
relazione alle pratiche e agli usi che sulla Rete si vanno
diffondendo. In Italia il diritto d’autore è regolato dalla legge
numero 633 del 22 aprile 1941 e dalle modifiche occorse nei
decenni successivi [5] ; nel settore, inoltre, non sono rari trattati
e convenzioni internazionali [6]. E' il caso di specificare che
nonostante a volte si parli di diritto d'autore e di copyright in
maniera intercambiabile i due istituti, nati rispettivamente nei
sistemi di Civil Law e Common Law, sono in parte differenti.
Inoltre il diritto d'autore è solo una delle tre aree del più grande
insieme “proprietà intellettuale”; le altre due sono il diritto dei
brevetti e il diritto dei marchi.
Gli usi che vanno regolamentati tramite le leggi sul diritto
d’autore non sono confinati allo scambio e diffusione abusiva
di contenuti: a parte che essa stessa avviene con diversi metodi,
non è da sottovalutare il peso dei siti di indicizzazione, dei
servizi di streaming, delle piattaforme sulle quali è possibile
caricare video. Preliminare è però l’analisi del quadro entro il

2
quale si pone la regolamentazione. Siamo ormai convinti di
trovarci nella cosiddetta “società dell’informazione”, ma
troppo spesso non ci rendiamo conto che essa è più vicina ad
una “società dei contenuti”: sono infatti essi, i contenuti, la loro
produzione, diffusione e fruizione a fare da tessuto alla
suddetta società. Il che presuppone due problemi: le legittime
rivendicazioni di chi i contenuti li produce, e dunque pretende
diritti sugli stessi, e la speculare facilità di condivisione,
riutilizzo e copia/incolla dovuto alle tecnologie digitali. Il tutto
aggravato dalle domande: come si possono conciliare i
copyright con i valori di “diffusione della conoscenza” che
ormai fanno parte del nostro vivere quotidiano? E come
conciliare la Rete con il business mediatico?
Lo scambio gratuito di prodotti della “creatività umana”
rappresenta per molti giovani internauti la massima espressione
della Rete: gli alti prezzi imposti agli stessi sul mercato legale e
la diffusa percezione che in fondo la pirateria online è un
peccato veniale (con la quale l’internauta si auto assolve) sono
da sempre indicati come le maggiori cause del fenomeno. In
ogni caso, il bilanciamento tra la libertà degli internauti e la
tutela del diritto d’autore è ormai un argomento di primissimo
livello, soprattutto alla luce di studi come quello condotto dalla
società francese Tera Consultans, la quale stima che nel corso
del 2008 i settori che hanno maggiormente subito l’impatto
delle attività illecite (film, serie televisive, produzione
musicale, software e videogiochi) avrebbero registrato nel
mondo perdite pari a 10 miliardi di euro e 185 mila posti di
lavoro. In Italia i danni sarebbero ammontati a 1,4 miliardi di
euro, con 22.400 posti di lavoro bruciati. La proiezione per il
2015 è la perdita di un milione di occupati [7]. Certo, data la
difficoltà di quantificare con precisione le dimensioni del
fenomeno della pirateria, i dati non sono da prendere alla

3
lettera e sono suscettibili di errore, ma resta comunque
incontrovertibile il pericolo che la pirateria può rappresentare
per i produttori delle opere d’ingegno. Al contempo, le leggi
volte a combattere il fenomeno oltre alle specifiche difficoltà
del caso devono riuscire a non rappresentare una minaccia per
gli internauti e predisporre, al margine della lotta alla pirateria,
misure volte ad incentivare lo sviluppo della Rete come nuovo
mercato. In Italia quest’ultimo punto è ancor più impellente, se
si pensa che finché la musica era principalmente su supporto, il
mercato italiano era l’ottavo al mondo. Ora siamo il
quindicesimo, al pari della Svizzera. E non mancano i segnali
che il web può trasformarsi in un’occasione di guadagno più
che in una minaccia: ad esempio, gli “scariconi” della Rete
sono in realtà anche quelli che maggiormente contribuiscono
all’acquisto di Cd e biglietti anche per gli spettacoli dal vivo.
E’ quanto emerge da una recente pubblicazione a cura del
professore olandese Nico van Eijk, titolare della cattedra di
diritto dell'informazione presso l'Università di Amsterdam.
Andare incontro ai desideri di questa vasta platea sarebbe lo
sfruttamento di una miniera d’oro, tanto da poter affermare che
la colpa della crisi non dipende tanto dallo “scaricare” ma da
un’industria poco attenta ai bisogni di quegli utenti che
alimentano la pirateria ma agirebbero nella legalità se gli fosse
permesso, magari da prezzi più accessibili (Il 75 per cento
degli intervistati ha infatti sottolineato come 8 euro per un
album sarebbe una cifra ragionevole) [8] ; certo Van Eijk non
ha negato che il P2P selvaggio costituisca una delle cause delle
difficoltà attuali delle varie industrie dell'intrattenimento, ma
cita la Svezia come paradigma: nonostante sia un contesto
snodo del file sharing, la situazione del mercato musicale
svedese sarebbe rimasta stabile in un lungo periodo di tempo,
dal 2000 al 2008. Ancora più emblematica la situazione della

4
vicina Norvegia, dove un tesi universitaria della Norwegian
School of Mangement mette in luce come gli artisti locali
abbiano aumentato, nell’ultimo decennio, i loro ricavi del 66%,
e la metà di essi arriverebbero dagli spettacoli dal vivo e dal
merchandising, togliendo altri argomenti a chi pensa che la
pirateria chiuda i rubinetti degli introiti per i protagonisti
dell’intrattenimento. Infine, secondo alcuni esperti chiamati a
testimoniare davanti alla Commissione del Commercio
Internazionale del governo degli Stati Uniti, i dati fin qui
forniti dalle industrie discografiche sarebbero di parte e poco
esaustivi, diciamo diffusi in maniera tale da ingigantire un
fenomeno come la pirateria per indicarlo come prima causa
della crisi della discografia e spingere così verso soluzioni di
lotta estrema, e monetizzare [9].
Sarebbe dunque il ritardo con il quale si sta cambiando modello
di business a penalizzare le majors, che spesso spendono per
gli avvocati più di quanto guadagnano dai risarcimenti delle
cause che questi ultimi fanno vincere loro, e farebbero bene
piuttosto a prendere esempio dal progetto iTunes Music Store
della Apple. Esso è riassumibile nello slogan “compri online in
maniera immediata ed economica”. ITunes,servizio di vendita
online di brani, ha iniziato la sua attività a maggio 2003 e in tre
anni ha venduto 800 milioni di singoli, allargandosi
successivamente ai film e promuovendo la convergenza, visto
che i contenuti si scaricano direttamente negli iPod. Stesso
discorso per l’editoria: a Natale del 2009 Amazon annunciava
lo storico sorpasso delle vendite di libri digitali scaricati dalla
Rete rispetto ai prodotti cartacei.
In più, sulla scorta del lavoro di van Eijk, un recente studio
condotto da due professori universitari, Felix Oberholzer-Gee
di Harvard e Koleman Strumpf della University of Kansas,
mette in luce come le attuali pratiche di fruizione abbiano

5
causato un’impennata nella produzione dell’industria culturale.
Infatti, tra il 2002 e il 2007 la pubblicazione di nuovi libri è
cresciuta del 66 per cento, l'uscita annuale di nuovi dischi è più
che raddoppiata dal 2000, mentre la produzione mondiale di
film ha osservato una crescita del 30 per cento dal 2003.
Dunque, partendo da questi dati e valutando come la
Costituzione degli Stati Uniti concepisca il copyright come
elemento funzionale al progresso delle scienze e delle arti, i
due professori sostengono che se questo progresso può venire
solo da un allentamento del copyright stesso allora il percorso
sarebbe un mero rispecchiamento dei principi della
Costituzione a stelle e strisce [10].
In ogni caso, il problema del diritto d’autore in Internet si
manifesta quasi subito, soprattutto perché già nel 1999 lo
statunitense, allora appena diciannovenne, Shawn Fanning dà
vita a Napster, programma di file sharing destinato a diventare
il primo sistema di peer to peer di massa. Soli due anni di
attività, dovuti alle sentenze che per la violazione del diritto
d’autore ne ordinavano la chiusura, non impedirono a Napster
di divenire capostipite dei programmi di condivisione che di lì
a pochi anni sarebbero fioriti in quantità. E soprattutto, si
sarebbero affinati. Infatti, se le grandi compagnie del
multimediale si erano illuse di aver rintuzzato al minaccia era
perché Napster non era un peer to peer puro in quanto
utilizzava un sistema di server centrali che mantenevano la lista
dei sistemi connessi e dei file condivisi, mentre le transazioni
vere e proprie avvenivano direttamente tra i vari utenti. Napster
aveva dunque un centro da attaccare e distruggere, scenario
destinato a mutare progressivamente con programmi come
Kazaa, Winmx e, soprattutto, eMule. Quest’ultima è la rete
maggiormente diffusa per lo scambio di file e presenta un
vantaggio schiacciante nei confronti di Napster, essendo infatti

6
una rete decentralizzata, il che favorisce la sua diffusione per
un fondamentale motivo: l'assenza di un server centrale nel
quale sono presenti i file scaricati. Ci sono infatti parecchi casi
nei quali è necessario fare differenza tra il sito che fornisce un
software per lo scambio di materiale illecito, il software stesso
e il codice sorgente (vedi a proposito anche il caso di
LimeWire nella sezione “USA” e UPDATE – USA”).
Le compagnie hanno provato a combattere reti come eMule
con gli stessi mezzi con i quali hanno affrontato programmi
come Napster; ad esempio, nel 2006 una denuncia
dell’associazione americana Motion Picture American
Association (che in materia non scherza affatto, tanto da essere
arrivata ad intimare di smetterla di scaricare illegalmente
contenuti audiovisivi dal web addirittura ai soldati americani in
Iraq, invitando il Comando Centrale a provvedere in merito)
spinse le autorità del Belgio a sequestrare i server
dell'associazione Razorback, i più importanti di eMule, situati
in Belgio ma gestiti da un cittadino svizzero. Razorback, come
tutti i server peer to peer, non ospitava i file ma si limitava a
"indicizzarli" (cioè catalogarli in un indice informatico)
permettendo così agli utenti connessi di ricercarli e di scaricarli
dagli hard disk di altri utenti. Le accuse sono dunque
facilitazione di reato e complicità con chi scambiava file
illegali. Al di là degli altri reati contestati a Razorback (tra cui
il fatto che nei suoi server fossero ospitati materiali
pedopornografici), resta il dato che i milioni di utenti di eMule
erano già connessi ad altri server, ed altri ancora nascevano
durante la chiusura di quelli di Razorback.
Quando le majors hanno capito che la pirateria su Internet non
si poteva più combattere come se ci si trovasse di fonte ad un
negozio che vende cd masterizzati, pur non rinunciando alla
lotta vecchio stampo, hanno iniziato a virare e ai margini dello

7
sfruttamento della Rete come nuovo business (probabilmente i
padroni delle majors avevano ben chiaro da subito il potenziale
in questo senso, ma forse volevano soffocare il fenomeno in
attesa di poterlo gestire loro, e non inseguire gli internauti e le
loro nuove pratiche) si sono attrezzate anche con altri
strumenti.
Ad esempio la gestione dei diritti d’autore su supporto digitale,
o DRM (Digital Rights Management). Con Digital Rights
Management si intendono i sistemi tecnologici mediante i quali
i titolari di diritto d'autore (e dei diritti
connessi) possono esercitare ed amministrare
tali diritti nell'ambiente digitale, grazie alla possibilità
di rendere protette, identificabili e tracciabili le opere di cui
sono autori. Si tratta sostanzialmente di sistemi di crittografia
che rendono impossibile la riproduzione dei materiali audio
video.
L’implementazione di provvedimenti tecnici e tecnologici, di
dispositivi e componenti che sono destinati a impedire o
limitare atti non autorizzati su materiale coperto da diritto
d’autore è stata legittimata dalla direttiva europea 2001/29/CE,
recepita dal nostro ordinamento con il decreto legislativo
numero 68 del 2003, che avremo modo di incontrare più volte,
così come l’altra legge con la quale il legislatore nazionale si
era già espresso in questo senso, la numero 248 del 18 agosto
2000.
Queste misure vanno attuate in conformità delle norme sulla
privacy e più in generale tutti i diritti della persona, come
stabilito dalla direttiva comunitaria 46/95/CE, concetti ribaditi
nella direttiva del 2001 appena citata, imponendo ai gestori
soprattutto dettagliate informative per gli utenti che non sempre
percepiscono la presenza di certi meccanismi.
Da tenere in considerazione è comunque il rapporto tra questi

8
meccanismi di protezione e gli usi legittimi di opere protette da
diritto d’autore, punto sul quale gli interrogativi sono ancora
tutti da risolvere. Anche la reale efficacia di determinate misure
è da verificare, e non mancano voci importanti a
ridimensionarla. Ad esempio, Frank Pearce, co- fondatore e
attuale produttore esecutivo di Blizzard, da sempre attivo
esclusivamente sul mercato PC, parlando del publisher dei
famosi videogiochi Splinter Cell e Assassin's Creed, ha
rilasciato dichiarazioni importanti: "Abbiamo bisogno che i
nostri team di sviluppo siano concentrati sui contenuti e le
caratteristiche innovative, non sulla tecnologia anti-pirateria.
Se si comincia a parlare di DRM e diverse tecnologie con cui
provare a gestire questi sistemi per noi è davvero una battaglia
persa perché la community è sempre molto più vasta, e il
numero di persone in circolazione che vogliono provare a
contrattaccare quella tecnologia, che sia per piratare il gioco o
semplicemente per curiosità, è molto più numeroso dei nostri
team di sviluppo" [11].
Ci si riferisce ai videogiochi nello specifico, ma il discorso
potrebbe essere esteso a tutte le attività della Rete.
Dunque, tirando le prime somme, lo scenario è quello di un
dilagante mondo di condivisione che sfocia nella pirateria; da
parte loro, le majors cercano di difendersi prima con mezzi
tradizionali, poi adattandosi gradualmente allo scenario digitale
ma rimanendo ancora nel limbo; il tutto esercitando pressioni
su legislatori pronti ad assecondarne le richieste, mortificando
così un mercato emergente e virando troppo spesso verso una
mera repressione che, non facendo i conti con le logiche della
Rete, fallisce o peggio ancora crea danni, provocando la
reazione degli internauti in un circolo vizioso che danneggia un
po’ tutti. Dunque, è indispensabile combattere la pirateria ma
anche capire e incentivare le libere pratiche concesse dalla

9
Rete, che gioca con le sue regole, incentivando così la crescita
di un mercato tutto da scoprire. L’alternativa, nell’oceano di
tecnologia alla portata di tutti in cui viviamo, sarebbe stabilire
un totale e capillare controllo sulle tecnologie stesse, qualcosa
che solo in un sistema totalitario sarebbe realizzabile (scenario
tutt’altro che auspicabile).
Idee nuove circolano nella comunità di coloro che nel mondo
della condivisione sono immersi da tempo. Ne è un esempio il
concetto di “Copyleft”. L’espressione nasce sostanzialmente
come gioco di parole sulla parte finale di copyright, e
suggerisce in maniera terminologica un ribaltamento dello
stesso [12], ma in realtà è una proposta articolata e di
compromesso tra diritto d’autore e pratiche proprie delle
tecnologie digitali.
Sostanzialmente si propone un sistema di diritto d’autore che
tramite una serie di licenze permette all’autore, come detentore
originario dei diritti, di indicare ai fruitori l’utilizzo che essi
possono fare dell’opera, delle sue parti e della sua circolazione,
rispettando alcune inderogabili condizioni. Il modello puro di
copyleft prevede che lo stesso sistema sia applicato ad ogni
ulteriore diffusione dell’opera e delle parti di essa. La cultura
che sottende questa corrente è la condivisione gratuita senza
scopo di lucro e la libertà di creare contenuti nuovi remixando i
prodotti culturali.
Per i software esempi di licenze sono la GNU General Public
License (GNU GPL) e la GNU LGPL, per gli altri ambiti
abbiamo la GNU FDL e la Creative Commons (che sono, per
dirne una, le due licenze utilizzate nel tempo da Wikipedia).
Il concetto nacque quando l’attivista, hacker e programmatore
americano Richard Stallman stava lavorando ad un progetto di
interprete di linguaggi di programmazione; quando la ditta
Symbolics acquisì i diritti del software impedì a Stallman di

10
accedere alle modifiche che aveva apportato alla versione di
pubblico dominio fornitagli dall’autore, spingendolo così, vista
l’impossibilità di sradicare le norme sul copyright allora vigenti
che avevano permesso alla ditta quello che lui considerava un
sopruso, a creare una sua propria licenza, che era appunto la
GNU GPL, la cui prima versione è del 1989 (nel giugno 2007
veniva diffusa la terza versione dalla Free Software
Foundation, proprietaria dei diritti sulla licenza ma non sui
prodotti che essa copre) . Questo assicurava di fatto agli utenti
del programma che lo avevano ricevuto (non all’utenza in
generale) il massimo dei diritti sul prodotto.
Per dirla in senso generale, il modello del copyleft pone il
diritto d’autore non come una limitazione della capacità di
circolazione di un prodotto multimediale ma come modello
virtuoso della stessa, sfruttando però le stesse norme del diritto
d’autore e rientrando così all’interno del sistema normativo.
Insomma, con il copyleft chi possiede un programma o
un’opera ha gli stessi diritti del possessore della proprietà
intellettuale di farla circolare, di modificarla, di condividere
l’opera originale e le sue modifiche con altri. Chi modifica
un’opera diventa co-detentore del copyright ma a sua volta
applica il copyleft alla stessa opera modificata. La
distribuzione deve essere affiancata dal testo della licenza e dal
codice sorgente del programma, oltre alle informazioni sulle
modalità di modifiche e simili. Questo rende il copyleft diverso
dall’approccio “open source”, per i cui prodotti non è richiesta
una distribuzione sempre con la stessa licenza.
La licenza deve ovviamente essere modificata a seconda delle
leggi vigenti nei vari paesi nei quali voglia farsi valere il
copyleft. Nel nostro paese è ad esempio attivo il gruppo
Copyleft Italia [13]. Chiaro che le possibilità di ricavo
economico di un tale modello siano inferiori a quelle del

11
modello attuale di copyright, il che fa si che esso venga
utilizzato da un gran numero di individui che diventano
“comunità a rete” quasi contrapponendosi alle società
oligopolistiche. Ma stanti i trend di crescita di queste comunità
c’è da aspettarsi di tutto.
Quanto detto fin qui vale per i software, ma modelli di copyleft
sono applicati anche ai prodotti culturali. Ad esempio la Free
Art è una licenza applicabile a qualunque prodotto artistico.
Certo in questo ambito sorgono problemi diversi: il copyleft
nasce tarato per prodotti nei quali la distribuzione implica che
il possessore di un prodotto non perda il possesso materiale di
una copia, cosa difficile quando si tratta di pezzi unici; in
campo artistico poi il rispetto del nome degli autori di un’opera
va oltre il mero diritto d’autore, il che fa intuire nuove
evoluzione della materia nel prossimo futuro.
Inutile dire, poi, che tutte le associazioni che difendono e
tutelano i proprietari di diritti fanno ostruzionismo nei
confronti di queste tendenze considerate non la leva per un
nuovo mondo di libera circolazione di conoscenza ma l’alba
della distruzione del mondo dei contenuti, che costano e
dunque vanno pagati. I prossimi anni ci diranno, forse, chi ha
ragione.
Dal punto di vista normativo, nel nostro paese alle soglie del
terzo millennio la situazione appariva convulsa e confusa,
probabilmente anche per queste innegabili pressioni esercitate
sul legislatore dai “produttori di idee”. Al vaglio del
Parlamento continuavano ad arrivare disegni di legge come
l’S1496 [14], che prevedeva, oltre a pene detentive
apparentemente sproporzionate per i reati in questione (fino a
tre anni di reclusione) e alla genericità dei reati stessi, il
sequestro degli hardware a dispetto delle ormai assodate
correnti giurisprudenziali che invitano a distinguere tra “corpo

12
del reato” e “supporto” (insomma, se col Pc hai commesso un
reato online, che senso ha sequestrarti il Pc?).
Arrivano così la legge 248 del 2000 e quella 39 del marzo
2002, tra le maggiori modifiche mai apportate alla 633 del
1941. In esse si stabilisce che i contenuti, pur essendo messi su
pagine web e dunque esposti al pubblico, restano di proprietà
di chi li ha prodotti. La loro riproduzione è permessa solo a
livello personale e non a scopo di lucro. Puniti saranno anche la
produzione, la riproduzione e la diffusione di strumenti che
permettono l’aggiramento delle norme del diritto d’autore.
Successivamente, il decreto legislativo 68 del 2003. In esso,
viene riaffermato il reato di duplicazione illecita ma non si
cerca di controbilanciare il tutto con l’aumento dei diritti
dell’acquirente lecito, al quale si dà il contentino di poter
prendere estratti di video o fotogrammi per uso personale ma
addirittura in analogico. Restano aperte quesiti come questo:
l’acquirente legittimo di un Cd con un contenuto protetto,
quando i diritti d’autore di chi lo ha prodotto sul contenuto
scadranno, si ritroverà un contenuto comunque non duplicabile
a piacimento? Senza contare che la licenza che il cliente
approva (e dove è contenuta questa clausola) arriva in un
secondo momento rispetto all’acquisto: dal negozio o via web
si acquista il pacchetto, poi viene il vero e proprio set up. E se
il cliente non accetta i termini della licenza, con chi dovrà
avere rivalse?
Approdiamo così al contestatissimo decreto Urbani
(“Interventi urgenti in materia di beni ed attività culturali”) ,
presentato nel marzo 2004 e convertito in legge due mesi
dopo[15].
Giuliano Urbani, ministro per i beni e le attività culturali nel
secondo governo Berlusconi, firma questo documento che,
dedicato principalmente al finanziamento pubblico di attività

13
cinematografiche e sportive, introduce sanzioni più pesanti
contro la pirateria musicale e cinematografica commessa per
via telematica mediante siti web o sistemi di file sharing,
allargando anche lo spettro delle attività ritenute illecite. La sua
formulazione originaria sollevò polemiche anche in parte della
maggioranza che sosteneva il governo, soprattutto per le parti
nelle quali si annullava la distinzione tra scopo di lucro ed uso
personale e si obbligavano i provider ad accertare le violazioni,
distorsioni corrette nei passaggi successivi. In ogni caso, non si
risolve il problema della linea di confine tra la condivisione per
uso personale e quella per scopo di lucro; insomma, quando la
condivisone di file online eccede dall’uso personale e
rappresenta un’illecita pratica di duplicazione e, al limite,
ricettazione? E ancora, quali sono le differenze tra chi “carica”
e chi “scarica”?
Le difficoltà nel regolamentare la diffusione delle opere su
Internet nascono anche dalla confusione sulla natura stessa
dell’opera multimediale, attorno alla quale c’è da compiere
ancora uno sforzo legislativo per disegnarne le fattezze a fronte
delle dinamiche che prendono vita nell’ambiente digitale,
convergente e cross mediale per natura e foriero di pratiche mai
viste in precedenza in merito a fruizione, diffusione,
remixaggio dei contenuti e simili. La legge 248 del 2000 ha per
la prima volta inserito nel panorama delle leggi sul diritto
d’autore l’ “opera multimediale”, della quale non si può fare un
abusiva riproduzione, trasmissione e diffusione, ma non ha
specificato cosa realmente si intenda di preciso per essa.
Innanzitutto, multimedia significa letteralmente “più media
insieme”, ma per la fisionomia che essa ha assunto con lo
sviluppo delle nuove tecnologie si è soliti far rientrare nella
dicitura qualunque prodotto che ha il suo attributo nell’utilizzo
di un sistema informatico per la sua fruizione, e quindi a essere

14
“messi insieme” sono più i codici comunicativi, associabili a
media differenti (audio, video, testo e radio) che i media stessi,
con un unico medium a veicolare questi prodotti (quasi sempre
un pc); in questo senso rientra nella fattispecie anche un
contenuto di solo testo trasmesso tramite la Rete, come lo sono
ad esempio gli articoli delle testate online anch’essi coperti
dalle tutele del diritto d’autore [16]. Per vedere se servono
realmente nuove normative ad hoc bisogna vedere quali siano
le caratteristiche peculiari dell’opera multimediale; la prima
dottrina a muoversi in questo senso è stata quella statunitense a
partire dai primi anni novanta; la studiosa americana
P.Samuelson [17] individua quelle caratteristiche nella facilità
di riproduzione dell’opera, nella sua possibilità di essere
manipolata, trasmessa, remixata, fusa con altre opere e nel suo
essere portatrice di una grande quantità di dati. A tutto ciò va
aggiunta la trasmissione digitale dei dati e l’imprescindibile
presenza di un software che va implementato nel supporto
elettronico con il quale si fruisce l’opera, tutelato dalle stesse
leggi. L’opera va così considerata anche come somma del
contenuto informativo e del software gestionale che ne
permette la riproduzione. Infine, ciò che realmente distingue
un’opera multimediale da altri prodotti è l’interattività.
Dunque, è questa la definizione che ne deriva: il prodotto
multimediale è “un prodotto che combina simultaneamente, in
forma digitale, dati e informazioni di tipo diverso (parti di
testo, grafica, suoni, immagini statiche o in movimento, ecc.),
fruibile dall’utente in modo interattivo grazie ad un apposito
software preposto al suo funzionamento” [18] .Come
dicevamo, l’opera multimediale è coperta dalle stesse leggi sul
diritto d’autore che dal 1941 ad oggi disciplinano la materia ma
senza che gli venga riconosciuto alcun particolare status e
senza essere assimilata ad altri tipi di opera contemplati nella

15
legge stessa, cosa successa sistematicamente negli ultimi anni
ogni volta che le nuove tecnologie producevano qualcosa di
inedito (come i cd nei primi anni novanta). Alcuni
provvedimenti normativi, come il D.P.C.M. numero 38 dell’11
luglio 2001 creano anche equivoci come il far rientrare l’opera
multimediale che viene fruita tramite personal computer nel
regime di tutela del software mentre quella che viene fruita
mediante altri dispositivi nel regime di tutela dei programmi
multimediali, senza specificare però, ancora una volta, cosa il
legislatore intenda per multimedialità. La legge numero 62 del
7 marzo 2001, la nuova disciplina sull’editoria, presenta
diciture che potrebbero far rientrare l’opera multimediale nella
categoria dei prodotti editoriali, come all’art.1 che recita“Per
prodotto editoriale, ai fini della presente legge, si intende il
prodotto realizzato su supporto cartaceo, ivi compreso il libro,
o su supporto informatico, destinato alla pubblicazione o,
comunque, alla diffusione di informazioni presso il pubblico
con ogni mezzo, anche elettronico[...]”, ma essendo questa
legge esclusivamente tesa a disciplinare l’accesso ai
finanziamenti statali per le imprese editoriali difficilmente si
può ampliare questa disciplina speciale fino a tirarne fuori
indicazioni di sistema [19].
Comunque, non è in dubbio che l’opera multimediale rientra
fra le opere d’ingegno come tali tutelate, in virtù dell’articolo 1
della legge sul diritto d’autore che stabilisce che sono tutelate
come tali tutte le espressioni che hanno un carattere creativo e
originale. A quali delle specifiche categorie della legge stessa
essa vada ricondotta è materia delicata perché ha conseguenze
dirette sulla giurisprudenza. Quando l’opera è monosoggettiva,
cioè prodotta da una singola persona, il problema non si pone:
ad essa vengono attribuiti tutti i diritti sull’opera. Ma si tratta di
una piccolissima parte dei casi, in quanto di solito la

16
realizzazione di un prodotto multimediale richiede che diverse
personalità e professionalità interagiscano nella creazione di
quella che diventa un opera multisoggettiva. Sono
principalmente quattro le figure che entrano in gioco: il
progettista dell’opera (regista multimediale), il grafico,
l’esperto di software e l’esperto dei contenuti. Ognuno di essi
apporta un contributo ed è titolare di certi diritti, le cui
modalità di ripartizione variano a seconda che un’opera venga
considerata “in comunione” (il risultato dell’opera non
permette la distinzione dei vari contributi), “collettiva” (quando
una personalità mette insieme opere altrui ma il risultato fa sì
che il prodotto è originale e protetto come tale, come nel caso
di enciclopedie e dizionari) o “composte” (i contributi si
fondono ma restano riconoscibili singolarmente). A quale di
queste è più vicina l’opera multimediale? In realtà a tutte e a
nessuna, dipende dai casi. Disciplinate sono anche le opere
dove la messa insieme avviene tramite macchine, i cosiddetti
computer generated works.
Altra questione è quella delle opere derivate, ovvero di quelle
che fanno uso di opere precedenti mettendole insieme (il
mashing è ormai una caratteristica del web 2.0 e dell’UGC e
dunque casistica attualmente maggioritaria) o trasformandole
(come ad esempio una traduzione): esse sono protette
comunque come opere originali, ma lo sfruttamento delle opere
di altri va comunque fatto all’interno del pagamento dei diritti e
dell’ottenimento delle relative autorizzazioni [20], a meno che
non si tratti di opere di pubblico dominio.
A quale fattispecie tra quelle previste dalla legge sul diritto
d’autore appartenga l’opera multimediale non è però ancora
chiaro; c’è chi ha proposto che essa venga qualificata in base al
genere che è maggiormente rappresentato in essa (il Copyright
Act canadese, il cui testo originale è del 1924, prevede proprio

17
questo), ma non si capisce se per stabilire cosa sia
preponderante tra l’audio, le immagini e il testo, bisogna usare
criteri quantitativi o qualitativi. La conclusione alla quale
possiamo giungere è che in realtà l’opera multimediale non
trova alcuna collocazione pienamente soddisfacente in alcune
delle categorie tipizzate di opere dell’ingegno, e meriterebbe
una categoria a parte, cosa del resto già ripetutamente
sperimentata in passato con ognuna delle categorie ad oggi
riconosciute.
Ma, come accennato nell’Introduzione, tanta importanza
rivestono gli esiti dei procedimenti giudiziari in materia. Nel
2007 arriva, dalla terza sezione penale della Corte di
Cassazione, una sentenza che farà scuola. In breve, nel 1998 tre
studenti del Politecnico di Torino installano, nello spazio
concesso all’Università dall’associazione studentesca di cui
erano membri, una cartella Ftp contenente file di diverso
genere (videogiochi, materiale audio e video, ecc.). Gli altri
studenti potevano registrarsi e dotarsi così di username e
password con le quali accedere alla cartella e condividere il
materiale. Nel 1999 i tre studenti vengono rinviati a giudizio.
Nella sentenza di primo grado si esclude un profitto derivato
dallo scambio; è lo scambio stesso ad essere ora al vaglio del
tribunale. Gli imputati vengono condannati perché l’attività
aveva comunque caratteristiche “imprenditoriali”, mentre la
Cassazione li assolve perché in ogni caso essi non avevano
ricevuto profitto; semmai erano stati gli utenti a farlo. Viene
escluso anche il reato di ricettazione previsto dall’art.648 c.p.
Diverso il caso che oltreoceano vede imputata “mamma
Jammie”: Jammie Thomas-Rasset fu accusata nel 2006 dalla
RIAA di aver condiviso illegalmente su Kazaa 24 mila canzoni.
Nelle varie udienze si è cercato più che altro un compromesso,
e dall’iniziale richiesta di 1,92 milioni di dollari come

18
risarcimento si è arrivati ad una cifra pari a circa 25 mila
dollari, che però l’imputata ha già rifiutato. Questo processo è
importante perché si tratta del primo vero procedimento penale
per il P2P e anche le modalità con le quali si sta sviluppando
sono un importante precedente in materia; la sua valenza
travalica i confini statunitensi.
Cambiando prospettiva, un’importante vicenda giudiziaria è
quella che coinvolge in Italia un colosso dei media tradizionali
e uno di Internet: nel luglio 2008 Mediaset deposita al tribunale
Civile di Roma un atto di citazione nei confronti di Google,
proprietaria di Youtube, chiedendogli un risarcimento danni di
500 milioni di euro. Il reato contestato è “illecita diffusione e
sfruttamento commerciale di file audio-video di proprietà delle
società del gruppo”. L’azienda della famiglia Berlusconi spiega
così, in un comunicato, la sua decisione: “alla data del 10
giugno 2008, dalla rilevazione a campione effettuata da
Mediaset sono stati infatti individuati sul sito Youtube almeno
4.643 filmati di nostra proprietà, pari a oltre 325 ore di
materiale emesso senza possedere i diritti. Alla luce dei contatti
rilevati e vista la quantità dei documenti presenti illecitamente
sul sito è possibile stabilire che le tre reti televisive italiane del
gruppo abbiano perduto ben 315.672 giornate di visione da
parte dei telespettatori”. Tra il 16 dicembre 2009 e il febbraio
2010 due ordinanze del tribunale danno parziale ragione a
Mediaset, condannando Youtube a rimuovere dal sito tutti i
frammenti della trasmissione “Grande Fratello”, vero
argomento della disputa. Simile epilogo nell’omologo processo
che vedeva contrapposti in Spagna il colosso di Mountain View
e l’emittente televisiva Telecinco, anch’essa controllata da
Mediaset.
In senso totalmente opposto va così l’accordo raggiunto tra
Google e la Siae nel 2010: in sostanza, Youtube sarà

19
autorizzata ad ospitare contenuti protetti da diritto d’autore, i
cui titolari saranno ricompensati in proporzione agli introiti
pubblicitari, a meno che essi stessi non decidano diversamente;
non sono stati divulgati i dettagli economici dell’accordo, ma
esso appare comunque molto importante nell’ottica di
cambiamento e adattamento del modello di business al quale
accennavo sopra. L’accordo sarà valido fino al 31 dicembre
2012.
Queste vicende aprono comunque un interrogativo
fondamentale: perché a fronte di violazioni certificate da
relative sentenze, Google non ha dovuto pagare un euro o un
dollaro di multa? Le strade sono due: o un sito come Youtube
deve semplicemente farsi trovare pronto quando la
magistratura gli intimerà di rimuovere contenuti liberamente
caricati da utenti registrati, oppure deve avere un reale ruolo di
controllo preventivo, come si fa nelle redazioni e nelle case
editrici, su quello che poi sarà fruibile dal pubblico. In un
parola, responsabilità, di quel tipo affine a quella dei direttori
di testata. E se la seconda può sembrare la soluzione più giusta
(in fondo, Youtube si definisce come aggregatore di contenuti
caricati da altri ma da questo ricava comunque un lucro)
bisogna chiedersi quanto sia praticabile per una piattaforma che
a febbraio 2010 ha superato le 24 ore di filmati caricati ogni
ora. Discorso analogo, anzi, a maggior ragione, vale per
l’infinità di dati che transitano sulle reti degli ISP. Sembra
praticabile solo la soluzione del “rimuovi su segnalazione”: ad
esempio, in occasione del mondiali di calcio della scorsa estate,
dopo soli pochi giorni che in Rete circolava in maniera
frenetica l’inno ufficiale Waka Waka della cantante Shakira
iniziavano i primi video inaccessibili con diciture del tipo:
“Questo video non è più disponibile a causa di un reclamo di
violazione di copyright da parte di Sony Music Entertainment”.

20
Stesso discorso per quanto riguarda l’obbligo per service e
content provider in genere a rendere inaccessibili contenuti
illeciti di ogni tipo (ad esempio, frasi diffamatorie, come
vedremo meglio nel prossimo paragrafo).
A certificare il quadro arriva la legge europea. La direttiva
2000/31/CE (sulla "Responsabilità dei prestatori intermediari",
recepita in Italia dal D.lgs. n. 70/2003 che disciplina i "servizi
della società dell'informazione") agli articoli dal 12 al 15,
stabilisce principi fondamentali: da essi si evince come gli
intermediari che hanno un ruolo passivo siano esonerati da
qualunque responsabilità nella misura in cui provvedono
semplicemente al "trasporto" di informazioni provenienti da
terzi. Inoltre, viene limitata la responsabilità dei prestatori di
servizi per altre attività intermediarie come l'archiviazione
delle informazioni. In altri termini, i fornitori d'infrastruttura e i
fornitori d'accesso non potranno essere ritenuti responsabili
delle informazioni trasmesse, purché non diano origine alla
trasmissione e non selezionino il destinatario della trasmissione
o le informazioni trasmesse.
Questo regime “assolutorio” è valido però solo nel caso in cui i
servizi di hosting, gli ISP e i content provider si impegnino in
una tempestiva e proficua collaborazione con le forze
dell’ordine e le autorità per la rimozione e il blocco dei
contenuti incriminati, nonché per la fornitura dei dati necessari
all’individuazione dei colpevoli.
Per i service provider valgono inoltre le raccomandazioni
formulate nella 43esima riunione dell’International Working
Group on Data Protection, svoltasi nel marzo 2008, che ha
partorito la ”Relazione e Linee-Guida sulla Privacy nei Servizi
di Social Network (Memorandum di Roma)”, ovvero l’invito ai
gestori di determinati servizi a presentare agli utenti, al
momento della registrazione, un’informativa contenente le

21
regole basilari da osservare per evitare sinistri, soprattutto in
merito a ciò che gli utenti possono fare o non fare con dati e
contenuti riferibili a terzi. Quindi, riassumendo, il provider
deve informare gli utenti, segnalare illeciti se ne viene a
conoscenza, non può ignorare le richieste dei detentori di diritti
e deve collaborare con le forze dell’ordine, ma senza nessuna
responsabilità editoriale, di sorveglianza o censura, nessuna
“culpa in vigilando” o colpe per omesso controllo in senso
preventivo, come ad esempio la Telecom non può essere
ritenuta responsabile per minacce e molestie perpetrate per
telefono (da noi anche alla luce delle disposizioni previste dagli
artt. 110 e ss. del codice penale: perché si possa configurare
una responsabilità a titolo di concorso di persone nel reato, è
necessario che vi sia la piena volontà dei singoli concorrenti sia
nella commissione del reato che nella cooperazione per la sua
realizzazione). E qui bisgona segnalare una certa distanza tra la
sentenza del tribunale di Roma e quella di Madrid in merito
alle dispute tra Youtube e le reti televisive: nella seconda si
chiarisce a chiare lettere che l’intermediario passivo non può
mai essere colpevolizzato a meno che i titolari di diritto
d’autore non provino di aver infruttuosamente provato ad
utilizzare le procedure di segnalazione e rimozione dei video
rese disponibili agli utenti, e che la produzione di un lucro non
cambia questo quadro; nella prima si propende invece verso
una valutazione delle responsabilità caso per caso e si afferma
come non apparirebbe "nemmeno ragionevole sostenere
l'assoluta estraneità alla commissione dell'illecito posto che le
reclamanti (n.d.r. Google e YouTube) hanno continuato la
trasmissione del Grande Fratello nei loro siti internet,
organizzando la gestione dei contenuti video anche a fini
pubblicitari, nonostante le ripetute diffide ed azioni giudiziarie
iniziate da RTI che rivendicava la paternità e titolarità

22
dell'opera, né può farsi carico a RTI che agisce per la tutela dei
propri diritti di fornire alle reclamanti i riferimenti necessari
alla esatta individuazione dei singoli materiali caricati sulla
piattaforma URLs”. In pratica, si toglie un pezzo di onere al
detentore di diritti accollandolo all’intermediario, pur
assolvendolo perché comunque più forti gli argomenti cardine
del regime imposto dalla 2000/31/CE.
Anche dall’altra parte dell’Atlantico Youtube si trova spesso
sul banco degli imputati, come nel processo intentatogli dal
gigante statunitense Viacom, azienda che controlla Mtv,
Paramount e Dream Works. Secondo la
major dell’intrattenimento più di 160 mila video sono
stati messi in Rete da Youtube senza autorizzazione,
registrando più di 1,5 miliardi di contatti. Viacom ha chiesto un
indennizzo di 1 miliardo di dollari a Google, che nel luglio
2008 era anche stata costretta da una corte federale a
consegnare al querelante i dati di accesso e l’IP di ogni
navigante che aveva avuto accesso ai video, sollevando non
pochi dibattiti sulla privacy degli utenti. Ma la sentenza più
importante arriva alla fine di giugno 2010, quando un giudice
di New York assolve Google respingendo le richieste di
Viacom, anche qui stabilendo che la rimozione del materiale in
questione (cosa che accadde nel 2007 quando 100000 video
protetti da diritto d’autore furono rimossi il giorno dopo la
segnalazione inviata da Viacom) bastava e che Google non
poteva essere multato in quanto non responsabile del materiale
caricato dagli utenti. Viacom ha presentato appello ma alcuni
commentatori hanno osservato che il fatto che nel giudizio di
primo grado non si sia arrivati nemmeno al processo costituisce
un precedente a favore di YouTube.
BigG (uno dei soprannomi dell’azienda di Mountain View)
comunque coglie ancora la palla al balzo e annuncia la nascita

23
di Friendly Music, un servizio che permetterà di acquistare a
due dollari circa la licenza per l’utilizzo di brani per uso non
commerciale da usare nei video amatoriali. Come dire: vuoi
mettere nel filmino delle nozze in sottofondo una canzone
coperta da copyright? Lo fai attraverso Friendly Music e non
rischi che il detentore dei diritti possa avere rivalse. Al
momento però la lista di brani è limitata a 35mila titoli,
nessuno dei quali appartiene alle majors. Sistemi di
facilitazione dei pagamenti di diritti che, in alternativa alle già
citate idee come il copyleft, sono applicate anche a settori
come la radiofonia web casting: ad esempio, il servizio
Live365 permette di pagare, con pacchetti diversi a seconda
delle esigenze, forfettarie somme per l’acquisto dei diritti di
utilizzo di brani e contenuti audio. Ancor più importante è
l’accordo che si intravede tra Google e le majors
dell’intrattenimento statunitensi per la vendita tramite Youtube
di film e contenuti in maniera legale; strada seguita anche da
Apple, da sempre portabandiera della cavalcata verso la
convergenza che vede Internet come perno.
Altri esempi: in Germania nel maggio 2010 una corte d'appello
di Dusseldorf ha assolto Rapid Share, che ospitava film
illegalmente caricati dagli utenti e ne permetteva di fatto la
condivisione tra di essi, ribaltando la sentenza di primo grado
emessa da un tribunale di Amburgo l’anno prima che obbligava
il servizio all’implementazione di filtri in grado di setacciare
tutto il materiale che veniva caricato. Ma la Corte ha precisato
che non è responsabile di certi contenuti caricati online dagli
utenti, e che Rapid Share non mette i vari file in condivisione
pubblica, lasciando esclusivamente ai suoi utenti il controllo
degli upload effettuati. Oltre a sottolineare come gran parte
degli utenti di Rapid Share faccia un uso legale del sito, e
chiuderlo significherebbe andare contro le leggi tedesche

24
sull'uso legittimo di opere dell'ingegno come un film. E il sito
ottiene un’assoluzione anche oltreoceano in un processo
intentatogli dall’azienda californiana 1.0 (specializzata in
contenuti per adulti) praticamente con le stesse motivazioni:
non è responsabile di ciò che gli utenti vi caricano perché il
servizio di hosting è soltanto un contenitore, un intermediario
[21]. Un’altra vittoria tedesca la ottiene poi alla fine di luglio
2010 nel processo di appello scaturito dalla citazione del
distributore cinematografico Capelight Pictures.
I servizi come quelli di Rapid Share, ma anche Megaupload e
Megavideo, sono ormai indicati come le nuove frontiere della
condivisione online di materiale audiovisivo, con lo streaming
e gli “armadietti digitali” (i cyberlocker) che vanno così a
scavalcare il P2P nel ruolo di nemico numero uno agli occhi
delle majors. Inoltre, da annoverare la possibilità data da alcuni
software facilmente reperibili online di trasformare il flusso
streaming in un file da siti come Youtube o BlipTV (vedi ad
esempio Vdownloader). Anche qui, vedremo se le majors
stesse insisteranno nell’approccio repressivo o cercheranno di
entrare in un nuovo modello di business.
Ma in ogni caso, tutto questo la dice lunga sui tentativi ripetuti
di responsabilizzare gli intermediari della Rete. Sempre in
questo senso, il 2009 si è chiuso con la partenza dell’iter dello
“Schema di decreto legislativo per l’attuazione della direttiva
2007/65/CE per il coordinamento comunitario di alcune
disposizioni inerenti l’attività televisiva”, firmato da Paolo
Romani, approvato nel marzo 2010 e ratificato un mese dopo a
Montecitorio. La direttiva alla quale ci si riferisce mira
all’armonizzazione e alla rimozione delle distorsioni nel
mercato di contenuti multimediali e del settore radiotelevisivo
dal punto di vista tecnologico. Si distingue innanzitutto tra
servizi lineari e non lineari; i primi sono quelli tradizionali, gli

25
altri sono quelli on demand. Il suo ambito di applicazione è
limitato alle forme di attività economica, comprese quelle di
servizio pubblico, escludendo così le attività non economiche
come i siti Internet tradizionali, i blog, i motori di ricerca, le
versioni elettroniche di quotidiani e riviste e i giochi online.
L’iniziale formulazione della normativa sembrava porre
limitazioni estreme ai contenuti circolanti in Rete, tanto che
alcune interpretazioni dipingevano uno scenario dove ogni
blogger che voleva caricare un video avrebbe dovuto avere le
stesse autorizzazioni delle emittenti tv; le modifiche seguite
alle proteste hanno invece determinato le esclusioni appena
citate. Il che non risolve i dubbi sulla posizione di Youtube: la
definizione "un servizio di media audiovisivo a richiesta" non
esclude che la piattaforma di Google rientri nell’ambito del
decreto. In più, l’esclusione di "siti Internet privati e i servizi
consistenti nella fornitura o distribuzione di contenuti
audiovisivi generati da utenti privati a fini di condivisione"
(punto 1 dell’art.4) è contemplata per attività "precipuamente
non economiche". E se così fosse, siamo sicuri che il tutto non
verrebbe esteso anche a micro web tv e blog ben strutturati dal
punto di vista della diffusione audiovisiva? Rientrare
nell’ambito del decreto significherebbe ritrovarsi di fronte ad
ostacoli burocratici che sembrano sproporzionati e figli di una
concezione “televisiva” della Rete. All’indomani dell’entrata in
vigore del Regolamento, infatti, chiunque voglia dare il via ad
un’attività di diffusione televisiva in streaming, ad una WebTV
on demand o ad una trasmissione in streaming tramite rete
cellulare, dovrà richiedere all'Agcom un'apposita
autorizzazione, versare 3000 euro ed attendere 60 giorni
durante i quali l'Autorità valuterà la propria richiesta. Richiesta
che deve essere corredata da un numero di documenti che
rischia di scoraggiare i più.

26
Nel mese di agosto sono così iniziate le consultazioni con
l’Agcom, alla quale il decreto affida importanti deleghe nella
traduzione in normative di ciò che è contenuto nel decreto
Romani, contro il quale si sono subito sollevate vibranti
proteste da tutto il popolo della Rete. Per la fine dei lavori c’è
comunque ancora da attendere.
Tornando a parlare di Google, vediamo come l’azienda di
Mountain View solleva problemi in proporzione alla sua mole.
Non sfugge certo a grane giudiziarie il servizio di raccolta
pubblicitaria Adwords: la denunciata mancanza di trasparenza
del servizio ha fatto sì che Mountain View fosse oggetto di
un’indagine dell’antitrust francese durante tutto il 2010.
Tuttavia, una sentenza della Corte Costituzionale transalpina
nel luglio scagionava Google dalle accuse di contraffazione
mossegli per aver presentato inserzioni che sostanzialmente
ingannavano gli utenti tramite l’utilizzo di marchi protetti da
copyright senza averne l’autorizzazione. Google non è, per la
Cassazione francese, da considerare responsabile. Sentenza che
ricalca quella di un tribunale statunitense di un anno prima e
un’altra ripresa dalla Corte di Giustizia europea.
Il progetto di biblioteca digitale di BigG, poi, gli ha scatenato
contro le ire di tutti i settori della “creatività intellettuale”,
dagli autori ed editori agli operatori tv. Il problema
dell’equilibrio tra i produttori di contenuti e i motori di ricerca,
Google su tutti, dovrà attendere ancora qualche anno per essere
risolto, con l’Antitrust italiano impegnato nella non facile
analisi del fenomeno e la Commissione europea che si trova
nella stessa situazione. A fare da precedente internazionale la
citazione in giudizio da parte di autori ed editori americani che,
attraverso l’Authors Guild e l’Association of American
Publishers, riuscirono nel 2005 a costringere Google ad un
accordo che prevedeva il pagamento di 125 milioni di euro

27
forfettari. All’epoca rimasero fuori categorie come i fotografi,
che oggi però si fanno di nuovo sotto: le maggiori associazioni
americane che li rappresentano (capeggiate dall'American
Society of Media Photographers) hanno indetto una class
action contro l’azienda per le opere contenute nei libri messi
online dal colosso multimediale, anche se da parte sua Google,
per bocca del suo portavoce Gabriel Stricker, si dice tranquillo
perché in regola con le attuali disposizioni sul copyright.
Anche in materia di informazione, Google ha fatto arrabbiare
più di un editore: il colosso americano è obiettivo di critiche da
parte degli operatori dell’informazione, a loro detta
saccheggiati dal motore di ricerca. Google si è detta disponibile
all’accordo che prevede “il mantenimento per tre anni di un
programma distinto per Google News idoneo a consentire agli
editori di escludere i propri contenuti da Google News senza
che tale scelta determini alcun effetto sull'inclusione degli
stessi contenuti nel motore generale di ricerca di Google”.
Questo è il risultato dell’istruttoria avviata dall’Autorità
Antitrust presieduta da Antonio Catricalà su segnalazione della
Fieg, che lamentava come i metodi di indicizzazione e ranking
di Google non fossero trasparenti e lasciassero agli editori due
sole scelte: o lasciare al motore di ricerca libero accesso al
proprio sito o vedere lo stesso scomparire dalle ricerche, senza
via di mezzo e con la pratica che, a detta della Fieg,
avvantaggiava Google nel mercato della pubblicità online
proprio a scapito dei siti delle testate. Quest’accordo sembra
rappresentare dunque un passo in avanti nella risoluzione di
determinate problematiche e , dopo aver ricevuto il plauso di
tutte le parti in causa, farà da apripista in materia [22]. Anche
oltreoceano Google si accorda con gli editori: a fianco dei
risultati degli algoritmi di ricerca ci sarà una selezione di
notizie ed argomenti fatta da un editore vero e proprio, che sarà

28
diverso di volta in volta. E i nomi delle testate non sono da
poco: Washington Post, Newsday, Reuters. Nessun movimento
economico è ufficialmente previsto per questo tipo di accordo,
ma il colosso di Mountain View apre alla possibilità di un
servizio a pagamento, il Newspass, che appare già destinato a
non rimanere da solo in tema di evoluzione dei servizi di BigG
verso la fine del tutto free. All’orizzonte anche un nuovo
accordo di licenza siglato tra l’agenzia di stampa statunitense
Associated Press (AP) e Google che permetterà alla prima di
sfruttare al meglio le potenzialità “aggregatici” di una
piattaforma come Google News e al secondo di utilizzare il
materiale informativo senza rischiare ulteriori citazioni in
giudizio. Potenzialità e pratiche aggregatici che hanno fatto
finire nell’occhio del ciclone spazi come l’Huffington Post e
Dridge News, definiti letteralmente “parassiti che vivono sulla
pelle del giornalismo prodotto da altri” da Leonard Downie Jr,
ex direttore e ora vicepresidente del Washington Post .
Dalle nostre parti invece, per “ingannare l’attesa” delle
decisioni che con tutta probabilità porteranno soldi nelle
asfittiche casse degli editori, arriva ad aprile 2009 dal
presidente della Fieg Carlo Malinconico una curiosa proposta:
istituire una mini-tassa pari a circa un caffè al mese da far
pagare a chiunque abbia una connessione ad Internet e
destinata al settore dell’editoria, sul modello della Germania
dove è stata introdotta una più onerosa “tassa sul computer”.
Anche il patron del gruppo “L’Espresso” Carlo De Benedetti ha
proposto una specie di bolletta da far pagare ai fornitori di
connessione per finanziare le testate in crisi, sulla scia della
Dichiarazione d’Amburgo, documento firmato da decine di
editori e diretto alla Commissione Europea in cui si richiede
una maggiore attenzione per la tutela del diritto d’autore in
materia di contenuti dell’informazione, spesso messi in

29
secondo piano rispetto all’audio/video [23].
Queste proposte appaiono in verità più provocazioni verso un
governo che ha cancellato le agevolazioni postali per le testate,
introducendo una nuova, pesantissima voce ai bilanci delle
aziende editoriali.
Fanno invece discutere orientamenti come la “hot news
doctrine“, il principio che sancisce che la copertura di una
notizia sia riservata in esclusiva, per un periodo di tempo
limitato, al giornale che per primo la pubblica. Caso
emblematico è la sentenza di primo grado che del giugno 2010
con la quale si vietava al sito di notizie finanziarie The Fly on
the Wall di pubblicare prima delle dieci del mattino i rapporti
sul mercato borsistico emessi dalle banche. Il giudice aveva
così accolto l’istanza di Bank of America, Barclays e Morgan
Stanley che accusavano The Fly di pubblicare indebitamente
informazioni di loro proprietà in tempo reale, entrando così in
concorrenza con le banche sul mercato delle soffiate
finanziarie. Contro la sentenza si sono schierate apertamente
anche Google e Twitter, che hanno paventato il pericolo che si
possa creare, così facendo, una sorta di monopolio sulle
notizie, una cappa di protezione che ne limiterebbe al
circolazione. Dalla parte della “doctrine” delle “notizie
scottanti” si schierano invece i più grandi gruppi editoriali
internazionali ( tra i quali Associated
Press , New York Times, Time, Washington Post, e
Agence France-Presse ) con l’argomento che essa rappresenta
un supporto per continuare a poter sostenere il duro lavoro dei
reporter; per garantire l'interesse pubblico della ricerca delle
notizie, cioè, sarebbe necessario garantirle una sorta di
protezione che vada oltre il semplice copyright. Dalla Francia
arriva addirittura la proposta di istituire un motore di ricerca
dedicato alle notizie che “faccia fuori” Google News, come

30
paventato in un comunicato stampa del Syndicat de la presse
quotidienne nationale(SPQN), ovvero l'organismo che
rappresenta gli editori transalpini. Sarebbe comunque
sicuramente meglio della strategia di patent trolling messa in
atto da una società di Las Vegas chiamata Righthaven LLC;
essa, in sostanza, si propone di acquisire i diritti sui prodotti
delle case editrici per poi perseguire legalmente, richiedendo
risarcimenti, siti e blog che ne faccio uso indebito. Il punto
sull’editoria online sarà comunque argomento di uno dei
paragrafi successivi.
Tornando nel nostro Parlamento, Nel gennaio 2008 viene
invece approvata la legge 2/08 sul “fair use”: si ritocca l’art.70
della legge 633/41 sul diritto d’autore, oltre a mettere a punto il
riassetto della Siae. In poche parole, viene permessa la
pubblicazione online di opere protette da diritto d’autore se tale
pubblicazione avviene per scopi didattici, critici e scientifici.
Letteralmente, il suddetto articolo recita : “È consentita la
libera pubblicazione attraverso la rete internet, a titolo gratuito,
di immagini e musiche a bassa risoluzione o degradate, per uso
didattico o scientifico e solo nel caso in cui tale utilizzo non sia
a scopo di lucro. Con decreto del Ministro per i beni e le
attività culturali, sentiti il Ministro della pubblica istruzione e il
Ministro dell'università e della ricerca, previo parere delle
Commissioni parlamentari competenti, sono definiti i limiti
all'uso didattico o scientifico di cui al presente comma”.
Dunque, mosca bianca delle norme trattate fin qui, questa legge
non introduce o allarga lo spettro di un reato ma potenzia un
diritto. Se non fosse per quella specificazione che le immagini
devono essere a “bassa risoluzione o degradate”, che poi
specificazione non è visto che i termini non sono indicati. Non
viene inoltre specificato cosa si intenda per immagini, e non è
poco, visto che il nostro ordinamento protegge i diversi tipi di

31
opere con regole diverse e, quindi, le opere delle arti figurative
in un modo, le fotografie in un altro, i bozzetti teatrali e le
opere di design in un altro ancora e così via, senza contare i
casi di riproduzione per immagini di ciò che in origine
immagine non era (ad esempio, una statua che viene
fotografata). Dunque, lodevole l’intento, ma i limiti
dell’eccezione alla legge sul diritto d’autore a fini didattici,
critici e scientifici sono molto vaghi.
Nei primi mesi del 2009 è invece protagonista Luca
Barbareschi, uomo di televisione ma anche deputato ad oggi
nel gruppo di Futuro e Libertà. L’onorevole presenta un
progetto di legge (“Disposizioni concernenti la diffusione
telematica delle opere dell’ingegno”) mirante ad arginare la
pirateria digitale attraverso la promozione della costituzione di
“piattaforme telematiche nazionali”, attraverso le quali
immettere e fruire in maniera legittima e gratuita opere di
ingegno, assegnando ai provider l’obbligo di rendicontare gli
utilizzi da parte degli utenti. La proposta era stata avanzata da
Altroconsumo e appoggiata dalla Siae, ma quest’ultima ha
successivamente preso le distanze dal testo approdato alla
Camera, il che ne ha compromesso l’iter verso la pubblicazione
in Gazzetta. Sfugge il perché si debbano creare canali che
esistono già “per difetto”: le leggi sul diritto d’autore
puniscono la diffusione di contenuti protetti senza regolare
autorizzazione. Inoltre, non è neanche quantificabile l’onere
che spetterebbe ai provider per “rendicontare”, ammesso che i
proponenti del Pdl abbiano chiare le modalità con cui ciò debba
avvenire e abbiano messo in conto i problemi in materia di
privacy derivanti da questa pratica. Sembra dunque l’ennesimo
tentativo di scaricare sulle spalle degli ISP oneri che esulano
dal loro ruolo, rischiando di creare inoltre cortocircuiti con
altre norme in merito alle procedure con le quali il reato di

32
diffusione illecita di contenuti protetti viene denunciato e
sanzionato. Senza contare che all'articolo 3 si chiede una
delega al governo per la messa appunto di una nuova legge
antipirateria, scavalcando così il Parlamento in un argomento
così sensibile; nello stesso articolo si vorrebbero conferire
“poteri di controllo alle autorità di governo e alle forze
dell'ordine per la salvaguardia su tali piattaforme telematiche
del rispetto di norme imperative , dell'ordine pubblico e del
buoncostume”. Ancora norme generiche di sapore reazionario,
conferendo all'esecutivo poteri censori che ignorano quelli
dell'autorità giudiziaria e ogni principio di stato di diritto e
divisione dei poteri.
Il 28 maggio 2009 si era invece insediata presso il Ministero
per i Beni e le Attività culturali, la Commissione speciale,
presieduta dal Prof. Alberto Maria Gambino ,
“Comitato consultivo permanente per il diritto d'autore”, che
dovrà rideterminare i compensi spettanti ai titolari dei diritti.
La Commissione ha il delicato compito di rivedere la norma
transitoria costituita dall'art. 39 del Decreto Legislativo numero
68 del 2003.
Abbiamo già incontrato il fenomeno dello streaming, al quale
sono strettamente legati i siti di indicizzazione. Già nel 2006 la
Guardia di Finanza, su denuncia di Sky, aveva ordinato la
chiusura dei siti Calciolibero e Coolstreaming per la violazione
dell’art.171 della legge sul diritto d’autore. In pratica, i due siti
mettevano a disposizione degli utenti le partite di calcio che in
Italia erano criptate ma erano trasmesse in chiaro da emittenti
cinesi che avevano regolarmente pagato i diritti a Sky.
Spiegava a Repubblica.it in quei giorni uno dei massimi esperti
italiani di regolamentazione di Internet, Andrea Monti,
avvocato e presidente di Alcei, (Associazione per la libertà
nella comunicazione elettronica interattiva), che questa pratica

33
è illegale perché “le emittenti cinesi hanno ottenuto i diritti da
Sky a trasmettere quelle partite in Cina, non in Italia” e “"i
diritti perdono valore di mercato se le partite sono disponibili
gratis". E fin qui tutto chiaro, se non fosse che i siti incriminati
si limitavano a indicare link alle trasmissioni e non
proponevano le trasmissioni stesse; dunque, agiscono da
intermediari che non hanno controllo sui contenuti o sono
colpevoli di favoreggiamento di reato? A questo la nostra
giurisprudenza sembra rispondere che di favoreggiamento si
tratta. A marzo del 2010 un tribunale di Milano, nell’ambito del
procedimento penale che vedeva contrapposti Sky e il gestore
del sito tvgratis.net, ha confermato la tesi secondo la quale in
Italia è illecita la pubblicazione di link e informazioni che
permettono agli utenti di accedere allo streaming delle partite
di calcio, anche se quest’ultimo è operato da terzi. Questa
attività di indicizzazione sarebbe in violazione dei diritti
d'autore del "produttore dei videogrammi" ex art. 78 ter della
Legge sul diritto d'autore. Il tribunale ha stabilito inoltre che
proprietario di questo diritto è Sky in quanto "produttore
dell'opera audiovisiva consistente nel film delle singole partite
di calcio in questione" e che" l'esecuzione delle riprese in
questione - non la partita di calcio in sé - costituisca opera
dell'ingegno tutelabile in quanto le modalità di ripresa
dell'azione di gioco, la scelta di evidenziare specifici momenti
dello spettacolo (anche non strettamente attinenti alle azioni di
gioco), l'accoppiamento di elementi informativi e di grafica,
risultano tutti elementi che concorrono a determinare una
determinata sequenza di immagini e di suoni che costituisce il
risultato di una scelta tra più opzioni tecniche e rappresentative
e che pertanto può assumere quei caratteri di creatività e di
originalità che costituiscono il presupposto della tutela
richiesta".

34
Dunque, le riprese di un evento sono esse stesse opere
dell’ingegno anche a prescindere dalla “presenza nei
videogrammi stessi di un contenuto effettivamente creativo", e
l’illecito è sia per chi le trasmette senza autorizzazione sia per
chi permette il reperimento di queste trasmissioni [24].
Da segnalare in questo senso anche la decisione della Guardia
di Finanza di Cagliari di mettere offline, cioè di rendere
inaccessibile agli utenti italiani, nell’aprile 2010, il sito
linkstreaming.com, le cui finalità sono chiare dall’url di
riferimento e che rappresentava al momento dell’oscuramento
il primo sito di questo tipo in Italia per qualità e dimensione,
con circa 600mila contatti di media al giorno. L’accusa, per la
quale si sta indagando su sei amministratori italiani che
avevano accesso al server svedese, è quella di aver permesso
agli utenti di scaricare o vedere/ascoltare in streaming
materiale audiovisivo per il quale non era stata pagata alcuna
royalties, tanto più che alcuni film erano ancora in
programmazione nelle sale.
Linea ancora più dura in Olanda: nella terra dei tulipani
vengono chiusi anche i siti che pur non presentando link diretti
a host che ospitano materiale che infrange il diritto d’autore
permettono la discussione in merito agli host stessi [25].
Ma le sentenze in giro per il mondo abbracciano ora l’una, ora
l’altra tesi, e aumentano al moltiplicarsi dei siti che forniscono
questo servizio; uno su tutti Rojadirecta.org. Il sito è stato
considerato legale in Spagna: a stabilirlo una Corte di Madrid
che, nel maggio 2010, ha confermato la sentenza di primo
grado in un contenzioso che da tre anni vedeva opposto il sito
ad Audiovisual Sport, maggiore detentore spagnolo di diritti
televisivi, sport incluso. Rojadirecta viene assolto perché non
ha contenuti illegali, ma è un semplice aggregatore di link a siti
dislocati in varie parti del mondo. Link a siti come Ustream o

35
Justin Tv (che si è addirittura dotata di un sistema di
pagamento), contro i quali da noi si moltiplicano le citazioni in
giudizio e le pagine oscurate con il marchio dell’Aams a
recitare che il sito non è più raggiungibile. Ancora dalla Spagna
invece un’ulteriore apertura alle nuove pratiche della Rete: nel
2005 la EGEDA (la SIAE spagnola), di concerto con la casa di
produzione Columbia Tristar, aveva citato in giudizio il sito
CVCDGO.com, colpevole di pubblicare link e puntatori al
download di contenuti protetti da copyright sui circuiti di file
sharing; le motivazioni dell’assoluzione del sito meritano di
essere lette: ”È da tempi antichi che esiste il prestito o la
vendita di libri, film, musica e molto altro, la differenza ora
consiste principalmente nel mezzo utilizzato: in precedenza
c'erano la carta o i mezzi analogici e ora tutto è in formato
digitale, la qual cosa permette uno scambio molto più veloce e
di maggiore qualità raggiungendo ogni parte del mondo grazie
a Internet”[26]. Ma la terra iberica è comunque confusa, e al
fianco di economisti ed accademici spingono per una riforma
legislativa che sfrutti il potenziale dei nuovi media si
moltiplicano anche le chiusure di portali di bit torrent.
Vedremo nei prossimi capitoli ulteriori casi relativi ad altri
paesi ma perfettamente omologhi a quelli appena descritti,
contraddizioni incluse, precisando che mentre da Cagliari si
oscurava Linkstreaming gli utenti della Rete stavano
sicuramente digitando Url come ludicer.it, sito perfettamente
simile. Di sicuro appare diversa la posizione di un sito che
permette di caricare materiale e lo fornisce in streaming
(Youtube e Megavideo), ospita file non sempre illegali (Rapid
Share e Megaupload), fornisce link a materiale illegale
(Linkstreaming) o parla degli stessi (come nel caso olandese), e
quella di servizi che forniscono eventi criptati in streaming
(Justin Tv), peraltro a pagamento. E gli utenti dello streaming?

36
Anche essi sono sanzionabili, come nel caso di Videogratis 2:
chiuso il dominio, una ventina tra gli utenti più attivi sono stati
multati per 154 euro.
Appare invece curiosa la definizione di Google come
“intermediario di intermediari”: il motore di ricerca indicizza
siti di ulteriore indicizzazione di materiale illegale;
un’intermediazione di “secondo livello” che
spinge quotidianamente le aziende discografiche a
segnalare a Mountain View il link che rimandano a siti che
favoriscono la violazione del diritto d’autore, chiedendone
l’oscuramento, che nella maggior parte dei casi avviene, dato
che, come abbiamo visto, Google una volta informato di un
illecito perpetrato sulle proprie reti non può fare orecchie da
mercante (questo vale anche negli USA grazie al Digital
Millennium Copyright Act del 1998 che incontreremo nel
quarto capitolo).
C’è chi addirittura si spinge ad affermare che il solo servizio di
suggerimento voci (il suggest) di Google basti a rendere BigG
responsabile di diffamazione: va in questo senso la sentenza
con la quale l’8 settembre 2010 un tribunale di Parigi ha
condannato il motore di ricerca e il suo CEO Eric Schmidt con
l'ingiunzione ad eliminare qualsiasi tipo di associazione tra il
nome del querelante e i termini "violenza", "condannato",
"satanista", "prigione" e "stupratore", pena un'ammenda di 500
euro per il mancato rispetto di ciascuna richiesta. A nulla sono
valse le tesi difensive secondo le quali è un algoritmo, e non
una selezione umana, a fare le associazioni tra nomi di persone
e contenuti riguardanti esse. Proibendo i suggerimenti, il
giudice non vuole bloccare la ricerca stessa o la possibilità da
parte dell'utente di compierne una con i termini incriminati, ma
solo evitare che suggerimenti possano attirare l’attenzione
dell’utente anche quando egli non è interessato in maniera

37
diretta, innescando una sorta di effetto virale ai danni del
querelante. Per casi simili Google è stata chiamata in Tribunale
anche in Svezia ed è già stata condannata in Brasile e assolta
nel Regno Unito. Si pone qui anche il problema del diritto
all’oblio in Rete, tematica che citerò poco oltre.
Tutta da scrivere è invece la storia dei contenzioni sui fedd rss.
La questione di fondo è: quando si può considerare lucroso lo
sfruttamento di un feed che aggrega contenuti di altri? Quando
si fa pagare l’accesso all’applicazione o anche quando ci si
limita ad implementare pubblicità sulla stessa pagina?
Le questioni del copyright online creano spaccature
interpretative anche all’interno dei soggetti che producono
intrattenimento: di recente il rapper Eminem ha avuto la meglio
sulla Universal Music in un procedimento giudiziario.
Argomento della contesa la posizione delle royalty spettanti
agli artisti nel caso di vendita di brani su iTunes. Gli attuali
contratti che vengono stipulati con le case discografiche
prevedono margini di guadagno minimi per gli autori in caso di
vendita di Cd e maggiori per altri utilizzi di licenza; nel caso di
Eminem, è stato riconosciuto come, essendo abbattuti i costi di
distribuzione su Internet, ad esso spettavano i più sostanziosi
compensi previsti per la seconda casistica e non quelli più
magri della prima.
Dunque, in materia di copyright il gioco di reciproco
assestamento tra uso e regolamentazione vede quotidiane
evoluzioni; certo è che per quanto riguarda la stessa
circolazione dei contenuti illeciti non ci sono dubbi: una volta
intercettati e segnalati (da utenti, vittime, organi di polizia o
magistratura), i contenuti che violano il diritto d’autore vanno
immediatamente rimossi e i colpevoli perseguiti. In ogni caso,
tutto questo vale anche per quelli che fanno apologia di reati,
ne commettono o ne riprendono di alcuni. Il che ci introduce ad

38
un altro, contiguo argomento, e ci permette inoltre di declinare
il concetto di responsabilità anche negli altri settori di Internet.

Contenuti Illeciti

Le infrazioni al diritto d’autore possono essere fatte rientrare


nel più grande insieme dei contenuti del web che generano reati
e infrazioni, indicati qui genericamente come contenuti illeciti.
Andiamo con ordine.
Nel 2006 veniva caricato su Youtube un video nel quale si
riprendevano le percosse subite da un ragazzo down all’istituto
Steiner di Torino. Una volta intercettato il video, sono partite
querele e denunce che hanno portato al processo cosiddetto
“Google-Vividown”, che rappresenta una pietra miliare in
materia di regolamentazione della Rete. Infatti, per la prima
volta venivano condannati tre dirigenti di Google. La sentenza
è stata emessa dal Tribunale di Milano il 24 febbraio 2010. In
essa, il giudice Oscar Magi afferma che non può e non deve
esistere “la ‘sconfinata’ prateria di Internet dove tutto è
permesso e niente può essere vietato”. Nello specifico, i reati
contestati erano violazione delle norme sulla privacy e
diffamazione; per il secondo i tre sono stati assolti, e così non
hanno ottenuto risarcimenti le due parti civili costituite, ossia il
comune di Milano e l'associazione Vividown, poiché la loro
posizione era legata solo al reato di diffamazione contestato
agli imputati. I familiari avevano invece già ritirato la querela.
In pratica, a Google viene imputata una scarsa informativa
sulla privacy foriera di equivoci, che non avrebbe informato in
maniera esauriente la dodicenne che aveva filmato e caricato su
Youtube il video, di fatto favorendo il reato. Inoltre si stabiliva
in pratica che, pur essendo i server del sito incriminato
residenti all’estero, gli effetti della violazione si erano sentiti

39
all’interno dei confini italiani e dunque la giurisprudenza
italiana aveva diritto a procedere (già altre sentenze avevano
fatto trasparire questo principio). Ma da parte sua, la difesa di
Google faceva propri gli argomenti di chi di responsabilità
preventiva per quello che va in Rete non vuole sentirne
parlare : “È un attacco ai principi fondamentali di libertà sui
quali è stato costruito Internet”, ha commentato il portavoce di
Google, Marco Pancini. Google ha chiarito che farà appello
“contro questa decisione che riteniamo a dir poco sorprendente,
dal momento che i nostri colleghi non hanno avuto nulla a che
fare con il video in questione, poiché non lo hanno girato, non
lo hanno caricato, non lo hanno visionato”. Secondo il
portavoce, dunque, i tre dirigenti sono stati dichiarati
“penalmente responsabili per attività illecite commesse da
terzi”. Uno dei tre condannati, Peter Fleischer, Privacy Counsel
di Google, ricostruisce la vicenda in maniera analoga, cioè dal
punto di vista di chi sostiene una proficua collaborazione tra
server e magistratura ma non si sente responsabile di quello che
la gente carica : “A fine 2006, alcuni studenti di una scuola di
Torino si sono filmati mentre maltrattavano un compagno di
classe [...] e hanno caricato il video su Google Video. Vista la
natura assolutamente riprovevole del video, è stato rimosso a
distanza di poche ore dalla notifica della Polizia. Abbiamo
inoltre collaborato con la polizia locale per l'identificazione
della persona che lo ha caricato, che è stata poi condannata dal
Tribunale di Torino a 10 mesi di lavoro al servizio della
comunità, e con lei diversi altri compagni di classe coinvolti. In
casi come questo, rari ma gravi, è qui che il nostro
coinvolgimento dovrebbe finire”, citando a proposito la
200/31/CE [27].
Da parte sua mesi dopo, in un’intervista rilasciata al blog
Internet&Diritto [28] in occasione del convegno su “Il futuro

40
della responsabilità in rete. Quali regole dopo la sentenza del
caso Google/Vividown?” presso l’Università degli studi
di Roma Tre [29] lo stesso Oscar Magi allargava lo
spettro della questione e dichiarava: “Anche qui va fatta una
distinzione attenta e precisa fra quelli che sono gli host
provider e quelli che sono invece i produttori o i gestori di
contenuti. Non sono la stessa cosa. E penso che da questo
punto di vista la mia sentenza sia significativa: per la prima
volta, credo, si fa una differenza importante tra questi due tipi
di provider, che sono due soggetti giuridici profondamente
diversi [...]Bisogna fare un discorso chiaro sul fine di lucro. Ci
sono dei provider che lavorano a scopo di lucro, un lucro anche
piuttosto rilevante, che vanno certamente tutelati, ma con un
discorso diverso dagli altri. Non perché il lucro sia un male
ovviamente, ma dove c’è la possibilità di guadagnare molto
dall’upload dei file allora lì ci deve essere una valutazione di
tipo diverso. Non a caso la legge sulla privacy individua il dolo
specifico collegato al fine di lucro, cosa che in altri campi non
c’è. Evidentemente il fine di lucro è un indice rivelatore
importante. Un altro indice rivelatore è quello relativo alla
qualità del provider e un ultimo indice significativo potrebbe
basarsi proprio sul fatto che il provider si autoregolamenti o
meno. Queste tre cose andrebbero regolate anche perché
altrimenti si corre il rischio di lasciare una situazione in
completa balia di quella che può essere una giurisprudenza
anche molto alternativa, perché io oggi ho deciso così, ma
domani un giudice di Barletta può decidere in senso opposto. Il
che non è bello per chi deve lavorare nei settori coinvolti”. E
sull’upload di video come “libera manifestazione del pensiero”
costituzionalmente tutelata, altro argomento citato a difesa dai
condannati,il giudice afferma di trovare la correlazione
“interessante da un punto di vista strettamente culturale, ma

41
poco aderente a quella che è la realtà normativa. Non si può
confondere la libertà di espressione del pensiero con un video
pesantemente offensivo nei confronti di un ragazzo down,
quindi con un’evidente portata di tipo “criminale”. Sono due
cose profondamente diverse. Il problema di queste norme è che
sono poco frequentate: se si cerca negli archivi e nelle banche
dati non si trova niente. A livello giuridico questa è stata una
foresta da disboscare col machete, nella quale non c’erano
strade”.
Tirando le somme, la sentenza di Milano aggiunge al concetto
si responsabilità un ulteriore tassello: gli intermediari non
hanno il dovere di setacciare ciò che passa nelle proprie reti
ma, a monte, devono provvedere all’implementazione di
meccanismi che, fin dove loro possibile, cerchino di evitare che
si commettano reati, predisponendo ad esempio dettagliate
informative per gli utenti. Al tutto si affiancano le disposizioni
del Secondo comma dell’art. 40 c.p., dove si afferma che non
impedire un evento che si può impedire equivale a cagionarlo.
Google è stato dunque condannato non perché sul suo sito
Youtube c’era un video illecito, ma perché è stato riscontrato
che esso non ha fatto tutto ciò quanto gli era possibile per
scongiurare un comportamento criminoso (in questo caso
attinente alle informative sulla sulla privacy), con la sua
posizione aggravata dalla “qualità del provider” e dal
sostanzioso lucro ricavato dal servizio.
Il 6 giugno 2010 è il pm di Milano Alfredo Robledo, che con il
collega Francesco Cajani ha ottenuto la condanna di Google in
questo processo, a rilasciare un’intervista al Corriere della Sera
dove usa parole abbastanza dure nei confronti
dell’atteggiamento del colosso di Mountain View, soprattutto in
merito al CEO Shmidt: “È sconfortante [...] La magistratura
non ha mai detto quali controlli effettuare. Non viola la libertà

42
delle imprese. Ma ha fatto emergere come Google non avesse
messo in atto gli accorgimenti che già aveva disponibili dal
2003. Per esempio, la possibilità di togliere subito i contenuti
offensivi. Filtri... ”. Quelli di cui si parla sono relativi al
sistema di Save Research, che opera però come filtro per la
ricerca dei contenuti e non per l’immissione, e inoltre non è
efficacissimo ed utilizzato da Google solo per i video inferiori
agli 11 minuti, cose tenute in conto nella sentenza. Anche se le
difficoltà di filtraggio del materiale audiovisivo non
basterebbero a discolpare Google: il sottotitolo del video del
2006 era “lotta tra un umano e un handicappato”, cosa che
bastava ai filtri testuali, all’epoca già avanzati, per intercettarlo.
Ma proprio in queste ore si sta attivando una collaborazione tra
Google e Vividown che vedrà quest’ultima impegnata in
un’attività di sorveglianza su Youtube: Mountain View le ha
infatti fornito un protocollo d’acccesso speciale che le permetta
di intercettare e segnalare per la rimozione i contenuti lesivi
come quello oggetto del procedimento giudiziario che ha visto
i due soggetti contrapposti. Fermandoci invece per un attimo
sui filtri, essi sono rintracciabili anche su siti e servizi come
Facebook, anche se spesso essi travalicano i confini del mero
rispetto delle leggi vigenti: nel 2009 parecchi utenti
sperimentarono la vera e propria censura di un video che
riprendeva Emilio Fede nell’atto di sputare ad alcuni reporter,
un documento che parlava delle scarpe firmate del Papa e più
recentemente un appello di Milena Gabanelli ad opporsi alla
“legge bavaglio”; stesso discorso vale per la campagna pro-
mariujana dell’associazione statunitense “Just Say Now”,
bandita dalla rete del social di Zuckerberg nell’agosto 2010,
episodio che ha causato parecchie polemiche oltreoceano tra i
dirigenti di Facebook che sostengono come le leggi americane
vietino contenuti illegali negli spot e i promotori della

43
campagna che ritengono limitata oltremisura la loro libertà di
espressione in Rete. Censura che io stesso ho sperimentato con
il mio profilo e che è stata motivata dalla possibilità che i video
potessero offendere la sensibilità di altri utenti violando così le
condizioni d’uso; il punto 4 di queste ultime recita infatti
"Quando l'utente pubblica contenuti o informazioni su una
Pagina, noi non siamo obbligati a distribuire tali contenuti o
informazioni agli altri utenti", non specificando però criteri e
regole che determinano la rimozione dei contenuti, il che lascia
la libertà degli utenti in balia di arbitrarie scelte del “padrone di
casa”, rendendo così questa stessa libertà una specie di
illusione. Ancora, da noi viene impedito l’accesso degli agli
amministratori alla pagina “Ridateci la nostra democrazia”,
facente riferimento all’omonima campagna lanciata a settembre
da svariati personaggi della politica per la modifica della legge
elettorale. Infine, un dibattito dai toni e contenuti troppo accesi
potrebbe causare una avvertimento a stemperare lo scambio di
battute da parte del sistema per gli utenti in esso coinvolti [30].
Tuttavia, risulteranno, almeno spero, progressivamente più
chiari i significati diversi che può assumere il filtraggio in varie
situazioni e contesti. L ’ evoluzione tecnologica
sembra destinata peraltro a cambiare i limiti di ciò che è
considerato sforzo maggiore che possono compiere gli
intermediari per impedire reati, facendo rientrare il discorso sui
filtri in eventuali modifiche dell’ordinamento vigente.
Passando ancora per le stanze del potere nostrano, con un
piccolo balzo all’indietro, vediamo che il 2 gennaio del 2007
Paolo Gentiloni, ministro delle comunicazioni nel Prodi II,
firma un decreto di attuazione delle norme previste nella legge
38/2006 [31]. In esso si dettano le regole per l’oscuramento dei
siti segnalati al Centro Nazionale per il contrasto della
pedopornografia e i termini nei quali i provider debbano

44
collaborare. Il suddetto oscuramento prevede due modalità: a
livello di DNS e a livello di indirizzo IP. Le vere novità sono
dunque negli specifici sistemi di filtraggio introdotti in questa
sede. Il primo problema è quello della segnalazione; contando
che il Centro è istituito presso la Polizia Postale, non è chiaro
se la segnalazione di un sito di pedopornografia da parte di un
privato equivalga o no ad una denuncia, e non vengono
specificate procedure in merito. Ma siamo al male minore,
come il paradosso che il Centro, al momento della firma del
decreto, non avesse un proprio sito online. In ogni caso, la lotta
a questo genere di crimine si è intensificata e negli ultimi anni
restituisce risultati importanti: a giugno 2010 tramite
l’infiltrazione per tre mesi su eMule di 1400 agenti di polizia
venivano arrestate sei persone tra Campania, Lazio, Lombardia
ed Emilia Romagna, mentre 460 finivano nel registro degli
indagati. E poi: 1.200 PC sequestrati, oltre a quasi 2.500 hard
disk, e più di 11mila tra CD e DVD e a circa 1.300 chiavette
USB. La polizia postale è così entrata in possesso di una vasta
gamma di filmati, che hanno coinvolto minori tra gli 8 mesi e i
15 anni. Comunque, i provider non hanno l’obbligo di ricercare
siti contenenti questo genere di reato ma devono attivarsi e
oscurarli entro sei ore quando vengano loro segnalati
dall’autorità. Il problema reale è che l’oscuramento tramite
nome a dominio è facilmente aggirabile, mentre quello al
livello dell’IP, pur essendo più efficace, espone al rischio di
oscurare anche altri siti che, pur non essendo colpevoli di nulla,
condividono l’host con il sito incriminato, e i tempi di
ripristino non sono affatto quantificabili. C’è però da dire che
l’intento della legge non è tanto quello di intervenire sul
territorio nazionale, all’interno del quale Polizia Postale e
magistratura hanno già pieni poteri di intervento, ma quello di
evitare che dall’Italia si acceda casualmente a determinati siti i

45
cui server siano allocati al di fuori dei confini, promuovendo
anche la composizione di una lista di siti che possa essere
reinvestita in una collaborazione con altri paesi che combatta e
limiti la diffusione di immagini di pratiche vergognose.
A settembre del 2009 era invece approdata alla Camera dei
Deputati un documentano che sembrava rispondere ad un
pericolo che nell’era di Internet appare molto più concreto che
in passato: il furto d’identità. I senatori Costa (Pdl) e Barbolini
(Pd) presentano la proposta di legge C2699 contro il suddetto
reato commesso sia tramite strumenti tradizionali (furto della
corrispondenza o dei documenti) sia attraverso la pirateria
informatica.
Infine, nella legge 94/2009, ultimo atto del “decreto sicurezza”
varato nello stesso anno, rischiava di finire l’emendamento 50-
bis proposto dall’onorevole Giuseppe D’Alia (Udc), con il
quale si intendeva reprimere l’utilizzo di Internet per
commettere reati di opinione come l’apologia di reato o
l’istigazione a delinquere, conferendo al ministero dell’Interno
il potere di imporre ai provider di rendere inaccessibili i
contenuti ritenuti illegittimi entro 24 ore, a pena di una multa
da 50 a 250 mila euro, e l'accusa di concorso in apologia o
istigazione al reato in via telematica sulla rete Internet,
imputazioni punite con il carcere [32]. "Repressione di attività
di apologia o istigazione a delinquere compiuta a mezzo
Internet" al comma 1 recitava: "Quando si procede per delitti di
istigazione a delinquere o a disobbedire alle leggi, ovvero per
delitti di apologia di reato, previsti dal codice penale o da altre
disposizioni penali, e sussistono concreti elementi che
consentano di ritenere che alcuno compia detta attività di
apologia o di istigazione in via telematica sulla rete Internet, il
Ministro dell'Interno, in seguito a comunicazione dell'autorità
giudiziaria, può disporre con proprio decreto l'interruzione

46
della attività indicata, ordinando ai fornitori di connettività alla
Rete Internet di utilizzare gli appositi strumenti di filtraggio
necessari a tal fine". L’emendamento, diventato art.60 nella
prima formulazione della legge, è stato poi stralciato in aprile,
a seguito di contro emendamenti che sottolineavano quale
potere arbitrario sui contenuti della Rete venisse attribuito
all’esecutivo, senza contare la velocità di circolazione dei
contenuti stessi e la loro potenzialità di essere rimbalzati
dovunque nel web. E se il senatore D’Alia giustifica la sua
proposta con la constatazione che “non vi è alcuno strumento
nell’ordinamento che consente intervento
immediato, qualora ovviamente si ravvisi un’ipotesi di reato,
cioè qualora la magistratura stia indagando, [...]” [33], cosa che
rende necessario che il ministro intervenga “con uno strumento
di natura squisitamente cautelare che serve a evitare che vi sia
una moltiplicazione di questi siti o di queste manifestazioni
illecite sulla rete”, altre voci gli fanno notare come la Polizia
Postale sia già dotata di determinati strumenti d’emergenza.
Ancora più gravi le pene previste dal disegno di legge del
senatore Raffaele Lauro (Pdl): reclusione da 3 a 12 anni, con
aggravante nel caso in cui il fatto sia commesso avvalendosi di
comunicazione telefonica o telematica (Internet e social
network) per chi istiga a commettere delitti contro la vita e
l’incolumità delle persone o ne fa apologia.
In ogni caso, per approfondire ulteriormente le questioni
sollevate in questo paragrafo dobbiamo aprire un’altra
“scheda”, per usare la terminologia dei browser.

Quale Editoria sul Web?

Internet sta uccidendo la stampa. E’ un po’ il ritornello che


negli ultimi anni accompagna lezioni, convegni e meeting sul

47
giornalismo. Io preferisco pensare, e per fortuna non sono il
solo, che Internet sta semplicemente cambiando il giornalismo,
come del resto tutti i media che sono nati dopo le rotative, e
che il cambiamento non va combattuto, ma assecondato [34].
In questo senso, bisogna chiarire il ruolo delle testate online.
Da valutare anche la posizione di chi fa informazione in
maniera “amatoriale”, di chi si cimenta in un blog (di
qualunque tipo e argomento), e il peso delle frasi scritte su
social network e simili. Ci ricollegheremo così anche ai
concetti di illecito e responsabilità già visti in precedenza. Al
centro del dibattito c’è come fare in modo che la ormai
abnorme quantità di informazione prodotta da attori e soggetti
diversi (testate tradizionali, attori statali e delegati, privati
cittadini e tanti altri) non sia un danno per il ruolo che
l’informazione deve rivestire per la difesa della democrazia,
ma ne diventi un potenziamento. Il tutto salvaguardando al
contempo la libertà di espressione e lo sviluppo della Rete
secondo le sue proprie caratteristiche. In più, da tenere in
considerazione il fatto che “Internet non è tanto una gigantesca
‘biblioteca universale’ o un’ ‘autostrada informativa’, come era
stato definita al momento del suo boom negli anni Novanta. Il
web è soprattutto uno smisurato luogo di chiacchiere, dove a
prevalere e ad avere successo sono gli strumenti che
favoriscono lo scambio sociale” [35].
Se mi è concessa una piccola digressione sul tema, molti autori
si sono soffermati sul pericolo che la perdita di luoghi di
informazione (giornali quotidiani in primis) con un brand
importante, un ampio bacino di lettori e un rilevante peso
sociale a scapito della marea di blog e siti di informazione
online (di tutti i tipi, approcci e “ragioni sociali”) possa creare
un ambiente dove viene meno il ruolo professionale di
selezione e sistematizzazione delle informazioni, col pericolo

48
che rimbalzino sulla Rete, al fianco di notizie veritiere e
contenuti di battaglie sociali che grazie alla Rete stessa
possono essere combattute, anche vere e proprie menzogne e
inesattezze difficilmente controllabili [36]. Inoltre, viene
agitato, non a torto, lo spauracchio di una società dove vengono
meno organi di informazione che creano attorno a loro grandi,
seppur eterogenei, aggregati comunitari. Il tutto a vantaggio di
un nutritissimo insieme di nicchie sempre più settarie i cui
membri decidono di sottrarsi a tutti quei flussi che non
considerano coerenti col loro modo di percepire fatti e
opinioni, uscendo sempre più rafforzati nelle loro visioni del
mondo e quindi anche più intolleranti nei confronti delle altre.
Lo stesso Obama riconosce questa dualità del mezzo: da un
lato, come vedremo nel quarto capitolo, ne sfrutta il potenziale
e prova incentivarne il “lato buono”; dall’altro, mette in
guardia sui pericoli, quando afferma che non si può lasciare il
compito di informare l’opinione pubblica “integralmente alla
blogsfera [...] serve un puntiglioso controllo dei fatti e la
capacità professionale di inserirli nel giusto contesto.
Altrimenti tutto quello che rimarrà saranno persone che gridano
una contro l’altra nel vuoto, senza un vero sforzo di mutua
comprensione” [37].
Dunque la transizione dal cartaceo al digitale deve essere
gestita in modo che non si perdano per strada quei soggetti
editoriali che oltre ad avere più mezzi, più professionalità e più
credibilità della stragrande maggioranza dei blogger e simili
(che per la gran parte riutilizzano il lavoro dei professionisti
per fare il proprio), contribuiscono alla creazione di quello che
fino a pochi anni fa era, oltre al watchdog, il centro attorno al
quale si creavano virtuali comunità dei lettori e veicolo di
grandi movimenti di opinione, strumento per approfondimenti
e riflessioni critiche, mezzo di analisi della realtà che si vive e

49
orientamento in essa. E’ dunque dall’incontro e commistione,
non dall’esito di un’eventuale lotta, di vecchi e nuovi
protagonisti, caratteristiche e logiche dell’informazione (ma il
discorso vale per i media in generale) che si libererà il reale
“potenziale emancipatore” dei nuovi media, mutuando le
parole del sociologo tedesco Hans Magnus Henzesberger [38];
non un tramonto del giornalismo a beneficio di
un’informazione 2.0, ma il mondo del giornalismo che fa suo
l’apporto che l’informazione 2.0 può dargli, con tutti gli
adattamenti sia tecnologici sia in merito alle possibilità di
partecipazione dei cittadini (vedi il citizen journalism) ad una
macchina che si muove comunque in maniera professionale e
vede così potenziata la sua forza per la difesa e la compiutezza
della democrazia, com’è nel suo ruolo. Ad esempio, quest'anno
una giornalista della testata online ProPublica, Sheri Fink, ha
vinto il Premio Pulitzer con una inchiesta pubblicata dal New
York Timesma finanziata dai lettori. Fondere quindi la
credibilità e la qualità dei contenuti con le caratteristiche del
multimediale e della condivisione nella comunità degli utenti
della Rete, tenendo a freno quelle correnti pensiero che
teorizzano la fine dell’era del dialogo asimmetrico tra chi fa e
chi riceve informazione (un conto è parlare in maniera paritaria
di un problema sociale, un altro conto è volersi mettere, stando
a casa, sullo stesso livello di un inviato che sta facendo un
approfondimento da un contesto di guerra).
Intenti realizzabili, chissà, anche sfruttando manuali di editoria
online come quello che Yaooh! ha commercializzato nel luglio
2010; esso contiene indicazioni e consigli sull’intero processo
di pubblicazione di materiale giornalistico sul web, compresi i
temi del Search Engine Optimization e le tecniche per meglio
orientarsi nel giornalismo multimediale e cross mediale. Il
manuale di Yaooh! si pone in diretta concorrenza con quello

50
precedente dell’agenzia di stampa internazionale Associated
Press, e mette in luce come ora più che mai serva al giornalista,
nella messa a punto del prodotto informativo, anche una buona
dose di gusto estetico.
E poi, c’è il fondamentale punto di vista economico. Abbiamo
visto in precedenza alcune proposte degli editori volte a far
cassa in un settore che si prepara ad un’ormai non
procrastinabile ristrutturazione e conversione del modello di
business per tararlo sull’economia digitale; modello che molto
probabilmente, terminata questa fase di transizione ibrida,
vedrà affermarsi la convivenza di contenuti gratuiti con quelli a
pagamento (a loro volta acquistabili in forme multimodali),
presenza di gruppi no-profit che si reggono su filantropi o
micro donazioni degli utenti stessi, e tutte le combinazioni che
la Rete contempla. I danni causati dalle violazioni di copyright
diventano così centrali anche nel mondo dell’editoria, e a chi
pensa che la crisi dei grandi gruppi a vantaggio del cyberspazio
sia foriero di frutti solo dolci, va ricordato che sfruttare le
potenzialità di libertà informative di Internet deve andare di
pari passo col pensare che “nel nuovo ecosistema, i giovani
pesciolini multicolori dei blog, gli squali di Google, i banchi di
sardine delle reti sociali, convivono con le balene e altre razze
a rischio di estinzione (la stampa tradizionale) solo grazie al
plancton. E il plancton delle notizie costa. Se chi lo produce
fallisce, il mare rischia di morire” [39]. Dal punto di vista
economico, difficilmente tanti piccoli spazi riusciranno a
incamerare un volume di traffico che gli permetterà di
mantenersi in vita e prosperare, a differenza di brand più
riconosciuti, che avranno un vantaggio anche nel convincere i
lettori online a pagare: l’utente dovrà percepire un valore per
essere disposto a tirare fuori soldi, e in questo sicuramente
saranno le testate con tradizioni e professionalità forti a guidare

51
il carro dei contenuti giornalistici online. La pensa così anche
Chris Anderson, che in un’intervista rilasciata al Corriere della
Sera [40] afferma: “Non è chiaro ancora con quale equilibri
avverrà la divisione tra gratis e a pagamento, con quali
meccanismi e a che prezzi, e di sicuro all’inizio ci sarà, e c’è
già per chi ha optato per i varchi d’accesso (vedi Murdoch e il
Times), resistenza, soprattutto culturale, da parte degli utenti
che andranno convinti del fatto che pagare non significa tradire
lo spirito della Rete; credo però che questa soluzione possa
funzionare per testate di spicco, non per tutte”. Queste sono
comunque previsioni, e dunque, come tutte quelle sull’universo
dei media, sono esposte a smentita dai fatti.
Ma vediamo adesso come leggi e sentenze provano a
rispondere al quesito che da il titolo al paragrafo. Partiamo con
un episodio curioso riguardante la registrazione delle testate
online: le norme contenute nella finanziaria del dicembre 2000
inserivano le testate online tra quelle aventi diritto ai
finanziamenti statali, se non fosse che venivano indicate
fantomatiche “tirature” da raggiungere (tirature sul web!) e non
si specificava come si potesse venire incontro alle norme della
legge fascista 347 del 1939, che prevede la consegna di 4 copie
“alla Prefettura della Provincia nella quale ha sede l'officina
grafica ed un esemplare alla locale Procura della Repubblica”
per ogni numero “stampato”.
Il 27 dicembre 2006 è invece l’allora Sottosegretario alla
Presidenza del Consiglio Riccardo Franco Levi a presentare
alla Camera dei deputati il disegno di legge “Nuova disciplina
dell’editoria e delega al Governo per l’emanazione di un testo
unico per il riordino della legislazione nel settore editoriale”. Il
ddl viene approvato dal Consiglio dei Ministri il 12 ottobre
2007 prendendo il nome di Levi-Prodi, ma il cambio di
governo prima e le polemiche poi ne comprometteranno il

52
cammino verso la Gazzetta Ufficiale. L’obiettivo era quello di
riorganizzare l’intera disciplina dell’editoria, alla luce delle
sopraggiunte evoluzioni tecnologiche e cominciando così dalle
definizioni, come quelle di prodotto editoriale e attività
editoriale in Italia ferme alla legge n.62 del 7 marzo 2001,
quella che modifica le precedenti disposizioni sull’editoria
includendo le testate telematiche tra quelle che sottoposte ad
onori e oneri del caso, lasciando aperte tutte le questioni sulla
posizione dei blog: sono essi prodotti editoriali? E qual è la
posizione di un blogger di fronte alla legge? La legge fu
comunque nominata “ammazza blog”:“Nuova disciplina del
settore dell'editoria”, all'art.8 prevedeva infatti “l'iscrizione nel
Registro degli operatori di comunicazione dei soggetti che
svolgono attività editoriale sulla Rete Internet, anche ai fini
dell'applicazione delle norme sulla stampa”; il Times il 24
ottobre 2007 con un articolo firmato da Nenrnhard Warner
arrivò a definire la legge “un attacco geriatrico ai blogger
italiani”; lo stesso Levi capendo l'errore aggiungeva un comma
che escludeva dalla registrazione “i soggetti che oprano sulla
Rete Internet o che operano sulla stessa in forme o con
prodotti, quali i siti personali o a uso collettivo, che non
costituiscono il frutto di un'organizzazione imprenditoriale del
lavoro”; formulazioni comunque generiche foriere di
incomprensioni e nel peggiore dei casi arbitrarie
interpretazioni, cercando di riportare internet e ogni suo
fenomeno sotto l'ombrello unico dei media a stampa, regolati
da una legge scritta nel 1948 [41].
Il tutto mentre arrivava un’ordinanza del Tribunale di Latina
del 7 giugno 2001 che ai sensi dell’art.1 della legge 62/2001
considerava un sito prodotto editoriale e per questo regolato
alla legge sulla stampa 47/48, ricalcando un’analoga decisione
di marzo del Tribunale di Salerno.

53
Due anni dopo il decreto 70 del 2003 all’art.7 chiarisce
finalmente che la registrazione della testata editoriale
telematica è facoltativa ed è finalizzata semplicemente
all’ottenimento del finanziamento statale. La legge
italiana dunque, espressamente, non estende l’interno sistema
di responsabilità delle testate giornalistica a tutte le espressioni
sul web. La differenziazione va attuata tra esplicita attività
editoriale in Rete e generica manifestazione del diritto di parola
ed espressione del pensiero, il che coinvolge siti (blog su tutti)
non registrati come testate e ogni manifestazione su siti come,
ad esempio, i social network.
Del novembre 2008 è invece il progetto di legge del pidiellino
Roberto Cassinelli, mirato anche alla digitalizzazione e
condivisione dei materiali contenuti nelle biblioteche nonché
alla valorizzazione, udite udite, degli User Generated Content, i
contenuti telematici creati dagli utenti, vera e propria linfa del
dilagante Web 2.0. In antitesi al progetto di Levi, questa legge
verrà nominata “Salvablog”, e non a caso Cassinelli è tra i
fondatori dell'"Intergruppo Parlamentare 2.0", un gruppo di
deputati e senatori di ogni schieramento politico che ha per
finalità la promozione delle politiche dell'innovazione
all'interno del Parlamento italiano e che dialoga direttamente
con gli internauti tramite il blog
camere2punto0.wordpress.com. Proprio un emendamento
proposto da Cassinelli è alla base dello stralcio del sopra
menzionato emendamento D’Alia.
Nel 2008 è ancora un volto Tv prestato alla politica a prendere
iniziativa: l’onorevole Gabriella Carlucci presenta un progetto
di legge [42] il cui intento è quello di istituire il divieto di
immissione in Rete di contenuti in forma anonima, estendendo
congiuntamente ad Internet tutte le norme in materia di
diffamazione vigenti per la stampa, senza eccezioni.

54
All'articolo 1 si afferma che “è fatto divieto di effettuare o
agevolare l'immissione nella rete di contenuti in qualsiasi
forma (testuale, sonora, audiovisiva e informatica, ivi comprese
le banche dati) in maniera anonima”.
Si prevede poi l’istituzione di un Comitato per la tutela della
legalità di Internet, il cui ruolo non viene ulteriormente
chiarito. Ma la legge prevede oltre al divieto di immissione di
contenuti anonimi anche l’ “agevolazione”, lasciando
imprecisato se di questo reato verrebbe imputati i fornitori di
hosting o anche i provider, ancora una volta al centro delle
discussioni sul controllo dei contenuti. Innanzitutto
distinguiamo tra l’anonimato nella più ampia accezione e il
cosiddetto “anonimato protetto”, dove l’utente si esprime in
Rete con pseudonimo (nickname) ma è registrato alla
piattaforma che glielo permette con i propri dati. Non
essendoci norme che obbligano le suddette piattaforme a tale
registrazione (sono le autorità ad essere tenute a risalire
all’identità degli utenti che commettono reati online), questa
pratica deriva dalle sole esigenze commerciali di chi fornisce
servizi online di poter identificare i propri clienti (come nei
servizi dove serve usare carte di credito o per quelli dove
bisogna essere maggiorenni). Il che corrisponde praticamente
alla quasi totalità dei casi; incrociando i dati presenti nei
database di chi fornisce il servizio con i file di log dei provider
e le e-mail lasciate al momento della registrazione, gli utenti,
qualora ce ne fosse bisogno, sono già rintracciabili da parte
della magistratura. Certo, esistono anche casi di mail
temporanee create appositamente per commettere reati sul web,
ma questo non può tradursi nel considerare corresponsabile dei
suddetti reati chi fornisce il servizio stesso. In realtà si scopre
pochi giorni dopo che il documento con la proposta di legge
messo sul sito della stessa Carlucci porta ancora con sé la

55
proprietà del file d'origine, che è stato creato da Davide Rossi,
presidente della Univideo, Unione italiana editoria audiovisiva.
In poche parole, l'associazione di categoria confindustriale a
cui sono iscritte le aziende che producono e distribuiscono dvd
e altri supporti per l'home entertainment. Dunque la legge
sembra più che altro un ennesimo tentativo di bloccare il p2p,
con la politica a totale servizio delle lobby (fino al punto di
farsi mero altoparlante e messaggero di leggi scritte dai
protagonisti delle lobby stesse).
Un punto ancor più preoccupante è il terzo comma, il quale
recita : ”Per quanto riguarda i reati di diffamazione si
applicano, senza alcuna eccezione, tutte le norme relative alla
Stampa. Qualora insormontabili problemi tecnici rendano
impossibile l’applicazione di determinate misure, in particolare
relativamente al diritto di replica, il Comitato per la tutela della
legalità nella rete Internet (di cui al successivo articolo 3 della
presente legge) potrà essere incaricato dalla Magistratura
competente di valutare caso per caso quali misure possano
essere attuate per dare comunque attuazione a quanto previsto
dalle norme vigenti”. Dunque ogni sito e piattaforma Internet è
sottoposto al dovere di rettifica? E siamo sicuri di poter
applicare un reato come l’omesso controllo da parte di un
direttore (art.57 c.p.) ad un sito che non è una testata
telematica, come può esserlo un blog? Il tribunale di Aosta
sembra pensarla così, dato che nel maggio 2006 ha ritenuto
colpevole un blogger (che si chiama curiosamente Roberto
Mancini ma che non è l’ex allenatore dell’Inter) di non aver
cancellato dei contenuti diffamatori immessi da terzi sul suo
spazio web. Sentenza ribaltata nell’aprile 2010, quando la terza
sezione della Corte di Appello di Torino
confermava le sanzioni per Mancini, ma solo per gli scritti
pubblicati a suo nome; i contenuti non immessi da Mancini (in

56
sostanza, i commenti) sono invece da considerarsi anonimi e se
alcuni di essi presentano contenuto diffamatorio non si può
comunque imputare al proprietario del blog il reato di omesso
controllo. La posizione di un blogger non può dunque essere
equiparata a quella di un direttore di testata, ma proprio nelle
ultime settimane il quadro si è ancor più complicato, con la
Corte di Cassazione a stabilire che l’art.57 del codice penale
non può applicarsi a nessun genere di testata telematica,
essendo le sue disposizioni previste solo per la carta stampata.
Dunque, niente condanna per omesso controllo neanche per il
direttore della testata Merate online, che era stato condannato
dalla Corte d’Appello di Milano per aver pubblicato una lettera
con contenuti ritenuti diffamatori verso il leghista Roberto
Castelli. Il problema dell’applicabilità del reato di omesso
controllo al di fuori delle rotative si pose a suo tempo con la
radiotelevisione, e in quel caso fu un intervento legislativo a
sbrogliare la matassa, dinamica che sembra destinata a doversi
ripetere anche per la Rete.
Allargando per un attimo la visuale su tutto il web, quello che
viene da domandarsi, alla luce del fatto che i reati commessi su
Internet vengono già puniti, è se Internet abbia davvero
bisogno di nuove leggi, soprattutto di quelle scritte sotto la
guida di un’ideologia repressiva o susseguenti a pressioni,
dirette e indirette, da parte di lobby e interessi economici. O
politici. In questo senso va probabilmente letto “Norme in
materia di intercettazioni telefoniche, telematiche ambientali”,
il disegno di legge 1415 firmato dal ministro della Giustizia
Angelino Alfano (lo riprenderemo anche più avanti), il cui
comma 29 dell’art.1 prevede che la disciplina in materia di
obbligo di rettifica prevista nella vecchia legge sulla stampa del
1948 si applichi anche ai "i siti informatici, ivi compresi i
giornali quotidiani e periodici diffusi per via telematica".

57
Innanzitutto la terminologia: perché il generico “siti
informatici” e non un più comprensibile testate
telematiche[43] ? Con questa formulazione, Blogger e gestori
di piattaforme di user generated content, quando la legge sarà
entrata nel nostro ordinamento, dovranno provvedere a dar
corso ad ogni richiesta di rettifica ricevuta, entro 48 ore, pena
una multa che può arrivare a 12 mila e cinquecento euro. Tra le
righe sembra emergere un intento intimidatorio e la volontà di
creare un deterrente per chi in maniera amatoriale fa
informazione libera online. Senza contare che per chi vuole una
rettifica interagire col gestore di un sito è già fattibile senza
oneri burocratici che passano dalla leggi del Palazzo. Respinte
nelle sedute successive le proposte di emendamento come
quella dell’onorevole Cassinelli che prevedeva invece
l’introduzione della definizione “pagine sulla rete” al posto di
“siti informatici”, non cancellando l’obbligo di rettifica ma
allargando in tempo a 7 giorni per blog e simili e solo per le
testate registrate come tali. Cassinelli motiva così la sua
proposta : "Una redazione professionale ha sempre la
possibilità di intervenire sulle proprie pagine mentre un blogger
potrebbe essere in vacanza lontano dal PC" [44]. Un ulteriore
aggiustamento mirava a portare il termine dei giorni a 10 e
cambiava ancora le definizioni: non più “pagine” ma
“contenuti pubblicati sulla Rete Internet”. Da rivedere al
ribasso ci sarebbero anche le sanzioni per chi fa informazione a
livello amatoriale, ma l’intransigenza dei promotori della legge
faceva sì che determinate proposte venissero ignorate, pur
scontando una generica disponibilità dell’on. Giulia Bongiorno
a tenerle in considerazione futura durante le discussioni di
settembre. In realtà l’unica buona notizia in questo senso è il
fatto che il percorso della “legge bavaglio” si è interrotto di
fronte alla crisi della maggioranza, ma non è escluso che ritorni

58
in primo piano.
Ribadisco che le leggi che riguardano reati perseguibili offline
in merito a diffamazione, calunnia e apologia o istigazione al
reato sono applicabili, nella stragrande maggioranza dei casi,
anche al web; ci sono però i soliti punti critici dati dalle
sfumature dell’utilizzo del mezzo. Un esempio paradigmatico è
il polverone seguito all’aggressione subita da Silvio Berlusconi
a Piazza Duomo da parte di Massimo Tartaglia. Nell’era di
Facebook, i commenti all’episodio assumono varie fattispecie:
se ne parlo in privato con amico dicendo che hanno fatto bene a
ferire Berlusconi, sto esprimendo un’opinione che può anche
essere di cattivo gusto, ma non rappresenta comunque un reato;
se scrivo la stessa cosa su un social network in un gruppo
chiuso, la situazione è concettualmente simile, anche se le
dimensioni in gioco sono già diverse; ma se il gruppo è aperto,
o lo scrivo sulla mia bacheca o quella di una amico, se cioè i
contenuti sono visibili da altri anche senza un’iscrizione e
un’accettazione reciproca, allora siamo in una situazione simile
alla divulgazione a mezzo stampa, o comunque in un luogo
pubblico come una piazza, di frasi contenenti reati come
l’apologia di reato o l’istigazione a delinquere, e la
magistratura viene chiamata in causa per decidere della
limitazione alla circolazione di determinati contenuti e
dell’eventuale sanzione per chi li ha immessi. Dunque, più
casistiche per un unico mezzo. Inoltre, “I messaggi scambiati
in Rete – osserva Marco Orofino, professore di Informazione e
Costituzione all’Università Statale di Milano – possono essere
collegati all’articolo 21 della Costituzione che riguarda le
comunicazioni al pubblico oppure all’articolo 15 collegato alla
libertà di corrispondenza; e nel secondo caso le possibilità di
intervento sono molto più limitate”[45]. Libertà e
segretezza della corrispondenza che

59
dovrebbe mettere al riparo da denunce per diffamazione per
opinioni scambiate tramite e-mail, ma nel giugno 2010
l’assessore regionale del Pd Mario Di Carlo è stato condannato
insieme ad altri (tra cui la giornalista Barbara Palombelli) in
primo grado per aver diffamato il sindaco di Roma Gianni
Alemanno in merito alla vicenda dello stupro avvenuto il 16
aprile 2008 a La Storta ai danni di una ragazza del Lesotho. Le
e-mail che Di Carlo aveva scambiato con i suoi colleghi erano
finite su Dagospia, il blog di Roberto D’Agostino (la cui
posizione è stata stralciata nel processo), facendo scattare la
denuncia. “La sentenza stabilisce di fatto che una
conversazione privata tra amici nella quale si sottolineavano le
strane coincidenza del caso e’ penalmente rilevante tanto da
portare ad una condanna. E’ un principio aberrante – sottolinea
Di Carlo – perché mette in discussione le fondamenta stesse
dello Stato di diritto in Italia. In base a questo sentenza infatti
da oggi sarebbe penalmente perseguibile qualunque
discussione al bar, perché di questo si trattava, con la sola
differenza che il bar era internet, e le chiacchiere erano e-mail.
Praticamente siamo tornati ai tempi dei manifesti che dicevano
‘Taci il nemico ti ascolta’. E’ un precedente gravissimo e
dunque ricorrerò in appello. Esprimere opinioni via web , per
quanto discutibili, non può essere reato altrimenti lo e’
qualunque discussione in ogni dove”[46].
Tuttavia, risulta come l’onere sia quello di valutare le suddette
casistiche alla luce di leggi esistenti, non quello di farne di
nuove. Esempi?
A marzo 2010 arrivava dal Tribunale di Monza una sentenza
che condanna un utente di Facebook: un uomo pubblica sulla
bacheca di una donna il seguente messaggio:” “Senti brutta
troia strabica che nn sei altro... T consiglio di smetterla. Nn
voglio fare il cattivo sputtanandoti nella tua sfera sociale dove

60
le persone t stimano (facebook, myspaces, ecc.). Purtroppo nn
siamo Tommy Vee o Filippo Nardi ...quindi nn appetibili
sessualmente per te. T consiglio di caricare le foto ove la
frangia nn t nasconde il litigio continuo dei tuoi occhi e nello
stesso tempo il numero di un bravo psichiatra che può
prescriverti al più presto possibile, pastigle rettali da cavallo
con funzione antidepressiva (se t piaceva il dito nn mi
immagino il farmaco). Con queste affermazioni, vere, chiedo di
eclissarti e di smetterla di ossessionarmi come il tuo grande
idolo e modello comportamentale... Mentos! Ah... Tutti i miei
orgasmi erano finti ... =) ihoho”. Il giudice unico Piero Calabrò
lo condanna a 15000 euro di multa più il pagamento delle spese
processuali per ingiuria (art.594 c.p.) e diffamazione(art.505
c.p.). Il giudice emette la sentenza “alla luce del cennato
carattere pubblico del contesto che ebbe a ospitare il messaggio
de quo, della sua conoscenza da parte di più persone e della
possibile sua incontrollata diffusione a seguito di tagging.
Elemento, quest’ultimo, idoneo ad ulteriormente qualificare la
potenzialità lesiva del fatto illecito, in uno con i documentati
problemi di natura fisica ed estetica sofferti” dalla parte lesa.
Le potenzialità di Facebook (e della Rete in generale) di
diffusione virale di contenuti sembrano diventare
un’aggravante del reato. Le frasi scritte sui social network
pesano anche in Inghilterra: questa volta al centro della bufera
è stato Twitter; sul sito di microblogging il 6 gennaio 2010 un
ragazzo britannico ha postato la seguente frase: “Merda!
L’aeroporto Robin Hood è chiuso. Vi do poco più di una
settimana per sistemare tutto o faccio saltare l’aeroporto per
aria!”. Il suddetto aeroporto, nel South Yorkshire, era stato
chiuso per i disagi provocati dal maltempo, e il personale aveva
intercettato la frase interpellando le forze dell’ordine. Il
risultato, nonostante l’accertata infondatezza delle minacce, è

61
stata una condanna al pagamento di 1000 sterline e una bella
macchia sulla fedina penale del giovane che per l’episodio ha
già perso il suo lavoro di consulente finanziario. Anche
insultare i carabinieri che ti fanno una multa può essere materia
d’accusa: è quanto successo nel giugno 2010 ad un
diciannovenne di Montecatini Terme, che dopo essere stato
fermato e sanzionato perché non indossava le cinture di
sicurezza dalle locali forze dell’ordine, ha commentato al cosa
su Facebook con termini pesanti al punto si essere stato
denunciato per oltraggio, minaccia e diffamazione ai pubblici
ufficiali [47].
Diffamazione e istigazione al reato è invece l’accusa con la
quale la polizia postale di Palermo ha incriminato due fratelli
del nord Italia nel luglio 2010; i due avevano creato sul social
network di Zuckerberg un gruppo che dipingeva i magistrati
Giovanni Falcone e Paolo Borsellino come “falsi eroi” e li
sbeffeggiava con fotomontaggi e frasi offensive. Già nelle ore
successive alla comparsa del gruppo se ne era creato uno
contrapposto con 20000 iscritti, ma è stata fondamentale la
collaborazione di Facebook che ha messo a disposizione tutti i
dati ubicati sui suoi server californiani.Di evasione fiscale e
dichiarazione del falso è invece stata accusata una donna
inglese che aveva caricato delle foto su Facebook che
palesavano un reddito non in linea né con quello dichiarato nel
2009 né con le richieste di benefit presentate (ed ottenute) al
governo di Londra. La condanna? Centoventi giorni di carcere
e pagamento di tutte le tasse evase. Solo un anno prima era
stato condannato in Inghilterra un 36enne falso single scoperto
sposato da un messaggio circolato sul social in blu.
A mio avviso, andrebbe predisposta più che altro una
campagna d’informazione per far capire ai giovani che spesso
condividere link sul sito di social network non è una pratica

62
che rende tutto innocuo e divertente; penso a contenuti come
“spariamo a Gigi D’Alessio”: se il cantante accusasse di
istigazione al reato i responsabili, probabilmente avrebbe
ragione in tribunale. E di cose così su Facebook se ne vedono a
bizzeffe, essendo il regno dell’estremo e dell’estremizzazione,
di toni accessi e apocalittici che sicuramente i proprietari
dell’account non userebbero se al posto della foto del profilo a
parlare fosse la loro faccia in carne ed ossa [48]. Ma Facebook
non ha natura editoriale, e Zuckerberg (e citando lui
ovviamente parlo di tutti i gestori del sito) non possono essere
considerati responsabili di un reato come l’omesso controllo.
Riprendendo le fila del discorso sulla legislazione italiana, lo
stesso ministro dell’Interno Maroni, intervenendo sul “caso
Tartaglia”, ha dichiarato che “non c'è nessuna intenzione di fare
leggi speciali per il web e non c'è nessuna intenzione di
introdurre altri reati”[49], pur essendo impegnato in quei giorni
su un disegno di legge per la rimozione di contenuti illegittimi
dal web che un governo a forte vocazione populista come il
nostro non poteva non mettere a punto visto il movimento
d’opinione che si è sollevato all’indomani dell’aggressione in
merito ai gruppi pro-Tartaglia su Facebook. In ogni caso,
l’obiettivo dichiarato è quello di dotare la magistratura di
strumenti rapidi per imporre la rimozione in poche ore di
contenuti ai gestori (ancora una volta).
La posizione del “le leggi ci sono già” è condivisa anche dal
presidente della Camera Gianfranco Fini quando afferma di
credere “che non ci sia necessità nella nostra legislazione di
norme aggiuntive, c'è semmai la necessità della corretta
applicazione delle norme esistenti” [50].
Più controversa appare l’approvazione che lo stesso ministro
dell’Interno esprimeva per eventuali codici di autodisciplina
per siti e operatori del web in un’ottica di collaborazione con

63
l’autorità; il 12 maggio 2010 ha proposto, insieme al
sottosegretario alle Comunicazioni Paolo Romani, il “Codice di
autodisciplina a tutela della dignità della persona sulla rete
Internet”. In sostanza, gli operatori del web (dagli ISP ai
content provider fino agli host provider) si impegnano ad
aderire al progetto “Internet mi fido” e ad applicare un bollino
di garanzia sulle home page dei siti che certifichino come i
contenuti di quel sito siano tutti nel pieno rispetto della dignità
e delle libertà delle persone. Detto così sembra niente male. Ma
questo codice in realtà è poco “auto”: infatti, la bozza
definitiva si presenta come un’imposizione preventiva e
dall’alto agli operatori del web da parte di ministeri. E quello
che contiene sembra essere ancora peggio: si cerca
sostanzialmente, di nuovo, di responsabilizzare gli ISP
(denominati Access Provider) a ricercare e rimuovere i
contenuti illeciti, comunicarlo agli utenti (modalità di protesta
incluse) e alla magistratura. Il compito è esteso anche ai
fornitori di contenuti (quindi Google, Facebook, ecc.), e il tutto
sembra prendere la preoccupante forma di una censura e
filtraggio preventivi, mentre rimane irrisolto il problema di chi
poi decida, all’interno del mondo degli operatori del web, cosa
sia illecito. Punto fondamentale, visto che i contenuti immessi
dagli utenti (anche quelli illeciti) rappresentano una
manifestazione dell’esercizio di libertà di
pensiero, costituzionalmente garantita, e che a decidere
della limitazione di una tanto grande libertà non siano organi
come la Magistratura o il Parlamento ma soggetti economici
sarebbe davvero preoccupante (in pratica sarebbe legittimato su
larga scala la già citata censura operata da Facebook su alcuni
contenuti). Che poi sono gli stessi problemi emersi nell’affare
Telecom vs Fapav: la Federazione Italiana Antipirateria
Audiovisiva ha riferito di aver accertato che centinaia di

64
migliaia di utenti Telecom tra il settembre 2008 ed il marzo
2009 avevano effettuato 2 milioni e 200mila accessi ad un
gruppo di siti che si sono macchiati del reato di distribuzione
abusiva di materiale protetto da diritto d’autore. Richiedeva
così al tribunale di Roma di intimare a Telecom di inibire
l’accesso ai suddetti siti e di fornire il materiale che possa
essere utile alla repressione del reato.
Emerge una sorta di “investigazione privata” condotta dalla
società specializzata CopeerRight Agency su
commissione della FAPAV, che solleva non pochi
interrogativi sulla tutela dei dati personali degli utenti e sulla
liceità di tali azioni investigative da parte di privati. Il tribunale
sanciva come la natura aggregata dei dati raccolti dalla
Federazione non permetteva l’identificazione dei singoli utenti,
sottolineando come non abbia così trattato in alcun modo quelli
che sono dati protetti dalle norme sulla privacy. Il tutto lascia
comunque FAPAV con la bocca asciutta: l'unica sede
nell'ambito della quale si può domandare ad un giudice di
ordinare ad un intermediario di adottare simili provvedimenti è
l'eventuale procedimento volto all'accertamento degli illeciti
denunciati nei confronti dei loro autori. Anche questo, nel
provvedimento, il Giudice lo scrive a chiare lettere: "tali
provvedimenti per la natura delle violazioni che sono diretti a
prevenire o a reprimere sono da ritenere di competenza
dell'autorità giudiziaria investita dell'accertamento delle
stesse".
E anche in merito al caso Viacom vs Google sembra emergere
come negli USA non basti neanche che il gestore del servizio
venga a conoscenza dell’illecito per essere considerato
punibile; esso deve aver ricevuto un ordinanza di rimozione da
un tribunale per non rimettere, ancora, in mano ad un soggetto
privato la decisione in merito ad una manifestazione della

65
libertà d’espressione che è il caricamento di un video online
giustificabile solo da un illecito, che può essere deciso solo da
un organo come la magistratura. In più, e qui ci si discosta
dalle conclusioni a cui si giunge nel nostro Paese, il fatto che il
gestore del sito tragga profitto dalla pratica e che contribuisca
con i suoi servizi software all’indicizzazione e organizzazione
del materiale caricato non aggrava la sua posizione. E’ un’altra
tessera da inserire nel mosaico della responsabilità.
Dunque, difficile che quegli operatori del web aderiscano al
Codice di Romani e Maroni, tanto che alla riunione del 12
maggio 2010 mancava, tra gli altri, un rappresentante di
Facebook, che in Italia raccoglie 16 milioni di account, uno
ogni due connessioni presenti sul territorio.
Torniamo al già citato “disegno di legge sulle intercettazioni di
Alfano in materia di intercettazioni. Oltre alla norma sulla
rettifica, lascia sbigottiti il tentativo di censura preventiva
imposto alla libera informazione con la norma che vieterebbe
la pubblicazione di notizie (non solo delle intercettazioni o del
materiale giudiziario) riguardanti procedimenti giudiziari non
più coperti da segreto fino alla fine dell’udienza preliminare.
Il che può significare anche attesa di mesi o anni. Non è questa
la sede per approfondire la materia; ma è facile immaginare
quanto la Rete possa risultare utile per allertare un’opinione
pubblica alla quale i principali mezzi di informazione danno
notizie edulcorate, e anche il ruolo della stessa Rete nel
momento in cui un tanto censorio provvedimento dovesse
diventare legge dello stato; ad esempio, basterebbe linkare
notizie date da testate straniere su fatti che in Italia
diverrebbero non divulgabili, magari da siti i cui server
risiedono in Islanda, il cui Parlamento ha approvato, nel giugno
2010, una legge considerata capostipite della massima libertà
di giornalismo di inchiesta in Rete: nell’isola vengono così

66
protetti al massimo i materiali investigativi anonimamente
immessi sul web, tanto che i contenuti di questa legge stanno
facendo pensare di trasferire su server islandesi i propri servizi
a prestigiose testate come Der Spiegel e ABC News [51]. E
cosa può derivare dalla combinazione degli ultimi
provvedimenti del governo esposti in queste pagine prova a
spiegarlo, senza andare per il sottile, Vittorio Zambardino [52]:
“Si pensa a un elaborato sistema di controllo preventivo per
impedire alle opinioni delle persone, che siano espresse in
parole o in video o foto, arrivino proprio sul web. Sono misure
che si affiancano agli allarmi in caso di pagine “pericolose”
visitate dai minori e alla registrazione dei blog e siti che
pubblichino video su base anche solo periodica [...] Se non si
capisce che la premiata bavaglieria di governo confeziona
bavagli diversi per clienti diversi, facciamo un grave errore.”
Diverso il punto di vista del presidente del Senato Renato
Schifani, che nel dicembre 2009 esprimeva preoccupazione per
un clima che, a suo dire, rischiava di diventare peggiore di
quello degli anni ’70 proprio per le enormi potenzialità di
diffusione di idee e contenuti che concede Facebook; posizione
contestata all’interno dello stesso Pdl, con il deputato
Benedetto Della Vedova che afferma, sulla sua rivista online
Libertiamo.it, che “le preoccupazioni di Schifani riflettono una
realtà che non esiste, banalmente perché Facebook non è ciò
che Schifani pensa che sia. Ci sono tante parole sul web - si
legge nell'articolo - molte cose intelligenti e molte cose stupide,
ma sono sempre e soltanto parole, che tutti possono leggere e
che tutti possono segnalare alle autorità, se si ritiene che
rappresentino un'istigazione alla violenza o un'apologia di
reato. Dire che Facebook (non alcuni gruppi di Facebook, ma
proprio Facebook) è pericoloso significa sostenere che è
pericolosa la libertà di comunicare e scambiarsi idee. A ritenere

67
pericolosi i social network sono i regimi totalitari, non le
democrazie come la nostra” [53].
In ogni caso, il quadro che emerge sembra essere questo: non
tutto ciò che viaggia su internet deve essere considerato
equivalente alla stampa come tradizionalmente la conosciamo,
in merito alle responsabilità del direttore ed editoriali in senso
generale (come la registrazione della testata), viste anche le
varie intermediazioni che in Internet hanno senso e dinamiche
diverse rispetto all’offline (blog e social network hanno
funzionamenti particolari), a meno che non si tratti di testate
online così registrate. Altrimenti si rischia di imporre a tutto
l’universo del web ostacoli burocratici che ne ostacolerebbero
lo sviluppo. Per il resto, leggi come quelle rispetto a
diffamazione, calunnia, apologia di reato e istigazione possono
essere applicate, i responsabili perseguiti e le vittime risarcite
anche senza estendere a tutti i tipi di siti web le regole della
stampa. Il nostro governo invece tenta ripetutamente di imporre
regole che hanno una logica più censoria che regolatrice,
cercando peraltro di imporre difficoltà burocratiche ad un
ambiente che ha fatto della facilità e dell’immediatezza di
espressione cardini ormai imprescindibili del suo
funzionamento e sviluppo. Chiudo quindi con una
provocazione: a mio avviso andrebbe usata la rigorosità che
emerge nell’applicazione delle regole della stampa al web
anche all’applicazione delle garanzie previste a partire
dall’articolo 21 della nostra Costituzione; insomma,
l’impressione è che garantire la libertà d’espressione sul web
sia un tema che soccombe e venga dopo alla paura dei pericoli
che possono scaturire da un “eccesso” di libertà di parola su
Internet, la cui lotta sembra essere considerata prioritaria dal
legislatore rispetto alla difesa dei diritti di manifestazione del
pensiero. Ne sono dimostrazione provvedimenti come il

68
sequestro totale di un blog sul quale appare un post
diffamatorio. Casistica ripetutasi più volte negli ultimi anni;
l’ultimo caso, alla metà del 2010, ha visto il dr. Giancarlo
Mancusi, Pubblico Ministero in forza presso la Procura della
Repubblica di Bergamo, già protagonista del sequestro italiano
della Baia dei Pirati (vedi prossimo capitolo) predisporre la
disconnessione del blog www.il-giustiziere-
lafabbricadeimostri.blogspot.com di Stefano Zanetti. Rendere
inaccessibile un post diffamatorio non lascerebbe certo
sconcertati, tutt’altro. Ma le disposizioni del pm fanno sì, in
prima battuta, che tutti i provider rendano inaccessibili gli
indirizzi IP a cui fa riferimento il blog; rendendosi conto che
questo causerebbe l’oscuramento di tanti altri siti e servizi che
con il caso specifico non hanno nulla a che vedere, si ordina a
Google di oscurare il singolo blog, lasciando comunque
irraggiungibili centinaia di altri post e contenuti leciti. Come se
ad essere diffamatorio non fosse il singolo post ma l’intero
blog e si volesse mettere a tacere definitivamente il suo autore,
almeno fino alla sentenza sul caso.
Ultimo punto, il diritto all’oblio in Rete; nel 2009 l’onorevole
leghista Caterina Lussana presentava il progetto di legge
C2455, “Nuove disposizioni per la tutela del diritto all’oblio su
Internet in favore delle persone già sottoposte a indagini o
imputate in un processo penale”; in esso si prevede il
riconoscimento di questo particolare diritto anche su Internet ai
cittadini sottoposti a processo penale, ovvero la garanzia che,
decorso un certo lasso temporale, le informazioni (immagini e
dati) riguardanti i propri trascorsi giudiziari non siano più
direttamente attingibili da chiunque. La cancellazione dei dati
dal web è pratica molto poco diffusa e anche tecnologicamente
onerosa, il che rende la Rete un’insieme globale di
informazione che in essa restano a dispetto di una loro

69
eventuale inesattezza, falsità o mancanza di attualità. Obiettivo
legittimo della legge, e anche perseguibile in compatibilità con
gli archivi dei giornali, è far sì che con una semplice funzione
possono rendere gli articoli da “obliare” irraggiungibili dai
motori di ricerca ma comunque presenti in archivio. La
memoria del web, evocativa e non strutturata, non è dunque
sovrapponibile ad un archivio propriamente detto e di riflesso
neanche regolamentabile in maniera analoga (e più semplice).
Si pone in questo senso come spazio che richiede interventi ad
hoc per la garanzia del diritto all’oblio la cui storia è ancora da
scrivere, in direzione dell’adattamento delle norme esistenti
alla nuova realtà tecnologica, alla luce anche delle criticità
introdotte da realtà come, appunto, i motori di ricerca e la
viralità dei social network globali. Il diritto all’oblio esiste in
senso generale: al di là di passati e scontati reati giudiziari, qui
entrano in ballo anche le diffamazioni e le informazioni
assimilabili ad esse. Siamo infatti nell’ambito del diritto
all’identità personale, nel quale il diritto all’oblio è una
sottosezione. Così come il diritto alla riservatezza.

Questione di Privacy

In Internet si condivide di tutto, compreso un po’ di se stessi.


Ma gli internauti sono sempre consapevoli dei dati che
inseriscono in Rete, dell’uso che ne fanno gli altri e delle leggi
che potrebbero infrangere divulgando informazioni su terzi? In
Italia, è la legge 675 del 1996, chiamata “legge sulla privacy”
(ma è più appropriato “Tutela delle persone e di altri soggetti
rispetto al trattamento dei dati personali”) a disciplinare e
punire i reati relativi al trattamento e alla diffusione indebita di
dati sensibili altrui con qualunque mezzo. Nello specifico, si
intende come “trattamento” qualunque operazione o complesso

70
di operazioni svolti con o senza l’ausilio di mezzi elettronici o
comunque automatizzati, concernenti la raccolta, la
registrazione, l’organizzazione, la conservazione,
l’elaborazione, la modificazione, la selezione, l’estrazione, il
raffronto, l’utilizzo, l’interconnessione, il blocco, la
comunicazione, la diffusione, la cancellazione e la distruzione
di dati, e per “dato personale”, qualunque informazione relativa
a persona fisica, persona giuridica, ente o associazione,
identificati o identificabili, anche indirettamente, mediante
riferimento a qualsiasi altra informazione, ivi compreso un
numero di identificazione personale.
Sostanzialmente per la Rete valgono le norme volte a tutelare
la privacy anche offline, con lo scopo specifico che è dunque
quello di garantire l’autenticazione degli utenti della Rete
(evitando fraudolente sostituzioni di persona), la
confidenzialità delle informazioni (assicurando che solo
mittente e destinatario prendano cognizione di uno scambio di
messaggi) e l’integrità del dato (ciò che viene trasmesso deve
partire e arrivare allo stesso modo). Altri obiettivi sono:
impedire il disconoscimento della trasmissione (chi trasmette
non può dire di non averlo fatto così come chi riceve),
controllare gli accessi investendo su politiche organizzative e
di gestione delle password e monitorare il traffico della Rete
per segnalare indebite intrusioni.
Ma anche l’articolo 615 del Codice Penale punisce il reato di
“accesso abusivo ad un sistema telematico”, con il verificarsi
dello stesso nel momento in cui si accede e non nel caso di un
eventuale danno causato. Infatti, il solo accesso abusivo rende
d’obbligo una lunga serie di controlli per verificare
l’attendibilità dei dati e se essi non risultino danneggiati,
creando così un onere. La punibilità è però circoscritta solo ai
casi di accesso volontario. L’art.615 ter del c.p. concepisce

71
invece il Pc come espansione della personalità (una sorta di
stanza virtuale del proprio domicilio reale) e prefigura dunque
per l’indebita intromissione nell’apparecchio il reato omologo
alla violazione di domicilio. E non di semplici questioni di
password si tratta: l’autorità tutela l’utente ad un secondo
livello, come, per fare un esempio, la legge ci dice che non
possiamo entrare in casa d’altri anche se la porta è aperta. Il
tutto però tenendo in considerazione una cosa: Internet è
globale, e, soprattutto nel 1996, non era certo cosa facile
predisporre il controllo dei dati, tantomeno di quelli che
viaggiavano oltre frontiera (non certo residuali). Qualcuno
disse addirittura che applicando alla lettera le norme della 675
ad Internet, lo stesso avrebbe chiuso [54] .
La legge sulla privacy fu così sottoposta a critiche e revisioni
[55], fino ad arrivare al decreto legislativo 196 del 2003,
entrato in vigore il 1° gennaio 2004, che predispone l’adozione
di codici deontologici per quasi tutti i settori di applicazione
della legge, rimandando ai vari ordini la predisposizione di
autoregolamentazioni che si armonizzino alle norme della
675/96. Grandi polemiche aveva infatti destato l’apparente
confusione tra le regole che riguardavano dati raccolti e usati a
scopo commerciali e quelli utilizzati a fini giornalistici.
E’chiaramente compito arduo regolamentare l’utilizzo dei dati
personali in un ambiente che quasi naturalmente crea banche
dati sterminate; una prima differenziazione è però quella tra
banche dati create dalle aziende a scopo commerciale e banche
dati derivanti dall’utilizzo della rete per trattamenti in ambito
pubblico. Nel primo caso, è importante che chi figura nel
database ne sia a conoscenza e abbia dato preventivamente il
suo assenso, anche se purtroppo la realtà è diversa da questa
situazione ideale. Nel secondo caso, ciò che bisogna evitare è
uno scivolamento verso una schedatura di massa, contando

72
anche tutte le manovre che gli inquirenti di vario livello
compiono sui e nei sistemi di comunicazione per accertare reati
e individuare colpevoli. Un punto importante in materia di
Internet è l’utilizzo che le aziende fanno dei cookie. In teoria
essi, riferendosi ad un IP address garantiscono l’anonimato
perché riferibili ad una macchina e non ad una persona; ma in
pratica è stato fatto notare che bastano pochi e generici dati da
incrociare tra online e offline per risalire ad una persona fisica.
In più, la cancellazione di questi file dai pc non sempre risolve
il problema, come dimostrano i vari episodi di siti che
sfruttavano particolari tecnologie per riportarli in vita (non a
caso si parla di “cookie zombie”), pratica che emerge dalla
class action intentata negli USA contro gruppi quali BBC,
MTV e My Space. In più, spesso siamo inclini a dare le nostre
generalità con leggerezza non considerando che i titolari dei
servizi potranno così accedere anche alle nostre “abitudini di
navigazione”. Anche qui, nuove abitudini nascono e
proliferano in poche settimane creando imbarazzo per chi deve
garantire la privacy di utenti che quasi sempre ignorano i rischi
connessi a queste stesse abitudini, vedi le polemiche su tutto
ciò che viene diffuso tramite Facebook; polemiche che non
hanno risparmiato neanche il tasto “like” del social network in
blu : ad aprile 2010 il sito di Zuckerberg inaugurava questa
funzione che, inserita in altri siti, permette agli utenti di
Facebook di esprimere apprezzamento per il sito stesso
comunicandolo in tempo reale sul proprio profilo del social
network. Il tasto è già presente su importanti siti come quello
della CNN o del New York Times. Dunque un’ulteriore
espansione fuori dai propri confini per un sito che, caso unico,
è riuscito nel marzo 2010 a superare Google nel numero di
visite per un’intera settimana [56] . L’onnipresenza di
Facebook però rende anche più facile il lavoro di chi su

73
Internet compie illeciti intercettando proprio dati sensibili degli
utenti: i 500 milioni circa di profili caricati sul sito sono
un’appetibile preda per hackers come il russo Kirllos, che
rivende i dati d’accesso di profili altrui; i ricercatori del gruppo
VeriSign's iDefence hanno scoperto che Kirllos ha messo in
vendita su un forum in Rete 1,5 milioni di account di
Facebook. Gli acquirenti sarebbero altri hackers e cyber
criminali che sfruttano i profili, ad esempio, per inviare agli
amici dei proprietari inviti a siti e applicazioni che nascondono
insidie. Da qui l’invito che sempre più spesso si rivolge agli
internauti a cambiare con regolarità le password. Mentre
proprio Facebook a fine 2009 ha permesso ai suoi utenti di
modificare le impostazioni della privacy relative al proprio
profilo, così che i contenuti potessero essere resi visibili a
scelta a tutta la rete, solo ai propri amici, solo a un elenco di
amici o a nessuno all’infuori dell’utente stesso. Opzioni che
venivano però considerate “inaccettabili” dall’Associazione
Articolo 29 (che riunisce i Garanti della privacy europei),
perché di default le impostazioni caricate sono le più
permissive, risultando così visibili, per l’utente non informato,
i propri contenuti del profilo a tutti gli utenti di Facebook, a
differenza di quanto avveniva agli albori del sito. La denuncia
riguarda quindi il passaggio da una situazione di opt-in (l'utente
sceglie quali dati condividere e con chi) ad una di forte opt-out
(l'utente sceglie quali dati non condividere). Senza contare
l’accessibilità per l’utente medio alle informative in merito: il
New York Times ha calcolato che il testo delle policy in
materia di privacy del social network di Zuckerberg contiene
5830 parole, contro le 4543 della Costituzione degli Stati Uniti
d’America (problemi di lungaggini che affliggono anche la
sottoscrizione delle condizioni d’uso del sito e spesso portano a
contenziosi giudiziari dovuti all’ignoranza delle norme

74
sottoscritte da parte degli utenti). Non per insinuare, ma chi ha
predisposto il testo, se anche non lo ha fatto con precisa
intenzione ingannevole, ha sicuramente messo in conto che una
buona parte di lettori avrebbero bypassato la lettura delle
condizioni [57] che imponevano, tra l’altro, quasi 50 click
prima che tutte le informazioni riguardanti l’account vengano
sottratte al dominio pubblico. Zuckerberg ha ammesso di aver
sbagliato, ribadendo la buona fede del social network e la sua
naturale inflessione ad ascoltare commenti, proposte e critiche
dei suoi utenti. Veniva così varata una nuova versione, più
semplice, chiara e accessibile, della precedente.
Per chi pensa che questo sia un problema tutto sommato
secondario, l’invito è quello di dare un’occhiata allo studio
riportato dal Wall Street Journal [58] dal quale si evince come
Facebook, ma anche Twitter, Digg, MySpace e un po’ tutte le
piattaforme di “socialità in Rete” abbiano inviato
dettagliatissimi profili degli utenti alle aziende di pubblicità, tra
cui Google Double Click e Yahoo Right Media, senza che gli
stessi ne fossero consapevoli. Le aziende da parte loro si
difendono parlando di normali pratiche della Rete: se un utente
clicca su un banner, è normale che ci sia un feedback in termini
di URL di riferimento, che il passaggio di “identità” avviene
solo a livello di nome utente (ID number) e che le informazioni
sul proprietario dello stesso restano segrete o comunque non
vengono utilizzate. Anche qui, rassicurazioni e precisazioni
non fugano tutti i dubbi sui reali pericoli che la privacy corre in
Rete, e la soluzione non può passare solo per il buon senso
delle aziende (c’è sempre?) o per le leggi dello stato (sono
sempre efficaci?). L’utente deve essere informato (meglio
ancora: deve informarsi) sui rischi che corre e sul modo di
minimizzare le informazioni che immette in Rete, anche alla
luce di un’altra critica importante che si muove a Facebook:

75
l’impossibilità di cancellare definitivamente un account dopo
averlo creato. In merito arrivano anche proposte stravaganti,
come quella dell’artista americano Sean Dockray , che lancia il
suo Facebook Suicide Manifesto [59], dove sostanzialmente
propone all’utente di diventare una “macchina da click”, cioè
cliccare “mi piace” su ogni cosa e iscriversi a ogni gruppo. Le
motivazioni sono presto dette: “Ogni clic decompone il tuo io
virtuale creato per te da Facebook”, e l'invisibilità nelle reti
sociali nasce anche dal sovraccarico di informazioni. Più
importante appare invece il progetto di legge che in queste
settimane si trova al vaglio del Parlamento tedesco: in sostanza,
si vogliono predisporre norme che impediscano ai dirigenti
delle aziende di raccogliere informazioni sui dipendenti tramite
siti come Facebook, per utilizzarle poi come discrimine in
materia di assunzioni, promozioni e simili. Un altro aspetto dei
social network è infatti proprio quello della condivisione di
informazioni che potrebbero essere dannose in questo senso.
Da noi, invece, nel 2005 è Giuseppe Pisanu, ministro
dell’Interno dello stesso governo e di quello successivo, a
firmare un decreto (“Misure urgenti per il contrasto del
terrorismo internazionale”, convertito con legge 155/2005) che
nel quadro della lotta al terrorismo (era fresco lo sgomento per
gli attentati di Londra) mira a disciplinare la conservazione dei
dati relativi al traffico telefonico e telematico, nonché la loro
sicurezza. Si manifesta così la necessità di identificare
chiunque utilizzi postazioni di accesso pubbliche a Internet
(fotocopia del documento) e di conservarne i dati di
navigazione per sei mesi (prolungabili di altri sei) così da
renderli disponibili alla magistratura in caso di indagini. Ogni
fornitore di connessione al pubblico (gli Internet point) ha il
dovere di registrarsi, ottenere licenza in Questura e adempiere
alle suddette regole. La validità dei termini della legge che ne

76
deriva sono stati prorogati da tutti i governi seguenti (compreso
quello di centrosinistra), nonostante essi avrebbero dovuto
essere provvisori perché varati in una situazione di emergenza.
E' francamente ignoto il numero di reati scoperti e di casi risolti
grazie a questa legge (forse perché tende a zero), mentre sono
sicuramente molto alti i suoi costi in termini di sviluppo del
web in un paese che, come il nostro, non è certo
all’avanguardia; tali norme, non presenti nell’ordinamento di
altri paesi, anche quelli colpiti dai terroristi, sono un
disincentivo ad esempio alla proliferazione di connessioni
senza fili (Wi-Fi), visti gli oneri causati dall’obbligo di
identificare i fruitori del servizio (e qui potremmo anche
richiamare le distorsioni che si creano in un mercato che ha
pesanti costi e dunque alte barriere d’accesso, permettendo così
di entrarvi solo a pochi, e già ricchi, investitori). Secondo il
censimento del sito Hotspots-wifi di agosto 2010 in Italia si
contavano in quel momento 15865 punti di accesso wireless ad
Internet (che si chiamano appunto hotspots), numeri molto
inferiori rispetto a paesi come la Francia. Quattro anni dopo il
decreto Pisanu, saranno Roberto Cassinelli (Pdl), Paola Concia
(Pd) e altri deputati a presentare una proposta di modifica
dell’art.7 dello stesso. La proposta, bipartisan, è quella di
conferire al ministro dell’Interno la facoltà di disciplinare in
quali casi la suddetta identificazione non sia necessaria e
comunque subordinare la verifica dell’identità dell’utente che
si collega al W-Fi non più alla presenza fisica ma ad una
procedura più immediata tramite la sim card del telefono
cellulare.
Riprendendo il filo della privacy, indovinate chi troviamo?
Proprio lui, Google. I dubbi causati dal motore di ricerca in
merito al trattamento dei dati personali hanno spinto il Garante
italiano e altri organismi omologhi a una esplicita richiesta a

77
Mountain View nell’aprile 2010: Google deve dotarsi "di un
rigoroso rispetto delle leggi sulla privacy in vigore nei Paesi in
cui immettono nuovi prodotti on line". In una lettera indirizzata
a Mountain View, firmata dai presidenti delle Autorità di
protezione dati di Italia, Canada, Francia, Germania, Irlanda,
Israele, Olanda, Nuova Zelanda, Spagna e Gran Bretagna, "si
esprime profonda preoccupazione per il modo in cui Google
affronta le questioni legate alla privacy, in particolare per
quanto riguarda il recente lancio del social network, Google
Buzz", tramite il quale Google mail (o Gmail) è stato
improvvisamente trasformato in social network assegnando a
ogni utente di Google Buzz una rete di 'amici' ricavati dalle
persone con cui l'utente risultava comunicare più spesso
attraverso Gmail. Un'operazione fatta senza interpellare gli
utenti ed "impedendogli di esprimere un consenso preventivo e
informato. Con questo comportamento - spiegano i Garanti - è
stato violato un principio fondamentale e riconosciuto a livello
mondiale in materia di privacy: ossia, che spetta alle persone
controllare l'uso dei propri dati personali".Le Autorità
riconoscono che Google non è l'unica società ad avere
introdotto servizi online senza prevedere tutele adeguate per gli
utenti. Tuttavia, sollecitano Google a dare l'esempio, "in quanto
leader nel mondo on line, incorporando meccanismi a garanzia
della privacy direttamente in fase di progettazione di nuovi
servizi on line".
La lettera si chiude con la richiesta a Google di "spiegare come
intenda assicurare che in futuro le norme in materia di
protezione dati vengano rispettate prima del lancio di nuovi
prodotti" [60] .
La risposta di Google arrivava solo poche settimane dopo, col
colosso di Montain View che specifica come tutte le sue
operazioni siano in linea con i principi dettati dal gruppo di

78
garanti, con i quali si dice pronto a collaborare, tenendo
presente però che la grande quantità di dati di navigazione che
Google immagazzina sono funzionali al funzionamento di tutti
quegli strumenti che hanno permesso al colosso di diventare
tale e agli utenti di scoprire quanto potente possa diventare uno
strumento come Internet. Dichiarazioni di principio che però
non fugano dubbi, soprattutto alla luce di episodi come quello
della sede di Davis dell'Università della California, che ha
recentemente scartato Gmail come client ufficiale per studenti
e personale dell'ateneo; per motivare la bocciatura il senato
accademico aveva dichiarato di non essere convinto delle
misure di sicurezza riguardanti la privacy della casella di posta,
soprattutto dopo aver appurato che le impostazioni di default di
Google Buzz rendono pubbliche le informazioni degli utenti,
che poco e male sono informati di questo, problema appena
citato in merito a Facebook [61]. Bisognerà valutare nei
prossimi mesi l’efficacia dei vari progetti che Google ha in
cantiere per ovviare a certi problemi.
Di certo non aiutano bufere come quella sollevatasi quando
Google ha dovuto ammettere, di fronte al garante della privacy
della Germania, di aver memorizzato involontariamente le
attività online degli utenti di reti pubbliche Wi-Fi con le
antenne delle sue auto, quelle che dal 2007 girano le strade di
tutto il mondo per creare le mappe fotografiche che possiamo
consultare su “Street View”. L’episodio ha innescato la
reazione delle autorità garanti della privacy italiana, inglese,
tedesca e statunitense, tutte impegnati in indagini e istruttorie
che potrebbero portare anche ad una multa per il colosso di
Mountain View. Senza contare la flessione di fiducia che questi
episodi provocano. Tuttavia per BigG, che ha dato disponibilità
piena alle collaborazione con le autorità di tutto il mondo,
arriva una scialuppa di salvataggio dal Regno Unito, dove

79
l'Information CommissionerOffice (ICO), che vigila
sulla privacy britannica, ha stabilito che "è improbabile
che Google abbia catturato quantità rilevanti di informazioni
personali. Non vi sono inoltre prove che eventuali dati in
questo modo raccolto abbiano danneggiato o possano in futuro
danneggiare un qualsiasi individuo". Lo stesso esito hanno
avuto le indagini della polizia della Nuova Zelanda, ma non è
detto che altrove le cose vadano così bene: per i tribunali
australiani di violazione trattasi, e mentre vengono perquisiti
gli uffici di BigG a Seul e la Google Car viene sottoposta a
“posti di blocco” a Parigi, il governo tedesco ha fatto sapere
tramite il ministro per la difesa dei consumatori (la giovane
cristianoconservatrice bavarese Ilse Aigner) che accetterà
l’attivazione dello Street View in terra teutonica solo dopo aver
avuto garanzie sul fatto che le obiezioni dei cittadini verranno
prese in considerazione. In particolare, dati come targhe e volti
dovranno essere rimossi immediatamente, oltre a qualsiasi altro
elemento che permetta la riconoscibilità dei soggetti; a questi
ultimi, deve anche essere messo a disposizione un “contatto
d’emergenza” per le segnalazioni a BigG. Anche per evitare
episodi come quello accaduto in Giappone nell'ottobre 2010,
quando una donna sporgeva causa alla divisione nipponica di
Google per essere stata fotografata dallo Street View seminuda
mentre prendeva il sole sul terrazzo di casa. La foto è stata
eliminata in pochi giorni ma la donna chiede un risarcimento
pari a 5400 euro per le crisi psicologiche (e i danni
conseguenti) scatenatisi a causa della scoperta della foto.
A dimostrazione del fatto che le problematiche sulla privacy
sono ormai una questione di fondo del mondo digitale tutto,
anche Apple riceve, nel giugno 2010, una lettera dai garanti
della privacy di Germania e Stati Uniti, con raccomandazioni e
ammonimenti della specie già viste nel corso di questo

80
capitolo. Le autorità europee (in particolare il Gruppo di
Lavoro Articolo 29) hanno richiamato anche Microsft e Yahoo!
che non farebbero abbastanza per anonimizzare i log di traffico
sia nei tempi che nelle modalità pratiche di trattamento delle
informazioni, oltre ad eludere la cancellazione dei cookie.
Destinata a far discutere è poi la sentenza con la quale la
Cassazione (prima sezione penale, sentenza n.24510) ha
annullato senza rinvio, con la motivazione che “il fatto non è
previsto dalla legge come reato”, la condanna per un 41enne
che aveva ricevuto una multa di 200 euro dal tribunale di
Cassino. L’accusa? Aver perpetrato molestie via e-mail (volgari
apprezzamenti ad una signora). La Suprema Corte ha ritenuto
che l’art.606 del codice penale, relativo al reato di molestie o
disturbo alle persone, non comprende con la dizione “telefono”
anche gli altri analoghi mezzi di comunicazione a distanza,
argomento con il quale aveva invece inflitto la condanna il
tribunale di Cassino. La posta elettronica, secondo la
Cassazione, “utilizza la rete telefonica e la rete cellulare delle
bande di frequenza, ma non il telefono, nè costituisce
applicazione della telefonia, che consiste, invece, nella
teletrasmissione in modalità sincrona, di voci o di suoni”. Il suo
essere asincrona la rende meno invasiva rispetto al telefono,
non comportando peraltro un’interazione con il mittente e non
essendo necessario l’isolamento delle connessioni per non
ricevere il messaggio né il contatto del contenuto del
messaggio prima di cancellarlo. Dunque non è possibile farla
rientrare nello stesso regime delle telefonate, nella quale
rientrano, invece, gli sms. Così la Corte conclude che “la
avvertita esigenza di espandere la tutela del bene protetto della
tranquillità della persona incontra il limite coessenziale della
legge penale, costituito dal principio di stretta legalità e di
tipizzazione delle condotte illecite”, principio presente anche

81
nella Costituzione [62]. E’ vero e proprio stalking, invece,
quello perpetrato tramite Facebook, e come tale punibile
secondo le norme dell’articolo 612 bis del codice penale. A fare
le spese di questo regime è stato, tra gli altri, un giovane di
Potenza, condannato ai domiciliari per aver perseguitato ondine
la sua ex, caricando sul social network anche un video che li
ritraeva in intimità.
Da sottolineare, in chiusura, come anche in materia di privacy
per il legislatore i problemi nascano dal fatto che mentre si sta
analizzando un problema gli operatori del web, che viaggiano a
tutt’altre velocità, stanno già sperimentando servizi e business
che di problematiche e dibattiti ne aprono di altri. Ad esempio,
i rischi che gravitano attorno alla memorizzazione e
archiviazione dei dati di navigazione e al loro eventuale uso per
la “pubblicità comportamentale” sono ancora da scongiurare in
maniera convincente, mentre Youtube rilancia in questo senso:
è partita la sperimentazione di un servizio che permetterà ai
suoi utenti di bloccare la partenza degli spot pochi secondi
prima, memorizzando così non solo le abitudini di navigazione,
ma anche le preferenze sugli spot stessi, incoraggiando una
politica ulteriormente orientata al microtargeting e alle
pubblicità su misura da parte dei suoi inserzionisti. Per non
parlare dei cosiddetti motori di ricerca “di persone”, servizi che
scandagliano il web ricercando informazioni relative a soggetti:
foto, articoli, siti, profili sui social network con materiale
pubblicamente accessibile. Tutto quello che è riconducibile ad
un dato nominativo viene raccolto. Un esempio di essi è
www.123people.com, la cui versione tedesca è stata
recentemente oggetto di un procedimento giudiziario
intentatogli da una donna che riteneva violata la sua privacy dal
fatto che sue foto personali comparivano nei risultati di ricerca.
La Corte ha assolto 123People perché il servizio non

82
immagazzina (neanche temporaneamente) i dati raccolti,
ricalcando una sentenza tedesca che stabiliva la liceità delle
anteprime offerte da Google anche per opere protette da diritto
d’autore. Casi come questo tengono aperto il dibattito
fondamentale sui tipi di dati ai quali i motori di ricerca hanno
lecito accesso.
File di log, cookie, registrazione di indirizzi IP, data e ora della
ricerca, parola ricercata, tipo di browser e sistema operativo
usato: da chiarire è dunque fino a quando la loro raccolta e
memorizzazione serva ad una profilazione generale di
aggregati di utenti (e quindi all’individuazione di target) senza
sconfinare in una indiscriminata raccolta di dati su singoli
individui e sulle loro abitudini, con conseguente invasione
nella sfera privata. Pericolo che emerge chiaro da un’inchiesta
condotta da Fabio Tonacci e Marco Mensurati per Repubblica
nell’agosto 2010: i due hanno dimostrato come BigG archivi
dati su utenti specifici (i cui nomi vengono ricavati, ad
esempio, dall’accesso a Facebook) e li tenga in archivio per un
anno e mezzo, anche se i vertici di Mountain View continuano
a smentire questo tipo di incrocio tra dati di traffico e “nomi e
cognomi”. E c’è anche chi solleva il timore che questo tipo di
dati non vengano solo utilizzati per la pubblicità mirata ma
possano essere girati ai servizi segreti e alle autorità di
“sorveglianza” occulta.
Sono invece più chiari da settembre i criteri con i quali va
gestito il consenso al trattamento dei dati personali richiesto
per la partecipazione a concorsi promozionali online: il Garante
della Privacy in un provvedimento ha infatti stabilito come le
società non hanno bisogno di avere il consenso al trattamento
quando si tratta di un servizio espressamente richiesto
dall’utente, ma che non possono, d’altra parte, obbligare ad
consenso l’utente, il risulta in violazione del Codice della

83
privacy, art.23, secondo cui “il consenso è validamente prestato
solo se è espresso liberamente e
specificamente in riferimento ad un trattamento
chiaramente individuato“; il consenso deve inoltre essere
specifico e gli utenti devono poter esprimere il consenso in
relazione ad ogni diverso trattamento dei propri dati. Il Garante
della Privacy ha così ribadito il principio per cui il consenso al
trattamento dei dati personali dev’essere frutto di un atto libero
e consapevole.

La neutralità della Rete

Aa aprile del 2009, i senatori del Partito Democratico Vincenzo


Vita e Luigi Vimercati presentano un disegno di legge [63]
(depositato in luglio dopo una pubblica consultazione) mirante
a garantire un accesso neutrale alle reti di comunicazione
elettronica, sostenere la diffusione del software open source
nelle amministrazioni pubbliche, promuovere la partecipazione
attraverso Internet, favorire la diffusione dell’Ict nel sistema
delle imprese e rimuovere gli ostacoli che impediscono la
parità di accesso alle reti di comunicazione. E poi ancora:
banda minima garantita, messa a punto di una strategia digitale,
alfabetizzazione ai nuovi media e non discriminazione dei
contenuti. Il DDL iniziava il suo iter parlamentare solo alla fine
del marzo 2011, quando poteva leggersi sui siti ufficiali dei due
senatori “È un appuntamento cui teniamo enormemente perché
l'Italia è profondamente arretrata tanto nell'accesso a Internet
quanto nella definizione di alcune regole fondamentali
necessarie a fare della Rete un diritto universale.
Un'opportunità per tutti”.
Ma cosa significa “una Rete neutrale”?
In una legge statunitense del 16 giugno 1860 si leggeva: “i

84
messaggi ricevuti da ogni individuo, compagnia, o
corporazione, o da ogni linea telegrafica che si connetta a
questa a uno dei due capi, deve essere trasmesso in modo
imparziale nell'ordine di ricezione, tranne per i messaggi del
governo che debbono avere priorità”. Probabilmente far risalire
a un secolo e mezzo fa un concetto che riguarda la Rete è
eccessivo, ma il succo della questione ci si avvicina più di
quanto si creda. La nascita del concetto di neutralità della Rete
(net neutrality) si può individuare in linea di massima
all’interno delle discussioni sulle leggi in materia di
telecomunicazioni del 2003 in seno all’Unione Europea, e solo
negli ultimi mesi esso sta faticosamente uscendo dalla nicchia
degli addetti ai lavori per diventare di maggiore dominio tra gli
internauti. Potremmo in prima battuta definire la net neutrality
come “la consuetudine per cui le reti degli operatori delle
telecomunicazioni sono considerate infrastrutture ad uso
generale , il cui accesso non può essere impedito, né sottoposto
a condizioni o discriminazioni da parte dell’operatore nei
confronti degli utenti” [64]. E’ dunque il modello di Rete al
quale siamo abituati, quello dove l’utente e i siti pagano il
provider per avere accesso ad Internet e i dati possono
transitare liberamente su tutto lo spazio dell’online, a
prescindere da contenuti diversi, servizi diversi e
mittenti/destinatari diversi. La realtà opposta è invece quella di
provider in grado di controllare i contenuti che transitano sulle
sue reti, rendendoli arbitrariamente a pagamento,
“boicottandone” la fruizione, discriminando tra i vari fornitori
di contenuti e creando corsie preferenziali. Contestualizziamo
il problema: predisporre una rete provider è costosissimo, il
volume dei dati è in costante ed esponenziale aumento, i prezzi
degli abbonamenti in discesa e il futuro prossimo si chiama
fibra ottica, con la relativa copertura dell’ “ultimo miglio” a far

85
traballare i bilanci. Va da sé che le compagnie di
telecomunicazione puntano a massimizzare le entrate,
appropriandosi di “pezzi di Rete”. Un esempio lampante è il
provider statunitense Comcast, che da tempo filtra in maniera
volontaria e “scientifica”, per risparmiare “spazio sulla banda”
e quindi denaro, il traffico P2P (lo vedremo meglio parlando
degli Stati Uniti). Altro esempio è il modello delle reti cellulari,
nell’ambito del quale esistono due tipi di connessione, il Wap e
il Web. La prima non è una vera e propria connessione ad
Internet: il provider seleziona una serie di servizi
(arbitrariamente, in base agli accordi stretti dal provider con
altri operatori o in base all’impatto che hanno sulla sua banda)
e li mostra all’utente su una pagina
compresa nell’abbonamento; il resto si paga.
Dunque, il conflitto vede da una parte i grandi network delle
telecomunicazioni, dall’altra i gestori di contenuti. Tra i primi,
portabandiera sono i giganti americani delle telecomunicazioni
come AT&T e gli ISP come Verizon, BellSouth e Comcast.
Sull’altro fronte, Google, Microsoft, eBay e Amazon. A questi
ultimi si affiancano gli internauti ormai innamorati della Rete
libera e neutrale, mentre tra le “personalità” di Internet il
giudizio non è affatto univoco.
Sul suo sito il cinese Tim Wu [65], professore alla Columbia
Law School, afferma che un modo utile per capire il concetto
di neutralità della Rete “è quello di guardare le altre reti, come
la rete elettrica, che sono implicitamente costruite su una teoria
della neutralità. La natura neutra della rete elettrica è una delle
cose che la rendono estremamente utile. Non importa se alla
griglia elettrica si collega un tostapane, un ferro da stiro, o un
computer. Conseguenza, è sopravvissuta e ha sostenuto le
ondate di innovazione nel mercato degli elettrodomestici. La
griglia elettrica ha lavorato per la radio nel 1930 e lavora per la

86
TV a schermo piatto degli anni 2000. Per tale motivo la rete
elettrica è un modello di innovazione-guida neutrale. La teoria
che sta dietro il principio di neutralità della rete è che internet
sia una rete volta a incentivare lo sviluppo della conoscenza e
delle relazioni tra persone in maniera neutrale. Internet non è
perfetto, ma aspira alla neutralità nel suo disegno originale. La
sua natura decentralizzata e per lo più neutra può spiegare il
suo successo come un motore economico e una fonte di cultura
popolare.” Dopo aver spiegato la differenza tra una Rete
neutrale per sua natura (l’Internet delle origini) e una neutralità
garantita per legge a fronte degli interessi in gioco che la
minacciano (legge che egli auspica), Wu distingue tra due tipi
di reti: quelle interamente private (come le reti televisive e le
reti via cavo), “discriminatorie per natura”, dove la compagnia
proprietaria ha diritto di decidere cosa e a che condizioni
transita sulle sue infrastrutture; e le reti considerate pubbliche,
come Internet. Si potrebbe così mettere le compagnie di fronte
ad una scelta: o ti fai una rete privata e giochi secondo le tue
regole, o aderisci a quella pubblica ma giochi secondo le regole
della neutralità.
Su questa falsariga, Tim Barners Lee scrive sul suo blog [66]:
“Vent'anni fa, gli inventori di Internet progettarono
un'architettura semplice e generale. Qualunque computer
poteva mandare pacchetti di dati a qualunque altro computer.
La rete non guardava all'interno dei pacchetti. È stata la
purezza di quel progetto, e la rigorosa indipendenza dai
legislatori, che ha permesso ad Internet di crescere e essere
utile. Quel progetto ha permesso all'hardware e alle tecnologie
di trasmissione a supporto di Internet di evolvere fino a
renderlo migliaia di volte più veloce, nel contempo
permettendo l'uso delle stesse applicazioni di allora. Ha
permesso alle applicazioni internet di venire introdotte e di

87
evolvere indipendentemente. Quando ho progettato il Web non
ho avuto bisogno di chiedere il permesso a nessuno. Le nuove
applicazioni arrivavano sul mercato già esistente di Internet
senza modificarlo. Allora provai a rendere la tecnologia del
web una piattaforma al contempo universale e neutrale, e
ancora oggi moltissime persone lavorano duramente con questo
scopo. Il web non deve assolutamente discriminare sulla base
di hardware particolare, software, rete sottostante, lingua,
cultura, handicap o tipologia di dati. Chiunque può scrivere
un'applicazione per il Web, senza chiedere a me, o a Vint Cerf,
o al proprio ISP, o alla compagnia telefonica, o al produttore
del sistema operativo, o al governo, o al fornitore
dell'hardware. La neutralità della rete è questo: se io pago per
connettermi alla rete con una certa qualità di servizio, e tu
paghi per connetterti con la stessa (o una migliore) qualità di
servizio, allora possiamo iniziare una comunicazione con quel
livello di qualità. Questo è tutto. Ifornitori di accesso ad
internet (ISP) hanno il compito di interagire tra loro affinché
questo avvenga. La neutralità della rete NON è chiedere
l'accesso ad internet gratuito. La neutralità della rete NON è
affermare che qualcuno non dovrebbe dover pagare di più per
una maggiore qualità di servizio. È sempre stato così, e sempre
lo sarà”.
Sostenitore dell’abbattimento della neutralità è invece un altro
“padre” di Internet, Robert Khan, che insieme a Vincent Cerf
inventò il protocollo TCP/IP. Khan ritiene la neutralità un
ostacolo all’evoluzione delle tecnologie della Rete.
L’argomento principale di chi si oppone alla fine della net
neutrality è comunque il timore che le compagnie, una volta
recintato il proprio “feudo”, possano applicare balzelli e
pedaggi per i produttori di contenuti, in particolare se
concorrenti. La loro preoccupazione è che il mancato

88
pagamento possa portare ad un servizio scadente o del tutto
assente che renda impossibile accedere ad alcuni siti web o ad
alcuni servizi o l'uso di alcune applicazioni. Lo stesso Khan
rileva questo pericolo, e subordina la sua idea comunque ad
una autorità di controllo che garantisca l’interoperabilità tra gli
eventuali “frammenti di Internet”.
In casa nostra, se venisse meno la neutralità della Rete, i
vantaggi più evidenti sarebbero per un solo soggetto: Telecom
Italia [67], che alla fine di marzo 2010 annunciava l’avvio della
sperimentazione del Network Management, progetto
finalizzato all’ottimizzazione della banda nei momenti di
maggiore traffico tramite la gestione dei servizi veicolati sulle
reti del provider. In altri termini, Telecom limiterà la velocità
massima raggiungibile dalle applicazioni che consumano più
banda (come il peer to peer), a vantaggio di quelle che
funzionano in tempo reale o quasi (come la navigazione sui
siti, lo streaming, il VoIP).Telecom precisa che non ci saranno
discriminazioni, che i servizi verranno gestiti tutti con gli stessi
criteri e che il controllo è volto solo a rendere la navigazione
dell’utente più agevole. Ma l'Associazione Italiana Internet
Provider accusa apertamente Telecom di violare il principio
della net neutrality e invoca l’intervento dell’Agcom. Certo
non siamo ad una versione italiana di Comcast, ma è chiaro che
Telecom si organizza per gestire quantità e qualità del traffico
che passa per le sue reti, e nessuno ci assicura che lo faccia in
totale buona fede e per il bene dei suoi utenti. Insomma, per
dirla con Giovanni Floris, “il monopolio delle
telecomunicazioni, uscito dalla porta della telefonia, rischia di
rientrare dalla finestra della banda larga”[68], con l’unico
rimedio nell’ interoperabilità dei servizi e delle reti di
distribuzione dei contenuti.
Come vedremo nei prossimi capitoli, il dibattito sulla neutralità

89
della Rete è in peno sviluppo in istituzioni e tribunali sia
europei che statunitensi. Ciò che ne scaturirà sarà il quadro di
riferimento entro il quale si muoverà anche il legislatore
nostrano (in questo senso finora molto poco autonomo e
intraprendente). Personalmente, mi sento di augurare che si
prenda esempio dal Cile. Il paese sudamericano è infatti
diventato, nel luglio 2010, il primo al mondo a riconoscere per
legge la neutralità della Rete; in realtà si tratta di una serie di
emendamenti che modificano la precedente legge sulle
telecomunicazioni per far sì che tutti gli utenti vengano tutelati
da fermi principi di neutrality. In pratica, non sarà infatti
possibile per i provider preferire un certo servizio
o contenuto web nétantomeno garantirgli
traffico più scorrevole.
Uniche eccezioni previste saranno le strategie d'emergenza in
merito a tutela della privacy e sicurezza del sistema
informatico.

Conclusioni
Spero che siano venute fuori a pieno le due anime di questo
capitolo, cioè la rassegna e analisi di problematiche del web
che incontreremo durante tutto il lavoro e la risposta che ad
esse ha dato il nostro sistema politico, legislativo e
imprenditoriale. Restando su questo secondo fronte, quello che
viene fuori è il quadro di un paese la cui classe dirigente è un
misto di conservatorismo e incompetenza. Non vuole essere
una critica gratuita, ma ci sono alcuni motivi per i quali il
giudizio non può essere diverso. Sentiamo molti politici fare da
cassa di risonanza ad allarmi spesso ingiustificati; gli stessi
politici nelle aule parlamentari scrivono e approvano disegni di
legge contorti e spesso tendenti solo alla repressione, fino ad
arrivare ad episodi come il blocco degli 800 milioni di euro per

90
lo sviluppo della banda larga proprio mentre c’è domanda della
stessa da più parti del paese [69]. Blocco deciso dal CIPE
(Comitato Interministeriale per la Programmazione
Economica), confermato recentemente da un vacante Ministero
dello Sviluppo Economico e sfociato nella riduzione del budget
da 800 a 100 milioni di euro, una miseria anch’essa in attesa di
essere immessa nel settore.
Quello della scarsità di banda è un problema che in Italia si
affaccia seriamente quando, passato di poco il 2000, bisogna
risolvere il nodo dell’accesso per zone che hanno scarso appeal
commerciale per le compagnie, ma bisogna attendere il maggio
del 2010 perché il neo ministro per le Politiche Agricole
Giancarlo Galan annunciasse lo stanziamento di 154,52 milioni
di euro per la realizzazione di infrastrutture per la fibra
ottica[70] nelle aree rurali più marginali del Paese. Nel
frattempo, però, il problema della broadband inizia ad
interessare tutto il territorio nazionale, all’interno del quale si
percepisce ormai chiara l’esigenza della creazione di
infrastrutture di ultima generazione ad altissima capacità. Il piu
grande ostacolo da superare in questo senso sembra essere la
riconversione delle attuali strutture di connessione in rame
nella più potente fibra ottica [71].
E così, a metà del 2010 è partito il progetto “2010 fibra ottica
per gli italiani” per la messa a punto di una Next Generation
Network (NGN) in Italia, lanciato da Vodafone, Wind e
Fastweb (successivamente si è inserita anche la Tiscali, il cui
CEO è tornato ad essere, dopo la parentesi politica, Renato
Soru), ma mirante anche al coinvolgimento di Telecom, data la
portata economica della manovra che rende necessaria la
compartecipazione di tutti gli attori di un mercato che può
sostenere, a livello di investimento finanziario, una sola
infrastruttura di ultima generazione (si parla di una spesa che

91
va dai 15 ai 20 miliardi di euro). In ogni caso la Telecom non è
parsa entusiasta del progetto, e ancora nel giugno 2010 faceva
sapere, tramite il suo amministratore delegato Franco Bernabè,
di voler portare avanti il suo piano solitario che prevede banda
ultralarga al 50% della popolazione entro il 2018, cablando 138
città a 100Mb e 1Gb [72]. Si esprimeva comunque una
generica disponibilità ad una sinergia in merito alle
infrastrutture, ma le trattative potrebbero essere complicate
dall’indagine che l’Antitrust ha avviato nei confronti di
Telecom dopo la denuncia di Fastweb e Wind: i due provider
accusano il concorrente di aver abusato la sua posizione
dominante mettendo in atto un “boicottaggio tecnico”; ad
esempio, Telecom avrebbe ostacolato con motivazioni tecniche
e burocratiche rivelatesi poi infondate il passaggio di propri
clienti ad un altro operatore e praticato politiche di prezzo
selvaggio sugli affitti dell’ “ultimo miglio”. Senza contare le
opposizioni sollevatesi dall’aumento, stabilito dall’Agcom ma
ancora da ratificare in sede europea, del canone che gli
operatori alternativi a Telecom devono pagare all’ex
monopolista per lo sfruttamento della sua rete in rame; essi
sostengono, oltre alla poca convenienza degli aumenti per tutto
l’indotto, che un maggiore introito per Telecom dalla rete in
rame rallenterebbe ulteriormente il passaggio verso la fibra
ottica, rendendolo meno conveniente per chi gestisce la rete. E
così molti operatori, tra i quali Fastweb, Wind e Fiscali hanno
lasciato da soli Telecom e Tre nel Comitato per l’NGN
presieduto dal professor Francesco V atalaro,
esprimendo disappunto per le linee guida tracciate dal
Comitato stesso che a detta dei provider avrebbe ignorato le
loro richieste e proposte favorendo l’ex monopolista. Viene
così indicata, da quel momento, l’Agcom come unico
interlocutore.

92
La messa a punto della “squadra di provider” aveva ricevuto il
plauso proprio del presidente dell’Agcom Corrado Calabrò e
del sottosegretario Romani, che comunque nel maggio 2010 ha
timidamente commentato sulla società della rete affermando
che lui preferirebbe una “infrastruttura della rete” [73]. La
stessa bozza con la quale l’Agcom ha introdotto il discorso sui
passi da affrontare per la transizione ad una rete di nuova
generazione ha ricevuto però parere negativo dagli operatori,
soprattutto nei punti in cui si fanno distinzioni tra zone nere,
grigie e bianche in base alla densità abitativa e di conseguenza
all’appeal che essi hanno verso le compagnie. Tema non di
secondario interesse: nelle aree ritenute già attraenti per le
compagnie (in pratica tutte le aree urbane e densamente
popolate) lo stato conta di non doversi impegnare in prima
persona per la predisposizione di agevolazioni per le
compagnie stesse. Comunque vadano a finire i contenziosi (e
ce ne sono altri tra gli stessi attori), per far proseguire con
speranze di successo l’NGN il principale ostacolo da
affrontare, come detto poc’anzi, sono le modalità con le quali
verrebbe gestita la transizione dall’attuale rete in rame, sulla
quale l’ex monopolista Telecom investe circa 700 milioni
l’anno per la manutenzione e che stima valere circa 20 miliardi
di euro. Non ci resta che attendere evoluzioni. Nel frattempo, i
vertici di Telecom chiedono di sfruttare l’Expo 2015 di Milano
per sostituire l’attuale rete in rame del capoluogo lombardo con
la fibra ottica, e rappresentare così un banco di prova
difficilmente ripetibile. Sulla stessa linea, nella Capitale è
partita, dal 24 maggio 2010, la sperimentazione di un servizio
di banda che raggiunge, tramite la fibra ottica, i 100 megabit al
secondo, mentre è ancora la Telecom a siglare una partnership
con la regione Emilia Romagna così da garantire connessioni
broadband a 54 comuni dell’area entro la fine di dicembre

93
2010. In più, la stessa Telecom è impegnata nel potenziamento
di circa 300 centrali telefoniche per Internet che rischiano il
collasso in caso di nuove connessioni, mentre Fastweb dai
primi giorni di settembre rende disponibile a circa due milioni
tra famiglie e imprese delle maggiori città italiane una
connessione che viaggia a 100mbps. Prende così forma così
uno scenario dove, se fallisse il piano NGN nazionale, si
potrebbe ripiegare su uno sviluppo della fibra a macchia di
leopardo. Compito del Legislatore e del Governo sarà in ogni
caso quello di incentivare e accompagnare questo progetto per
lo sviluppo del paese ma, ed è un ma che fa la differenza,
preservando il mercato dalla creazione di un oligopolio di ferro
basato sul possesso dell’intera rete in fibra ottica da parte di un
ristrettissimo numero di operatori, che è un po’ il punto di vista
espresso dal presidente dell’Antitrust Antonio Catricalà :
“L'Autorità non è pregiudizievolmente contraria a ipotesi di
cooperazione tra imprese rivali, purché siano garantite l'assenza
di pratiche nocive per la concorrenza e la neutralità nella
gestione della Rete. Le regole di governance dovranno a tale
fine essere valutate dall'Antitrust” [74].
Il ministro per i rapporti con il Parlamento Elio Vito afferma
che entro il 2012 tutto il territorio nazionale dovrebbe essere
coperto dalla banda larga e il digital divide interno cancellato,
scenario certamente augurabile, ma senza farsi illusioni, vista
soprattutto la turbolenta situazione del sistema politico italiano
di questi mesi. In ogni caso, la diffusione della banda larga
potrebbe giocare anche a favore della lotta alla pirateria a
mezzo P2P: Calabrò, intervenendo nel maggio 2010 ad un
convegno all’Università LUISS di Roma, presenta dati che
attestano come, all’aumentare degli abbonamenti alla banda
larga, si associ una maggiore fruizione di contenuti leciti, con
la pirateria scesa dal 40% del 2007 al 19% del 2009.

94
Oltre agli sviluppi in materia di banda larga, necessario sarebbe
un investimento nel potenziamento della diffusione delle
connessioni mobili in parziale alternativa agli alti costi di
un’infrastruttura a fibre ottiche. In Italia infatti la differenza di
velocità tra la rete mobile e quella fissa è al momento
imbarazzante, come risulta da un rapporto sullo stato di
Internet rilasciato da Akamai [75] a metà del 2010. Nei
collegamenti con telefonini e chiavette in Italia si arriva ad una
velocità di punta di 3,2 Mb al secondo, la terza nel mondo,
mentre la velocità media delle connessioni fisse è di 2804
Kbps, penultima performance in Europa, paurosamente distante
da Corea del Sud (11.717 Kbps) e Giappone (7.613 Kbps). Il
mercato del mobile Italiano è tra i più sviluppati al mondo già
dagli albori: se le connessioni riguardano attualmente solo il
9% della popolazione tra gli 11 e i 74 anni è anche vero che
nell’ultimo anno il dato è cresciuto del 47% [76]. Altro
importante elemento è la straordinaria diffusione degli
smartphone. Nel nostro paese il business di questi dispositivi è
esploso immediatamente, tanto che il mercato italiano è il
primo in Europa. L’Italia segue poi il trend globale in materia
di contenuti scambiati con le reti cellulari, che ha visto nel
2009 il traffico dati superare quello vocale [77]. Questo però
senza un adeguamento delle infrastrutture può rivelarsi un
grosso problema: il numero di smartphone in circolazione
potrebbe aumentare a tal punto da far collassare la rete mobile
del paese, come denunciato da Corrado Calabrò in occasione
della Relazione annuale sull'attività 2009 dell'Autorità garante
alla Camera dei Deputati. Situazione che ha già spinto tutte le
compagnie a seguire l’esempio del network management
targato Telecom: limitazioni della velocità del traffico per gli
utenti che utilizzano troppa banda (soprattutto utilizzando il
peer to peer) rallentando tutta la rete, con l’obiettivo di

95
"ottimizzare le proprie risorse di rete a beneficio di tutti i propri
clienti". Siamo ai margini della neutralità della Rete, e che essa
venga violata per problemi connessi alla mancanza di banda
sarebbe una doppia beffa per gli utenti, in generale poco
informati sulle condizioni d’uso che gli operatori della Rete
impongono per le connessioni in mobilità. La priorità sembra
allora liberare nuove frequenze riutilizzando quelle radio e
liberando 9 canali tv da destinare alla banda larga wireless,
come previsto nel nuovo piano delle frequenze approvato
dall’Autorità nel giugno 2010 per venire incontro alle richieste
della Commissione Europea [78]. Senza contare gli scenari che
si aprono con la rete di quarta generazione: l’era del 4G è già
iniziata con le sperimentazioni di Telecom e Vodafone su
sistemi che permettono ai dati di viaggiare in mobilità ad una
velocità superiore ai 100mbps. Prendendo esempio da
Stoccolma, dove Ericsson e TeliaSonera hanno implementato la
prima rete 4G commerciale con successo.
L’Autorità farà la sua parte riconoscendo un premio di rischio
per il capitale investito; favorendo gli investimenti condivisi e
garantendo la neutralità tecnologica e la parità di condizioni
nell'utilizzazione delle infrastrutture comuni.Si attende ancora
per il decollo del Wi Max; sta lavorando in questo senso la
Linkern, società impegnata nello sviluppo di un ramo da 33
milioni di euro da spalmare in dodici anni. La Linkern ha un
contratto con la Retelit S.p.a, titolare di una rete in fibra ottica
di settemilacinquecento chilometri nel Nord Italia, e un
accordo con la Telecom per quanto riguarda le frequenze;
accordo che ha permesso alla società di telecomunicazioni di
lanciare in febbraio la propria offerta WiMax “Internet Flat 7
mega”. Questa serie serie di nuovi accordi è stata necessaria
vista la sfavorevole congiuntura economica al momento del
lancio dei progetti e i terremoti nelle società che hanno

96
partecipato ai bandi pubblici e che non hanno potuto così
rispettare gli impegni di copertura presi col ministero dello
Sviluppo Economico.
Parlando di pirateria, non rosea appare la prospettiva in materia
di software. L’indagine della BSA (Business Software Alliance,
principale organizzazione internazionale dedita al rispetto della
proprietà intellettuale raggiungibile al sito ww.bsa.org) per il
2009 ha rilevato una crescita dell’1%. I dati positivi sono che la
percentuale è in linea con la media europea e che la temuta
impennata della pirateria in relazione alla crisi non si è
registrata. Tuttavia, il tasso di pirateria italiano passa al 49%
(per un valore commerciale calcolato in oltre 1.209 milioni di
euro, senza contare le ricadute per chi ne ricava danno), tasso
che per il presidente di BSA Italia, Luca Marinelli, “è
inaccettabile per una nazione evoluta” come la nostra.
Marinelli sottolinea come gli sforzi per combattere la pirateria
non solo risultano inefficaci, ma controproducenti, con i dati
che peggiorano anziché migliorare. Unica nota positiva è
l’estensione della responsabilità amministrativa (Dlgs
231/2001) per gli enti e le imprese ai reati di proprietà
intellettuale, predisposto con la legge 99 del 2009, i cui risultati
sono però ancora da valutare.
Chissà invece quale potrà essere l’impatto di un nuovissimo
software antipirateria giapponese della NEC Corporation,
presentato a metà maggio 2010 al 13esimo Embedded System
Expo di Tokyo; il software è in grado di ispezionare 1000 ore
di video in un secondo con un’accuratezza del 96%: partendo
da un fotogramma di un video originale, tiene conto di vari
parametri (luce, contrasto, ecc.) e ne fa un’ ”impronta digitale”
dell’originale, per poi confrontarla con gli altri video, rivelando
quelli contraffatti e risolvendo quello che fino ad ora era uno
maggiori problemi in questa lotta: la necessità di analizzare una

97
enorme quantità di materiale in un tempo relativamente stretto.
In ottica di collaborazione tra tutti gli attori della Rete e della
legislazione appare invece l’istituzione, nel giugno 2010, di un
tavolo di lavoro tecnico, presso il ministero dei Beni e le
Attività Culturali, sul regime di regolamentazione di copia
privata e relativo equo compenso che coinvolga rappresentanti
delle istituzioni e dei detentori dei diritti, senza escludere
l'industria dei supporti e dei dispositivi elettronici, per la messa
a punto di un più funzionale quadro di risoluzione delle
controversie. Operazione accolta comunque con freddezza
dalle associazioni a tutela dei consumatori, escluse dal tavolo e
già sul piede di guerra dopo che il decreto Bondi del 2009 ha
ampliato il novero dei dispositivi e dei supporti il cui prezzo
viene aumentato con l’intento di ricompensare i detentori dei
diritti per le copie private legittimamente effettuate da chi
acquista contenuti mediante i supporti in questione, a
prescindere dal reale uso che poi di essi se ne farà [79].
La situazione si è ulteriormente arricchita nelle ultime
settimane: la SIAE ha infatti firmato un protocollo d'intesa con
l'Agenzia delle Dogane con l’obiettivo di estendere il
meccanismo dell’equo compenso anche ai dispositivi importati
ed evitare così di danneggiare il mercato interno con l’aumento
dei prezzi dei dispositivi nostrani.
Comunque, dal Ministero si precisa che il Tavolo di lavoro
tecnico può essere integrato di volta in volta, “su disposizione
del Coordinatore, con i rappresentanti delle associazioni e degli
enti interessati".
Restano ancora irrisolti tanti punti. Ad esempio, la scarsa
presenza del diritto italiano in Rete: non è mai arrivato a
regime il progetto “Norme in Rete” del 1999 e la
informatizzazione delle norme vigenti, a cura del CED della
Corte di Cassazione, non ha ancora trovato sviluppo. Problemi

98
sono l’ampio corpus di norme presenti nel nostro ordinamento
(tanto che nell’attuale governo è presente un apposito
ministero, anche se la sua efficacia è ancora da dimostrare),
soprattutto rapportati all’ipertestualità, la difficoltà di reperire
in Rete testi come decreti regi di fine ottocento ai quali però
alcune nostre leggi si rifanno e le normative tecniche messe a
disposizione solo dai privati dietro denaro.
Annosa è la questione della firma digitale: dalla legge
Bassanini del 1997 al Decreto del Presidente del Consiglio del
30 marzo 2009 non si è ancora arrivati ad un quadro di
regolazione definitivo. Non è ad esempio ancora chiara la
legalità degli HSM (Hardware Security Module), dispositivi
che permettono di firmare in remoto, ma anche in modalità
automatica, più documenti contemporaneamente.
L'ennesimo decreto in materia è stato emanato il 10 febbraio
2010 e pubblicato sulla G.U. n. 98 dello scorso 28 aprile. Esso
stabilisce testualmente che "A decorrere dal l° febbraio 2010 e
per i ventuno mesi successivi i certificatori di firma elettronica
attestano, mediante autocertificazione, la rispondenza dei
propri dispositivi per l'apposizione di firme elettroniche con
procedure automatiche ai requisiti di sicurezza previsti dalla
vigente normativa". Poco si aggiunge rispetto al passato,
lasciando ancora a bocca asciutta chi ha necessità di firmare
elettronicamente una grande quantità di documenti in poco
tempo : “Si pensi ad un processo di fatturazione elettronica,
dove le fatture vanno conservate digitalmente entro 15 giorni
dalla loro emissione: riuscite ad immaginare quante volte dovrà
essere inserito, manualmente, il PIN in aziende che emettono
anche 5000 fatture al giorno?” [80].
Oltremisura lunga è la gestazione del sito dedicato al turismo
Italia.it, per non parlare dei costi, e non si è ancora arrivati ad
una versione definitiva. Piccoli passi in avanti li ha fatti la

99
burocrazia online, con la messa in “telematico”, ad esempio,
dei certificati medici per i dipendenti in malattia (anche qui
ancora a settembre 2010 ritardi e dispute all’ordine del giorno)
e dei rogiti per i notai, mentre un'altra innovazione tradita è la
Posta Certificata. Con il D.p.r. 68 dell’ 11 febbraio 2005 veniva
istituito il servizio di Pec che avrebbe dovuto premettere al
cittadino di dialogare con la pubblica amministrazione
sfruttando la velocità della Rete ma anche la sicurezza di una
certificazione. Il Decreto Legislativo n. 82 del 7 marzo 2005
prevedeva che tutte le Pubbliche amministrazioni dovessero
istituire una casella di PEC per ogni registro di protocollo.
Dopo poco più di un mese, esattamente il 26 aprile, è il giorno
dell’inaugurazione del servizio sul sito
www.postacertificata.gov.it; ma arriva un numero di richieste
imprevisto che manda in tilt il sistema. Senza contare che le
modalità specifiche con le quali viene erogato il servizio
sollevano problemi di carattere addirittura istituzionale: nel
fatto che sottoscrivendoil servizio viene
eletto, automaticamente e coattivamente, il proprio
domicilio, in relazione a tutte le comunicazioni con la PA,
presso l'indirizzo loro fornito dal concessionario pubblico, c’è
chi ravvisa una violazione della libertà di scegliere il domicilio.
In più, sembra al momento impossibile per un cittadino che
abbia già un indirizzo di posta certificata che non sia targato
“Poste Italiane” (organo al quale lo Stato a dato la concessione
per il servizio) inserirlo nell’elenco di quelli che ricevono le
comunicazioni dalla PA.
Comunque, all’inizio di luglio 2010 il ministro per la Pubblica
Amministrazione e l’Innovazione Renato Brunetta dava le
prime stime: 11mila le amministrazioni in regola con la posta
elettronica certificata inaugurata ad aprile, e 18.200 le email
attive dei cittadini. Il ministro si diceva comunque

100
insoddisfatto per la forte presenza di enti non ancora in regola,
in tutto 196 soggetti tra regioni, provincie, comuni ed enti di
ricerca. Troppo, per Brunetta, che soprattutto alla luce dei
cinque anni passati dalle leggi sopra menzionate dichiara: "Le
amministrazioni inadempienti non hanno infatti alcun alibi [...]
molto spesso queste ultime detengono da diverso tempo gli
indirizzi di PEC, ma si rifiutano di pubblicarli per non dover
poi adeguatamente riorganizzare i propri uffici nell'azione di
risposta tempestiva alle richieste dei cittadini” [81]. Partono
dunque le ispezioni del ministero, con la stessa riforma della
PA varata da Brunetta a incombere sugli inadempienti: secondo
essa, infatti, agli enti non in regola potrebbero ricevere un
giudizio negativo nella valutazione della performance
individuale e organizzativa, che in pratica decide l’entità della
corresponsione della retribuzione di risultato ai dirigenti degli
uffici preposti. A ridosso di agosto arrivavano allora i dati
aggiornati: le caselle della PA diventano 18000, a fronte di un
milione di professionisti e 400mila aziende che hanno richiesto
il servizio, oltre ai 300mila cittadini iscritti [82]. Brunetta
promette, infine, che entro il 2010 saranno attive sei milioni di
caselle e altre 25mila saranno aperte negli enti pubblici, e si
impegna affinché la Pubblica Amministrazione muova un altro
passo importante verso la trasparenza, annunciando che per la
stessa data (dicembre 2010) gli utenti italiani avrebbero avuto
tutti i dati della PA online, magari sull’esempio della Gran
Bretagna, dove il ministero del Tesoro ha reso pubblici tutti i
dati delle spese imputabili al governo nazionale e alle
amministrazioni locali (circa 24 milioni di documenti). Viene a
tal proposito varato, in agosto, il “motore di ricerca” di siti
istituzionali italia.gov.it, varato in agosto, mentre prende vita
un “Codice Azuni”, prima serie di consultazioni volte a
favorire lo sviluppo di un non meglio specificato approccio

101
“bottom-up” alla regolamentazione della Rete.
Tuttavia, i proclami del mondo politico sono disattesi troppo
spesso per farvi cieco affidamento; peggio ancora, se questi
politici nostrani continueranno a pensare di costringere i
provider a fare da censori e penseranno ancora che “Internet è
il Far West”, ci aspetta davvero una bella lotta. Ed è difficile
che questi stessi politici cambino idea se chi è stato presidente
del Consiglio quattro volte dichiara di non utilizzare Internet e
di non sapere inviare un e-mail; d’altronde, sono i media
tradizionali ad averlo consacrato, e l’interesse a coltivarli
rimane forte, così da cristallizzare una situazione che ci lascia
indietro. A curare la comunicazione online di Silvio Berlusconi
è Antonio Palmieri, il quale, in occasione del lancio della
pagina Facebook del presidente del consiglio, ha confermato
che Berlusconi “non sa navigare, ma capisce fino in fondo le
potenzialità di Internet” [83]. C’è da vedere se le potenzialità
alle quali fa riferimento Palmieri sono quelle di sviluppo
sociale e culturale del paese o solo quelle di ulteriore campo di
tutela degli interessi politici di chi da sedici anni domina la
scena politica italiana [84] .
Un’Italia dove spesso il sistema mediatico tradizionale
(mainstream) si mette di traverso: vediamo alcuni media (Tg in
particolare) parlare di Internet solo quando su Facebook si
creano gruppi contro i bambini affetti da sindrome di Down o i
pedofili adescano le ragazzine (senza con ciò voler dire che la
condanna di certi atti non debba essere tempestiva e severa); e
non è una coincidenza, dato l’alto parallelismo tra i nostri mass
media e la descritta classe politica. Rimane il fatto che questa
mentalità potrà causare danni, ma verrà spazzata via
dall’ulteriore sviluppo di Internet, soprattutto perché è
imminente un ricambio generazionale che vedrà adulti e
protagonisti a tutti i livelli della società quelli che sono i “nativi

102
digitali”.

Note
[1] Audiweb gennaio 2010; Solo tra il 2008 e il 2009 si registra un incremento del 10,4%, pari
a 2,9 milioni di individui in più.

[2] A rivelarlo uno studio europeo citato nel corso di un convegno romano organizzato da
Nokia Siemens Networks nel maggio 2010; vedi anche www.nokiasiemensnetworks.com

[3] La definizione è contenuta nel saggio “The Law Of Disruption” di Larry Downes.

[4] d.lgs. 518/92 e legge 547/93

[5] Le ultime sono: il decreto legislativo del 6 maggio 1999 dedicato alle banche dati, la legge
numero 248 del 18 agosto 2000 contenente nuove norme di tutela del diritto d’autore e il
decreto legislativo numero 68 del 9 aprile 2003 di attuazione della direttiva 2001/29/CE
sull’armonizzazione di taluni aspetti del diritto d’autore e i diritti connessi nella società
dell’informazione.

[6] Ne sono esempi la Convenzione di Berna, che tra modifiche e integrazioni ha scavallato
due secoli, i trattati promossi dalla World Intellectual Property Organizations (WIPO) e la
Universal Copiryght Convention (UCC) che disciplina dal 1952 i limiti minimi di tutela del
diritto d’autore cui si devono conformare gli stati firmatari e contempla anche opere
scientifiche oltre a quelle letterarie ed artistiche. Infine, si segnala il Trade-realteds Aspect of
Intellectual Property Rights (TRIPs) del 1994 accolto anche dal GATT.

[7] www.teraconsultans.fr

[8] Cfr. http://punto-informatico.it/2878221/PI/News/p2p-consigli-acquisto.aspx

[9] http://punto-informatico.it/2917711/PI/News/copyright-dati-gonfiati.aspx

[10] http://musicbusinessresearch.files.wordpress.com/2010/06/paper-felix-oberholzer- gee.pdf

[11] http://punto-informatico.it/2897750/PI/News/blizzard-drm-una-perdita-tempo.aspx

[12] Da right, che può essere “dritto”, “giusto”, quanto “destra” si passa a “left”, “sinistra”;
anche il simbolo della C cerchiata viene ironicamente capovolto a formare il simbolo della
nuova “pratica digitale” di gestione dei diritti, così come la dicitura “tutti i diritti sono
riservati” viene cambiata nel motto “tutti i diritti sono rovesciati”.

[13] http://www.copyleft-italia.it/

[14] “Nuove norme a tutela del diritto d’autore”

103
[15] Legge 128/2004

[16] In tal proposito, la politica dell’agenzia americana Associated Press è quella di consentire
il “copia e incolla” di alcuni suoi dispacci per l’immissione in altri siti, ad esempio i blog,
elargendo particolari licenze che permettono un calcolo ad hoc su quanto bisogna pagare. Ma
proprio questa felice modalità di condivisione non gratuita gli è stata riusata contro: nel luglio
2010 il rivenditore online W00t! pubblicava un comunicato ufficiale sul suo spazio web, per
annunciare l'avvenuta acquisizione da parte di Amazon, contenente importanti dichiarazioni del
CEO dell’azienda texana, Matt Rutledge. L’AP riprende estratti del pezzo senza però ritenersi
in debito con la fonte, che, dichiarando di non voler iniziare una battaglia legale, ha risposto
con l’ironia: sul sito è stato pubblicato un calcolo fatto con i meccanismi di AP di quanto
l’agenzia dovrebbe pagare. Esattamente 17 dollari e mezzo.

[17] “Digital media and changing face of intellectual property law” contenuto in Rutgers
computer & tecnology law journal, numero 16, pag.324

[18] Di Cocco Claudio, “L’opera multimediale: qualificazione giuridica e regime di tutela”,


Giappichelli, Torino, 2005, pag.40

[19] E’ la linea di pensiero della dottrina di Zeno-Zencovich.

[20] In merito infatti si potrebbe dire che bisogna creare sistemi di acquisizione dei diritti più
facili e diretti per far sì che questo non diventi difficile e oneroso al punto di rivelarsi un
ostacolo allo sviluppo dei contenuti multimediali.

[21] Curiose coincidenze: proprio nei giorni in cui veniva assolto Rapid Share, il
Congressional International Anti-Piracy Caucus, ovvero il gruppo bipartisan che negli Stati
Uniti tutela la proprietà intellettuale, diramava un documento nel quale si faceva una lista dei
sei più grandi nemici del copyright a stelle e strisce; nella speciale classifica, al primo posto
The Pirate Bay, seguita dalla canadese IsoHunt. Terza piazza proprio per Rapid Share. Gli altri
tre “nemici” sono il servizio con base in Ucraina MP3fiesta, il lussemburghese RMX4U.com e
il motore di ricerca cinese Baidu.

[22] Riguardo a Google News, da Cupertino è partita la sperimentazione, per ora disponibile
solo negli USA, di una serie di opzioni che permettono all’utente di creare un’aggregazione
personalizzata delle notizie in base ai propri interessi nonché la possibilità di condivisione in
tempo reale sui social network. Più in linea col 2.0 è difficile andare.

[23] Cfr. Gaggi Massimo, Bardazzi Marco, op.cit., pag.190-191-192

[24] Cfr. http://punto-informatico.it/2900887/PI/Commenti/mondiali-li-guarderemo- tv.aspx

[25] http://punto-informatico.it/2906853/PI/News/olanda-usenet-chiusa-copyright.aspx

[26] http://torrentfreak.com/judges-liken-p2p-to-the-ancient-practice-of-lending-books-
100608/

[27] http://www.corriere.it/cronache/10_febbraio_24/reazione-ufficiale- google_bcbd266e-


213f-11df-940a-00144f02aabe.shtml

104
[28] http://www.blogstudiolegalefinocchiaro.it/privacy-e-protezione-dei-dati-
personali/intervista-a-oscar-magi-giudice-del-caso-googlevividown/

[29] Il materiale del convegno è disponibile al link


http://www.giur.uniroma3.it/materiale/audio/convegni.html, e da esso ho tratto alcune delle
considerazioni su questa vicenda.

[30] Curiosa l’idea dello studente americano Ozge Kirimlioglu, che ha messo a punto un
software chiamato “Pepper Mouth” che ha il compito di emettere cattivo odore quando si
scrivono parolacce e insulti. Una spia segnalerà all’utente lo stato d’allerta, che se verrà
ignorato, causerà l’attivazione del sistema.

[31] “Disposizioni in materia di lotta contro lo sfruttamento sessuale dei bambini e la


pedopornografia anche a mezzo Internet”, a sua volta integrativa della legge 269/1998.

[32] Ai sensi degli articoli 414 e 414 c.p. si rischiano da 1 a 5 anni per l'istigazione a delinquere
e l'apologia di reato e da 6 mesi a 5 anni per l'istigazione alla disobbedienza delle leggi di
ordine pubblico o all'odio fra le classi sociali.

[33] it.wikipedia.org/wiki/Gianpiero_D'Alia

[34] Per una brillante analisi del tema, “L’ultima copia del New York Times” di Vittorio
Sabadin e “L’Ultima Notizia” di Massimo Gaggi e Marco Bardazzi, già nella bibliografia di
questa tesi.

[35] Gaggi Massimo, Bardazzi Marco, op.cit., pag.62

[36] A giugno 2010, ad esempio, circolava in Rete, Facebook su tutti, un articolo che parlava
dell’approvazione del pacchetto sicurezza con il “vergognoso emendamento D’Alia”. Al di la
dell’intero anno che era passato dall’approvazione di quella legge, si diffondevano inesattezze
in merito ad una norma che, come abbiamo visto, è stata stralciata. Personalmente mi è capitato
più volte in quelle settimane di correggere amici online che “linkavano” l’articolo. Pochi giorni
dopo un blogger statunitense, ex funzionario del Dipartimento per la Sicurezza nazionale Usa
annunciava la cattura del Mullah Omar in Pakistan e veniva ripreso dalle tv afgane e pakistane
ma senza che la notizia trovasse fondamento da fonti ufficiali. Ma gli esempi sono
innumerevoli.

[37] Gaggi Massimo, Bardazzi Marco, op.cit., pag.15. Negli stessi ambienti, si mette in guardia
contro la cultura del “copia e incolla” che affliggerebbe l’era digitale, dove sembra inutile un
sapere organico perché “tanto c’è Google”, oltre ai danni a livello cognitivo creati dal
multitasking, che vanno dalla diminuzione delle capacità di memoria alla cattiva abitudine di
affidarsi solo a testi brevi perdendo così la capacità di approfondimenti e lettura maggiormente
riflessiva, fino al pericolo che il linguaggio che si usa sui social network non riduca i discorsi a
botta e risposta fatti di semplicistici slogan. Ma c’è anche chi pensa che essere connessi ad
esempio in un social network stimoli capacità relazionali e tenga sempre attive determinate
funzioni cognitive di conversazione e ragionamento. C’è chi pensa addirittura che le nuove
tecnologie saranno alla base di un nuovo capitolo dell’evoluzione genetica dell’uomo con una
trasformazione dei collegamenti neuronali e chi si concentra sugli effetti della moltiplicazione

105
dei dispositivi (convergenza e convergenze) nonché sui fenomeni di richiesta di informazione
sempre più personalizzata.

[38] Hans Magnus Henzesberger, “Constituents of a Theory of the media”, New Left Review,
1970, pp. 13 e 36; nel saggio il sociologo criticava la sinistra europea per aver ridotto lo studio
dei mass media al solo concetto di manipolazione e non prendendone in considerazione i
possibili utilizzi in senso progressista. Ovviamente Enzesberger non si riferiva ad Internet, ma
non è difficile estendere la massima alla Rete.

[39] Gaggi Massimo, Bardazzi Marco, op.cit., pag.42

[40] http://www.corriere.it/economia/10_luglio_19/gori-ipad_6c9fd1c8-9303-11df-a33b-
00144f02aabe.shtml

[41] Sarà lo stesso Levi a ritirare il suo ddl nel novembre 2008.

[42] C2195 “Disposizioni per assicurare la tutela della legalità nella rete internet e delega al
Governo per l’istituzione di un apposito comitato presso l’Autorità per le garanzie nelle
comunicazioni”.

[43] Solo un mese prima, e cioè a maggio, gli onorevoli del Pdl Gaetano Pecorella ed Enrico
Costa, che con il loro progetto di legge C881 intendevano invece estendere le previsioni della
legge 47 del 1948 anche a quelli che venivano definiti “siti internet aventi natura editoriale”.
Le conseguenze di tali formulazioni sono sempre potenzialmente devastanti.

[44] http://robertocassinelli.blogspot.com/2010/06/obbligo-di-rettifica- lemendamento.html

[45] http://www.corriere.it/politica/09_dicembre_17/regolare-la-rete- gambaro_41f67e9a-eb51-


11de-9f53-00144f02aabc.shtml

[46] http://www.blitzquotidiano.it/cronaca-italia/alemanno-mail-stupro-condannata-
palombelli-414123/

[47] Cinguettii che possono costare il posto anche ad affermati professionisti: è il caso di
Octavia Nasr, licenziata dalla CNN nel luglio 2010 per aver scritto su Twitter "Sono dispiaciuta
per la morte di Sayyed Mohammed Hussein Fadlallah, uno dei giganti di Hezbollah. Lo
rispettavo molto". Se non fosse che Sayyed era da tempo nella lista dei maggiori ricercati degli
USA.

[48] In merito a questo punto, nel suo libro “Ti odio su Facebook” Fabio Chiusi dice che
bisogna “comprendere l’odio, mettercelo tutto sotto gli occhi, valutarne la portata senza
ipocrisie. Solo a questo modo non cadremo né nel trabocchetto dei ‘troll’ né in quello
mediatico. Una volta appurato che non tutto l’odio presente in rete va preso alla lettera, e che le
sue dimensioni meritano una riflessione, ma non sono certo tali da giustificare una “emergenza
Facebook”, saremo in grado di affrontare in modo costruttivo questa semplice manifestazione
di ciò che serpeggia nel paese”.

[49]http://www.corriere.it/politica/09_dicembre_16/maroni_internet_decreto_ddl_web
_regole_dd6f1fc2-ea42-11de-8d37-00144f02aabc.shtml

106
[50]http://www.corriere.it/politica/09_dicembre_16/maroni_internet_decreto_ddl_web
_regole_dd6f1fc2-ea42-11de-8d37-00144f02aabc.shtml

[51] http://www.citmedialaw.org/blog/2010/fortress-iceland-probably-not

[52] http://zambardino.blogautore.repubblica.it/2010/05/21/attenzione-che-ce-anche-il-
bavaglio-per-la-rete-ed-e-lo-stesso-bavaglio/

[53] http://www.corriere.it/politica/09_dicembre_17/schifani_legge_violenza_web_390860b0-
eb0a-11de-9f53-00144f02aabc.shtml

[54] Andrea Monti, “Internet chiude?”, 8-5-1997

[55] si veda a proposito Manlio Cammarata, “Una legge da migliorare”, InterLex dell’8-5-
1997

[56] Quasi universalmente applaudito un altro “tastino” di Facebook introdotto nei mesi
precedenti: per gli utenti dai 13 ai 18 anni sarà possibile inserire nel proprio profilo un “panic
button”, uno strumento che un semplice click permetterà di segnalare comportamenti scorretti
da parte di terzi; l’obiettivo è quello di prevenire le molestie perpetrate verso i minori a mezzo
Rete.

[57] Secondo un’analisi pubblicata a metà 2010 dal dal Consumer Reports National Research
Center, gli utenti di Facebook si dividono in due categorie: quelli informati e accorti in merito
all’inserimento di dati sensibili e quelli che al contrario non si fanno problemi nel divulgare, ad
esempio, la data di nascita (40%), il che espone a furti d’identità (1,7 milioni i nuclei familiari
ad aver sperimentato furti d'identità online nel corso del 2009). Pare che il 45 degli utenti abbia
postato online fotografie ritraenti la propria prole, spesso di minore età. E che l'8 per cento
abbia scritto online il proprio indirizzo. Senza contare un 3% di utenti che hanno apertamente
dichiarato di stare via da casa per un mese, mentre esistono applicazioni che richiedono il
gruppo sanguigno per l’elaborazione di un “profilo psicologico”. Visto che il social network di
Palo Alto incamera già parecchie informazioni e che è capitato più di una volta che virus e bug
mettessero a rischio la privacy degli utenti, sarebbe bene usare con parsimonia le capacità
comunicative del mezzo. Seguendo magari l’esempio degli utenti americani: secondo uno
studio della Pew Internet & American Life Project
(http://www.hyperorg.com/blogger/2010/05/26/pew-study-of-reputation-management/), ben il
71% dei giovani americani, compresi cioè tra i 18 e i 19 anni, hanno dimostrato un ruolo
particolarmente attivo e accorto nella gestione delle proprie impostazioni sulla privacy,
cambiandone le modalità in più casi, togliendo i “tag” alle proprie foto, rimuovendo commenti
sgraditi, ecc. percentuali che scendono in merito alle fasce d’età più alte. Un altro studio,
commissionato dalla McAfee (http://safekids.com/mcafee_harris.pdf) sottolinea come circa la
metà degli adolescenti che passano del tempo online ha condiviso informazioni personali con
sconosciuti. E il controllo dei genitori spesso non basta, perché viene aggirata dai più “ esperti
informatici” figli.

[58]http://online.wsj.com/article/SB10001424052748704513104575256701215465596.h tml?
mod=WSJ_business_whatsNews

107
[59] http://la.thepublicschool.org/note/2467

[60] http://www.corriere.it/cronache/10_febbraio_24/reazione-ufficiale- google_bcbd266e-


213f-11df-940a-00144f02aabe.shtml

[61] http://punto-informatico.it/2881394/PI/News/google-privacy-ci-sta-cuore.aspx

[62] http://www.corriere.it/cronache/10_giugno_30/mail-molestie-telefono_d64cda46- 8442-


11df-a860-00144f02aabe.shtml

[63] S1710, “Disposizioni per garantire la neutralità delle reti di comunicazione, la diffusione
delle nuove tecnologie telematiche e lo sviluppo dei software aperto”.

[64] Castells Manuel, op. cit., pp.127-128 [65] timwu.org [66] http://dig.csail.mit.edu/

[67] Il percorso che l’ha portata ad una posizione dominante può essere ricostruito in varie fasi:
tra il 1994 e il 1995 nascono le strutture Interbusiness e TOL (Telecom On Line); nel 1996
arriva l’acquisto di Video On Line che ha già 45000 abbonati; nel 1997 TOL e VOL sono
riuniti in TIN (Telecom Italia Network), e Telecom acquisisce così posizioni di netto vantaggio
in vista della liberalizzazione dei mercati, che di lì a poco avrebbe causato la denuncia della
AIIP (Associazione Italiana Internet Provider) di praticare prezzi “predatori”. Addirittura nel
1997 Emma Bonino alla prima conferenza degli Internet Provider organizzata a Napoli dalla
AIIP invitava a stare attenti alle offerte di Telecom e che lo sviluppo di un sano mercato di
Internet passava anche dalla concorrenza.

[68] http://www.interlex.it/copyright/pnuti9.htm

[69] Quello della banda larga sembra essere un problema generalizzato per tutto l’occidente:
dal “Rapporto sullo stati di Internet” stilato nel 2010 dalla società statunitense Akamai emerge
come Giappone Corea del Sud si piazzino saldamente al primo posto nella classifica delle
connessioni veloci. Prendendo in esame connessioni relative a quasi 500 milioni di indirizzi IP
provenienti da 234 paesi, Akamai rileva come delle 100 città con la broadband più veloce 61
sono ubicate in Giappone, solo 12 negli Stati Uniti. La città con le connessioni a Internet più
veloci del mondo è la coreana Masan, con una velocità massima media di 40,56 Mbps. Al
confronto il gigante statunitense arriva solo 57esimo con Monterey Park, in California, e una
velocità massima media di 25,2 Mbps. Allargando sui paesi, la velocità massima di media degli
USA è solo l’ottava ( 16mpbs), mentre quella italiana non supera i 10,2mpbs; Ai primi posti si
piazzano ancora Corea del Sud (33 Mbps) e Giappone (26 Mbps). Infine, negli USA la velocità
media è di 4,7 Mbps, con l'Italia ferma ai suoi 2,85 Mbps. Ad aggravare la situazione, le
promesse troppo spesso non mantenute dei provider in merito alle velocità garantite all’utente,
in merito alle quali un’indagine dell’FCC dimostrava nell’agosto 2010 come la media delle
velocità di connessione fosse la metà di quella pubblicizzata dai provider, che spacciano per
velocità media quella che è la massima; in Italia in questo senso, nelle stesse settimane,
l’Agcom lanciava il progetto Misura Internet, che permetterà agli utenti di misurare il reale
servizio offerto loro dagli ISP.

[70] “Filamenti sottilissimi in vetro, resina o plastica, contenuti a centinaia in un cavo, che
veicolano l’informazione sotto forma di impulsi luminosi che viaggiano ad una velocità
prossima a quella della luce e all’arrivo vengono riconvertiti in impulsi elettrici tramite

108
traduttori fotoelettrici”, in Mascheroni Giovanna, Pasquali Francesca, “Breve dizionario dei
nuovi media”, Carocci, Roma, 2006, pag.12

[71] In merito, potremmo prendere esempio dal paese straniero a noi più vicino: non Francia o
Svizzera, ma Città del Vaticano. La Santa Sede infatti, nel maggio 2010, ha stretto un’alleanza
con Telecom per la realizzazione di 400 km di fibre ottiche che le permettano di comunicare
con le sue 10 exclavi presenti sul territorio di Roma ad una velocità di 10Gbps. Curioso anche
se inquietante è il fatto che uno dei siti collegati direttamente con la Santa Sede sarà la stazione
radio di Santa Maria di Galeria , a nord di Roma, da anni al centro di vicissitudini giudiziarie
per le note emissioni ritenute ben al di sopra dei limiti imposti dalle leggi italiane dai cittadini
delle aree limitrofe.

[72]http://www.milanofinanza.it/news/dettaglio_news.asp?id=201006151240386582&c
hkAgenzie=TMFI&sez=news&testo=&titolo=Antitrust%20invita%20a%20recuperare
%20ritard o%20banda%20larga%20e%20ad%20aprire%20a%20più%20soggetti

[73] http://www.adnkronos.com/IGN/News/CyberNews/Tlc-Romani-a-giorni-apertura-
confronto-su-nuova-rete_544256338.html

[74] http://www.adnkronos.com/IGN/News/CyberNews/Tlc-Catricala-su-rete-si-a-
cooperazione-imprese-ma-valutare-governance_543978850.html
[75] Azienda leader nel supporto di funzionalità del web avanzate, vedi www.akamai.com.

[76]http://www.oecd.org/document/54/0,3343,en_2649_34225_38690102_1_1_1_3744
1,00.html

[77] Vedi anche http://malditech.corriere.it/2010/05/ma_quanti_di_voi_usano.html

[78] Nella stessa sede, Calabrò avanza proposte come quella di prevedere nella prossima
finanziaria l’abbonamento gratuito per gli studenti alle testate online, così da contribuire sia
alla diffusione della banda larga sia dei giornali, e indica in strumenti come gli iPad dispositivi
in grado di avvicinare i giovani alla lettura più che allontanarli. E’ ancora il presidente
dell’Agcom a dare ancora il quadro della situazione italiana in occasione dell'audizione del
Presidente dell'Autorità per le garanzie nelle comunicazioni dinanzi alla IX Commissione della
Camera dei Deputati, dove si afferma che i “dati che ci vedono ai primi posti in Europa sul
fronte dei prezzi dei servizi tradizionali e della concorrenza infrastrutturata ci classificano sotto
la media UE per diffusione della banda larga, anche se con quasi 5 milioni di chiavette USB e
15 milioni di smartphones l'Italia è leader in Europa nella diffusione delle tecnologie per
l'internet mobile” . Inoltre, “Siamo sotto la media anche per il numero di famiglie connesse a
internet, oltre che per la diffusione degli acquisti on-line e per il contributo dell'Information
Communication Tecnology al prodotto interno”. ”Il nostro Paese - ha aggiunto Calabrò a
proposito delle ricadute che tale drammatica situazione di arretratezza nella diffusione di
Internet produce - è il fanalino di coda nel commercio e nei servizi elettronici. Le imprese
vendono poco sul web; la quota di esportazioni legate all'ICT è pari al 2,2% e relega l'Italia al
penultimo posto in Europa”. Il presidente dell’Agcom disegna poi i passi da compiere per
invertire il trend: ”Norme quadro per la costruzione e condivisione delle infrastrutture che
affranchino dalle molteplici autorizzazioni e/o concessioni; completamento delle norme
sull'interoperabilità dei servizi della PA e sanità on line; norme per la liberalizzazione delle
transazioni on line e il commercio elettronico; norme sulla sicurezza delle reti; liberazione

109
delle radiofrequenze per la larghissima banda e meno vincoli per il Wi-fi; Utilizzazione di parte
dei proventi delle aste delle radiofrequenze per gli incentivi alla larga banda e per la riduzione
del digital divide; contributi per la rottamazione degli apparati informatici obsoleti; elevazione
del tetto del credito d'imposta per gli investimenti delle imprese e riduzione delle imposte sui
finanziamenti a lungo termine per interventi strutturali; agevolazioni fiscali per l'impiego di
capitali privati nel finanziamento di progetti di lungo periodo con forti esternalità positive (tra
cui le reti NGN) possono rappresentare una valida alternativa all'impiego di risorse di bilancio
sempre più scarse; riforma del diritto d'autore, bilanciando i diritti degli autori e quello degli
utenti che navigano in rete, tema che si inserisce nel più ampio dibattito sulla net neutralità”.

[79] Negli stessi mesi anche in Francia si discuteva di equo compenso: contro le norme che lo
regolano l'associazione degli operatori mobili transalpini (AFOM) si è appellata al Consiglio di
Stato , ritenendo eccessive le tariffe imposte sull’acquisto dei dispositivi di lettura di file
multimediali, che sembrano voler colpire indiscriminatamente tutti gli utenti scaricando sulle
loro spalle l’onere di risarcire le “vittime della pirateria”.

[80] http://punto-informatico.it/2881301/PI/Commenti/hsm-un-mistero-rinnovato.aspx

[81] http://www.agopress.info/?lang=it&idcnt=170764

[82] Numeri che lasciano comunque insoddisfatti. Partiva così la prima class action italiana per
i diritti digitali dei cittadini, proposta dai Radicali e da Agorà digitale e alla quale potranno
aderire tutti i cittadini che si sentono danneggiati dall’inadempienza delle istituzioni che non
hanno rispettato le direttive del d.lgs 82/2005.

[83] http://www.corriere.it/politica/10_maggio_14/belusconi-facebook-a_5cda89d2- 5f4f-11df-


8c6e-00144f02aabe.shtml

[84] Curiosità: il nostro presidente del Consiglio è stato anche insignito del non edificante
titolo di propugnatore di “neolingua e bispensiero” nell’ambito del “concorso” Big Brother
Award, manifestazione che, organizzata dal Progetto Winston Smith
(http://bba.winstonsmith.org/), premia siti, organizzazioni ed enti che si sono distinti durante
l’anno in vari ambiti poco onorevoli per l’ambiente della Rete. Nell’edizione 2010 ha
“trionfato” Facebook, che si è portato a casa varie statuette soprattutto in merito alle
problematiche della privacy. Il premio a Berlusconi è invece arrivato per "come ha impostato la
sua figura di comunicatore da quando è diventato anche uomo di governo. Tratto saliente del
suo profilo comunicativo è stato il continuo esercizio del bispensiero nella maggior parte delle
sue comunicazioni mediatiche. Il bispensiero é la capacità che in 1984 il Grande Fratello
instillava nella gente, quella cioè di poter credere contemporaneamente veri concetti opposti
(...) Il Grande Fratello aveva avuto bisogno di creare la Neolingua, mentre lui c'è riuscito
impiegando solo l'italiano!". Ovviamente, lo scopo della manifestazione è quello di sollevare,
creando clamore con l’attribuzione di premi al negativo, il dibattito sui problemi che affliggono
la Rete e che in questo capitolo spero di aver ben illustrato.

110