Sei sulla pagina 1di 271

Università degli Studi di Sassari

Facoltà di Scienze Politiche


Corso di Laurea in Editoria, Comunicazione multimediale e Giornalismo
a.a. 2007/2008

Evoluzioni del diritto d’autore:


authoring “2.0” e licenze Creative Commons

Cattedra: Progettazione di tecnologie per la comunicazione


Tesi di Laurea di: Paola Cherosu
Relatore: Dott.ssa Alessia Rullo
Correlatore: Dott. Giuseppe Mazziotti

Questo/a opera è pubblicato sotto una Licenza Creative Commons.

1
Evoluzioni del diritto d’autore: authoring “2.0” e licenze Creative
Commons

Introduzione …………………………………………………………………………………………… 7

CAPITOLO 1
Il Web “2.0” e le nuove forme di authoring in rete

1.1 La nascita del Web ……………………………………………………………………………………….. 13

1.2 Le caratteristiche del Web “1.0”………………………………………………………………….. 19

1.3 Il Web “2.0”…………………………………………………………………………………………………… 22


1.3.1 Il web come piattaforma ……………………………………………………………………………. 25
1.3.2 Le componenti tecnologiche e gli standard del Web “2.0” ……………………….. 28
1.3.3 La nuova cultura tecnologica e i modelli operativi …………………………………….. 30

1.4 L’Open culture ……….…………………………………………………………………………………….. 33


1.4.1 L’Open content: User Generated Content ………………………………………………… 34
1.4.2 L’architettura partecipativa ……………………………………………………………………….. 36
1.4.3 Nuove forme di intelligenza collettiva attraverso la collaborazione
e condivisione sul Web ……………………………………………………………………………………… 38

1.5 Web e Authoring: nuove forme di creazione dei contenuti in rete …………… 41
1.5.1 Esperienze di piattaforme per l’editing e la condivisione dei contenuti
sul Web .......................................................................................................... 45
1.5.2 La creazione collaborativa dei contenuti in rete: progetti e iniziative …….… 52

1.6 Il ruolo dell’utente “2.0” e la gestione dei diritti d’autore


sui contenuti autoprodotti: proposta di un authoring “2.0”..……….……………..…… 55

CAPITOLO 2
Il Web e la tutela del diritto d’autore
Copyright, Copyleft e Open Content

PARTE I – Copyright e Diritto d’autore

2
2.1 Premessa ……………………………………………………………………………………………………… 60

2.2 Copyright e Droit d’auteur: radici storiche .……………………………………………….… 62

2.3 La questione del Copyright statunitense: principi base ……………….………….… 64

2.4 Le direttive europee e la situazione italiana ……………………………….……………… 69


2.4.1 Il diritto d’autore italiano: radici storiche …………………………………………………… 70
2.4.2 Principi base della Legge 633 del 1941 ………………………………………………………. 72

2.5 I diritti dell’autore: diritti patrimoniali e diritti morali ….…………………………… 76

2.6 Le eccezioni e limitazioni ………………………………………………..…………………………… 77

2.7 Il diritto d’autore e i diritti connessi ……………………………………………………..….... 79

2.8 Gestione collettiva dei diritti e SIAE …………………………………………………….……… 80


2.8.1 Proposta di direttiva europea sull’estensione dei termini di protezione
dei diritti connessi: giustificazioni della Commissione Europea e critiche ………..…. 82

2.9 I sistemi tecnologici di controllo: i DRM ……………………………………………………… 85


2.9.1 Il DMCA e la direttiva europea 2001/29/CE.………………………………………………. 88

2.10 Verso il Copyright 2.0………………………………………………………………………….......... 92

2.11 Il diritto d’autore per particolari tipologie di opere:


la tutela del software …………………………………………………………………………………………. 96

2.12 Il copyright nel Web “2.0”: social networking e


user generated content ……………………………………………………………………………………. 100
2.12.1 Il file sharing e il modello peer-to-peer ………………………………….………………… 103

PARTE II - Il Copyleft

2.1 Il movimento Copyleft……………………………………………………………………………….…. 106

2.2 Il free software e il progetto GNU…………………………………………………….………… 108

2.3 Principali licenze d’uso sul modello Copyleft……………………………………………… 112


2.3.1 La GNU GPL..……………………………………………………………………………………………… 112
3
2.3.2 La GNU FDL………………………………………………………………………………………………… 112
2.3.3 La GNU LGPL ……………………………………………………………………………………………… 113

2.4 La Open Source Initiative e la relazione con il movimento Free Software…. 114

PARTE III – L’open Content: il progetto Creative Commons

2.1 Creative Commons …………………………………………………………………………………….… 119

2.2 Creative Commons Italia e la nascita di NEXA …………………………………………..… 121

2.3 Le licenze d’uso Creative Commons …………………………………………………..………… 124

2.4 Creative Commons: progetti e strumenti ………………………………………………….... 128

2.5 La necessità di assicurarsi i diritti prima di licenziare:


soluzioni progettuali……………………………………………………………………………….….……… 129

2.6 L’applicazione delle CCPL ad un’opera ………………………………………………………… 131

CAPITOLO 3
L’Interaction Design e l’approccio metodologico User-Centered

3.1 Human Computer Interaction ………………………………………………………………………. 135

3.2 L’Interaction Design ……………………………………………………………………….……………. 140

3.3 L’approccio metodologico all’Interaction Design:


lo User-Centered Design…………………………………………………………………………………….. 144

3.4 L’ingegneria dell’usabilità …………………………………………………………….…….……… 147

3.5 Modelli di Progettazione e Sviluppo …………………………………………………………… 148


3.5.1 Il modello “a cascata”.……………………………………………………………………….……….. 148
3.5.2 Il modello Iterativo ………………………………………………………………….…….…………… 151

3.6 L’approccio metodologico allo User-Centered Design ……………………….…….… 153

4
CAPITOLO 4
Prima ricognizione sull’utilizzo delle licenze Creative Commons: i questionari ai
potenziali utenti e le interviste agli esperti

4.1 Premessa……………………………………………………………………………………………….……… 156

4.2 Risultati del questionario e analisi dei dati………………………………………………..… 159

4.3 L’intervista al Prof. J.C. De Martin…………………………………….……………………..…… 161

4.4 L’intervista a Victor Stone, amministratore del sito CcMixter ….………………… 167

CAPITOLO 5
Web “2.0” e licenze Creative Commons. Progettazione di un tutorial a sostegno
degli utenti nell’utilizzo delle CCPL durante l’authoring in rete, secondo la
metodologia di progettazione User-Centered.

5.1 Premessa ……………………………………………………………………………………………………… 173

5.2 L’analisi comparativa ……………………………………………………………….……………..…… 174

5.3 Task Analysis sulle piattaforme Flickr.com, Ccmixter.org e Total Recut.com


5.3.1 Condividere una foto su Flickr.com e rilasciarla sotto CCPL …………….………… 175
5.3.2 Condividere un brano con CcMixter.org per il riutilizzo in rete…………………. 176
5.3.3 Creare e condividere un video su Total Recut.com ………………………………..… 177

5.4 Le valutazioni con gli utenti: prima fase ……………………………………………….…….. 178

5.5 La definizione dei personaggi ………………………………………………………….……..…… 180


5.5.1 Scheda Personaggio Primario……………………………………………………………………… 181
5.5.2 Scheda Personaggio Secondario ………………………………………………………………… 181
5.5.3 Scheda Personaggio Negativo ………………………………………………………………….… 182

5.6 Il metodo degli scenari …………………………………………………………………………….…… 183


5.6.1 Scenario dell’attività su CcMixter.org ………………………………………………………… 183
5.6.2 Scenario dell’attività su Flickr.com………………………………………….………….……… 188
5.6.3 Scenario dell’attività su Total Recut.com…………………………………………….……… 192

5
5.7 I requisiti dell’attività …………………………………………………………………………………… 196
5.7.1 Analisi dell’utente e dei bisogni ……………………………………………….………………… 196
5.7.2 Analisi del contesto d’uso…………………………………………………………………………… 197
5.7.3 Analisi casi d’uso………………………………………………………………………………………… 197
5.7.4 Il documento dei requisiti ……………………………………………………………….…………. 202

5.8 Imparare il diritto d’autore in rete direttamente lavorando:


i contenuti e l’estetica del tutorial …………………………………………………..………………… 205

5.9 Il ciclo dei prototipi


5.9.1 Il mock-up ……………………………………………………………………………………………..…… 207
5.9.2 Il prototipo interattivo …………………………………………………………………………..…… 213

CAPITOLO 6

Conclusioni e generalizzazione dei risultati emersi

6.1 Le valutazioni con i potenziali utenti sul prototipo interattivo ………………..…. 218

6.2 Applicazione del prototipo ad altre piattaforme User-Generated Content


e social networking e visione futura del sistema ……………………………………………… 225

Appendice……………………………………………………………………………………………….………… 231

Riferimenti Bibliografici e Articoli ……………………………………………………………..… 264

Riferimenti Web …………………………………………………………………………………….…………269

Ringraziamenti ………………………………………………………………………………………………… 271

6
Introduzione

L’evoluzione del Web ha portato con sé dei profondi cambiamenti tecnologici e


sociali. Infatti grazie allo sviluppo dei linguaggi e degli standard che hanno promosso la
diffusione dei cosiddetti Web Service, è stato possibile lo sviluppo di vere e proprie
piattaforme Web sempre più simili, sia sotto l’aspetto grafico che per la facilità di
utilizzo, alle più comuni piattaforme comunemente utilizzate in locale. Queste
piattaforme Web si stanno via via evolvendo, migliorando la propria offerta e
aggiungendo servizi addizionali quali la possibilità di editing direttamente online, grazie
allo sviluppo di applicazioni in tutto e per tutto simili ai più tradizionali software di
editing comunemente installati sui nostri computer.
Tutto questo ha cambiato l’authoring in rete. Infatti, come vedremo nel primo
capitolo di questo lavoro, se fino a poco tempo fa i contenuti di ogni genere erano un
prodotto di nicchia, creati perlopiù da professionisti del settore o da pochi appassionati,
oggi il Web permette ad ognuno di noi di creare e pubblicare in rete materiale di ogni
genere senza intermediazione. La diffusione dei blog, del citizen journalism e dei wiki ha
permesso alle persone di diventare protagoniste nella produzione di informazione e
contenuti, grazie ad interfacce sempre più intuitive e facili da usare, che permettono di
gestire le informazioni senza intermediazione e senza il bisogno di possedere
conoscenze specifiche dei linguaggi di programmazione e codici. Oggi perciò tutti, nel
cosiddetto Web “2.0”, siamo possibili autori e co-autori di contenuti, possiamo creare e
distribuire testi, articoli, video, fotografie e musica attraverso le piattaforme User-
Generated Content semplicemente effettuando l’upload dal nostro computer, oppure
creando direttamente online i nostri lavori utilizzando gli strumenti di editing messi a
disposizione gratuitamente da queste piattaforme.
Ma cosa succede nel momento in cui pubblichiamo un nostro lavoro in rete? La
digitalizzazione ha portato dei grossi cambiamenti nella fruizione dei contenuti, infatti
ogni lavoro digitale pubblicato sul Web è perfettamente riproducibile e riutilizzabile da
chiunque abbia accesso alla rete. Questo significa che ogni volta che scriviamo un post
su un blog, ogni volta che creiamo un video e lo pubblichiamo su You Tube e ogni volta
che vogliamo condividere un qualsiasi file attraverso i principali strumenti di social
networking, chiunque può prendere visione del nostro lavoro, copiarlo, distribuirlo,
riadattarlo e modificarlo, proprio perché la digitalizzazione permette di non distinguere

7
più l’originale dalla copia. Questa evoluzione ha portato allo sviluppo di quella che
Lawrence Lessing, fondatore di Creative Commons, definisce remixing culture cioè la
cultura del riuso, dove tutto può essere preso, modificato, rielaborato e ripubblicato in
rete. La presa di coscienza che, con lo sviluppo del Web, gli authors sono cambiati e sono
cambiati i modi di creazione e di fruizione dei contenuti in rete, ha portato alla necessità
di approfondire la questione del diritto d’autore per capire cosa accade ai contenuti
prodotti ogni giorno da milioni di utenti, e capire se e in che modo questi contenuti
vengono tutelati.
Infatti se fino a poco tempo fa si poteva tranquillamente vivere ignorando
totalmente la disciplina del diritto d’autore ed era un argomento che interessava solo
l’industria culturale e i professionisti di questo settore, oggi non è più così perché queste
nuove forme di authoring esigono una conoscenza del diritto d’autore più ampia per
ognuno di noi, in quanto possibile autore e co-autore di contenuti in rete. La nostra
cultura però non aiuta in questo senso a divulgare la questione del diritto d’autore,
infatti il problema principale è che gran parte degli utenti delle piattaforme User-
Generated Content spesso non conosce abbastanza questa disciplina e non ha
conoscenze giuridiche così ampie per comprendere davvero cosa significano i Terms of
Service. Per questo motivo le piattaforme presenti in rete, data la grande quantità di
contenuti generati dagli utenti, hanno il dovere e il bisogno di divulgare maggiormente
la conoscenza del diritto d’autore per i propri utenti meglio di quanto già facciano oggi
con la pubblicazione dei Terms of Service. Quello che si propone di attuare questo lavoro
è quindi di sviluppare un sistema che permetta di educare i potenziali utenti di queste
piattaforme al diritto d’autore, e per fare questo forse è necessario andarli a colpire
direttamente nel momento in cui creano o riutilizzano un contenuto presente in rete,
ponendoli di fronte alla questione nel momento di maggiore suscettibilità, cioè mentre
stanno producendo qualcosa. Questo sia per accrescere la conoscenza dei propri diritti,
che per accrescere la conoscenza dei diritti degli altri utenti.
Cercheremo quindi di analizzare in profondità, nel secondo capitolo di questo
lavoro, la questione del diritto d’autore in generale, per capire meglio come la legge si
pone nei confronti delle opere d’ingegno e come tutela i lavori autoprodotti dagli utenti
alla luce dei cambiamenti apportati dall’evoluzione del Web. La legge sul diritto d’autore
(L. 633/41) infatti tutela indistintamente tutte le opere dell’ingegno che presentano
carattere di originalità e novità, quindi lo stesso tipo di tutela vale sia per l’ultima opera
8
musicale o cinematografica apparsa sul mercato che sul cortometraggio amatoriale e
sull’articolo prodotto da ognuno di noi che, per svago o per passione, si cimenta nel
tempo libero nella creazione di contenuti e decide di diffonderli in rete per avere visione
globale. La legge sul diritto d’autore è sicuramente giusta e va bene per alcune tipologie
di opere che necessitano di un tipo di tutela più completa, ma questo tipo di tutela così
restrittiva ha ancora senso in un contesto digitale come questo, dove ogni giorno milioni
di utenti producono e diffondono materiale? E quanto viene realmente rispettata?
L’idea di questo lavoro è nata dopo aver partecipato lo scorso 30 maggio 2008 al
seminario tenuto dal Dott. Giuseppe Mazziotti “Il diritto d’autore europeo nel mondo
digitale: quali prospettive per l’utilizzatore finale di contenuti?” presso l’Università di
Sassari nell’ambito dei corsi di Progettazione di Tecnologie per la Comunicazione e di
Sociologia e Tecniche dei Nuovi Media, dove sono state illustrate le licenze di diritto
d’autore Creative Commons. Le licenze Creative Commons sono delle licenze d’uso che
permettono agli autori di contenuti in rete di specificare, a chi utilizzerà la loro opera,
quali utilizzi sono concessi, una sorta di contratto con cui l’autore decide liberamente di
rinunciare ad alcuni dei diritti patrimoniali esclusivi che la legge 633/41 gli conferisce
quale autore originario dell’opera. In questo modo, chi fruisce in rete del materiale
rilasciato sotto Creative Commons, è messo al corrente degli usi che l’autore originario
ha deciso di concedere ed è tenuto a rispettare le condizioni poste dalla licenza scelta
dall’autore originario.
Abbiamo così deciso di esplorare questo fenomeno per capire come oggi le
piattaforme User-Generated Content già presenti sul Web affrontino la questione della
tutela dei lavori autoprodotti dagli utenti, se e quali di queste già utilizzino le licenze
Creative Commons e in che modo. L’analisi delle esperienze già presenti sul Web ci
permetterà di assimilarne le potenzialità e di analizzare le carenze presenti oggi sul Web,
con lo scopo di arrivare a definire un sistema che possa migliorare l’authoring negli
ambienti di creazione e condivisione di contenuti valorizzandoli con l’utilizzo delle
licenze Creative Commons, e possa così diffondere la conoscenza di queste licenze e
sensibilizzare i potenziali utenti al loro utilizzo, definendo una nuova forma di authoring
“2.0”.
Per la progettazione del nostro sistema abbiamo deciso di seguire l’approccio
metodologico User-Centered Design, mettendo in primo piano l’utente fin dall’inizio del
nostro percorso iterativo di progettazione e che ci consentirà, attraverso la
9
somministrazione di questionari esplorativi e l’osservazione empirica delle loro azioni
nello svolgere determinati compiti sui prototipi che via via sottoporremo alla loro
attenzione, di scoprire necessità e bisogni dei potenziali utenti di queste piattaforme e
delle licenze Creative Commons. Cercheremo quindi di valutare la diffusione e la
conoscenza delle licenze Creative Commons tra i potenziali utenti delle piattaforme
User-Generated Content, e di capire se e in che modo si possano sensibilizzare
maggiormente gli utenti alla questione del diritto d’autore e all’utilizzo delle licenze
open content per i loro contenuti in rete. Attraverso l’analisi delle loro reazioni e delle
loro opinioni cercheremo di individuare gli spazi aperti per la progettazione del nostro
sistema e proveremo a capire se e come sia possibile migliorare le piattaforme già
presenti in rete, valorizzandole con l’utilizzo delle licenze Creative Commons, e
provando a rendere migliore la User-Experience.
Sarà fondamentale inoltre approfondire meglio l’argomento ascoltando il parere
degli esperti che lavorano al Progetto Creative Commons Italia e di chi si occupa della
gestione delle piattaforme User-Generated Content, con lo scopo di esplorare in
profondità questi temi e capire dove andare ad agire per la realizzazione del sistema che
vogliamo progettare. Mostreremo quindi, nel quinto capitolo di questo lavoro, le varie
fasi del processo iterativo che ci porteranno alla realizzazione della nostra idea
progettuale, mostrando, passo dopo passo, l’evoluzione del ciclo di prototipi che
sottoporremo ai potenziali utenti del nostro sistema fino ad arrivare alla progettazione
del prototipo finale.
Infine, nel capitolo conclusivo, cercheremo di generalizzare i risultati emersi
dalle valutazioni dei potenziali utenti sul prototipo finale. In base a questi risultati
proveremo a ricollegarci alla classificazione delle nuove forme di authoring in rete, per
capire se e come questo nuovo sistema potrebbe modificare la produzione di contenuti
in rete, sia da un punto di vista giuridico che da un punto di vista tecnico-progettuale.
Proveremo quindi a dare una risposta al quesito che ci siamo inizialmente posti nel
primo capitolo, cioè capire se sia possibile parlare di authoring “2.0” come nuova forma
di produzione di contenuti in rete valorizzata dall’utilizzo delle licenze Creative
Commons. Cercheremo inoltre di verificare se il sistema che vogliamo progettare sia
futuribile e di dimostrare, anche con esempi pratici, come questo potrebbe essere
applicato a diverse esperienze di piattaforme User-Generated Content già presenti in
rete.
10
“Se tu hai una mela, e io ho una mela e ce le scambiamo,
allora tu ed io abbiamo sempre una mela per uno.
Ma se tu hai un’idea e io ho un’idea e ce le scambiamo,
allora abbiamo entrambi due idee”.
George Bernard Shaw

“Il solo modo per scoprire cosa piace agli utenti è ascoltarli.
Tenete gli utenti al centro del vostro progetto. Siate umili. Ascoltateli.
Perché solo loro decretano il vostro successo”.
Jacob Nielsen

11
CAPITOLO 1
Il Web “2.0” e le nuove forme di authoring in rete

12
CAPITOLO 1
Il Web “2.0” e le nuove forme di authoring in rete

1.1 La nascita del Web


Internet1 è definito come un sistema di interconnessione e si riferisce a una serie
di reti di computer connesse tra di loro, più precisamente è definita la rete delle reti.
Essa è utilizzata per le comunicazioni private e pubbliche, lavorative e ricreative,
scientifiche e commerciali.
Internet offre i più svariati servizi, tra cui il principale è il World Wide Web,
sviluppato nella metà degli anni Ottanta da Tim Berners-Lee ed un gruppo di studiosi del
CERN (Conseil Européen pour la Recherche Nucléaire) per favorire l’interconnessione
mondiale2. Internet si basa su una serie di protocolli standardizzati attraverso i quali i
computer si inviano dati che vengono trasmessi su linee telefoniche, cavi della
televisione via cavo e canali satellitari. Quando un computer è pronto ad inviare i suoi
dati utilizza un software speciale che li riduce in pacchetti che si conformano ai due
protocolli Internet che governano la spedizione: IP (Internet Protocol) e TCP
(Transmission Control Protocol). Il programma etichetta ogni pacchetto con un numero
unico, poi lo spedisce lungo i fili del telefono e in seguito il computer che riceverà i
pacchetti userà il suo programma Internet per riassemblarli in base alle etichette3.
Con la nascita del World Wide Web nel 1991, che ha riscontrato un immediato
successo grazie alle sue funzionalità, alla sua efficienza e alla sua facilità di utilizzo,
Internet ha subito una fortissima crescita che l’ha portata a cambiare la società moderna
rivoluzionando le relazioni sociali, il modo di lavorare e facilitando la comunicazione tra
le persone.

1
Questo sistema fu inizialmente immaginato nei primi anni Sessanta, quando Paul Baran, della
Rand Corporation, spedì un messaggio attraverso un sistema di computer collegati fra loro e
questo sistema fu utilizzato poi durante la guerra del Vietnam per sperimentare nuovi modi di
trasmettere informazioni ai militari attraverso computer collegati in diverse locazioni. Dal 1970
ARPAnet (Advanced Research Project Agency) era stata creata per il progresso
dell’interconnessione telematica e attraverso ARPAnet e le ricerche condotte, furono sviluppate
tecnologie e protocolli che hanno permesso a Internet di diventare ciò che è oggi. Per
approfondire, Beccaria A., I pionieri della frontiera digitale: Internet dagli esordi al world wide
web, disponibile in rete all’indirizzo antonella.beccaria.org/shalom/work/storia_internet.pdf
2
Kaye, B., Medoff, N., The World Wide Web. A Mass Communication Perspective, Mayfield
Publishing Company, California, 2001, p.16.
3
Berners-Lee, T., L’architettura del nuovo Web, Feltrinelli, Milano, 2002, p. 30.

13
Essa infatti è un sistema di comunicazione bidirezionale nel quale ognuno è un
potenziale destinatario di messaggi e allo stesso tempo un potenziale emittente: il
pubblico da mero ricevente di informazioni diventa provider. Con Internet ogni persona,
con minime abilità, può reperire e inserire informazioni in qualsiasi momento perché
queste sono disponibili a chiunque in breve tempo, in modo conveniente, facile da usare
e spesso liberamente. Internet ha cambiato i modelli di fruizione dei media e lo stile di
vita di milioni di persone che oggi utilizzano il Web come fonte di intrattenimento,
informazione e comunicazione. Le persone hanno scoperto questo medium interattivo e
con esso nuovi modi di accedere alle informazioni e comunicare con gli altri.
Il World Wide Web presenta informazioni in diversi formati come testo, grafica,
video e audio, e consiste in una infinità di siti forniti da un numero indefinito di entità
connesse da un vasto labirinto di milioni di computer. Attraverso un nuovo utilizzo facile
del punta e clicca dei browser, gli utenti possono navigare senza difficoltà da sito a sito4.
La diversità e l’abbondanza di contenuti immessi nel Web è illimitata. Secondo
Kaye e Medoff5 nel 1995 i documenti disponibili sul Web erano circa 4 milioni. Nel 2000
il numero dei documenti presenti nel Web era stimato essere di circa 800 milioni.
Il Web ha cambiato il modello di comunicazione tradizionale dei mass media uno
a molti6, trasformandolo in un modello molti a molti: ognuno è produttore e ricevente,
gli individui possono ricevere e inviare messaggi personali o di massa, le informazioni
possono essere fornite e visualizzate da un pubblico di massa, o immagazzinate per
essere scelte e recuperate successivamente dagli utenti. Internet quindi è un veicolo per
la comunicazione interpersonale e l’interattività, per spedire messaggi di massa, e per
memorizzare informazioni da scegliere e recuperare. È un fenomeno di comunicazione
reale che permette diverse forme e stili di comunicazione7.
Le nuove tecnologie di Internet sono state sviluppate per permettere alle
persone di scegliere informazioni basate sulle proprie preferenze personali. In questo
senso Internet è considerato non un mass media, ma un nuovo medium interattivo: i siti

4
Kaye, B. Medoff, N., op. cit., pp. 2-3.
5
Ivi, p. 6.
6
Una fonte emittente produce e invia messaggi a molte persone che costituiscono un pubblico
omogeneo. I messaggi spediti in questo modello sono creati per attrarre e arricchire l’audience di
massa.
7
Kaye, B. Medoff, N., op. cit., p. 9.
14
Web infatti possono inviare agli utenti messaggi basati sulle proprie preferenze espresse
navigando.
Sebbene Internet esista dal 1970, l’introduzione dei browser user-friendly è stata
accompagnata dall’esplosione di utenti: tecnologicamente siamo davanti ad un media
unico, che condivide le caratteristiche dei media tradizionali ma offre vantaggi rispetto a
questi perché può essere fruito mentre si svolgono altre attività e perché le informazioni
sono archiviate per utilizzi futuri e possono essere recuperate in ogni momento.
In certi casi gli svantaggi del Web sono la non-portabilità, infatti ancora oggi non
è possibile usufruirne in tutti gli spazi, sebbene le reti wireless stiano portando il Web ad
essere più portabile nei luoghi, ma nonostante ciò alcune restrizioni continuano ad
essere applicate, giustificate da norme sulla privacy8. In Italia infatti il controverso
Decreto Pisanu sulle misure antiterrorismo, che è stato recentemente prorogato dal D.L.
207/2008 al 31 dicembre 2009, prevede che gli esercizi pubblici e privati che offrono
accesso ad Internet si registrino presso la Questura e memorizzino i dati personali degli
utenti9.
Prima dello sviluppo del Web, le informazioni in Internet erano recuperate
conducendo una serie di complicati passaggi e comandi per localizzare dati, preparare la
connessione remota e scaricare i dati in un computer locale, richiedendo una profonda
conoscenza dei comandi Internet. Era perciò un’attività riservata quasi esclusivamente ai
professionisti di questo settore fino al 1993, quando fu sviluppato il primo browser
Web10 Mosaic dagli studenti dell’università dell’Illinois, guidati da Marc Andreessen11
che ha portato l’ipertesto al World Wide Web.

8
Kaye, Medoff, op. cit. p. 10.
9
Fonte articolo di L.Gennari su www.pubblicaamministrazione.net/leggi-e-
norme/news/1529/internet-e-sicurezza-proroga-per-decreto-pisanu.html. Per approfondire i
diversi punti di vista in proposito, sono disponibili diversi articoli sul sito del centro NEXA alla
pagina http://nexa.polito.it/newsroom
10
Il browser è un software presente su una macchina client al quale spetta il compito di
interpretare le istruzioni presenti nei file ricevuti dal server e di fornirne una rappresentazione,
preoccupandosi di richiedere al Web server le risorse necessarie al completamento della pagina
(immagini, suoni, elementi multimediali) la cui presenza è specificata dal codice HTML. Oggi i
browser sono capaci di gestire una grande quantità di formati digitali, dalle pagine html e xhmtl,
a xml, css, xsl, istruzioni in javascript, immagini in formato gif, jpeg e png, file Word, Power Point,
Excell e contentui audio e video in streaming. Definizione tratta da Crevola e Gena, Web Design,
la progettazione centrata sull'utente, CittàStudi Edizioni, 2006, p. 144.
11
Nel 1994 Marc Andreessen e Jim Clark fondarono la Netscape Communication Corporation e il
browser Netscape.
15
Mosaic era progettato per permettere agli utenti di accedere e condividere
informazioni sul Web senza avere bisogno di conoscenze specifiche di programmazione.
Il Web browser Mosaic è stato il primo sistema che ha permesso agli utenti Web di
navigare facilmente da sito a sito attraverso il cosiddetto sistema punta e clicca, che
permette di interagire direttamente sulle icone o sui bottoni presenti in una pagina
Web. Dopo l’introduzione di Mosaic hanno iniziato a svilupparsi molti altri Web browser
come Netscape Navigator e Internet Explorer12.
Il World Wide Web è oggi il servizio Internet più utilizzato e conosciuto, che
mette a disposizione degli utenti uno spazio elettronico e digitale per la pubblicazione di
contenuti multimediali, oltre che un mezzo per la distribuzione di software e la fornitura
di servizi particolari sviluppati dagli stessi utenti.
Il Web è stato creato da Tim Berners-Lee, mentre era ricercatore al CERN di
Ginevra, sulla base di idee dello stesso Berners-Lee e di Robert Cailliau, e oggi gli
standard su cui è basato, in continuo sviluppo, sono mantenuti dal World Wide Web
Consortium (W3C)13.
L’idea era quella di elaborare un software per la condivisione di documentazione
scientifica in formato digitale, con il fine di migliorare la comunicazione e la
cooperazione tra i ricercatori dell'istituto, definendo degli standard e protocolli per
scambiare documenti su reti: il linguaggio HTML, l’URL e il protocollo di rete HTTP.
Questo portò Berners-Lee a scrivere negli anni Ottanta il primo programma
retiforme Enquire14, in linguaggio Pascal che lo condusse a creare qualcosa di più ampio,
che abbracciava la crescita decentrata e organizzata di idee, tecnologia e società. E qui si
colloca il Web: l’idea infatti era quella di collegare le informazioni di tutti i computer, di
programmare il proprio computer in modo da creare uno spazio in cui tutto è collegato a
tutto e che tutti i frammenti di informazione di ogni computer nel mondo fossero a

12
Kaye, Medoff, op. cit. pp. 24-25.
13
Il W3C fu annunciato nel 1994 dopo la proposta di Tim Berners-Lee di un accordo tra il MIT
(Massachusetts Institute of Technology) e il CERN. L’iscrizione era aperta a tutte le organizzazioni
commerciali e statali, profit e non-profit e oggi conta oltre 400 membri. Berners-Lee, T.,
L’architettura del nuovo Web, Feltrinelli, Milano, 2002, p. 89.
Il W3C, come si legge dalla definizione sul sito ufficiale http://www.w3.org/, sviluppa tecnologie e
linguaggi standard che garantiscono l'interoperabilità per guidare il World Wide Web fino al
massimo del suo potenziale, scegliendo dei protocolli che non intralcino le leggi o le normative
che governano l’interazione tra le persone.
14
Enquire è stato il programma che ha fatto nascere l’idea del WWW. Il nome deriva da Enquire
Within upon Everything, un volume di consigli pratici di epoca vittoriana che fece nascere a
Berners-Lee l’idea di un portale basato su un universo di informazioni. Berners-Lee, op.cit., p. 15.
16
disposizione di chiunque. In questo modo si sarebbe potuto ottenere un singolo spazio
globale dell’informazione. Ogni singolo frammento di informazione, sarebbe dovuto
essere etichettato con un indirizzo, per ordinare al computer di trovarlo, creando
associazioni tra cose apparentemente scollegate ma che in realtà avevano un rapporto,
creando così una rete di informazioni15.
Berners-Lee iniziò così a scrivere un manuale per spiegare come sarebbe stato
utile un programma di computer per memorizzare informazioni normalmente scritte
sulla carta: su Enquire si potevano scrivere pagine di informazioni, ognuna delle quali era
un nodo nel programma, una scheda. Per crearne uno nuovo bisognava effettuare un
collegamento da un nodo già esistente. Questi link apparivano come una lista delle
citazioni alla fine di una pubblicazione, quindi l’unico modo per trovare una
informazione era quello di sfogliare dalla pagina iniziale.
In pratica Enquire poteva immagazzinare dati senza usare strutture organizzative
come matrici o alberi gerarchici. La mente umana utilizza queste strutture organizzative,
ma è capace di evitarle attraverso il meccanismo delle associazioni casuali. E così faceva
Enquire: inserendo un nuovo frammento di informazione e collegandolo ad uno già
esistente, si poteva saltare rapidamente da una informazione all’altra. Enquire girava su
un computer e non su una rete, quindi i collegamenti erano di due tipi: uno interno tra
le pagine di uno stesso file, e uno esterno che saltava tra i diversi file16.
In seguito Berners-Lee immaginò di combinare i link esterni di Enquire con
l’ipertesto e con gli schemi di interconnessione, creando così nuove reti per collegare
computer distinti e tutti i nuovi sistemi sarebbero stati in grado di andare verso gli altri,
permettendo a chiunque di aggiungere nuovi nodi collegati tramite link. Il sistema
doveva essere decentrato per permettere a tutti di utilizzarlo senza dover richiedere
l’accesso. Era uno dei primi lavori in stile Internet, ma ancora i sistemi dipendevano da
un nodo centrale a cui dovevano essere collegati17.
Enquire quindi dava la possibilità di linkare documenti e database e l’ipertesto
era il formato comune per mostrarli, ma restava il problema di far comunicare computer
differenti con diversi sistemi operativi. Alla fine degli anni Ottanta negli Stati Uniti, Unix
e Internet stavano collegando Università e centri di ricerca, ma in Europa questo

15
Berners-Lee, T., L’architettura del nuovo Web, Feltrinelli, Milano, 2002, pp. 15-16.
16
Ivi, pp. 23-24.
17
Ivi, p. 28.
17
sviluppo stava incontrando resistenze, perché si stava cercando di ottenere un sistema
distinto di protocolli di rete progettato dall’ISO (Organizzazione Internazionale degli
Standard).
Trasferire informazioni restava però molto complesso per chi non era esperto di
informatica finché non fu inventata la posta elettronica, che permetteva di spedire
messaggi da una persona all’altra. Ma questi messaggi erano volatili ed era necessario
uno spazio dove l’informazione potesse esistere in modo permanente e dove potesse
essere andata a cercare: il Web, sovrapponendosi a Internet, avrebbe regalato
all’informazione questo spazio.
Negli anni Novanta, con la diffusione dei primi personal NeXT18, Berners-Lee
iniziò a programmare il sistema di ipertesti sviluppato con Enquire che possedeva una
interfaccia facile e coerente, flessibilità e altre funzioni che in seguito sarebbero arrivate
sui PC. Berners-Lee prevedeva un sistema di condivisione dei saperi tra le persone,
attraverso la realizzazione di uno spazio unico e condiviso di informazione, dove ogni
persona sarebbe stata libera di collegarsi tramite link con qualsiasi documento presente
in rete attraverso un indirizzo univoco. Il primo obiettivo fu quindi quello di realizzare un
programma che avrebbe permesso la creazione, la navigazione e l’editing di pagine di
ipertesto. Scrisse così il codice HTTP (Hyper Text Transfer Protocol), il linguaggio che
avrebbero usato i computer per comunicare in Internet, e quello di URI (Universal
Resources Identifier), lo schema per gli indirizzi dei vari documenti. Nel giro di pochi
mesi disponeva di un programma client, un browser/editor punta e clicca che aveva
chiamato World Wide Web19. Lavorò in seguito con l’HyperText Markup Language
(HTML) che definiva come formattare le pagine contenenti link ipertestuali. Il browser
avrebbe decodificato le URI, consentendo di leggere, scrivere o editare pagine Web in
HTML20.
Era una rivoluzione copernicana rispetto alla filosofia dei precedenti sistemi
informatici: indurre la gente a mettere i dati sul Web era spesso solo questione di
indurla a cambiare punto di vista, a pensare all’accesso di un utente come navigazione in

18
La NeXT fu creata da Steve Jobs, fondatore della Apple, introducendo le prima interfacce
intuitive per personal, con cartelle e mouse.
19
Berners-Lee scelse un termine utilizzato in matematica per descrivere un complesso di nodi e
maglie in cui ogni nodo può essere collegato ad un altro, e rifletteva la natura distribuita delle
persone e dei computer che il sistema poteva mettere in collegamento, offrendo la promessa di
un sistema potenzialmente globale: il World Wide Web. Op. Cit., p. 34.
20
Berners-Lee, op. cit., pp. 38-41.
18
una serie di pagine virtuali all’interno di uno spazio astratto. Gli utenti avrebbero potuto
mettere un segnalibro per tornare in un punto preciso, e seguire un collegamento
ipertestuale da un punto qualsiasi verso un altro documento. Ciò avrebbe regalato ad
ogni pagina una sensazione di continuità e di vita persistente, e avrebbe permesso di
sfruttare i meccanismi mentali che tutti utilizziamo naturalmente per ricordare luoghi e
strade. Essendo in grado di fare riferimento a tutto con la stessa facilità, il Web potrebbe
rappresentare le associazioni tra cose che possono sembrare prive di collegamento tra
di loro ma che in realtà spartiscono una qualche relazione, un compito che il cervello
umano può eseguire in modo facile e spontaneo21.

1.2 Le caratteristiche del Web “1.0”


Come sostiene Berners-Lee22 «il Web è più una innovazione sociale che tecnica.
L’ho progettato perché avesse una ricaduta sociale, perché aiutasse le persone a
collaborare, e non come un giocattolo tecnologico. L’obiettivo del Web è migliorare la
nostra esistenza reticolare nel mondo».
Quando propose il Web nel 1989 Berners-Lee infatti aveva in mente due
obiettivi specifici: la comunicazione tramite condivisione del sapere -alla cui base stava
la collaborazione tra le persone-, e la comunicazione tra computer come estensione del
Web. Questo progetto prese il nome di Web Semantico, cioè rendere i contenuti Web
machine-understandable in modo che possano essere automaticamente accessibili e
comprensibili alle macchine attraverso un modello comune di rappresentazione
dell’informazione condiviso, espressivo, semantico e comprensibile alle macchine, cioè
aggiungendo ad essi informazioni aggiuntive attraverso i metadati23.
Secondo le linee guida del W3C, il Web semantico ha lo scopo di creare una
piattaforma per la condivisione e il riuso della conoscenza, rendere l’informazione
accessibile in modo automatico ad agenti software, favorire il riuso dell’informazione,
integrare contenuti esistenti sul Web, ottimizzare la ricerca di informazioni sui motori di
ricerca, rendere possibile l’automazione delle transazioni commerciali, creare

21
Ivi, p. 45.
22
Op. cit., pp.139-143.
23
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006,pp.193-194.

19
correlazioni semantiche tra pagine di domini diversi, gestire i diritti d’autore e la
proprietà intellettuale delle opere di ingegno.
Per poter lavorare insieme sul Web quindi sono necessari strumenti validi:
migliori formati per presentare l’informazione, interfacce più intuitive per editare e
cambiare l’informazione, integrazione più fluida con altri strumenti di editing Web. Per
far sì che le persone possano condividere il sapere, il Web deve essere uno spazio
universale in cui possano viaggiare tutte le informazioni senza discriminazioni e deve
quindi comprendere informazioni sia gratuite che a pagamento.
Infatti se il Web vuole rappresentare e sostenere la “ragnatela della vita”, deve
permettere alle persone di agire in modo diverso con gruppi diversi, di differenti
dimensioni e scopi e in differenti luoghi, e l’informazione deve essere in grado di varcare
anche i confini sociali. Collegandosi tra gruppi diversi infatti le persone forniscono anche
organizzazione e coerenza al mondo.
Il concetto originario del Web universale era quindi quello di uno strumento
comunicativo che aiutasse la gente nelle cose della vita reale, e che riflettesse i rapporti,
le conversazioni, l’arte e le interazioni sociali.
Ma oggi l’interazione avviene soprattutto sul Web: come afferma Berners-Lee24
«la gente usa il Web per costruire cose che non ha costruito, scritto disegnato o
comunicato in altri posti. Man mano che il Web diventa uno spazio privilegiato per tante
attività, dobbiamo anche garantire che faciliti una società giusta, concedendo accesso
paritario a tutti i soggetti».
Quello che oggi viene comunemente definito il Web “1.0”, nel 1998 iniziò ad
essere considerato un terreno di battaglia per le grandi aziende e istituzioni. Infatti
inizialmente proponeva siti monodirezionali con un flusso informativo da sito a utente,
che aveva ruolo di fruitore passivo di contenuti e servizi preconfezionati che non poteva
rielaborare o modificare25. Questo perché al Web “1.0” sono stati applicati i principi
delle barriere all’ingresso tipici dei sistemi di mercato tradizionali, costruendo
stratagemmi per mantenere gli utenti legati ad un determinato servizio26.
Il Web 1.0 -diffuso fino agli anni '90 e composto prevalentemente da siti Web
statici, senza alcuna possibilità di interazione con l'utente eccetto la normale

24
Op. cit., pp. 144-145.
25
Grivet Foiaia, L., Web 2.0 - Guida al nuovo fenomeno della Rete, HOEPLI, 2007, p.16.
26
Ivi, p.91.
20
navigazione tra le pagine, l'uso delle e-mail e dei motori di ricerca- era luogo privilegiato
che permetteva inizialmente alle grandi aziende di farsi pubblicità attraverso i cosiddetti
siti vetrina e che poi si sono allargati anche ai siti personali.
Inizialmente la ricerca delle informazioni avveniva esclusivamente attraverso il
browsing, cioè attraverso interrogazione ai motori di ricerca, che rintracciavano le
informazioni grazie alla funzione di categorizzazione attraverso tag27 creati dagli autori
dell’informazione stessa.
I siti, costruiti in linguaggio HTML, avevano una certa staticità, per cui la forma e
le informazioni contenute nel sito erano legate al linguaggio. Questo faceva sì che gli
utenti che navigavano sul Web, fossero costretti ad accedere di continuo ai siti di
maggiore interesse, creando la cosiddetta stickiness, cioè l’appiccicosità ad un sito.
Seguendo il principio del software, le applicazioni presenti sul Web venivano
rilasciate attraverso il sistema di release. La comunicazione era unidirezionale, in quanto
i contenuti e le informazioni erano create da un unico soggetto che gestiva il sito, spesso
con l’intermediazione del designer del sito stesso che aggiornava le informazioni sotto
richiesta del committente.
In seguito, intorno alla metà degli anni Novanta, lo sviluppo dei CMS (Content
Management System) -sistemi software che permettono la pubblicazione, gestione e
archiviazione di informazioni online, realizzati solitamente in linguaggio di
programmazione- hanno dato una soluzione alternativa al metodo manuale di creazione
delle pagine, aiutando i produttori di contenuti attraverso strumenti editoriali28. Questi
permettono di sveltire e facilitare l’inserimento di contenuti attraverso strumenti di
interfaccia utente, la creazione di categorie, il caricamento di file multimediali e
documenti scaricabili dagli utenti, la creazione di componenti interattive e
l’amministrazione di forum.
I CMS hanno introdotto una separazione tra contenuto e interfaccia per
permettere la semplificazione della procedura di creazione delle pagine, la diminuzione
dei costi per l’aggiornamento e la presentazione dei contenuti in formati differenti,

27
I tag (letteralmente etichette) sono delle parole chiave che possono essere inserite dagli autori
di un contenuto, per descrivere il proprio lavoro (Taxonomy), oppure, in perfetto stile Web “2.0”
possono essere realizzate dagli utenti che fruiscono del contenuto (Folksonomy).
28
Crevola, Gena, op. cit. pp.188-189.
21
permettendo agli utenti di poter gestire in modo più autonomo le informazioni, senza
intermediazione e senza conoscenze informatiche specifiche nella programmazione29.
Lo sviluppo dei sistemi CMS è stato reso possibile dai nuovi standard tecnologici
e di linguaggio condiviso, nati dalla necessità di garantire affidabilità e interoperabilità
tra i diversi strumenti e applicazioni nel Web, permettendo al Web di evolversi in siti più
dinamici e di integrare forum e blog. Inoltre, grazie ai nuovi standard come Javascript e
CSS, nascono nuove applicazioni che fanno sì che il Web somigli sempre più ad un
grande sistema operativo30.
Nel 2000 le cosiddette dot.com, aziende di servizi che fanno business in rete,
furono protagoniste negative della cosiddetta bolla finanziaria della new economy,
quando molte fallirono generando una recessione della new economy.

1.3 Il Web “2.0”


Nel 2005 la rete si è ripresa dal crollo delle dot.com e si è reincarnata come Web
“2.0”31. Il termine viene genericamente utilizzato per indicare uno stato di evoluzione
del World Wide Web, rispetto alla condizione precedente. Si tende ad indicare come
Web “2.0” l'insieme di tutte quelle applicazioni online che permettono un alto livello di
interazione uomo-macchina come blog e forum, e sistemi quali Wikipedia, YouTube,
Facebook, Myspace.
Il Web “2.0” è definito come una metrica di valutazione e un insieme di approcci
definiti innovativi nell’utilizzo del Web. Il termine Web 2.0 fu utilizzato per la prima volta
durante una sessione di brainstorming, in una conferenza tra O'Reilly e MediaLive
International. Dale Dougherty, pioniere del Web e Vice Presidente di O'Reilly, fece
notare che la rete non era crollata, bensì era ancora più importante di prima, con nuove
interessanti applicazioni e siti che nascevano sempre più numerosi. Inoltre, le società
che erano sopravvissute alla cosiddetta bolla32 sembravano avere alcune caratteristiche
in comune tanto da far pensare che il collasso del Web “1.0” avesse segnato un punto di
svolta per la rete33.

29
Ibidem.
30
Berners-Lee, op.cit., p. 146.
31
G. Lovink, Di Bari, V., Web 2.0, Il Sole24Ore, 2007, p. 41.
32
In particolare, sopravvissero alla bolla speculativa del 2000 Yahoo, Google e Microsoft.
33
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software disponibile su http://www.awaredesign.eu/articles/14-Cos-Web-2-0
22
Il termine Web “2.0” si riferisce ad una attitudine alla collaborazione e
condivisione dei contenuti, resa possibile da sistemi software sviluppati per supportare
l’interazione in rete e basato sull’utilizzo del Web come piattaforma.
Il Web “2.0” segna l’evoluzione del Web da una serie collegata di dati statici ad
un ambiente globale nel quale software online, connessioni a banda larga e applicazioni
multimediali offrono contenuti più ampi e un’interazione più stretta fra gli utenti. Il
fenomeno del Web “2.0” è caratterizzato da un numero sempre crescente di utenti che
generano, condividono, distribuiscono e riutilizzano contenuti Web.
In seguito il termine Web “2.0” ha decisamente preso piede, con oltre 9,5
milioni di citazioni in Google. Ma c’è ancora un grande disaccordo circa il suo significato:
alcuni lo denigrano, considerandolo un termine di marketing, alla moda ma
insignificante, mentre altri lo accettano come nuovo standard convenzionale34.
Secondo O’Really le principali differenze tra Web “1.0” e Web “2.0”, sono
sintetizzabili nella tabella seguente:

Figura 1- Principali differenze tra Web 1.0 e Web 2.0, semplificate da Tim O’Really in Cos’è il
Web 2.0. Design Patterns e Modelli di Business per la prossima generazione di software,
articolo disponibile all’indirizzo http://www.awaredesign.eu/articles/14-Cos-Web-2-0

34
O’Really, op.cit.
23
Da ciò derivano una serie di principi base che spiegano le caratteristiche del Web
“2.0”35:

1. il Web è una piattaforma


2. Il Web è una funzionalità
3. Il Web è semplice
4. il Web è leggero
5. il Web è sociale
6. Il Web è flusso
7. il Web è flessibile
8. il Web è mixabile
9. il Web è partecipativo
10. il Web è nelle nostre mani.

Nel definire il Web “2.0” non si può trascurare la querelle fra Berners-Lee e
O’Really. Berners-Lee infatti sostiene che il Web 2.0 non è nulla di nuovo: tutte le
componenti del Web 2.0 c’erano già alla nascita del Web e quindi si può parlare di una
naturale evoluzione dei tool e della cultura del Web verso un nuovo livello di strumenti e
di utilizzo. Il Web 1.0 infatti si basava sulla connessione tra persone, era uno spazio
interattivo.
Ma secondo O’Really quando Berners-Lee definì al CERN di Ginevra le regole del
gioco del Web, diede in pratica delle istruzioni che poi sono state assemblate insieme in
modo da creare quello che ora viene definito Web “2.0”. Inoltre è importante
considerare come l’esperienza del Web sia tutta umana e abbia poco a che fare con le
macchine e con gli automatismi: questi sono solo opportunità in più. È importante non
confondere il Web con le tecnologie: l’esperienza del Web si basa su fattori come il
tempo, i tentativi, gli errori, i desideri, le passioni36.
La nuova release del Web è creata quindi con i pezzi e le regole di prima, ma
consente di montarli in maniera diversa e integrarli in modo inaspettato. È
un’evoluzione basata sull’interconnessione di passioni, costruita su rinnovate regole

35
Di Bari, op.cit., p. 4.
36
Di Bari, op. cit., p. 5.
24
sociali. Secondo O’Really37 il Web 2.0 non rappresenta qualcosa di nuovo ma piuttosto la
più completa realizzazione del vero potenziale del Web. Per questo in seguito parleremo
più genericamente di Web.
Con il Web “2.0” nasce un nuovo modo di intendere l’utilizzo degli applicativi
informatici: oggi è possibile utilizzare i più comuni software di editing e gestione dei file
direttamente in rete, e questo ci rende più leggeri. Il vantaggio è quello di poter avere a
disposizione sempre e ovunque i nostri documenti, ma lo svantaggio è che quando si è
sconnessi i documenti sono inaccessibili. Ma questi svantaggi nel corso degli anni
probabilmente si andranno riducendo.
Per capire meglio il Web “2.0” possiamo quindi partire dai cosiddetti Web
Service, servizi Web che possono essere malleati, riutilizzati e smontati. Ogni Web
Service funziona a due livelli: un livello di superficie che è l’interfaccia utente, e un livello
profondo, che sono gli standard e i linguaggi. Al livello profondo la scelta di standard
sempre più interoperabili potrà annullare nel corso del tempo qualsiasi barriera di
comunicazione. Questo è il segreto del Web 2.0, la capacità di shakerare Web Service
diversi per offrire all’utente servizi sempre più innovativi38.
Alla base del Web quindi stanno applicazioni interconnesse che stimolano le
persone a collaborare, esprimersi e relazionarsi, senza dover avere conoscenza di
tecnologie abilitanti e rendendo la partecipazione delle persone alle attività in rete
sempre maggiore.
Si sta sviluppando inoltre un business model innovativo detto freemium, dove vi
è un livello basic del servizio fruibile in modo gratuito che consente di operare fino a un
certo limite. Per utilizzare funzionalità avanzate l’utente deve pagare un abbonamento a
consumo, come succede per esempio in Flickr.com.
Quindi si può definire il Web “2.0” come un insieme di relazioni indirizzate e
organizzate mediante strumenti tecnologici disponibili a tutti e legati fra loro39.

1.3.1 Il Web come piattaforma


Il Web “2.0” non è solo una nuova tecnologia e non è solo un cambiamento
culturale di approccio alla rete: tecnologia e società insieme sono le basi del Web 2.0.

37
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software su http://www.awaredesign.eu/articles/14-Cos-Web-2-0
38
Di Bari, op. cit., p. 8.
39
Ivi, pp. 11-13.
25
La componente tecnologica ha in sé anche quella sociale in quanto nel Web
“2.0” non ci si trova di fronte a nuove scoperte o nuove tecnologie, ma si assiste
all’affermazione e alla diffusione significativa nell’ambito delle comunità tecnologiche, di
sviluppatori e architetti applicativi, di tecnologie che consentono di abilitare un utilizzo
della rete incentrato sulla persona e sugli aspetti sociali. Infatti l’infrastruttura non è
cambiata, e la componente sociale -intesa come aspetto di interazione sociale- insieme
al cambiamento nell’approccio alla consultazione, al contributo e alla partecipazione sul
Web, sono possibili grazie alla diffusione di tecnologie informatiche su larga scala,
fattore abilitante della collaborazione tra utenti e della condivisione di informazioni, dati
e processi di lavoro, sia a livello culturale che professionale40.
Schematizzando, le caratteristiche del Web “2.0” possono far rifermento a
quattro elementi principali41:

1. technology
2. rich user experience
3. open culture: source, data, application, content
4. social network

Comune denominatore di questi quattro elementi sono le persone che ogni


giorno contribuiscono a diffondere tali tecnologie e comportamenti di massa, scrivendo
codici, contenuti, blog, creando e distribuendo immagini, filmati, opinioni e soprattutto
mixando questi elementi in modo nuovo e originale, creando innovazione tecnologica e
sociale e seguendo istinti e passioni. Gli abitanti della rete portano sul Web i loro
comportamenti e animano le comunità virtuali, dedicandosi al Web dopo tutte le varie
attività quotidiane e rendendo attiva e sociale l’esperienza sul Web. Al centro di tutto
stanno quindi le persone e i fenomeni culturali sviluppati a partire dalla loro interazione
sul Web e che non possono essere controllati dalle aziende. Questi quattro fattori, si
sono sviluppati autonomamente e l’evoluzione di ognuno porta lo sviluppo degli altri.
L’utilizzo del Web come piattaforma è una delle più grandi novità del Web “2.0”,
e racchiude in sé tutti i cinque elementi. Web come piattaforma significa poter utilizzare

40
Grivet Foiaia, L., Web 2.0 - Guida al nuovo fenomeno della Rete, HOEPLI, 2007, pp.13-14.
41
Ibidem.
26
il Web per realizzare vere e proprie applicazioni software che vengono distribuite e
utilizzate lato utente grazie alla rete, attraverso i browser42.
Infatti l’unica piattaforma applicativa distribuita finora era quella utilizzata in
locale con l’installazione sul PC dell’applicazione stessa che poteva dialogare con il
server. Il Web “1.0” proponeva -salvo eccezioni come l’home banking-, siti information
silos monodirezionali dal sito all’utente di contenuti e funzionalità, con l’utente come
fruitore passivo di contenuti preconfezionati, che non poteva rielaborare o modificare.
Oggi questi siti sono diventati applicazioni e servizi per gli utenti, basati su una
interazione bidirezionale proprio come avviene nella computing platform43.
Tecnologicamente il Web diventa una piattaforma grazie all’utilizzo di tecnologie
software come RSS e AJAX che creano sul Web una piattaforma alternativa competitiva
con i sistemi operativi tradizionali per PC, dove si possono sviluppare applicazioni e il
software diventa un servizio, e che sta facendo affermare la prassi del continuous
improvement con rilasci di nuove funzionalità senza release e senza comunicazioni, dove
è possibile condividere dati tra diverse applicazioni Web.
Oggi quindi chiunque può scrivere software e distribuirlo liberamente come
open source, dando così la possibilità ad altri sviluppatori di riutilizzarlo per realizzare
software più sofisticati. Dal lato utente, secondo la definizione di Grivet Foiaia44, il Web
diventa piattaforma perché può essere utilizzato nello stesso modo in cui si utilizzano le
applicazioni locali, diventa piattaforma per il social networking di creazione di contenuti
condivisi e di intelligenza collettiva, e diventa piattaforma per lo sviluppo di contenuti
aperti rilasciati sotto licenze Creative Commons (CCPL)45.
In pochi anni il Web è diventato una piattaforma grazie alla quale si possono
eseguire un crescente numero di attività. Il Web è passato dall’essere un fenomeno di
nicchia, di interesse per centri di ricerca e università, ad una diffusione globale. Alla
rapidità dell’innovazione tecnologica si è accompagnata l’espansione ed evoluzione dei
campi di applicazione del Web. L’accesso all’informazione online è diventato per molti
42
Ivi, p.15.
43
Grivet Foiaia, op. cit., p. 16.
44
Ibidem.
45
Creative Commons, è il nuovo tipo di copyright alcuni diritti riservati che consente agli utenti di
condividere i contenuti in rete con quel minimo di tutela necessaria a difendere il diritto
d’autore. L’esistenza di tali licenze d’uso è uno dei fattori che contribuisce al successo della
distribuzione libera dei contenuti sul Web e alla popolarità dei siti di User Generated Content,
grazie al senso di fiducia e tutela che generano negli utenti. L’argomento è affrontato in maniera
più ampia nel secondo capitolo.
27
una attività quotidiana che, anche grazie ai dispositivi di comunicazione mobile, non è
più circoscritta tra le mura domestiche o dell’ufficio. Il Web è diventato un riferimento
fondamentale per l’attività professionale e per la vita privata di milioni di persone. Il
nuovo canale di comunicazione, grazie alle sue potenzialità partecipative e inclusive, è
oggi un pilastro portante della cosiddetta società dell’informazione46.
Mentre la diffusione di Windows ha dato a Microsoft il controllo di una
piattaforma chiusa e proprietaria, il Web oggi si propone come una piattaforma nuova e
diversa, non controllata da un attore centrale ma basata su protocolli aperti e sulla
definizione di standard e modelli di sviluppo migliori.
Grazie alla diffusione della banda larga, allo sviluppo di una piattaforma Open e
alla disponibilità di community di sviluppatori che realizzano applicazioni Web sempre
più all’avanguardia, il Web diventa la nuova piattaforma dove le applicazioni non
saranno più quelle del proprietario, ma quelle dei leader di mercato come Google47che
controllano gli utenti di una piattaforma libera.

1.3.2 Le componenti tecnologiche e gli standard del Web “2.0”


Il Web prima di essere uno strumento di accesso alla conoscenza è un sistema
tecnologico complesso. Perché l’informazione possa essere gestita, elaborata,
conservata e sia fruita dagli utilizzatori, sono necessarie una serie di componenti
software che si avvantaggiano dei protocolli Internet per comunicare tra loro. I messaggi
scambiati via Web sono a loro volta strumenti informatici dal momento che la loro
realizzazione ha luogo grazie all’esistenza di appositi linguaggi per il trattamento
dell’informazione. Non si può quindi comprendere il Web senza prendere in
considerazione le tecnologie abilitanti che lo rendono possibile: è il risultato di un
processo di maturazione e di affermazione di tecnologie esistenti, attraverso un
processo di continui miglioramenti48.
Dal punto di vista tecnologico, le applicazioni Web possono essere definite “2.0”
quando rispettano le caratteristiche della Rich Internet Application (RIA), cioè

46
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 2.
47
Secondo la definizione di Grivet Foiaia, Google non è più solo un motore di ricerca ma il vero
leader di mercato per la fornitura di servizi applicativi sul Web che in futuro sostituiranno le
applicazioni in locale.
48
Crevola-Gena, op. cit., pp. 144-145.
28
applicazioni Web ricche, dotate di funzionalità e caratteristiche che le rendono simili ad
applicazioni desktop in locale.
Il più diffuso linguaggio di sviluppo per le RIA è AJAX (Asynchronous Javascript +
XML), nato nel 2005 come combinazione di linguaggi indipendenti come XHTML, CSS, e
XML, secondo i canoni standard di separazione del contenuto dalla grafica raccomandati
dal W3C49. AJAX permette di aggiornare in modo dinamico le informazioni visualizzate
all’interno di una pagina senza aggiornarla ad ogni clic e permettendo un alto grado di
interattività50.
Il sistema AJAX cerca di dissimulare il dialogo tra browser e server, facendo sì
che questo avvenga al di fuori della percezione dell’utente51 e utilizza la tecnica di
includere un programma Javascript52 nel codice HTML della pagina (XHTML) che gira sul
browser.
Gli standard quindi sono un gruppo di linguaggi per mezzo dei quali è possibile
controllare le quattro dimensioni di un contenuto Web: contenuto, struttura,
presentazione, comportamento53. Per ogni dimensione sono disponibili dei linguaggi che
vengono interpretati dai browser, che permettono che le informazioni vengano
strutturate all’interno di una pagina Web come una serie di livelli sovrapposti, ognuno
dei quali è dedicato ad un aspetto specifico della pagina.
Per quanto riguarda la struttura dell’informazione si utilizza il linguaggio HTML
(Hyper Text Markup Language), un linguaggio di marcatura che consiste in un insieme di
comandi chiamati tag grazie ai quali è possibile racchiudere le porzioni di informazione
che corrispondono ad una determinata porzione di contenuto.
Il linguaggio XML (eXtensible Markup Language), che definisce anch’esso la
struttura dell’informazione, è stato creato dal W3C come standard per la condivisione di
informazioni in rete e si riassume in un insieme di regole per la creazione di nuovi
linguaggi di marcatura. In questo senso XML è un metalinguaggio per creare nuovi
linguaggi per descrivere informazioni. Nello specifico un documento XML è un file di
testo che cerca di dotare di una struttura semantica i dati contenuti ed è ciò che

49
Grivet Foiaia, pp. 33-35.
50
Ivi, pp. 32-33.
51
Crevola-Gena, op. cit., p. 173.
52
Il linguaggio Javascript, introdotto nel 1995 da Netscape, viene utilizzato per rendere le pagine
più interattive e funzionali e come strumento per controllare il comportamento delle pagine Web
una volta che queste sono rappresentate dal browser. Crevola-Gena, op. cit., p. 170.
53
Crevola-Gena, op. cit., p. 148.
29
permette che avvenga il mashup delle applicazioni. Nel 2000 il W3C ha pubblicato come
raccomandazione ufficiale il linguaggio XHTML, cioè una riformulazione di HTML ispirata
dalle regole di XML54.
Il W3C ha ideato inoltre il linguaggio CSS (Cascading StyleSheet) per gestire la
presentazione delle pagine, definendo la veste grafica. Con il linguaggio HTML infatti
forma e struttura erano insieme e questo generava un codice pesante e spesso mal
gestito dai browser. Con il linguaggio CSS invece oggi è possibile gestire ogni aspetto
stilistico della pagina Web indipendentemente dal contenuto.
Altro standard per la presentazione dinamica e l’interazione è il DOM
(Document Object Model) che si occupa del controllo del comportamento delle pagine,
cioè della dimensione interattiva di un documento. Se opportunamente istruito il
browser può interrogare il DOM e recuperare tutte le informazioni associate ad un nodo
di informazione. Su molti nodi si possono effettuare operazioni di modifica su contenuti,
presentazione e struttura, attraverso Javascript e vincolate all’interazione messa in atto
dall’utente. Il W3C ha definito un versione standardizzata del DOM, rendendola
un’interfaccia universale per l’accesso e la manipolazione delle informazioni contenute
in un documento XML55.

1.3.3 La nuova cultura tecnologica e i modelli operativi


Secondo la definizione di Grivet Foiaia56, queste nuove tecnologie e standard
hanno fatto nascere una nuova cultura tecnologica, che si basa su nuovi modelli
operativi. Tra questi modelli ritroviamo i Lightweight Programming Models, che
privilegiano il Web leggero attraverso l’utilizzo dei Web Service e l’RSS e affermano il
concetto di Perpetual Beta come nuova filosofia di sviluppo. Come spiega O’Really57
infatti:

Users must be treated as co-developers, in a reflection of open source


development practices (even if the software in question is unlikely to be released
under an open source license.) The open source dictum, "release early and release
often" in fact has morphed into an even more radical position, "the perpetual
beta," in which the product is developed in the open, with new features
slipstreamed in on a monthly, weekly, or even daily basis. It's no accident that

54
Ivi, pp. 158-162.
55
Grivet Foiaia, op. cit., pp. 35-44.
56
Op.cit., pp. 47-50.
57
O’Really, op. cit.
30
Service such as Gmail, Google Maps, Flickr, del.icio.us, and the like may be
expected to bear a "Beta" logo for years at a time.

Il software diventa quindi un servizio disponibile sul Web e aggiornato


costantemente in una beta perpetua senza release, dove gli utenti diventano co-
developer che testano e giudicano le nuove funzionalità, e questo diventa parte
integrante della normale user-experience.
Inoltre si preferisce la leggerezza anche per quanto riguarda l’interfaccia utente,
privilegiando la semplicità e il contenuto, piuttosto che la forma. Secondo Nielsen58
infatti gli utenti visitano un sito per il suo contenuto e tutto il resto è scenografia. Gli
studi di usabilità hanno dimostrato che ciò che spinge gli utenti alla navigazione è la
ricerca di contenuti e per questo l’obiettivo della progettazione usabile è la ricerca della
semplicità. Nel Web tutto questo è possibile grazie all’utilizzo dei linguaggi che
consentono di separare nel Web il contenuto dalla forma.
Il termine RSS59 (Really Simple Syndication) indica un linguaggio standard di
marcatura nato per l’esportazione e la distribuzione dei contenuti da un sito Web ad
altri e consente quindi di pubblicare in rete notizie che potranno essere ripubblicate da
altri utenti o da altri siti. Questo è possibile grazie alla creazione di flussi di informazione
in XML, detti feed, che forniscono solo il contenuto svincolato da qualsiasi veste grafica e
impaginazione. Viene offerta così agli utenti la possibilità di fruire dei contenuti in un
altro contesto, quindi in un altro sito, direttamente sul browser o aggregandoli
utilizzando un’altra applicazione come per esempio Google Reader. RSS significa quindi
che il browser Web non è più l’unico mezzo per poter fruire delle informazioni presenti
in una pagina Web.
Nel Web “1.0”, come abbiamo visto, la tendenza dei gestori di portali e
community era quella di trattenere i visitatori nel sito. Questo atteggiamento
determinava la stickiness, cioè l’appiccicosità di un sito o di un sevizio. Oggi attraverso il
concetto di syndication i produttori di contenuti cercano di distribuire il più possibile i
propri lavori, mettendoli a disposizione in più formati60.

58
Nielsen, J., Web Usability, Apogeo, Milano, 2000, p. 25.
59
Come si legge in O’Really, l’RSS nacque nel 1997 dalla confluenza della tecnologia Really Simple
Syndication di Dave Winer, utilizzata per pubblicare gli aggiornamenti di blog, e di Rich Site
Summary di Netscape, che consentiva agli utenti di creare home page personali di Netscape con
flussi di dati aggiornati regolarmente.
60
Grivet Foiaia op. cit., p. 52.
31
I benefici apportati dalle tecnologie standard sono evidenti e riguardano una
maggiore compatibilità tra i diversi programmi di navigazione, maggiore accessibilità,
maggiore efficienza e maggiori risparmi su sviluppo e manutenzione. Tuttavia esistono
delle tecnologie ampiamente diffuse che non si basano su questi standard, e che
vengono definite tecnologie proprietarie come Macromedia Flash, i documenti PDF, le
presentazioni multimediali con PowerPoint o le tutorial Java, che garantiscono
funzionalità più interattive, ma che non sono considerate standard in quanto il browser
ha necessità di un plug-in per poter visualizzare i contenuti realizzati con queste
tecnologie, rendendo così esclusi dalla fruizione coloro che non possiedono il
componente aggiuntivo61.
Altro elemento della nuova cultura tecnologica è legato al design dei percorsi di
navigazione tra i contenuti di un sito: mentre la modalità classica d’accesso ai contenuti
avviene per categorie, oggi per cercare le informazioni non è più necessario
categorizzarle e archiviarle, ma è sufficiente attribuire loro dei tag che consentano di
ritrovarle utilizzando i motori di ricerca. Grazie alla diffusione dell’utilizzo dei tag si è
affermata nel Web “2.0” la cosiddetta folksonomy62, cioè le categorizzazioni generate
dagli utenti in modo collaborativo, che producono percorsi di navigazione dinamici
basati sui tag che si vengono a creare da parte degli utilizzatori e fruitori dei contenuti e
applicazioni, una classificazione quindi più intelligente dei contenuti63.
Secondo la definizione di Thomas Vander Wal64 la folksonomy è il risultato della
libera e personale attribuzione di tag a un’informazione o ad un contenuto presente in
rete allo scopo di poterli ritrovare. Il tagging viene realizzato all’interno di un ambiente
collettivo condiviso e aperto. La folksonomy è generata dall’atto di apporre le etichette
da parte dell’utente nel momento in cui utilizza l’informazione. Si tratta di un lavoro
collettivo di molte persone o dell’insieme di etichette attribuite da un singolo individuo
tramite diverse applicazioni. La folksonomy identifica un concetto in cui l’identità di una
informazione è legata alle annotazioni delle persone che la stanno utilizzando.

61
Crevola Gena, op. cit., pp. 183-187.
62
Come si legge in T. Vander Wal, il termine è stato coniato per differenziarsi dal precedente
sistema di classificazione dei contenuti risalente al Lotus Magellan nella seconda metà degli anni
Ottanta.
63
Grivet Foiaia, op. cit., pp. 54-55.
64
T. Vander Wal, La folksonomia e il web semantico, in V. Di Bari, (a cura di), op. cit., p. 77.
32
Questa è una importante novità rispetto alle pratiche di etichettature utilizzate
da editori e creatori di contenuti (taxonomy), grazie alla quale ora possiamo osservare il
punto di vista dell’utente che consuma, legge e utilizza una informazione o un prodotto.
Tutto ciò è realizzato con strumenti che valorizzano l’utente, i quali attraverso questo
sistema creano annotazioni in modo da poter ritrovare, riaggregare e condividere le
informazioni di cui hanno bisogno.
La folksonomy consente quindi una rapida classificazione distribuita e condivisa
dalla società, aiuta la serendipità facendo scoprire qualcosa di non cercato e semplifica
l’accesso ai contenuti65.
I Web Service e i metodi che si stanno diffondendo nel Web stanno offrendo
sempre maggiori possibilità per mixare applicazioni e servizi online e crearne di nuovi.
Nascono così i fenomeni di mashup, cioè la combinazione e integrazione tra più servizi
Web66. Secondo la definizione di John Musser67 un mashup è un applicazione online che
combina o miscela dati e servizi provenienti da due o più fonti per creare qualcosa di
nuovo. Il termine viene esteso in seguito al mondo della musica -dove descrive un
remixaggio creativo di più canzoni provenienti da artisti o generi musicali diversi-, e ai
video costruiti attraverso una miscela innovativa di più fonti. Nel Web i mashup
riguardano quindi diversi tipi di dati e servizi mescolati e riproposti insieme come
accadeva in passato con l’integrazione software e le applicazioni composite, ma i
mashup hanno un diverso approccio in quanto sono dedicati a velocizzare la
distribuzione e il riutilizzo.
Le innovazioni introdotte dal mashup rendono più ricca l’esperienza di
navigazione lato utente, e rendono più flessibile ed economica quella delle aziende. Per i
programmatori la collaborazione reciproca può essere migliorata dai mashup, perché
sono costituiti da dati e applicazioni (API) in rete e sono adatti alla collaborazione online.
Il successo dei mashup quindi deriva proprio dalla collaborazione e dalla struttura
decentralizzata e interconnessa del Web. Se le prime generazioni di software
prevedevano che questi fossero installati e gestiti, nel Web “2.0” i Saas (i software basati

65
Di Bari, op. cit., p. 21
66
Grivet Foiaia, op. cit., p. 57.
67
J. Musser, Web Service e mashup, in V. Di Bari, op. cit., p. 115.
33
su Internet) sono costantemente in funzione e sempre connessi, e anche le API si sono
trasformate da programmi locali e installati, ad applicazioni web68.

1.4 L’Open culture


Internet deve il suo sviluppo negli anni Novanta alla sua natura inizialmente
libera, gratuita e aperta. Lo sviluppo del Web in seguito, ha fatto sì che al Web “1.0”
venissero applicati i principi delle barriere all’ingresso tipici dei sistemi di mercato
tradizionali, costruendo stratagemmi per mantenere le persone legate ad un
determinato servizio, definendo il fenomeno della cosiddetta stickiness.
Nel Web “2.0” diventa rilevante il concetto di apertura, perché si è capito che la
visibilità e la qualità sono dei valori molto importanti che nel lungo periodo danno più
vantaggi. La rete si è così evoluta, recuperando lo spirito originario iniziale aperto e
libero, e spingendosi verso una condivisione totale del software, delle applicazioni, dei
dati e dei contenuti69.
Oggi il Web è un ambiente dove la cooperazione e la partecipazione sono
diventate un fenomeno sociale e dove i partecipanti producono e distribuiscono
contenuti, ed è basato su una cultura di comunicazione aperta, viene riconosciuta ampia
libertà di condividere e riutilizzare, non esiste una autorità centrale di controllo, ma una
intelligenza collettiva non controllata.
La open culture coinvolge diverse componenti, che vanno dai codici ai contenuti
creativi: l’open source, l’open application, l’open data e l’open content70.

1.4.1 L’Open content: User Generated Content


Il Web “2.0” è fatto di contenuti aperti, classificabili in due macrocategorie, i
creative amateur e i contenuti generati dagli utenti71.
Per quanto riguarda la prima categoria, il Web ha dato voce all’entusiasmo di
milioni di utenti dilettanti, ai creativi e alle loro passioni, che si collegano di notte e
danno libero sfogo ai propri sogni e ideologie scrivendo, suonando, creando video,
parlando di cultura. I cortometraggi amatoriali, la musica di musicisti senza etichetta, gli
articoli di giornalisti non professionisti trovano spazio sui blog o sono caricati nelle
grandi piazze virtuali di relazione per avere diffusione globale. Chiunque ha la possibilità

68
Ivi, p. 117.
69
Grivet Foiaia, op. cit., pp. 91-92.
70
Ibidem.
71
Ivi, op. cit., pp. 102-105.
34
di esprimersi utilizzando i media digitali e confrontarsi con gli altri pubblicando le
proprie creazioni, che verranno giudicate dal popolo del Web. Il successo di un
contenuto creativo infatti è dato dalle regole dell’ecosistema Web che premiano chi ha
più spettatori, facendo emergere chi ha merito. Questo comporta una riduzione della
qualità nella creazione di contenuti da parte di utenti non professionisti, ma è un prezzo
da pagare per la molteplicità di pensieri e per il valore partecipativo che offre il Web.
I contenuti generati dagli utenti alimentano le cosiddette piattaforme User
Generated Content: i contenuti si possono creare attraverso il contributo volontario
degli utenti come avviene su Wikipedia, oppure come sottoprodotto dell’utilizzo
dell’applicazione da parte degli utenti come Flickr, dove alla base c’è un default
pubblico.
Il termine User Generated Content (UGC) nasce nel 2005, nonostante i primi
contenuti realizzati da utenti comuni fossero già in rete sin dalla nascita del Web. Quello
che è recente e che ha portato a una vera e propria rivoluzione è il fenomeno dell’UGC
di massa, reso possibile dalla progressiva diffusione dei Web Service che abilitano
chiunque a produrre e caricare in rete i propri contributi. L’esperienza più rilevante e
anche quella più nota di UGC è quella di YouTube, che consente agli utenti di caricare,
vedere e condividere video. Il suo valore aggiunto è il coinvolgimento degli utenti, che
possono votare, commentare, e condividere i video pubblicati. Secondo una ricerca
condotta da Nielsen/NetRatings nel 2007 YouTube ha avuto oltre 20 milioni di visitatori
al mese e risulta essere il quarto sito più visitato del mondo72.
Secondo la Pew Internet & American life project73, nel 2006 solo in America 48
milioni di utenti hanno prodotto contenuti per il Web. Questo è un problema che tocca
le grandi aziende dei media e di intrattenimento, che accusano gli UGC della loro perdita
di ricavi. Infatti la diffusione degli UGC sta avendo effetto soprattutto sulla
riorganizzazione dello scenario dell’informazione e dell’intrattenimento: chi produceva e
traeva profitto dalla realizzazione di contenuti ha dovuto riposizionarsi perché sono
subentrati nuovi attori nel mercato. Così oggi alcuni content provider hanno integrato
alla creazione di contenuti tradizionali la creazione di ambienti e strumenti che
permettano l’accesso a contenuti pubblicati da utenti non professionisti. Un’esperienza
importante è quella di Current tv, che si è aperta al giornalismo partecipativo e all’UGC,

72
V. Di Bari, op. cit., p. 14.
73
Fonte V. Di Bari, op. cit., p. 18.
35
trasmettendo oggi il 30 % di contenuti generati dagli utenti mentre il 70 % è ancora di
produzione interna, anche se ha annunciato un inversione di tendenza, pagando gli
utenti che forniscono contenuti con ricompense dai 100 ai 10000 dollari74.
Con la diffusione del fenomeno degli UGC, gli utenti sono diventati prosumer,
produttori e consumatori allo stesso tempo, e molte società stanno modificando
radicalmente le proprie linee editoriali per far spazio a questa nuova tendenza
emergente. Le caratteristiche principali di questo nuovo modo di concepire la
comunicazione sono75:
- la possibilità da parte di chiunque abbia una connessione, di creare contenuti.
- la possibilità di classificare i contenuti per categorie attraverso i tag, votare, ordinare i
contenuti.
- la possibilità di replicare al contenuto con voti, commenti o con altri contenuti,
generando un feedback quantitativamente e qualitativamente mai visto prima.
La creazione online di database di contenuti aperti da parte degli utenti in
modalità pubblica o condivisa sono basati su una architettura di partecipazione. Molti
siti si basano sugli effetti rete e sulla community per generare contenuti che diventano il
vero valore di base delle community e dell’applicazione. Molti sistemi Web oggi sono
disegnati come piattaforme per favorire questo tipo di contributi condivisi e si affidano
agli utenti per creare i contenuti, modificarli e controllare la correttezza e l’affidabilità. Si
sfrutta lo spirito partecipativo degli utenti che popolano il Web, lo esplorano, lo
commentano e sono utenti attivi nel sistema read/write.
Spesso però gli utenti inseriscono contenuti come risultato del fatto che
utilizzano una applicazione per scopi personali, relazionali o auto promozionali. L’utilizzo
di queste applicazioni genera un effetto virtuoso tale che le applicazioni diventano più
interessanti man mano che gli utenti aggiungono contenuto e gli utenti da fruitori
diventano publisher ed editori delle stesse applicazioni.

1.4.2 L’architettura partecipativa


Gli UGC sono quindi basati sull’architettura della partecipazione. Questo termine
è stato coniato nel 2003 da Tim O’Reilly e definisce tutte quelle aziende, sistemi,
progetti e reti di persone che sono basate sulla cultura open e sulla partecipazione.

74
Ibidem.
75
Ivi, pp. 18-19.
36
Indica cioè quei sistemi ideati in modo tale da favorire il contributo e la cooperazione tra
utenti nella comunità partecipativa. Questo concetto, applicabile sia all’open source che
all’open content, si basa su principi democratici, incoraggia l’utente ad aggiungere
contenuto e valore all’applicazione, spesso in un social network e attraverso l’utilizzo di
social software, e ha come sottoprodotto la creazione di UGC76.
La potenza del Web “2.0” sta quindi nella potenza delle masse: gli utenti grazie
all’unione di piccoli contributi individuali possono costruire prodotti, progetti e
comunità. Il concetto di partecipazione nel Web fatta dalla massa è reso anche dal
termine read/write. Il Web “1.0” era monodirezionale, diretto da chi controllava il
software, le applicazioni, i dati, i contenuti. Gli utenti avevano per lo più accesso alle
funzioni di read e a funzioni di write limitate e controllate. Il Web era una fonte di
informazioni, basato su una architecture of consumption.
Oggi invece il Web è bidirezionale, chiunque può essere parte attiva nella
costruzione dell’informazione, l’utente passa da audience a partecipante. Il Web diventa
una piattaforma per la partecipazione. Su queste basi si parla di UGC utilizzando
applicazioni disegnate per dare un ruolo preciso all’individuo, con funzionalità concepite
per creare un valore per gli altri. Dion Hinchcliffe ha elaborato un modello di analisi della
partecipazione degli utenti al Web77:
- primary partecipation: partecipanti primari, coloro che aggiungono contenuti al Web,
li modificano e partecipano attivamente alle attività del Web “2.0”, utilizzano i blog e le
piattaforme User-Generated Content;
-secondary partecipation: sono consumatori e lettori che occasionalmente
interagiscono con il Web e alcune applicazioni;
- passive user: utenti che si limitano a leggere il Web senza dare contributi.
Oggi in base a questo modello si può ipotizzare una distribuzione su 10 utenti di
un rapporto 1-2-7, dove 1/10 è un partecipante attivo primario, 2/10 sono partecipanti
secondari e 7/10 utenti passivi.

76
Grivet Foiaia, op. cit., p. 110.
77
Questo concetto è spiegato in Grivet Foiaia, op. cit., p. 111.
37
Secondo O’Really78 «alcuni sistemi sono progettati per incoraggiare la partecipazione.
Infatti una delle lezioni chiave dell’era del Web 2.0 è questa: gli utenti aggiungono
valore».
Per questo motivo le società che operano nel Web “2.0” impostano di default
sistemi per l’aggregazione dei dati degli utenti e per la costruzione di valore come
effetto collaterale del normale utilizzo dell'applicazione. Questi sistemi migliorano con
l’aumentare del numero di utenti. L’architettura del Web è tale che gli utenti che
perseguono i propri interessi egoistici costruiscono un valore collettivo come
conseguenza automatica. Questi progetti possono essere visti come aventi una naturale
architettura partecipativa.
Nel 1979 è stato creato Usenet il primo programma per la condivisione di
informazioni, ma solo in questi ultimi anni stiamo assistendo alla nascita di tecnologie
collaborative basate sul Web, che consentono a tutti gli utenti di creare, condividere o
prendere parte a diverse attività come la condivisione di informazioni e contenuti fino
alla creazione collettiva e alla partecipazione attiva in diverse forme di comunità. Queste
tecnologie Web “2.0” come i blog, i wiki, i social network, i tag hanno dato vita a un
nuovo mondo di partecipazione attiva79.

1.4.3 Nuove forme di intelligenza collettiva attraverso la collaborazione e condivisione


sul web
L’architettura partecipativa e i sistemi UGC abilitano nel Web nuove forme di
intelligenza collettiva attraverso la collaborazione e la condivisione.
L’intelligenza collettiva è un nuovo approccio sulla base del quale vengono
prodotti contenuti e creatività intellettuale, come risultato del lavoro condiviso e
collaborativo di una molteplicità di utenti, senza autorità centrale. Questo concetto, già
introdotto da filosofi del passato, viene riproposto da Pierre Levy80 che sostiene che il
fine più elevato di Internet è l'intelligenza collettiva:

Che cos'è l'intelligenza collettiva? In primo luogo bisogna riconoscere che


l'intelligenza è distribuita dovunque c'è umanità, e che questa intelligenza,
distribuita dappertutto, può essere valorizzata al massimo mediante le nuove
tecniche, soprattutto mettendola in sinergia. Oggi, se due persone distanti sanno

78
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software su http://www.xyz.reply.it/web20
79
J. Manyika, J. Bughin, Fare business con il Web 2.0, in V. Di Bari, op. cit., p. 177.
80
Fonte http://www.mediamente.rai.it/home/bibliote/intervis/l/levy.htm#link001
38
due cose complementari, per il tramite delle nuove tecnologie, possono davvero
entrare in comunicazione l'una con l'altra, scambiare il loro sapere, cooperare.
Detto in modo assai generale, per grandi linee, è questa in fondo l'intelligenza
collettiva.

Milioni di persone oggi sono capaci di avviare in modo spontaneo meccanismi


virali di collaborazione, pensiero e intelligenza collettiva, che hanno una grande potenza
creativa e produttiva. Esperienze come Youtube e Myspace sono simboli del grande
cambiamento, simbolo che le persone ogni giorno usando la tecnologia possono
prendere il controllo dei media e contribuire a cambiare il mondo, influenzando
l’opinione pubblica81.
Secondo O’Really82 il principio centrale che sta dietro al successo delle aziende
nate nell'era del Web “1.0” e che sono sopravvissute nel Web “2.0”, sembra proprio
essere quello di aver abbracciato la potenza del Web per sfruttare l’intelligenza
collettiva. L’intelligenza collettiva quindi sta trasformando gli utenti in comunità che
producono pensiero, idee e contenuti e gli strumenti attraverso i quali si concretizza la
partecipazione degli utenti alle dinamiche del Web 2.0 sono i blog, il citizen journalism, i
wiki, i social network.
Tutto questo ha abilitato la nascita di piattaforme e applicazioni basate e
progettate sulla condivisione, partecipazione, collaborazione, e realizzate con tecnologie
che permettono un uso semplice, piacevole, innovativo, aperto e nell’ambito di
community, che stanno spingendo gli utenti a diventare da reader passivi a writer attivi.
Questo probabilmente in futuro cambierà il rapporto 1-2-7 della distribuzione della
partecipazione degli utenti83.
Queste applicazioni Web possono essere basate su social networking puro, che
rappresenta profili e relazioni tra utenti come Facebook, oppure su contaminazioni che
sono applicazioni contenuto e profilo, cioè incentrate sul contenuto, ma che hanno poi
anche funzionalità tipiche del social networking online come Flickr o Slideshare84.
Per capire il social networking online bisogna tenere presenti gli aspetti di
relazione sociale. La teoria dei sei gradi di separazione -secondo la quale chiunque può
essere messo in relazione con qualunque altra persona al mondo attraverso una catena

81
Grivet Foiaia, op. cit., p. 124
82
O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima generazione
di software su http://www.xyz.reply.it/web20
83
Grivet Foiaia, op. cit., p. 112.
84
Ivi, pp. 113-114.
39
di conoscenze con non più di 5 intermediari- è del 1929, ma oggi il social Web è in grado
di mettere in relazione individui e fa toccare con mano questa teoria85.
Il fenomeno dei social network è nato nel 1995 e rappresenta una rete sociale,
strumento condiviso che abilita e facilita le relazioni. Il focus dei social network è nella
coesione delle relazioni e nella molteplicità e versatilità di strumenti offerti per
interagire e relazionarsi86.
Secondo Kolman87 uno degli aspetti principali di un social network efficace è la
riproposizione in chiave digitale di concetti di condivisione di conoscenza, un tempo
veicolati per via familiare o amicale e oggi riabilitati dagli strumenti del Web che
permettono di recuperare un preciso processo di diffusione culturale.
Il Web “2.0” infatti vede creare una rete sociale dove si collabora, si condivide e
si creano relazioni sociali su una rete, gruppi di persone messe in relazione da legami di
conoscenza attivi e diretti, sociali. In questi sistemi tutto ruota intorno al profilo
personale, e si basa sul concetto di invito e raccomandazione, forma di marketing virale
che consente a queste applicazioni di affermarsi con costi pari a zero attivando quello
che viene definito il network effect, cioè l’effetto rete. Questo si applica sia alla
partecipazione nella community, che alla creazione di contenuti: più UGC sono presenti,
più contenuti verranno condivisi dagli utenti secondo il principio dell’emulazione e
partecipazione, che rende possibile l’effetto tribù favorito proprio dalle applicazioni
quali blog e wiki88.
In questo contesto infatti i blog rappresentano la conversazione di queste
comunità e il dialogo collettivo. I blog hanno iniziato la loro scalata a medium di massa
nel 2001, quando hanno iniziato ad essere disponibili le piattaforma gratuite di gestione
del servizio, anche se in realtà le loro origini risalgono al 1997. I blog sono nati come
mezzi di pubblicazione guidata, ma oggi sono soprattutto un ibrido tra il giornalismo on
line e il diario in rete, strutturati in discussioni in ordine cronologico, dove i visitatori
possono lasciare commenti e opinioni89.

85
Grivet Foiaia, op. cit., p. 117.
86
Di Bari, op. cit., p. 27.
87
In Di Bari, op. cit., p. 29.
88
Grivet Foiaia, op. cit., pp. 120-121.
89
Di Bari, op. cit., pp. 23-24.
40
Secondo la definizione di O’Really90 un blog non è altro che una home page
personale nel formato di un diario. La struttura dei blog crea per ogni post un URL
statico e permanente, il cosiddetto permalink91, che consente a chiunque di citarlo e
commentare anche attraverso l’utilizzo del blogroll che raccoglie i link di altri blog. Le
discussioni diventano così relazioni sociali tra i blogger, simile alla formazione
dell’opinione pubblica92.
Il termine wiki che significa “veloce” rappresenta bene l’enciclopedia Web-based
Wikipedia, basata su un software open source e nata dalla creazione collaborativa su
base volontaristica dei contenuti da parte degli utenti e presieduta dall’ente no profit
Wikimedia Foundation. Chiunque può creare fruire e gestire il contenuto, spinto dallo
spirito di censire tutto lo scibile umano.
Esperienze come Wikipedia, dove ogni voce può essere modificata da qualsiasi
utente, è un vero e proprio esperimento di fiducia e rappresenta un
cambiamento profondo nelle dinamiche della creazione dei contenuti. Anche le grandi
società di business nel Web “2.0” fanno pubblicità dei propri prodotti attraverso il
cosiddetto marketing virale, cioè dalle informazioni che gli utenti condividono. Perciò i
contributi degli utenti sono la chiave del predominio del mercato nell’era del Web 2.093.
La partecipazione attiva del popolo Web alla vita digitale ha prodotto nel mondo
delle news una serie di cambiamenti modificando il processo di newsmaking. Grazie alla
natura interattiva dei nuovi media e alla facilità di creazione di contenuti autoprodotti, è
nata una nuova forma di giornalismo, definito citizen journalism. Nel 2003 si sono
sviluppati siti di informazione che hanno iniziato ad essere visitati da milioni di utenti. A
influire positivamente è stata la percezione generalizzata che l’indipendenza del citizen
journalism dagli editori costituisse una garanzia di qualità di informazione.
I vantaggi del giornalismo partecipativo sono che l’utente non è più ricevente
passivo di informazione, ma ha le libertà di esprimere commenti, arricchire fonti e
verificare la veridicità delle notizie. I giornalisti possono così godere di feedback
immediati e i lettori diventano co-protagonisti della produzione di informazione94.

90
Op. cit.
91
Contrapposto alla stickiness del Web “1.0”.
92
Grivet Foiaia, op. cit., pp. 126-127
93
O’Really, op. cit.
94
Di Bari, op. cit., p. 26.
41
1.5 Web e Authoring: nuove forme di creazione dei contenuti in rete
Lo sviluppo e la diffusione degli standard e delle tecnologie Web hanno quindi
determinato un cambiamento delle forme di authoring in rete. In base al benchmarking
condotto in rete e all’analisi sulle diverse piattaforme Web possiamo sintetizzare che
oggi i contenuti nel web si creano sostanzialmente in tre diverse forme:
autonomamente, in modo collaborativo asincrono e in modo collaborativo sincrono.
Ognuna di queste tre forme implica diverse variabili e fattori, a seconda dei servizi e
delle applicazioni messe a disposizione dalle piattaforme Web.
Poiché lo sviluppo e l’evoluzione dei nuovi servizi e applicazioni web è
rapidissimo, anche le possibili forme di authoring in rete risultano essere un processo in
continua evoluzione. Per questo motivo la classificazione che segue può essere definita -
e deve essere letta- come una sistematizzazione possibile, soggetta a ulteriori possibili
evoluzioni e revisioni.
Per quanto riguarda la prima forma, la creazione e pubblicazione dei contenuti
avviene in maniera autonoma e individuale, e i contenuti vengono resi disponibili in rete
specialmente attraverso strumenti di social networking e piattaforme UGC
appositamente create per la condivisione. Questo significa che l’utente crea propri
contenuti e li distribuisce in rete principalmente per condividerli attraverso due
modalità: in modo “privato”, quindi attraverso i social network con cui può condividerli
con gli amici, o in modo “pubblico”, per avere visibilità globale. Questo comporta che
chiunque abbia accesso alla rete possa avere accesso a questi contenuti, prenderne
visione, riutilizzarli o creare opere nuove basate su di esse.
Le tecnologie che hanno abilitato i Web Service e le applicazioni, hanno permesso alle
piattaforme Web di aggiungere servizi addizionali che permettono oggi all’utente di
creare, distribuire e modificare facilmente materiale grazie agli strumenti di editing
disponibili online. Questi permettono di creare e lavorare direttamente in rete,
utilizzando applicazioni molto simili ai software utilizzanti normalmente in locale, spesso
con interfaccia ancora più semplice e intuitiva da utilizzare. L’editing di immagini, video
e musica è oggi possibile direttamente online, ma soprattutto è accessibile a chiunque.
Seconda forma di authoring è la creazione e pubblicazione di contenuti in modo
collaborativo attraverso piattaforme per il remix e la creazione collaborativa in maniera
asincrona. Gli utenti creano, condividono e riutilizzano in rete contenuti pre-esistenti

42
autoprodotti da altri utenti, ma non partecipando contemporaneamente alla creazione
dei nuovi materiali.
Questo avviene in esperienze come i blog o i wiki, dove gli utenti possono aggiungere e
modificare in modo indipendente informazioni pre-esistenti, che vengono così condivise
e sviluppate per la diffusione della conoscenza in modo collaborativo. Ma la creazione
collaborativa asincrona avviene anche attraverso l’utilizzo di piattaforme che offrono sia
uno spazio per la pubblicazione di contenuti che la creazione attraverso strumenti di
editing. In questo caso l’utente può creare in modo indipendente un’opera direttamente
online, ma effettuando il remix con altre già presenti in rete, e facendo il mashup tra file
audio, video e immagini e creando opere nuove basate su quelle già esistenti e
ripubblicandole in rete, garantendo così un circolo virtuoso di riutilizzo e pubblicazione
che non ha fine.
Infine terza forma di authoring è la creazione e pubblicazione dei contenuti
attraverso piattaforme che permettono la creazione collaborativa in modo sincrono tra i
vari utenti, che partecipano insieme e contemporaneamente alla creazione di nuove
opere. In questi casi non solo gli utenti sono messi in grado di creare direttamente
online e di riutilizzare e remixare contenuti prodotti da altri utenti, ma lo possono fare
simultaneamente grazie a strumenti che permettono di creare insieme opere nuove
lavorando contemporaneamente online.
Questa nuova forma di produzione collettiva sincrona è un fenomeno che in realtà è
ancora in via di sviluppo, almeno per quanto riguarda i casi studio presenti in rete. Ma è
un fenomeno che sta diventando sempre più importante grazie alla diffusione delle
connessioni veloci e all’abbassamento dei costi. È quindi la tecnologia stessa che
garantisce la collaborazione, perché gli utenti possono collaborare insieme alla creazione
di opere nuove proprio grazie alla rete che consente la libera circolazione di idee.

43
Tavola riassuntiva delle possibili forme di authoring in rete

I contenuti si creano e si pubblicano


direttamente online con strumenti di
editor
Default privato I contenuti si creano offline e si
condividono in rete
Individuale
I contenuti si creano e si condividono
direttamente online con strumenti di
Default pubblico editor
I contenuti si creano offline e si
condividono in rete

I contenuti si creano direttamente online attraverso strumenti di


editing, mixando opere pre-esistenti ma individualmente
Creazione collaborativa
asincrona
I contenuti si creano individualmente offline, remixandoli con
altre opere pre-esistenti e ripubblicandole in rete

Creazione collaborativa I contenuti si creano direttamente online, attraverso strumenti di


sincrona editing e contemporaneamente con altri utenti

In tutte queste tre forme di authoring in rete, il comune denominatore è la


pubblicazione e distribuzione in rete di materiale autoprodotto dagli utenti, che pone il
problema della tutela dei diritti su questi contenuti. Le variabili in gioco a questo punto
sono l’utilizzo o meno di licenze d’uso libere per questi contenuti. Ancora oggi in rete
persiste un freno che impedisce all’utente di venire a conoscenza di questioni come il
diritto d’autore e della possibilità di scegliere in che modo rilasciare una propria opera.
Sono ancora parecchie infatti le piattaforme di condivisione di contenuti che non
prendono in considerazione la possibilità per l’utente di rilasciare i propri lavori in
maniera più libera, permettendo così, in alcuni casi, anche la pubblicazione di materiale

44
protetto da copyright effettuando un blando controllo ex post, spesso affidato alla
buona volontà degli utenti di segnalare i casi di violazione di copyright.

1.5.1 Esperienze di piattaforme per l’editing e la condivisione dei contenuti sul Web
Caratteristiche peculiari del Web “2.0” sono quindi la partecipazione attiva degli
utenti, lo sviluppo dell’intelligenza collettiva e la creazione condivisa della conoscenza.
Questi fattori hanno portato negli ultimi anni allo sviluppo e alla diffusione di
ambienti collaborativi online, che permettono la partecipazione degli utenti, la creazione
e la condivisione dei contenuti, attraverso servizi addizionali che vanno spesso ad
aggiungersi ad esperienze di social networking.
Da un’analisi delle esperienze presenti in rete troviamo numerose piattaforme
per la creazione collaborativa di opere di ogni genere, dalla musica e video, alle foto e
testi. Alcune delle piattaforme prese in esame offrono agli utenti la possibilità di
licenziare le proprie opere sotto licenze libere, mentre altre affrontano la questione del
copyright soltanto attraverso la visione dei Terms of Service.
Delle piattaforme di condivisione di musica e suoni prese in esame tutte
utilizzano le licenze Creative Commons ad eccezione di DigitalMusician.net95. Questa è
una piattaforma che permette agli utenti di creare musica via web in modo sincrono con
gli altri utenti della community attraverso il virtual studio “Digital Musician Recorder”,
un software reso disponibile in modalità free. Questo permette agli utenti di lavorare
simultaneamente ad una creazione musicale, registrando il progetto musicale insieme
ad altri utenti direttamente online.
Jamendo.com96 è una comunità di musica legale, gratuita e illimitata, rilasciata
sotto licenze Creative Commons, che offre libero accesso e download di interi album di
artisti musicali. Offre un importante servizio agli utenti che è la possibilità di applicare
direttamente le CCPL al proprio album attraverso un apposito step durante l’upload
stesso, permettendo di scegliere in modo autonomo la licenza che più si addice
all’artista. Il sito infatti è dedicato solo a lavori rilasciati sotto CCPL, perciò non permette
di effettuare l’upload di album senza l’adozione di una delle CCPL disponibili. Un limite è
rappresentato dal fatto che il materiale viene prodotto solo offline, non vi è infatti come
servizio aggiuntivo la possibilità di creare i lavori online attraverso sistemi di editor.

95
www.digitalmusician.net
96
www.jamendo.com
45
Altro interessante sito di condivisione di musica è Beatpick97, che offre la
possibilità ai musicisti di effettuare l’upload delle proprie creazioni musicali, che devono
essere rilasciate sotto CCPL per permettere agli altri utenti di condividerle e riutilizzarle
per progetti personali come video, film e remix con altri brani musicali, attraverso un
sistema di acquisto dei diritti d’uso commerciale delle opere che danno la possibilità agli
autori di guadagnare il 50% dalla vendita delle proprie opere.
Musikethos98 vuole promuovere le creazioni e interpretazioni musicali degli
artisti dell’Associazione Musica Etica che vogliono proporsi al pubblico internazionale
distribuendo gratuitamente al pubblico registrazioni non reperibili nel mercato
discografico, attraverso l’uso delle CCPL. Questo per incoraggiare l’esecuzione di musica
dal vivo e distribuire generi di musica classica e jazz, scavalcando l’intermediazione delle
case discografiche e diffondere musica in pubblico dominio per scadenza del diritto
d’autore.
CcMixter99 è un progetto targato Creative Commons e nasce come community
musicale che offre come servizio agli utenti la possibilità di remixare musica sotto licenza
Creative Commons, interagendo e facendo mashup con suoni campionari presenti nel
sito stesso. Gli utenti possono così remixare, campionare e creare mashup, scaricando
dal sito i campioni e reinserendoli sul sito, per permettere agli altri utenti di riutilizzarli
per crearne di nuovi. La piattaforma non prevede però la possibilità diretta per l’utente
di creare i propri remix direttamente online attraverso strumenti di file editing, ma
consente solo il download dei file e il successivo upload dopo aver effettuato il remix
offline sul proprio computer.
Soundclick100 è un social network musicale che offre il servizio di
autopromozione degli utenti che fanno parte della community. Unisce così musicisti e
semplici appassionati grazie all’utilizzo delle CCPL per permettere di ascoltare e scaricare
gratuitamente i brani caricati sulla piattaforma o decidere se dare un contributo agli
artisti. Il servizio permette agli utenti di creare pagine personalizzate con una playlist dei
brani preferiti da condividere con gli altri utenti e che permette la collaborazione a
distanza tra gli utenti. Offre inoltre la possibilità agli ascoltatori di creare una radio

97
www.beatpick.com
98
www.musikethos.org
99
www.ccmixter.org
100
www.soundclick.com
46
personalizzata con i propri brani preferiti. Non offre però come servizio il remix dei
brani.
Due dei siti presi in esame, oltre all’interazione e alla collaborazione tra utenti
offrono un ulteriore servizio di Web radio: Opsound101 è un esperimento
dell’applicazione del modello free software alla musica e ai suoni che offre come servizio
ai musicisti la condivisione e il remix dei propri lavori utilizzando le CCPL. Un servizio
aggiuntivo è proprio la Web radio in streaming delle musiche create col remix dei suoni
e musiche offerte dal sito.
Altro esempio di sito che offre questo tipo di servizio è TheFreesoundProject102,
un database collaborativo di suoni campionari, rumori ed effetti rilasciati sotto licenza
Creative Commons Sampling Plus specifica per il remix dei sample musicali. Il sito offre
un servizio radio come esperimento sulla collaborazione e interazione sociale nel
campionamento di creazioni musicali, attraverso un interfaccia editor che permette di
mettere insieme brevi creazioni usando i campioni di suoni presenti nel database del
sito. Gli utenti possono così avere un luogo di incontro con la community per interagire
con le creazioni degli altri utenti e crearne insieme di nuove.
Sempre per quanto riguarda i servizi musicali, sono sempre di più le Web label
che si stanno sviluppando in rete come Magnatune103 che nasce con l’obiettivo di
trovare un modo per gestire un etichetta record nel Web con lo scopo di perseguire gli
interessi sia degli artisti che dei consumatori. Magnatune offre infatti agli artisti la
possibilità di stipulare contratti dando loro il 50% di ogni guadagno derivato dalla
vendita dei propri lavori. Inoltre tutti gli utenti possono gratuitamente ascoltare in
streaming ogni file audio prima di decidere se acquistarlo scegliendo il prezzo. Altra
Netlabel italiana è Anomolo104, che produce e distribuisce gratuitamente musica di alto
livello artistico rilasciata sotto licenze cc che, al contrario di quanto avviene su
Magnatune, non può essere venduta e non può generare profitto perché si persegue il
fine di riportare la cultura musicale alla sua funzione di mezzo di espressione libera e
condivisibile fuori dai vincoli del mercato discografico e del diritto d’autore. Homework

101
www.opsound.org
102
www.freesound.org
103
www.magnatune.com
104
www.anomolo.com
47
Records105 è un'etichetta per creare un network aperto di musica e idee in un continuo
interscambio, raccogliendo brani rilasciati con licenza Creative Commons Music Sharing.
Dall’analisi delle licenze utilizzate in queste piattaforme prese in esame, quelle
maggiormente utilizzate per la condivisione musicale sembrano essere le By-Non
Commercial, seguite solitamente dalle licenze By-Share Alike. Due siti (The
freesoundproject e CcMixter) utilizzano le licenze Sampling Plus e uno (Musikethos)
anche musica in Public Domain. Solo tre dei siti esaminati utilizzano le licenze Non opere
derivate (Jamendo, Musikethos e Homeworkrecord).
Ma la creazione e condivisione di contenuti non riguarda solo la musica. Infatti si
sono sviluppate sempre più rapidamente piattaforme per la condivisione di immagini e
video attraverso la diffusione di importanti strumenti di social networking che si sono
pian piano evoluti offrendo sempre maggiori servizi per gli utenti.
Uno dei più conosciuti e utilizzati siti di photosharing è Flickr.com106 che, grazie
all’integrazione di nuovi servizi è diventato una community virtuale con forum di
discussione e collaborazione e gruppi tematici. Il sito offre la possibilità di pubblicare e
scaricare materiale come foto e video e la modifica delle immagini caricate attraverso
l’editor di fotoritocco online Picnic, che permette di modificare le immagini
direttamente online. Un ulteriore servizio aggiuntivo è la possibilità di licenziare le foto
pubblicate con le licenze Creative Commons, ma accedendo da un’apposita area nella
barra dei menu e non direttamente in upload come avviene invece in Jamendo.com.
Questo potrebbe essere uno dei fattori che influenza negativamente l’utilizzo
delle licenze da parte dei potenziali utenti perché risulta un passaggio distaccato
dall’upload. Come confermato anche dal Prof. De Martin107 «è sicuramente vero che è
più come uno step finale che a certi può sfuggire completamente, però è più un
miglioramento tecnico del workflow dire “lo integriamo meglio, te lo rendiamo più
evidente e più presente”. (…) e l’utente sarebbe più sensibile che esiste questo aspetto e
lo prenderebbe maggiormente in considerazione».
Infatti chi non conosce queste licenze non le applica, potrebbe farlo interagendo
col sito ma non risulta un procedimento automatico per l’utente. È interessante vedere
come attraverso il monitoraggio del forum presente su Flickr, siano parecchi gli

105
www.homeworkrecords.net
106
www.flickr.com
107
Intervista del 10 dicembre al Prof. J.C. De Martin, responsabile italiano di Creative Commons e
co-direttore del centro NEXA su Internet & Societa' Politecnico di Torino.
48
argomenti di discussione che riguardano l’utilizzo delle CCPL, soprattutto per quanto
riguarda la scelta fra una licenza piuttosto che un’altra, come si fa ad applicarle ai propri
lavori e spiegazioni più generali su cosa è e cosa comporta, fattore che denota che per
molti utenti ancora non sono molto chiare.
Altro sito di photosharing è Photobucket108 che offre come servizio la
condivisione di immagini e video. La visualizzazione però non avviene per forza
all’interno del portale ma permette il mashup con altre piattaforme di condivisione e
social networking tra cui Facebook e MySpace. La piattaforma offre come servizio anche
un tool di editing e fotoritocco con il quale l’utente può pubblicare le proprie immagini e
lavorarci sopra direttamente on line prima di caricarle sul sito, la possibilità di creare
slideshow con le immagini e remixare con musica video e transizioni. Un grosso limite, a
mio avviso, è che il sito non utilizza le licenze Creative Commons per salvaguardare i
contenuti prodotti dagli utenti.
Importanti iniziative riguardano poi la creazione e il remix di video on line: Total
Recut109 fornisce risorse online e opportunità di social networking per appassionati e
creatori di video remix, ritagli e mashup. I servizi che offre oltre alla visualizzazione in
streaming, l’upload dei propri lavori e il download del materiale rilasciato sotto CCPL o in
pubblico dominio da riutilizzare per il remix, sono brevi video che remixano da fonti
diverse in un nuovo modo per creare diverse interpretazioni e significati alternativi. Il
sito offre un importante servizio agli utenti che è l’editor video online Kaltura.
Questa è la prima piattaforma open source di creazione di video, interazione e
collaborazione direttamente online senza bisogno di software dedicato. L’interfaccia è
molto semplice da utilizzare e permette di uploadare video sia dal proprio pc che da siti
tra cui Internet Archive, YouTube e ovviamente dal sito stesso Total Recut, per creare un
mashup di file video e audio per crearne di nuovi da condividere con gli altri utenti.
L’editor permette di tagliare parti di video e manipolarle, aggiungere transizioni, testi e
tracce audio proprio come nei veri programmi di editor video che si utilizzano
solitamente in locale, ma tutto in questo caso avviene on line. Inoltre quando l’utente
effettua l’upload di tracce audio da remixare con i video, può sfogliare direttamente dai
più conosciuti siti di condivisione di musica legale tra i quali Jamendo e Ccmixter.

108
photobucket.com
109
www.totalrecut.com
49
Il Web “2.0” diventa quindi come un grande sistema operativo dove tutto ciò
che prima era possibile solo attraverso l’utilizzo di software di editor da parte di utenti
più esperti, ora diventa accessibile a chiunque direttamente on line senza bisogno di
installare niente sul proprio computer e senza avere bisogno di competenze tecniche
specifiche.
Altro importante esempio in rete di creazione collaborativa fra utenti è Eyespot,
una remixing community di video musicali online, che offre come servizio agli utenti
quello di poter mixare video immagini e musica sotto CCPL-Attribuzione direttamente
online attraverso un apposita interfaccia editor facile e intuitiva, simile ai più classici dei
programmi editor video e creare così contenuti personalizzati da condividere con gli altri
utenti, che possono essere a loro volta remixati e riutilizzati per crearne di nuovi. Il
servizio è totalmente gratuito e fruibile direttamente via Web senza l’installazione di
alcun software. Nel sito sono presenti video musicali già rilasciati da remixare a proprio
piacere, tra cui video di artisti famosi, che permettono agli utenti di decidere la
sequenza degli spezzoni di video da frammentare e remixare insieme per creare una
quantità illimitata di possibilità e di alternative diverse.
Altre esperienze di creazione collaborativa di contenuti online sono Jumpcut110
che offre come servizio la possibilità di fare video editing online utilizzando contenuti
propri o di altri utenti da caricare dal proprio pc o da altre piattaforme e Motionbox111,
un servizio di editing Web-based che gestisce filmati personali realizzati anche da
cellulare o videocamera da condividere con persone lontane e che da la possibilità di
non rendere pubblici questi video, ma farli visualizzare solo a chi fa parte del proprio
gruppo privato. Si basa quindi su un sistema di condivisione solo dei video personali e
non di quelli degli altri utenti attraverso un tool di editing e publishing on line. Il servizio
offre la possibilità di salvare poi sul proprio pc il proprio lavoro dopo l’editing. Entrambi
non utilizzano le licenze Creative Commons per la salvaguardia dei contenuti
autoprodotti dagli utenti.
Ourmedia112 invece offre come servizio la gestione di un account per tutti gli
utenti che vogliono condividere materiale personale autoprodotto come file video e
audio sotto licenze d’uso non restrittive, e ripubblicare questi contenuti sul proprio blog

110
www.jumpcut.com
111
www.motionbox.com
112
www.ourmedia.com
50
personale. Molto importante è la partnership con Internet Archive, Creative Commons e
Spinexpress. La piattaforma si basa sull’editor Ourmedia Publisher, software
multipiattaforma che facilità l'upload diretto e l'inserimento delle CCPL.
Internet Archive113 è una no profit che è stata fondata per costituire una grande
biblioteca Internet con lo scopo di offrire un accesso permanente ai materiali e alle
collezioni digitali per ricercatori, storici e studenti. Infatti, attraverso il lavoro di
selezione, indicizzazione e inserimento dati, Internet Archive sta cercando di rendere i
materiali navigabili e consultabili in modo organizzato per i cittadini del futuro, dando
loro la possibilità di vedere non solo il presente ma anche il passato della rete. Il sito
contiene file video, audio, testi, immagini e pagine Web rilasciate sotto CCPL o in
pubblico dominio.
Le licenze maggiormente utilizzate tra i siti presi in esame sono quelle Non
commercial e Share Alike. Due dei siti analizzati (Internet Archive e Total Recut)
utilizzano anche le licenze Public Domain, mentre solo Ourmedia offre varie licenze a
scelta dell’utente. Nessuno dei siti utilizza le licenze Creative Commons-Non Opere
Derivate.
Si sta diffondendo inoltre in rete la possibilità di gestire lavori d’ufficio come
presentazioni multimediali direttamente on line, come avviene su Empressr114, un
servizio che permette di creare e condividere presentazioni Web e slideshow
direttamente on line attraverso un tool editing e Thumbstacks115, un tool Web-based
che permette la creazione di vere e proprie diapositive stile PowerPoint direttamente
dal browser. Entrambe le piattaforme non utilizzano comunque alcun tipo di licenza per
salvaguardare i lavori autoprodotti e remixati dagli utenti, dando per scontato che una
volta all’interno della community l’utente non utilizzi materiale protetto da copyright e
permetta agli altri utenti l’uso e la condivisione dei lavori da esso prodotti.
Un’altra community di condivisione di presentazioni è Slideshare116 che offre
come servizio quello di pubblicare e condividere le proprie slide effettuate con i
maggiori strumenti di presentazione ma ha un grande limite in quanto la presentazione
viene creata offline e solo dopo caricata sul sito, che immediatamente la converte in un
file Flash, visibile allo stesso modo su qualunque piattaforma. Il sito offre la possibilità di

113
www.archive.org
114
www.empressr.com
115
www.thumbstacks.com
116
www.slideshare.net
51
licenziare le presentazioni sotto CCPL, ma questo può avvenire solo una volta che si è
effettuato l’upload del materiale, entrando in una pagina apposita dove si può
effettuare l’editing della propria presentazione e scegliere quindi eventualmente la
licenza da applicare, decidendo se impostare sempre quel tipo di licenza scelto a tutti i
lavori che si pubblicheranno in seguito o cambiarlo a proprio piacere di volta in volta.

1.5.2 La creazione collaborativa dei contenuti in rete: progetti e iniziative


Questo nuovo modo di creare e condividere contenuti in rete ha favorito il
diffondersi di progetti e iniziative che promuovono la creazione collaborativa.
Di grande rilievo è l’iniziativa lanciata da YouTube che ha presentato la YouTube
Symphony Orchestra117, la prima orchestra online globale che vedrà la collaborazione di
aspiranti musicisti, direttori d’orchestra e grandi nomi della musica classica. Come si
legge dal comunicato stampa118 il progetto è realizzato in collaborazione con la London
Symphony Orchestra, Carnegie Hall, il direttore d’orchestra Michael Tilson Thomas, il
compositore cinese Tan Dun, il pianista cinese Lang Lang e altre grandi stelle e istituzioni
della musica classica mondiale. Lo scopo è quello di portate i musicisti di tutto il mondo
a presentare due video in cui si mette in luce la loro abilità nell’interpretazione di una
composizione di Tan Dun realizzata appositamente per il progetto, e dove si dimostra la
loro abilità musicale e tecnica. I video saranno poi selezionati da una giuria competente
e in seguito i semifinalisti verranno votati dalla community di You Tube. I vincitori
parteciperanno ad un concerto alla Carnagie Hall e i video selezionati saranno combinati
insieme per creare una sinfonia You Tube, un unico video che mixerà insieme tutti i
singoli contributi dei musicisti per creare un esclusivo ensemble che verrà pubblicato
sulla home page di YouTube. La You Tube Symphony Orchestra trasformerà le
performance individuali in una sinfonia collaborativa globale, esplorando nuove
opportunità di collaborazione orchestrale e porterà sotto i riflettori di You Tube musicisti
classici di talento.
Si sono diffusi inoltre concorsi e progetti collaborativi dedicati a lavori rilasciati
sotto licenze non restrittive, con l’obiettivo di diffondere il lavoro collaborativo in rete
tra gli utenti.

117
Il sito è disponibile all’indirizzo http://it.youtube.com/symphony
118
Il comunicato stampa del 12 Novembre 2008 di presentazione dell’iniziativa è integralmente
disponibile in rete all’indirizzo
http://www.google.it/press/pressrel/20081202_symphony_orchestra.html
52
Basti pensare all’esperienza della Blender Foundation, un’organizzazione
indipendente e no profit che ha come scopo quello di stabilire servizi per gli utenti attivi
e gli sviluppatori di Blender, software open source di grafica e animazione 3D, migliorare
i propri software sotto licenza GNU e dare alla comunità internet accesso libero alla
tecnologia 3D. Il progetto fa capo a sette sviluppatori che hanno lavorato insieme per
creare i cortometraggi animati Elephants Dream e Big Buck Bunny119 distribuiti sotto
licenza Creative Commons con lo scopo di offrire agli utenti un grande servizio che è
quello di fornire contenuti per imparare ad utilizzare il software o per migliorarlo
riutilizzando il codice sorgente che viene rilasciato open.
Un altro interessante progetto-documentario collaborativo è
120
OpenSourceCinema , nato con l’obiettivo di creare un film sul copyright nell’era
digitale. Il progetto si basa sulla ricerca dell’incrocio tra cultura e creatività, esplorando
come il copyright sia stato messo sottosopra con il file sharing, il mashup e la creazione e
distribuzione di materiale in rete. La tecnologia digitale infatti ha amplificato la richiesta
di materiale open source. Per facilitare la collaborazione on line fra gli utenti il progetto
prevede un servizio aggiuntivo chiamato Wikifilm dove l’utente può scrivere il copione in
stile wiki e invitare gli altri a partecipare modificando e remixando il materiale prodotto
e ricreandone di nuovi. L’utente ha così ruolo attivo nel modellare il film, suggerendo e
modificando la trama e realizzando mashup delle scene.
Importanti progetti riguardano quindi non solo il remix collaborativo di video o
musica, ma si diffonde in rete anche un altro genere di work in progress, come Romanzo
Totale121. Questo è un progetto collaborativo per la realizzazione di un romanzo che
verrà rilasciato in copyleft122, che offre all’utente la possibilità di creare infinite
alternative di narrazione, basato su una struttura open del romanzo e sul mashup di
diverse voci narrative. L’obiettivo è mettere in rete l’inizio di un racconto e invitare i
lettori a continuare la storia in base alle proprie ispirazioni per realizzare diverse
alternative. Gli utenti possono così prendere spunto, modificare e riscrivere i racconti
pubblicati dagli altri utenti che partecipano al progetto.

119
I cortometraggi sono visibili in rete sul sito della Blender Foundation all’indirizzo
http://www.blender.org/blenderorg/blender-foundation
120
www.opensourcecinema.org
121
www.romanzototale.it
122
Il tema del Copyleft è affrontato nella parte II del secondo capitolo.
53
O.design123 invece ha l’obiettivo di socializzare saperi e condividere teorie, offre
il servizio di progettare collettivamente attraverso un metodo che generi opere in
relazione alla loro connettività. Vuole creare un punto di incontro fra giovani designer e
il mondo dell’industria offrendo un modello alternativo di condivisione dei saperi.
Interessanti sono inoltre le iniziative e i concorsi come Freeimage124, il primo
concorso internazionale dedicato al cinema libero. L’obiettivo è quello di favorire la
libera circolazione della cultura e fruibilità, promozione e condivisione dei saperi. Il
servizio che offre è quello di ricreare un laboratorio per i videomakers che dedicano la
propria creatività al cinema open source, di confrontarsi in un contesto interamente
dedicato alla creatività e alle nuove tecnologie open source. I lavori infatti devono
essere realizzati interamente con l’impiego di tecnologie open source o con software
libero e rilasciati sotto licenza Creative Commons che permetta il remix e la condivisione
dei lavori. Altro importante evento realizzato dall’Associazione Culturale In prospettiva,
è il Copyleftfestival125 di Arezzo, festival interamente dedicato alla filosofia del copyleft.
Si tratta di un concorso per cortometraggi dedicato a lavori rilasciati sotto licenza
Creative Commons e vuole essere una promozione e incontro tra artisti favorevoli alla
libera diffusione della produzione creativa.
Lo sviluppo e la diffusione di tutte queste piattaforma e progetti collaborativi
denotano un avvicinamento sempre più massiccio delle aziende che operano sul web al
fenomeno delle licenze libere per la tutela dei contenuti autoprodotti dagli utenti in
rete.
È interessante inoltre vedere come attraverso il monitoraggio dei forum di
discussione e delle FAQ presenti sui siti che utilizzano le CCPL tra cui Flickr o Jamendo,
siano parecchi gli argomenti di discussione che riguardano l’utilizzo di queste licenze. Le
domande più frequenti riguardano soprattutto la scelta fra una licenza piuttosto che
un’altra, come si fa ad applicarle ai propri lavori e le modalità di applicazione sui vari siti
e spiegazioni più generali su cosa è e cosa comporta l’adozione delle licenze, fattore che
denota come per molti utenti il loro utilizzo non sia ancora molto chiaro. Altre domande
riguardano la differenza fra la SIAE e CCPL, molti ancora non hanno le idee chiare sulla
differenza tra copyright e copyleft e cosa comporta il loro utilizzo e hanno dubbi circa la

123
www.odesigncommunity.com
124
www.freeimagefestival.org
125
www.copyleftfestival.net
54
possibilità di sfruttamento economico delle opere rilasciate sotto licenze Creative
Commons.

1.6 Il ruolo dell’utente “2.0” e la gestione dei diritti d’autore sui contenuti
autoprodotti: proposta di un authoring “2.0”
Come abbiamo visto il ruolo dell’utente non è più quello di mero fruitore passivo
di contenuti preconfezionati dall’industria culturale, ma ha assunto negli ultimi anni un
ruolo sempre più attivo nella catena di produzione, creando autonomamente opere
proprie grazie alla digitalizzazione e alle possibilità offerte dal Web di distribuzione e
condivisione di questi contenuti, e oggi di produzione attraverso gli strumenti di editing
online che le piattaforme Web mettono sempre più spesso a disposizione come servizio
addizionale.
L’utente, grazie a questi servizi e allo sviluppo di interfacce sempre più facili da
utilizzare e che garantiscono una rich user experience sempre più simile alle applicazioni
che tradizionalmente girano in locale, è diventato prosumer, produttore e consumatore
di informazioni e contenuti Web.
Il ruolo sempre più importante che hanno assunto le persone nella creazione e
condivisione dei contenuti in rete ha portato nel gennaio 2007 il Time126 a dedicare la
prima copertina dell’anno a un insolito personaggio: You. You è ognuno di noi che in
questi anni ha utilizzato il Web e contribuito così alla sua crescita in termini di contenuti
e partecipazione. Il riconoscimento reale del Time va in realtà attribuito allo strumento
che permette l’emergere delle individualità: il Web “2.0”, prerequisito del fenomeno di
persone che si esprimono e si relazionano in modo nuovo127.
Per avere un panorama più ampio degli utenti “2.0” e di come utilizzino le
piattaforme Web per la creazione, la collaborazione e la diffusione dei contenuti
autoprodotti, abbiamo somministrato in rete un questionario esplorativo128 che ha
permesso di estendere la conoscenza degli utenti sulle abitudini di utilizzo del Web, degli
strumenti di creazione collaborativa e delle licenze Creative Commons.

126
http://www.time.com/time/magazine/article/0,9171,1569514,00.html
127
Di Bari, op. cit., p.2.
128
Il questionario è stato somministrato in rete principalmente sui siti Facebook.com, Flickr.com,
Jamendo.com, Nonsolonews.it, Google Groups, attraverso il blog
http://ricercasucreativecommons.wordpress.com dal 13/11/2008 fino ad oggi. Le percentuali
sono riferite al campione rilevato di 38 risposte al questionario.

55
Dai risultati è emerso che il 30% degli intervistati ha utilizzato in rete
piattaforme che consentono l’editing online per la creazione e il remix di contenuti. Di
questi il 33% ha utilizzato piattaforme per la creazione e il remix di musica come
Freesound e CcMixter e il 44% strumenti di editing che permettono il fotoritocco online
come PicNic.
Il 42% degli intervistati ha affermato di essere incoraggiato ad utilizzare questi
sistemi di creazione dei contenuti in rete per la maggiore autonomia che danno nella
creazione dell’informazione stessa, e il 30% perché sostiene essere una buona
opportunità di diffusione della conoscenza. Il 27% afferma invece di avvalersi di questi
strumenti per la loro facilità di utilizzo.
Questo consente di tracciare un profilo più definito del potenziale utente Web: è
sì un autore attivo nel processo di creazione e condivisione di contenuti, ma è sempre
più incoraggiato in questo dalla diffusione di servizi che abilitano la creazione
collaborativa e il remix dei contenuti, permettendo di modificare e rielaborare materiale
pre-esistente e diffondere la conoscenza attraverso strumenti di editing online, facili da
utilizzare come i software che normalmente si utilizzano in locale, ma che essendo
online consentono il mashup di contenuti e informazioni, garantendo la massima
diffusione dei contenuti e la massima collaborazione tra gli utenti.
Come sostiene Lovink129, Lawrence Lessing, Tim O’Really e Joe Ito mettono
enfasi sul diritto di remixare il flusso di contenuti e mettono attenzione nei confronti dei
giovani dilettanti che vogliono divertirsi in rete. Bisogna escogitare nuovi modi in cui
l’informazione possa fluire liberamente da un luogo all’altro, da persona a persona.
L’informazione e la cultura devono costituire una risorsa prodotta e utilizzata in modo
collaborativo, piuttosto che essere controllata da proprietari particolari. Le persone
dovrebbero essere libere di appropriarsi dell’informazione come vogliono in base ai loro
bisogni e desideri, e non dover essere costrette a consumare prodotti standardizzati
imposti dall’industria culturale.
Elemento fondamentale del Web è quindi la creazione collaborativa e la
condivisione delle informazioni tra gli utenti. Questo porta a rafforzare il concetto di
fiducia tra gli utenti che mettono in rete i frutti della propria creatività, che potrebbe
essere rafforzata attraverso l’utilizzo delle licenze d’uso, che permettono agli autori di

129
Saggio di Lovink, in Di Bari, op. cit., p. 47.

56
esplicitare gli utilizzi che si possono fare sulle proprie opere pur garantendo alcune
libertà per gli altri utenti, che possono così riutilizzare materiale pre-esistente in rete ma
senza ledere i diritti d’autore di terzi.
L’utilizzo di questo tipo di licenze d'uso porta ad affrontare un aspetto non
trascurabile nell’attuale panorama di condivisione e creazione collaborativa tipica del
Web, ossia che occorre ripensare e ridefinire il concetto di authoring in rete.
Infatti se questa caratteristica fondamentale del Web ha portato allo sviluppo di
piattaforme appositamente create per favorire la cosiddetta remixing culture,
agevolando il lavoro collaborativo in un processo definito work in progress -dove le
opere non sono mai finite ma ruotano attorno a un concetto di continuo miglioramento
del lavoro- e ha favorito la diffusione di strumenti di editing on line come servizi
aggiuntivi di queste piattaforme -permettendo al Web di avvicinarsi sempre
maggiormente all’idea di piattaforma e andando così a sovrapporsi ai sistemi operativi
che lavorano solo in locale, garantendo agli utenti maggiore visibilità e possibilità di
condivisione con gli altri, che possono esprimere commenti, votare, remixare e creare
opere nuove dalle nostre-, è necessario rielaborare il concetto di authoring in rete, che
potrebbe essere valorizzato proprio dall’utilizzo delle CCPL.
Infatti se sono milioni i contenuti autoprodotti dagli utenti ogni giorno e
distribuiti utilizzando gli strumenti di editing online attraverso questi ambienti
collaborativi, dove vengono fruiti e riutilizzati per creare opere nuove basate su di esse,
grazie alla partecipazione di più persone alla creazione della stessa, si dovrebbe
divulgare maggiormente la conoscenza del diritto d’autore tra gli utenti di queste
piattaforme. Questo potrebbe aiutare a sensibilizzarli all’utilizzo delle CCPL, attraverso
dei meccanismi che permettano di ridefinire il concetto di authoring in rete: l’authoring
“2.0” come nuovo modo di concepire la creazione dei contenuti in rete, attraverso la
partecipazione collaborativa degli utenti nella creazione dei contenuti e agevolata
dall’utilizzo degli strumenti di editing online, ma nel rispetto e nella consapevolezza
dell’importanza della tutela del diritto d’autore per le opere autoprodotte dagli utenti in
rete.

57
Per far questo però è necessario avere chiari i principi base del copyright e del
diritto d’autore perché, come affermato anche dal Prof. De Martin130, se fino a qualche
anno fa si poteva vivere ignorando l’esistenza del copyright oggi non è più possibile
perché ognuno può creare, distribuire e riutilizzare materiale pre-esistente in rete per
creare opere nuove.
È fondamentale quindi che gli utenti siano informati prima di tutto sui principi
del diritto d’autore, per poi comprendere appieno la modularità, le potenzialità e i limiti
delle licenze libere.

130
Intervista del 10 dicembre al Prof. J.C. De Martin, responsabile italiano di Creative Commons e
co-direttore del centro NEXA su Internet & Societa' Politecnico di Torino.
58
CAPITOLO 2
Il Web e la tutela del diritto d’autore
Copyright, Copyleft e Open content

59
CAPITOLO 2
Il Web e la tutela del diritto d’autore
Copyright, Copyleft e Open content

PARTE I– Copyright e diritto d’autore


2.1 Premessa
Sino a qualche anno fa si sentiva parlare poco di copyright. Ma oggi, con la
diffusione di Internet, la questione della tutela del diritto d’autore delle informazioni
presenti in rete e della pirateria è diventato un tema sempre più discusso, tanto da
indurre i governi a varare leggi sempre più restrittive.
Oggi infatti chiunque può mettere a disposizione i frutti della propria creatività
ad un numero indefinito di fruitori senza bisogno di procedimenti industriali o
competenze tecniche specifiche per la loro duplicazione. I problemi nascono
sostanzialmente da due fattori131:
- le informazioni sono digitalizzate e quindi facilmente trasmissibili e utilizzabili da un
punto all’altro della rete senza che queste perdano qualità e definizione;
- la trasmissione delle informazioni supera i confini dei diversi Paesi nei quali si trovano
gli utenti che si collegano alla rete.
In questo modo il sistema tradizionale di copyright, basato sulla possibilità
esclusiva di riprodurre e diffondere copie, è stato compromesso. Questo mette in
evidenza la difficoltà di regolamentare adeguatamente le azioni volte alla tutela del
diritto d’autore sulle informazioni presenti in rete. Infatti la globalizzazione della rete e
la sua interattività crea, dal punto di vista dell’efficacia del copyright, problemi che non
possono in alcun modo essere risolti a livello del singolo Paese, ma devono trovare una
soluzione in sede di accordi e trattati europei e internazionali132.
L’osservazione empirica della cosiddetta società dell’informazione ha
dimostrato che l’avvento delle nuove tecnologie non ha affatto soffocato la creatività,
ma ne ha prodotto nuove forme strettamente legate alla multimedialità e alla
digitalizzazione. A questo si è aggiunto lo sviluppo di Internet e delle reti peer-to-peer
che hanno rivoluzionato la percezione spazio-temporale, soprattutto in fatto di

131
Morelli Marcello, La comunicazione in rete. Sicurezza, privacy, copyright in Internet: soluzioni
tecniche e giuridiche, Franco Angeli, Milano, 1999, p. 126.
132
Ibidem.
60
diffusione delle opere dell’ingegno: oggi un’opera in formato digitale è fruibile
istantaneamente in ogni parte del mondo, senza intermediazioni e con costi ormai pari a
zero133.
In un ambiente in continua evoluzione come il Web, dove cambiano
rapidamente le forme di creazione e fruizione di contenuti e che consentono sempre
maggiormente la possibilità di authoring direttamente online e attraverso ambienti che
permettono la creazione collaborativa dei contenuti, è indispensabile affrontare la
questione del copyright che, in alcuni casi, diventa un ostacolo alla libera circolazione del
sapere.
Una delle questioni più affascinanti è infatti lo scontro tra la tutela della
proprietà intellettuale e l’uso creativo di semilavori prodotti da altri. Il digitale infatti
rende difficile riconoscere l’originale dalla copia, rende identico il prodotto pubblicato a
quello consumato, rende facili e immediati i montaggi e i remix tra opere di provenienza
differente. L’opera intellettuale infatti non nasce in isolamento, ma anzi si muove
proprio dai semilavori di altri utenti-autori, proponendo assemblaggi nuovi e
arricchendoli di nuovi significati. Proprio per questa facilità di riproduzione e
appropriazione sembra ancora più necessario predisporre una legislazione intransigente
a protezione della proprietà intellettuale134.
Oggi la rete sembra dar corpo a pratiche che sono sempre esistite e che
costituiscono l’oggetto di quello che chiamiamo creatività, che ci contraddistinguono in
quanto esseri umani. Secondo Tomasello, che ha ipotizzato che alla base della
evoluzione cumulativa della cultura vi sia il dispositivo da lui chiamato ratchet effect, una
volta raggiunto un certo artefatto, esso è soggetto soltanto a successive modifiche, ma
non si torna più indietro. Tale processo è spiegabile attraverso i meccanismi di
appropriazione e di apprendimento imitativo che, essendo di natura selettiva, lasciano
ampi gradi di libertà per modifiche e integrazioni dell’artefatto culturale135.
Affrontando un discorso complesso come quello del copyright in rete, è
necessario darne innanzitutto una definizione e affrontare gli aspetti che ruotano

133
Definizione tratta da Aliprandi S., Capire il Copyright: Percorso guidato nel diritto d’autore, Ed.
PrimaOra, Lodi, 2007, p. 36.
134
Soro, A., (a cura di) Human Computer Interaction Fondamenti e Prospettive, Polimetrica
International Scientific Publisher, Monza, 2008, p.35.
135
In Luigi Anolli, Origini ed evoluzione della cultura, pubblicazione su Giornale Italiano di
Psicologia, 2006, disponibile su http://www.cescom.info/anolli/Anolli%202006-
articolo%20bersaglio.pdf, p.27.
61
intorno ad esso, partendo dalle radici storiche fino ad arrivare alle normative più recenti
che lo disciplinano. Infatti in Europa sono state emanate diverse direttive comunitarie
che hanno tracciato alcuni indirizzi di riforma del diritto d’autore, che spesso sono
andate a rinforzare i diritti dei titolari, limitando però alcune libertà fondamentali degli
utenti.
La riforma del diritto d’autore dovrebbe essere supportata dalla presa di
coscienza che -con la multimedialità, Internet e la telematica- i soggetti giuridici sono
cambiati e che ad essi non si può applicare la disciplina preesistente, né immaginare di
poter varare una legislazione nazionale che non tenga conto della realtà mutante dovuta
allo sviluppo delle tecnologie dell’informazione136.

2.2 Copyright e Droit d’auteur: radici storiche


Il copyright (letteralmente diritto di copia) è l’insieme delle normative sul diritto
d’autore in vigore nel mondo anglosassone e statunitense. Col passare del tempo questo
termine ha assunto in Italia un significato che indica le norme sul diritto d’autore, ma da
cui in realtà il copyright differisce sotto diversi aspetti.
Le prime normative sul copyright furono emanate dalla monarchia inglese nel
XVI secolo, per svolgere un controllo sulle opere pubblicate nel territorio. Infatti,
insieme alla diffusione delle prime macchine automatiche per la stampa, iniziò ad
diffondersi anche la libera circolazione di scritti di ogni genere.
Poiché la censura era all’epoca una funzione amministrativa legittima, il governo
riconobbe il bisogno di controllare ed autorizzare la libera circolazione delle opinioni.
Venne perciò fondata una corporazione privata di censori - la London Company of
Stationers (Corporazione dei Librai di Londra) - i cui profitti sarebbero dipesi
dall’efficacia del proprio lavoro137. Agli editori furono così concessi i diritti di copyright
su ogni stampa -con valenza retroattiva anche per le opere pubblicate
precedentemente-, il diritto esclusivo di stampa, di sequestro delle stampe non
autorizzate e quello di bruciare i libri stampati illegalmente. Ogni opera, per essere
stampata, doveva essere censita nel Registro della corporazione, ma solo dopo il
controllo da parte del Censore della corona o la censura degli stessi editori. Le opere
venivano registrate sotto il nome di uno degli editori membri della corporazione, il quale

136
Morelli, op. cit., p. 127.
137
Copyright And `The Exclusive Right' Of Authors, Journal of Intellectual Property, Vol. 1, No.1,
1993, articolo di L. Ray Patterson su http://www.lawsch.uga.edu/jipl/old/vol1/patterson.html
62
ne acquisiva il copyright, cioè il diritto esclusivo sugli altri editori di pubblicarla. La
corporazione degli editori esercitava quindi funzioni di polizia privata, dedita al profitto e
al controllo da parte del governo. Il copyright perciò nasce come diritto dell’editore e
non dell’autore.
Sul finire del XVII secolo però l’imporsi di idee liberali nella società frenò le
politiche censorie e causò la fine del monopolio degli editori. Temendo una
liberalizzazione della stampa e la concorrenza da parte di stampatori indipendenti ed
autori, gli editori fecero leva sul Parlamento. Partendo dal principio per cui gli autori non
disponessero dei mezzi per distribuire e stampare le proprie opere, gli editori
mantennero i privilegi acquisiti chiedendo l’attribuzione agli autori dei diritto di
proprietà sulle opere prodotte, con la clausola che questa proprietà potesse essere
trasferita a terzi tramite contratto. Da questo momento in poi gli editori non avrebbero
più generato profitto dalla censura sulle opere, ma dal trasferimento dei diritti
sottoscritti dagli autori, necessario per la pubblicazione delle opere.
Nel 1710 venne emanata la prima norma moderna sul copyright, lo Statuto di
Anna: gli autori, che fino ad allora non avevano detenuto alcun diritto di proprietà,
ottennero il potere di bloccare la diffusione delle proprie opere, mentre gli editori
incrementarono i profitti grazie alla cessione -fondamentalmente obbligatoria per
ottenere stampa e distribuzione- da parte degli autori di vari diritti sulle opere. Lo
Statuto di Anna ancora oggi viene referenziato come il momento in cui gli autori
ricevettero finalmente la protezione che meritavano da tempo, ma interpretarlo come
una vittoria degli autori contrasta sia con il comune buon senso che con i fatti storici.
Infatti gli autori, che non avevano mai beneficiato del copyright, non vedevano nessuna
ragione di chiedere improvvisamente il potere di evitare la diffusione delle proprie
opere, e non lo fecero138.
Il rafforzamento successivo dei diritti d’autore su pressione delle corporazioni
generò gradualmente il declino di altre forme di sostentamento per gli autori, legando
maggiormente l’autore al profitto dell’editore.
Successivamente, a partire dalla legislazione francese post-rivoluzionaria, anche
la Francia adotta il Droit d’auteur, un diritto soggettivo che si basa su una considerazione

138
Drahos, P., Information Feudalism: Who Owns the Knowledge Economy?, John Braithwaite
Earthscan, 2002.

63
di ordine prima morale –cioè la protezione della personalità e dell’integrità del pensiero
dell’autore-, e poi economico – cioè il diritto dell’autore a essere remunerato per lo
sforzo compiuto139.
In seguito, a partire dal 1836 con il Codice Civile Albertino in Sardegna fino ad
arrivare al resto dell’Europa, si emanarono legislazioni per l’istituzione del copyright o
del diritto d’autore, tutte con ispirazioni maggiormente democratiche rispetto a quella
anglosassone. Così, il 9 settembre 1886 fu costituita l’Unione Internazionale di Berna,
per coordinare il riconoscimento reciproco del diritto d’autore tra le nazioni aderenti,
ancora oggi in vigore.

2.3 La questione del Copyright statunitense: principi base


La Costituzione degli Stati Uniti stabilisce che il copyright esiste a beneficio degli
utenti e non nell’interesse degli editori o degli autori. In realtà però quando la società
tende a rifiutare e infrangere le restrizioni sul copyright imposte “a loro beneficio”, il
governo statunitense vi aggiunge ulteriori restrizioni, nel tentativo di intimorire gli utenti
e costringerli a ubbidire sotto la pressione di nuove e pesanti sanzioni.
Nella stesura del testo della Costituzione, l’idea che agli autori potesse essere
riconosciuto il diritto al monopolio sul copyright venne proposta e rifiutata. I padri
fondatori degli Stati Uniti partirono infatti da una premessa diversa, secondo cui il
copyright non è un diritto naturale degli autori, quanto piuttosto una condizione
artificiale concessa loro per la promozione del progresso, cioè per apportare benefici agli
utenti che fruiscono delle opere protette da copyright140.
Il sistema del copyright funziona tramite l’assegnazione di privilegi e relativi
benefici per editori ed autori. Ma non lo fa nell’interesse di questi soggetti, quanto
piuttosto per modificarne il comportamento: per fornire cioè un incentivo agli autori a
scrivere di più e agli editori a pubblicare di più. In effetti il governo utilizza i diritti
naturali del pubblico, a nome di quest’ultimo, come parte di una trattativa contrattuale
finalizzata ad offrire allo stesso pubblico un maggior numero di opere. Gli esperti legali
definiscono questo concetto contratto sul copyright.

139
Seminario G. Mazziotti del 30 Maggio 2008 all’Università di Sassari.
140
Si riporta la definizione tratta da R. Stallman, R., Software Libero, Pensiero Libero, Stampa
Alternativa, Viterbo, 2003, pp. 114-115.

64
La Costituzione statunitense autorizza l’assegnazione dei poteri di copyright agli
autori che tipicamente li cedono agli editori. Generalmente spetta a questi ultimi e non
agli autori, l’esercizio di tali poteri per trarne la maggior parte dei benefici, pur se agli
autori ne viene riservata una piccola parte. Ne consegue che normalmente sono gli
editori a spingere per l’incremento dei poteri conferiti dal copyright141.
Il contratto di copyright pone quindi il pubblico al primo posto: il beneficio per il
lettore è un fine in quanto tale; i benefici per gli editori non rappresentano altro che un
mezzo per il raggiungimento di quel fine. Gli interessi dei lettori e quelli degli editori
sono qualitativamente diseguali nelle rispettive priorità. Secondo Stallman142, il primo
passo verso un’errata interpretazione sugli obiettivi del copyright consiste nell’elevare
gli interessi degli editori al medesimo livello di importanza di quelli dei lettori.
Si dice spesso che la legislazione statunitense sul copyright mira al
raggiungimento di un equilibrio tra gli interessi degli editori e quelli dei lettori. I
sostenitori di questa interpretazione la presentano come una riproposizione delle
posizioni di partenza affermate nella costituzione, ritenendolo l’equivalente del
contratto sul copyright. Ma l’idea di equilibrio dà per scontato che gli interessi di editori
e lettori differiscano per importanza soltanto a livello quantitativo, rispetto a quanto
peso va assegnato a tali interessi e in quali circostanze questi vadano applicati. Allo
scopo di inquadrare la questione in un simile contesto, spesso si ricorre al concetto di
partecipazione equa: in tal modo si assegna il medesimo livello d’importanza a ciascun
tipo di interesse per quanto concerne le decisioni sulle procedure applicative. Questo
scenario ripudia la distinzione qualitativa tra gli interessi degli editori e quelli dei lettori
che è alla radice della partecipazione del governo nelle trattative contrattuali sul
copyright.
Le conseguenze di una simile alterazione della situazione appaiono di ampia
portata, perché la grande protezione del pubblico inclusa nel contratto di copyright,
secondo cui i privilegi concessi agli autori e agli editori possono trovare giustificazione
soltanto in nome dei lettori, viene ripudiata dall’interpretazione del raggiungimento di
un equilibrio. Poiché l’interesse degli editori è considerato un fine in se stesso, può
motivarne i privilegi sul copyright; in altre parole il concetto di equilibrio sostiene che i

141
Stallman, op. cit., p. 116.
142
Ibidem
65
privilegi possano trovare giustificazione in nome di qualche soggetto che non sia il
pubblico.
A livello pratico la conseguenza di tale concetto di equilibrio consiste nel
ribaltare l’onere di motivare i cambiamenti da apportare alle legislazioni in materia. Il
contratto sul copyright impegna gli editori a convincere i lettori nel cedere loro
determinate libertà. Praticamente l’idea di equilibrio capovolge quest’onere perché in
genere non esiste alcun dubbio che gli editori trarranno beneficio dai privilegi aggiuntivi.
Così, a meno che non venga provato un danno ai lettori, si può concludere che agli
editori vada garantito qualsiasi privilegio richiesto. L’idea del raggiungimento di un
equilibrio tra editori e lettori va respinta, in quanto nega a questi ultimi la priorità cui
hanno diritto143.

Under the laws of the United States (and of European countries, through the Berne
Convention, and of members of the World Trade Organization through the WTO Agreement
on Trade-Related Aspects of Intellectual Property Rights), copyright is automatically attached
to every novel expression of an idea, whether through text, sounds, or imagery. For
example, a drawing of a dog made on a café napkin is copyrighted simultaneously with its
creation and is the sole property of its creator. (…) This drawing cannot be copied, displayed,
or otherwise commercially exploited by any person other than the creator for the life of the
copyright. Among other things, no person other than the creator has the right under
copyright law to create “derivative works”—works that depend upon or develop from the
original, copyrighted work. In the United States, the period protected by copyright is very
long indeed: the life of the creator plus 70 years, or in the case of works made “for hire” or
by creators who are not identified, 95 years from the date of publication or 120 years from
the date of creation, whichever is shorter. This does not mean, of course, that the creator of
this drawing has a monopoly on the depiction of dogs. Copyright law does not protect any
144
particular idea. Rather, copyright protects only the expression of that idea .

Negli Stati Uniti quindi le protezioni del copyright sono soggette a una delle più
importanti limitazioni: il tempo. I termini di protezione delle opere dell’ingegno sono
stati estesi da 50 a 70 anni dal Copyright Term Extension Act del 1998 che hanno
emendato il Titolo XVII del U.S. Code.
Il copyright statunitense non necessita di registrazione per essere legalmente
effettivo, perché nasce quando l’opera viene creata. Comunque, l’utilizzo di un
avvertimento di copyright, allerta i potenziali utenti che l’opera è sotto la protezione del

143
Stallman, p.118, op.cit.
144
Brano tratto da A. M. St. Laurent, Understanding Open Source and Free Software Licensing,
Ed. O’Really, 2004
66
copyright. La protezione del copyright sull’autore di un’opera è soggetta a due
importanti limitazioni: la dottrina del work for hire e il fair use145.
Il copyright tipico degli ordinamenti giuridici di matrice anglo-americana -i
cosiddetti sistemi di common law- è nato quindi con lo scopo di promuovere l’industria
culturale e tutelare prima di tutto l’interesse di editori e produttori che investono sulla
commercializzazione dell’opera. Già dalle origini dunque si poteva intravedere la
separazione fra sistemi di Copyright anglosassone e statunitense e sistemi di Droit
d’auteur europei.
Il diritto d’autore infatti nasce in risposta a specifiche esigenze dettate da nuovi
fenomeni economici e culturali: la ragione economica -come incentivazione della
creazione di opere dell’ingegno-, e quella culturale -come massima diffusione e fruibilità
da parte del pubblico delle opere protette dal diritto d’autore. In modo quasi unanime
quindi giuristi ed economisti iniziarono a parlare del diritto d’autore e del copyright
come forma di incentivo della creatività e di sviluppo culturale146.
Concedendo questi nuovi diritti ad autori ed editori, si attribuiva un valore
economico alla produzione culturale, di modo che questi soggetti fossero incentivati a
continuare nella loro attività, potendone fare fonte di remunerazione147.
E questo incentivo alla creatività veniva concretizzato, a seconda dei sistemi
giuridici di riferimento, o attribuendo maggiori prerogative all’editore -nei sistemi di
common law anglosassoni- oppure attribuendo maggiori prerogative all’autore -nei
sistemi di civil law europei.
Lo strumento giuridico con cui si è attuato questo incentivo alle creatività e allo
sviluppo culturale è legato al concetto di diritto esclusivo che indica la possibilità di

145
A tal proposito si esprime St. Laurent, (op. cit., p. 7) “Works that are made “for hire” are made
by an employee in the scope of his or her employment by another, including those that are
specially commissioned for use in another work or as a supplement to another work, such as a
translation. Works that are created “for hire” are still subject to copyright protection, under the
same terms as described above, but the copyright belongs to the employer of the creator, or the
person who commissioned the work, not the creator. The doctrine of fair use defines certain uses
of copyrighted material as non-infringing. “Fair use” allows persons other than the creator to
make certain limited uses of the copyrighted material for purposes of commenting upon or
criticizing the work, reporting, or teaching related to the copyrighted material.
146
Aliprandi S., Capire il Copyright: Percorso guidato nel diritto d’autore, Ed. PrimaOra, Lodi,
2007, p.32
147
Tale impostazione fu chiara fin dall'inizio, infatti già lo Statuto di Anna era intitolato “An act for
encouragement of learning” (Un editto per l'incoraggiamento dell'apprendimento).

67
escludere terzi dall’esercizio di un diritto, che può essere dunque esercitato
esclusivamente dal soggetto titolare.
Nel caso di beni immateriali come le opere dell’ingegno, non è però così
naturale assicurarsi l’utilizzo in via esclusiva: l’unica via è appunto quella del diritto. È il
diritto cioè a stabilire chi ha il potere di dettare le regole per lo sfruttamento di una
determinata opera, in quali limiti queste regole devono essere rispettate dagli utenti e
quali sono le sanzioni per la violazione di queste regole. Un autore deve quindi
necessariamente far leva sugli strumenti che la legge gli attribuisce in quanto autore
dell’opera, per esercitare un controllo sulla sua fruizione da parte degli utenti.
Il meccanismo dell’esclusiva è in un certo senso la base di tutto il sistema del
diritto d’autore. E’ proprio attraverso la cessione dei diritti esclusivi che si compone
l’intero tessuto dei rapporti contrattuali sull’utilizzo e lo sfruttamento economico
dell’opera. Assodato il principio per cui l’ossatura ideale del diritto d’autore è di natura
privata-contrattuale, non è difficile intuire come le regole del gioco siano spesso stabilite
dagli accordi fra i soggetti in gioco.
Si sono così formati nel corso degli anni particolari equilibri basati sui rapporti di
forza degli operatori del sistema, per cui spesso si parla di “potere contrattuale”. E’
normalmente il soggetto dotato di maggiore potere contrattuale a dettare le concrete
regole del gioco. Ad esempio, l’autore emergente dovrà per forza di cose adattarsi alla
prassi contrattuale di un grande editore con cui vuole pubblicare il suo libro; come
d’altro canto l’autore affermato potrà avanzare le sue esigenze anche nei confronti di
grandi editori, i quali sono disposti a compromessi pur di ottenere l’esclusiva su un
nuovo libro di sicuro successo.
Questo ordine concettuale maturato in due secoli ha iniziato a vacillare nel giro
di pochi anni per l’avvento delle nuove tecnologie informatiche e della comunicazione
telematica: se fino a qualche anno fa non c’era dubbio sulla necessità dell’intervento di
un soggetto imprenditoriale come l’editore che si occupasse concretamente di realizzare
e diffondere copie dell’opera attraverso i tradizionali canali di distribuzione, ora questa
certezza non è più così fondata148.

148
Aliprandi S., op. cit., pp.34-35.

68
2.4 Le direttive europee e la situazione italiana
Il 10 dicembre 1997 la Commissione delle comunità europee inviava al
Parlamento europeo e al Consiglio, la proposta di direttiva su taluni aspetti del diritto
d’autore e dei diritti connessi nella società dell’informazione COM (97) 628 def. –
97/0359 (COD). Nella proposta venivano sottolineate da un lato le nuove possibilità di
creare e sfruttare la proprietà intellettuale a livello mondiale quale elemento propulsore
dello sviluppo economico e culturale dei diversi Paesi, e dall’altro il fatto che la sempre
maggiore disponibilità di opere protette online potesse accrescere i rischi di pirateria,
che già si stava diffondendo soprattutto per opere dell’ingegno come il software e il
materiale audio e video149.
La commissione nella sua relazione osservava come le nuove tecnologie hanno
già aumentato notevolmente lo sfruttamento di opere letterarie, musicali e audiovisive e
quindi le differenze esistenti in materia legislativa fra i vari stati membri avranno effetti
ancora più significativi.
Ulteriori disparità potrebbero insorgere se gli Stati membri adeguassero
unilateralmente le proprie leggi agli sviluppi tecnologici. Di qui la possibile conseguenza
che i titolari dei diritti e i loro intermediari potrebbero esitare nell’autorizzare
l’utilizzazione commerciale delle loro opere online, almeno negli stati membri che non
garantiscono una tutela o dispongono di una tutela poco efficace. Tutto questo
potrebbe creare numerosi ostacoli al sano svilupparsi della società dell’informazione in
Europa. Nasce quindi la necessità di una ulteriore armonizzazione della tutela del diritto
d’autore e dei diritti ad esso collegati, con l’obiettivo di garantire un effettivo mercato
interno per i prodotti e i servizi tutelati da tale diritti.
Gli aspetti su cui la commissione aveva soffermato l’attenzione erano quelli che
consentivano Il diritto di riproduzione, il diritto di comunicazione al pubblico e le misure
tecnologiche per la gestione dei diritti. La direttiva europea naturalmente non poteva
prescindere dalla necessità di tener conto dell’esigenza di concordare a livello
internazionale gli standard minimi di tutela, partendo da tre importanti accordi
multilaterali già sottoscritti: la Convenzione di Berna per la protezione delle opere
letterarie e artistiche, la Convenzione di Roma relativa alla protezione degli artisti,
interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di

149
Morelli, op.cit., pp.130-131.
69
radiodiffusione, e l’accordo sugli aspetti dei diritti di proprietà intellettuale attinenti al
commercio (Accordo TRIPs150), cui vanno aggiunti i due trattati in materia di proprietà
intellettuale dell’OMPI (Organizzazione Mondiale per la Proprietà intellettuale o WIPO)
sottoscritti nel 1996 con il consenso di oltre 100 Paesi151.
Nel 2004 il Parlamento europeo è intervenuto in materia di copyright con la
cosiddetta direttiva Ipred1 con importanti emendamenti152 a difesa degli utenti. Ha poi
emanato nel 2007 una seconda direttiva, a maggiore tutela dei detentori di diritti
d’autore, la direttiva Ipred2153, che mira a modificare la direttiva 2004/48/CE sui diritti di
proprietà intellettuale.

2.4.1 Il diritto d’autore italiano: radici storiche


I problemi della tutela del diritto d’autore posti dall’avvento di Internet e
dall’aumento del materiale caricato quotidianamente in rete da milioni di utenti, hanno
origine e caratteristiche diverse. Nella maggior parte dei casi in rete vengono
memorizzati materiali aventi formati assolutamente diversi fra loro, come testi,
immagini, suoni e video. La semplice visualizzazione di questi materiali in rete comporta
ripetute riproduzioni degli stessi, tutte effettuate senza che venga chiesta alcuna
autorizzazione in proposito.
La tecnologia informatica ha inoltre reso possibile il download dei materiali
presenti in rete, con grande facilità e rapidità e con un livello qualitativo elevato, grazie
alla digitalizzazione di quanto viene memorizzato o trasmesso in rete. Nel processo di
gestione delle attività in rete entrano in gioco enti diversi -il titolare dei diritti d’autore,

150
Gli accordi TRIPs (Trade Related Aspects of Intellectual Property Rights) sulla proprietà
intellettuale, pilastro costitutivo della WTO (World Trade Organization), hanno introdotto
standard ampi per la definizione e la tutela della P.I. Si tratta solo di una delle varie norme
internazionali adottate negli ultimi anni in riferimento alla tutela della proprietà intellettuale, tra
cui figurano la dir. europea del 1991 sulla protezione del software e quella del 1996 sulle banche
dati, i due trattati WIPO adottati nel 1996, il DMCA digital Millenium Copyright Act e il Sonny
Bono Copyright Term Extension Act, entrambi del 1998. Sulla base di tali documenti, i diritti di
proprietà intellettuale, prima validi solo per i beni industriali, sono stati estesi ad altre categorie
di prodotti.
151
Morelli, op.cit., pp.130-131.
152
Il Parlamento europeo ha proposto una serie di emendamenti. Con uno, in particolare, sulla
base del fair use prima esistente solo nel diritto americano, si stabilisce che la riproduzione in
copie o su supporto audio o con qualsiasi altro mezzo, a fini di critica, recensione, informazione,
insegnamento, studio o ricerca, non sia qualificato come reato.
153
La Direttiva IPRED2, detta "Ip Enforcement", è stata recepita in Italia a maggio 2007 e
introduce diverse misure a maggiore tutela dei detentori di diritti d'autore. In particolare, obbliga
gli Internet Service Provider a fornire i dati personali degli utenti in caso di contestazione da parte
dei detentori dei diritti.
70
gli utenti, l’ISP- ed è molto difficile individuare le responsabilità dal punto di vista della
tutela del diritto d’autore.
Altro fattore da tenere in considerazione nel momento in cui si affrontano
queste problematiche sulla tutela del diritto d’autore in rete è che la rapidità con cui la
tecnologia evolve non consente di poter disporre di norme legislative in grado di seguire
passo per passo questa evoluzione. Non si può perciò pensare ad un adeguamento
continuo del corpus delle leggi alle esigenze dettate dalle continue innovazioni tecniche
e tecnologiche che cambiano lo scenario della nostra epoca. L’unico modo per far fronte
a queste nuove realtà di Internet e della multimedialità in rete, è quello di operare per
analogia a partire dalle normative già esistenti e vedere come esse ci forniscano
elementi sufficienti per un primo approccio al problema della tutela dei diritti di coloro
che producono materiali e li pubblicano nel Web per la loro fruizione da parte di un
pubblico ampio, sia per chi immette in rete opere create da persone diverse154.
Le leggi fondamentali cui occorre fare riferimento per quanto riguarda
l’ordinamento italiano sono:
1. La Convenzione di Berna per la protezione delle opere letterarie ed artistiche, la
più antica delle normative per quanto riguarda il diritto d’autore, firmata il 9
settembre 1886155. La Convenzione di Berna all’art. 1 stabilisce che «i paesi ai
quali essa si applica, costituiscono una Unione per la protezione dei diritti degli
autori per quanto riguarda le loro opere letterarie e artistiche», e il successivo
art. 2 chiarisce che «l’espressione opere letterarie e artistiche includerà tutta
produzione in campo letterario, scientifico e artistico, qualunque sia il modo o la
forma della sua espressione». Il dettagliato elenco che segue questa definizione
delle opere per le quali la Convenzione di Berna si applica, prende in
considerazione quelle forme di espressione esistenti nel momento della sua
stesura e dei successivi aggiornamenti, e comprendono anche molti degli
artefatti multimediali attuali156.
2. La legge n. 633 del 22 aprile 1941 sulla protezione del diritto d’autore e di diritti
connessi al suo esercizio. Questa legge prende in considerazione -al capo I del

154
Morelli, op.cit., pp.132.
155
Successivamente è stata più volte rivista e aggiornata: a Parigi nel 1896, a Berlino nel 1908, di
nuovo a Berna nel 1914, a Roma nel 1928, a Bruxelles nel 1948, a Stoccolma nel 1967 e infine di
nuovo a Parigi nel 1974, ed emendata il 2 ottobre 1979.
156
Morelli, op.cit., pp.133.
71
Titolo I- le opere dell’ingegno che rientrano nel campo della letteratura, delle
arti figurative, della musica, dell’architettura, del teatro, della cinematografia.
Non vengono prese in esame le modalità secondo le quali queste opere sono
realizzate.

In fatto di diritto d’autore quindi il testo legislativo di riferimento resta tutt’oggi


la Legge 633/1941157 e il Titolo 9 del Codice Civile (Artt. 2575-2594 -Opere d’ingegno e
invenzioni industriali) Essa ovviamente non è rimasta immutata dal 1941 ma ha subito
nel corso degli anni cospicui interventi di riforma e di integrazione, soprattutto dietro la
spinta della normativa europea158.
Come abbiamo visto il diritto d’autore italiano e in generale quello dei paesi
dell’Europa continentale -cioè i cosiddetti sistemi di civil law- è più ampio rispetto a
quello di copyright, infatti l’attenzione della normativa si sposta verso la sfera più
personale dell’autore al quale si riconosce che l’opera da lui creata porta con sé anche
un valore aggiunto rispetto al mero valore commerciale: un valore di tipo morale, diritto
inalienabile anche dopo un’eventuale cessione dei diritti patrimoniali sull’opera.
L’art. 8 della l. 633/41 individua come autore dell’opera, salvo prova contraria,
chi è in essa indicato come tale, nelle forme d’uso, ovvero è annunciato come tale, nella
recitazione, esecuzione, rappresentazione e radiodiffusione dell’opera stessa159.

2.4.2 Principi base della legge 633/41


A differenza del brevetto160 che richiede una registrazione presso appositi uffici,
il diritto d’autore nasce in modo automatico. Infatti l’art. 6 della legge 633/41 ci dice che

157
In Italia, il primo riconoscimento di tale tipo di diritto si ha intorno al 1800, seguito poi da un
testo unico nel 1882, sostituito nel 1925 dalla Legge Rocco e poi, nel 1941, dalla Legge 633 sul
Diritto d'Autore, che è ancora il testo normativo di riferimento.
158
Principalmente si ricordano il D.Lgs. n. 518/1992 (Attuazione della direttiva 91/250/CEE
relativa alla tutela giuridica per i programmi per elaboratore), D. Lgs. n. 154/1997 (Attuazione
della Direttiva 93/98/CE concernente l'armonizzazione della durata di protezione del diritto
d'autore e di alcuni diritti connessi), D. Lgs. n. 169/1999 (Attuazione della Direttiva 96/9/CE
relativa alla tutela giuridica delle banche dati), Legge 248/2000 (Nuove norme di tutela del diritto
d'autore), D. Lgs. n. 95/2001 (Attuazione della direttiva 98/71/CE relativa alla protezione giuridica
dei disegni e dei modelli), D. Lgs. n. 68/2003 (Attuazione della direttiva 2001/29/CE
sull'armonizzazione di taluni aspetti del diritto d'autore e dei diritti connessi nella società
dell'informazione), D. Lgs. n. 140/2006 (Attuazione della direttiva 2004/48/CE sul rispetto dei
diritti di proprietà intellettuale). Aliprandi, Capire il copyright, P.25
159
Il testo integrale della L. 633/41 è disponibile su http://www.interlex.it/testi/l41_633.htm
160
Il brevetto, secondo la definizione di Wikipedia, è un titolo giuridico con il quale viene
conferito un monopolio temporaneo di sfruttamento di un'invenzione in un territorio e per un
72
il titolo originario dell’acquisto del diritto di autore è costituito dalla creazione dell’opera,
quale particolare espressione del lavoro intellettuale.
L’autore quindi acquisisce il complesso dei diritti sull’opera con la semplice
creazione della stessa161 e non è necessaria alcuna registrazione presso enti come la
SIAE162 per acquisire tutti i diritti previsti dalla legge. Nonostante ciò la legge 633 del
1941 prescrive all’art. 105 l’onere di depositare una copia dell’opera in un apposito
ufficio istituito presso la presidenza del Consiglio, ma all’art 106 precisa che l’omissione
di tale formalità non pregiudica l’acquisto e l’esercizio del diritto d’autore.
In realtà i problemi possono sorgere nel momento in cui si richieda prova della
paternità dell’opera e del momento della sua creazione, allo scopo di difendersi da
eventuali pretese di terzi che vantino la paternità sull’opera stessa. Perciò quello di cui
deve preoccuparsi l’autore di un’opera per poter esercitare i suoi diritti, è riuscire a
dimostrare di possedere legittimamente un esemplare dell’opera in una data anteriore a
quella di qualunque altro pretendente dei diritti su di essa. I metodi per provare
l’esistenza di un’opera in una data certa sono diversi163: pubblicarla in un giornale o una
rivista, depositarla presso enti pubblici tenuti a protocollare e registrare alcuni tipi di
documenti, depositarla presso un apposito ufficio della SIAE o presso altri enti
specializzati, depositarla presso un notaio, fare in modo che vi venga apposto un timbro
postale.
Uno dei requisiti fondamentali per l’applicazione della tutela di diritto d’autore
ad opere dell’ingegno è il carattere creativo, che tradizionalmente si articola in due

periodo determinati, al fine di impedire ad altri di produrre, vendere o utilizzare la propria


invenzione senza autorizzazione. Per invenzioni si intende una soluzione nuova ed originale di un
problema tecnico e possono riguardare un prodotto o un processo. L'elenco di ciò che può
costituire brevetto è aperto a nuove tipologie di invenzioni, ad eccezioni di quelle espressamente
indicate dalla legge, tra le quali le attività di calcolo che, come vedremo in seguito, hanno portato
all’inclusione della tutela del software nella disciplina del diritto d’autore.
161
In origine lo Statuto di Anna attribuiva all'autore l'onere di provvedere alla registrazione
dell’opera presso un apposito ufficio pubblico. Da quel momento il diritto durava 14 anni, con la
possibilità di una sola ulteriore proroga di altri 14 anni. Trascorso tale periodo di massimo 28
anni, l’opera cadeva nel pubblico dominio. Col tempo però, in risposta alle nuove esigenze
dell’industria culturale, si pensò di rendere meno macchinosa l’acquisizione di tali diritti e di
allungare la relativa durata fino agli attuali 70 anni dalla morte dell’autore. Aliprandi, Capire il
Copyright, pp. 43-44.
162
La SIAE (Società Italiana degli Autori ed Editori) è un ente pubblico economico a base
associativa preposto alla protezione e all'esercizio dei diritti d'autore, come prescritto nella legge
n. 633/1941 agli art.180-183.
163
Si veda l’elenco nelle FAQ del sito italiano ufficiale Creative Commons all’indirizzo
http://www.creativecommons.it/node/607
73
componenti concettuali: l’originalità e la novità. Secondo la definizione di Aliprandi164
alla base del requisito dell’originalità sta l’idea che l’opera deve essere frutto di un
particolare lavoro intellettuale e deve riflettere l’impronta della personalità dell’autore.
Per quanto riguarda invece il requisito di novità, si distingue tra il concetto in
novità soggettiva e novità oggettiva. La natura soggettiva è strettamente connessa
all’originalità: si richiede che l’opera rispecchi l’individualità culturale e creativa
dell’autore. Più determinante dal punto di vista giuridico è la novità oggettiva, intesa
come novità di elementi essenziali e caratterizzanti che oggettivamente distinguano
un’opera da altre dello stesso genere, che diventa particolarmente importante in sede
giudiziale per la decisione di controversie in fatto di plagio e di incontro fortuito.
Per comprendere appieno la riflessione sui requisiti di originalità e novità è
necessario richiamare brevemente un altro principio classico del diritto d’autore: cioè
quello per cui è tutelabile con il diritto d’autore solo la forma espressiva dell’opera e
quindi non l’idea creativa in sé, ma come l’idea è stata esternata dall’autore165.
Gli articoli 1 e 2 della legge 633/41 elencano le opere oggetto di tutela giuridica
quali le opere dell’ingegno di carattere creativo che appartengono alla letteratura, alla
musica, alle arti figurative, all’architettura, al teatro e alla cinematografia, qualunque ne
sia il modo o la forma di espressione. In particolare vengono comprese nella protezione:

- le opere letterarie, drammatiche, scientifiche, didattiche, religiose, in forma


scritta e orale;
- le opere e le composizioni musicali, con o senza parole, le opere drammatico-
musicali e le variazioni musicali costituenti di per sé opera originale;
- le opere coreografiche e pantomimiche;
- le opere della scultura, della pittura, dell’arte del disegno, della incisione e
delle arti figurative similari, compresa la scenografia;
- i disegni e le opere dell’architettura;
- le opere dell’arte cinematografica, muta o sonora;

164
Aliprandi, Capire il copyright, op. cit., p. 47.
165
Questo principio è codificato anche nell'art. 9, n. 2 dei TRIPs, dove si legge che la protezione
del diritto d'autore copre le espressioni e non le idee, i procedimenti, i metodi di funzionamento o i
concetti matematici in quanto tali”, e segna il confine fra diritto d'autore e tutela brevettuale: il
brevetto infatti mira a tutelare una soluzione innovativa passibile di applicazione industriale, al
contrario del diritto d'autore che tutela la forma espressiva dell'opera. Aliprandi, op.cit., p.49.

74
- le opere fotografiche e quelle espresse con procedimento analogo a quello
della fotografia;
- i programmi per elaboratore, in qualsiasi forma espressi purché originali quale
risultato di creazione intellettuale dell’autore;
- le banche di dati intese come raccolte di opere, dati o altri elementi
indipendenti sistematicamente o metodicamente disposti ed individualmente accessibili
mediante mezzi elettronici o in altro modo;
- le opere del disegno industriale che presentino di per sé carattere creativo e
valore artistico.
Esistono poi categorie di opere non facilmente definibili poiché presentano
contemporaneamente gli aspetti tipici di altre tipologie di opere: si pensi a tutte quelle
forme di creatività rese possibili dalle nuove tecnologie informatiche e telematiche, per
le quali si usa spesso la dicitura ampia di opere multimediali166.
La legge 633/41 evidenzia poi all’art.3 le opere collettive, cioè quelle costituite
dalla riunione di opere o di parti di opere, che hanno carattere di creazione autonoma,
come risultato della scelta e del coordinamento ad un determinato fine letterario,
scientifico [...] o artistico, all’art. 4 protegge le elaborazioni di carattere creativo
dell’opera quali le traduzioni in altra lingua, le trasformazioni da una in altra forma
letteraria od artistica, le modificazioni ed aggiunte che costituiscono un rifacimento
sostanziale dell’opera originaria, gli adattamenti, le riduzioni, i compendi, le variazioni
non costituenti opera originale , cioè tutte quelle attività di rielaborazione di un’opera
già esistente che danno un apporto creativo rilevante e indipendente, le cosiddette
opere derivate. All’art. 10 inoltre si fa riferimento alle opere create con il contributo
indistinguibile ed inscindibile di più persone dove il diritto d’autore appartiene in comune
a tutti i co-autori secondo le disposizioni che regolano la comunione, quindi le parti
indivise assumono per legge uguale valore, l’opera non può essere pubblicata,
modificata o utilizzata in forma diversa da quella della prima pubblicazione senza il
consenso di tutti i co-autori e la difesa del diritto morale può essere esercitata
individualmente da ogni coautore.

166
Aliprandi, Capire il copyright, op.cit., p.51.
75
2.5 I diritti dell’autore: diritti patrimoniali e diritti morali
La legge italiana sul diritto d’autore suddivide i diritti spettanti all’autore di
un’opera dell’ingegno in diritti di tipo patrimoniale e diritti di tipo morale.
Il diritto patrimoniale è originariamente dell’autore, il quale può cederlo -dietro
compenso o gratuitamente- ad un altro soggetto. Il diritto morale invece è strettamente
legato alla persona dell’autore ed è inalienabile. Una volta estinto il diritto d’autore,
l’opera diviene di pubblico dominio ed è liberamente utilizzabile da chiunque, anche a
fini economici, purché sia rispettato il diritto morale alla titolarità artistica.
Il funzionamento del diritto d’autore è basato quindi sull’attribuzione di un
valore economico e commerciale allo sfruttamento di un’opera dell’ingegno, strutturato
su una fitta gamma di diritti di tipo patrimoniale che la legge attribuisce all’autore o ad
altri soggetti.
Questi diritti nell’ordinamento italiano sono chiamati diritti di utilizzazione
economica e si comportano come diritti esclusivi. Essi sono regolamentati dal Capo III
della legge 633/1941167 e sono principalmente: il diritto esclusivo di riprodurre,
trascrivere, eseguire, rappresentare o comunicare al pubblico, pubblicare, distribuire,
tradurre, elaborare e modificare, dare in prestito e autorizzare il noleggio della propria
opera.
La durata dei diritti di utilizzazione economica è indicata dall’art. 25 della legge
633/41, che afferma che i diritti di utilizzazione economica dell’opera durano tutta la vita
dell’autore e sino al termine del settantesimo anno solare dopo la sua morte168.
Per le opere in comunione, quelle cioè in cui ci sono più autori e i contributi dei
diversi autori sono indistinguibili, la durata dei diritti di utilizzazione economica spettanti
a ciascuno dei coautori si determina sulla vita del coautore che muore per ultimo; diversa
invece la disciplina per le opere collettive dove i contributi dei vari autori siano
distinguibili e scindibili, l’art. 26, comma 2, stabilisce che la durata dei diritti di
utilizzazione economica spettante ad ogni collaboratore si determina sulla vita di ciascun
autore. Infine, l’art. 27 detta la disciplina per il caso delle opere orfane o anonime, in cui
non è direttamente identificabile l’autore titolare dei diritti, dove la durata dei diritti

167
Artt. 12-19 della legge 633/41.
168
Questa è la regola generale -riconosciuta anche a livello internazionale- come modificata dalla
riforma del 1996: nel testo originario della legge infatti, il termine era di cinquant'anni dalla
morte dell'autore.
76
patrimoniali è di settant’anni a partire dalla prima pubblicazione, salvo il caso in cui
l’autore si riveli prima e a cui in tal caso si applica il termine previsto dall’art. 25.
Oltre ai diritti di tipo patrimoniale esistono anche i cosiddetti diritti morali
attinenti alla sfera più personale dell’autore, al quale si riconosce che l’opera d’ingegno
da lui creata porta con sé anche un valore aggiunto rispetto al mero sfruttamento
economico della stessa: un valore di tipo morale appunto, legato al rispetto dell’onore e
della reputazione dell’autore, anche al di là della sua morte e al di là della durata dei
diritti patrimoniali.
Si tratta di diritti perpetui che dopo la morte dell’autore vengono gestiti dagli
eredi, incedibili e indisponibili; per cui essi sorgono in capo all’autore automaticamente
con la creazione dell’opera come avviene per i diritti patrimoniali, con la differenza che
l’autore non può in alcun modo liberarsene. Negli ordinamenti giuridici in cui esistono
tali diritti, l’autore può mantenere comunque un certo controllo sull’opera, anche nel
caso in cui abbia ceduto i diritti di sfruttamento economico169.
I diritti morali d’autore tutelati dalla L. 633/41 sono il diritto a rivendicare la
paternità dell’opera, il diritto di opporsi a deformazioni o mutilazioni dell’opera che siano
di pregiudizio all’onore e alla reputazione dell’autore e il diritto di ritirare l’opera dal
commercio per gravi ragioni morali.

2.6 Le eccezioni e limitazioni


Partendo dal principio che il diritto d’autore deve svolgere funzione di tutela e
incentivo della cultura, si pone il delicato problema del bilanciamento degli interessi tra
produttori culturali da un lato e quelli dei fruitori di prodotti culturali dall’altro. Ci sono
infatti alcuni casi in cui un’applicazione totale e standardizzata del diritto d’autore risulta
poco appropriata ed è necessario privilegiare l’interesse diffuso di accesso ai contenuti
creativi e all’informazione.
Per questo motivo è stato sviluppato l’istituto delle libere utilizzazioni, cioè uno
spazio in cui è esclusa la tutela di diritto d’autore e di conseguenza l’opera può essere
liberamente utilizzata. Si tratta di un istituto di carattere eccezionale che è sempre stato
sottoposto ad una interpretazione di tipo restrittivo da parte della giurisprudenza. A
questo proposito il Capo V del Titolo I della legge 633/41170, un tempo intitolato

169
Aliprandi, Capire il copyright, op.cit., p. 56.
170
Artt. da 65 a 71 decies L. 633/41.
77
“Utilizzazioni libere”, è stato riformato interamente nel 2003 con il nuovo titolo
“Eccezioni e limitazioni”.
Le utilizzazioni libere per le quali è previsto un compenso per l’autore
comprendono le fotocopie, le riproduzioni analoghe alle fotocopie per uso personale
con mezzi “non idonei allo spaccio o diffusione dell’opera nel pubblico”, la riproduzione
privata ad uso personale e il prestito effettuato dalle biblioteche pubbliche. Sono inoltre
utilizzazioni libere il riassunto, la citazione o la riproduzione di brani o di parti di opere e
la loro comunicazione al pubblico per uso di critica e discussione purché non a scopo
commerciale, la riproduzione e comunicazione al pubblico per disabili, le riproduzioni e
comunicazioni di opere attraverso terminali posti in istituti di ricerca e istruzione, la
parodia, la vendita di supporti contenenti un’opera dell’ingegno dopo la sua legittima
acquisizione (questo non vale per i beni digitali “intangibili”, come i downloads musicali).
Il Capo V dedica poi una sezione al fenomeno delle riproduzioni private ad uso
personale di opere protette, ovvero a tutte le attività di duplicazione di supporti audio,
video, multimediali, siano essi digitali o analogici, destinate ad un uso prettamente
domestico e privato.
La disciplina delle libere utilizzazioni è complicata perché, dopo aver fissato il
principio generale di libera riproduzione per uso personale senza scopo di lucro, la legge
pone una serie di limiti all’esercizio di questa facoltà, fra cui principalmente: il divieto di
effettuare le copie aggirando eventuali misure tecnologiche di protezione, ovvero quei
sistemi anti-copia che alcuni produttori inseriscono nei supporti audio e video, l’obbligo
di versare un equo compenso a favore di autori, produttori e interpreti delle opere audio
e video che sono riprodotte privatamente, che viene automaticamente prelevato come
una specie di sovrapprezzo su tutte le apparecchiature (masterizzatori, videoregistratori,
lettori digitali etc.) e su tutti i supporti (cd, dvd, hard-disk.); questo compenso è dovuto
da chi fabbrica o importa nel territorio dello Stato tali apparecchi e supporti, con la
diretta conseguenza di un aumento dei prezzi a danno dei consumatori finali; infine, il
compenso è corrisposto alla S.I.A.E., la quale dovrebbe ripartire i guadagni raccolti ai
soggetti interessati (produttori, autori, interpreti).
Per concludere si può dire che sulla base di queste leggi, per estensione, quanto
contenuto oggi nel Web può considerarsi ragionevolmente tutelato dall’attuale
legislazione, tenendo presente il fatto che tutto ciò che è presente in rete –con o senza

78
esplicita indicazione di copyright- non è res nullius, bensì ha un autore e un titolare dei
diritti relativi171.

2.7 Il diritto d’autore e i diritti connessi


I diritti connessi sono una serie di diritti che nascono in capo a soggetti diversi
dall’autore dell’opera, ma la cui esistenza è direttamente connessa all’esercizio dei diritti
d’autore, poiché si riferiscono ad attività intellettuali e commerciali determinanti per il
sistema dell’industria culturale.
Tradizionalmente sono i diritti disciplinati dal Titolo II della legge 633/1941 (artt.
72 e seguenti) relativi all’incisione e produzione di fonogrammi (PF), quelli relativi alla
produzione di opere audiovisive e cinematografiche, quelli relativi all’emissione
radiofonica e televisiva (ODR) e quelli degli artisti non creatori ma solamente interpreti
ed esecutori (AIE). Anche tali diritti si comportano come diritti esclusivi e il loro esercizio
si sovrappone necessariamente a quello dei diritti d’autore, andando a ricoprire in molti
un ruolo centrale nell’attuale mercato dell’intrattenimento172.
Per fare un esempio nel mondo della musica, dal punto di vista del diritto
d’autore, un brano musicale è composto da una linea melodica, da una struttura e in da
un testo letterario. Tutto ciò che riguarda l’arrangiamento, l’interpretazione e le
modalità di incisione fonografica del brano, attiene alla sfera dei diritti connessi.
La legge 633 del 1941 prevede una distinzione tra i diritti dell’autore di un’opera
dell’ingegno e i diritti connessi di altri soggetti a cui il legislatore riconosce diritti
esclusivi e di mero compenso. Essa prevede già nel titolo “protezione del diritto d’autore
e di altri diritti connessi al suo esercizio” una distinzione tra diritti dell’autore di
un’opera di ingegno e i diritti connessi di altri soggetti che pur non essendo autori,
contribuiscono a far sì che una data opera sia concretamente fruibile da parte di terzi.
Ciò è stato ritenuto meritevole di tutela e incentivazione da parte del legislatore. Tali
diritti non sono autonomi rispetto ai diritti dell’autore, ma necessitano di
un’autorizzazione da parte del titolare dei diritti d’autore sull’opera potenzialmente
oggetto di diritti connessi173.

171
Morelli, op.cit., p. 134.
172
Aliprandi, Capire il copyright, op.cit., p. 61.
173
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze Creative Commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-giugno 2008, pp.140-141.
79
L’ordinamento italiano riconosce agli artisti interpreti o esecutori diritti esclusivi
sulle loro prestazioni artistiche tra i quali il diritto esclusivo di autorizzare la fissazione, la
riproduzione, la messa a disposizione del pubblico, il noleggio e la distribuzione delle
loro prestazioni artistiche. La durata di questi diritti è di cinquant’anni dalla prima
esecuzione o rappresentazione. L’artista interprete o esecutore ha inoltre alcuni diritti
morali a tutela del proprio onore e reputazione e diritto a equo compenso.
La legge 633 riconosce ai produttori di fonogrammi una serie di diritti esclusivi
che vigono per 50 anni a partire dalla fissazione del fonogramma o dalla sua prima
forma di utilizzazione economica. Il produttore di fonogrammi ha il diritto di autorizzare
la riproduzione, la distribuzione, il noleggio e la messa a disposizione del pubblico dei
fonogrammi di cui ha curato l’incisione e la realizzazione; la durata di questi diritti è di
cinquant’anni dall’avvenuta incisione fonografica su supporto.
Si riconosce inoltre agli Organismi di diffusione radiotelevisiva il diritto esclusivo
di autorizzare la fissazione, la riproduzione, la ritrasmissione e la messa a disposizione
del pubblico delle proprie emissioni e trasmissioni relativi all’utilizzo delle loro emissioni,
con durata di 50 anni dal primo atto di emissione174.

2.8 Gestione collettiva dei diritti e S.I.A.E.


Un fondamentale sistema di controllo sulla circolazione dei diritti d’autore e
diritti connessi è la gestione collettiva dei diritti esclusivi. L’autore di un’opera
dell’ingegno e i titolari dei diritti connessi possono organizzarsi in enti associativi,
società di gestione collettiva dei diritti, attraverso le quali possono rendere più facile la
gestione dei rapporti175.
Questi enti sono nati su base volontaria grazie all’iniziativa dei soggetti coinvolti
nella catena della produzione creativa e solo successivamente in alcune nazioni questi
enti hanno ricevuto un riconoscimento dallo Stato e sono stati disciplinati dalla legge.
Grazie agli accordi internazionali in materia di diritto d’autore, oggi i vari enti nazionali
sono organizzati in una rete globale che permette la tutela e il controllo dei diritti in ogni
parte del mondo. Essi ricoprono un ruolo di intermediazione, facendosi portavoce degli
interessi dei soggetti che affidano loro la tutela delle proprie opere o esecuzioni.

174
Ivi, p. 142.
175
Aliprandi, Capire il copyright, op.cit, p. 71.
80
In Italia questo ruolo è ricoperto dalla Società Italiana Autori ed Editori (SIAE),
ente di diritto pubblico cui la legge 633/41 all’art. 103 attribuisce in via esclusiva due
funzioni principali:
- intermediazione per l’esercizio di diritti d’autore e diritti connessi: rappresenta
cioè gli autori nella tutela dei propri diritti;
- tenuta dei pubblici registri inerenti a formalità relative ai diritti degli autori. Il
registro fa fede dell’esistenza di un’opera e della sua pubblicazione ma la
registrazione non è obbligatoria.

Questo significa che per legge nessun altro ente pubblico o privato può svolgere
le stesse funzioni. Da ciò deriva in sostanza che l’autore che voglia vedere tutelati i suoi
interessi ad un certo livello e con certe garanzie non può far altro che affidarsi alla
S.I.A.E.
Si crea così una situazione di monopolio, che, se da un lato garantisce unità e
coordinamento nella gestione, dall’altro spesso tende ad appiattire ed uniformare
eccessivamente le situazioni. I soggetti interessati possono demandare la tutela alla SIAE
in due forme: l’iscrizione e il mandato.
L’ordinamento italiano ha nel tempo attribuito alla SIAE sempre maggiori
compiti relativi in generale al controllo di varie attività attinenti alla sfera del diritto
d’autore. In particolare tale ampliamento di attribuzioni è stato dettato dalla Legge 248
del 2000176 che ha introdotto nella legge 633/41 l’art. 182 bis con l’elenco delle nuove
competenze177, dando alla SIAE un ruolo più forte e irrigidendo ulteriormente la
situazione di monopolio e di standardizzazione178.

176
La legge 248 del 2000 "Nuove norme di tutela del diritto d'autore" ha portato agli artt. 171,
171-bis, ter e quater della legge 633/41, nuove prescrizioni e soprattutto sanzioni civili e penali
più pesanti per chi duplica software, fotocopia intere opere, acquista falsi, utilizza o mette in
circolazione dispositivi per l’aggiramento della protezione dei programmi o delle smart card per
la decrittazione di canali televisivi.
177
L’art. 182 bis prevede la vigilanza: sull'attività di riproduzione e duplicazione con qualsiasi
procedimento, su supporto audiovisivo, fonografico e qualsiasi altro supporto nonché su impianti
di utilizzazione in pubblico, via etere e via cavo, nonché sull'attività di diffusione radiotelevisiva
con qualsiasi mezzo effettuata; sulla proiezione in sale cinematografiche di opere e registrazioni
tutelate dalla normativa sul diritto d'autore e sui diritti connessi al suo esercizio; sulla
distribuzione, la vendita, il noleggio, l'emissione e l'utilizzazione in qualsiasi forma dei supporti di
cui a); sui centri di riproduzione pubblici o privati, i quali utilizzano nel proprio ambito o mettono
a disposizione di terzi, anche gratuitamente, apparecchi per fotocopia, xerocopia o analogo
sistema di riproduzione; sull'attività di fabbricazione, importazione e distribuzione degli
apparecchi e dei supporti di cui all'art. 71-septies. Per svolgere tale compito, l'Autorità per le
81
La legge però non impone all’autore o agli aventi diritto l’obbligo di affidarsi a
questi enti, stabilendo al comma 4 dell’art. 180 della Legge 248 del 2000 che tale
esclusività di poteri agli enti non pregiudica la facoltà spettante all’autore, ai suoi
successori o agli aventi causa, di esercitare direttamente i diritti loro riconosciuti da
questa legge.

2.8.1 Proposta di direttiva sull’estensione dei termini di protezione dei diritti connessi:
giustificazioni della Commissione Europea e critiche
Il 16 luglio 2008 la Commissione delle Comunità Europee ha presentato una
proposta di direttiva179 per la modifica della dir. 2006/116/CE180 concernente la durata di
protezione del diritto d’autore e di alcuni diritti connessi, finalizzata all’estensione dei
termini di protezione dei diritti connessi al diritto d’autore dei cosiddetti produttori di
fonogrammi le case discografiche e degli artisti interpreti ed esecutori (AIE).
Attualmente il termine della tutela è di cinquant’anni decorrente dalla prima
registrazione o fissazione su supporto materiale e dalla prima l’esecuzione. Secondo la
proposta di direttiva il termine andrebbe esteso a 95 anni.
La Commissione giustifica questa proposta di estensione attribuendole tre
principali funzioni181:
- La prima di carattere previdenziale, infatti una tutela più estesa nel tempo
consentirebbe agli artisti e agli interpreti –specialmente quelli che non ricevono
royalties periodiche182 dalle case discografiche, i cosiddetti musicisti di sessione-
di continuare per più tempo a ricevere ricavi dalla propria attività creativa nel
momento di maggiore vulnerabilità economica della loro vita, cioè quando
hanno ormai concluso tale attività creativa. La proposta contiene anche alcune
misura di accompagnamento come l’istituzione di un fondo per i musicisti di

garanzie nelle comunicazioni può conferire funzioni ispettive a propri funzionari ed agire in
coordinamento con gli ispettori della SIAE.
178
Aliprandi, Capire il copyright, pp. 75-77.
179
Maggiori approfondimenti sulla proposta di direttiva della Commissione è disponibile
all’indirizzo http://www.edri.org/edrigram/number6.15/extension-copyright-performers
180
Il testo integrale della direttiva 2006/116/CE del Parlamento europeo e del Consiglio
concernente la durata di protezione del diritto d’autore e di alcuni diritti connessi è consultabile
su http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:372:0012:0018:IT:PDF
181
Si riporta qui il materiale relativo all’incontro della serie “I mercoledì di Nexa” del 10 dicembre
2008 presso il centro NEXA su Internet e Società del Politecnico di Torino. Il comunicato è
disponibile all’indirizzo http://nexa.polito.it/direttivafonogrammi
182
Le royalties sono i premi che gli artisti ricevono periodicamente e che rispecchiano
l’andamento e il successo delle loro opere nel tempo.
82
sessione e l’introduzione di clausole use it or lose it nei contratti stipulati tra AIE
da una parte e PF dall’altra.
- La seconda funzione sarebbe incentivante, in quanto una tutela più estesa
equivarrebbe a maggiori aspettative di guadagno e questo, secondo la
Commissione, dovrebbe incentivare maggiormente gli artisti a intraprendere
l’attività creativa e i produttori a investire maggiormente in essa.
- Infine la terza funzione si potrebbe definire di carattere protezionistico, poiché
la concessione di un diritto connesso più esteso nel tempo -nell’ottica della
Commissione- potrebbe evitare un abbandono nel mercato musicale europeo a
favore di quello americano, a cui oggi è accordata una tutela più lunga e se
questa differenza di durata dovesse persistere, ci sarebbe il rischio che molti
interpreti si legassero alle case di produzione americane, le quali
aumenterebbero così le loro produzioni e i profitti.

La Commissione Europea ha anche adottato la Green Paper183 sul Copyright nella


Knowledge Economy. Lo studio svolto da diversi studi di ricerca indipendenti sulla
proprietà intellettuale184, ha però sollevato preoccupazioni in quanto ha smentito alcune
delle giustificazioni addotte dalla Commissione.
In riferimento alla prima delle funzioni elencate precedentemente,
bisognerebbe premettere che la ragione per la quale gli artisti interpreti ed esecutori
non beneficiano dell’eventuale protrarsi del successo delle loro esecuzioni, sta nella loro
debolezza contrattuale che fa sì che molti di essi, specialmente quelli meno forti,
rinuncino ai propri diritti a beneficio dei loro più forti contraenti -le case discografiche- e
quindi non ci sarebbe in realtà alcuna aspettativa di guadagno futuro sul successo della
loro attività creativa. Un’estensione dei termini di tutela per questi soggetti produrrebbe
quindi vantaggi principalmente alle case discografiche che comunque, come produttori
di fonogrammi, beneficerebbero anche della parallela estensione dei termini di tutela
del diritto connesso che loro compete. Il problema quindi dovrebbe essere risolto alla

183
La Commissione Europea ha pubblicato un libro verde sul copyright nell’economia della
conoscenza, sottolineando la necessità di promuovere la libera circolazione della conoscenza e
dell’innovazione come quinta libertà. Lo scopo del Green Paper è promuovere il dibattito su come
la conoscenza possa essere diffusa in ambiente digitale. Il testo integrale è disponibile su
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=COM:2008:0466:FIN:IT:PDF
184
A tal proposito si veda il documento di riferimento alla pagina
http://nexa.polito.it/sites/nexa.polito.it/files/Presa%20di%20posizione%20NEXA%20Direttiva%2
0Fonogrammi%2016dic2008.pdf
83
base prevedendo ad esempio delle norme inderogabili che riservino una quota minima
dei proventi agli artisti interpreti ed esecutori (diritto ad equo compenso).
Per quanto riguarda la seconda funzione di incentivo alla creatività, la proposta
sembra essere più un prostrarsi agli interessi di un singolo gruppo come l’industria
multinazionale, in quanto l’estensione dei termini di protezione sembra essere
vantaggiosa perlopiù per i titolari dei diritti e non per l’innovazione e la cultura. Appare
inaccettabile quindi che questa posizione venga presentata dalla Commissione come
una crociata a favore degli AIE con la finalità di riequilibrare il trattamento accordato
all’interprete a quello ben più favorevole accordato all’autore, dato che in realtà gli AIE
da questa proposta non traggono che benefici minimi e che comunque offrono un
contributo importante ma non parificabile a quello degli autori. Se la proposta non è in
grado quindi di apprestare idonea remunerazione agli AIE, non fornisce neppure alcun
incentivo all’investimento dei PF. Inoltre bisogna considerare che i PF e AIE hanno già
ottenuto un diritto esclusivo sulla messa a disposizione interattiva delle opere registrate
e fissate, ma ciò non significa che l’industria discografica debba ulteriormente estendere
i propri diritti anche sotto il profilo della durata temporale e poter avanzare pretese
anche per un periodo nel quale, stando all’attuale regime tutte le prerogative
dovrebbero tornare in capo ai soli autori.
Per quanto riguarda invece la terza funzione, cioè le finalità di protezione delle
case discografiche europee nei confronti di quelle americane che hanno di recente
beneficiato di un simile prolungamento dei termini, bisognerebbe considerare che nel
campo della proprietà intellettuale vale il principio del Trattamento Nazionale185. Quindi
nella situazione attuale le case discografiche europee non hanno nessuno svantaggio
rispetto a quelle americane: esse sono trattate negli USA come i loro concorrenti
americani, e questi sono trattati in Europa come le case discografiche europee. Quindi,
essendo la maggior parte delle majors tutte americane, i benefici derivanti
dall’estensione europea dei termini di protezione affluirebbero ad imprese americane
ma i costi sarebbero in realtà pagati dai consumatori europei186.

185
In base a questo lo stesso trattamento che viene accordato ai soggetti nazionali è esteso
automaticamente anche ai soggetti degli altri Stati.
186
Materiale relativo all’incontro della serie “I mercoledì di Nexa” del 10 dicembre 2008 presso il
centro NEXA su Internet e Società del Politecnico di Torino. Il comunicato è disponibile
all’indirizzo http://nexa.polito.it/direttivafonogrammi

84
Inoltre il passaggio da 50 a 95 anni di tutela non sembra poter avere alcun
effetto frenante ulteriore rispetto alla situazione attuale, nei confronti dei fenomeni di
distribuzione illegale della musica, salvo che non si voglia proporzionare la pena alla
durata residua della protezione.
Infine, come sostengono gli esperti del centro NEXA, la scadenza dei diritti
potrebbe rappresentare un’occasione per l’affermazione di modalità di offerta a costi
ridotti, dato che ci sarebbe solo una categoria di titolari di diritti con cui fare i conti. Oggi
le majors cercano di trarre sempre maggior profitto da prodotti editoriali spesso di bassa
qualità che vengono imposti al pubblico attraverso la pubblicità e i media, ma che
deludono velocemente, incrementando la vendita di opere più datate ma maggiormente
apprezzate. Inoltre l’offerta di artisti liberi che mettono a disposizione le loro opere
gratuitamente in rete ha un successo crescente. I due settori potrebbero incontrarsi con
offerte di streaming e distribuzione digitale innovative, sempre che l’estensione dei
termini di tutela non passi. E questo è uno dei motivi per cui l’industria discografica si
stia battendo a favore dell’estensione dei termini.

2.9 I sistemi tecnologici di controllo: i DRM


Negli ultimi anni lo sviluppo della tecnologia digitale e del Web hanno avuto un
forte impatto sui modelli di produzione, modifica e distribuzione dei contenuti digitali,
rendendo la creatività più facile ed economica che in tutti gli altri tempi.
Le persone infatti hanno iniziato a interagire con i contenuti presenti in rete,
attraverso piattaforme che permettono il remix, la creazione collaborativa e la
condivisione globale. Hanno iniziato così a capire che tutto ciò che avevano sempre fatto
tranquillamente prima, cioè condividendo tra pochi le opere create in modo amatoriale,
oggi con la rete non è più consentito perché, essendo visibile a tutti, può essere causa di
lesione dei diritti di copyright.
Infatti le tecnologie digitali sembrano collidere con la moderna legislazione sul
copyright attuata dal DMCA del 1998 e dalla direttiva 2001/29/CE187. Queste hanno
introdotto una sorta di monopolio ai titolari dei diritti d’autore permettendo loro di
proteggere le proprie opere con misure tecnologiche e mettendo fuorilegge la
produzione e l’utilizzo di tecnologie che eludano queste protezioni e i cosiddetti sistemi
di Digital Rights Management.

187
Mazziotti, G., EU Digital Copyright and The End User, Springer, 2008, p. 3.
85
La necessità di un copyright management è giustificata dai titolari dei diritti
d’autore con la facilità con cui possono essere riprodotte le informazioni presenti in rete
per creare copie non autorizzate, il cui utilizzo rischia di sfuggire a qualunque forma di
controllo. Per combattere la copia illegale i titolari dei diritti introducono dei sistemi
tecnologici di protezione, che assicurino il rispetto dei privilegi e dei diritti riconosciuti
dalla legge sul diritto d’autore. Essi infatti sostengono che, dove il diritto d’autore sia
effettivamente applicato, ciò può concorrere a creare il clima adatto perché i produttori
di informazioni siano maggiormente disposti a continuare a pubblicare materiale in
rete188.
I divieti per gli utenti, imposti dal diritto d’autore, possono essere fatti rispettare
attraverso il potenziamento dell’attività della polizia postale sulle reti di comunicazione,
il coinvolgimento degli ISP in attività di controllo, la creazione di strumenti processuali
più snelli ed efficaci per combattere la contraffazione, l’apposizione di misure
tecnologiche di protezione come i Digital Rights Management da parte dell’industria
direttamente sui contenuti digitali189.
L’espressione Digital Rights Management (DRM) inizia ad essere utilizzata dalla
metà degli anni ‘90 in contemporanea alla diffusione del Web e denota sistemi
tecnologici in grado di definire, gestire, tutelare e accompagnare le regole di accesso e di
utilizzo su contenuti digitali in rete190.
Già negli anni Ottanta si cominciavano a sperimentare queste nuove tecnologie
per i software, ma solo con l’aumento della diffusione delle opere nel Web, grazie anche
alla crescita delle reti p2p, le case di produzione e distribuzione hanno iniziato ad
attivare sistemi DRM sui propri supporti.
L’applicazione di tali sistemi digitali per controllare o impedire la realizzazione di
copie di opere dell’ingegno, consiste in soluzioni tecnologiche di base che i produttori di
opere protette applicano ai loro lavori per da rendere impossibile o difficile la

188
Morelli, pp. 127-129, op.cit.
189
Seminario di G. Mazziotti Il diritto d’autore europeo nel mondo digitale: quali prospettive per
l’utilizzatore finale di contenuti? del 30 Maggio 2008 presso l’Università di Sassari.
190
Caso, R., Digital Right Management, Il commercio delle informazioni digitali tra contratto e
diritto d’autore, CEDAM, Padova, 2004, p.10.
86
realizzazione di copie191, tra cui la crittografia che permette di controllare l’accesso al
formato originario del contenuto digitale ed ogni possibile utilizzo del contenuto stesso.
Tra queste misure di protezione rientrano anche i cd non copiabili, che però
spesso hanno difficoltà ad essere letti da alcuni apparecchi, e i file musicali che possono
essere ascoltati solo sugli iPod e non su altri apparecchi di marche diverse anche se il
proprietario resta lo stesso e ha acquistato la musica in modo legale pagando i diritti.
In sostanza quindi chi utilizza i DRM è in grado di predeterminare e controllare
chi, dove, come e quando potrà fruire dell’informazione. Questo potere di controllo ha
attratto soprattutto le multinazionali dell’intrattenimento come la musica e il cinema,
titolari di copyright su opere dell’ingegno, che hanno così spostato l’attenzione dal
potenziamento del diritto di esclusiva d’autore, a strumenti legislativi utili a legittimare e
proteggere l’impiego e la diffusione di tecnologie per l’espressione di regole di accesso e
utilizzo di contenuti digitali192.
Il sistema di DRM può consentire molteplici forme di fruizione con o senza
pagamento di moneta. Ad esempio, nel caso di distribuzione di file musicali, il sistema
potrebbe gestire al meglio sia l’acquisizione da parte di privati di brani scaricabili per un
utilizzo limitato senza pagamento di moneta, sia l’acquisizione da parte di altri soggetti
degli stessi brani per un utilizzo più ampio e contro pagamento di un prezzo.
Le limitazioni all’utilizzo di un’opera digitale possono riguardare la durata di
utilizzazione di un’opera per un periodo limitato, il numero delle volte che si può
usufruire di un’opera scaricata e i soggetti a cui è possibile distribuire il contenuto
digitale.
E’ evidente quanto questi sistemi abbiano una grossa rilevanza per il diritto
d’autore: attraverso questi sistemi infatti è possibile contrassegnare in modo indelebile
l’opera e in questo modo controllarne la sua diffusione e il suo utilizzo da parte degli
utenti.

191
Al riguardo si esprime Aliprandi (Capire il copyright, p.98) sostenendo che ciò ovviamente
incide in modo indifferenziato anche sui casi in cui la copia sia legittima: primo fra tutti il caso
della singola copia ad uso privato che chi ha acquistato legalmente un supporto audio, video,
software, ha il diritto di realizzare. Tuttavia la legge è piuttosto chiara, stabilendo all'art. 71 sexies
che la copia privata è consentita, ma nel rispetto di questi sistemi eventualmente applicati dal
detentore dei diritti. Questi sistemi vengono chiamati dalla legge italiana “Misure tecnologiche di
protezione” e la loro applicazione è disciplinata dall'articolo 102 quater LDA.
192
Caso, R., (a cura di), Digital Right Management, problemi teorici e prospettive applicative, Atti
del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008, pp.8-9.
87
Infatti l’utilizzo dei sistemi di DRM può diventare una minaccia perché in grado
di controllare il comportamento dell’utente generando minacce per la libertà di
espressione e la privacy193. Inoltre collide con la disciplina delle eccezioni del copyright e
può risultare una restrizione delle legittime opportunità di libertà confinando il ruolo
dell’utente a mero consumatore finale.
Con questi sistemi le majors vogliono trasformare la rete da dispositivo di
comunicazione, libertà e relazione in un dispositivo commerciale, rendendo il web una
piattaforma per la distribuzione di opere digitali pagate dagli utenti per ogni utilizzo.
Queste misure tecnologiche vengono respinte dagli utenti perché ne limitano le libertà,
frenando in questo modo anche il mercato digitale, tanto che i grandi distributori di
musica in rete negli ultimi anni hanno deciso di rinunciare in parte a queste misure,
cercando maggiore appoggio sia tra gli ISP che dai governi che stanno emanando leggi
sempre più restrittive che rendono la rete meno libera.

2.9.1 Il DMCA e la direttiva europea 2001/29/CE


A seguito dell’adozione del WCT (WIPO194 Copyright Treaty) del 1996 -a cui gli
Stati Uniti hanno dato implementazione con il Digital Millenium Copyright Act (DMCA)
del 1998195 e l’Unione Europea con la direttiva 2001/29/CE del Parlamento europeo e

193
N. Lucchi, in Caso, R., (a cura di), Digital Right Management, problemi teorici e prospettive
applicative, Atti del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008, p.128.
194
La World Intellectual Property Organization (WIPO) è una organizzazione internazionale con
sede a Ginevra creata nel 1967, con lo scopo di incoraggiare l'attività creativa e promuovere l’uso
e la protezione della proprietà intellettuale nel mondo. Il WIPO è una delle 16 agenzie
specializzate del sistema delle Nazioni Unite, amministra 23 trattati internazionali aventi ad
oggetto differenti aspetti della protezione della proprietà intellettuale e conta 183 Stati Membri.
Molte delle leggi che in Europa e in Italia regolano e limitano il mondo digitale sono il risultato
diretto di due trattati elaborati dal WIPO -il WCT (Wipo Copyright Treaty) e il WPPT (Wipo
Performances and Phonograms Treaty)-, come ad esempio la dir. 2001/29/CE e l’annesso obbligo
per gli stati membri dell’UE di implementare gli strumenti legislativi volti a sanzionare
l’aggiramento delle “misure tecniche di protezione” (Technical Protection Measures –TMP). Voci
critiche hanno segnalato come le pratiche correnti all'interno del WIPO non solo non tenessero
conto delle differenze tra paesi avanzati e paesi in via di sviluppo, ma anzi contribuissero ad
aumentare tale divario con atteggiamenti e atti normativi fortemente sperequativi. L'accordo di
cooperazione tra WIPO e l'Organizzazione Mondiale del Commercio (OMP-nota anche come
World Trade Organization, WTO), incentrata sull'Accordo TRIPs (Trade-Related Aspects of
Intellectual Property Rights - sugli Aspetti Legati al Commercio dei Diritti di Proprietà
Intellettuale) non ha fatto altro che dare maggior forza a tali voci. A. Glorioso articolo Un'agenda
per lo sviluppo: battaglia al WIPO su http://punto-informatico.it/1108177/PI/News/un-agenda-
sviluppo-battaglia-al-wipo.aspx
195
La Digital Millennium Copyright Act (DMCA) è un'estensione della legge sul copyright degli
Stati Uniti approvata all'unanimità il 14 maggio 1998, che criminalizza la produzione e la
88
del Consiglio, sull’armonizzazione di taluni aspetti del diritto d’autore e dei diritti
connessi nella società dell’informazione, dando protezione giuridica alle misure
tecnologiche-, i DRM hanno ricevuto sostegno giuridico aprendo la strada ad una forma
di autotutela estremamente pervasiva nell’ambito della proprietà intellettuale196.
Infatti, in conseguenza della rivoluzione digitale, gli Stati Uniti e l’Unione
Europea hanno ridisegnato il volto delle leggi sui diritti sulle opere dell’ingegno.
La tendenza legislativa statunitense ha come ultimo esito l’emanazione
nell’ottobre del 1998 del Digital Millennium Copyright Act (DMCA). Oltre a prevedere
esenzioni di responsabilità a favore degli ISP e a porre disposizioni a tutela dei sistemi di
gestione sulle informazioni relative al regime dei diritti di copyright, il DMCA ha inserito
nel titolo 17 dell’USC la sezione 1201, che proibisce l’elusione delle misure tecnologiche
usate dai titolari di copyright e vieta lo sviluppo e la distribuzione di tecnologie
progettate allo scopo di eludere misure tecnologiche usate dai titolari di copyright per
proteggere le proprie opere. Ma il legislatore statunitense è andato ben oltre il mandato
del WCT del 1996, disegnando una disciplina restrittiva e accompagnata anche da severe
sanzioni penali, destinata a diventare una tra le più criticate degli ultimi decenni.
A questa regolamentazione delle misure tecnologiche corrisponde una serie di
eccezioni che riguardano le biblioteche, gli archivi e le istituzioni didattiche senza scopo
di lucro, l’attività giudiziaria, quella di intelligence ed altre attività governative, la
decompilazione del software, la ricerca sulla crittografia, la protezione dei minori
dall’accesso a materiali disponibili su Internet, la tutela della privacy rispetto
all’identificazione personale, i test sulla sicurezza informatica, le trasmissioni
radiotelevisive. Il DMCA non impone tuttavia l’adozione di standard tecnologici al fine di
conformarsi alla disciplina delle misure tecnologiche.
In Europa la direttiva 2001/29/CE del Parlamento europeo e del Consiglio -
relativa all’armonizzazione di taluni aspetti del diritto d’autore e dei diritti connessi nella
società dell’informazione- dedica alcune norme alle misure tecnologiche di protezione,
per poi accennare alla loro attuazione da parte dello Stato italiano197.

diffusione delle tecnologie da parte di utenti che aggirano i metodi tecnici di copia-limitazione,
rendendo tutte le forme dei software illegali.
196
Rossato in Caso, R., (a cura di), Digital Right Management, problemi teorici e prospettive
applicative, Atti del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008, p. 181.
197
Caso, op. cit., p. 158.
89
La direttiva 2001/29/CE nasce con un duplice scopo: uno interno e uno esterno
agli obiettivi previsti dal trattato CE198. Il primo scopo consisteva nell’affrontare certe
questioni chiave in tema di diritto d’autore, già individuate dalla commissione europea
nel Green Paper del 1995 e riguardanti sia il mondo analogico che digitale: i criteri
d’individuazione della legge applicabile ai fatti giuridici della telematica -quindi violazioni
di copy-, l’oggetto e l’estensione dei diritti di utilizzazione economica delle opere, i diritti
morali degli autori, la gestione collettiva dei diritti e le misure tecnologiche di
protezione. Il secondo scopo era l’adeguamento del diritto comunitario alle disposizioni
contenute nei due trattati WIPO del 1996 per preparare il terreno a una ratifica
congiunta da parte degli USA e UE. Per raggiungere tale scopo sarebbe stato sufficiente
copiare le disposizioni dei 2 trattati e inserirle in una direttiva, ma non è stato così.
La Direttiva europea 2001/29 attribuisce ai titolari di copyright un potere di
controllo dell’accesso e degli usi di un’opera protetta in formato digitale. Tale potere è
attribuito indirettamente all’art. 6 che prevede un divieto assoluto di aggiramento di
dispositivi antiaccesso e anticopia. Non solo è vietata la manomissione o elusione da
parte del singolo utente di tali dispositivi, ma è vietata anche la fabbricazione e
commercializzazione di tecnologie che ne permettano o facilitino la manomissione o
elusione.
Questo potere di controllo fa sì che la protezione del copyright assuma nel
digitale una struttura del tutto nuova rispetto al passato scenario analogico, che per
tutelare i titolari dei diritti protetti, concepisce la barriera eretta dalle misure
tecnologiche di protezione come limite dominicale invalicabile. Ciò fa sì che risulti
comunque illecita la condotta di un utente che superi tale limite per fruire di
un’utilizzazione prevista dalla legge come immune dall’esclusiva e quindi lecita199.
A tali diritti/divieti la direttiva comunitaria 29 del 2001 accosta all’art. 5 un
elenco di eccezioni e limitazioni ai diritti esclusivi di riproduzione, comunicazione al
pubblico e distribuzione, che dovrebbero coesistere con la tutela tecnologica
dell’accesso alle opere purché “siano privi di rilevo economico proprio ed eseguiti
all’unico scopo di consentire la trasmissione in rete tra terzi con l’intervento di un

198
Mazziotti, G., Il diritto d’autore comunitario nel nuovo ambiente digitale-Riproduzione
riservata, diritto d’accesso ed eccezioni all’esclusiva all’ombra della Direttiva 2001/29/CE , p. 12.
199
Mazziotti, G., Monopoli elettronici e utilizzazioni libere nel diritto d’autore comunitario, p. 22.
90
intermediario o un utilizzo legittimo di un’opera o di altri materiali” 200. Queste eccezioni
in realtà sembrano non essere però facilmente attuabili nel digitale, in quanto
attribuendo un monopolio ai titolari dei diritti nell’uso di misure tecnologiche di
protezione fanno sì che questi le applichino indistintamente anche nei casi leciti previsti
dalla legge.
Così come nel DMCA, anche nella dir. 29/2001 si è andati oltre il mandato della
WIPO per porre regole che intendono rafforzare in misura notevole il sistema dei diritti
sulle opere dell’ingegno e sugli altri materiali protetti. Tuttavia, pur tenendo presenti le
differenze di struttura tra DMCA e dir. 2001/29/CE, si può dire che la regolamentazione
delle misure tecnologiche di protezione201 contenuta nella direttiva sembra risultare più
restrittiva, cioè maggiormente favorevole agli interessi dei titolari dei contenuti.
Utilizzando le parole di Philippe Agrain possiamo quindi affermare che:

Si è dunque estesa la durata del copyright sino a ricomprendervi entità di cui non è
stata effettuata quasi nessuna registrazione, sonora o visiva che sia, strappandole
così al dominio pubblico. Si sono ristretti e ribattezzati come “eccezioni” i legittimi
e fondamentali diritti di utilizzo dei documenti – fra gli altri, il diritto di citazione, la
cui riduzione a mera finzione è stato oggetto di grandi sforzi nel settore dei media
come in quello della televisione. Abbiamo accettato di sacralizzare la difesa delle
restrizioni a tal punto che il recepimento della direttiva 2001/29 permetterà a
dispositivi tecnologici di decidere al posto dei giudici il livello a cui tali diritti devono
202
essere garantiti .

Per concludere Agrain afferma come la comparsa di due testi come il DMCA e la
dir. 2001/29/CE possono essere considerate come un’offensiva, le cui prime tappe si
sono sviluppate in clandestinità203:

L’adozione da parte dell’Organizzazione Mondiale della Proprietà Intellettuale di un


trattato sui fonogrammi, nel 1996, che prevede una protezione giuridica per
contrastare l’aggiramento delle “misure tecniche di protezione”, non aveva attirato
che scarsa attenzione. È con la comparsa di testi come il Digital Millenium
Copyright Act negli Stati Uniti, la direttiva europea sul diritto d’autore e i diritti
connessi nella società dell’informazione e quella sul rispetto dei diritti di proprietà
intellettuale, che le conseguenze delle offensive in corso diventano percepibili per il
grande pubblico. Considerati nel loro insieme, questi testi puntano a criminalizzare
lo scambio fra individui di informazioni sottoposte a copyright, anche quando

200
Ivi, pp. 8-13.
201
L’art. 6 della direttiva 2001/29/CE definisce misure tecnologiche le tecnologie, dispositivi e
componenti che impediscono o limitano atti su opere protette, non autorizzati dal titolare dei
diritti d’autore.
202
Aigrain P., Causa Comune, Stampa Alternativa/Nuovi Equilibri, 2007 p. 73.
203
Aigrain P., Ivi, p. 90.
91
queste informazioni sono state legittimamente acquisite da uno di essi: si è deciso
che solo i gruppi editoriali avrebbero tratto profitto dalla capacità di riprodurre e di
distribuire l’informazione.
Criminalizzando gli atti senza scopo di lucro, rafforzando il carattere assoluto dei
diritti di proprietà e confidando in dispositivi tecnici e industriali, regolandone i
parametri per determinare l’estensione dei diritti d’uso, questi testi tentano di
imporre a ogni costo la scarsità dell’informazione. Intendono obbligare ciascuno a
scegliere tra l’accesso ai contenuti gestiti dai grandi gruppi e la promessa dei beni
comuni. Si potrà senza dubbio (se qualche nuovo sviluppo legislativo non lo
impedirà) scegliere di accedere ai contenuti liberamente condivisi e di utilizzare il
software libero che lo consente.

2.10 Verso il Copyright 2.0


È necessario a questo punto considerare come nell’era del Web “2.0” il diritto
d’autore così concepito non abbia più molto senso. Infatti la rete ha provocato effetti sul
modo in cui si costruisce la cultura.
Secondo Lessing il senso del cambiamento lo si intuisce distinguendo tra cultura
commerciale e cultura non-commerciale: per cultura commerciale si intende quella
parte della nostra cultura che viene prodotta con l’intento di essere venduta, per cultura
non-commerciale si intende tutto il resto.
Quando gli uomini anziani si sedevano sulle panchine nei parchi (…) e raccontavano
delle storie per i ragazzi, quella era cultura non-commerciale. Quando Noha
Webster pubblicò il prototipo dell’omonimo dizionario (…), quella era cultura
204
commerciale .

Come ricorda Lessing205 anche la Disney da sempre ha preso in prestito i suoi


personaggi “rifacendo il verso ai lungometraggi di maggiore successo dei suoi giorni e la
chiave del successo stava proprio nella brillantezza delle differenze (…) eppure tutto
questo era costruito su una base presa in prestito, creando semplicemente qualcosa di
nuovo sulla base di qualcosa di vecchio”.
All’inizio della nostra epoca storica quindi la cultura non-commerciale non era
sottoposta a regole, veniva lasciata libera. La legislazione si occupava solo della
creatività commerciale, riconoscendo ai creatori i diritti esclusivi sulle proprie opere,
così da poterli vendere nel mercato. Ora questa divisione tra cultura libera e cultura
controllata è stata cancellata: per la prima volta le modalità di creazione e condivisione
della cultura ricadono all’interno della regolamentazione giuridica.

204
Lessing, L., Free Culture How Big Media Uses Technology and The Law To Lock Down Culture
and Control Creativity, Apogeo, 2005, p. 7.
205
Ivi, p. 16.
92
Questo viene giustificato come elemento necessario a tutela della creatività
commerciale, ma non è un protezionismo che tutela gli artisti, ma tutela certe forme di
attività commerciali: le grandi aziende, minacciate dalla potenzialità di Internet di
cambiare il modo in cui viene create e distribuita la cultura commerciale e non-
commerciale, si sono infatti alleate nell’indurre i legislatori a usare la legge per
proteggerle.
A tal proposito è necessario porre l’accento sulla differenza tra gli utilizzi
trasformativi di un’opera e quelli non trasformativi206. La distinzione tra questi due tipi di
utilizzo copre sia le opere tradizionali come i film, i libri e la musica, che le nuove
modalità di espressione nate dalla diffusione del digitale e del web. Gli utilizzi
trasformativi sono quelli che permettono agli utenti di creare nuove opere,
incorporando e remixando opere pre-esistenti, che possono essere utilizzate per scopi
quali l’insegnamento, la critica e la ricerca. L’opportunità per i nuovi autori di costruire
opere derivate da materiale pre-esistente protetto da copyright, è in teoria assicurato da
alcune eccezioni previste dalla legge sul copyright (come il fair use), che cercano di
bilanciare gli interessi dei titolari di diritti con i benefici sociali e culturali che derivano
dalla creazione e dalla distribuzione delle opere derivanti.

Excellent examples of the transformative use allowed by digital devices have


recently caught the attention of scholars in the U.S. provoking a debate on whether
the fair use doctrine could apply in cases of independently created, derivative
creations which “mix, rip and burn” pieces of pre-existing copyrighted work. These
cases showed that poorly-equipped artists and creators have been able to create
highly appreciated works of art by re-using pieces and extracts from pre-existing
films and songs, and inserting them into independently created works whose
production and released costs were low thanks to new digital technologies and
207
software .

Gli utilizzi non-trasformativi208 invece sono quelli che permettono all’utente di


avere accesso ad un’opera pur non riutilizzandola per crearne di nuove basate su di essa,
quindi ciò include la lettura, l’ascolto, la copia per scopi di intrattenimento, lo studio
personale, l’informazione e la comunicazione. Ma la protezione che dà la legge sul
copyright spesso limita l’utilizzo personale non trasformativo nel Web: infatti un
normale utilizzo non commerciale di un’opera -come avviene nel mondo analogico

206
Si veda a tal proposito G. Mazziotti, EU Digital Copyright and The End User, Springer, 2008, pp.
7-8.
207
Ivi, p. 9.
208
Ivi, pp. 7-10.
93
quando entriamo in una biblioteca e sfogliamo un libro o una rivista per esempio-, nel
mondo digitale è soggetto al controllo della legge, anche attraverso i già menzionati
sistemi DRM.
Così oggi i contenuti prodotti da centinaia di milioni di utenti e immessi nel web
sono protetti di default per legge come l’ultima opera cinematografica o musicale
immessa nel mercato, quindi col massimo di protezione. Questo tipo di tutela
tradizionale era infatti pensata per un mondo dove chi produceva contenuti era un
professionista.
Non essendo possibile una legislazione che riesca a stare al passo con i continui
e rapidi cambiamenti del Web, per poter agire subito diversi progetti, tra i quali si è
distinto Creative Commons, propongono di basarci sulle regole del copyright senza
modificarne la struttura normativa, seguendo il successo del software libero. Possiamo
utilizzare il diritto d’autore con giudizio, rinunciando ad alcuni diritti che la legge
concede per rilasciarli in maniera più libera.
Secondo Lessing209 la tecnologia digitale ha ridotto il costo della creazione e ha
cambiato l’orizzonte delle opportunità per tutti coloro che vogliono creare qualcosa di
nuovo. Ma questa opportunità non è solo per coloro che vorrebbero creare qualcosa di
completamente nuovo :

Pensate alla pubblicità della Apple che invitava i consumatori a fare qualcosa di più
del semplice consumare: “Rip, Mix, Burn. Dopotutto, è la tua musica”. La Apple
naturalmente vuole vendere computer. Eppure questa pubblicità tocca un ideale
profondamente radicato nella nostra storia. Perché la tecnologia che la Apple
vende, potrebbe consentire a questa generazione di fare con la nostra cultura
quello che le vecchie generazioni passata hanno fin dall’inizio del consorzio umano:
appropriarsi di ciò che è la nostra cultura. To rip it: copiarla. To mix it: rielaborarla
in qualunque modo l’utente voglia. To burn it: pubblicarla e renderla visibile da
altri.

La tecnologia digitale quindi permette a moltissime persone comuni di entrare a


far parte di un processo di creazione di contenuti digitali . È cambiata quindi la nozione
di end-users210: l’utente non è più un semplice fruitore passivo di contenuti digitali, ma
un potenziale autore successivo in grado di modificare e rielaborare opere pre-esistenti
protette, attraverso tecnologie digitali di semplice utilizzazione.

209
Lessing, L., The Future Of Ideas, The Fate Of The Commons In A Connected World, Random
House Inc., New York, 2001, pp. 14-15.
210
A tal proposito di veda la definizione di G. Mazziotti in EU Digital Copyright and The End User,
pp. 4-5.
94
Le nuove tecnologie hanno moltiplicato le possibilità di interazione con l’opera
protetta dando luogo a quella che è stata mirabilmente definita come Remixing Culture,
una cultura del riuso, dell’assemblaggio di componenti provenienti da diverse fonti. Gli
utenti sono oggi in grado di creare film remixati, nuove forma musicali, nuove forma di
narrazione e scrittura e, grazie a Internet, di condividere questa creatività con altri.
Questa cultura necessita di beni comuni211 cui attingere per poter esprimere
tutte le sue potenzialità e la cui presenza in ambienti digitali è indispensabile. Ma la
conseguenza di questa nuova cultura è il rischio di violare il copyright tradizionale con
atti trasformativi non autorizzati su opere digitali pre-esistenti protette.
In questi casi di creazione collaborativa e remix in rete «il diritto d’autore ci dice
che se l’utente produce qualcosa che è originale e che non deriva da altri lavori, la legge
sul diritto d’autore tutela questo contributo. Sin quando si tratta di contributi
abbastanza ampi non si hanno particolari problemi, ma il problema si pone quando -
come nel caso di Wikipedia- abbiamo migliaia di persone che fanno piccoli interventi e
che contribuiscono quindi al risultato complessivo. Il diritto d’autore con queste “micro
aggiunte” e con queste “micro modifiche” si trova ad avere dei problemi perché sono una
granularità più piccola di quella normalmente pensata per il diritto d’autore. Però vale il
principio fondamentale per cui chi contribuisce a qualcosa di originale è tutelato dal
diritto d’autore per quel singolo contributo»212.
Interessante è la proposta del prof. Marco Ricolfi213 di passare al copyright 2.0:
infatti il copyright “1.0” -cioè la protezione tradizionale delle opere dell’ingegno- non è
più in linea con i bisogni della società digitale. La proposta è quella di modificare il
default alla base, cioè di default la condivisione in rete dovrebbe essere libera, a meno
che l’autore non chieda esplicitamente una tutela maggiore. In questo caso, se un
autore desidera una protezione più intensa come il copyright “1.0”- dovrebbe fare una

211
Secondo la definizione di Lessing i commons (beni comuni) sono una risorsa posseduta in
comune da una data comunità. I commons sono una risorsa cui chiunque, all’interno di questa
comunità, ha diritto senza dover chiedere il permesso di utilizzo a nessun altro. Queste risorse in
comune sono libere di essere prese da altri, altre sono libere anche se c’è un prezzo da pagare. In
entrambi i casi la caratteristica essenziale è che l'accesso alla risorsa non sia condizionato dal
permesso di qualcun altro. Op.cit., p.20.
212
Intervista del 10 dicembre al Prof. J.C. De Martin, responsabile italiano di Creative Commons e
co-direttore del centro NEXA su Internet & Societa' Politecnico di Torino.
213
Il Prof. Marco Ricolfi, è coordinatore giuridico di Creative Commons Italia , direttore del
Master Wipo-Unito sulla proprietà intellettuale e co-direttore di Nexa, il centro di ricerca su
Internet e Società del Politecnico di Torino.
95
formale domanda, che gli verrebbe concessa per esempio per 14 anni, potenzialmente
rinnovabili ma comunque limitati.
L’obiettivo di questa proposta non è la distruzione del copyright tradizionale,
che in molti casi è valido, ma ci dovrebbe essere una alternativa nel web come il
copyright “2.0”, cioè dare credito all’autore di un’opera solo riconoscendogli la
paternità. Questa attribuzione potrebbe essere più adatta ai protagonisti della
produzione e distribuzione di opere digitali nel web, e sarebbe un copyright più nuovo e
flessibile che dovrebbe operare di default in rete. In questo modo, non solo si
risolverebbe il problema delle opere orfane in rete214, ma soprattutto si libererebbe un
numero straordinario di opere, pur mantenendo in alcuni casi il sistema di protezione
tradizionale gli autori che lo desiderano.
Insomma la società dell’informazione sta andando sempre più verso un nuovo
modo di intendere il copyright in rete, specialmente in ambienti nei quali creatività e
collaborazione si fondono insieme per dar luce a nuove forme di cultura.

2.11 Il diritto d’autore per particolari tipologie di opere: la tutela del software
Il diritto d’autore, come abbiamo visto, è nato originariamente come fenomeno
rivolto al mondo dell’editoria, ma nel tempo si è esteso ad altre tipologie di opere
dell’ingegno, fino ad arrivare oggi a comprendere categorie di opere innovative come il
software, le banche dati e i contenuti generati dagli utenti. Questo ha comportato una
applicazione dei principi classici del diritto d’autore sempre più problematica, che ha
richiesto alcuni aggiustamenti nell’assetto normativo215.
Seguendo l’evoluzione storica della scienza informatica, l’idea di una tutela
giuridica sul software216 non si è affatto affermata in modo graduale e parallelo rispetto
allo sviluppo e alla diffusione del software stesso, ma la scelta è stata determinata dai

214
Le opera orfane sono considerate come “works whose rightholders cannot be identified or, if
they can be identified, cannot be located. This may be very important content, as in the case of a
great part of movies, silent or otherwise, created until the half of last century; sometimes the
inclusion of the orphan content may be indispensable for the creation of a multi-component,
derivative work.” M. Ricolfi, Copyright Policy for digital libraries in the context of the i2010
strategy, pubblicazione integralmente consultabile in rete all’indirizzo cms.communia-
project.eu/communiafiles/conf2008p_Copyright_Policy_for_digital_libraries_in_the_context_of_
the_i2010_strategy.pdf
215
Aliprandi, op.cit., p. 81.
216
Secondo la definizione del WIPO il software è espressione di un insieme organizzato e
strutturato di istruzioni in qualsiasi forma o su qualunque supporto capace, direttamente o
indirettamente, di far eseguire o far ottenere una funzione o un compito o far ottenere un
risultato particolare per mezzo di un sistema di elaborazione elettronica dell’informazione.
96
crescenti interessi economici che necessariamente si andavano a formare attorno al
mercato del software. Fu in questo contesto di notevoli e intricati interessi economici
che il legislatore statunitense nel 1980 fece la necessaria scelta di stabilire dall’alto quale
disciplina applicare al software, ossia la tutela per mezzo di copyright approvando il
Software Copyright Act che emendava il precedente Copyright Act del 1976217.
Sin da subito si presentò il problema dell’inquadramento giuridico del software
in due diverse categorie:
- il software come invenzione industriale e quindi tutelabile alla stregua del
brevetto (art. 2585 c.c. e d.lgs. 30/2005);
- il software come opera dell’ingegno di carattere creativo e quindi tutelata dal
diritto d’autore o copyright (art. 2575 c.c. e L. 633/1941).

La differenza tra questi due diversi tipi di tutela possibili riguarda la nascita dei
diritti e ciò che vanno a tutelare: nel brevetto infatti i diritti in capo all’autore sorgono
nel momento in cui viene conseguito il brevetto, normalmente attraverso una
registrazione presso l’Ufficio Italiano Brevetti e Marchi che verifica i requisiti, il carattere
di industrialità dell’invenzione e la non contrarietà alle leggi. La durata della tutela è
ventennale ma può prescriversi anche anteriormente qualora il titolare non rinnovi il
brevetto e se entro 3 anni dalla registrazione l’invenzione non è stata conclusa. Inoltre il
brevetto protegge il contenuto dell’idea inventiva.
Al contrario nel diritto d’autore i diritti sorgono nel momento di creazione
dell’opera di ingegno, e protegge la forma espressiva a prescindere dal contenuto.
Alcune delle differenze principali tra brevetto e diritto d’autore sono elencate da
Stallman218:
- Il copyright concerne i dettagli dell’espressione di un’opera ma non copre alcuna
idea. I brevetti riguardano soltanto le idee e il loro utilizzo.
- Il copyright è automatico. I brevetti vengono concessi dal relativo ufficio in
risposta a un’apposita richiesta.

217
Il Copyright Act è uno statuto limitato alla legislazione sul copyright degli Stati Uniti ed è la
base primaria per la legge sul copyright. Il Copyright Act spiega i diritti basilari del copyright,
codifica la dottrina del fair use (uso consentito), ed ha esteso la durata del copyright a 70 anni
dalla morte del creatore e a 95 anni se appartenente ad una impresa.
218
Op. cit., p. 148.
97
- I brevetti sono molto onerosi. In realtà le spese degli avvocati per la stesura della
richiesta sono perfino più esose della domanda stessa. Normalmente occorrono
alcuni anni prima che la richiesta venga presa in considerazione, anche se i vari
uffici brevetti lavorano in maniera estremamente lenta nell’esame delle
domande.
- La durata del copyright è tremendamente lunga. In alcuni casi si arriva anche a
150 anni. I brevetti durano invece 20 anni, periodo breve rispetto alla vita
umana ma comunque eccessivo per i ritmi di un settore come quello del
software.
- Il copyright copre unicamente la copia. Se qualcuno scrive un romanzo che si
scopre essere identico parola per parola a un’altra opera, potendo al contempo
dimostrare di non averlo mai visto, ciò rappresenterebbe un ottima difesa
contro ogni accusa di infrazione al copyright.
- Un brevetto è un monopolio assoluto sull’utilizzo di un’idea. Anche potendo
dimostrare di aver avuto quell’idea per conto proprio, ciò sarebbe del tutto
irrilevante se quell’idea è già stata brevettata da qualcun altro.

Nell’ordinamento italiano si è dovuta attendere la direttiva europea 91/250/CE,


che mirava ad un’armonizzazione delle norme comunitarie in fatto di protezione del
software e invitava gli stati membri ad applicare al software la normativa del diritto
d’autore. Al fine di rientrare nell’ambito di tutela previsto per le opere letterarie, il
software deve presentare i requisiti di originalità e novità e quelli di fruibilità esterna.
Il D. Lgs. 518 del 1992 di recepimento della direttiva comunitaria 91/250/CE, ha
inserito nella legge 633/1941 una serie di articoli ad hoc per il software (artt. 64 bis, ter,
quater) costituendo una nuova apposita sezione intitolata Programmi per elaboratore e
introducendo il concetto di tutela giuridica del software.
Il software, come si legge all’art. 1 comma 2 della legge 633/41 deve essere
considerato come opere letterarie ai sensi della Convenzione di Berna sulla protezione
delle opere letterarie e artistiche ratificata e resa esecutiva con legge 20 giugno 1978
n.399 e come tale avere i diritti di copyright come qualsiasi altra opera presa
precedentemente in considerazione dal legislatore. La legislazione italiana è quindi oggi
allineata con quella già fatta propria da molti Paesi europei ed extraeuropei, inclusi gli
Stati Uniti.

98
Ciò che è tutelato è il software effettivamente realizzato, non le idee o le
tecniche che ne sono alla base, come indicato all’art. 2 numero 8 che stabilisce che
restano esclusi dalla tutela accordata dalla presente legge le idee e i principi che stanno
alla base delle sue interfacce. Il termine programma comprende anche il materiale
preparatorio per la progettazione del programma stesso.
I diritti assicurati dal d.lgs 518/92 (art.64 bis) per quanto attiene alla protezione
del software sono quelli di effettuare o autorizzare219:
- La riproduzione permanente o temporanea, totale o parziale del programma per
elaboratore con qualsiasi mezzo o in qualsiasi forma. Nella misura in cui
operazioni quali il caricamento, la visualizzazione, l’esecuzione, la trasmissione o
la memorizzazione del programma per l’elaboratore richiedano una
riproduzione , anche tali operazioni sono soggette all’autorizzazione del titolare
dei diritti.
- La traduzione, l’adattamento, la trasformazione e ogni altra modificazione del
programma per elaboratore, nonché la riproduzione dell’opera che ne risulti,
senza pregiudizio dei diritti di chi modifica il programma.
- Qualsiasi forma di distribuzione al pubblico, compresa la locazione del
programma per elaboratore originale o di copie dello stesso. La prima vendita di
una copia del programma nella comunità economica europea da parte del
titolare dei diritti o con il suo consenso, esaurisce il diritto di distribuzione di
detta copia all’interno della comunità, ad eccezione del diritto di controllare
l’ulteriore locazione del programma o di una copia dello stesso.

Le sanzioni per chi duplichi software a scopo di lucro sono disciplinate dall’art.
171 bis che integra la legge 633 del 41 e stabilisce che chiunque duplichi abusivamente a
scopo di lucro programmi per elaboratore o, ai medesimi fini, e sapendo che si tratta di
copie non autorizzate, importa, distribuisce, vende, detiene a scopo commerciale, o
concede in locazione i medesimi programmi è soggetto alla pena della reclusione da tre
mesi a tre anni.
Anche se non mancano gli strumenti giuridici che tutelino il diritto d’autore nel
campo del software, non c’è ancora una effettiva presa di coscienza della realtà che il
d.lgs 518/92 ha disegnato con l’aggiornamento della legge 633 del 41. È tuttora elevato

219
Morelli, op. cit., p. 136.
99
il grado di superficialità con cui si trascura il fatto che il software , come qualunque altra
opera dell’ingegno, è soggetto a precise norma che tutelano i diritti di coloro che ne
sono stati gli autori. Non ci si è resi conto cioè della rilevanza non solo etica, ma anche
giuridica di qualsiasi azione volta a violare il diritto d’autore sancito oggi per legge,
anche se la violazione possa non avere scopo di lucro o non immediati o esplicitamente
dichiarati tali. Altro aspetto opportuno da sottolineare è quello che la tutela del diritto
d’autore si estende anche al software integrato nell’hardware in quanto il d.lgs 518 parla
di programmi in qualunque forma. Naturalmente la legge si applica non solo alle
organizzazioni pubbliche e private, ma anche ai privati220.
L’art. 5 del D. Lgs. 518/92 introduce la possibilità di creare copie per studiare e
comprendere i meccanismi che ne hanno determinato la creazione qualora egli compia
tali atti durante operazioni di caricamento, visualizzazione, esecuzione, trasmissione o
memorizzazione del programma che egli ha il diritto di eseguire; la copia di riserva
qualora tale copia sia necessaria per l’uso; la copia per la decompilazione del
programma221, ma solo al fine di permettere l’interoperabilità del software con altri
programmi.
Altro intervento normativo successivo al d.lgs. 518/92 è stato il DPCM 244 del 94
che precisa le modalità di tenuta del Registro Pubblico Speciale dei Programmi per
Elaboratore, tenuto presso la Sezione Opere Letterarie e ed Arti Figurative della
Direzione Generale della SIAE.
Esistono inoltre alcuni casi di esclusione ai fini del bollino tra i quali i programmi
distribuiti gratuitamente con il consenso del titolare dei diritti, i programmi acquisiti
mediante download e installati sul computer dell’utente se detti programmi non
vengono fissati su un supporto a fini di profitto, esclusa la copia personale di back-up e i
programmi destinati all’ausilio di persone disabili.

2.12 Il copyright nel Web “2.0”: social networking e user generated contents
Recentemente con lo sviluppo del Web 2.0 per indicare genericamente una
sorta di “seconda generazione” di Internet che ha creato un nuovo modo con cui gli

220
Morelli, op. cit., pp. 137-138.
221
Con la decompilazione viene ricostruito il codice sorgente di un software a partire da un file
eseguibile. Il diritto di decompilazione è un'eccezione al diritto d'autore che lo rende lecito, in
alcuni casi precisi, a chiunque decompili un programma per crearne un altro indipendente da
utilizzare congiuntamente al software decompilato.
100
utenti vivono e percepiscono le nuove potenzialità derivanti dall’interconnessione
telematica, ci si riferisce ad un nuovo livello e ad una nuova efficacia con cui
l’interconnessione telematica incide sulla società.
Per prima cosa, l’interconnessione non è più solo riservato a chi ha una certa
padronanza del computer; si sta realizzando infatti una sempre crescente integrazione e
convergenza tecnologica, grazie alla quale è possibile accedere a risorse di rete in vari
modi: con il cellulare, con la tv interattiva, con il navigatore satellitare.
Ciò sta portando un consolidato radicamento culturale di questi fenomeni,
rendendo la società contemporanea ormai assuefatta all’idea di una costante possibilità
di accesso alle informazioni e all’idea di reciproca condivisione delle conoscenze. I
sociologi chiamano questo nuovo fenomeno social networking.
Tutto questo ha anche forti riflessi sul mondo del diritto d’autore, sia per la
questione della non percezione da parte degli utenti-autori di illiceità di comportamenti,
sia per una nuova concezione della diffusione dei contenuti creativi.
Come abbiamo visto nel precedente capitolo si sono diffuse le piattaforme user
generated contents, cioè di “contenuti generati dagli utenti”, in riferimento a tutte le
opere create e diffuse in rete da utenti non professionisti, ma che spesso possono
raggiungere livelli di qualità e utilizzabilità molto elevati; si parla invece di open contents
in riferimento a tutti quei contenuti che sono distribuiti in un regime di diritto d’autore
più elastico (copyleft, ad esempio) e in cui l’autore incoraggia esplicitamente la copia, la
diffusione e la modifica dell’opera.
Le difficoltà maggiori a livello giuridico si incontrano nel lato soggettivo della
loro analisi, dato che non è sempre agevole risalire alla paternità dell’opera e
soprattutto a quale porzione di opera si colleghi la paternità; a questo si aggiunge che
l’opera è un continuo work in progress, a volte con aggiornamenti a distanza di pochi
minuti. A causa di queste caratteristiche queste opere si prestano particolarmente
all’applicazione di licenze di tipo copyleft/opencontent: pensiamo al fenomeno
dell’enciclopedia libera Wikipedia222.
Nel gennaio 2001, Larry Sanger, Ben Kovitz e Jimbo Wales hanno lanciato un
progetto con l’obiettivo di creare un’enciclopedia online a contenuto libero, redatta in
modo collaborativo da volontari, alla quale ognuno potesse accedere liberamente e

222
www.wikipedia.org
101
gratuitamente e consentisse a tutti il riutilizzo e la modifica degli articoli, a condizione
che questi stessi articoli rimanessero liberamente accessibili, utilizzabili e modificabili223.
Ad oggi Wikipedia è disponibile in più di 200 lingue e conta in totale oltre un milione e
mezzo di pagine e 527.417 pagine di contenuti scritte in italiano da oltre un milione di
utenti224.
Si sono dunque creati due mondi contraddittori, come spiega Aigrain in questo
225
passo :

Nel primo mondo, programmatori di software libero di tutto il mondo creano,


senza ricorso a transazioni monetarie, opere tecniche più complesse di quanto
l’umanità avrebbe anche solo potuto sognare fino a poco tempo prima. La
condivisione dei gusti e delle creazioni reinventa la diversità culturale nella misura
in cui la manipola. L’uso delle tecnologie dell’informazione e della comunicazione,
dalla posta elettronica alle liste di discussione, dai siti web cooperativi alla messa in
rete di informazioni condivise, favorisce la comparsa di nuove forme di solidarietà
globale e locale. L’emersione di risorse e di strumenti condivisi per l’informazione
rafforza, attraverso il comprovato apporto dei benefici derivanti dalla cooperazione
e dalla solidarietà, l’idea che esistano beni comuni portatori di futuro. La solidarietà
sociale si rafforza e dà strumenti di controllo qualitativo delle forme di scambio e di
produzione, valorizzando all’interno dello stesso movimento il commercio etico, il
risparmio energetico e la condivisione delle conoscenze. Esplora nuovi mezzi per
dotare i beni pubblici sociali di risorse sufficienti.
Nel secondo mondo, delle multinazionali producono contenuti standardizzati (film,
prodotti di marca, format per trasmissioni televisive) declinati in versioni
“localizzate”. Consacrano somme gigantesche alla promozione di tali contenuti
presso chi è abbastanza ricco per pagarli o per far sì che la loro visibilità possa
essere venduta agli inserzionisti pubblicitari. Difendono i loro monopoli con
molteplici barriere proprietarie: i brevetti, i diritti patrimoniali d’autore la cui
attuazione è ora assicurata dalla tecnica e dalla sorveglianza e, a un gradino più
basso, i marchi.
Sono entrambi abitati, ma la loro coesistenza è così tesa, così esplosiva, che
arriverà il momento in cui ci si troverà davanti a un bivio. Nel giro di qualche anno,
prenderemo decisioni che determineranno in modo irreversibile quale di questi
due mondi prevarrà nel nostro futuro. Ma da dove arrivano questi due mondi? Una
causa comune li ha messi in movimento. La nascita della tecnica che permette di
estrarre informazioni, di crearle, di trasformarle, che dona loro forma, che
consente di scambiarle, di leggere come informazione ciò che prima appariva una
semplice costruzione materiale o un misterioso fenomeno vivente, è la base
fondante di questa causa comune.

Secondo Aliprandi226 vi è quindi un’inversione di tendenza nell’impostazione


culturale: fino a qualche anno fa gli autori di opere creative erano diffidenti a divulgare
in rete i propri lavori perché pensavano che ciò avrebbe impedito loro di guadagnare;

223
Aigrain P., Causa Comune, Stampa Alternativa-Nuovi Equilibri, 2007, p. 9.
224
Fonte http://it.wikipedia.org/wiki/Speciale:Statistiche
225
Aigrain P., op. cit., p. 13.
226
Capire il copyright, p. 102.
102
oggi invece condividere i propri lavori in rete è ritenuto un modo per farne accrescere il
valore sociale e culturale, la creatività non è più ritenuta un bene privato dell’autore e si
è sviluppata la creazione di opere multimediali che, attraverso l’interattività permettono
all’utente di non essere più un fruitore passivo che subisce l’opera ma un soggetto
attivo227. Si sta quindi verificando un paradossale ritorno al passato, alla cultura non-
commerciale.
Non sono da dimenticare anche realtà comunicative sempre più diffuse come i
forum e i blog dove i singoli utenti scambiano e diffondono informazioni e opere
dell’ingegno, che hanno poi portato allo sviluppo delle community.

2.12.1 Il file sharing e il modello peer-to-peer


Il file-sharing è uno dei fenomeni della società dell’informazione che più di tutti
ha inciso sul diritto d’autore. Secondo la definizione di Aliprandi228 con esso s’intende un
particolare sistema di interconnessione telematica fra i computer dei singoli utenti che,
attraverso Internet, permette agli utenti di mettere a disposizione di altri utenti file e
contemporaneamente di scaricare i file messi in condivisione dagli altri utenti.
Prima la rete si basava su un modello di connessione client/server, dove client
rappresenta il terminale del singolo utente, mentre server il nodo centralizzato a cui
afferiscono le connessioni dei vari client. Il nuovo modello di condivisione, invece, è
detto peer-to-peer (p2p) perché crea una rete in cui ogni utente ha un ruolo pari
all’altro, perciò ogni singolo computer connesso alla rete è contemporaneamente client
e server. Questo non rivoluziona solo l’architettura delle reti telematiche, ma anche la
teoria classica della comunicazione che in ogni forma di diffusione di un messaggio vede
un rapporto “emittente-ricevente”. Nel nuovo modello invece ogni soggetto allo stesso
tempo è parte attiva e passiva del sistema, al pari di ogni altro soggetto coinvolto.
Questo ha destabilizzato il sistema tradizionale del copyright, ma è importante
sottolineare che il file-sharing non può essere dichiarato illecito a priori, dal momento
che non è necessariamente mirato allo scambio di materiale illegale e il diritto alla copia
privata è garantito dalla legge 633/41. Per questo motivo i governi stanno emanando
leggi sempre più restrittive che rendono la rete meno libera. Un tentativo di
regolamentare e contenere il fenomeno è stato effettuato in Italia nel 2004 con il

227
Ivi, p. 88.
228
Ivi, p. 90.
103
cosiddetto Decreto Urbani229 il quale ha inserito nella legge 633/41 due specifiche
norme penali. Addirittura in Francia si è arrivati ad adottare una legge che permette agli
ISP di bloccare l’abbonamento agli utenti che condividono materiale protetto da
copyright in rete.
Secondo Lessing230, punto chiave della pirateria che la legge cerca di reprimere è
l’utilizzo che sottrae all’autore il suo profitto. Bisogna quindi stabilire fino a che punto la
condivisione p2p provochi danni, infatti la violazione di copyright esiste in certi casi, ma
non in tutti. E anche nei casi di violazione è necessario calcolare i danni effettivi causati
ai detentori del copyright. Chi utilizza il file sharing condivide contenuti di tipo diverso
che si possono suddividere in quattro categorie:

1. Chi utilizza il file sharing in sostituzione dell’acquisto. Qui si distinguono due


gruppi: chi non avrebbe comprato comunque il cd e chi, se non fosse stato
disponibile in rete, lo avrebbe acquistato.
2. Chi utilizza il file sharing per scegliere la musica prima di procedere all’acquisto.
Questo fa sì che si scambino tracce che possono portare in seguito all’acquisto
del cd come una sorta di pubblicità mirata, che potrebbe incrementare la
quantità di musica acquistata.
3. Chi utilizza il file sharing per accedere a materiale protetto da copyright e fuori
dal mercato o che non avrebbero comunque acquistato per gli eccessivi costi.
Per i contenuti non più in commercio, pur se ancora tutelati dal copyright, il
danno economico arrecato è pari a zero, visto che il titolare dei diritti non vende
più.
4. Chi utilizza il file sharing per accedere a materiali non protetti da copyright o che
il proprietario vuole distribuire liberamente.

Come sostiene Lessing, giuridicamente solo il punto 4 è totalmente legale e, dal


punto di vista economico, solo il punto 1 è palesemente dannoso. Il punto 2 è illegale
ma vantaggioso. Il punto 3 è illegale ma è positivo per la società e innocuo per l’artista.

229
In Italia il Decreto Urbani, prima di essere modificato dopo un anno di vita, prevedeva il
carcere anche per chi scaricava e distribuiva materiale protetto pur senza scopo di lucro.
230
Lessing, L., Free Culture How Big Media Uses Technology and The Law To Lock Down Culture
and Control Creativity, Apogeo, 2005, pp. 35-36.

104
Quindi l’impatto negativo del file sharing dipende fondamentalmente da quanto risulta
dannosa per il titolare dei diritti.
Bisognerebbe quindi trovare un giusto bilanciamento tra il far fruttare al
massimo le straordinarie potenzialità di Internet come strumento di incremento e
diffusione della cultura, e dall’altra, come tutelare i legittimi interessi degli autori titolari
dei diritti. Una strada è quella dei sistemi forfettari di compenso: già con le musicassette
e le videocassette la musica trasmessa via radio poteva essere registrata e i titolari dei
diritti venivano compensati con una quota del prezzo di vendita dei supporti. Per quanto
riguarda il Web e i modi in cui dovrebbe avvenire questo compenso bisognerà rispettare
le convenzioni internazionali, da quella di Berna del 1886 ai TRIPs del 1994 alle direttive
europee. E quindi la soluzione potrà essere strutturata come licenza a pagamento
globale o come licenza collettiva, come proposto anche da Philippe Aigrain231:
Le montant de la redevance s’établirait donc dans une fourchette allant de 2 à 7 €
par mois pour chaque foyer abonné au haut-débit aujourd’hui. Si l’on prend en
compte la redevance pour copie privée (acquittée pour l’essentiel par les mêmes
foyers), le montant mensuel de la contribution à la création se situerait entre 3 et
7,5 €. Quelle que soit l’issue du débat sur son montant et une éventuelle
modulation sociale sur conditions de revenus, la faisabilité et l’acceptabilité
économique de la redevance ne fait pas de doute.

Quindi la proposta è quella di una licenza globale che riconosca un compenso ai


creatori che si vogliono sostenere economicamente nell’era del copyright 2.0, attraverso
un sistema di forfait da 3 a 7 euro al mese per scaricare liberamente materiale protetto
da copyright dal Web, rispettando così sia i diritti degli autori che quelli degli utenti.

231
Aigrain, P., Internet et Création, Ed. In Libro Veritas, France, 2008, p. 59.

105
PARTE II –Il Copyleft
2.1 Il movimento Copyleft
L’intreccio fra Information Technology e la questione del diritto d’autore non è
più solo oggetto di attenzione da parte del mondo dell’editoria e degli autori. Oggi
anche della società deve oggi confrontarsi con tematiche di cui fino ad ieri si poteva
ignorare l’esistenza, come quella del diritto d’autore in rete.
Il diritto d’autore si basa su una serie di norme alle quali i soggetti coinvolti nella
meccanismo di produzione culturale devono fare riferimento. Queste norme hanno lo
scopo di tracciare i confini entro cui si può esplicare la libertà contrattuale dei privati. È
all’interno di questo spazio ideale che vive e si muove il fenomeno del copyleft.
Come abbiamo visto, nel tempo il diritto d’autore ha consolidato alcuni modelli
standardizzati dove l’autore cede in blocco tutti i suoi diritti ad un soggetto editoriale,
che poi produce e mette in commercio l’opera applicando una tutela totale dei diritti,
che si riassume nelle classica dicitura Tutti i diritti riservati.
Ma questa non è una regola imposta per legge, bensì solo una prassi consolidata
dal mercato. Gli ideatori e i promotori del copyleft hanno agito proprio su questo,
proponendo una prassi alternativa a quella tradizionale: un modello più elastico, meno
standardizzato che si sposa meglio al nuovo contesto della comunicazione digitale e
telematica di oggi. Un sistema quindi disintermediato di gestione dei diritti sulle opere di
ingegno, capace di innescare un circolo virtuoso di creatività e condivisione delle
conoscenze.
Con il termine copyleft, si indica un fenomeno giuridico nato negli anni Ottanta
fra gli sviluppatori informatici del progetto GNU, i quali si scambiavano supporti
contenenti software libero, scrivendoci sopra la dicitura “Copyleft All right reversed”,
cioè “Copyleft Tutti i diritti rovesciati”, come storpiatura alla dicitura tradizionale All
right reserved e aggiungendo il simbolo del copyright “C”, ma ribaltato232.
Il copyleft non indica una forma di rifiuto o alternativa del copyright, ma un
modello alternativo di gestione dei diritti d’autore233. Il termine copyleft nasce da un
duplice gioco di parole. Da un lato abbiamo copyleft come versione ribaltata di

232
. Ancora oggi questo simbolo viene utilizzato per indicare il copyleft.
233
Aliprandi S., Teoria e pratica del copyleft guida all’uso delle licenze open content, NDA Press,
2006, p. 10.

106
copyright, dove left è sinistra e right è destra; dall’altro lato abbiamo invece left come
participio passato di to leave nel senso di “lasciare, permettere” e quindi letteralmente
sarebbe “permesso di copia”.
La nascita e la diffusione del modello copyleft sono strettamente legate alla
rivoluzione avvenuta nel mondo delle comunicazioni con l’avvento dell’informatica e
della telematica, che ha ridisegnato gli equilibri fra i soggetti operanti nel mondo della
comunicazione e della creatività. Fino a qualche decennio fa era impossibile ad esempio
pensare che un autore scrivesse un libro e che fosse lui stesso a diffonderlo al pubblico.
Era necessaria l’intermediazione di un soggetto professionale come l’editore che
si occupasse di supervisionare la redazione dell’opera, di finanziare la realizzazione di
copie cartacee della stessa e di mettere tali beni materiali a disposizione del pubblico e
quindi sul mercato234.
Per comprendere il funzionamento del copyleft è necessario avere chiari i
principi del diritto d’autore, perché il meccanismo del copyleft si basa sul diritto d’autore
e non va in contraddizione con esso: con il modello copyleft infatti l’autore dell’opera
sceglie di usare gli strumenti del diritto d’autore per liberare la diffusione della sua
opera, piuttosto che per controllarla.
Quando un autore crea un opera originale, automaticamente diventa titolare di
una serie di diritti esclusivi su di essa. A questo punto sta a lui la scelta: fare un contratto
di cessione dei diritti con un soggetto imprenditoriale, che li utilizzerà per produrre e
distribuire l’opera -secondo il modello tradizionale-, oppure decidere lui stesso come
regolamentare l’uso della sua opera da parte del pubblico –secondo il modello copyleft-,
in una sorta di autogestione del diritto d’autore. L’autore che sceglie il modello copyleft
deve accompagnare la sua opera con un documento in cui spiega dettagliatamente quali
usi si possono fare con essa e a quali condizioni: questo documento è chiamato licenza
d’uso.
Il copyleft è nato come metodo generale per realizzare un programma di
software libero e richiedere che anche tutte le versioni modificate e ampliate dello
stesso rientrino sotto il software libero e vengano rilasciate allo stesso modo.

234
Aliprandi, Teoria e pratica del copyleft guida all’uso delle licenze open content, p. 11.

107
2.2 Il free software e il progetto GNU
Quando si parla di free software si fa riferimento alla versione più pura tracciata
da Richard Stallman235 e dagli attivisti del progetto GNU, i quali hanno fondato la Free
Software Foundation, ente no profit per la promozione e divulgazione dei progetti in
materia di informatica libera. L’approccio di Stallman è stato quello di inventare una
licenza che rappresentasse pienamente la loro idea di software libero e incoraggiasse il
più possibile il suo sviluppo: la GNU GPL (General Public License) utilizzata per la
stragrande maggioranza dei progetti software libero.
La creazione di un movimento per il software libero in seguito ha aperto la
strada a tutta una serie di progetti basati sulla filosofia della libertà per gli utenti, estesa
poi anche ai contenuti creativi.
Nella storia della Information Technology, tutte le società produttrici di
hardware fornivano, assieme all’hardware della macchina, i software in grado di
svolgere le funzioni di base. Questi programmi erano scritti in un linguaggio specifico
che permetteva che funzionassero solo in quella specifica macchina. I laboratori Bell
realizzarono però il sistema operativo UNIX (Uniprogrammed Computer System),
progettato per risultare indipendente dalla specifica macchina su cui era stato
inizialmente scritto e distribuito provvisto dei codici sorgente. Questo permise di portare
il sistema operativo UNIX su piattaforme diverse da quelle usate dai laboratori Bell e ne
causò una rapidissima diffusione fra le comunità dei ricercatori e degli sviluppatori.
Inoltre la disponibilità dei sorgenti permetteva a chiunque di contribuire al
miglioramento delle funzioni del sistema operativo. Si formò così una comunità di
sviluppatori volontari, soprattutto nell’ambiente universitario che contribuì, in modo
che collaborativo, alla crescita di UNIX.
Questa situazione è descritta da Stallman, che scrive 236:

Quando cominciai a lavorare nel laboratorio di intelligenza artificiale del MIT


(Massachussets Institute of Technology) nel 1971, entrai a far parte di una
comunità in cui ci si scambiavano i programmi, che esisteva già da molti anni. La
condivisione del software non si limitava alla nostra comunità; è una cosa vecchia

235
Richard M. Stallman è riconosciuto come il pioniere della cultura della libera condivisione delle
conoscenze e come il primo porta-voce della comunità di sviluppo di software libero. Per primo
ha avuto la geniale intuizione di creare un nuovo modello di gestione dei diritti d’autore che va
sotto il nome di copyleft. Artefice del Progetto GNU e fondatore della Free Software Foundation,
è anche autore di numerosi saggi tutti rilasciati con un permesso di copia letterale.
236
Software libero, pensiero libero, GNU Press, 2002, p. 11.
108
quanto i computer, proprio come condividere le ricette è antico come l’arte
culinaria. Ma noi lo facevamo più di chiunque altro (…) Non chiamavamo il nostro
software software libero, poiché questa espressione ancora non esisteva, ma
proprio di questo si trattava. Ogni volta che persone di altre università o aziende
volevano convertire il nostro programma per adattarlo al proprio sistema e
utilizzarlo, gliene davamo volentieri il permesso. Se si notava qualcuno usare un
programma sconosciuto e interessante, gli si poteva chiedere di vederne il
sorgente, in modo da poterlo leggere, modificare o cannibalizzare alcune parti per
creare un nuovo programma.

Nel 1984 la proprietà dei laboratori UNIX passò alla AT&T, che iniziò a chiedere
delle royalty, ma soprattutto mise un freno alla libera distribuzione dei sorgenti. In
seguito nacquero diversi sistemi operativi proprietari basati sul sistema UNIX, che
portarono la comunità di programmatori, formatasi spontaneamente in quegli anni, a
trovarsi impossibilitata a continuare a lavorare.
Fu allora che Richard Stallman sentì la necessità di un modello di sviluppo simile
a quello di UNIX degli anni Settanta, decidendo così nel 1985 di fondare la Free Software
Foundation (FSF), un’organizzazione senza scopo di lucro per lo sviluppo di versioni
libere del sistema UNIX.
Così Stallman iniziò a progettare lo sviluppo di un sistema operativo libero dove
gli hacker237 potessero cooperare, e scelse di rendere il sistema compatibile con UNIX,
perché fosse portabile e perché gli utenti di UNIX potessero passare facilmente ad esso.
Per il progetto fu scelto il nome GNU, come acronimo ricorsivo che significa GNU’s Not
Unix238.
I due progetti Unix e GNU condividono alcuni valori e obiettivi comuni, ma
quello di Richard Stallman ha una portata differente: l’obiettivo di Stallman è stato
costruire l’insieme degli strumenti software di uso generale, unitamente alla garanzia
che questi strumenti fossero e restassero disponibili in un regime proprio dei beni
comuni.
Furono necessari otto anni perché questo progetto raggiungesse l’obiettivo,
sotto la forma di un sistema operativo completo formato da strumenti GNU uniti al
kernel239 Linux, sviluppato da Linus Torvalds240. Nel 1992 la combinazione di Linux con il

237
Per approfondire si veda il saggio di Eric S. Raymond, Breve storia sugli hacker, in Open
Sources: voci dalla rivoluzione Open Source, Apogeo, Milano, 1999.
238
Stallman, op.cit., p. 16.
239
Il kernel costituisce il nucleo di un sistema operativo. Si tratta di un software avente il compito
di fornire ai processi in esecuzione sull'elaboratore un accesso sicuro e controllato all'hardware.
Dato che possono esserne eseguiti simultaneamente più di uno, il kernel ha anche la
109
sistema GNU ancora non completo, produsse un sistema operativo libero completo, il
sistema operativo GNU/Linux. Grazie a Linux oggi possiamo utilizzare una versione del
sistema GNU241.
Stallman arriva a definire i diritti degli utenti e le loro condizioni di fruizione
dell’opera posizionandosi interamente nell’ambito del diritto d’autore, così come
definito dalla convenzione di Berna del 1886. Secondo Stallman I diritti sono universali e
non presuppongono alcun accordo preliminare tra le parti: l’utente che non rispetta le
condizioni della licenza non può dire di aver ricevuto il permesso di utilizzo ed è dunque
perseguibile per violazione di copyright. Stallman etichettò questo utilizzo del copyright
per fondare a contrario i beni comuni copyleft. Secondo la definizione di Stallman242, un
programma è software libero se:

- L’utente ha la libertà di eseguire il programma per un dato scopo (libertà 0)


- L’utente ha la libertà di modificare il programma secondo i propri bisogni.
Prerequisito è l’accesso al codice sorgente (libertà 1)
- L’utente ha la libertà di ridistribuire copie gratuitamente o dietro compenso, per
aiutare il prossimo (libertà 2)
- L’utente ha la libertà di distribuire versioni modificate del programma, così che
la comunità possa usufruire dei miglioramenti effettuati. Prerequisito anche in
questo caso è l’accesso al codice sorgente (libertà 3)

Un programma è software libero se l’utente ha tutte queste libertà, senza


bisogno di chiedere o pagare nessun permesso.
Il termine free software spesso è mal interpretato perché ambiguo: free, che in
inglese significa sia gratuito che libero, non ha niente a che vedere col prezzo del
software, ma indica le libertà per l’utente. Ma la vendita di copie del programma non
contraddice il concetto di software libero: la libertà di vendere copie di programmi è

responsabilità di assegnare una porzione di tempo-macchina e di accesso all'hardware a ciascun


programma permette di eseguire più programmi contemporaneamente.
240
Aigrain P., Causa Comune, Stampa Alternativa/Nuovi Equilibri, 2007, p. 75.
241
Per approfondire è interessante la lettura del saggio Il vantaggio di Linux, di Linus Torvalds, in
Open Sources: voci dalla rivoluzione Open Source, AA.VV., Apogeo, Milano, 1999.
242
Stallman, op.cit., p.60.
110
essenziale, infatti un programma che non può essere liberamente venduto non sarebbe
software libero243.
L’attività di Stallman nel campo del software libero è quindi motivata da uno
scopo idealistico: diffondere libertà e collaborazione. Stimolare la diffusione del
software libero, sostituendo il software proprietario che vieta la cooperazione, per
contribuire così al miglioramento delle società. Tutto il codice aggiunto a un programma
coperto da GPL deve essere software libero anche se incluso in un file a parte. Si rende
disponibile il codice affinché venga utilizzato nel software libero e non nel software
proprietario, in modo da incoraggiare altri programmatori a fare altrettanto. La
posizione di Stallman è che «se gli sviluppatori di software proprietario ricorrono al
copyright per impedirci di condividere i programmi, chi preferisce cooperare può usare il
copyleft per offrire a ulteriori collaboratori un vantaggio particolare: dare loro il
permesso di utilizzare il codice sorgente».
L’obiettivo del progetto GNU è stato quindi offrire a tutti gli utenti la libertà di
ridistribuire e modificare il software GNU, e il copyleft garantisce che ogni utente
conservi queste libertà. L’idea di permesso d’autore consiste nel dare a chiunque il
permesso di eseguire il programma, copiare il programma, modificare il programma e
distribuirne versioni modificate, ma senza dare il permesso di aggiungere restrizioni: così
le libertà essenziali che definiscono il software libero sono garantite a chiunque ne abbia
una copia, e diventano diritti inalienabili.
Perché un permesso d’autore sia efficace, anche le versioni modificate devono
essere libere. Questo assicura che ogni lavoro derivato da quello di altri sia reso
disponibile per la comunità, se pubblicato. La clausola che i cambiamenti debbano
essere liberi è essenziale per garantire libertà a tutti gli utenti del programma. Se
apportare modifiche fosse una scusa per negare la libertà agli utenti, sarebbe facile per
chiunque approfittare di questa scusa244.

243
Stallman, op.cit. p. 17.
244
Ivi, p. 137.
111
2.3 Principali licenze d’uso sul modello copyleft
2.3.1 La GNU GPL
La prima licenza copyleft è la GNU GPL (General Public License), nata quando il
sistema GNU divenne completo con l’introduzione del kernel Linux, per costituire un
documento legale che precisasse le condizioni ed i diritti connessi con la distribuzione
del sistema GNU/Linux. Essa rappresenta uno degli esempi più puri di copyleft poiché tra
le condizioni imposte dalla licenza c’è la cosiddetta clausola di persistenza, che impone
agli utenti che creano un’opera derivata da una pre-esistente, di rilasciare la nuova
opera con la stessa licenza di quella precedente mantenendo così il regime di copyleft
all’infinito.
Come ogni licenza copyleft, la GPL da un lato concede una serie di libertà,
dall’altro pone alcune condizioni. Le quattro libertà fondamentali definite da Stallman
caratteristiche del software libero sono:
- Libertà di eseguire il programma per qualunque scopo;
- Libertà di studiare il programma e adattarlo alle proprie esigenze;
- Libertà di ridistribuire copie per aiutare il prossimo;
- Libertà di migliorare il programma e distribuire i miglioramenti a beneficio della
comunità.

La mancanza di anche una sola di queste clausole fa sì che un software non


posso essere considerato software libero. Le condizioni poste dalla licenza sono tre:

1. È necessario riprodurre chiaramente su ogni copia del software una nota di


copyright dove si segnala chi è il detentore dei diritti sull’opera e in cui si fatto
chiaro richiamo al testo della licenza;
2. Se si modifica il software o si sviluppa un altro software basato su di esso, è
necessario applicare la stessa licenza GPL anche alla nuova opera derivata;
3. Se si distribuisce il programma si deve corredarlo del corrispondente codice
sorgente completo, in forma leggibile dal calcolatore e il codice sorgente deve
essere open.

2.3.2 La GNU FDL


Dopo la licenza GPL sono arrivate molte altre licenze basate su questo modello,
sia in ambito informatico che in ambito di contenuti creativi di altro genere. Un esempio

112
molto diffuso è la GNU FDL (Free Documentation Licence). Nata nel 2000 sempre con il
progetto GNU, la GNU FDL è una forma di copyleft creata per essere applicata alla
documentazione software per l’utilizzo di manuali, libri di testo o altri documenti per
garantire a chiunque l’effettiva libertà di copiare e ridistribuire tali materiali con o senza
modifiche, sia a livello commerciale che non commerciale. Questa licenza è stato in
seguito applicata a molte altre opere di tipo testuale tra le quali l’enciclopedia libera
Wikipedia, uno dei più affascinanti fenomeni del mondo copyleft245.
Secondo la definizione di Stallman246 la documentazione libera, come il software
libero, è una questione di libertà e non di prezzo. Il criterio per definire libero un manuale
è lo stesso che per definire libero un programma: si tratta di offrire certe libertà a tutti gli
utenti. Deve essere quindi permessa la redistribuzione in modo che il manuale possa
accompagnare ogni copia del programma. Un altro aspetto importante è autorizzare la
modifica: non è essenziale permettere alle persone di modificare articoli e libri che
descrivono il nostro punto di vista di un altro soggetto, ma è fondamentale per la
documentazione dei programmi liberi. Infatti chi modifica un programma deve
necessariamente essere messo in grado di modificare anche il manuale d’uso attraverso
un’apposita licenza come la GNU FDL, perché in caso contrario non vengono soddisfatti i
bisogni della comunità.
Oggi, dopo più di vent’anni dalla diffusione di questo nuovo modello di gestione
dei diritti, esso ha iniziato realmente a cambiare le prospettive del concetto di proprietà
intellettuale, soprattutto negli ultimi anni con il boom della comunicazione digitale e
telematica. Dal 2001 è stato avviato un altro importante progetto che mirava a portare
questo modello innovativo di gestione dei diritti a tutti i tipi di opere creative,
integrandolo con degli strumenti tecnologici per una maggiore diffusione delle licenze
nel contesto digitale: il progetto Creative Commons e le sue licenze.

2.3.3 La GNU LGPL


La GNU LGPL (Lesser General Public License) è una licenza creata dalla Free
Software Foundation come compromesso tra la GNU General Public License e altre
licenze non-copyleft come ad esempio la Licenza BSD, la Licenza X11 e la Licenza Apache.
Il suo scopo è di essere appetibile per aziende e progetti che sviluppano software

245
Aliprandi, op. cit., p.139.
246
Stallman, op. cit., pp. 37-38.
113
proprietario, tutelando al tempo stesso la comunità del Software Libero da abusi da
parte delle stesse.
La GNU LGPL viene applicata ad alcune librerie GNU, ma non a tutte. Fino al
1999 questa licenza era chiamata GNU Library GPL, ma ne è stato in seguito modificato il
nome perché questo incoraggiava gli sviluppatori a usarla con maggior frequenza di
quanto avessero dovuto. La GNU Library GPL è tuttora disponibile in formato HTML e
testo pur essendo stata superata dalla LGPL247.
La LGPL permette l’uso delle librerie da parte di software proprietario. Questa
eccezione è stata creata perché rendere disponibile la libreria C di GNU solo per i
programmi liberi non avrebbe dato nessun vantaggio a tali programmi liberi, ma
avrebbe solo disincentivato l’uso della libreria. Quando una libreria svolge una funzione
particolare che può aiutare a scrivere certi tipi di programmi, distribuirla sotto GPL
limitandone quindi l’uso ai soli programmi liberi, è un modo per aiutare altri autori di
software libero, dando loro un vantaggio nei confronti del software proprietario248.
La LGPL stabilisce quindi il copyleft sul singolo file di codice sorgente, ma non
sull’intero software. Questo comporta che, per esempio, del software rilasciato sotto
licenza LGPL può essere incluso liberamente in un’applicazione licenziata sotto
condizioni proprietarie, a patto che le modifiche apportate al codice sorgente del
software stesso vengano rese pubbliche; tutti gli altri file dell’applicazione possono
essere rilasciati con licenza proprietaria e senza codice sorgente libero.

2.4 La Open Source Initiative e la relazione con il movimento Free Software


Il termine Open Source è comparso per la prima volta nel 1998, quando una
parte della comunità hacker che fino ad allora aveva utilizzato il termine free software,
decise di smettere di utilizzare questo termine per sostituirlo con open source. Alcuni di
questi attivisti volevano evitare che si confondesse free con gratis, mentre altri
intendevano mettere da parte lo spirito che aveva caratterizzato il movimento free
software -cioè le libertà per gli utilizzatori-, a favore di questo nuovo termine che avesse
maggior appeal per il mondo dell’impresa e che mettesse l’accento non tanto sulla

247
Aliprandi, op.cit. p.138.
248
Stallman, op.cit., p. 28.
114
questione etica della libertà quanto su un aspetto tecnico: quello della disponibilità del
codice sorgente249.
Il termine open source è stato quindi rapidamente associato ad una filosofia
diversa, che si basa su valori diversi e perfino un criterio diverso in base al quale le
licenze diventano accettabili. Come sostiene Stallman250 «oggi il movimento del Software
Libero e il movimento dell’Open Source sono due movimenti diversi con punti di vista e
obiettivi diversi, anche se lavorano insieme su alcuni progetti concreti».
Secondo la definizione di Stallman la differenza fondamentale fra i due
movimenti sta nei loro valori: per il movimento open source, il fatto che il software
debba essere open source o meno è solo un problema pratico, non un problema etico.
L’open source quindi è una metodologia di sviluppo, il software libero è un movimento
di carattere sociale.
Se la GPL è la licenza proposta come modello dalla Free Software Foundation,
diverso è l’approccio della OSI (Open Source Iniziative) che non ha scelto di proporre un
modello di licenza di riferimento, ma ha redatto un decalogo con i requisiti che una
licenza deve avere per essere considerata a tutti gli effetti open source. Questo
documento è chiamato OSD (Open Source Definition). Di conseguenza ogni progetto
software sottoposto al vaglio della OSI e la cui licenza corrisponde ai requisiti della OSD,
riceve il benestare della OSI e l’apposizione del marchio OSI Certified.
Open Source non significa solo accesso al codice sorgente. Infatti i termini di
distribuzione di un programma Open Source devono rispondere ai seguenti criteri251:

1. Ridistribuzione libera
2. Codice sorgente
3. Opere derivate
4. Integrità del codice sorgente dell’autore
5. Nessuna discriminazione contro persone o gruppi
6. Nessuna discriminazione di settori
7. Distribuzione della licenza
249
R. Stallman, saggio Il Progetto GNU, tratto da Open Sources: voci dalla rivoluzione Open
Source, Apogeo, Milano, 1999, p. 77.
250
Op. cit., p. 78.
251
Questa è la definizione che da B. Perens nel saggio The Open Source Definition, in Open
Sources: voci dalla rivoluzione Open Source, Apogeo, Milano, 1999, disponibile anche in rete
all’indirizzo http://www.apogeonline.com/openpress/libri/545/bruceper.html
115
8. La licenza non deve essere specifica a un prodotto
9. La licenza non deve contaminare altro software
10. Licenze esemplari

Sul sito ufficiale della OSI252, sono elencate tutte le licenze che hanno ricevuto
l’apposizione della certificazione OSI e si può notare come gran parte di queste licenze
coincida con quelle contenute nell’elenco sul sito della FSF. Ciò conferma il fatto che,
nella maggior parte dei casi, si ha a che fare con lo stesso fenomeno, ma spesso è solo
una questione di scelta terminologica e di affiliazione ad una specifica organizzazione o
progetto.
Il nuovo termine Open Source ha subito riscosso un certo successo, tanto che
spesso si parla genericamente di open source per indicare tutto il fenomeno
dell’informatica libera e condivisa. Di recente è stato però coniato da Rishab Ghosh il
termine FLOSS253 (Free Libre Open Source Software) che indica contemporaneamente e
universalmente il software libero e l’open source, senza cadere in fraintendimenti ed
imprecisioni.
Secondo la definizione di Stallman254 il movimento del free software e quello
open source sono come due partiti politici all’interno della comunità del software libero.
La relazione tra i due movimenti è che essi sono in disaccordo sui principi di base, ma
sono d’accordo sugli aspetti pratici. Possono perciò lavorare insieme a progetti specifici
e non si considerano nemici: il nemico è il software proprietario.
Allo stesso tempo però non vogliono però essere confusi: Stallman riconosce che
gli attivisti dell’OSI hanno contribuito alla loro comunità, ma sottolinea «siamo noi che
abbiamo creato questa comunità e vogliamo che si sappia. Vogliamo che quello che
abbiamo realizzato sia associato con i nostri valori e la nostra filosofia, non con i loro».
La definizione ufficiale di software open source come pubblicata dalla Open
Source Iniziative, effettivamente si avvicina molto alla definizione di software libero. Ma
per certi aspetti è un po’ più ampia: il significato ovvio di software open source è che il

252
www.opensource.org
253
Il termine FLOSS è nato con lo scopo di non estraniare né la filosofia del free software né
quella dell'open source. Si sperava che il termine semplificasse i rapporti tra i due movimenti e ne
stimolasse la cooperazione. Infatti Stallman, fondatore del movimento Free Software ha
pubblicamente raccomandato l'uso di questo termine per coloro che preferiscono mantenersi
neutrali.
254
Software Libero, Pensiero Libero, p. 79.
116
codice sorgente è aperto all’utente. Questa espressione è meno forte di software libero
perché include sia il software libero, che il software semi-libero e qualche software
proprietario. Questo significato di open source non è quello inteso dai suoi sostenitori
ovviamente: questa ambiguità fa sì che la maggior parte delle persone fraintenda il vero
significato.
La spiegazione che fornisce Stallman255 è che il termine free software è più
semplice, mentre il significato di Open Source è ambiguo perché la definizione più ovvia
è in realtà quella sbagliata. A questo riguardo è interessante la lettura di un articolo di
Joe Barr, Live and let license256, dove spiega in maniera molto chiara il significato di open
source257:
If you’re ever confused by, or mixed up the terms, "open source" and
"free software," this is for you (…). Let’s talk first
about open source. When you hear this term, do not think license.
Think development methodology. Think of source code that is widely
available. Source code that can be both viewed and changed by just
about anyone who wants to bother. That is the essence of open
source. It is "open" as opposed to "closed." It is not hidden away
in a vault like the recipe for Coca Cola, or the source code for
Windows.

Molta gente crede che lo spirito del software libero e del progetto GNU sia che
non si debba far pagare per distribuire copie del software o che si debba far pagare solo
il minimo per coprire le spese. In realtà il progetto GNU incoraggia chi ridistribuisce
software libero a far pagare quanto ritiene giusto. Il termine free infatti ha due legittimi
significati: può riferirsi sia alla libertà sia la prezzo. Quando si parla di free software si
parla di libertà e non di prezzo, cioè significa che l’utente è libero di eseguire il
programma, modificarlo e ridistribuirlo con o senza modifiche. I programmi liberi sono
talvolta distribuiti gratuitamente e talvolta ad un prezzo consistente. Spesso lo stesso
programma è disponibile in entrambe le modalità in posti diversi. Il programma è libero
indipendentemente dal prezzo, perché gli utenti sono liberi di utilizzarlo. Spesso
programmi non liberi vengono venduti a un alto prezzo, ma talvolta un negozio fornisce
copie senza farle pagare: questo non lo rende comunque un software libero. Prezzo o

255
Ivi, p. 81.
256
Joe Barr, è stato giornalista e writer per il SourceForge.net, Linux.com e IT Manager's Journal.
257
L’articolo è disponibile integralmente in rete all’indirizzo
http://www.itworld.com/LWD010523vcontrol4
117
non prezzo, il programma non è libero perché gli utenti non hanno libertà258. Anche qui
possiamo fare riferimento all’articolo di J. Barr, dove spiega il suo punto di vista sul free
software:

Now let’s talk about free software. When you hear this term, don’t
think development methodology, or price, think liberty. You may
have heard the mantra "free as in speech, not free as in beer" used
to explain free software. That’s because the first thing people
usually associate with free is its price. So when they hear the
term free software they think "Oh, cool. It’s not going to cost me
anything." That may or may not be true, but it has nothing to do
with what makes free software free.

Per concludere è importante fare un’ultima precisazione: la diffusa convinzione


che molto del free software sia di dominio pubblico è errata. Secondo Perens259 «ciò
avviene perché l’idea di free software o open source confonde ancora molti, che quindi
definiscono erroneamente questi programmi come di pubblico dominio perché è il
concetto più prossimo a quanto è loro familiare». In realtà è importante capire che
questi programmi sono ovviamente protetti da diritti ma sono distribuiti con una licenza
che dà al pubblico più diritti di quelli a cui è normalmente abituato. Un programma di
pubblico dominio, al contrario, è un programma sul quale l’autore rinuncia
volontariamente a tutti i suoi diritti di copyright o entra in questo regime per scadenza
dei termini di protezione del copyright: in questo caso chiunque può utilizzarlo o
modificarlo senza restrizioni perché parte dell’eredità culturale pubblica.

258
Stallman, op.cit., p. 92.
259
A tal proposito si veda il saggio di Perens, op.cit., p.69.

118
PARTE III –L’Open Content: il progetto Creative Commons
2.1 Creative Commons
Alla fine degli anni Novanta con la diffusione delle tecnologie digitali e del Web,
dopo l’affermazione del software libero e la nascita del movimento copyleft, hanno
iniziato a conoscere una vera esplosione i beni comuni e i meccanismi di cooperazione. Il
concetto è chiaramente spiegato da Philippe Aigrain in questo passo del libro Causa
Comune260:

L’artista creatore solitario che, senza interagire con altri, elabora un’opera finita la
cui irruzione improvvisa sulla piazza pubblica è manifestazione di un genio unico:
questa rappresentazione non ha mai corrisposto al vero. (…) Il riconoscimento di
una dimensione collettiva nella creazione non toglie nulla alla singolarità
individuale dell’espressione artistica, ci ricorda che l’individuo si esprime a partire
da una base di interazione la cui sostanza fornisce la materia prima delle opere. I
nuovi tipi di interazione interpersonale, resi possibili dagli odierni mezzi tecnici,
sottendono un nuovo insieme di movimenti artistici che contestano in modo
radicale la separazione fra creatore e fruitore di un’opera, il carattere finito delle
opere, la loro riconducibilità al singolo individuo.

Ogni giorno migliaia di persone usano il Web per condividere i propri lavori,
ricevere commenti e rielaborare materiali pre-esistenti. Il digitale infatti consente il
remix della cultura, consente di rimescolare in maniera innovativa elementi pre-
esistenti, campionare in modo nuovo e impensato, e rielaborare opere.
Gli utenti oggi possono creare e distribuire autonomamente le proprie opere
senza intermediazione, sono diventati prosumer261, cioè allo stesso tempo produttori e
consumatori di contenuti.
Come abbiamo visto, il modello di copyright tradizionale è stato messo in
discussione in ambito informatico, fino ad arrivare a trovare un modello alternativo di
gestione dei diritti d’autore come il copyleft, realizzato attraverso l’applicazione di
innovative licenze d’uso. Questo modello di licenze si è poi esteso ad altri tipi di opere
dell’ingegno: infatti fra la fine degli anni Novanta e l’inizio del nuovo millennio sono stati
attivati alcuni progetti che hanno proposto licenze appositamente pensate per le opere
creative in generale. È in questo nuovo contesto che si inserisce il progetto Creative
Commons.

260
Aigrain P., Causa Comune, Stampa Alternativa-Nuovi Equilibri, 2007, p.84.
261
Questo termine è stato introdotto negli anni Ottanta da A. Toffler, ma il concetto era già stato
elaborato da M. McLuhan e B. Nevitt nel 1972.
119
Creative Commons è un ente no profit statunitense fondata nel 2001 da un
gruppo multidisciplinare composto da giuristi, tecnologi e attivisti volontari della
Stanford University della California e capitanati da Lawrence Lessing262, e ha come scopo
quello di estendere il modello copyleft anche a tutti gli altri campi della creatività. Di
fronte alla percezione di una eccessiva e pericolosa estensione dell’ampiezza e della
durata del copyright nei confronti delle opere espresse in forma digitale, Creative
Commons propone come soluzione la redazione e diffusione delle licenze CCPL, curando
inoltre tutta una serie di servizi integrati, utili alla corretta applicazione e alla diffusione
di queste licenze263.
Una delle caratteristiche principali delle CCPL è data dalla loro modularità e
componibilità. Ferma in ogni caso l’autorizzazione per l’utente a riprodurre, comunicare
al pubblico, rappresentare, recitare, esporre in pubblico l’opera concessa in licenza,
l’autore ha la possibilità di disciplinare tale autorizzazione attivando o meno le quattro
opzioni di licenza.
Il progetto Creative Commons oggi è molto articolato e si è diffuso in circa
cinquanta Paesi. Obiettivo principale del progetto è promuovere un dibattito a livello
globale sui nuovi modelli di gestione del diritto d’autore e diffondere strumenti giuridici
e tecnologici che permettano l’affermazione di un modello “alcuni diritti riservati” nella
distribuzione di prodotti culturali.
I promotori e sostenitori del progetto pensarono fin da subito di organizzarsi in
ente non-profit -la Creative Commons Corporation- a cui ricondurre le attività divulgative
legate al progetto e per poter anche raccogliere fondi.
I progetti di localizzazione a livello internazionale delle licenze e degli altri
strumenti rientranti nel progetto Creative Commons vengono monitorati solitamente da
gruppi di lavoro informali che fanno capo direttamente ai coordinatori di Creative
Commons Corporation e si appoggiano a istituti universitari e centri di ricerca che
prendono la denominazione di Affiliate Insitutions. La filosofia del progetto Creative
Commons si pone in una posizione intermedia fra il modello “tutti i diritti riservati”

262
Lawrence Lessig è professore di legge alla Stanford Law School e fondatore dello Stanford
Center for Internet and Society) e di Creative Commons.
263
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze Creative Commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-giugno 2008, pp. 134-135.
120
tipico del copyright tradizionale e il modello “nessun diritto riservato” tipico del pubblico
dominio integrale264.
L’economista Garret Hardin nel 1968 pubblicò un interessante articolo intitolato
The tragedy of the commons (cioè “La tragedia dei beni comuni”), nel quale esponeva la
sua interpretazione sui beni comuni265, sostenendo che essi sono destinati sempre a un
triste destino. Al contrario Lessig266 sostiene che, nel caso di beni come i prodotti della
creatività e dell’ingegno umano, questo problema non sussiste poiché ogni creazione
aumenta il suo valore sociale quante più sono le persone che ne possono beneficiare;
inoltre queste sono risorse che non sono soggette a deperimento né a scarsità, poiché la
creatività umana non ha limiti. Dunque si può parlare di una comedy of the commons,
dove i beni comuni in questione sono beni comuni creativi, appunto dei Creative
Commons.
Creative Commons non è un alternativa agli enti di gestione dei diritti d’autore
come la SIAE per quanto riguarda l’ordinamento italiano. Creative Commons si muove in
un piano diverso rispetto alla SIAE, lasciando al creatore di un’opera la possibilità di
scegliere quali utilizzi liberi rilasciare della propria opera e sotto quali condizioni,
garantendo le libertà sia agli autori titolari dei diritti che agli utenti. Inoltre non offre
consulenza legale, perché come si legge sul sito ufficiale Creative Commons267 «non
siamo uno studio legale. Offriamo esclusivamente della documentazione e degli
strumenti gratuiti che permettono agli autori di valutare, scegliere e applicare
autonomamente una licenza ad una propria opera. Non siamo in grado di offrire servizi
personalizzati e, in ogni caso, l’offerta di tali servizi non rientra nella nostra missione».

2.2 Creative Commons Italia e la nascita di NEXA


Ai fondatori del progetto Creative Commons è stato chiaro fin dall’inizio che la
stretta aderenza delle prime licenze Creative Commons all’ordinamento giuridico
statunitense costituiva un limite alla massima diffusione ed adozione delle CCPL su scala
globale. Per questo nell’aprile del 2003 ha lanciato un progetto specifico, Creative
Commons International, con l’obiettivo di tradurre e adattare il testo delle licenze ad

264
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, Stampa Alternativa, 2008, pp. 19-20.
265
Hardin definisce beni comuni «quelli che sono proprietà di nessuno, ma di cui tutti possono
beneficiare».
266
Lessing, The future of ideas, op.cit., pp. 33-36.
267
http://www.creativecommons.it
121
altri ordinamenti giuridici. Tale progetto di adattamento non poteva, per ovvi motivi,
avere forma centralizzata: sin dal principio Creative Commons si è avvalsa dell’aiuto e
della collaborazione, su base gratuita e volontaria, di organizzazioni e persone in
possesso delle conoscenze e dell’esperienza necessarie allo scopo. Ad oggi le CCPL sono
state adattate in 44 ordinamenti giuridici, e presto lo saranno in altre 9 giurisdizioni,
mentre in altri 9 stati hanno avuto luogo contatti preliminari con potenziali gruppi di
lavoro nazionali.
Ogni nuova versione delle CCPL è prima introdotta dalla casa madre statunitense
ed è poi adottata dai gruppi di lavoro nazionali. L’introduzione della versione 3.0 è stata
preceduta da un dibattito pubblico in cui si è esplicitamente richiesta e raccolta
l’opinione di singoli e di membri di altri progetti268.
Tutti i progetti nazionali Creative Commons si articolano in due sezioni: una è
rivolta agli aspetti giuridici relativi alla traduzione, all’adattamento e alla esplicazione
delle licenze, mentre l’altra sezione è rivolta agli aspetti tecnico-informatici relativi all’
attivazione di soluzioni tecnologiche che sfruttino le risorse rilasciate sotto CCPL. Il
progetto si occupa anche della sensibilizzazione e promozione della filosofia di Creative
Commons, organizzando eventi, gestendo liste di discussione e forum on line e
realizzando materiale divulgativo.
Ovviamente, per garantire che le licenze siano compatibili con i diversi
ordinamenti giuridici, Creative Commons ha cercato di effettuare sin dall’inizio un’opera
di localizzazione delle licenze delegata alle varie Affiliate Institutions e monitorata
dall’ente centrale statunitense. In tal modo, le licenze CCPL dei vari paesi non sono delle
mere traduzioni delle licenze originarie, ma dei documenti sostanzialmente
indipendenti, ispirati e adattati al diritto d’autore dei vari Stati.
In Italia tale compito è stato svolto da un gruppo di giuristi capitanati dal prof.
Marco Ricolfi del Dipartimento di Scienze Giuridiche dell’Università di Torino.
Il progetto Creative Commons Italia fa capo a due Affiliate Institutions: il
Dipartimento di Studi Giuridici dell’Università di Torino per quanto riguarda gli aspetti
legali e l’IEIIT-CNR (Istituto di Elettronica e di Ingegneria dell’Informazione e delle
Telecomunicazioni) di Torino per quanto riguarda gli aspetti tecnico-informatici269. Il

268
Glorioso-Mazziotti, op. cit. pp. 137-138.
269
Come si legge in Glorioso e Mazziotti (op. cit.) l’IEIIT-CNR ha prestato opera di consulenza e
assistenza sugli aspetti informatici delle CCPL, soprattutto per quanto riguarda la possibilità di
122
Project Lead è stato fino al gennaio 2005 il Prof. Marco Ricolfi e successivamente il ruolo
di coordinatore è passato al Prof. Juan Carlos De Martin270 del Dipartimento di
Automatica e Informatica, che si occupa di guidare le attività sia a livello di ricerca
tecnologica che di promozione e diffusione.
Nel 2003 il Prof. Ricolfi e il Prof. De Martin insieme al gruppo di lavoro di
volontari che hanno contribuito alla stesura delle CCPL, hanno iniziato a lavorare al
porting271 delle licenze cercando il più possibile di non stravolgere il testo delle licenze
originali, compiendo interventi di adattamento solo dove fosse strettamente necessario
per preservare il senso e gli effetti delle varie clausole. Il lavoro si è protratto fra il
novembre 2003 (inaugurazione del progetto italiano Creative Commons) e il dicembre
2004, quando a Torino sono state presentate ufficialmente le licenze italiane272.
Sempre nel 2004 sono state fatte due giornate di studio alla Fondazione Agnelli
su CyberLaw -quindi Internet, tecnologia e legge-, nel 2005 è stato ospitato l’Internet
Law Program di Harvard del Berkman Center e man mano sono state create diverse
iniziative che han fatto sì che Creative Commons Italia continuasse la collaborazione con
Harvard. Per questo motivo, per rendere sostenibili certe attività è stato necessario dare
vita a qualcosa di più strutturale e alla fine del 2006 è stato creato NEXA, un centro di
ricerca multidisciplinare accademico su Internet e società, legato al Politecnico di Torino.
All’interno di NEXA adesso ruotano il progetto Creative Commons Italia, il progetto
SeLiLi e il progetto europeo COMMUNIA273.
È nata così la serie di incontri “I mercoledi di NEXA”, un incontro pubblico che si
svolge il secondo mercoledì di ogni mese, dove il gruppo di lavoro NEXA composto da
ricercatori, docenti e attivisti incontra chiunque sia interessato a parlare di Internet e dei

identificare in modo automatico le condizioni d’uso delle licenze, grazie all’utilizzo dei metadati
inseriti all’interno della rappresentazione digitale di un’opera.
270
Il Prof. J.C. De Martin è responsabile italiano di Creative Commons e co-direttore del centro
NEXA su Internet & Società del Politecnico di Torino.
271
Nel concetto di porting delle licenze si racchiude non solo la traduzione delle licenze nelle
varie lingue, ma anche l’adattamento ai diversi ordinamenti giuridici.
272
Ad oggi la versione delle CCPL disponibile per l’ordinamento giuridico italiano è la 2.5.
273
Il progetto COMMUNIA è un progetto finanziato dall’Unione Europea che durerà fino ad
agosto 2010. Si tratta di una rete di 41 membri che ha ricevuto dalla Commissione Europea il
mandato di studiare il ruolo del Pubblico Dominio in senso lato, quindi le opere rilasciate sotto
Creative Commons, il pubblico dominio in senso scientifico educativo, e le opere orfane. La
Commissione Europea chiede a questa rete di suggerire alla cambiamenti di policies che
favoriscano il pubblico dominio in Europa, quindi la proposta di direttive a modifiche di norme o
regolamenti. L’ambizione di questa rete è di provare a dare voce al pubblico dominio che è
importante per motivi economici, sociali, culturali, politici, educativi.
123
diversi aspetti che ruotano intorno ad esso. Questi incontri hanno l’obiettivo di rendere
più trasparente il lavoro del centro NEXA e di attrarre persone nuove che vogliano
collaborare.
È importante inoltre sottolineare come i due versanti SIAE e Creative Commons
si stiano incontrando: infatti il 23 dicembre 2008 è stata ufficializzata la costituzione del
Gruppo di Lavoro Giuridico misto, composto da rappresentanti della SIAE e da esponenti
del gruppo di lavoro Creative Commons Italia. Il Gruppo di Lavoro Giuridico misto,
svolgerà uno studio approfondito per dare la possibilità agli autori che hanno optato per
il rilascio delle proprie opere con licenze libere, riservandosi gli usi commerciali, di
affidare alla SIAE la raccolta e distribuzione dei relativi profitti274.

2.3 Le licenze d’uso Creative Commons


La licenza d’uso è uno strumento giuridico con il quale il detentore dei diritti
sull’opera regola l’utilizzo e la distribuzione della stessa e si occupa di chiarire ai fruitori
dell’opera cosa possono fare e cosa non possono fare con essa.
La licenza non è una forma di tutela dell’opera: sono i principi di diritto d’autore
a tutelare l’opera, mentre la funzione di una licenza di libera distribuzione è quella di
autorizzare utilizzi dell’opera che non sarebbero normalmente consentiti nel modello di
copyright tradizionale. Per questo motivo l’applicazione di una licenza d’uso non ha nulla
a che fare con l’acquisizione dei diritti su di essa, ma attiene a una fase successiva275.
Le licenze Creative Commons (CCPL) sono delle licenze di diritto d’autore messe
a disposizione di chiunque desideri condividere in maniera ampia le proprie opere
secondo il modello “alcuni diritti riservati”. La principale caratteristica delle CCPL
consiste nel fatto che il licenziante concede gratuitamente al licenziatario, per tutta la
durata del diritto d’autore applicabile, l’autorizzazione a compiere, nel rispetto di
condizioni variabili a seconda della specifica CCPL usata, alcuni degli atti che le norme sul
diritto d’autore riservano al titolare dei diritti, tra cui la riproduzione, la distribuzione, la
comunicazione al pubblico e la messa a disposizione e, in alcuni casi, l’uso dell’opera
licenziata come base di partenza per creare altre opere di ingegno276.

274
Fonte http://www.creativecommons.it
275
Definizione tratta da Aliprandi, S., Creative Commons: manuale operativo. Guida all’uso delle
licenze e degli altri strumenti CC, Stampa Alternativa, 2008, p. 27.
276
Glorioso-Mazziotti, op. cit., p. 134.
124
Ogni licenza richiede che chiunque utilizzi l’opera277:

- ottenga il permesso dell’autore per fare una qualsiasi delle cose che ha scelto di
limitare, come ad esempio gli usi commerciali o la creazione di opere derivate;
- mantenga l’indicazione di diritto d’autore intatta su tutte le copie dell’opera, in modo
tale che sia sempre chiaramente individuabile chi è il titolare dei diritti e qual è il tipo di
licenza da lui scelto;
- faccia un link alla licenza dalle copie dell’opera;
- non alteri i termini della licenza, violando così i diritti dell’autore;
- non usi mezzi tecnologici per impedire ad altri di esercitare uno qualsiasi degli usi
consentiti dalla legge: le CCPL infatti non consentono l’applicazione dei sistemi di digital
rights management (DRM).

Ogni licenza permette che gli utilizzatori, a patto che rispettino le condizioni
d’utilizzo rilasciate dall’autore, facciano copie dell’opera, distribuiscano, comunichino al
pubblico, rappresentino, eseguano, recitino o espongano l’opera in pubblico e cambino
il formato dell’opera.
Le licenze Creative Commons si strutturano in due parti278:

1. La prima parte in cui si indicano le libertà che l’autore vuole concedere sulla sua
opera.
2. La seconda parte che chiarisce a quali condizioni è possibile utilizzare l’opera.

Per quanto riguarda la prima parte, cioè le libertà concesse, possiamo dire che
tutte le licenze Creative Commons permettono la copia e la distribuzione dell’opera.
Solo alcune delle CCPL invece, consentono anche la modifica dell’opera.
Per quanto riguarda la seconda parte invece, dove si indicano le condizioni per
l’utilizzo dell’opera, essa è articolata in quattro clausole base che l’autore può
combinare per ottenere la licenza che meglio soddisfi le sue esigenze. Queste sono:

1. La clausola BY- Attribuzione che indica che ogni volta che


utilizziamo un’opera dobbiamo segnalare in modo chiaro chi è l’autore originario.

277
Fonte http://www.creativecommons.it/Licenze/Spiegazione
278
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, p.35.
125
Questa clausola è presente di default in tutte le licenze Creative Commons a partire dalla
versione statunitense 2.0, dopo che è stato constatato che la maggior parte degli
utilizzatori delle CCPL non sembrava voler rinunciare alla prerogativa di essere
riconosciuti come autori dell’opera licenziata. Il problema non si è posto nel corso
dell’adattamento delle licenze all’ordinamento italiano, essendo il diritto alla paternità
un diritto morale irrinunciabile279.

2. La clausola Non commerciale afferma che l’opera licenziata non


può essere utilizzata per scopi commerciali. Per farne tali usi è necessario chiedere uno
specifico permesso all’autore originario.

3. La clausola Non opere derivate indica che non possiamo alterare,


trasformare o sviluppare un’opera, cioè non possiamo creare opere derivate da essa,
quindi «opere basate sull’Opera ovvero sul’Opera insieme con altre opere preesistenti,
come una traduzione, un arrangiamento musicale, un adattamento teatrale, narrativo,
cinematografico, una registrazione di suoni, una riproduzione d’arte, un digesto, una
sintesi o ogni altra forma in cui l’Opera possa essere riproposta, trasformata o
280
adattata» .

4. La clausola Share Alike-Condividi allo stesso modo indica che, se si


modifica o si trasforma un’opera, l’opera risultante deve essere distribuita solo per
mezzo di una licenza identica a quella rilasciata dall’autore. Questa clausola, in realtà
tipica del software libero, è definita clausola di persistenza poiché garantisce che le
libertà concesse dall’autore di un’opera si mantengano anche su opere derivate da essa.
Dalla combinazione di queste quattro clausole vengono fuori le sei CCPL, in un
ordine dalla più permissiva a quella più restrittiva281:

1. Attribution

2. Attribution-Share Alike

279
Glorioso-Mazziotti, op.cit., pp. 135-136.
280
Ibidem.
281
Aliprandi, Teoria e pratica del copyleft guida all’uso delle licenze open content, p.55.
126
3 Attribution-No Derivative Works

4. Attribution-Non Commercial

5. Attribution-Non Commercial-Share Alike

6. Attribution-Non Commercial-No Derivative Works

È evidente che la licenza Share Alike è incompatibile con la No Derivative Works


infatti quest’ultima nega a priori la possibilità di modifica, mentre la Share Alike implica
necessariamente la possibilità di modifica.
Le CCPL si manifestano in tre forme differenti, ma giuridicamente la sostanza è
sempre la stessa poiché fanno riferimento allo stesso documento282. La licenza rilevante
a livello giuridico, è il Legal code, un documento redatto in linguaggio strettamente
giuridico, in cui si disciplina la distribuzione dell’opera e l’applicazione della licenza. Ci si
è però resi conto che l’utente medio delle licenze non è portato a leggere e
comprendere un documento di questo tipo per disinteresse o perché non dispone degli
strumenti culturali adeguati, dato che non tutti hanno alle spalle una cultura giuridica
specialistica. Il rischio dunque è che le licenze vengano usate con scarsa consapevolezza
o che prevalga una certa diffidenza e che quindi autori decidano di non avvicinarsi a
questi strumenti. Si è pensato perciò di realizzare delle versioni sintetiche di tali licenze,
scritte in un linguaggio più accessibile e strutturate in modo chiaro e sintetico: il
Commons deed. È importante però ricordare che «il Commons Deed non è una licenza
ma un riferimento che riassume in poche righe il senso della licenza».
Infine, la terza forma che assume la licenza è il Digital code, una serie di
metadati283 che rendono la licenza facilmente rintracciabile dai motori di ricerca. Gli
sviluppatori di Creative Commons hanno infatti ideato un sistema con cui è possibile

282
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, p. 31
283
I metadati sono delle informazioni aggiuntive nascoste che si possono allegare ai file digitali,
visualizzabili solo grazie ad alcuni procedimenti informatici.
127
incorporare le licenze all’interno del file in modo indissolubile e riconoscibile ai principali
motori di ricerca, che hanno sviluppato degli appositi strumenti di rilevazione284.
Oltre alle sei licenze generiche, Creative Commons ha predisposto altre due
licenze specifiche per le opere musicali, pensate per coloro che vogliono consentire un
particolare utilizzo della propria opera, cioè quello del sampling. Per sampling si intende
l’estrazione di piccoli campioni di un’opera e la loro duplicazione e messa in sequenza
per la realizzazione di un’altra opera. L’applicazione più classica è quella in campo
musicale, con l’estrazione di piccole parti sonore di opere pre-esistenti da cui realizzare
basi musicali per nuovi brani.
Queste licenze sono la Sampling Plus e la Sampling Plus Non Commercial, che
permettono agli utenti di copiare e trasformare parti di un’opera per qualsiasi scopo che
non sia la pubblicità e proibiscono la copia e la distribuzione dell’intera opera. Inoltre ha
predisposto una ulteriore licenza, la Share Music, rivolta ai musicisti che vogliono
diffondere legalmente la propria musica tramite il Web e le reti di filesharing,
consentendo ai fan di scaricarla e condividerla, ma proteggendola da utilizzi per scopi
commerciali e dal remix di ogni genere.

2.4 Creative Commons: progetti e strumenti


Come abbiamo detto, Creative Commons oltre a occuparsi delle licenze, cura
tutta una serie di progetti e strumenti volti a una maggiore diffusione delle licenze.
Alla fine del 2007 Creative Commons ha lanciato due nuovi strumenti che
svolgono due funzioni ben distinte e con cui i licenziatari possono comunicare
informazioni aggiuntive oltre a quelle già normalmente previste dal procedimento di
applicazione delle licenze285. Il primo è CC Plus «un protocollo che permette ad un
licenziante, in maniera semplice e immediata, di indicare quali ulteriori permessi sono
eventualmente associati ad un’opera licenziata sotto Creative Commons e in che modo
usufruire di tali permessi». In sostanza, CC Plus è un sistema integrato di metadati che
aggiunge ulteriori permessi rispetto a quelli già concessi dalla licenza, specificandone le
condizioni. Il secondo progetto è invece CC Zero, un protocollo ancora in fase non
definitiva, che si pone come un’evoluzione della pre-esistente Creative Commons Public

284
Motori di ricerca come Google e Yahoo, hanno esteso nella Ricerca Avanzata la possibilità di
ricerca di contenuti liberi.
285
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, pp. 40-41.
128
Domain Dedication con la quale gli autori potevano volontariamente rilasciare un’opera
in regime di pubblico dominio.
Oltre a ciò Creative Commons cura alcuni progetti come CcMixter, una
piattaforma di condivisione musicale che permette di scaricare, remixare e condividere
musica sotto licenza Creative Commons.
Inoltre Creative Commons sviluppa tutta una serie di tools che consentono di
integrare le CCPL all’interno di siti web e blog come CcHost o WpLicense, facilitando la
loro applicazione286.

2.5 La necessità di assicurarsi i diritti prima di licenziare: soluzioni progettuali


L’applicazione delle licenze d’uso ad un’opera realizza una sorta di autogestione
dei propri diritti, che prescinde dalla tradizionale rete di intermediari impegnati nella
gestione dei diritti d’autore. Questa è una prassi relativamente nuova e strettamente
connessa all’evoluzione che il mondo della comunicazione ha subito grazie all’avvento
delle tecnologie digitali e telematiche287.
In sostanza il singolo autore si trova a doversi far carico di tutta una serie di
valutazioni e decisioni che nel sistema tradizionale erano sempre state prese da
operatori specializzati, provvisti della necessaria competenza ed esperienza sul campo.
Per questo è fondamentale che questa fase sia gestita con consapevolezza e che l’autore
si informi adeguatamente con tutti gli strumenti che sono a sua disposizione prima di
rilasciare l’opera con la relativa licenza e che abbia ben chiari i termini della legge sul
diritto d’autore.
Attualmente le licenze Creative Commons non menzionano i diritti
connessi nell'elenco dei diritti licenziati. Questo significa che, prima di rilasciare
un’opera con licenza Creative Commons, occorre avere il consenso degli eventuali
titolari dei diritti connessi se presenti sull'opera288.
È fondamentale quindi assicurarsi di avere tutti i diritti per poter licenziare
un’opera sotto CCPL: questo soprattutto nel caso di opere derivate da opere pre-
esistenti già sotto copyright, oppure per opere create dalla collaborazione con altre

286
Tutti i progetti e le applicazioni sono consultabili sul sito ufficiale Creative Commons alla
pagina http://creativecommons.org/projects
287
Aliprandi, Creative Commons: manuale operativo. Guida all’uso delle licenze e degli altri
strumenti CC, p. 44.
288
Questa definizione è spiegata nelle FAQ presenti sul sito ufficiale Creative Commons Italia,
disponibili in rete all’indirizzo http://www.creativecommons.it/node/607#10
129
persone, è necessario assicurarsi di avere un esplicito permesso di applicare una licenza
Creative Commons all’opera finale. È necessario quindi far sì che l’autore, che spesso
non ha nozioni giuridiche di base, si ponga dall’inizio il problema di acquisire la
disponibilità di tutti i diritti necessari alla concessione della licenza, sotto CCPL,
dell’opera289.
Secondo Glorioso e Mazziotti290 per far sì che il licenziante verifichi da subito la
propria disponibilità di tutti i diritti necessari alla concessione in licenza di una specifica
opera, si possono ipotizzare due strategie. La prima strategia consiste nella realizzazione
di linee guida291 che dovrebbero evidenziare con chiarezza la necessità per il licenziante
di assicurarsi l’autorizzazione a compiere atti che rientrano nell’oggetto di tutti i diritti
insistenti sull’opera licenziata, inclusi quelli connessi. Inoltre attraverso l’utilizzo del
meccanismo guidato via web, anche se è solo opzionale al fine dell’utilizzo di una licenza
CC, si potrebbe pubblicare una nota esplicativa che avverta l’utente della necessità di
verificare la disponibilità di tutti i diritti necessari alla concessione in licenza di un’opera,
che dovrebbe essere redatta con molta cura per evitare che un eccessivo allarmismo sui
rischi che la pubblicazione di un’opera comporta, scoraggi la diffusione di opere
d’ingegno. Il rischio delle linee guida è che siano interpretate dai potenziali fruitori delle
CCPL come strumenti interpretativi più affidabili e significativi di quanto non vogliano
essere o come veri e propri pareri legali che in realtà non sono, e non come consigli292.
La seconda strategia si potrebbe realizzare inserendo all’interno del testo di
ciascuna CCPL, una esplicita dichiarazione di responsabilità del licenziante relativa alla
disponibilità di tutti i diritti licenziati. Questa aggiunta cambierebbe la definizione stessa
di licenziante, che diventerebbe “l’individuo o l’ente che, verificata sotto la propria
responsabilità la piena disponibilità di tutti i diritti qui licenziati, offre l’opera secondo i
termini e le condizioni della presente licenza”293.
Questo potrebbe essere realizzabile a livello progettuale ripensando e
ridefinendo il concetto di authoring in rete, valorizzato dall’utilizzo delle CCPL: per far sì
289
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze Creative Commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-giugno 2008, p.144.
290
Ivi, pp. 150-155.
291
Le cosiddette FAQ, cioè elenchi di domande e risposte poste più frequentemente dagli utenti,
sono disponibili da dicembre 2008 sul sito italiano Creative Commons.
292
Glorioso-Mazziotti, op.cit., pp.151-152.
293
Al riguardo si veda la pubblicazione di Mazziotti e Glorioso, op. cit., p. 152.
130
che gli utenti siano più sensibilizzati ad un utilizzo più consapevole delle CCPL, si
potrebbe rendere questo meccanismo educativo non troppo formale, in modo che
venga letto come un consiglio che viene dato al potenziale utente, senza entrare nei
dettagli strettamente giuridici. Al riguardo si esprime anche J.C. De Martin294
confermando come questa fase educativa non debba essere troppo tecnica e troppo
pesante per evitare un rifiuto da parte del potenziale utente ma viceversa non può
neanche essere ignorato perché si rischia che gli utenti, magari anche in buona fede,
violino un diritto di altri ed è necessario perciò trovare un giusto bilanciamento tra i due.
Questa sorta di educazione dei potenziali utenti delle CCPL al diritto d’autore in
rete potrebbe essere attuata attraverso un tutorial da integrare nelle piattaforme che si
occupano di creazione collaborativa e condivisione di contenuti, che permetta agli autori
di scegliere da subito in che modo preferisce che la propria opera venga distribuita,
scegliendo tra il copyright tradizionale, quindi riservandosi tutti i diritti, o decidendo di
applicare il modello alcuni diritti riservati, tipico delle licenze copyleft e, nello specifico,
delle CCPL. Questa scelta da parte dell’utente-autore dovrebbe essere resa più
consapevole, spiegando in maniera chiara e rapida ciò che comporta la scelta di un
modello rispetto all’altro. Una volta scelto il modello di gestione dei diritti più adatto a
soddisfare le proprie esigenze, in questo caso prendiamo l’esempio che scelga il modello
copyleft, l’utente-autore dovrebbe essere consigliato, attraverso un opportuno
avvertimento, su quali siano i diritti di cui deve verificare la disponibilità, prima di
applicare una CCPL al proprio lavoro. Questo meccanismo sarebbe realizzabile con degli
advices che comunichino in modo informale quali sono questi diritti, aiutando l’utente a
non cadere inconsapevolmente nella violazione dei diritti di terzi.

2.6 L’applicazione delle CCPL ad un’opera


L’autore di un’opera creativa che voglia rilasciare il proprio lavoro sotto licenza
Creative Commons, può farlo senza dover ricorrere a particolari forme di registrazione.
Infatti Creative Commons mette liberamente a disposizione degli autori le licenze e gli
altri strumenti per garantirne un corretto utilizzo.
Poiché il modello di copyright che viene applicato di default a tutte le opere
dell’ingegno è quello tradizionale tutti i diritti riservati, se vogliamo applicare un modello
alternativo di gestione dei diritti alcuni diritti riservati come le CCPL è necessario

294
Intervista al Prof. De Martin del 10 dicembre 2008.
131
segnalarlo esplicitamente. Per applicare una CCPL alla propria opera digitale basta
utilizzare un’avvertenza in cui si indica chi è il titolare dell’opera e quali utilizzi liberi ha
concesso per la sua opera. Questo si può fare attraverso il sito ufficiale di Creative
Commons295 dove sono disponibili informazioni specifiche e dettagliate per
l’applicazione delle licenze, tra cui un semplice procedimento guidato che pone al
potenziale utente alcune domande per capire quale delle sei licenze è più adatta alle sue
esigenze296.
Le CCPL si inseriscono nella disciplina del diritto d’autore rendendola più human
readeble e machine readeble per i motori di ricerca. Infatti una volta che l’opera è
pubblicata sotto CCPL, viene identificata da una serie di metadati che consentono ai
motori di ricerca di ritrovarla rapidamente attraverso parole chiave297.
Il Web “2.0” ha fatto nascere diverse piattaforme che offrono la possibilità
all’utente di creare contenuti, pubblicarli e licenziare il proprio lavoro sotto CCPL,
cercando di semplificarne l’applicazione con un meccanismo intuitivo e rapido per poter
scegliere le licenze. Una volta effettuato l’upload e il licensing, i file inseriti in questi
saranno contraddistinti dal disclaimer che richiama alla licenza scelta.
Tra questi, siti come Internet Archive, Jamendo.com e Flickr.com offrono servizi
che permettono di applicare una CCPL attraverso meccanismi guidati in upload.
Jamendo.com, ad esempio, permette l’upload solo di opere rilasciate sotto CCPL, ma i
lavori possono essere creati solo offline, mentre Flickr.com permette l’eventuale scelta
delle licenze solo dopo che il contenuto è già stato pubblicato in rete, facendo
inizialmente cadere di default l’opera in regime di copyright.
È importante sottolineare che le licenze Creative Commons possono essere
applicate anche a lavori offline attraverso l’installazione di appositi plugin messi a
disposizione dai produttori di software. Infatti ad esempio, come ci ha spiegato il Prof.
J.C. De Martin298, Office ha realizzato un plugin per aggiungere Creative Commons alla
barra dei menù dei programmi di elaborazione testi, presentazioni multimediali e fogli di

295
Si veda il sito http://www.creativecommons.it
296
Aliprandi, Creative Commons: Manuale Operativo, p. 55.
297
All’indirizzo http://search.creativecommons.org si trova il motore di ricerca realizzato da
Creative Commons per la ricerca di opere rilasciate sotto CCPL.
298
Intervista al Prof. J.C. De Martin del 10 dicembre 2008 presso il centro NEXA.
132
calcolo, che può essere scaricato e installato nel proprio pacchetto Office299. Il plugin
permette all’utente di scegliere e aggiungere automaticamente una delle sei licenze
Creative Commons nella pagine del documento che l’utente sta creando, segnalando
così a coloro che prenderanno visione dei documenti che questi sono rilasciati sotto
licenza Creative Commons.
Le CCPL quindi favoriscono la nascita di nuovi progetti creativi basati sul riutilizzo
del materiale creativo di terzi, contribuendo così alla diffusione della cultura. Ci troviamo
così di fronte a una nuova era, quella che Lessing definisce Remixing Culture300: i
contenuti si creano online e collettivamente, gli utenti collaborano per migliorare i
propri lavori. Questo potrebbe diventare il nuovo modo di essere delle giovani
generazioni che utilizzano il web per la creazione e condivisione di contenuti, e che forse
in futuro saranno in grado di creare grandi opere con gli strumenti a loro disposizione,
ma nel rispetto dei diritti degli altri autori e di quelli degli utenti attraverso un utilizzo
più consapevole del web e delle licenze.

299
Il plugin che permette di aggiungere in Office 2003, XP e 2007 un pulsante per la scelta delle
licenze Creative Commons è scaricabile in rete sul sito ufficiale di Microsoft all’indirizzo
http://www.microsoft.com/downloads/details.aspx?FamilyId=113B53DD-1CC0-4FBE-9E1D-
B91D07C76504&displaylang=en. Una soluzione di questo tipo è stata adottata anche per chi
utilizza Open Office. Si può seguire il procedimento guidato per l’applicazione del plugin di Open
Office direttamente sul sito ufficiale Creative Commons, disponibile in rete alla pagina
http://wiki.creativecommons.org/OpenOfficeOrg_Addin
300
Lessing, L., Remix: Making Art and Commerce Thrive in the Hybrid Economy, The Penguin
Press, United States of America, 2008.

133
CAPITOLO 3
L’Interaction Design e l’approccio metodologico User-Centered

134
CAPITOLO 3
L’Interaction Design e l’approccio metodologico User-Centered

3.1 Human Computer Interaction


L’interaction Design è definita come l’attività di progettazione dell’interazione
tra esseri umani e artefatti tecnologici e si colloca nell’ambito di ricerca dell’interazione
uomo-macchina (Human-Computer Interaction - HCI).
L’HCI è lo studio dell’interazione tra le persone e le macchine per la
progettazione e sviluppo di sistemi interattivi che siano usabili, affidabili e che
supportino e facilitino l’attività umana. Lo studio dell’HCI si estende da oggetti quali il
personal computer, i palmari e i cellulari, fino ad arrivare a strumenti digitali più
semplici, quali orologi, elettrodomestici, o le tecnologie legate ad internet, o applicazioni
tecnologiche complesse quali la strumentazione di una cabina di pilotaggio, il pannello di
controllo di un’industria chimica.
Non esiste una definizione comunemente riconosciuta di HCI, ma la definizione
storica è quella che la vede come una descrizione delle dinamiche sociali e tecnologiche
con cui la disciplina si è trovata a confrontarsi nella sua vita301. La storia dell’HCI procede
in parallelo alla presenza sempre più pervasiva dei calcolatori nell’attività umana.
L’Association for Computing Machinery (ACM) definisce la Human-Computer Interaction
come una disciplina che si occupa della progettazione, della valutazione e
dell’implementazione di calcolatori interattivi per l’uso da parte dell’uomo e dello studio
dei principali fenomeni che li circondano.
Nell’HCI convergono molteplici discipline accomunate dall’interesse per lo studio
dei sistemi interattivi digitali, ponendo la disciplina all’incrocio tra diversi confini
disciplinari. Tra le discipline che partecipano a vario titolo all’HCI si possono
comprendere la computer graphics, la psicologia cognitiva, l’ingegneria del software, il
design, gli studi economici e di gestione di processi economici.
Questa natura multidisciplinare deriva in realtà dall’ergonomia, sia indirizzata
agli aspetti fisici che a quelli cognitivi. Secondo la definizione dell’International
Ergonomics Association (IEA), l’Ergonomia (o Fattori umani) è la scienza volta alla

301
S. Bagnara , S. Pozzi, Fondamenti, Storia e Tendenze dell'HCI, in Soro, A., (a cura di), Human
Computer Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher,
Monza, 2008, pp. 17-18.

135
comprensione delle interazioni tra i soggetti umani e le altre componenti di un sistema,
e la professione che applica teorie, principi, dati e metodi per progettare con la finalità
di accrescere il benessere dei soggetti umani e le prestazioni complessive del sistema.
Gli ergonomi contribuiscono alla progettazione e alla valutazione di compiti,
funzioni, prodotti, ambienti e sistemi in modo da renderli compatibili alle esigenze, alle
capacità e ai limiti delle persone. La disciplina non ha l’obiettivo di studiare i singoli
elementi presi separatamente, ma l’interazione tra gli elementi di un sistema inclusi gli
esseri umani. Tale studio si alimenta naturalmente di conoscenze specialistiche sui vari
elementi come l’ingegneria delle parti software e hardware e la psicologia degli esseri
umani.
Ciò che distingue l’HCI dall’ergonomia in generale è una diversa enfasi sui vari
aspetti dell’interazione uomo-sistema. L’ergonomia tradizionale si è infatti indirizzata
principalmente sugli aspetti fisici, quali la compatibilità tra caratteristiche fisiche umane
e caratteristiche della macchina, mettendo in luce anche situazioni di assoluta
incompatibilità fisica, come quella dell’uomo costretto a muoversi per lavorare in spazi
impossibili e a compiere dei movimenti innaturali per interagire con la macchina302.
Con lo sviluppo del cognitivismo e la nascita dei primi calcolatori, l’enfasi degli
studi ergonomici passa dalle caratteristiche fisiche della macchina, agli elementi di
interfaccia, che consentono all’uomo di operare un adeguato controllo del sistema. La
parte fisica dell’interazione uomo-macchina passa in secondo piano, mentre diventano
più importanti gli aspetti di controllo e presa di decisioni, ovvero la compatibilità tra la
macchina, il sistema cognitivo umano e gli aspetti socio-culturali. L’interfaccia diventa
sempre più complessa e di dimensioni sempre più predominanti rispetto al motore della
macchina, a volte anche per la necessità di porre l’operatore a debita distanza dal
processo lavorativo.
L’evoluzione dei calcolatori e la loro presenza sempre più pervasiva negli
ambienti di lavoro hanno quindi portato alla nascita vera e propria dell’HCI, che sempre
di più diventa una disciplina indipendente più che una branca dell’ergonomia cognitiva.
Dal 1970 in poi assistiamo inoltre alla crescita della cosiddetta società della conoscenza,
caratterizzata da un’alta omogeneità tra ambiente di lavoro e di vita, da una continua e

302
S. Bagnara , S. Pozzi, op. cit., p. 19.
136
rapida trasformazione del lavoro, da una diffusa informatizzazione e presenza di
automazione nei luoghi del lavoro fisico303.
Trattandosi di una disciplina applicata all’interazione tra l’uomo e un artefatto
tecnologico, l’HCI ha progressivamente spostato la sua attenzione in parallelo al
progredire del computer. Di pari passo, la conoscenza dell’effettivo funzionamento della
macchina diventa sempre meno indispensabile per interagirvi, dal momento che
l’interfaccia si occupa di tradurre le azioni dell’utente in input per i circuiti del computer.
Si è passati così da utenti iperspecializzati come gli ingegneri elettronici o i
programmatori, ad un’utenza indistinta che utilizza il computer sul lavoro ma anche nel
tempo libero. Negli anni Novanta il computer diventa sempre più uno strumento
utilizzato primariamente per comunicare e l’HCI si trova a rendere conto di tutte le
interazioni sociali che da esso vengono mediate. L’HCI compie così in pochi decenni una
transizione che porta il suo campo di applicazione dall’interno del calcolatore verso lo
spazio sociale304.
L’ergonomia ha una visione del lavoro come fatica e il suo obiettivo è stato
perciò la riduzione della fatica del lavoro. Poiché nella società industriale il lavoro si
realizza con le macchine, il lavoro viene attribuito alla macchina, perché è
nell’interazione con questa che insorge la fatica. Nella visione tradizionale, infatti,
l’interazione uomo-macchina è vista come luogo di origine della patologia da lavoro.
Questa visione diventa meno totalizzante nell’ultimo periodo, quando l’HCI si trova a
dover affrontare ambiti di applicazione non solo lavorativi, ma anche di tempo libero e
svago. La disciplina deve quindi progressivamente operare un salto dal concetto di
bisogni a quello di desideri, progettando non più solo per correggere difetti
dell’interazione, ma per soddisfare o creare esperienze appaganti.
L’HCI non può più limitarsi a valutare l’interazione in termini funzionali di
efficacia, efficienza, sicurezza, e usabilità ma deve integrare anche dimensioni soggettive
relative all’esperienza d’uso305. Secondo De Angeli306 infatti la qualità dell’interazione si
basa su due concetti chiave: l’usabilità e l’esperienza utente, che richiedono diversi
approcci di valutazione.

303
S. Bagnara , S. Pozzi, op. cit., p. 20.
304
Ivi, p. 21.
305
Ivi, p. 24.
306
A. De Angeli, Misure di Qualità: Dall’Usabilità all’Esperienza dell’Utente, in Soro (a cura di), op.
cit., pp. 183-185.
137
Negli ultimi vent’anni la qualità interattiva dei sistemi è stata definita user
friendly o usabilità. Secondo la definizione di Nielsen l’usabilità è un aspetto
dell’accettabilità di un sistema, cioè la sua capacità di soddisfare i bisogni degli utenti.
Essa si basa su cinque attributi: la facilità di apprendimento, l’efficienza nell’utilizzo, la
facilità di ricordo, la sicurezza e robustezza all’errore e la soddisfazione soggettiva.
Gli standard ISO riassumono questa definizione di Nielsen espandendola al
contesto d’uso, definendo l’usabilità come l’efficacia, l’efficienza e la soddisfazione con
cui gli utenti raggiungono determinati obiettivi in un ambiente ben definito. Viene data
cioè grande importanza a tutti quegli attributi che possono influenzare la misurazione
dell’usabilità, quali le caratteristiche degli utenti, del compito e dell’ambiente che si sta
utilizzando nell’interazione.
I parametri dell’usabilità tradizionali definiscono la qualità interattiva di un
prodotto come l’assenza di problemi. Questo concetto viene però messo in discussione
dall’approccio User Experience (UX) cioè dall’esperienza utente, che descrive la reazione
psicologica dell’utente di fronte all’interazione con strumenti interattivi. Per l’UX la
qualità di un sistema interattivo è un valore aggiunto che un sistema offre agli utenti per
soddisfare bisogni fondamentali.
Per valutare l’esperienza utente ci si basa sulle reazioni soggettive all’interazione
quali il divertimento derivato dall’utilizzo del sistema, la piacevolezza estetica, la
motivazione, la gratificazione, l’emozione, l’identificazione sociale e l’autoaffermazione.
L’esperienza utente viene quindi considerata come la misura della qualità interattiva di
un sistema, basata dall’insieme di risposte comportamentali e psicologiche indotte
dall’interazione con i sistemi informatici.
Si può quindi affermare, come sostiene De Angeli307, che l’UX è un’estensione
del concetto di usabilità, a cui si aggiunge la gratificazione dell’utente derivata dalla
dimensione unica e personale dell’esperienza interattiva che è soggettiva, varia da
persona a persona, è influenzata dal contesto d’uso, dalle motivazioni, dalla cultura,
dalla personalità e dal prodotto interattivo.
Le tecnologie sono ancora in larga parte difficili da utilizzare e spesso generano
esperienze di frustrazione più che di appagamento. La conseguenza di questo problema
è una bassa alfabetizzazione digitale e l’HCI deve contribuire a rendere l’alfabetizzazione

307
Op. cit., p. 189.
138
digitale un compito più semplice. Una delle dinamiche più rilevanti nella storia dell’HCI è
stata sicuramente lo spostarsi degli sforzi di progettazione dalla parti interne del
computer all’interfaccia, fino ad arrivare allo spazio sociale. Le tecnologie servono
sempre di più per veicolare interazioni sociali, e non per gli scopi iniziali di potenza di
calcolo308.
Come affermano Bagnara e Pozzi309, nel 1996 si contavano circa 250.000 siti
web, quasi tutti read-only dove i contenuti erano pubblicati da autori ben determinati.
Dall’altro lato si avevano circa 45.000.000 di utenti, le cui attività tipiche erano la ricerca
e la navigazione. Nel 2006 i siti erano già diventati 80.000.000, ma la differenza più
rilevante risiede nel fatto che questi siti sono in gran parte read-write. Si stima che oggi
un terzo dei contenuti presenti in rete -pari a circa un miliardo- siano generati dagli
utenti che creano, condividono e arricchiscono materiali pre-esistenti.
La digitalizzazione permette quindi alle persone di partecipare alle tre categorie
di attività quali la pubblicazione, la distribuzione e il consumo che tendono a confondersi
l’un l’altra e possono essere svolte da uno stesso utente, dove prima la separazione dei
ruoli era netta. Questo spostamento dei ruoli è stato accompagnato nell’HCI da una
rifocalizzazione del significato di progettazione di prodotti e tecnologie usabili, centrate
sull’utente.
Infatti se prima l’usabilità di un sito web si giudicava dalla facilità di navigazione,
oggi una piattaforma Web centrata sull’utente deve supportare anche la creazione dei
contenuti generati dagli stessi utenti. I contenuti digitali sono rimodellabili e per loro
natura non si configurano mai come definitivi: infatti conservano la plasmabilità che
consente ad altri utenti di appropriarsene, apportarvi modifiche e rimetterli in rete. Un
sito usabile diventa quindi un sito che crea valore non perché l’utente riesca a trovare
l’informazione giusta, ma perché spinge gli utenti a contribuire alla creazione di un
contenuto comune. Più i contenuti sono malleabili da più persone, più è facile che
vengano utilizzati senza regole: i meccanismi più efficaci per controllare questo tipo di
degenerazioni sono ancora quelli collettivi310. Infatti come abbiamo visto, la maggior
parte delle piattaforme User Generated Content si affida spesso agli utenti per il
controllo del materiale che viene pubblicato, generando un meccanismo di

308
Ivi, p. 26.
309
Op. cit., pp. 33-34
310
Ibidem.
139
autocontrollo interno da parte della comunità stessa. Bisogna perciò capire se questo
tipo di autocontrollo interno sia sufficiente a garantire il rispetto delle regole interne e
delle norme del diritto d’autore in rete, perché spesso vengono creati e pubblicati in
rete lavori che non rispettano i principi base del diritto d’autore.
L’utilizzo sempre maggiore delle applicazioni informatiche richiede una
progettazione che sappia tenere conto dei vari possibili contesti d'uso, degli obiettivi
degli utenti e delle nuove tecnologie di interazione. L'informatica perciò, diventa sempre
più una disciplina interattiva e orientata alla comunicazione con gli utenti.

3.2 L’Interaction Design


Negli ultimi due decenni, le discipline tradizionali della progettazione sono
passati da una visione sistema-centrica delle attività e dei processi coinvolti, a una
visione fortemente utente-centrica, per la quale l’oggetto della progettazione non sono
più le funzionalità del sistema (system design), ma le modalità di interazione fra il
sistema e i suoi utilizzatori (interaction design)311.
Ogni giorno milioni di persone utilizzano il web per comunicare, creare e
condividere informazioni grazie alle piattaforme e servizi messi a disposizione in rete
dalla buona ingegnerizzazione, ma è l’interaction design che li rende usabili, utili e
divertenti. Per capire meglio l’interaction design possiamo fare riferimento alla
spiegazione che ci fornisce Saffer312:
Usufruiamo di un buon interaction design ogni volta che ritiriamo del denaro dal
Bancomat con pochi semplici tocchi sullo schermo, rimaniamo coinvolti da un
videogioco, condividiamo fotografie sul Web, inviamo un messaggio di testo a un
amico dal cellulare, riceviamo bene e velocemente cure in un pronto soccorso,
mettiamo un post sul nostro blog. Ma è anche vero il contrario e spesso soffriamo a
causa di un cattivo interaction design, ad esempio quando proviamo a usare la
cassa automatica in un supermercato e ciò ci porta via mezz’ora, non riusciamo a
farci dire dall’automobile cos’è che non va quando si guasta, aspettiamo a una
fermata senza avere idea di quando arriverà il prossimo autobus, lottiamo per
sincronizzare il telefono cellulare con il computer, stiamo in coda per ore alla
Motorizzazione Civile.

La nascita dell’Interaction Design viene collocata nel 1990, quando Bill


Moggridge -dirigente dell’azienda di design IDEO- si rese conto che da tempo stava
creando un tipo di design diverso che non era solo design di prodotto o design di

311
R. Polillo, Introduzione all’Ingegneria dell’Usabilità, in Soro, A., (a cura di), Human Computer
Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher, Monza, 2008,
p. 177.
312
Saffer, D., Il design dell’Interazione, Paravia Bruno Mondadori Editore, Milano, 2007, p. 2.
140
comunicazione, né informatica: era qualcosa di diverso, che derivava da quelle stesse
discipline e che metteva in comunicazione le persone attraverso i prodotti che usavano.
Moggridge chiamò questa nuova pratica Interaction Design313.
La diffusione di Internet negli anni Novanta e la sempre più diffusa
digitalizzazione e inclusione di microprocessori nelle macchine ha fatto sì che gli oggetti
d’uso quotidiano iniziassero a non essere più familiari. Sebbene l’interaction design
abbia radici interdisciplinari, essa si può definire come l’arte di facilitare le interazioni fra
esseri umani attraverso prodotti e servizi, ma riguarda anche le interazioni fra esseri
umani e i prodotti con un microprocessore che sono capaci di percepire e rispondere
agli esseri umani. Essendo più un arte applicata che una scienza l’interaction design deve
ancora pervenire a regole solide che possano essere dimostrate con metodi scientifici e
che siano vere in tutti i casi, nonostante ciò negli ultimi tre decenni sono emerse delle
best practices314.
L’interaction design risolve problemi che si manifestano in particolari contesti e
in particolari circostanze. Per fare un esempio, come spiega Saffer, il web browser
Mosaic315 era un ottimo esempio di interaction design quando fu concepito, ma oggi non
lo si utilizzerebbe nel proprio computer.
L’interaction Design coinvolge diversi metodi e metodologie nei suoi compiti, e
attualmente si è sviluppata una metodologia di design realmente centrata sull’utente, in
cui si fa ricerca e si provano i prodotti con gli utenti.
L’utilità dell’interaction design è evidente nella sua applicazione a problemi reali
e il suo scopo è aiutare la comunicazione e l’interazione fra gli esseri umani o tra un
essere umano e un’entità artificiale come il computer316.
Quando le persone comunicano attraverso qualcosa come un blog hanno
bisogno di prodotti e servizi disegnati per fornire una esperienza ottimale che faciliti
l’interazione e questi prodotti sono il terreno fertile su cui l’interaction design cresce e si
sviluppa anche grazie a internet, al Wi-FI e a tutte le altre tecnologie. Questi prodotti
non richiedono sempre la presenza di uno schermo di pc, ma possono essere digitali,
analogici, fisici o incorporei o una combinazione di tutto ciò.

313
Saffer, op. cit., p. 2.
314
Ivi, p. 4.
315
Mosaic fu il primo web browser che ha permesso agli utenti di navigare fra siti attraverso il
sistema punta e clicca.
316
Saffer, D., op. cit., pp. 5-6.
141
Dato che la tecnologia cambia rapidamente l’interaction design non si dovrebbe
allineare ad alcun mezzo o tecnologia in particolare. Essa si occupa del comportamento
di prodotti e servizi e di come questi funzionano, la sua funzione è quella di stabilire
connessioni fra le persone attraverso questi prodotti, non connettersi al prodotto
stesso317.
La prima generazione di computer fu il risultato dell’ingegneria e gli esseri umani
dovevano adattarsi ad usarli, parlando il linguaggio delle macchine. Negli anni Sessanta
gli ingegneri iniziarono a focalizzarsi sulle persone escogitando nuovi metodi di input e
aggiungendo pannelli di controllo al frontale dei pc consentendo l’input attraverso una
serie di interruttori318. Negli anni Settanta designer, programmatori e ingegneri
introdussero le interfacce a linea di comando e software specifici, le aziende iniziarono a
disegnare computer per le persone non esperte di informatica, finché la Apple
introdusse l’interfaccia grafica per un pubblico di massa.
Mentre avvenivano gli sviluppi in campo informatico crescevano anche altre
discipline che diedero poi forma all’interaction design. Ingegneri e designer industriali
come Dreyfuss crearono il nuovo campo dei fattori umani o ergonomia, che si
focalizzava sul design di prodotti per gruppi differenziati di persone. Il campo
dell’ergonomia si concentrò sulla produttività e sicurezza dei lavoratori determinando i
modi migliori di svolgere i compiti. La psicologia cognitiva, basata sull’apprendimento e
sulla capacità umana di risolvere i problemi visse una nuova giovinezza.
L’era dell’interaction design come disciplina formale ebbe inizio durante gli anni
Novanta con lo sviluppo del Web, che ha permesso a chiunque di pubblicare facilmente
documenti ipertestuali accessibili in modo globale e che ha portato in primo piano la
necessità di un migliore interaction design319.
Ingegneri e designer iniziarono ad inserire sensori e microprocessori sempre più
piccoli, economici e potenti in oggetti che non venivano considerati computer come le
auto e gli elettrodomestici, e improvvisamente questi oggetti mostrarono
comportamenti precedentemente impossibili. Altre tecnologie facilitarono l’interazione
fra persone nel mondo dell’intrattenimento come i videogiochi, i giochi multiplayer su
computer e le console.

317
Ibidem
318
Ivi, p. 11.
319
Ivi, p. 13.
142
Con il maturare di Internet maturarono anche le tecnologie che le davano vita:
dalla fine degli anni Novanta Internet inizia ad essere utilizzata non solo per fruire di
contenuti, ma anche per fare nuove amicizie, condividere contenuti, vendere oggetti.
Internet fornisce diversi modi nuovi di comunicare fra cui le messaggerie istantanee e il
VoIP (Voice Over IP), diventa una piattaforma per applicazioni che possono
avvantaggiarsi delle numerose caratteristiche di Internet, e lo sviluppo delle connessioni
a banda larga e delle reti wireless stanno via via cambiando le interazioni e i luoghi in cui
queste avvengono320.
L’interaction design è un campo giovane che sta ancora definendo se stesso e
trovando il suo posto fra discipline sorelle come l’information arhitecture, il design della
comunicazione (grafico), il design industriale, lo user-experience design, lo user-interface
engineering la human-computer interaction, la usability engineering e i fattori umani
(ergonomia). Queste discipline sono separate ma si sovrappongono molto, e la maggior
parte di esse sta sotto l’ombrello dello user-experience design, la disciplina che guarda a
tutti gli aspetti dell’incontro tra utente e prodotto o servizio.

Figura 2- Le discipline che si sovrappongono all’interaction design, come mostrato da Saffer in Il


design dell’Interazione, Paravia Bruno Mondadori Editore, 2007, p. 18.

320
Ivi, p. 14.
143
L’interaction design prova ad alleviare alcuni fastidi che nascono quando le cose
non vanno per il verso giusto, accertandosi che i servizi e i prodotti con cui le persone
hanno a che fare abbiano senso, siano usabili e utili, e siano coinvolgenti e divertenti,
rimuovendo quei piccoli problemi della vita di cui spesso non conosciamo l’esistenza. Ma
si occupa anche di facilitare le interazioni tra le persone in modo migliore, più ricco e
profondo, trovando nuove modalità di connessione tra gli esseri umani e rendendo così
il mondo un posto migliore per viverci321.
I progetti normalmente hanno inizio partendo dall’assunto che una cosa non
funziona, oppure perché non esiste. Una volta che un progetto viene lanciato, esistono
diversi metodi e strumenti per intervenire tra i quali lo User Centered Design322.

3.3 L’approccio metodologico all’interaction design: lo User-Centered Design


Una volta determinato il problema ed esaminato si è pronti a cercare le soluzioni
più adeguate attraverso quattro approcci principali, che sono usati per creare prodotti di
successo323:

- il design centrato sull’utente (UCD);


- il design centrato sulle attività;
- il design di sistemi;
- il design di genio.

Ci occuperemo in questa parte della metodologia di progettazione User-


Centered che pone al centro di tutto l’utente e i suoi bisogni, al fine di realizzare
interfacce talmente usabili da scomparire. Infatti un’interfaccia ben progettata e
naturale arriva a scomparire, diventa impercettibile e l’utente si può concentrare sulle
sue attività senza notare l’interfaccia stessa e i suoi artifici324.
La filosofia alla base del design centrato sull’utente è quella di focalizzarsi sui
bisogni e obiettivi dell’utente, perché le persone che utilizzeranno un prodotto o un
servizio conoscono i propri bisogni, obiettivi e preferenze e lo scopo è proprio quello di
scoprire questi fattori e disegnare per essi.

321
Saffer, op. cit., p. 19.
322
Ivi, p. 24.
323
Ivi p. 31.
324
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 82.
144
Il concetto di UCD è stato introdotto da Henry Dreyfuss nel 1995325 e ha radici
nel design industriale, nell’ergonomia e nella convinzione che i designer debbano
provare ad adattare i prodotti alle persone invece che le persone ai prodotti.
Nella progettazione si parte da un esame della situazione attuale, per
riconoscerne i difetti o i limiti e, sulla base delle possibilità offerte dalla tecnologia, si
progetta la situazione futura. Progettare è quindi un’attività di natura sia intellettuale
che pratica: non basta una visione del futuro desiderato, ma occorre anche definire tutti
i dettagli che ne permetteranno la realizzazione.
In informatica, il termine progettare viene spesso usato per ricomprendere non
soltanto le attività di progettazione in senso proprio, ma anche la successiva
realizzazione. Così, per progetto non si intende solo il risultato della progettazione,
come sarebbe corretto, ma anche tutte le attività connesse allo sviluppo di un sistema,
dalla progettazione alla sua realizzazione concreta326.
La progettazione di sistemi usabili richiede un drastico cambiamento di
mentalità rispetto all’approccio di progettazione tradizionale.
Nella progettazione tradizionale infatti l’oggetto principale dell’attenzione è il
sistema da progettare, partendo dalla definizione dei suoi requisiti funzionali, cioè dalla
identificazione delle funzionalità che esso deve fornire all’utente. Queste vengono
descritte in dettaglio in un documento di specifiche funzionali, a partire dal quale il
sistema viene progettato e quindi realizzato. In questo approccio, l’utente del sistema ha
un ruolo marginale: il progettista concentra la sua attenzione sulle funzionalità e sugli
aspetti tecnici connessi alla loro realizzazione, per arrivare a soddisfare le specifiche.
Se l’obiettivo è la progettazione di un sistema usabile, questo approccio non
funziona. Il progettista infatti dovrà porre la sua attenzione innanzitutto sull’utente e
dovrà studiarne le caratteristiche, le abitudini e le necessità in relazione all’uso del
sistema. Dovrà pre-configurare i vari contesti in cui il sistema verrà utilizzato, e i suoi
diversi casi d’uso e dovrà analizzare in dettaglio i compiti che l’utente svolgerà con il
sistema. Secondo questo approccio, il compito del progettista non sarà più
semplicemente quello di progettare le funzioni del sistema, ma quello di progettare

325
Come spiega Saffer, il metodo User-Centered fu reso popolare nel libro Designing for People.
326
R. Polillo, Introduzione all’Ingegneria dell’Usabilità, in Soro, A., (a cura di), Human Computer
Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher, Monza, 2008,
pp. 116-117.
145
l’interazione fra il sistema e il suo utente. Si parla così di interaction design e, per
sottolineare che il punto di partenza è l’utente, di progettazione centrata sull’utente327.
L’UCD è un approccio alla progettazione che produce risultati completamente
diversi da quelli ottenuti con l’approccio tradizionale. In particolare, questo approccio è
fondamentale nella progettazione degli oggetti interattivi che hanno una significativa
componente software, perché in questi casi vi è il rischio di creare complessità inutili328.
Infatti i sistemi odierni sono sempre più complessi e l’interazione non è più
soltanto quella fisica, quindi la postura, lo sforzo o l’illuminazione -considerata dalla
ergonomia tradizionale-, ma è soprattutto di tipo cognitivo. L’ergonomia diventa quindi
ergonomia cognitiva, e il compito dell’interaction designer è anche quello di conoscere e
assecondare i meccanismi cognitivi coinvolti nell’interazione utente-sistema, in modo
che ne risultino sistemi gradevoli e facili da usare.
Secondo Polillo329 System-Centered Design e User-Centered Design non
dovrebbero essere considerati due approcci alternativi, fra i quali scegliere a seconda
delle situazioni. User centered design può essere considerato un approccio più maturo,
che ricomprende al suo interno le problematiche tecniche del System Centered Design,
ma le inserisce in un contesto più ampio, che permette di comprendere in modo molto
più approfondito le finalità del sistema. Si possono così collocare le attività di
progettazione a differenti livelli di maturità:

1. Primo livello: il prodotto funziona. A questo livello ci si accontenta che le


funzioni previste nel sistema siano operative, senza errori di funzionamento. Questo è il
primo livello di maturità, in cui ci si accontenta di disporre di uno strumento anche rudi-
mentale, ma che permetta di realizzare alcuni compiti ritenuti importanti. È il livello in
cui sono superate le difficoltà tecniche basilari, e si accetta di utilizzare il sistema anche
se, per questo, sono necessari particolari accorgimenti o limitazioni.
2. Secondo livello: il prodotto fornisce le funzioni richieste. Non soltanto il
prodotto funziona, ma ci offre tutte le funzionalità ritenute necessarie. L’enfasi è posta

327
Ivi, pp. 118-119.
328
Ivi, p. 121
329
R. Polillo, Introduzione all’Ingegneria dell’Usabilità, in Soro, A., (a cura di), Human Computer
Interaction Fondamenti e Prospettive, Polimetrica International Scientific Publisher, Monza, 2008,
p. 123.
146
sulla completezza delle funzionalità offerte, e sulla corretta esecuzione delle loro
prestazioni. È il livello di maturità della progettazione centrata sul sistema.
3. Terzo livello: il prodotto è facile da imparare e da usare. Questo è il livello
della progettazione centrata sull’utente. Non solo il prodotto funziona e offre tutte le
funzioni richieste dagli utenti, ma le organizza in modo adeguato rispetto alle tipologie e
alle necessità dei suoi utenti, nei diversi contesti d’uso.
4. Quarto livello: il prodotto è invisibile durante l’uso. Il prodotto funziona,
fornisce tutte le funzioni richieste, è usabile e, inoltre, il suo uso si integra in modo così
armonico e poco intrusivo con i compiti che ci aiuta ad eseguire che, mentre lo usiamo,
non ci accorgiamo di usarlo. In altre parole, ci permette di concentrarci sul compito e
non sullo strumento che diventa, per così dire, invisibile.

3.4 L’ingegneria dell’usabilità


L’ingegneria della usabilità (in inglese, usability engineering) è la disciplina che
studia le tecniche, i metodi e i processi che possono essere utilizzati per progettare e
sviluppare sistemi usabili. Il termine è stato introdotto nel 1986 da alcuni progettisti
della Digital Equipment Corporation, in un’accezione che enfatizzava fortemente un
approccio quantitativo alla definizione degli obiettivi di usabilità nella progettazione.
La parola ingegneria vuole sottolineare l’approccio pragmatico di questa
disciplina, che si propone di dare indicazioni concrete e operative a chi progetta e
sviluppa sistemi interattivi. Inizialmente l’ingegneria della usabilità si è focalizzata sul
design delle interfacce utente, ma oggi questo termine viene usato in un’accezione più
ampia, che comprende la totalità delle pratiche utilizzate nel processo di progettazione e
sviluppo di un sistema, a partire dalla raccolta e analisi iniziale dei requisiti.
I principi base della disciplina user-centered possono considerarsi ben consolidati
fin dalla metà degli anni Ottanta e si possono riassumere secondo lo schema formulato
da Gould330:

1. focalizzazione sull’utente, all’inizio e durante tutto il processo di


progettazione;
2. test con l’utente all’inizio e durante tutto il processo di progettazione;

330
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 82.
147
3. modello di progettazione e sviluppo iterativo per prototipi successivi (Gould &
Lewis);

Il lavoro del progettista non si esaurisce quindi nell’applicazione dei metodi e


best practices suggeriti dall’ingegneria della usabilità, ma è anche lavoro creativo. Infatti
costruire il ponte fra ciò che esiste e ciò che vogliamo che esista, richiede non soltanto
una accurata conoscenza della situazione attuale, dell’utente e dei suoi bisogni o
desideri ma anche visione, ispirazione e fortuna. Infatti la conoscenza e l’analisi delle
soluzioni di progettazione adottate in altri progetti costituisce una fonte importante di
spunti per l’interaction designer. Molte soluzioni progettuali hanno infatti un design
pattern, una struttura comune, che poi si incarna e si specializza nei diversi ambiti
applicativi331.
Secondo la definizione dell’ISO (International Organization for Standardization)
l’usabilità è l’efficacia, l’efficienza e la soddisfazione con cui specifici utenti raggiungono
specifici obiettivi in particolari ambienti332.

3.5 Modelli di Progettazione e Sviluppo


3.5.1 Il modello “a cascata”
Da molti anni si è consolidata una disciplina denominata ingegneria del
software, il cui obiettivo è lo sviluppo di metodi e tecniche per la realizzazione di sistemi
software di alta qualità senza sprechi. Questa disciplina, nata negli Stati Uniti circa una
quarantina di anni fa sulla spinta dei grossi progetti software di origine governativa, si è
occupata tradizionalmente di sistemi software complessi, che coinvolgono numerose
persone e che richiedono approcci molto strutturati.
Un tempo, quando la disciplina dell’ingegneria del software era agli esordi, si
pensava che per realizzare un progetto di successo fosse necessario procedere per fasi
logiche successive, ognuna delle quali ponesse le basi per la fase successiva. Si partiva
dalla raccolta dei requisiti, poi si definivano le specifiche del sistema da realizzare.
Quindi si progettava l’intero sistema sulla carta e lo si codificava nel linguaggio di
programmazione prescelto. Lo si collaudava e infine lo si rilasciava. Si passava alla fase

331
R. Polillo, op. cit.,p. 125.
332
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 89.
148
seguente solo quando la fase precedente era completata e i suoi prodotti approvati for-
malmente dal committente333.
Si pensava cioè che in un processo ordinato non si dovesse mai retrocedere. Per
descrivere questo processo viene usata di solito la metafora della cascata (waterfall
model): come in una cascata l’acqua scorre soltanto verso il basso e non torna mai
indietro, così dalla fase iniziale di un progetto si arriva, passo passo, al rilascio del
sistema senza ritornare mai sui passi precedenti. Questa impostazione sembra molto
sensata: per costruire qualcosa bisogna prima decidere che cosa si vuole ottenere e
descriverlo dettagliatamente, poi si passerà alla sua realizzazione, quindi al collaudo
finale e alla consegna.
Ma ci si accorse presto che non funzionava sempre così: nella pratica, in nessun
progetto reale, anche se ben gestito, le cose procedevano in maniera così semplice e
lineare. Era spesso necessario ritornare sui propri passi, per rivedere e modificare
decisioni già prese, anche se erano state inizialmente ritenute consolidate. Le cause
potevano essere molteplici: il committente, in fase avanzata di realizzazione, richiedeva
delle varianti che modificavano le specifiche già approvate, oppure i progettisti
scoprivano difficoltà tecniche inattese, che consigliavano di cambiare rotta, o ancora
nella fase di rilascio del sistema i primi utenti segnalavano delle difficoltà nell’uso che
non erano state previste da nessuno e richiedevano cambiamenti consistenti.
Tutti questi rifacimenti, non previsti nella pianificazione iniziale, producevano
inoltre considerevoli costi aggiuntivi. Per molto tempo queste difficoltà furono imputate
a una cattiva conduzione dei progetti perché si pensava che fosse compito di un buon
capo progetto tenere a freno le richieste dei committenti e degli utenti e far loro
comprendere l’importanza di controllare accuratamente le specifiche e di accettare che,
una volta approvate, queste dovessero essere considerate congelate fino al rilascio del
sistema.
Con la maturazione della disciplina dell’ingegneria del software, si capì che le
cose non funzionavano, perché non possono funzionare così. Ci si rese conto che nessun
sistema complesso può essere realizzato con il modello della cascata, perché è
impossibile specificarne tutti gli aspetti all’inizio e poi realizzarlo senza modificare nulla,
sia a livello pratico che teorico-concettuale. Dal punto di vista pratico, è molto difficile

333
R. Polillo, op.cit., pp. 129-130.
149
prevedere sulla carta tutti gli aspetti di un sistema complesso che non esiste ancora. Si
può tentare di farlo, ma inevitabilmente non si possono anticipare tutti i problemi che si
incontreranno durante la realizzazione, per risolvere i quali potremo essere costretti a
cambiare rotta334.
C’è anche un motivo più profondo, di natura teorico-concettuale, che fa sì che il
modello a cascata non possa funzionare: ogni nuovo strumento cambia i bisogni del suo
utilizzatore e genera nuovi bisogni, che suggeriscono modifiche non previste allo
strumento stesso. In altre parole, per soddisfare le nostre necessità, produciamo
strumenti che, a loro volta, generano nuovi bisogni. Costruiamo allora nuovi strumenti, o
modifichiamo quelli già disponibili, in un ciclo evolutivo infinito, al quale è stato dato il
nome di task-artifact cycle335.
Quando si definiscono i requisiti di un prodotto che non esiste ancora e che si
vuole realizzare, si tiene conto di determinati bisogni insoddisfatti. Per ottenere questo
risultato, si progetta il prodotto ipotizzando dei probabili scenari d’uso e realizzando
quelle funzioni che, nelle nostre ipotesi, sembrano necessarie. Ma non si potrà mai
essere certi di avere immaginato correttamente come gli utenti utilizzeranno
effettivamente il sistema negli specifici contesti d’uso e come questo modificherà i loro
bisogni. Per verificare la correttezza delle ipotesi iniziali, è necessario prima realizzare il
prodotto, farlo testare agli utenti e osservare come lo utilizzeranno effettivamente, nelle
diverse specifiche situazioni. Ci si potrà allora accorgere che gli scenari immaginati
corrispondono quasi, ma non completamente, all’uso effettivo. Ma soprattutto potrà
capitare che l’interazione fra utente e prodotto faccia nascere nuovi bisogni, in modi
imprevisti. Tutto questo suggerirà di modificare il prodotto: senza queste modifiche, gli
utenti non saranno soddisfatti. Non è possibile valutare completamente l’adeguatezza
dello strumento ai suoi utenti, prima che questi lo usino effettivamente.
Ecco perché il modello a cascata tradizionale non può funzionare. Esso prevede
che gli utenti siano coinvolti nel processo solo in due momenti: all’inizio -per contribuire
a requisiti e specifiche-, e alla fine dopo il rilascio.

334
Roberto Polillo, op. cit., pp. 131-132.
335
Ivi, p. 133.
150
Figura 3 - Processo di progettazione e sviluppo tradizionale secondo il modello a cascata,
mostrato in Soro, (a cura di), Human Computer Interaction, p. 130.

3.5.2 Il modello Iterativo


Come abbiamo visto il modello a cascata risulta inadeguato, perciò è necessario
un modello diverso che coinvolga gli utenti fin da subito, non solo nella stesura di
requisiti e specifiche, ma soprattutto per sperimentare l’uso di versioni preliminari del
sistema ed aiutarci, con le loro reazioni e le loro indicazioni, a correggere la
336
progettazione, in un processo di prove e aggiustamenti successivi .
L’idea è quella di procedere con la realizzazione di una serie di prototipi, via via
sempre più vicini al sistema finale. Si inizia quindi con un prototipo preliminare,
337
realizzabile a costi ridotti , e lo si sottopone all’utente che prova ad usarlo. Questa
prima prova sarà normalmente limitata, perché il sistema sarà molto semplificato, con
funzioni realizzate solo parzialmente o simulate, ma permetterà di verificare alcune
ipotesi di partenza ed eventualmente di apportare le giuste modifiche.
Si realizza quindi un nuovo prototipo, sempre incompleto, ma un po’ più
somigliante al sistema finale e lo si sottopone ancora alla prova degli utenti, e così via,
per approssimazioni successive, fino alla conclusione del progetto. In sostanza, le prove

336
R. Polillo, op. cit., p. 133.
337
Il primo prototipo sarà, in genere, piuttosto rudimentale: in molti casi, soltanto un mock-up
con il quale effettuare un primo confronto con gli utenti e con il committente. Al giro successivo,
sulla base di questo confronto, apporteremo le necessarie modifiche ai requisiti e al progetto, e
realizzeremo un secondo prototipo più evoluto.
151
d’uso diventano parte integrante del processo di progettazione. Ovviamente, nelle varie
iterazioni, le diverse attività avranno pesi diversi. Per esempio, al primo giro, dopo avere
specificato i requisiti, ci si concentrerà sulle attività di progettazione, mentre le attività
di realizzazione del primo prototipo richiederanno sforzi limitati. All’avanzare del
progetto lo sforzo complessivo si sposta progressivamente dalle fasi iniziali del ciclo
tradizionale -requisiti e progettazione-, alle fasi finali -test e rilascio 338.
Il processo di progettazione per prototipi successivi è il modello
concettualmente corretto per la realizzazione di sistemi complessi: il prodotto si vede
anche se in modo parziale fin dall’inizio e viene perfezionato in modo incrementale per
aggiustamenti successivi, le scelte effettuate possono essere sperimentate
anticipatamente e si possono scartare quelle sbagliate.
Questo modello iterativo può essere perfezionato in vari modi: nell’ambito
dell’ingegneria della usabilità assume particolare importanza la descrizione che ne dà lo
standard ISO 13407, che ha lo scopo di fornire una guida alle attività di progettazione
centrata sull’utente lungo il ciclo di vita dei sistemi interattivi basati su computer. Il
numero di prototipi e delle iterazioni da realizzare varia dal tipo di sistema che si deve
realizzare, per esempio, nel caso dei siti web di medie dimensioni, si rivela molto utile
organizzare il progetto in cinque successive macro-fasi di prototipazione, ciascuna
finalizzata alla produzione di un prototipo destinato a valutare specifici obiettivi, e
339
cioè :
- Primo prototipo (prototipo di navigazione): ha lo scopo di consolidare la struttura
informativa e di navigazione del sito.
- Secondo prototipo (prototipo di comunicazione): ha lo scopo di consolidare
l’impostazione grafica del sito e tutti gli aspetti relativi alla comunicazione.
- Terzo prototipo (prototipo funzionale): ha lo scopo di consolidare le funzioni interattive
del sito.
- Quarto prototipo (prototipo editoriale): ha lo scopo di consolidare i contenuti
informativi e la eventuale base dati del sito.
- Quinto prototipo (prototipo finale): ha lo scopo di valutare le prestazioni di
funzionamento del sito nell’ambiente di produzione finale.

338
R. Polillo, op. cit., p. 135.
339
Ivi, p. 137.
152
Figura 4 - Processo di progettazione e sviluppo per prototipi successivi, mostrato in Soro, (a
cura di), Human Computer Interaction, p. 134.

3.6 L’approccio metodologico allo User Centered Design


Le fasi di processo della progettazione centrata sull’utente partono dall’analisi e
definizione dei requisiti, cioè cosa un sistema deve fare e come lo deve fare. Bisogna
quindi capire chi sono gli utenti per cui stiamo progettando un sistema, capire l’attività
che vogliamo progettare e capire il contesto d’uso. I requisiti nascono dall’analisi
dell’attività in un processo continuo definito iterativo, attraverso l’utilizzo di diversi
metodi come l’analisi comparativa, la task analysis, la definizione dei personaggi, il
metodo degli scenari, la prototipazione e le valutazioni con gli utenti.
Per identificare cosa deve fare un determinato servizio-prodotto e come lo deve
fare è necessario approfondire la conoscenza degli utenti, dell’attività e del contesto
d’uso del sistema che andremo a progettare. È necessario quindi definire le
caratteristiche dei potenziali utenti, capire quali sono le attività principali che il sistema
dovrà supportare e gli obiettivi che l’utente dovrà raggiungere e la caratteristiche del
contesto organizzativo, sociale, ambientale fisico e materiale.
Le tecniche principali che possono essere utilizzate per la raccolta dei requisiti,
sono le interviste, la somministrazione di questionari, i focus group, la raccolta di storie,
l’osservazione e l’analisi dei compiti dei potenziali utenti del sistema che stiamo
andando a progettare, per analizzare i singoli problemi in profondità e raccogliere
esigenze, suggerimenti, desideri e lamentele.

153
Per definire i requisiti che dovrà avere il sistema che si sta progettando è
necessario innanzitutto avere una chiara visione delle esperienze già presenti di artefatti
simili o affini al prodotto che vogliamo realizzare, che permetterà di cogliere le best
practices del web e sviluppare il nuovo progetto evolvendo servizi preesistenti che
presentano carenze o che sono deficitari.
È fondamentale quindi avere ben chiari gli obiettivi del progetto che si vuole
realizzare, cosa si vuole analizzare, dove si vuole intervenire e quali risultati si vogliono
raggiungere. Bisogna perciò capire quali attività stiamo analizzando, attraverso l’analisi
comparativa e il benchmarking delle esperienze già presenti in rete e avere una chiara
visione di quali sono gli strumenti che supportano l’attività, attraverso l’utilizzo degli
scenari. Inoltre è fondamentale avere una chiara visione di quali contenuti sono veicolati
dall’attività e chi sono gli attori che stiamo analizzando e che interagiranno con il nostro
prodotto.
Per approfondire la conoscenza dei potenziali utenti del nostro sistema sarà
necessario coinvolgere gli utenti da subito attraverso questionari e valutazioni sui
sistemi già presenti in rete. Questo ci permetterà di avere una visone più chiara degli
obiettivi e delle motivazioni che spingono i nostri potenziali ad utilizzare le piattaforme
user-generated content per creare e condividere contenuti e per capire la loro
percezione sul tema del diritto d’autore in rete e sulla conoscenza delle licenze open
content. In questo modo potremo procedere nell’analisi dei requisiti che il nostro
sistema dovrà possedere, andando a migliorare gli ambienti di creazione e condivisione
di contenuti già presenti in rete e la qualità dell’interazione utente-sistema attraverso le
opinioni dei potenziali utenti del nostro sistema e l’osservazione empirica delle loro
azioni nel svolgere determinati compiti richiesti.
Sarà fondamentale inoltre approfondire l’argomento delle tutela dei lavori
autoprodotti dagli utenti nelle piattaforme User-Generated Content, attraverso le
opinioni e i punti di vista degli esperti coinvolti in questo scenario. Questo ci permetterà
di analizzare più in profondità alcuni aspetti utili ad una maggiore comprensione delle
licenze Creative Commons e del loro utilizzo in rete.

154
CAPITOLO 4
Prima ricognizione sull’utilizzo delle licenze Creative Commons: i questionari ai
potenziali utenti e le interviste agli esperti

155
CAPITOLO 4
Prima ricognizione sull’utilizzo delle licenze Creative Commons: i questionari ai
potenziali utenti e le interviste agli esperti

4.1 Premessa
L’obiettivo di questa tesi è valutare la diffusione dell’uso delle CCPL e di come
queste influenzino l’attività di creazione di contenuti in rete, con particolare riguardo
agli ambienti collaborativi e di remix di contenuti. Scopo di questa valutazione è capire
come uno strumento giuridico come le licenze Creative Commons, possa contribuire a
dar luogo a nuove forme per la creazione collaborativa e il remix dei contenuti in rete, e
quindi capire se e come cambia la nozione di authoring con l’utilizzo delle CCPL.
L’obiettivo finale è quello di arrivare a definire un formato che serva a migliorare
esperienze di creazione collaborativa e remix di contenuti in rete valorizzati dall'utilizzo
di queste licenze, rendendo la conoscenza e la scelta delle CCPL più integrata nel flusso
di lavoro –quindi anche simultaneamente all’editing- e spieghi come agire nella scelta
della licenza più opportuna da applicare al proprio lavoro, rendendola un procedimento
più consapevole per l’utente.
Per questo è stato necessario un approccio metodologico alla comprensione del
fenomeno e alla conoscenza degli utenti che utilizzano la rete. Lo studio e l’analisi
effettuati sulle piattaforme per la creazione e condivisione di contenuti340 hanno messo
in evidenza caratteristiche comuni e criticità nelle esperienze già presenti in rete,
rivelando punti di forza e problematiche che necessitano di un ulteriore
approfondimento.
Per quanto riguarda i punti di forza emersi, è importante prendere atto che si
sta diffondendo sempre maggiormente la possibilità di authoring direttamente in rete
attraverso strumenti di editing collaborativo per la condivisione e il remix dei contenuti,
reso possibile dall’aumento delle piattaforme che permettono la creazione collaborativa
dei contenuti direttamente online.
Ognuno di noi oggi può creare, distribuire, riutilizzare contenuti pre-esistenti in
rete e ripubblicarli grazie a questi nuovi servizi che rendono facile e intuitiva per tutti la
catena di creazione e produzione di contenuti. Questa nuova Remixing culture ha

340
L’analisi dettagliata delle piattaforme prese in esame è disponibile nel primo capitolo e la
tavola comparativa in Appendice.
156
favorito l’aumento dei concorsi e dei progetti collaborativi dedicati a lavori rilasciati
sotto licenze non restrittive come il Copyleft Festival, il Video Remix Challenge 2008, e
dei progetti collaborativi come Opensourcecinema, Freeimagefestival, Romanzo Totale e
O.design.
Generalizzando, possiamo riassumere che le criticità rilevanti emerse da questa
ricognizione sul Web sono che molte delle piattaforme prese in esame, pur offrendo
come servizio addizionale l’editing e la creazione collaborativa e il remix, non utilizzano
le licenze libere come le CCPL per tutelare i lavori autoprodotti dagli utenti; tra queste ci
sono delle interessanti esperienze come Jamendo.com che permette l’applicazione
diretta delle CCPL al proprio lavoro attraverso un apposito step durante l’upload del
materiale, che permette di scegliere in modo autonomo e automatico la licenza. Un
limite è rappresentato però dal fatto che il materiale da pubblicare viene prodotto
offline, non vi è infatti possibilità di creare i lavori online attraverso editor, né in modo
indipendente né attraverso la collaborazione con gli altri utenti; altra interessante
esperienza è quella di Flickr.com che offre come servizio la possibilità di licenziare le foto
con le CCPL, che possono essere scelte dall’utente, ma solo accedendo in un’apposita
area del menu e non direttamente in upload.
Inoltre attraverso il monitoraggio dei forum di discussione e delle FAQ presenti
sui diversi siti che utilizzano le CCPL -tra cui Flickr o Jamendo o CcMixter-, si può
osservare come siano parecchi gli argomenti di discussione che riguardano la
conoscenza e l’utilizzo delle CCPL.
Tutto questo ha portato a riflettere sulla tutela dei contenuti autoprodotti dagli
utenti e riflettere sulla necessità di ripensare e ridefinire il concetto di copyright e di
authoring in rete.
Dai risultati emersi dalla ricognizione effettuata in rete è nata così l’esigenza di
approfondire il tema dell’utilizzo delle CCPL per valorizzare l’authoring collaborativo e il
remix in rete, con l’obiettivo di trovare un metodo efficace per promuovere e diffondere
le licenze Creative Commons: lo scopo è capire se si potrebbero avere maggiori risultati
positivi nella diffusione di queste licenze negli ambienti collaborativi, per esempio
migliorando il workflow attraverso un tutorial che metta in evidenza la questione dei
diritti d’autore e le licenze Creative Commons e che spieghi per step come agire per la
scelta delle licenze direttamente già durante l’editing, e capire se questo formato si
potrebbe integrare a esperienze già presenti in rete, andando a migliorarle.
157
Per questo motivo è stata fondamentale e necessaria la raccolta delle opinioni
degli utenti. Questa metodologia, usata per conoscere il punto di vista degli utenti di un
sistema, è uno strumento utile per far emergere problematiche spesso non considerate
inizialmente dai progettisti. Le opinioni degli utenti possono essere raccolte in diverse
fasi della progettazione: all’inizio per definire i punti chiave dello sviluppo del sistema,
nella fase dell’implementazione quando si testano i prototipi, e nella fase finale per
raccogliere le reazioni degli utenti e la loro soddisfazione in risposta al reale utilizzo del
sistema.
Uno dei metodi di raccolta delle opinioni degli utenti sono i questionari, usati per
raccogliere informazioni soggettive degli utenti e per avere spunti per la progettazione
del sistema, attraverso i dati risultanti dal questionario341.
In base alla ricognizione effettuata sul Web abbiamo quindi deciso di compiere
una ricerca, attraverso un questionario esplorativo online che ha permesso di estendere
la conoscenza degli utenti sulle abitudini di utilizzo del Web, degli strumenti di creazione
collaborativa e delle licenze Creative Commons, per capire se le conoscono, se le
utilizzano e la loro percezione su di esse.
Per la costruzione del questionario abbiamo utilizzato Google Docs and
Spreadsheet, un’applicazione online gratuita sviluppata da Google che permette di
creare documenti e fogli di calcolo online direttamente dal browser e condividerli con
altri utenti in rete, e che include i risultati già in diagrammi.
Per cogliere le esigenze di un target più ampio e definire meglio i profili dei
potenziali utenti interessanti da approfondire ai fini del progetto, il questionario è stato
somministrato in rete principalmente sui siti Facebook.com, Flickr.com, Jamendo.com,
Nonsolonews.it, Google Groups, attraverso il blog
ricercasucreativecommons.wordpress.com appositamente creato per questo scopo, in
rete dal 13 Novembre 2008 fino ad oggi.
Nel blog sono stati introdotti gli obiettivi della tesi e lo scopo del questionario
che l’utente stava andando a compilare, nonché i link agli esempi delle piattaforme
menzionate all’interno del questionario, per permettere agli utenti interessati di

341
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, pp. 293-294.

158
accedervi più facilmente. In generale sono state formulate delle domande a risposta
multipla che riguardavano:
- la conoscenza e l’utilizzo degli strumenti Web “2.0” di creazione e di editing online;
- l’interesse verso il tema del diritto d’autore in rete;
- la conoscenza di Creative Commons e delle CCPL, e il loro utilizzo;
Per verificare l’usabilità e la correttezza, il questionario è stato fatto inizialmente
testare da tre utenti che hanno fatto emergere alcune criticità che sono state corrette
prima della pubblicazione definitiva in rete.

4.2 Risultati del questionario e analisi dei dati


Per quanto riguarda la prima tipologia di domande sulla conoscenza e l’utilizzo
degli strumenti Web “2.0” di creazione ed editing online, è emerso che il 30% degli
intervistati342 ha affermato che utilizza o ha utilizzato in rete siti che permettono
l’editing online per la creazione e il remix di contenuti in rete. Di questi il 33% ha
utilizzato strumenti di editing per la creazione di musica e il 44% strumenti di fotoritocco
online.
Per quanto riguarda la seconda tipologia di domande sull’interesse verso il tema
dei diritti d’autore in rete, il 53% degli intervistati si trova d’accordo con l’affermazione
posta, secondo la quale il poco controllo dei materiali pubblicati in rete può essere la
causa di una maggiore pubblicazione di materiale lesivo del diritto d’autore. Il 33% degli
intervistati afferma che si potrebbe scoraggiare la creazione e il riutilizzo di materiale
lesivo del diritto d’autore, soprattutto in siti come YouTube, se si potessero tutelare con
appositi strumenti i propri lavori, ma il 44% sostiene che l’utilizzo di questi strumenti
comunque non scoraggerebbe l’upload e il riutilizzo di materiale protetto da copyright.
Per quanto riguarda infine la terza tipologia di domande sulla conoscenza di
Creative Commons, il 32% degli intervistati ha affermato di non sapere di cosa si occupa
il gruppo di lavoro Creative Commons Italia. Il 5% crede si tratti di uno studio che offre
consulenza legale e l’11% che si occupi soltanto di licenze. Il 32% ha affermato che
Creative Commons si occupa di incoraggiare gli autori a sperimentare nuovi modi per
promuovere e commercializzare le proprie opere in rete. Le percentuali emerse

342
Le percentuali sono riferite al campione rilevato di 38 risposte al questionario.

159
mostrano quindi una divisione abbastanza equilibrata negli intervistati, tra chi non
conosce Creative Commons Italia e chi invece è informato del lavoro svolto dal gruppo.
Il 57% degli intervistati ammette di non conoscere i concorsi e le iniziative
dedicate ai lavori rilasciati sotto CCPL suggeriti nel questionario. I più conosciuti dal 22%
degli intervistati risultano comunque essere il Copyleft Festival di Arezzo, e per il 14% il
concorso Corti in Creative Commons.
Per quanto riguarda la conoscenza delle CCPL e il loro utilizzo, il 49% degli
intervistati ha affermato di aver sentito parlare di queste licenze ma di non avere le idee
chiare su di esse. Solo il 16% ha dichiarato di non averne mai sentito parlare.
Il 54% degli intervistati ha affermato però di non averle mai utilizzate, mentre il
24% dichiara di averle applicate ai propri lavori in rete. Il 29 % di questi ha affermato che
le licenze maggiormente utilizzate sono state le Attribution-Share Alike, mentre le
Attribution-No Derivative Works, le Sampling Plus e il Pubblico Dominio dai dati emersi
risultano essere quelle meno utilizzate con lo 0% di utilizzo.
Il 28% degli intervistati ha affermato di avere utilizzato le CCPL maggiormente
per licenziare musica o suoni e solo il 6% per i video. Il 22% ha dichiarato di averle
utilizzate per licenziare presentazioni multimediali, l’11% per le immagini e il 17% per
testi e siti Web.
Il 76 % sostiene inoltre che sarebbe importante utilizzare sempre le CCPL per la
creazione di contenuti in rete e solo il 16% afferma che -anche se le CCPL fossero più
diffuse- gli utenti continuerebbero comunque a riutilizzare materiale in rete senza
riconoscerne la paternità e ledendo così i diritti dell’autore.
Questi ultimi dati mostrano un potenziale atteggiamento positivo degli utenti
verso un utilizzo più coscienzioso dei contenuti in rete, un dato da non sottovalutare
perché riguarda un segmento dei potenziali utenti che potrebbero essere interessati ad
una maggiore educazione al diritto d’autore e all’utilizzo delle CCPL.
Il 69% degli intervistati sostiene che un accesso più immediato e più chiaro
all’applicazione delle CCPL potrebbe incoraggiarne maggiormente l’utilizzo, ma che
bisognerebbe comunque fare una promozione migliore in rete di queste licenze.
Il 39% di coloro che hanno utilizzato le CCPL ha affermato di aver trovato sempre
il procedimento di applicazione guidato molto chiaro, ma comunque il 42% ammette di
avere qualche dubbio sulla differenza di utilizzo tra una licenza e l’altra.

160
I dubbi riguardano, per il 29% degli utenti intervistati, l’utilizzo della licenza
Sampling Plus e per il 25% la possibilità di guadagnare dal proprio lavoro applicando la
licenza Attribution-Non-Commercial. Il 17% afferma inoltre di avere dei dubbi su cosa si
intende per opere derivative e un altro 17% su cosa si intende con la licenza Share Alike.
Solo il 4% afferma di avere dubbi sull’applicazione delle licenze ai propri lavori essendo
già iscritto alla SIAE. Inoltre l’8% non ha chiaro se le CCPL si possano applicare solo
online o anche per i lavori offline. Questi ultimi dati dimostrano che l’attuale
procedimento guidato di applicazione delle CCPL- presente sia sul sito ufficiale CC che in
altre piattaforme di condivisione- è valido ma allo stesso tempo forse non riesce a
risolvere in maniera adeguata i dubbi che un potenziale utente potrebbe riscontrare al
momento della scelta delle licenze.
Questo problema emerso dal questionario va ad aggiungersi alle criticità sul
meccanismo di applicazione delle licenze già emerse dal benchmarking effettuato in
rete, che ha mostrato come l’applicazione delle CCPL avviene spesso in un passaggio
separato dall’editing e dall’upload dei contenuti, vincolando l’utente ad entrare in
un’apposita area del menu per licenziare la propria opera, ma solo in una fase successiva
e finale.

4.3 L’intervista al Prof. J.C. De Martin


Con i risultati emersi dalla ricognizione effettuata sulle esperienze già presenti in
rete, e con i primi risultati emersi dal questionario somministrato in rete ai potenziali
utenti, è nata l’esigenza di approfondire ulteriormente alcuni aspetti fondamentali alla
conoscenza del fenomeno, per raccogliere ulteriori spunti utili ai fini progettuali.
Grazie alla preziosa disponibilità del Dott. Giuseppe Mazziotti343, che mi ha
messo in contatto con il Prof. J.C. De Martin344, ho avuto la possibilità di andare a
conoscere personalmente la realtà di Creative Commons Italia. Questa esperienza è
stata fondamentale per dare un approccio più realistico al mio lavoro e mi ha dato la
possibilità di osservare da vicino questa realtà e constatare come si muove il gruppo di

343
L’avvocato Giuseppe Mazziotti è autore di numerose pubblicazioni in materia di diritto
comunitario, proprietà intellettuale, diritto dell'informazione e diritto della concorrenza e
membro del gruppo di lavoro di Creative Commons ed è consulente del Servizio Licenze Libere
(SeLiLi), entrambi istituiti presso il Dipartimento di Informatica e Telematica del Politecnico di
Torino.
344
Il Prof. J.C. De Martin è responsabile italiano di Creative Commons e co-direttore del centro
NEXA su Internet & Società del Politecnico di Torino.
161
lavoro Creative Commons Italia, che oggi fa capo al centro di ricerca NEXA su Internet e
Società del Politecnico di Torino.
Interessante è stato l’incontro relativo alla serie “I mercoledì di Nexa” 345 a cui ho
avuto il piacere e la fortuna di poter assistere, che mi ha permesso di approfondire e
reperire materiale su alcuni aspetti giuridici riguardanti la disciplina del diritto d’autore e
dei diritti connessi e mi ha dato modo di osservare come si muove il gruppo di lavoro
Creative Commons Italia, proponendo un tema all’ordine del giorno e discutendone con
tutti i partecipanti che contribuiscono attivamente con le proprie posizioni.
Fondamentale è stato l’incontro con il Prof. De Martin, che si è reso disponibile a
rispondere alle mie domande e a fornirmi preziose informazioni per approfondire la mia
conoscenza su Creative Commons. L’intervista con il Prof. De Martin ha inoltre dato
nuovi spunti di riflessione che hanno portato ad approfondire e ad esplorare altri punti
di vista sulla mia domanda di ricerca e a trovare la giusta direzione per lo sviluppo del
lavoro.
Sono state innanzitutto presentate al Prof. De Martin alcune delle criticità
emerse dalla ricognizione delle esperienze già presenti in rete, mostrando come a livello
tecnico e progettuale sia emerso che in alcune delle piattaforme il processo di authoring
risulti distaccato da quello di applicazione delle licenze, vincolando così l’utente ad
entrare in un’apposita area del menu per licenziare la propria opera solo
successivamente all’upload.
Questo aspetto potrebbe essere un potenziale fattore che influenza
negativamente l’utilizzo delle licenze da parte dei potenziali utenti, come ha confermato
anche il Prof. De Martin durante l’intervista, riconoscendo come «uno step finale di
questo tipo possa sfuggire completamente a certi utenti» e come «sia però più un
miglioramento tecnico del workflow dire “lo integriamo meglio, lo rendiamo più
evidente e più presente”».
Il fatto che il 49% degli utenti abbia sostenuto di aver sentito parlare di queste
licenze ma di non avere le idee chiare su di esse e che il 39% degli intervistati abbia

345
L’incontro si è svolto a Torino il 10 Dicembre 2008 presso il centro di ricerca Nexa su Internet e
Società del Politecnico di Torino, sul tema relativo alla proposta di direttiva sull’estensione dei
termini di protezione dei diritti connessi dei produttori di fonogrammi e degli artisti interpreti ed
esecutori. È stato inoltre presentato il libro del Dott. Giuseppe Mazziotti EU Digital Copyright and
The End User, Springer, 2008. Il comunicato e il documento di approfondimento relativo
all’incontro sono disponibili in rete all’indirizzo http://nexa.polito.it/direttivafonogrammi
162
affermato di aver trovato sempre il procedimento di applicazione delle licenze molto
chiaro, dimostra come l’attuale metodo di applicazione delle CCPL- presente sia sul sito
ufficiale CC che in altre piattaforme di condivisione- sia valido ed efficace, ma il fatto che
comunque il 42% abbia ammesso di avere dubbi sulla differenza di utilizzo di una licenza
piuttosto che un’altra, significa che allo stesso tempo forse questo meccanismo non
riesce a risolvere adeguatamente i dubbi che un potenziale utente potrebbe riscontrare
al momento della scelta delle licenze.
Da qui nasce l’esigenza di trovare un metodo progettuale che possa a risolvere i
dubbi che un potenziale utente potrebbe riscontrare al momento della scelta delle CCPL
mentre lavora in rete.
Il 69% degli intervistati ha sostenuto inoltre che un accesso più immediato e più
chiaro all’applicazione delle CCPL potrebbe incoraggiarne maggiormente l’utilizzo, ma
che bisognerebbe comunque fare una promozione migliore in rete di queste licenze.
Questo pone il problema di capire quale sia il metodo migliore per poter
pubblicizzare maggiormente queste licenze e sensibilizzarne così l’utilizzo da parte dei
potenziali utenti, allo scopo di trovare una soluzione progettuale a questo problema.
Secondo il Prof. De Martin «per una maggiore pubblicità si potrebbero utilizzare i
canali classici della pubblicità, ma non abbiamo chiaramente gli strumenti per farlo, non
abbiamo risorse per mettere annunci pubblicitari sui siti, banner, adwork di google ecc…
e quindi si può soltanto continuare come abbiamo fatto fin adesso con passaparola,
imitazione, non vedo grandi possibilità alternative. Oppure un’altra possibilità potrebbe
essere una pubblicità indiretta, nel momento in cui ci fossero dei casi eclatanti, che so la
RAI o un grande editore che adottasse queste cose e le pubblicizzasse, allora avremmo
una pubblicità indiretta».
Il problema quindi è quello di cercare di raggiungere una più ampia fetta di
potenziali utenti, trovando un metodo che riesca a sensibilizzare più di una pubblicità
generica e a costi minori. Questo si potrebbe attuare andando ad agire direttamente
sull’utente effettuando un miglioramento tecnico del workflow che integri meglio e
renda più evidente all’utente questo aspetto.
Questo «miglioramento tecnico che integri meglio e renda più evidente questo
aspetto all’utente direttamente nel dominio applicativo e quindi mentre sta creando
qualcosa», come confermato dal Prof. De Martin, «sarebbe più efficace di una pubblicità

163
generica in rete rivolta a tutti e a nessuno perché sarebbe rivolta esplicitamente alle
persone interessate a pubblicare. Quindi questo sarebbe sicuramente molto meglio».
Tra i dati emersi dal questionario inoltre, i più rilevanti ai fini progettuali hanno
mostrato come il 76% degli intervistati abbia sostenuto che sarebbe importante
utilizzare sempre le CCPL per la creazione di contenuti in rete mentre solo il 16% ha
affermato che -anche se le CCPL fossero più diffuse- gli utenti continuerebbero
comunque a riutilizzare materiale in rete senza riconoscerne la paternità e ledendo i
diritti dell’autore.
Il tema dei diritti d’autore in rete sembra quindi non essere sottovalutato
totalmente dagli utenti: infatti il 53% degli intervistati si trova d’accordo con
l’affermazione posta, secondo la quale il poco controllo dei materiali pubblicati in rete
può essere la causa di una maggiore pubblicazione di materiale lesivo del diritto
d’autore in rete e il 33% degli intervistati ha affermato che con una maggiore tutela sui
contenuti autoprodotti dagli utenti si potrebbe scoraggiare la creazione e il riutilizzo di
materiale lesivo del diritto d’autore, soprattutto in siti come YouTube.
Questo atteggiamento positivo da parte degli utenti verso un utilizzo più
coscienzioso dei contenuti in rete, è un dato da non sottovalutare perché riguarda un
importante segmento di potenziali utenti che potrebbero essere interessati ad una
maggiore educazione al diritto d’autore e all’utilizzo delle CCPL.
Infatti, come ha affermato anche il Prof. De Martin durante l’intervista, «sino ad
adesso la maggior parte delle persone poteva vivere la sua intera vita ignorando
sostanzialmente l’esistenza del copyright». Ma oggi con lo sviluppo del Web la situazione
è cambiata ed è necessaria la conoscenza dei principi di base del diritto d’autore, che
potrebbero essere già insegnati nelle scuole. Infatti «il vero ostacolo non è tanto
spiegare le licenze perché spiegare le licenze è banale, se uno sa già cos’è il diritto
d’autore- ma è spiegare il diritto d’autore».
Per cui il vero ostacolo da superare è educare al diritto d’autore, che è un fatto
nuovo nella nostra cultura ma che non può più essere sottovalutato.
In un contesto come questo quindi, dove regna l’autoproduzione e
pubblicazione dei contenuti in rete, non essendo quindi più possibile per i cittadini
ignorare i principi base del diritto d’autore, è necessario capire se si possa insegnare il
diritto d’autore e l’uso delle licenze libere in rete e in che modo.

164
In realtà, secondo il Prof. De Martin, per spiegare il diritto d’autore sono
necessarie delle risorse come quelle che hanno la SIAE o i grandi editori. Creative
Commons cerca di educare al diritto d’autore con le risorse di un progetto volontario, e
lo fa distribuendo strumenti tecnici che si basano sul diritto d’autore, ma non solo.
Creative Commons infatti è un’opera educativa, un processo continuo di discussione che
avviene attraverso incontri, articoli e festival.
Naturalmente più aumentano i contenuti autoprodotti dagli utenti in rete, più
aumenta il numero di potenziali utenti delle licenze libere. Questo porta alla necessità di
diffondere maggiormente la conoscenza delle CCPL e aumenta la necessità di
informazioni più precise da parte degli utenti sul loro utilizzo.
Quest’opera educativa è portata avanti anche da SeLiLi346, progetto del centro di
ricerca NEXA, del Politecnico di Torino e dell’Assessorato all’Innovazione della Regione
Piemonte. L’obiettivo di SeLiLi è quello di fornire servizi informativi e consulenza legale,
tecnologica ed economica sul diritto d’autore e sulle licenze libere. Questo per
incoraggiare e sostenere l’utilizzo delle licenze di diritto d’autore ispirate alla
condivisione del sapere e delle conoscenze.
È importante inoltre sottolineare come Creative Commons abbia lanciato nel
Settembre 2008 una ricerca347 per esplorare la differenza tra l’uso commerciale e non
commerciale dei contenuti, per capire come questi usi siano concepiti dalle community.
Infatti vista la crescita del numero di opere rilasciati sotto CCPL348, Creative Commons
vuole provvedere a dare informazioni aggiuntive ai creatori riguardo il contesto nel
quale la clausola Non-Commercial può favorire o impedire le loro intenzioni, con
riguardo ai lavori che scelgono di condividere in rete. Creative Commons vuole essere
sicura che gli utenti capiscano chiaramente questo. L’obiettivo della ricerca è anche
quello di contribuire ad una migliore comprensione di alcune complessità sulla
distribuzione digitale dei contenuti349.
A questo proposito, parlando di educazione al diritto d’autore, possiamo
aggiungere la questione dei diritti connessi: come abbiamo visto nel secondo capitolo,

346
http://selili.polito.it
347
http://creativecommons.org/press-releases/entry/9554
348
Come si legge nel comunicato stampa del 18 settembre 2008, disponibile sul sito ufficiale
Creative Commons all’indirizzo http://creativecommons.org/press-releases/entry/9554, oggi le
opere presenti in rete rilasciate sotto licenza Creative Commons sono circa 130 milioni.
349
La ricerca al momento della stesura di questo lavoro (Febbraio 2009) è ancora in corso.
165
Glorioso e Mazziotti350, per sensibilizzare maggiormente i potenziali utenti delle CCPL
sulla necessità di assicurarsi la disponibilità di tutti i diritti sull’opera licenziata,
propongono di inserire un avvertimento che faccia tener conto al licenziante che non
siano violati i diritti di terze parti ma senza entrare nei dettagli giuridici nel modulo di
selezione delle CCPL in rete.
Come ha confermato durante l’intervista il Prof. De Martin, questa fase
educativa sarebbe essenziale per un potenziale utente delle CCPL, ma non dovrebbe
essere troppo tecnica né troppo pesante per evitare che questo si infastidisca durante la
creazione del contenuto, ma il tema dei diritti è un problema che non si dovrebbe
neanche nascondere per evitarlo, perciò bisognerebbe trovare un giusto bilanciamento.
Questa educazione al diritto d’autore si potrebbe quindi inizialmente migliorare
attraverso la progettazione un tutorial che renda la conoscenza dei principi base del
diritto d’autore e la scelta delle CCPL più integrata nel flusso di lavoro -quindi
simultaneamente all’editing- e che spieghi attraverso opportuni avvertimenti e aiuti
guida sia tecnici che giuridici, come agire nella scelta della licenza più opportuna da
applicare al proprio lavoro, rendendola un procedimento più consapevole per l’utente.
Un miglioramento del workflow potrebbe quindi sensibilizzare maggiormente i
potenziali utenti all’utilizzo delle licenze libere per i lavori autoprodotti, perché come ha
confermato il Prof. De Martin in questo modo «l’utente sarebbe più sensibile che esiste
questo aspetto e lo prenderebbe maggiormente in considerazione».
Da questo però è scaturita una domanda importante e non sottovalutabile da
parte del Prof. De Martin, che ha infatti sostenuto che «sarebbe interessante parlare con
chi ha fatto le cose già esistenti, per chiedergli perché non l’ha fatto. Perché magari
qualcuno ritiene che l’argomento dei diritti interessa poco o che rischia di distrarre dalla
cosa principale… sarebbe interessante capire perché non è stato già fatto quello che dice
lei, capisce? Ma non perché quello che dice lei non sia auspicabile, ma perché magari ci
sono delle obiezioni, magari ci han provato e hanno rinunciato perché gli utenti si
infastidiscono a questo step aggiuntivo… Però ovviamente dal punto di vista Creative
Commons sono d’accordo, sarebbe una cosa opportuna farlo».

350
Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze creative commons e i diritti connessi
degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli organismi di diffusione
radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della Società Italiana degli Autori ed
Editori, Vol. 79 (2) Giuffrè Editore, Milano, Aprile-Giugno 2008.

166
Questa affermazione del Prof. De Martin ci ha dato un nuovo spunto di
riflessione per affrontare il problema, quello della necessità di avere un parere più
tecnico in proposito. Per questo è stato contattato via e-mail Victor Stone,
amministratore del sito CcMixter.

4.4 L’intervista a Victor Stone, amministratore del sito CcMixter


Uno dei problemi fondamentali da affrontare quindi, come sostiene anche
O’Really351, è che in molte delle piattaforme Web il copyright viene fatto rispettare in
modo un po’ vago.
La maggior parte dei siti di maggior successo infatti, come spiega il Prof. De
Martin, hanno un approccio al diritto d’autore molto indiretto, nascondendo il problema
dei diritti dietro i Terms of Service, come nel caso di YouTube. Infatti nonostante
YouTube vieti l’upload di materiale lesivo del diritto d’autore e di materiale illegale,
questo non sempre viene rispettato e il sito effettua solo un controllo ex post su quanto
viene pubblicato dagli utenti352.
Il problema è che i Terms of Service raramente vengono letti dagli utenti che
utilizzano questi servizi, e queste piattaforme per la condivisione e il riutilizzo dei
contenuti, come ha confermato anche il Prof. De Martin, giocano proprio su questo
fattore. Infatti ad esempio «You Tube pensa ad avere successo e non vuole scoraggiare
l’upload perché vive di quello, una pubblica amministrazione come l’università deve
invece essere più corretta e più trasparente, bisogna trovare caso per caso il modo giusto
per farlo».
In altri casi, vengono prodotte e pubblicate le cosiddette FAQ (Frequently Asked
Questions), le risposte alle domande più frequenti che vengono poste dagli utenti. Qui si
possono spiegare alcuni fondamenti base del diritto d’autore, e probabilmente attirano
l’utente più dei Terms of Service, ma restano pur sempre degli appositi documenti che
l’utente deve andare volontariamente a cercare e leggere.
È importante sottolineare però come questa tendenza stia cambiando: il 12
Febbraio 2009 infatti YouTube353 ha annunciato di avere iniziato a testare una opzione
che permette agli autori dei video pubblicati su YouTube la possibilità di decidere se

351
O’Reilly, T., Cos’è il Web 2.0. Design Patterns e Modelli di Business per la prossima
generazione di software disponibile su http://www.awaredesign.eu/articles/14-Cos-Web-2-0
352
V. Di Bari, op. cit., p. 13.
353
http://creativecommons.org/weblog/entry/12757
167
permettere di effettuare il download e la condivisione del proprio lavoro sotto licenze
Creative Commons. Il test è stato lanciato con la partnership di Stanford, Duke, UC
Berkeley, UCLA e UCTV. Come si legge nel comunicato stampa pubblicato anche sul blog
ufficiale di YouTube354:

We are always looking for ways to make it easier for you to find, watch, and share
videos. Many of you have told us that you wanted to take your favorite videos
offline. So we’ve started working with a few partners who want their videos shared
universally and even enjoyed away from an Internet connection.
Many video creators on YouTube want their work to be seen far and wide. They
don’t mind sharing their work, provided that they get the proper credit.
Using Creative Commons licenses, we’re giving our partners and community more
choices to make that happen. Creative Commons licenses permit people to reuse
downloaded content under certain conditions.

Un’altra iniziativa che sta prendendo piede in rete è quella che vede la
possibilità di integrare le licenze Creative Commons all’interno del popolare social
network Facebook355 portata avanti proprio da uno dei gruppi presenti all’interno del
social network356. Infatti attualmente, come si legge sulle Condizioni d’uso della
piattaforma, quando l’utente carica un contenuto su Facebook concede alla Società la
licenza di utilizzare, copiare, eseguire, esporre in pubblico, riformattare estrarre e
distribuire questi contenuto per qualunque scopo commerciale, pubblicitario sul sito o su
canali collegati al sito il proprio lavoro e di mostrarlo nella piattaforma, analogamente a
quanto avviene su YouTube. Come si legge sul sito ufficiale Creative Commons quello
che non è chiaro su Facebook è cosa esattamente gli altri possano fare con ciò che
l’utente pubblica. Qualcuno potrebbe non essere d’accordo che gli altri per esempio
riutilizzino o condividano le immagini caricate e Creative Commons può aiutare in
questo caso gli utenti a specificare gli utilizzi che si vogliono concedere agli altri.
Come abbiamo visto precedentemente, altre esperienze di piattaforme di
creazione e condivisione di contenuti offrono già come servizio addizionale la possibilità
di applicare licenze opencontent, ma spesso vincolano l’utente a scegliere
eventualmente di applicare le CCPL entrando in un’apposita area del menu.
Questo fa sì che il processo di authoring risulti totalmente separato dal processo
di applicazione delle licenze, e che l’utente che non conosce le CCPL non sia incoraggiato
354
http://www.youtube.com/blog?entry=Mp1pWVLh3_Y
355
Per approfondire questo argomento è possibile visitare il sito ufficiale Creative Commons
all’indirizzo http://wiki.creativecommons.org/Facebook_CC_Integration/BoRR/BasicInfo
356
È possibile visitare il gruppo su Facebook all’indirizzo
http://www.facebook.com/group.php?gid=55178542061
168
e sensibilizzato ad applicarle. Infatti l’unico modo che l’utente ha di venire a conoscenza
di queste licenze è quello di interagire col sito, partecipando alle discussioni sul forum o
iscrivendosi ai gruppi tematici presenti sul sito. In questo caso l’utente più curioso
potrebbe decidere di cercare maggiori informazioni sul sito esplorando le diverse voci
presenti nel menu e scegliendo l’opzione Creative Commons, ma -come ha anche
confermato il Prof. De Martin- uno step finale di questo tipo ad alcuni utenti può
sfuggire completamente.
La necessità è quindi quella di migliorare il workflow di questi ambienti per la
creazione collaborativa e il riutilizzo dei contenuti in rete, rendendo la questione dei
diritti d’autore e la possibilità di scegliere Creative Commons più visibile e più integrata
nel flusso di lavoro.
In base al suggerimento del Prof. De Martin, per capire in che modo si potrebbe
integrare un tutorial che mantenga viva e presente la questione dei diritti d’autore
all’interno di un ambiente collaborativo in rete e che garantisca un continuous learning
process sull’uso delle CCPL, è stato contattato via e-mail Victor Stone, amministratore
del sito CcMixter. Dopo avergli brevemente spiegato gli obiettivi della tesi e come
CcMixter sia uno dei casi studio presi in esame, abbiamo chiesto a Stone un parere
tecnico sulla possibilità di integrare un tutorial che permettesse agli utenti di rendere
l’applicazione delle CCPL più integrata nel flusso di lavoro, permettendo la scelta e
l’applicazione delle licenze simultaneamente al processo di creazione, con avvertimenti
e aiuti-guida sia tecnici che giuridici. Inoltre, poiché ai fini progettuali è fondamentale
capire se sia mai stata pensata una soluzione di questo tipo, abbiamo chiesto a Victor
Stone se, in caso affermativo, siano stati riscontrati eventuali problemi derivanti da
un’applicazione di questo genere e quali.
Victor Stone ha spiegato come «Musician (…) just want to make music. Anything
the makes them more productive, makes their music better or spreads the
word (publicity) is what we use as criteria for what features to add
to the site. We try to make all the legal stuff as transparent as possible and focus on the
music».
Questo ha dato una ulteriore conferma all’idea base che sembra accompagnare
queste piattaforme di creazione collaborativa di contenuti in rete, cioè quella di rendere
più produttivi gli utenti, migliorare le loro prestazioni artistiche e pubblicizzare questi
lavori su larga scala, fornendo agli utenti il materiale legale nel modo più trasparente
169
possibile -e quindi attraverso FAQ e Terms of service- ma l’obiettivo principale resta
quello di mantenere l’utente concentrato sulla produzione del contenuto.
Questo concetto è spiegato anche da O’Really357, che spiega come la protezione
della proprietà intellettuale limiti il riutilizzo e impedisca la sperimentazione. Infatti,
come abbiamo visto, sono ancora parecchie le piattaforme di condivisione e remix dei
contenuti che non utilizzano licenze opencontent per la tutela dei lavori autoprodotti
dagli utenti, pur offrendo importanti servizi come l’editing collaborativo e il remix dei
video direttamente online attraverso applicazioni web-based.
Ma poiché oggi i benefici vengono proprio dalla creazione collaborativa è
necessario limitare le barriere all’adozione, progettare per l’hackability e la remixability,
seguire gli standard e utilizzare le licenze con meno restrizioni possibili. Questo è un
elemento di fondamentale importanza da tenere conto ai fini progettuali, perché è
necessario integrare questo learning process in un contesto dove l’obiettivo principale è
e resta quello di creare e condividere in modo globale i contenuti, garantendo la
produttività degli utenti.
Alla luce di quanto emerso dalle opinioni degli utenti nel questionario,
dall’intervista al Prof. De Martin e a Victor Stone, nasce l’esigenza di rispondere ad
alcuni bisogni fondamentali:

1. divulgare la conoscenza del diritto d’autore in rete, spiegando i principi base del
copyright e la tutela dei propri diritti e di quelli dei terzi durante il flusso di lavoro;

2. diffondere e rendere più comprensibile ad un pubblico più ampio le CCPL, spiegando


cosa sono, come si usano e la loro modularità, garantendo all’utente un continuo
learning process;

3. rendere la conoscenza e l’applicazione delle licenze Creative Commons più visibile,


quindi più integrata nel workflow;

4. non interrompere il flusso di lavoro dell’utente, rendendo il learning process presente


ma non invasivo durante il processo di authoring in rete;

357
Cos’è il Web 2.0. Design Patterns e Modelli di Business per la prossima generazione di software
disponibile su http://www.xyz.reply.it/Web20/

170
5. garantire una pubblicità delle licenze Creative Commons in rete più mirata e non
generica.

Questi bisogni emersi necessitano ora di una analisi più approfondita che
permetta di trovare una soluzione progettuale adeguata, che possa garantire una
soluzione efficace ad ognuno di questi bisogni.
Questo sarà possibile attraverso le valutazioni di usabilità da parte degli utenti,
secondo un criterio user centered -cioè centrato sull’utente- che fornisca ulteriori spunti
di riflessione per modificare e migliorare la realizzazione del sistema. Infatti, secondo
questo approccio metodologico, è fondamentale mettere da subito in primo piano i
bisogni e le caratteristiche degli utenti, analizzando i compiti che dovranno svolgere con
il sistema e valutando ripetutamente il prototipo e le nuove soluzioni proposte,
ricavando suggerimenti dall’osservazione empirica delle performance degli utenti358.

358
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 291.

171
CAPITOLO 5

Web “2.0” e licenze Creative Commons. Progettazione di un tutorial a sostegno


degli utenti nell’utilizzo delle CCPL durante l’authoring in rete, secondo la
metodologia di progettazione User-Centered.

172
CAPITOLO 5
Web “2.0” e licenze Creative Commons. Progettazione di un tutorial a sostegno
degli utenti nell’utilizzo delle CCPL durante l’authoring in rete, secondo la
metodologia di progettazione User-Centered.

5.1 Premessa
L’analisi dei risultati del questionario esplorativo somministrato in rete ai
potenziali utenti delle licenze Creative Commons ha portato alla luce bisogni e necessità
degli utenti riguardo al tema del diritto d’autore, e hanno permesso di conoscere e
capire le esigenze dei potenziali utenti delle piattaforme User Generated Content. Questi
risultati, insieme alle considerazioni e agli spunti di riflessione che hanno apportato le
interviste agli esperti J.C. De Martin e Victor Stone, hanno portato all’idea di trovare una
soluzione tecnologica che possa migliorare il workflow delle piattaforme di creazione e
condivisione di contenuti già presenti in rete.
L’idea progettuale è quella di sviluppare uno strumento a sostegno dell’utente,
che promuova una strategia di apprendimento del diritto d’autore in rete e che
sensibilizzi e diffonda l’utilizzo delle licenze Creative Commons in tutte le fasi del flusso
di creazione dei contenuti in rete.
Per arrivare a definire questo strumento seguiremo l’approccio metodologico
user-centered dell’interaction design, che ci permetterà di determinare i requisiti del
sistema attraverso le varie fasi che prevede tale metodologia, prendendo in
considerazione l’utente sin dal principio. Ci concentreremo quindi sulla qualità
interattiva del nostro sistema, prendendo in considerazione le teorie principali sui
concetti chiave di usabilità e esperienza utente. Infatti alla luce di quanto emerso nella
fase di ricerca condotta finora, avvalorata dalle opinioni degli esperti a cui ci siamo
rivolti per avere un parere più tecnico, è nata l’esigenza di progettare un sistema che,
partendo dall’analisi dei bisogni e delle necessità degli utenti, sia usabile per gli utenti a
livello interattivo, ma che renda anche l’interazione gratificante e soddisfacente per
l’utente.
Seguendo l’approccio metodologico user-centered design, in questo capitolo
mostreremo le varie fasi che affronteremo per l’analisi dei requisiti del sistema che
vogliamo progettare. Inoltre, attraverso l’analisi delle teorie e delle tendenze di ricerca
sulla qualità dell’interazione, cercheremo di sviluppare il nostro sistema anche in base ai
173
principi dell’approccio User-Experience, che ci permetterà di valutare la qualità
interattiva del nostro sistema in base all’esperienza utente, studiando le reazioni
soggettive dei potenziali utenti del nostro sistema quali il divertimento derivato
dall’utilizzo, la gratificazione, la piacevolezza estetica, le reazioni emozionali e
l’autoaffermazione.

5.2 L’analisi comparativa


Inizialmente, per far emergere i requisiti, abbiamo effettuato una prima
ricognizione sul Web per osservare e valutare le esperienze di creazione e condivisione
di contenuti già presenti in rete359. L’analisi si è quindi concentrata sulle piattaforme
User Generated Content, per individuare le best practices già presenti in rete e valutare
le eventuali criticità, con l’obiettivo di trarre spunti per la formulazione dei requisiti e
sviluppare così la nostra idea progettuale evolvendo servizi pre-esistenti che risultano
carenti360. Si è così proceduto con un’analisi generale che ha riguardato soprattutto:

- piattaforme user generated content che offrono servizi addizionali quali l’editing on
line;
- piattaforme user generated content che offrono la possibilità di licenziare i contenuti
autoprodotti dagli utenti sotto licenze libere.

Si è così arrivati alla costruzione di una tabella comparativa361, che ha messo in


luce le variabili delle diverse piattaforme. Tra queste variabili, quelle più rilevanti
riguardano la presenza o meno di servizi addizionali come strumenti di editing online,
social network, l’utilizzo delle licenze libere, la possibilità di download e upload di
contenuti, la possibilità di creare mashup di contenuti e remixare contenuti pre-
esistenti. Questa analisi preliminare sul Web ha permesso quindi di effettuare una
possibile classificazione delle forme di authoring in rete, già evidenziate nel primo
capitolo. Nello specifico sono state riscontrare principalmente tre forme di creazione di
contenuti: autonome, collaborative sincrone e collaborative asincrone.
Da qui sono stati esaminati più in profondità tre casi studio rilevanti -Flickr.com,
CcMixter e Total Recut-, scelti in base alla possibilità di effettuare l’editing online

359
La ricognizione delle esperienze in rete, analizzate caso per caso, è presente nel primo
capitolo.
360
Roberto Polillo, op. cit., p. 148.
361
La tabella comparativa delle piattaforme Web analizzate è disponibile in Appendice.
174
attraverso l’utilizzo di appositi strumenti messi a disposizione dalle piattaforme come
servizi addizionali e in base alla possibilità di effettuare remix di contenuti di ogni
genere. È importante sottolineare che tutte e tre le piattaforme prese in esame offrono
già la possibilità di licenziare i lavori sotto CCPL. Su queste tre piattaforme si è proceduto
quindi ad un esame più approfondito, per cercare punti di forza e debolezze che
potessero essere di aiuto nell’analisi dell’attività e nella formulazione dei requisiti del
nuovo sistema.

5.3 Task Analysis sulle piattaforme Flickr.com, Ccmixter.org e Total Recut.com


Dopo avere analizzato in profondità il funzionamento delle piattaforme
Flickr.com, Ccmixter.org e Total Recut.com, procederemo con la Task Analysis. La task
analysis è un metodo di analisi dell’attività umana basato sulla scomposizione in compiti
(task) da eseguire per identificare gli obiettivi degli utenti, descrivendo le azioni da
compiere per arrivare al raggiungimento di uno scopo, strutturando le azioni in task e
sotto task, descrivendone l’ordine e le condizioni. L’analisi dei task riguarda sistemi
esistenti e procedure e i suoi strumenti sono l’osservazione nelle sue varie forme362.
Dopo aver rappresentato in forma testuale per punti l’esecuzione dei compiti e
sottocompiti, si è proceduto alla schematizzazione dei task sotto forma di diagramma,
identificando gli eventuali fattori contestuali che possono influenzare il task e
individuando i problemi e gli spazi aperti per la progettazione.

5.3.1 Condividere una foto su Flickr.com e rilasciarla sotto CCPL

1. Creare un account sul sito Flickr.com.

2. Inserire User e Password.

3. Accedere all’area personale e cliccare su Inserisci una foto.

4. Foto pubblicata.

4.1 Default di Copyright

4.2 Licenziare con CCPL

362
Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi Edizioni,
2006, p. 297.
175
4.2.1 Cliccare sotto l’immagine o Entrare nel menu Esplora

4.2.2 Selezionare la voce Creative Commons

4.2.3 Seguire il percorso guidato per l’applicazione della licenza

4.2.4 Pubblicazione foto sotto CCPL

Figura 5 - Diagramma della task analysis effettuata sul sito Flickr.com

5.3.2 Condividere un brano con CcMixter.org per il riutilizzo in rete

1.Entrare sul sito CcMixter.org

2. Cliccare sul pulsante Remixes

3. Scegliere il file da remixare

3.1 Scegliere se ascoltarlo in streaming

3.2 Effettuare il download

4. Remixarlo offline
176
5. Rientrare sul sito

6. Inserire User e Password

7. Effettuare l’upload del nuovo brano remixato

Figura 6 - Diagramma della task analysis effettuata sul sito CcMixter.org

5.3.3 Creare e condividere un video su Total Recut.com

1. Entrare sul sito Total Recut.com

2. Cliccare sul pulsante Remix

3. Cliccare sul bottone Clips Library

4. Cliccare su Add More

4.1 Scegliere Video, Foto o Audio

5. Selezionare la fonte da cui si vuole caricare

5.1 Selezionare Browse per sfogliare dal proprio pc


177
5.2 Selezionare i siti di UGC disponibili

6. Cliccare su Upload

Figura 7 - Diagramma della task analysis sul sito Total Recut.com

5.4 Le valutazioni con gli utenti: prima fase


Le Task Analysis condotte sulle tre piattaforme hanno portato alla luce punti di
forza e problematiche presenti in ognuna di queste piattaforme. A questo punto è stato
necessario un primo coinvolgimento degli utenti per osservare le loro interazioni con il
sistema esistente e comprendere i bisogni e le necessità per sviluppare il nuovo sistema.
È stato così fatto provare agli utenti l’utilizzo di queste piattaforme dando loro dei
compiti che man mano dovevano svolgere per arrivare allo scopo finale: quello di
riuscire a creare e condividere un contenuto in rete e a rilasciarlo con una licenza libera.
Dalle valutazioni sugli utenti che si sono sottoposti a svolgere alcuni compiti sui tre casi
studio Web, sono emersi alcuni elementi importanti ai fini progettuali, che possono
essere generalizzati in questo modo:
1. Nel caso di Flickr gli utenti hanno eseguito i compiti affidati senza trovare
difficoltà ad utilizzare il sistema nella fase di upload e pubblicazione delle foto, e hanno

178
utilizzato l’editor di fotoritocco con facilità. Nel momento in cui gli è stato chiesto di
andare avanti e decidere in che modo rilasciare la foto pubblicata si sono ritrovati
spaesati, infatti non avevano pensato a questa possibilità. Per loro il compito da svolgere
poteva essere terminato con la pubblicazione dell’immagine in rete. A quel punto, sotto
suggerimento, hanno iniziato a navigare nel menù per cercare informazioni e dopo varie
prove hanno trovato all’interno del menù Esplora la voce Creative Commons.
Incoraggiati a proseguire sono andati avanti nel procedimento ma senza capire
veramente cosa stavano facendo.
Successivamente gli utenti sono stati invitati a ripercorrere il flusso di lavoro
svolto e ad indicare in quali momenti, secondo il loro parere, sarebbe stato utile e
necessario avere maggiori informazioni sul tema dei diritti e sulla possibilità di scegliere
Creative Commons. Gli utenti hanno suggerito che avrebbero trovato più sensato essere
informati di questa possibilità di scelta già durante l’upload, ad esempio quando
l’utente, per impostare il tipo di privacy da attribuire all’immagine, è chiamato a
scegliere tra il default pubblico e privato. La stessa cosa è stata avvertita dagli utenti
quando si utilizza l’editor di fotoritocco online PicNik, perché né durante il flusso di
lavoro né durante il salvataggio dell’immagine sono stati informati di questa possibilità.
Secondo gli utenti che si sono sottoposti alle valutazioni infatti, se non si fa presente
questo aspetto dei diritti e non lo si informa esplicitamente, l’utente non si pone il
problema. Gli utenti hanno inoltre suggerito che bisognerebbe dare più informazioni
aggiuntive anche in seguito magari con dei banner, oppure hanno suggerito di poter
essere messi al corrente di questa questione ad esempio in seguito alla pubblicazione,
quando tornano nella pagina personale.

2. Nel caso di CcMixter gli utenti si sono trovati spaesati nella navigazione del
sito, hanno cercato maggiori informazioni navigando, ma con scarsi risultati. Hanno
compreso di poter ascoltare e scaricare brani rilasciati sotto licenze libere e di poterli
riutilizzare liberamente senza violare il copyright.

3. Nel caso di Total Recut è stato chiesto agli utenti di interagire con la
piattaforma allo scopo di creare un remix video con altri file utilizzando l’editor offerto
dal sito stesso. Quando hanno provato a caricare un video dal pc che stavano
utilizzando, non hanno trovato difficoltà e hanno accolto con piacere il fatto di poter

179
caricare materiale anche da altre piattaforme web. Nella fase finale di caricamento
alcuni utenti hanno cliccato automaticamente l’avviso apparso sulla finestra di lavoro
che avvertiva di non violare le condizioni d’uso del sito e che il materiale che stavano
caricando veniva licenziato sotto CCPL, senza leggere le condizioni d’uso. Altri utenti
trovandosi di fronte all’avviso non hanno portato a termine l’upload.

5.5 La definizione dei personaggi


In base ai dati acquisiti fino ad ora sugli utenti e i loro bisogni, attraverso i
risultati dei questionari e l’osservazioni empirica delle interazioni con i sistemi già
presenti in rete, è stato possibile definire dei profili ricorrenti utili per redigere la scheda
dei personaggi, secondo il metodo di Alan Cooper363.
Il metodo dei personaggi servirà per progettare il nostro sistema interattivo in
funzione dei reali obiettivi dei potenziali utilizzatori, mantenendo sempre ben presente il
loro ruolo e i loro bisogni in tutto il processo di progettazione. Sono stati così individuati
tre personaggi, classificati come personaggi primari, secondari e negativi364. Questa
suddivisione ci permetterà di concentrarci meglio sui reali destinatari del sistema che
vogliamo progettare e di tralasciare invece quelli per cui non dovremo lavorare.

363
Secondo Cooper, esperto di interazione uomo-macchina, un personaggio è una descrizione
testuale di finzione di un ipotetico utilizzatore di un sito web o di un prodotto interattivo, un
utente modello rappresentativo di una classe di utilizzatori che condividono analoghe strategie di
comportamento e con obiettivi simili. Questo metodo consente di incorporare nel progetto le
conoscenze acquisite sui potenziali utilizzatori del nostro sistema attraverso le metodologie di
raccolta dati come i questionari, l’osservazione sul campo, le interviste e i focus group, in modo
da ottenere una guida efficace nel corso del design del prodotto. Il metodo dei personaggi
rappresenta un concetto centrale dell’approccio metodologico di progettazione Goal-Directed
Design, per il quale è fondamentale che il prodotto interattivo sia costruito in funzione dei reali
obiettivi degli utilizzatori.
364
Secondo la definizione di Crevola e Gena, (op. cit., pp. 10-14) i personaggi primari sono coloro
per i quali il sistema verrà progettato, i personaggi secondari sono coloro che saranno soddisfatti
dall’interfaccia realizzata ma che richiedono aggiustamenti e funzionalità aggiuntive, i personaggi
supplementari coloro che sono interessati ma non diretti utilizzatori del sistema, e i personaggi
negativi coloro che non utilizzeranno mai l’interfaccia.
180
5.5.1 Scheda Personaggio Primario

Antonella, 27 anni
Studentessa post-laurea
Personaggio primario

Antonella ha 27 anni e per motivi studio vive per alcuni periodi in città
diverse. Ha una grande passione per la fotografia, anche se per ora è solo
una attività amatoriale. Non ha grande dimestichezza con il pc, ma negli ultimi tempi
utilizza spesso la rete connettendosi con una Internet Key, soprattutto i social network
come Facebook, con cui si tiene in contatto con i suoi amici e condivide con loro le sue
foto. Ultimamente, proprio grazie a un amico, ha iniziato ad avvicinarsi anche ad altre
piattaforme di photosharing in rete, dove ha scoperto di poter condividere le sue foto
più artistiche con altri utenti che come lei amano la fotografia.
Non ha mai pensato di rilasciare le sue foto in modo libero in rete, perché non
conosce le licenze Creative Commons.
Un tutorial che la informasse dell’esistenza delle licenze Creative Commons
sarebbe molto utile per lei, perché la metterebbe a conoscenza di queste licenze e
l’aiuterebbe nel processo di apprendimento sull’utilizzo e applicazione di queste licenze.

5.5.2 Scheda Personaggio Secondario

Luca, 29 anni
Web Designer
Personaggio secondario

Luca vive a Sassari, ha 29 anni e realizza siti web per aziende e privati.
Ha sempre avuto una grande passione per la musica, che ha coltivato
suonando fino a qualche anno fa in un gruppo. Passa molte ore al giorno davanti al
computer per lavoro, ma nel tempo libero si diverte a creare musica con alcuni software
di editing come Reason, che spesso utilizza come file musicali nei siti che crea per le
aziende. Naviga in rete per molte ore al giorno dal suo portatile attraverso un router Wi-
FI e ha scoperto da poco che esistono diverse piattaforme che permettono la

181
condivisione e il remix di musica, e vorrebbe iniziare a farne parte per condividere la sua
musica con altri utenti che hanno la sua stessa passione.
Navigando in rete ha sentito parlare delle licenze Creative Commons, ma non le
ha mai applicate alla sua musica. Crede però che sia fondamentale un minimo di tutela
sui lavori autoprodotti dagli utenti in rete e vorrebbe imparare a conoscerle meglio e ad
applicarle anche alle sue creazioni musicali.
Potrebbe quindi interagire con il tutorial per ricevere maggiori informazioni sulle
CCPL e imparare ad utilizzarle magari direttamente mentre utilizza le piattaforme di
condivisione.

5.5.3 Scheda Personaggio Negativo

Francesca, 25 anni
Neo-laureata
Personaggio negativo

Francesca ha 25 anni e una grande passione per i video. Si è laureata


da poco e nel tempo libero si diverte a creare video con alcuni
software di editing base come Movie Maker o Pinnacle. Nonostante ciò è definita una
brava videomaker da tutti gli amici, che spesso le chiedono consigli per migliorare i
propri lavori.
Naviga spesso su piattaforme Web per condividere i suoi video, ma anche per
prendere spunto da lavori di altri utenti per crearne di nuovi. Così ha scoperto
l’esistenza di alcune piattaforme collaborative che permettono agli utenti di remixare
opere pre-esistenti e crearne di nuove basate su queste. Alcune di queste offrono la
possibilità di editing direttamente online, e permettono di accedere ad opere presenti
anche su altre piattaforme per remixarle, soprattutto quelle che utilizzano lavori
rilasciati con licenza libera. Spesso ha utilizzato immagini e musica nei suoi video, senza
pensare al diritto d’autore sulle opere che utilizzava. Si è così informata sul sito ufficiale
Creative Commons per conoscere meglio le CCPL e il loro utilizzo. Anche lei ora applica
delle licenze specifiche ai suoi video con le quali può decidere quali utilizzi dei suoi lavori
rilasciare liberi, e utilizza spesso lavori pre-esistenti rilasciati sotto CCPL.
Francesca non è interessata a un learning process nella conoscenza delle licenze
perché conosce e utilizza già le CCPL. Ritiene però che il tema dei diritti in rete non sia

182
affrontato efficacemente e che la conoscenza di queste licenze non sia molto chiara per
chi si avvicina per la prima volta al mondo Creative Commons. Avrebbe gradito un
sistema che l’avesse aiutata da subito a conoscere questo mondo e a farne parte, per
questo trova che un tutorial integrato in questi ambienti collaborativi potrebbe essere
utile per tutti coloro che creano, diffondono e riutilizzano in rete contenuti.

5.6 Il metodo degli scenari


Dopo aver delineato i profili dei potenziali utenti del sistema che stiamo
andando a progettare, possiamo proseguire nella nostra analisi, attraverso l’utilizzo del
metodo degli scenari. Questo metodo è molto utile per dare vita agli archetipi delineati
con il metodo dei personaggi in uno scenario che aggiunge dinamismo e sfrutta al
massimo il potenziale dei personaggi, componendo degli scenari d’uso in cui i
personaggi potrebbero incorrere utilizzando il sistema365. Questo ci servirà per definire
ulteriori requisiti del sistema che vogliamo progettare, dando vita ai personaggi statici
costruiti precedentemente e facendoli interagire con i sistemi esistenti.
Procederemo quindi con la costruzione di tre casi d’uso possibili sulle tre
piattaforme prese in esame precedentemente nella task analysis, descrivendo come un
potenziale utente può interagire con il sistema per portare a termine un determinato
compito attribuitogli.

5.6.1 Scenario dell’attività su CcMixter.org


Titolo: Remixare un brano musicale e condividerlo su CcMixter.
Obiettivo: Capire come l’utente interagisce col sito CcMixter per effettuare il remix di un
brano e approcciarsi alle licenze Creative Commons.
Attori coinvolti nell'attività: Luca, 29 anni, artista musicale amatoriale.
Descrizione dell'attività:

365
Uno scenario d’uso è una narrazione di una possibile storia dell’uso del sistema da parte di
uno specifico utente. Descrive cioè come un personaggio interagirebbe con il prodotto per
portare a termine determinati compiti. Esso contiene in forma narrativa la sequenza di azioni che
dovrebbe essere portata a termine per raggiungere un determinato obiettivo. Ciò che rende
importanti gli scenari è la presenza delle informazioni qualitative che si possiedono grazie al
personaggio costruito in base alla ricerca effettuata sugli utenti. Gli scenari possono essere
classificati in scenari dell’attività, quando descrivono attività esistenti, o in scenari di envisioning
quando si immaginano nuove attività, documentando passo per passo le azioni compiute dagli
utenti.

183
“Luca ha creato un brano musicale che vorrebbe remixare con altri file creati da altri
utenti come lui, per creare un’opera nuova. Ha paura però di utilizzare altri brani in rete
per evitare problemi sui diritti. Decide così di provare ad utilizzare il sito CcMixter, che
utilizza le licenze Creative Commons, potendo così scegliere tra uno dei brani già
presenti sulla piattaforma e rilasciati con licenze d’uso libere. Decide così prima di tutto
di caricare anche il suo brano così che anche gli altri possano riutilizzarlo nei propri
remix.
Entra quindi sul sito CcMixter, crea il proprio account e clicca sul pulsante Submit
Samples. Compila la schermata che gli si apre per effettuare l’upload del proprio brano,
scegliendo il file, attribuendogli dei Tags che lo descrivano e dandogli un nome e una
descrizione:

A questo punto deve scegliere una licenza libera da attribuire al suo brano. Deve
scegliere obbligatoriamente tra due licenze: la Attribution o la Attribution-Non
Commercial. Luca non conosce benissimo queste licenze, ne ha sentito solo parlare e
non sa cosa comporta l’utilizzo di una licenza di una piuttosto che un’altra e quale sia
quella più adatta a lui. È costretto quindi a cercare in rete informazioni maggiori sulle
licenze che lo aiutino a capire meglio:

184
Decide in seguito di rilasciare il suo brano con licenza Attribution per permettere a
chiunque di riutilizzarlo dovendo solo attribuirgli la paternità. Adesso può scegliere i
brani già presenti sul sito per il remix. Entra così sul pulsante Remixes e naviga tra i
diversi brani presenti sul sito:

185
Può decidere di ascoltare i brani in streaming per scegliere quelli che preferisce per il
remix:

Una volta deciso quale brano è adatto al suo remix lo può scaricare sul proprio Pc
cliccando sul pulsante Download:

Luca cerca sul sito se c’è la possibilità di utilizzare un software di editing online per
lavorare sul brano che ha scelto, ma si accorge che deve lavorare offline. È costretto così
ad uscire dal sito e aprire il suo programma di editing audio Reeson e lavorare in locale.
Una volta terminato il remix dei brani, rientra sul sito CcMixter per caricare il nuovo file
remixato ed effettua il login:

186
Ed ora può caricare il brano cliccando su Submit Remix:

Compila la schermata che gli appare, dove deve indicare quale brano ha utilizzato per il
remix, scegliere un nome, attribuire dei Tags e descrivere il nuovo brano. Non gli viene
chiesto di scegliere una licenza per il nuovo brano perché va in automatico nella licenza
presente sul brano remixato”.

Dallo scenario emerge che in una remixing community come CcMixter, l’utente non ha la
possibilità di creare la musica direttamente online attraverso un apposito strumento di
editing, per cui l’utente è costretto a lavorare offline e rientrare in seguito sul sito per
caricare i lavori. Pur essendo un progetto Creative Commons, non viene spiegato in
maniera più dettagliata l’utilizzo delle licenze. È dato quasi per scontato che l’utente
abbia già delle conoscenze approfondite sulle licenze e sul loro utilizzo.
187
5.6.2 Scenario dell’attività su Flickr.com

Titolo: Condividere foto su Flickr.com e renderle disponibili per il riutilizzo in rete sotto
CCPL
Obiettivo: L’utente deve portare a termine il processo di creazione e condivisione delle
proprie immagini e rilasciarle sotto CCPL.
Attori coinvolti nell'attività: Antonella, 27 anni, appassionata di fotografia
Descrizione attività:

“Antonella vuole condividere in rete le sue foto e ha deciso di farlo con Flickr.com Entra
così sul sito Flickr e crea un proprio Account. Una volta creato l’Account, può caricare le
sue foto sul sito. Clicca su Carica foto e sceglie le foto dal suo Pc:

Dopo aver scelto le immagini da caricare, procede con l’upload. Una volta terminato, le
immagini caricate da Antonella vanno in automatico in default Pubblico perché lo spirito
di Flickr è quello di condividere con tutti le proprie immagini. Per questo Antonella ha
scelto Flickr per condividere le sue immagini: avere visibilità e dare a tutti la possibilità
di riutilizzarle:

188
Può aggiungere Tag e descrizioni e salvare le foto su Flickr. A questo punto può decidere
di utilizzare l’editor di fotoritocco online PicNik che Flickr mette gratuitamente a
disposizione dei propri utenti:

189
Con PicNik può così tagliare, modificare la luminosità delle sue immagini o aggiungere
effetti proprio come avviene nei più comuni software di editing in locale:

Dopo aver modificato la sua foto con PicNik, Antonella può procedere alla pubblicazione
su Flickr:

L’immagine è così pubblicata di default in regime di Copyright. Antonella non conosce


Creative Commons, perciò non si preoccupa di come rilasciare la sua foto e di come
verrà utilizzata. Se Antonella avesse conosciuto Creative Commons avrebbe potuto

190
decidere di applicare una licenza libera, per consentire agli altri di riutilizzare la sua
immagine per altri lavori.

Per fare questo dovrebbe navigare il menu Esplora e scegliere la voce Creative Commons
oppure cliccare sotto l’immagine:

La pagina che si apre mostra una panoramica di immagini presenti su Flickr rilasciate
sotto CCPL e una breve spiegazione delle licenze. In fondo trova la il link su cui cliccare
per procedere all’applicazione della licenza alla sua foto:

191
Antonella potrebbe scegliere la licenza che preferisce applicare alla sua foto, che
verrebbe in seguito applicata di default a tutte le immagini che pubblicherà in futuro”.

Dallo scenario emerge che la piattaforma di photosharing Flickr.com offre diverse


interessanti opportunità agli utenti. Oltre alla condivisione delle immagini e video, offre
come servizio la possibilità di accedere all’editor online PicNik per lavorare sulle proprie
immagini direttamente online, e la possibilità di applicare le licenze Creative Commons.
Tuttavia durante tutto il processo di creazione e pubblicazione dell’immagine su Flickr e
PicNik, l’utente non ha trovato niente che lo avvertisse sulla tutela dei diritti d’autore
per le immagini che stava caricando. Questo né al momento dell’upload, dove viene solo
ricordato che le immagini pubblicate sono di default pubblico e quindi accessibili e
utilizzabili da tutti, né al momento in cui ha utilizzato PicNik e ha salvato l’immagine
modificata. Una volta terminato il flusso di lavoro l’immagine pubblicata dall’utente è
visibile e utilizzabile da tutti. Il regime applicato di default da Flickr è quello di Copyright.
Neanche dopo la pubblicazione finale si pone all’utente la questione dei diritti, infatti
non viene avvisato né del regime di tutela applicato, né della possibilità di scegliere
licenze d’uso non restrittive.

5.6.3 Scenario dell’attività su TotalRecut.com


Titolo: Creare un remix video e condividerlo su Total Recut.com
Obiettivo: l’utente deve portare a termine il processo di creazione e pubblicazione di un
filmato remixando video, immagini e audio proprie o create da altri utenti.
Attori coinvolti nell'attività: Francesca, 25 anni, filmaker dilettante.
Descrizione attività:
192
“Francesca ha girato alcuni filmati amatoriali e vorrebbe remixarli insieme ad altri video
e aggiungere delle musiche e suoni come sottofondo. Trova in rete il sito Total Recut che
offre la possibilità di creare e pubblicare i propri lavori remixandoli con altri pre-
esistenti. Entra sulla Home Page di Total Recut e clicca sul pulsante Remix:

Si apre il software di editing online Kaltura che permette di lavorare sul filmato
direttamente online. Francesca clicca sul pulsante Clips Library per procedere alla
produzione del filmato:

193
Si apre così l’interfaccia di Kaltura, simile ai più tradizionali programmi di video editing
che si utilizzano in locale. Sono presenti già diversi fotogrammi da utilizzare per il remix.
Clicca sul pulsante Add More per caricare su Kaltura il suo filmato da remixare con quelli
pubblicati da altri utenti in rete.

Qui può scegliere il tipo di file da caricare (video, foto e audio) e decidere di sfogliare il
file da caricare dal proprio Pc o da una delle piattaforme di condivisione elencate nel
riquadro a sinistra:

194
Una volta caricati sull’editor i file deve attribuire titolo e tag che descrivano il filmato:

Al termine dell’upload un avviso allerta Francesca di non violare i Terms of Use di Total
Recut e che il file caricato sarà sotto licenza Creative Commons Attribution-Share Alike.
Un link collega alla pagina dei Terms of Use e del Common Deed della licenza:

Francesca accetta le condizioni d’uso senza leggerle e preme OK. Può così procedere al
remix tra il suo file e gli altri presenti su Kaltura e pubblicarlo su Total Recut, remixando
insieme i suoni e i video creati da altri con il suo per crearne uno nuovo”.

Dallo scenario emerge come nella piattaforma di video sharing Total Recut si offrano
servizi addizionali importanti come la possibilità di editing direttamente online
195
attraverso l’editor Kaltura, che consente di effettuare il remix dei propri video con quelli
creati da terzi e di mixarli con file musicali presi direttamente da altre piattaforme di
condivisione che utilizzano licenze d’uso libere tra cui CcMixter. È importante la scelta di
apporre un avviso durante la fase finale del caricamento del materiale su Kaltura,
tuttavia risulta l’unico avvertimento sulla questione dei diritti d’autore, ricordando
all’utente di non violare le condizioni d’uso del sito e che il materiale caricato sarà
licenziato sotto CCPL. Il link che riporta alla pagina dei Terms of Use e quello che
rimanda al Common Deed della licenza non aiutano però l’utente a approfondire la
conoscenza delle licenze, anche perché si trova obbligato alla scelta di una licenza pre-
definita. Inoltre la possibilità di caricare file da altre piattaforme di condivisione è molto
utile, ma c’è il rischio che venga caricato materiale altrui da piattaforme come YouTube
senza avere i diritti su esso. Anche in questo caso non è presente alcun tipo di
avvertimento sulla possibilità di ledere diritti dei terzi.

5.7 I requisiti dell’attività


Grazie alla metodologia user-centered svolta finora e alla costruzione dei
personaggi e degli scenari dell’attività, sono emersi nuovi bisogni e necessità da parte
dei potenziali utenti per raggiungere gli obiettivi posti, cioè i cosiddetti requisiti del
sistema. Procederemo quindi alla stesura di un’analisi approfondita che metta in luce le
caratteristiche dei potenziali utenti e i loro bisogni emersi in base all’analisi effettuata
finora.

5.7.1 Analisi dell’utente e dei bisogni


Il sistema che vogliamo progettare è destinato a tutti quegli utenti che utilizzano
la rete per creare e condividere i propri lavori, e a coloro che utilizzano gli ambienti
collaborativi per la creazione e il remix di contenuti in rete anche da opere pre-esistenti,
soprattutto attraverso l’utilizzo di strumenti di editing online di contenuti di ogni genere.
Poiché nell’attuale scenario i contenuti vengono creati e distribuiti non più solo da
alcune categorie di utenti come i professionisti, ma anche da utenti amatoriali,
l’attenzione si è focalizzata soprattutto sui potenziali utenti delle piattaforme di
creazione e condivisione di contenuti che si avvicinano per la prima volta a questi
ambienti.
Dall’analisi condotta finora sono emerse necessità e bisogni dei potenziali utenti
delle piattaforme di creazione e condivisione di contenuti. Gli utenti che utilizzano il
Web per creare e condividere i propri lavori e che utilizzano questi strumenti di editing
196
dei contenuti online, hanno la necessità di tutelare i propri lavori e di avere quindi
maggiori informazioni sui principi base del diritto d’autore, per poter scegliere
consapevolmente il tipo di tutela che vogliono applicare alla propria opera, quindi Tutti i
diritti riservati o Alcuni diritti riservati. Dai risultati del questionario è emersa inoltre la
necessità da parte degli utenti di ricevere maggiori informazioni che permettano la
conoscenza di Creative Commons e dell’utilizzo delle licenze, e che permettano di
chiarire gli eventuali dubbi nel momento in cui si interagisce con questi ambienti per la
creazione e condivisione di contenuti.

5.7.2 Analisi del contesto d’uso:


Il sistema che vogliamo progettare potrà essere utilizzato in rete in tutti quegli
ambienti che permettono la creazione autonoma o collaborativa, la condivisione e il
remix di contenuti in rete. Un sistema di questo tipo potrebbe essere integrato in
qualsiasi piattaforma User-Generated Content e potrebbe garantire una maggiore
educazione al diritto d’autore e una maggiore consapevolezza nella scelta della tutela da
applicare ai lavori autoprodotti.

5.7.3 Analisi casi d’uso


A questo punto è necessario definire una lista dei compiti che gli utenti
dovranno essere capaci di fare utilizzando il sistema futuro che stiamo progettando, con
lo scopo di capire cosa accadrebbe se offrissimo ai potenziali utenti la possibilità di
interagire con un sistema che renda più presente la questione dei diritti e la possibilità di
scegliere le licenze Creative Commons. Per effettuare questa prova è stato scelto uno
dei siti analizzati nel benchmarking Flickr.com, poiché rappresenta un potenziale caso
d’uso del sistema che vogliamo progettare. I potenziali utenti del nostro sistema
dovranno essere capaci di:

1. Entrare sul sito Flickr.com per pubblicare e condividere una immagine;


2. Caricare un’immagine;
3. Modificare l’immagine con l’editor di fotoritocco online PicNik;
4. Salvare l’immagine;
5. Scegliere il tipo di tutela da applicare;
6. Decidere e scegliere di applicare consapevolmente una licenza Creative Commons;

197
Adesso che abbiamo individuato le task che i nostri potenziali utenti dovranno
essere in grado di compiere con il nuovo sistema che stiamo andando a progettare,
possiamo disporli in modo razionale secondo le connessioni logiche, cioè mostrando i
flussi di compiti del sistema che vogliamo progettare. Questo aiuterà a far prendere
forma al nostro sistema, suggerendo l’ordine delle azioni che il sistema dovrà
permettere e mostrando quando e come gli utenti potranno eseguire determinate
azioni366.

1. L’utente entra sul sito Flickr.com per pubblicare e condividere una immagine.

2. L’utente carica l’immagine:


2.1 quando l’utente effettua l’upload il sistema ricorda di non caricare materiale di cui
non ha la paternità. Se l’utente clicca sul link otterrà approfondimenti sul tema del
diritto d’autore legato a quel particolare passaggio; se l’utente non clicca sul link, questo
non interferisce nel workflow, ma l’avviso resa comunque presente.

3. Caricata l’immagine, l’utente deve impostare la privacy e scegliere tra default pubblico
e privato:
3.1 il sistema chiede all’utente quali diritti vuole attribuire alla propria opera. L’utente
può decidere di cliccare il link e accedere così al tutorial, otterrà informazioni aggiuntive
sui due modelli di tutela: tutti i diritti riservati e alcuni diritti riservati. Potrà visionare le
spiegazioni che il tutorial fornisce e andare avanti nel learning process fino alla scelta del
modello e della licenza, o fermarsi prima e scegliere di chiudere e andare avanti nel
workflow; se l’utente non clicca il link questo non interferisce nel flusso di lavoro, ma
l’avviso resta presente nelle successive fasi del workflow.

4. L’utente deve scegliere di salvare l’immagine o modificarla con l’editor online PicNik:
4.1 se decidere di utilizzare PicNik, mentre è davanti all’interfaccia dell’editor per
lavorare alle modifiche sull’immagine, il sistema chiede all’utente quali diritti vuole
attribuire all’opera e dei link correlati informano l’utente sulla possibilità di scegliere
Creative Commons. Gli avvisi non invadono l’area di lavoro, restano presenti
nell’interfaccia ma senza interrompere il flusso di lavoro. Questo per restare presente

366
Saffer, D., Il design dell’Interazione, Paravia Bruno Mondadori Editore, Milano, 2007, pp. 104-
108.

198
durante tutto il processo di authoring e permettere all’utente di decidere se e quando
vuole avere informazioni aggiuntive. L’utente potrà infatti decidere se cliccare il link e
iniziare il learning process o continuare a lavorare alle modifiche sull’immagine.

5. Una volta terminate le modifiche, l’utente deve salvare l’immagine:


5.1 il sistema avvisa l’utente di non pubblicare materiale già protetto da copyright. Il
sistema dovrà essere in grado di capire se l’utente ha già usufruito del learning process:
se l’utente non ha mai preso visione del tutorial e non ha scelto quale licenza attribuire,
il sistema continuerà a chiedere all’utente quali diritti vuole attribuire alla sua opera,
altrimenti, in caso contrario.

6. immagine pubblicata per la condivisione in rete:


6.1 poiché uno dei requisiti del sistema, emersi dalle interviste agli esperti, dovrà
essere quello di non interrompere il workflow e quello di essere un dispositivo
intelligente, esso dovrà essere in grado di capire quando non è più necessario proseguire
nel learning process perché l’utente ha già effettuato la sua scelta.
Il sistema dovrà consentire ai potenziali utenti di migliorare se stessi e
l’esperienza che hanno interagendo con esso, dovrà cioè sapersi adattare alle esigenze
degli utenti e gli utenti ad esso. I dispositivi infatti devono diventare consapevoli del
contesto e più sensibili ai limiti dell’attenzione umana, modificando la propria forma,
contenuto e funzionalità in base al luogo e alle modalità di utilizzo. Un concetto
importante da tenere in considerazione quando si concepisce un adattamento è che non
è solo l’applicazione ad adattarsi, ma c’è un continuo scambio tra prodotto e utente che
si adattano e rispondono vicendevolmente. Lo scopo di questo stimolo-reazione tra
utente e sistema è di raggiungere quello che Mihaly Csikszentmihalyi descrive come
Flow367:

Flow is the state in which people are so involved in an activity that nothing else
seems to matter; the experience itself is so enjoyable that people will do it even at
great cost for the sheer sake of doing it.

Il Flow è definito da Csikszentmihalyi come uno stato che presuppone passione e


creatività, il pieno coinvolgimento delle migliori abilità della persona, la sua attenzione

367
Csikszentmihalyi, M., Flow. The Psychology of Optimal Experience, HarperCollins Publishers,
1990, p. 4.

199
totale, la chiarezza della meta da raggiungere, un ottimale senso di controllo e il totale
coinvolgimento nell’attività che si sta svolgendo. Esso si svela in base ad alcuni indizi
come l’elevato coinvolgimento e passione, il controllo della situazione, la focalizzazione
dell'attenzione, l’assenza di paura, ansia, stress e sovreccitazione da un lato, e di noia,
rilassatezza e sovra controllo dall’altro, il piacere per l'attività stessa, l’alterata
percezione dello scorrere del tempo e l’ assenza di auto-osservazione giudicante.

Figura 8 - Diagramma del Flow basato sul lavoro di Csikszentmihalyi, in Saffer, op. cit., p. 161.

Il Flow e l’adattamento comportano l’individuazione di un corretto equilibrio tra


la difficoltà di un compito e le abilità dell’utente. Poiché le troppe difficoltà nell’eseguire
un compito producono ansia e le poche difficoltà generano noia, è necessario che il
sistema che vogliamo progettare permetta agli utenti di raggiungere questo equilibrio e
quindi di raggiungere il Flow.
Nel progettare per l’adattamento è necessario quindi capire la struttura
profonda dei prodotti e consentire alla struttura di superficie di essere adattabile e
reattiva. Occorre determinare quali parti di funzionalità e forma sono così centrali al
prodotto che non devono mai adattarsi, e determinare quali sono le parti mobili e come
possono cambiare.
Secondo Norman368 lo sviluppo di sistemi centrati sull’utente fa riferimento ad
un processo che parte dai bisogni, analizza il sistema di valore che sta alla base del
processo di soddisfazione del bisogno, lo traduce in funzioni e queste in un sistema

368
Norman, D., Il computer invisibile:la tecnologia migliore è quella che non si vede, Apogeo,
Milano, 2000.
200
strutturato di tecnologie, scegliendo tra le soluzioni già offerte dalla tecnologia quelle
con performance eccellenti e facili da usare. L’obiettivo è quindi quello di individuare
una soluzione tecnologica che produca valore per l’utente, ponendo l’utente al centro
dell’intera progettazione e garantendo un esperienza utente gratificante.
Per capire i bisogni reali del potenziale utente Norman369, suggerisce che il primo
compito è quello di determinare cosa il prodotto potrebbe essere, studiando la
prospettiva utente. Se si sta cercando di migliorare un prodotto già esistente è
necessario innanzitutto osservare come gli utenti utilizzano il prodotto già esistente.
L’analisi di questa osservazione empirica serve a concepire nuove idee, che devono poi
essere messe in atto attraverso l’utilizzo di mock-up e simulazioni interattive con gli
utenti, allo scopo di testare le loro reazioni con il nuovo prodotto. Le loro reazioni infatti
sono un feedback fondamentale per raffinare il prototipo.
Norman inoltre fa riferimento alle cinque regole per la comunicazione tra essere
umano e artefatto tecnologico:
1. mantenere le cose semplici: infatti le persone hanno difficoltà con tutto ciò che è
complicato, perciò è necessario fornire brevi messaggi in linguaggio semplice.
2. dare alle persone un modello concettuale: aiutare gli utenti dando loro un modello
che gli spieghi cosa stanno facendo e che li guidi attraverso un sistema di comunicazione
naturale.
3. fornire all’utente delle ragioni: le persone non si fidano, non basta spiegargli un
concetto, ma è fondamentale lasciarglielo fare.
4.portare gli utenti a pensare che hanno il controllo delle azioni che stanno svolgendo.
5. rassicurare gli utenti continuamente.
Poiché la rassicurazione è un bisogno umano emozionale, un modo di rendere le
persone meno ansiose mentre stanno svolgendo un compito, quando interagiscono con
il sistema è necessario che capiscano che le azioni che stanno svolgendo sono quelle
giuste e che non cadano in situazioni di ansia. Questo concetto può essere ricollegato
alla teoria di Csikszentmihalyi sul Flow perché in questo senso è di fondamentale
importanza trovare il giusto equilibrio tra il rassicurare e il non annoiare l’utente,
rassicurando l’utente a livello subconscio e non interrompendo il pensiero conscio.

369
Norman, D., The Design of Future Things, Apogeo, 2008, p. 184.

201
Con le applicazioni intelligenti è possibile automatizzare parzialmente le azioni,
facendo in modo che utente e sistema conoscano e capiscano cosa l’altro sta facendo. Il
metodo più appropriato per fornire una interazione armoniosa tra utente e sistema è
quello di migliorare la coordinazione e cooperazione tra le parti, attraverso una
progettazione che permetta al sistema di capire quando è importante che esegua
un’azione e quando no, attraverso le valutazioni sugli utenti che permettono di cogliere i
momenti migliori in cui dare l’informazione aggiuntiva.
Con il design adattivo il sistema si adegua alla vita e all’ambiente dell’utente
come se fosse stato costruito apposta per lui. Seguendo le linee guida per i prodotti
adattivi ideate da Evenson e Rheinfrank370, il sistema che vogliamo progettare dovrà
quindi:
1. Fare in modo che le azioni dell’utente e i cambiamenti nell’applicazione
sembrino progettati proprio per quel particolare utente;
2. Suggerire all’utente un percorso di navigazione alternativo, ma integrato nel
flusso di lavoro pre-esistente;
3. Incuriosire e stimolare i potenziali utenti ad imparare a gestire i propri diritti
direttamente mentre lavorano, aiutandoli a combinare insieme il comprendere con il
fare;
4. Lasciare che l’utente percepisca il sistema vivo, rendendo trasparente il modo
di operare;
5. Aiutare l’utente a stabilire connessioni con la questione del diritto d’autore in
rete e quindi con gli altri utenti;
6. Far tuffare i potenziali utenti nell’esperienza, così che non distinguano la
differenza tra sé stessi e il dispositivo.

5.7.4 Il documento dei requisiti


I requisiti del sistema che vogliamo progettare, emersi dall’analisi dell’attività
condotta finora attraverso il benchmarking, le task e gli scenari, e dall’esplorazione del
fenomeno attraverso i questionari, le interviste a J.C. De Martin e a Victor Stone di
CcMixter, nonché dalle valutazioni degli utenti sulle esperienze già presenti in rete, sono
i seguenti:

370
Questo concetto è spiegato in Saffer, D., Il design dell’Interazione, Pearson Education Italia,
Paravia Bruno Mondadori Editore, Milano, 2007, p. 162.

202
1. Denominazione: Educazione al diritto d’autore
Descrizione del requisito: il tutorial dovrà divulgare la conoscenza del diritto d’autore in
rete, spiegando all’utente i principi base del copyright e la tutela dei propri diritti e di
quelli dei terzi, attraverso advices e avvertimenti.
Motivazione: questo requisito risponde alla necessità di educare l’utente al diritto
d’autore nelle piattaforme User Generated Content
Sorgente: valutazioni utenti, intervista al Prof. J.C De Martin
Utenti a cui si rivolge: in generale a tutti gli utenti che creano, condividono e riutilizzano
contenuti in rete.

2. Denominazione: Continuous learning process nell’uso delle CCPL


Descrizione del requisito: il tutorial dovrà diffondere e rendere più comprensibile ad un
pubblico più ampio le CCPL, spiegando brevemente cosa sono, come si usano e la loro
modularità, garantendo all’utente un continuo learning process attraverso brevi filmati
esemplificativi.
Motivazione: questo requisito risponde alla necessità di una maggiore conoscenza delle
licenze da parte dei potenziali utenti delle CCPL
Sorgente: questionario esplorativo
Utenti a cui si rivolge: potenziali utenti delle CCPL che non le conoscono e utenti che
non hanno le idee chiare sull’utilizzo delle licenze

3. Denominazione: Modularità
Descrizione del requisito: il tutorial dovrà spiegare per step il diritto d’autore e l’utilizzo
delle licenze Creative Commons, per questo dovrà essere navigabile al suo interno
attraverso un menu interattivo che permetta all’utente di saltare fra i diversi moduli e
scegliere di prendere visione degli argomenti anche all’interno del tutorial.
Motivazione: poiché il tutorial dovrà garantire un processo di apprendimento continuo
delle licenze, è necessario che sia flessibile e modulare per permettere agli utenti di
approfondire le informazioni presenti in qualsiasi momento, quindi non solo attraverso
le domande contestuali ma anche attraverso la navigazione interna del tutorial. In
questo senso un menu di navigazione interno, che permetta all’utente di fruire dei
contenuti in maniera più flessibile e di poter scegliere in modo più autonomo il percorso
di navigazione più adatto alle proprie esigenze, potrebbe essere una possibile soluzione
progettuale.
203
Sorgente: valutazioni di usabilità sui potenziali utenti
Utenti a cui si rivolge: potenziali utenti delle piattaforme User-Generated Content.

4. Denominazione: Miglioramento del workflow


Descrizione del requisito: il tutorial dovrà rendere la conoscenza e l’applicazione delle
CCPL più visibile, quindi più integrata nel workflow, attraverso avvertimenti dinamici che
incuriosiscano l’utente durante tutto il processo di authoring.
Motivazione: dall’analisi delle esperienze presenti in rete è emerso l’applicazione delle
CCPL non è immediata, viene concepita come step finale del processo di authoring e non
è ben visibile durante il flusso di lavoro. Integrare il tutorial già all’interno p.e. degli
editor in modo che questa opportunità sia più visibile a tutti gli utenti simultaneamente
durante il flusso di lavoro.
Sorgente: benchmarking, task analysis, scenario attività, valutazioni utenti
Utenti a cui si rivolge: potenziali utenti che utilizzano il Web per condividere contenuti
autoprodotti e che non conoscono le CCPL o hanno una conoscenza limitata di queste
licenze.

5. Denominazione: Equilibrio
Descrizione del requisito: il tutorial non deve interrompere il flusso di lavoro
dell’utente, quindi deve essere presente ma non invasivo durante il processo di
authoring in rete.
Motivazione: poiché l’obiettivo delle piattaforme di creazione collaborativa, riutilizzo e
condivisione dei contenuti è quello di rendere più produttivi gli utenti, rendere migliori
le proprie creazioni e diffonderle in rete, necessità di trovare il giusto equilibrio tra il
processo di authoring e la presenza del tutorial
Sorgente: intervista J.C. De Martin, intervista a Victor Stone di CcMixter
Utenti a cui si rivolge: potenziali utenti che creano e condividono in rete i propri
contenuti

6. Denominazione: Pubblicità CCPL


Descrizione del requisito: il tutorial dovrà garantire una pubblicità delle licenze in rete
più mirata e non generica.

204
Motivazione: trovare il modo più efficace di pubblicizzare e diffondere la conoscenza e
l’utilizzo delle CCPL, andando a colpire direttamente l’utente nel campo applicativo, cioè
mentre sta creando e riutilizzando contenuti in rete.
Sorgente: benchmarking, valutazioni utenti, Intervista De Martin
Utenti a cui si rivolge: potenziali utenti CCPL che utilizzano le piattaforme di
condivisione e creazione collaborativa in rete.

5.8 Imparare il diritto d’autore in rete direttamente lavorando: i contenuti e l’estetica


del tutorial
Nella progettazione di sistemi centrata sugli utenti è fondamentale avere
sempre un’idea ben chiara di ciò che è già presente in rete, con lo scopo di poter
ricavare concept attraverso la conoscenza delle best practices e delle carenze dei sistemi
attuali. L’idea progettuale è quindi quella di costruire un sistema che renda più
immediata e comprensibile ad un pubblico più ampio la conoscenza e l’applicazione
delle licenze Creative Commons durante il flusso di lavoro, migliorando le potenzialità
delle piattaforme User Generated Content attualmente presenti in rete.
Il concept che può fornire una soluzione a questa idea è quella della
progettazione di un tutorial interattivo. Infatti poiché oggi la condivisione di idee e
conoscenza avviene online, un tutorial fatto di brevi filmati e avvertimenti potrebbe
permettere una maggiore educazione al diritto d’autore, dando informazioni specifiche
all’utente agendo direttamente durante il flusso di lavoro. Gli strumenti di editing dei
contenuti online possono così diventare lo spazio adatto ad insegnare e ricordare agli
utenti la questione dei diritti.
Il tutorial potrà servire a promuovere nuove strategie per l’apprendimento del
diritto d’autore in rete e per la divulgazione delle licenze Creative Commons: infatti
dovrà spiegare in maniera elementare, attraverso brevi filmati, i principi base del diritto
d’autore e metterà in evidenza la differenza tra il copyright e le licenze open content.
L’utente potrà visionare i diversi filmati entrambi e decidere per quale tipo di
tutela optare. Nel caso in cui scelga le licenze open content, i filmati dovranno essere in
grado di spiegare per step le licenze e la loro modularità.
Ogni step del tutorial dovrà corrispondere a diversi livelli di conoscenza per
l’utente, che potrà decidere di andare avanti o tornare indietro nel learning process, per
rivedere le informazioni. Sarà inoltre presente un link diretto alla pagina del

205
procedimento guidato di applicazione delle licenze per garantire un’applicazione più
diretta delle licenze.
In accordo con i bisogni degli utenti, il learning process potrà continuare o essere
terminato dall’utente in qualsiasi momento interagendo nello spazio di lavoro.
Un filmato avvertirà inoltre l’utente, prima di scegliere una delle licenze, di
verificare la disponibilità di tutti i diritti necessari a licenziare l’opera sotto CCPL.
Caratteristica del sistema infatti sarà che gli avvisi appariranno autonomamente ogni
volta che l’utente può avere bisogno di utilizzarne le potenzialità, quindi nelle diverse
fasi del processo di authoring, e il tutorial potrà essere richiamato dall’utente in qualsiasi
momento, creando uno spazio di interazione tra utente e sistema.
L’obiettivo del tutorial non sarà solo quello di fornire contenuti e informazioni,
ma servirà per fornire ai potenziali utenti l’interiorizzazione di una metodologia di
apprendimento che garantisca loro un’autonoma capacità di giudizio nella scelta del tipo
di tutela da attribuire alla propria opera e nella scelta della licenza più adatta alle
proprie esigenze.
È fondamentale che il tutorial sia realizzato in maniera tale da non risultare
troppo serio e formale per non scoraggiarne la visione da parte degli utenti, ma dovrà
riuscire a catturare la loro attenzione assorbendoli in un processo di apprendimento che
dovrà risultare comunque sempre in linea con l’obiettivo principale della loro presenza
nella piattaforma, quindi la creazione del contenuto.
Per questo motivo abbiamo esplorato il Web alla ricerca di concept che
potessero essere utili al nostro scopo. I tutorial sulle licenze Creative Commons presenti
in rete sono diversi371, ma uno in particolare può essere utile ai fini del nostro progetto.
È infatti disponibile in rete sul sito ufficiale Creative Commons372 l’animazione “Diventa
Creativo”, un tutorial realizzato con la tecnologia flash e basato sul racconto di un
possibile caso di applicazione delle licenze Creative Commons.
Abbiamo fatto prendere visione del tutorial ad alcuni potenziali utenti per capire
se le informazioni presentate nel tutorial fossero utili e capire se i contenuti presentati

371
Sono disponibili delle video lezioni curate da Simone Aliprandi in collaborazione con il Comune
di Modena e l’assessorato alle Politiche Giovanili alla pagina http://www.copyleft-
italia.it/videolezioni/cc/index.htm e diverse animazioni sul sito ufficiale Creative Commons alla
pagina http://creativecommons.org/videos/
372
La traduzione in italiano dell’animazione Diventa Creativo è disponibile in rete sul sito ufficiale
Creative Commons Italia all’indirizzo http://www.creativecommons.it/DiventaCreativo
206
in questo modo risultino efficaci e comprensibili ad un ampio pubblico. Dalle valutazioni
è emerso che un tutorial realizzato in questo modo risulta sicuramente interessante da
visualizzare e i contenuti restano più impressi nella mente del fruitore. Gli utenti sono
stati invitati a dare una loro opinione sui contenuti del tutorial per capire se i concetti
espressi nell’animazione fossero stati sufficienti a colmare gli eventuali dubbi riguardo
Creative Commons e le licenze.
Gli utenti hanno dimostrato di aver compreso dal tutorial le differenze tra
Copyright e Creative Commons e di come questi due modelli non siano in conflitto,
hanno compreso di come le licenze possano aiutare la condivisione e il riutilizzo di
contenuti in rete. Gli utenti sono rimasti piacevolmente colpiti dall’animazione che
hanno trovato divertente e interessante da seguire, affermando come un tutorial
animato di questo tipo sia più comunicativo e riesca a restare più impresso nella mente
di chi lo fruisce.
Tuttavia dalle opinioni spontanee espresse dagli utenti, sono emerse alcune
debolezze dal punto di vista contenutistico. Infatti gli utenti hanno riscontrato come non
siano spiegate in modo esaustivo le licenze, non sono riusciti a comprendere quante
sono e quali sono, e la differenza tra una licenza e l’altra. Inoltre alcuni utenti hanno
affermato di avere capito che le licenze sono utilizzabili solo dai professionisti e non da
tutti i potenziali creatori di contenuti in rete.
Per questo motivo, vista l’esigenza di una maggiore chiarezza nella
comprensione delle licenze e delle loro modularità, proveremo a definire il nostro
tutorial prendendo liberamente spunto dall’animazione “Diventa Creativo” per quanto
riguarda l’aspetto grafico e comunicativo, e andando a trovare una soluzione efficace
che integri meglio la spiegazione delle licenze e la loro modularità durante il processo di
authoring in rete.

5.9 Il ciclo dei prototipi


5.9.1 Il mock-up
Definiti i requisiti che il nostro sistema dovrà possedere e definite le interazioni
fondamentali tra utente e sistema, possiamo procedere con la prima fase di
prototipazione. Secondo lo standard ISO 13407373 «un prototipo è una rappresentazione

373
Lo standard ISO 13407 “Human-centred design processes for interactive systems” è lo
standard che recepisce il processo di progettazione “user centered”, che deve essere
207
di un prodotto o di un sistema, o di una sua parte, che, anche se in qualche modo
limitata, possa essere utilizzata a scopo di valutazione». Questo significa che un
prototipo non deve necessariamente essere un sistema funzionante, e spesso può
essere utile anche un semplice modello finto o mock-up. Secondo la definizione di
Polillo374 un prototipo è quindi un modello approssimato o parziale del sistema che
vogliamo sviluppare, realizzato allo scopo di valutarne determinate caratteristiche.
È stato così preso in esame come caso studio Flickr.com perché tra le
piattaforme analizzate è risultata essere una delle più complete per lo sviluppo del
nostro sistema, offrendo come servizio addizionale la possibilità di editing direttamente
online e offrendo già la possibilità di scegliere Creative Commons attraverso il
meccanismo guidato.
Per documentare inizialmente le caratteristiche visive del sistema che stiamo
andando a progettare, è stato inizialmente costruito un prototipo cartaceo da mostrare
agli utenti, per capire in quali momenti del flusso di lavoro, secondo la loro opinione,
sarebbe stato più utile ricevere le informazioni aggiuntive sul tema dei diritti e su
Creative Commons. Sono stati così stampati gli screenshot delle pagine principali di
Flickr, seguendo il flusso di azioni che un utente deve compiere per raggiungere
l’obiettivo di caricare e modificare un immagine per condividerla. Sopra ogni foglio sono
stati applicati dei post-it per permettere agli utenti di simulare l’interazione con il
sistema futuro.
Gli utenti sono stati così invitati ad eseguire una sequenza di compiti, per capire
come sarebbe potuta essere l’interazione con il sistema futuro e per ogni interazione
simulata è stata mostrata loro la diapositiva successiva. Questo ha permesso di capire i
punti e i momenti del flusso di lavoro in cui i potenziali utenti avrebbero apprezzato
ricevere maggiori informazioni. Dalle valutazioni è emerso che i momenti in cui gli avvisi
sul tema dei diritti sarebbero stati utili sono:

1. dopo che l’utente è entrato nella propria pagina personale e ha cliccato su


“Inserisci una foto”, deve scegliere una foto da caricare. Gli utenti sottoposti alla

caratterizzato dall'attivo coinvolgimento degli utenti e una chiara comprensione delle loro
caratteristiche e dei compiti che svolgono; una appropriata allocazione delle funzioni tra gli utenti
e la tecnologia; l'iterazione delle soluzioni progettuali;una progettazione multisciplinare.
374
Op. cit., p. 153.
208
valutazione hanno affermato che già in questo momento sarebbe utile un avvertimento
sui diritti;
2. dopo che ha scelto l’immagine da caricare, l’utente deve impostare il tipo di
privacy da attribuire alla sua immagine. Gli utenti hanno affermato che anche in questo
momento, visto che si è chiamati a scegliere la privacy da impostare, si potrebbe
chiedere anche quali diritti si vogliono attribuire;
3. quando l’utente deve decidere se salvare l’immagine o modificarla con
l’editor di fotoritocco online PicNik, si potrebbe ricordare che se salva l’immagine può
decidere che tipo di tutela attribuirgli;
4. una volta che l’utente è all’interno dell’editor e sta lavorando alle modifiche
della foto gli si potrebbe far presente che può scegliere quali diritti vuole mantenere
sull’immagine a cui sta lavorando;
5. quando sta salvando definitivamente l’immagine per la pubblicazione finale
sul sito;
6. dopo che l’immagine è già pubblicata ricordarglielo ancora, perché se l’utente
non ha mai preso visione e cliccato sugli avvisi potrebbe essere incuriosito e prenderne
visione comunque in seguito.

Una volta individuati da parte dei potenziali utenti i momenti migliori in cui si
potrebbero inserire gli avvisi, è necessario capire il modo migliore in cui questi avvisi
potrebbero essere presentati. Inizialmente sono stati mostrati all’utente gli avvisi nella
forma di piccoli banner che apparivano nel lato della pagina, come dimostrato nel mock-
up sottostante.

209
Figura 9

Figura 10

Figure 9 e 10- Un esempio del mock-up realizzato per simulare le funzionalità del sistema con
gli utenti

210
Questo metodo è stato riscontrato però dagli utenti troppo invasivo, poiché
distraeva troppo dall’attività principale di produzione dei contenuti. Infatti l’avviso, pur
entrando da un lato della pagina e non invadendo l’area di lavoro è stato percepito dagli
utenti che si sono sottoposti alle valutazioni come un elemento di disturbo e associato
all’idea di un banner pubblicitario, e perciò in alcuni casi ignorato come tale. Inoltre
anche decidendo di chiudere il banner subito, e restando un pulsante come un
“segnalibro” nella finestra di lavoro sarebbe stato inutile per i nostri potenziali utenti
che non conoscono Creative Commons, perché non avrebbero comunque cliccato sul
pulsante.
Poiché uno dei requisiti del sistema che vogliamo progettare è quello di
arricchire l’authoring in rete valorizzato dall’utilizzo delle CCPL, migliorando il workflow
e rendendo più integrata la conoscenza e l’applicazione delle CCPL ma senza
interrompere il flusso di lavoro, è necessario trovare una soluzione che renda presente
ma non invasiva la questione dei diritti e delle licenze. Per questo motivo, seguendo le
regole di Norman, abbiamo provato a rendere più semplice il messaggio e a integrarlo
maggiormente nel flusso di lavoro della piattaforma che stiamo utilizzando come
ipotetico modello per il nostro sistema futuro. L’obiettivo è quello di capire, attraverso
le azioni dei nostri potenziali utenti, se integrando meglio anche graficamente il
messaggio, questo possa venire considerato più come parte integrante nella piattaforma
presa in esame e se possa suggerire all’utente un percorso di navigazione alternativo.
Tenendo sempre ben presente i momenti e i punti dell’interazione indicati dagli
utenti come migliori per ricevere maggiori informazioni sull’utilizzo delle CCPL durante il
flusso di lavoro, abbiamo provato a cambiare l’impostazione grafica degli avvisi.
Prendendo spunto dalle esperienze già presenti in rete e studiando le reazioni degli
utenti, abbiamo provato a rendere i nostri banner di accesso al tutorial come dei link
ipertestuali integrati maggiormente nella piattaforma Flickr.com come se fossero
realmente parte del sistema esistente.

211
Figura 11

Figura 12

Figure 11 e 12- Il mock-up rivisto alla luce del primo ciclo di valutazioni con i potenziali utenti
del sistema

212
Il sistema così modificato è stato sottoposto ad un secondo ciclo di valutazioni
con i potenziali utenti. La sostituzione dei banner con dei semplici link ipertestuali è
stata vista con maggiore positività dagli utenti che hanno affermato come “in questo
modo si è resi più sensibili a questo fatto delle licenze, dando la possibilità di essere
informati e di usarle, ma allo stesso tempo non infastidisce se non si è interessati”.
Le opinioni espresse dagli utenti hanno quindi suggerito di seguire questa
impostazione e sostituire, in tutti i momenti del flusso di lavoro indicati dagli utenti
come idonei alla presenza degli avvisi, i banner inizialmente previsti con i link
ipertestuali. Appurati quindi i momenti e il modo migliore di accedere al tutorial,
procederemo con la realizzazione del prototipo interattivo in forma grafica per rendere
più realistica la simulazione dell’interazione tra utente e sistema.

5.9.2 Il prototipo interattivo


Stabiliti i momenti e i modi migliori in cui utente e sistema interagiranno per
costruire il learning process, abbiamo realizzato il primo prototipo interattivo. Questo ha
permesso di visualizzare più realisticamente l’interazione tra utente e sistema
permettendo una simulazione delle azioni che il sistema dovrà compiere in base alle
azioni dell’utente.
È stato così costruito utilizzando il programma per la creazione di presentazioni
multimediali PowerPoint un prototipo, realizzato attraverso l’utilizzo degli screenshot
delle pagine della piattaforma Flickr.com presa come possibile modello per la
costruzione del nostro sistema. In ogni screenshot sono stati aggiunti i link ipertestuali
come definito dal precedente mock-up fatto valutare dai potenziali utenti.
Abbiamo proceduto cercando di mantenere la grafica della piattaforma pre-
esistente, per capire se in questo modo i potenziali utenti avrebbero sentito il tutorial
più integrato nel sistema attuale e quindi come parte integrante di esso.

213
Figura 13

Figura 14

Figure 13 e 14 - Screenshot del prototipo interattivo realizzato per simulare l'interazione


utente-sistema

Sottoponendo il prototipo così costruito, abbiamo appurato che i potenziali


utenti in questo modo sono più portati a seguire il percorso di navigazione suggerito dal
sistema, perché vengono incuriositi dai link, ma non vengono distratti dal loro compito
principale che è quello di lavorare alla produzione del contenuto.

214
A questo punto abbiamo proceduto con la costruzione del nostro tutorial
interattivo ad alta fedeltà375, che dovrà avere come obiettivo quello di minimizzare le
barriere di condivisione e riuso dei contenuti in rete, riducendo le barriere giuridiche e
tecniche e aiutando l’utente a capire e scegliere consapevolmente il tipo di tutela da
applicare alla propria opera. Per cercare di ridurre le barriere giuridiche, il tutorial dovrà
provare a spiegare brevemente all’utente i principi base del diritto d’autore per poter
poi comprendere appieno le licenze e la loro modularità, visto che le licenze si basano su
di esso.
Per cercare di ridurre le barriere tecniche, dovute nella maggior parte dei casi
presi in esame ad una scarsa attenzione da parte delle piattaforme User Generated
Content alla questione del diritto d’autore, il sistema farà in modo che dei link
contestuali promuovano un accesso più diretto al meccanismo di applicazione guidato
delle licenze, già nel momento in cui il potenziale utente prenderà visione della
spiegazione delle licenze. In questo modo proveremo poi a verificare con i potenziali
utenti se un sistema di questo tipo possa essere in grado di sensibilizzare maggiormente
l’utente alla questione del diritto d’autore e possa essere in grado di promuovere lo
sviluppo del pieno potenziale del Web attraverso la condivisione e il riutilizzo degli open
content.
È importante sottolineare che i contenuti del tutorial non pretenderanno di
essere esaustivi sul tema del diritto d’autore, vista e considerata l’ampiezza e la
complicatezza di tale disciplina. Il tutorial cercherà di fornire ai potenziali utenti uno
spunto di riflessione e promuovere un processo di apprendimento continuo del diritto
d’autore e delle licenze Creative Commons.

375
In questa fase della progettazione User-Centered si ricorre alla costruzione di prototipi a bassa
o ad alta fedeltà, a seconda della somiglianza effettiva col sistema finale. Secondo Polillo (op. cit.,
p. 163) inizialmente è importante costruire e sperimentare prototipi di carta a bassa fedeltà, per
arrivare poi, quando la soluzione è abbastanza consolidata, a realizzare prototipi ad alta fedeltà
navigabili, ed effettuare nuove valutazioni con gli utenti.
215
Figura 14- Screenshot del tutorial che apparirà all’utente cliccando sui link e che farà iniziare il
learning process.

Come abbiamo visto, nel modello di progettazione e sviluppo per prototipi


successivi, ad ogni ciclo di iterazione si effettuano dei test del prototipo fino a quel
momento prodotto, e più precisamente delle valutazioni dell’usabilità del prodotto. Per
effettuare queste valutazioni possono essere impiegate diverse tecniche, fra le quali
quelle più diffuse rientrano in due grandi categorie: le valutazioni effettuate da parte di
esperti di usabilità, senza alcun coinvolgimento da parte dell’utente (inspections) e le
cosiddette valutazioni euristiche376 (euristic evaluations) effettuate con il coinvolgimento
dell’ utente, in particolare i test di usabilità (usability test)377.
Secondo Nielsen e Loranger378 nell’ingegneria dell’usabilità, gli usability test con
gli utenti sono lo strumento più utile per creare un design perfettamente usabile. Infatti
il solo modo per scoprire cosa piace agli utenti è quello di ascoltarli e testare il progetto

376
Secondo la definizione di Crevola e Gena (op. cit., p. 300), le euristiche sono definite come
linee guida di riferimento o regole pratiche derivate dall’esperienza d’uso, che servono ad
esaminare un’interfaccia alla ricerca di problemi che violino i principi e le linee guida di buona
progettazione. A tal proposito J. Nielsen ha suggerito una lista di dieci euristiche derivanti da
linee guida e principi ben consolidati dell’interazione uomo-macchina, di cui si deve tener conto
per una buona progettazione, chiaramente spiegate dallo stesso autore e disponibili in rete
all’indirizzo http://www.useit.com/papers/heuristic/heuristic_list.html
377
Polillo, op. cit., p. 164.
378
Nielsen, J., Loranger, H., Web Usability 2.0 L’usabilità che conta, Apogeo, Milano, 2006, p. 395.
216
su veri utenti-tipo379, assegnargli dei compiti, osservare il loro comportamento e
ascoltare i loro suggerimenti, con l’obiettivo di trarre concrete indicazioni per il
miglioramento del sistema.
Seguendo questa metodologia, procederemo ora con le valutazioni del sistema
così progettato sui potenziali utenti, per capire se in questo modo possano essere più
sensibilizzati al tema del diritto d’autore e all’utilizzo delle licenze Creative Commons.
Sarà fondamentale valutare se i contenuti del tutorial così presentati siano efficaci ad un
primo approccio alla comprensione e all’utilizzo delle licenze Creative Commons durante
tutto il flusso di lavoro.

379
Secondo Crevola e Gena (op. cit., p. 307) un test di usabilità ben strutturato può coinvolgere
anche 15-20 utenti, ma non sempre è necessario utilizzare così tanti soggetti. Infatti, secondo
Nielsen e Molich con 5 utenti si scopre circa l’80% dei problemi di usabilità di un sito.
217
CAPITOLO 6

Conclusioni e generalizzazione dei risultati emersi

218
CAPITOLO 6

Conclusioni e generalizzazione dei risultati emersi

6.1 Le valutazioni con i potenziali utenti sul prototipo interattivo


Rispondendo ai requisiti del sistema e cercando di fornire una soluzione efficace
ai bisogni dei potenziali utenti, emersi dai questionari e dalle valutazioni effettuate sul
nostro sistema, abbiamo sviluppato il nostro prototipo. A questo punto è stata
necessaria una valutazione sul prototipo interattivo così costruito, che ci permettesse di
capire e appurare se un sistema di questo tipo potesse andare a soddisfare questi
bisogni.
Abbiamo così deciso di provare a far testare il prototipo interattivo agli studenti
del secondo anno del Corso di Laurea Specialistica in Editoria, comunicazione
multimediale e giornalismo dell’Università degli Studi di Sassari. Questi studenti, che
stanno iniziando ad approcciarsi durante il secondo semestre dell’a.a. 2008/2009 a
questa materia, fanno parte del nostro target di utenza in quanto potenziali utenti delle
piattaforme User-Generated Content e potenziali utenti delle licenze Creative
Commons. Poiché per molti di loro questo tema risulta essere nuovo, caratteristica che li
rende affini al nostro personaggio principale definito nel quarto capitolo, abbiamo
provato a far testare loro il nostro sistema.
Dopo aver brevemente introdotto il tema e dopo aver spiegato l’obiettivo del
lavoro e il loro compito in questa fase della progettazione, abbiamo inizialmente
mostrato loro l’animazione “Diventa Creativo” presente sul sito ufficiale Creative
Commons. In questo modo gli studenti sono stati in grado di entrare più in profondità
nell’argomento e di cominciare ad avere un’idea più chiara sul progetto Creative
Commons, iniziando a distinguere, attraverso le spiegazioni fornite nell’animazione, la
differenza tra il tipo di tutela Tutti i Diritti Riservati, tipica del Copyright, e il tipo di tutela
Alcuni Diritti Riservati, tipica delle licenze Creative Commons.
Gli studenti infatti hanno apprezzato il modo in cui questi contenuti sono stati
presentati, cioè utilizzando immagini e audio, e hanno ritenuto chiara ed efficace la
spiegazione dei contenuti presente nell’animazione “Diventa Creativo”. È importante
quindi sottolineare come l’animazione “Diventa Creativo” offra degli efficaci contenuti
espressi in una forma comunicativa eccellente. Per questo motivo il tutorial che abbiamo

219
sviluppato prende spunto proprio da questa idea progettuale assimilandone l’aspetto
grafico e la forma espressiva. Tuttavia poiché è risultato essere poco usabile proveremo
a rendere il nostro prototipo più navigabile e modulare al suo interno per migliorarne la
fruizione da parte dei nostri potenziali utenti.
Inoltre l’animazione Diventa Creativo è un ottimo filmato introduttivo alla conoscenza
del progetto Creative Commons, ma essendo presente e visibile all’interno del sito
ufficiale Creative Commons resta pur sempre fruibile soltanto da coloro che accedono al
sito in questione successivamente ad una eventuale conoscenza del progetto e delle
CCPL. Tuttavia, poiché l’animazione in questione si concentra più sulla storia del
progetto Creative Commons -mostrando uno scenario ipotetico di applicazione delle
licenze- che sulla spiegazione delle CCPL, gli studenti hanno affermato di non avere
compreso nel dettaglio le diverse tipologie di licenze e la loro modularità.
A questo punto abbiamo mostrato loro il prototipo del nostro sistema,
invitandoli ad interagire con esso dalla pagina Web in cui era stato precedentemente
pubblicato per garantire una navigabilità quanto più simile a quella che si può avere
utilizzando una delle piattaforme User-Generated Content già presenti in rete. In questo
modo gli studenti hanno potuto testare individualmente il sistema, interagendo con
esso e prendendo visione del tutorial attraverso l’interazione con i link contestuali
presenti durante le varie fasi del flusso di lavoro.
Sono stati in seguito invitati a rispondere ad un questionario valutativo del
sistema, somministrato in rete attraverso il widget di Google Docs and Spreadsheet,
chiedendo loro di rispondere brevemente alle seguenti domande:
1. se conoscevano già le licenze Creative Commons prima di prendere visione
dell’animazione “Diventa Creativo”;
2. esporre brevemente, dopo avere preso visione del prototipo interattivo, quali sono le
licenze e il loro utilizzo;
3. spiegare brevemente, dopo avere preso visione del prototipo interattivo, come
potevano riconoscere i lavori in rete rilasciati sotto CCPL;
4. spiegare brevemente se i contenuti presentati nel prototipo interattivo potevano
essere sufficienti per un primo approccio alla conoscenza e diffusione delle CCPL;
5. indicare se un sistema di questo tipo, secondo la loro opinione, possa disturbare il
flusso di lavoro o migliorare l’authoring in rete.

220
Il 12% degli studenti intervistati380 ha dichiarato che, prima di prendere visione
dell’animazione “Diventa Creativo” presente sul sito ufficiale Creative Commons,
conosceva già le licenze Creative Commons. Il 45% ha ammesso di averne già sentito
parlare ma di non avere le idee chiare su di esse e il 42% ha affermato di non averne mai
sentito parlare.
Per quanto riguarda il prototipo del nostro sistema che abbiamo mostrato loro,
generalizzando possiamo affermare che le valutazioni hanno dimostrato come gli utenti
si siano sentiti più coinvolti e più sensibili al tema dei diritti e delle CCPL e abbiano
accolto positivamente i contenuti presentati nel tutorial. Gli studenti hanno dimostrato,
rispondendo alle domande a risposta aperta presentate nel questionario, di aver
compreso la modularità delle licenze e la differenza fra le quattro clausole, e di aver
compreso i casi di utilizzo delle diverse licenze.
Hanno apprezzato l’animazione con cui i contenuti sono stati presentati, che ha
permesso loro di seguire il tutorial senza annoiarsi e di ricevere informazioni che hanno
reso la loro esperienza gratificante. Infatti gli studenti hanno affermato di avere trovato
“la grafica divertente” e le animazioni “intuitive per poter comprendere meglio il
funzionamento delle licenze”. I contenuti spiegati graficamente in questo modo vengono
definiti dagli studenti “un ottimo ed eccellente metodo per spiegare un concetto
giuridico abbastanza complesso”.
Hanno apprezzato il linguaggio, definito da molti “semplice e chiaro”, con cui
sono stati presentati gli argomenti nel tutorial e definito i contenuti sufficienti per un
primo approccio alla conoscenza e all’utilizzo delle licenze Creative Commons,
affermando come “in questo modo chiunque non si interessi di diritto d’autore potrà
capire con semplicità come utilizzare le opere degli altri e quali usi autorizzare agli altri
della propria” e come il linguaggio sia “semplice e di facile comprensione anche per chi
non mastica i termini giuridici”. I contenuti presentati nel tutorial sono apparsi inoltre
“abbastanza chiari e indicativi per un ulteriore approfondimento” ed è stato definito un
“ottimo punto di partenza per la conoscenza di queste licenze”.
Gli studenti hanno inoltre dimostrato, attraverso le loro risposte al test di
valutazione del prototipo, di poter essere in grado di riuscire a scegliere

380
La percentuale è riferita al campione di 34 risposte al questionario di valutazione del
prototipo.
221
autonomamente di licenziare un’opera con le licenze Creative Commons in maniera più
fluida e consapevole.
Tuttavia è importante sottolineare come dalle valutazioni siano emersi nuovi
bisogni, infatti alcuni utenti hanno affermato che “forse il tutorial non esplicita fino in
fondo come utilizzare le licenze in una determinata fattispecie” e come “troverebbero
utile aggiungere esempi di come si possa ottenere la licenza dai siti”.
Abbiamo inoltre chiesto loro di esprimere una loro opinione per capire se un
sistema che spieghi in questo modo le licenze e il loro utilizzo nelle diverse fasi di
creazione dei contenuti in rete, possa disturbare il processo di authoring oppure se
possa migliorarlo, rendendo gli utenti più consapevoli della questione dei diritti in rete e
della possibilità di scegliere Creative Commons. Il 100% degli studenti intervistati si è
trovato d’accordo nell’affermare come un sistema di questo genere possa migliorare il
processo di creazione dei contenuti in rete. Questo dato risulta essere molto importante
in quanto soddisfa pienamente uno dei requisiti fondamentali ai quali il nostro sistema si
impegnava a rispondere, cioè quello di trovare un equilibrio tra la produzione dei
contenuti e una più attenta informazione sul tema del diritto d’autore, quindi non
interrompendo il flusso di lavoro e rendendo gratificante l’esperienza utente. Tutto ciò si
ricollega anche alla teoria del Flow, accennata nel terzo capitolo di questo lavoro in
riferimento alle qualità del sistema e ai requisiti utente rispetto alle variabili contesto-
motivazione-emotive.
In base all’analisi dei dati emersi dalle valutazioni con gli studenti abbiamo
provato a migliorare il tutorial seguendo i loro consigli e gli spunti progettuali emersi da
questo test. Abbiamo provato quindi ad aggiungere alcuni possibili scenari di utilizzo
delle licenze Creative Commons in tre diversi contesti, per capire se in questo modo si
potessero chiarire eventuali dubbi di applicazione delle licenze.
Poiché inoltre durante la valutazione sono emersi alcuni problemi di usabilità del
sistema, abbiamo provato a rendere più navigabile il tutorial, contestualizzando meglio i
link durante il flusso di lavoro, e provando a rendere il tutorial più flessibile.
Abbiamo provato inoltre a rendere il sistema più riconoscibile all’interno delle diverse
pagine in cui appaiono le domande contestuali, creando un box in trasparenza
utilizzando come concept l’AdSense di Google e inserendo le domande al suo interno.
Il prototipo del nostro sistema sarà funzionante solo nelle parti importanti per
l’interazione, ma in alcuni casi abbiamo previsto delle funzionalità aggiuntive che
222
potrebbero essere implementate, come la possibilità di scorrere all’interno del box delle
domande contestuali attraverso l’interazione con delle frecce, e un player interno al
tutorial per rendere più usabile il sistema e più fruibili i contenuti.
È stato inoltre necessario attribuire al nostro sistema un nome riconoscibile, che
permetta agli utenti di capire la funzione dell’applet. Dopo un’accurata sezione di
brainstorming, dove sono state esaminate diverse keywords che potessero essere
intuitive e immediate, la scelta è caduta su “AdviCCes”381. Questa scelta poiché il sistema
che abbiamo sviluppato si propone di essere rappresentativo di una nuova possibile
forma di authoring in rete, che permetta ai potenziali autori di contenuti in rete di
essere maggiormente informati sul tema del diritto d’autore e sulla possibilità di
scegliere un tipo di tutela meno restrittivo, attraverso domande contestuali che possano
incuriosire l’utente durante tutto il flusso di lavoro in rete e che possano essere lette
come dei consigli, degli advices appunto.

Figura 15- Screenshot della pagina di Flickr.com con il box delle domande contestualmente
rilevanti, rivisto alla luce delle valutazioni con i potenziali utenti

Abbiamo provato ad aggiungere inoltre un menu di navigazione scorrevole


interno al tutorial, che permetta all’utente di fruire dei contenuti in maniera più
flessibile e di poter scegliere in modo più autonomo il percorso di navigazione più adatto
alle proprie esigenze.

381
Tutorial di apprendimento delle licenze Creative Commons, è il logo scelto
per il nostro sistema.
223
Figura 16 - Screenshot del tutorial rivisto alla luce delle valutazioni con gli studenti

Il tutorial è stato organizzato internamente in sei moduli:


1. “Diritto d’autore”: il primo modulo spiegherà brevemente i principi base del diritto
d’autore rilevanti in funzione dell’eventuale utilizzo delle licenze Creative Commons.
2. “Creative Commons”: il secondo modulo spiegherà brevemente il tipo di tutela Alcuni
Diritti Riservati tipico delle licenze Creative Commons.
3. “Le licenze”: il terzo modulo spiegherà la modularità delle CCPL e darà la possibilità
all’utente di approfondire la conoscenza delle licenze selezionando le icone presenti e
visualizzandone la spiegazione.
4. “Qualche esempio”: il quarto modulo darà la possibilità all’utente di visualizzare
alcuni esempi più concreti di utilizzo delle licenze in tre diversi contesti d’uso.
5. “Prima di licenziare”: il quinto modulo proverà ad informare i potenziali utenti della
necessità di assicurarsi di avere tutti i diritti prima di licenziare l’opera con le licenze
Creative Commons mostrando alcuni esempi di creazione collaborativa.
6. “Common Deed”: il sesto modulo spiegherà ai potenziali utenti come si possono
identificare i lavori rilasciati sotto licenza Creative Commons.
Ogni modulo potrà essere attivato dall’utente interagendo con le domande
contestualmente rilevanti, che appariranno all’interno dei box e che cambieranno a
seconda delle diverse fasi del flusso di lavoro e di upload dei contenuti, e che andranno
a supportare il lavoro collaborativo in rete, permettendo ai potenziali utenti di accedere
ai contenuti presentati nel tutorial nei momenti del flusso di lavoro più importanti per
224
ricevere informazioni, identificati da loro stessi durante la prima fase di valutazione dei
sistemi pre-esistenti.

6.2 Applicazione del prototipo ad altre piattaforme User-Generated Content e social


networking e visione futura del sistema
Dopo aver progettato il sistema ed averlo adattato inizialmente alla piattaforma
di photosharing Flickr.com, abbiamo provato a verificare la scalabilità del nostro
sistema, provando ad applicare questo strumento ad altre piattaforme User-Generated
Content e social network presenti sul Web. Poiché il sistema si presta ad essere adattato
alle diverse esperienze di piattaforme che si occupano di contenuti generati dagli utenti,
in una qualsiasi delle tre macro-forme di authoring che abbiamo individuato nel primo
capitolo, la scelta è caduta su due popolari piattaforme attualmente presenti in rete
come YouTube e Facebook. Questo ci servirà per dimostrare come il nostro sistema non
sia limitato al solo caso studio preso in esame finora, ma come potrebbe essere
integrato a una qualsiasi delle piattaforme UGC e ai social network più popolari e
utilizzati dagli utenti.

Figura 17

225
Figura 18

Figure 17 e 18 - Screenshot del prototipo applicato alla piattaforma di video sharing YouTube

Figura 19

226
Figura 20

Figure 19 e 20 – Screenshot del prototipo applicato al social network Facebook

Il prototipo del sistema che abbiamo realizzato vuole essere un’idea progettuale
volta al miglioramento degli ambienti di creazione e condivisione dei contenuti in rete,
che permetta una maggiore diffusione della conoscenza delle licenze Creative Commons
e aiuti i potenziali utenti di queste licenze nella scelta consapevole e nell’apprendimento
continuo del diritto d’autore in rete, direttamente mentre crea, pubblica o riutilizza un
contenuto in rete.
Dall’analisi condotta in questo lavoro, sin dalle prime fasi di progettazione dove
sono stati coinvolti i nostri potenziali utenti, è emerso come gli utenti non siano
totalmente superficiali a temi quali il diritto d’autore in rete. Infatti, come abbiamo visto
nel quarto capitolo di questo lavoro, dai risultati del questionario esplorativo
somministrato in rete382, è emerso come gli utenti si dicano favorevoli a strumenti che
aiutino a tutelare maggiormente i contenuti autoprodotti e distribuiti sul Web.
Fino ad oggi, come dimostrato dall’analisi delle esperienze già presenti sul Web
e dalle interviste somministrate agli esperti, abbiamo constatato come in generale le
piattaforme User Generated Content e chi le amministra, tendano perlopiù a creare

382
L’analisi dei risultati del questionario esplorativo è disponibile nel terzo capitolo e in
Appendice i risultati e i grafici.
227
meccanismi e servizi addizionali volti ad una sempre maggiore produttività di contenuti
in rete, visto e considerato che queste piattaforme vivono soprattutto grazie ai
contenuti generati dagli utenti. Tutto ciò che renda più produttivi gli utenti è quindi
bene accetto, e se il tema del diritto d’autore può spaventare un potenziale utente e
inibirlo nella creazione e distribuzione dei contenuti, allora tanto meglio nasconderlo
dietro i Terms of Service, dove resta presente ma sostanzialmente ignorato dai più.
Stiamo assistendo però ad una inversione di tendenza che potrebbe nel futuro
più prossimo portare ad una grande evoluzione di queste piattaforme. Abbiamo visto nel
quarto capitolo di questo lavoro, come la popolare piattaforma di video sharing
YouTube abbia recentemente annunciato in un comunicato stampa383 di voler allargare i
servizi offerti ai propri utenti, permettendo loro di scegliere in piena libertà se
consentire il download dei propri video. In questo caso la proposta che la piattaforma ha
annunciato sarà quella di dare agli utenti la possibilità di scegliere a quali condizioni gli
altri potranno utilizzare i lavori pubblicati, attraverso la possibilità di applicare una
licenza Creative Commons. Questo segna un importante passo in avanti nella gestione
dei diritti degli utenti da parte delle piattaforme UGC, e il fatto che sia proprio YouTube
ad aver lanciato questa proposta fa prevedere che molte altre piattaforme potrebbero
decidere di seguire questo esempio e di implementare le licenze Creative Commons
all’interno delle piattaforme come servizio addizionale.
Altro esempio da menzionare è quello del social network Facebook. Proprio nei
mesi scorsi abbiamo avuto modo di assistere alla “sommossa del popolo Web” scatenata
dopo che il creatore del sito Mark Zuckerberg, aveva fatto scomparire dalle condizioni
d’uso del sito la dicitura “puoi rimuovere i tuoi contenuti dal sito in ogni momento, e se
decidi di rimuoverli, la licenza scadrà automaticamente"384. Questo ha provocato tutta
una serie di polemiche che hanno portato Zuckerberg a ripristinare immediatamente le
condizioni d’uso precedenti e a scusarsi con i suoi utenti, giustificando questa scelta
come necessaria per evitare problemi nel momento in cui un utente volesse condividere
un contenuto reso pubblico da qualcun altro, nel pieno spirito di condivisione del sito
stesso. Questo ha fatto nascere numerosi gruppi su Facebook a favore dell’introduzione
nella piattaforma delle licenze Creative Commons, così da permettere agli utenti che

383
http://www.youtube.com/blog?entry=Mp1pWVLh3_Y
384
Sostanzialmente infatti, iscrivendosi a Facebook un utente, spesso senza saperlo, attribuisce
alla piattaforma stessa una licenza d'uso sui materiali che vengono caricati.
228
creano e pubblicano sulla piattaforma contenuti di ogni genere, di poter decidere
autonomamente quali utilizzi concedere di questi contenuti e dichiararli attraverso
l’applicazione di una delle sei licenze d’uso. Come si legge sul sito ufficiale Creative
Commons385, questa proposta portata avanti dagli stessi utenti ha portato Zuckerberg, lo
scorso 18 Febbraio 2009, a valutare la possibilità di introdurre sul popolare social
network queste licenze, incoraggiando gli utenti a migliorare le nuove condizioni d’uso
attraverso domande, commenti e suggerimenti nel gruppo “Facebook Bill of Rights and
Responsability”386, per provare a rendere i Terms of Service simili a piattaforme che già si
avvalgono di queste licenze quali Flickr.com.
Questo nuovo approccio dimostra come i proprietari di queste piattaforme siano
sempre più attenti alle richieste dei propri utenti e seguano sempre di più la politica del
miglioramento dal basso, dando ascolto ai consigli e ai bisogni degli utenti e dando loro
modo di proporre nuove soluzioni. L’analisi condotta finora ci porta a poter affermare
come un sistema come quello che abbia sviluppato, potrebbe essere un possibile
scenario da esplorare in futuro. Infatti se davvero queste popolari piattaforme si stanno
lanciando verso questo nuovo approccio che potrebbe garantire una maggiore
educazione al diritto d’autore, allora il nostro sistema potrebbe aiutare queste
piattaforme ad incoraggiare l’utilizzo delle licenze open content e a spiegare ai potenziali
utenti concetti tradizionalmente complicati, rendendoli più fruibili attraverso l’utilizzo di
un linguaggio semplice e di un metodo comunicativo efficace come quello
dell’animazione. Questo potrebbe garantire la comprensione di alcuni aspetti di questa
disciplina più accessibile a tutti, quindi anche a coloro che non hanno competenze
tecniche specifiche in materia giuridica.
A questo punto è necessario capire se e come questo nuovo sistema potrebbe
modificare la produzione di contenuti in rete, sia da un punto di vista tecnico-
progettuale che da un punto di vista giuridico.
Dal punto di vista tecnico-progettuale il sistema che abbiamo progettato,
essendo più integrato nel workflow e quindi più visibile ad un pubblico più ampio di
potenziali utenti, potrebbe garantire una maggiore conoscenza e informazione sul tema
del diritto d’autore per tutti i potenziali utenti delle piattaforme UGC. Un sistema di
questo genere permetterebbe inoltre una pubblicità delle licenze in rete più mirata e

385
http://wiki.creativecommons.org/Facebook_CC_Integration/BoRR/BasicInfo
386
http://www.facebook.com/group.php?gid=69048030774
229
non generica, andando ad agire direttamente mentre l’utente crea e pubblica un
contenuto in rete. Questo è fondamentale perché, per capire il pieno potenziale delle
licenze Creative Commons, è forse necessario colpire l’utente con messaggi mirati che lo
incuriosiscano ma allo stesso tempo non lo disturbino nel processo di produzione.
Da un punto di vista giuridico, visto che sono cambiate le modalità di creazione
dei contenuti in rete e che ognuno oggi è potenzialmente in grado di produrre propri
contenuti senza intermediazione, ci si pone di fronte ad una questione non trascurabile
che è quella del diritto d’autore. Infatti, come abbiamo appurato nel corso di questo
lavoro, se fino a poco tempo fa si poteva tranquillamente vivere ignorando totalmente
queste problematiche oggi non è più così perché queste nuove forme di authoring
esigono una conoscenza del diritto d’autore più ampia per ogni utente.
Se un sistema come quello che abbiamo progettato rende il tema del diritto d’autore più
presente e visibile all’utente durante tutto il flusso di lavoro, una maggiore conoscenza
delle licenze Creative Commons da parte dei potenziali utenti potrebbe generare un
maggior utilizzo delle CCPL e di conseguenza, nel lungo periodo, una maggiore diffusione
in rete di opere rilasciate con licenza non restrittiva. Questo potrebbe garantirebbe
inoltre un maggiore utilizzo di opere rilasciate sotto CCPL da altri utenti per il riuso, il
remix e la produzione di opere nuove favorendo la creatività e garantendo la
costruzione di conoscenza. Inoltre non andando ad interrompere il flusso di lavoro in
maniera troppo invasiva, garantirebbe all’utente la libertà di scelta di disporre delle
informazioni presenti nel tutorial o meno, restando tuttavia sempre presente
nell’interfaccia così da essere fruibile nelle diverse fasi di creazione dei contenuti.
Questo, come dimostrato dalle valutazioni effettuate sui potenziali utenti del nostro
sistema, non scoraggerebbe la produzione di contenuti ma potrebbe migliorare
l’authoring in rete, valorizzando i contenuti autoprodotti dagli utenti con l’utilizzo delle
licenze Creative Commons.
Inoltre, attuando un processo di apprendimento continuo delle licenze con dei
brevi filmati che mostrano la modularità delle CCPL e la loro applicazione, si potrebbero
portare i potenziali utenti di queste piattaforme ad una maggiore consapevolezza nella
scelta del tipo di tutela da attribuire al proprio lavoro e nella eventuale scelta della
licenza più adatta alle proprie esigenze.
Tutto questo ci riconduce all’ipotesi iniziale, presentata nel primo capitolo, della
possibilità di una nuova forma di authoring in rete, che abbiamo voluto definire
230
authoring “2.0”: un sistema di questo tipo applicato alle esperienze già presenti in rete e
quindi integrato in piattaforme per la creazione collaborativa e il remix dei contenuti in
rete potrebbe aiutare gli utenti a interagire maggiormente con queste licenze,
generando un processo di apprendimento continuo di queste licenze e andando a
intervenire nella loro diffusione direttamente nel campo applicativo, cioè durante il
flusso di lavoro in rete. Questo valorizzerebbe l’authoring, andando ad integrare quelle
che abbiamo riscontrato essere le tre possibili macro-forme di authoring in rete: la
creazione individuale, quella collaborativa asincrona e quella collaborativa sincrona.
Infatti questa nuova metodologia di lavoro in rete che abbiamo proposto, potrebbe
migliorare il flusso di lavoro creando una nuova forma di authoring, più attenta alla
tutela dei lavori autoprodotti dagli utenti e alla tutela dei diritti d’autore di terzi.
Infatti poiché la tecnologia può essere vista come un mezzo per mediare la
costruzione di conoscenza, integrando nelle piattaforme UGC un sistema di questo
genere si potrebbe intervenire nella diffusione di temi quali il diritto d’autore. In questo
senso il tutorial che abbiamo sviluppato potrebbe essere letto come un mezzo per
imparare il diritto d’autore e le CCPL direttamente in rete lavorando.
Adottando un sistema di questo tipo inoltre, le piattaforme User-Generated
Content, nel lungo periodo, potrebbero fornire ai propri utenti l’interiorizzazione di una
metodologia di apprendimento che renda progressivamente i potenziali utenti più
autonomi nella conoscenza di temi spesso trattati superficialmente dalle piattaforme
User Generated Content, promuovendo un processo interiore suscitato dall’interesse
per il perseguimento di uno scopo in autonoma capacità di scelta e giudizio. Infatti
agendo in questo modo su di essi, contestualizzando questi temi durante tutte le fasi di
produzione dei contenuti dove l’utente ha una motivazione forte nell’agire in base allo
scopo che vuole perseguire -quindi la produzione di contenuti o informazioni-, il sistema
che abbiamo proposto potrebbe migliorare l’User-Experience di queste piattaforme
rendendo piacevole la conoscenza di questi temi e affrontandola in modo nuovo e
piacevole.

231
Appendice

232
Appendice A

Tavola comparativa delle piattaforme analizzate nel benchmarking

233
234
235
236
Appendice B
Risultati e grafici del questionario esplorativo somministrato in rete ai potenziali
utenti delle CCPL sui siti Facebook.com, Flickr.com, Jamendo.com, Nonsolonews.it,
Google Groups, attraverso il blog http://ricercasucreativecommons.wordpress.com,
dal 13/11/2008 fino ad oggi.
Le percentuali sono riferite al campione finora rilevato di 38 risposte al questionario.

1. Il web 2.0 consente agli utenti-autori di creare contenuti web, incoraggiandoli


attraverso l’uso di strumenti di editing che facilitino la creazione, la collaborazione tra
utenti e il remix dei contenuti in rete.
Hai mai utilizzato siti che permettono il lavoro collaborativo e il remix di contenuti in
rete, come CCMixter, Total Recut o Romanzo Totale?

si, li utilizzo spesso 19%

sì, ma non
11%
frequentemente

no, non li utilizzo 70%

2. Se utilizzi questi strumenti, quali tra questi?

editing e remix video online


22%
come Kaltura o Jumpcut

editing e remix online di


33%
musica e suoni come
Freesound o Ccmixter

fotoritocco online come Pic


44%
Nic

editing online di presentazioni


multimediali come Zoho Show 0%
o Empresser

237
3. Secondo te, cosa spinge gli utenti ad utilizzare questi sistemi per la creazione di
contenuti in rete?

facilità di utilizzo 27%

autonomia nella creazione di


42%
informazione

opportunità di diffusione
30%
della conoscenza

4. Alcuni siti, come ad esempio YouTube o Jumpcut, permettono la pubblicazione di


video di ogni genere e il loro riutilizzo, senza alcun tipo di controllo delle informazioni
pubblicate. Secondo te questa può essere la causa che spinge gli utenti a una maggiore
pubblicazione di materiale in rete, violando in certi casi il diritto d'autore?

si, perché in generale il


poco controllo aumenta la
53%
pubblicazione di materiale
di ogni tipo in rete

sì, ma solo in siti come


6%
You Tube

no, non credo sia questo


che influenzi una 42%
maggiore pubblicazione

238
5. Se quando si creano e condividono contenuti in rete si potessero tutelare con degli
appositi strumenti i propri lavori, questo potrebbe scoraggiare la creazione e il
riutilizzo di materiale lesivo del diritto d’autore?

si, soprattutto in siti


come You tube 33%

si, ma solo per certi tipi


19%
di opere come la musica

si, ma solo per testi e


6%
articoli

no, non credo che


42%
scoraggerebbe

6. Sul sito web di creative commons si legge: “Le licenze Creative Commons offrono sei
diverse articolazioni dei diritti d'autore per artisti, giornalisti, docenti, istituzioni e, in
genere, creatori che desiderino condividere in maniera ampia le proprie opere secondo
il modello "alcuni diritti riservati". Il detentore dei diritti può non autorizzare a priori
usi prevalentemente commerciali dell'opera (opzione Non commerciale, acronimo
inglese: NC) o la creazione di opere derivate (Non opere derivate, acronimo: ND); e se
sono possibili opere derivate, può imporre l'obbligo di rilasciarle con la stessa licenza
dell'opera originaria (Condividi allo stesso modo, acronimo: SA, da "Share-Alike"). Le
combinazioni di queste scelte generano le sei licenze CC, disponibili anche in versione
italiana. Creative Commons è un'organizzazione non-profit. Le licenze Creative
Commons, come tutti i nostri strumenti, sono utilizzabili liberamente e gratuitamente,
senza alcuna necessità di contattare CC per permessi o registrazioni".

Conosci queste licenze?

si, le conosco 35%

sì, ne ho sentito
49%
parlare ma non ho le
idee chiare

no, non ne ho mai 16%


sentito parlare

239
7. Le hai mai utilizzate?

si, le applico ai miei lavori 24%

si, ho utilizzato lavori in rete 22%


che utilizzano queste licenze

no, non le ho mai utilizzate 54%

8. Quali hai utilizzato tra queste?

BY-attribuzione 14%
attribuzione-non opere derivate 0%
attribuzione-non commerciale 19%
attribuzione-condividi allo stesso modo 29%
attribuzione-non commerciale-condividi allo stesso modo 19%

attribuzione-non commerciale-non opere derivate 5%


sampling plus 0%
PD-pubblico dominio 0%
nessuna 14%

240
9. Per quali tipi di contenuti le hai utilizzate?

video 6%

presentazioni multimediali 22%

musica o suoni 28%

testi 17%

foto 11%

siti web 17%

10. In generale capisci la differenza fra l’utilizzo di una licenza piuttosto che un'altra?

si, sono molto chiare 36%

si, ma ho qualche dubbio 42%

no, non sono abbastanza


22%
chiare

241
11. Se non sono chiare o hai dubbi, secondo te cosa non si capisce?

cosa si intende per opere derivate 17%


cosa si intende con la licenza share alike 17%
se posso comunque guadagnare applicando la licenza non-commercial al mio
25%
lavoro

quando si applica la sampling plus 29%


se posso applicarla ai miei lavori anche se sono già iscritto alla SIAE 4%
se si possono applicare solo a lavori online o anche offline 8%

12. Se le hai utilizzate, hai avuto difficoltà nella loro applicazione ai tuoi lavori?

sì, in siti come Flickr o


Slideshare che ne consigliano
l'utilizzo, il procedimento di 6%
applicazione delle licenze non
è abbastanza chiaro

sì, applicandole a lavori da


11%
pubblicare in spazi web
personali

no, ho trovato sempre il


39%
procedimento chiaro

242
13. In generale, se si potesse accedere in modo più immediato all’applicazione delle
licenze e se fosse più chiaro il loro utilizzo in rete, ad esempio attraverso appositi step
durante l’upload come avviene su Jamendo o con applicazioni adeguate che aiutino
passo passo nella scelta, questo potrebbe incoraggiare la creazione e il riutilizzo di
contenuti rilasciati sotto licenze Creative Commons?

si, incentiverebbe
sicuramente se
l’applicazione delle licenze 23%
fosse più automatica e
semplice da usare

sì, ma bisognerebbe
comunque fare una 69%
promozione migliore in
rete di queste licenze

no, non credo che


9%
incoraggerebbe

14. Sai di cosa si occupa il gruppo di lavoro Creative Commons Italia?

si occupa esclusivamente di licenze 11%


diffondere libertà e collaborazione tra le persone 19%
incoraggiare gli autori a sperimentare nuovi modi per promuovere e
32%
commercializzare le proprie opere

è uno studio legale che offre consulenza legale 5%


no, non so 32%

243
15. Conosci uno di questi concorsi o iniziative dedicati a lavori rilasciati sotto licenza
Cc?

Copyleft festival di Arezzo 22%

Cc-festival 2008 Parma 0%

Free image festival Grosseto 0%

Concorso “Corti in creative commons” 14%

Concorso “Video remix challenge 2008” 3%

Opensource cinema 5%

No, non so 57%

244
16. Questo nuovo modo di concepire il web come ambiente collaborativo per l’editing
e il remix di contenuti, potrebbe essere valorizzato dall’utilizzo delle licenze cc?

Si, sarebbe importante


utilizzare sempre questi
76%
strumenti per la creazione di
contenuti in rete

Sì, sarebbe importante ma


8%
solo per certi tipi di contenuti
come la musica e i video

No, gli utenti


continuerebbero comunque a
riutilizzare materiale in rete
16%
senza riconoscerne la
paternità e ledendo i diritti
dell’autore

245
Appendice C

Intervista del 10 Dicembre 2008 al Prof. J.C. De Martin, responsabile italiano di


Creative Commons e co-direttore del centro NEXA su Internet & Società del Politecnico
di Torino.

Sono una studentessa dell’Università di Sassari, Corso di Laurea in Editoria,


Comunicazione Multimediale e Giornalismo. Sto svolgendo una tesi di laurea in
Progettazione di tecnologie per la comunicazione con la Prof. Alessia Rullo, sul Web 2.0
e utilizzo delle licenze Creative Commons.
L’obiettivo della mia tesi è stato quello di valutare la diffusione dell’uso delle CCPL e di
come queste influenzino l’attività di creazione di contenuti in rete, con particolare
riguardo agli ambienti collaborativi e di remix di contenuti. Per questo ho svolto delle
ricerche in rete sia per vedere le esperienze che erano già presenti, sia attraverso un
sondaggio che sto somministrando ai potenziali utenti delle licenze per capire se le
conoscono e i rapporti che hanno con esse. È emerso che si stanno diffondendo sempre
più gli ambienti che permettono il lavoro collaborativo e il remix di contenuti, (come
CCMixter, Romanzo Totale o la nuova nata You Tube Simphony Orchestra), anche
attraverso strumenti tecnologici che permettono l’editing direttamente on line e ha
fatto maturare una visione di authoring diversa, cioè i contenuti si creano direttamente
online attraverso appositi strumenti di editing p.e., e si creano sempre più spesso in
ambiente collaborativi che permettono la creazione e la rielaborazione dei contenuti.
D: In questi ambienti collaborativi, dove inizia e dove finisce il diritto d’autore di ogni
utente?

R: Bè il diritto d’autore dice che quando l’utente produce qualcosa che è originale,
quindi deve esserci una certa storia di originalità, e che è suo, quindi che non deriva da
altri lavori ha il diritto, la legge sul diritto d’autore tutela questo contributo. Sin quando
si tratta di contributi abbastanza con una certa dimensione, non abbiamo particolari
problemi, il problema per me si pone in prospettiva quando come nel caso di Wikipedia
abbiamo magari migliaia di persone che fanno piccoli interventi e che contribuiscono
quindi al risultato complessivo, allora il diritto d’autore credo che con queste micro
aggiunte, con queste micro modifiche abbia dei problemi perché sono una granularità
più piccola di quella normalmente pensata per il diritto d’autore. Però il principio

246
fondamentale è che chi contribuisca a qualcosa di originale è tutelato dal diritto
d’autore per quel contributo, vale anche per il software.

D: Quindi vale solo per il singolo contributo, non viene considerato come un lavoro a
più mani, come un’opera collettiva?

R: è un lavoro a più mani, però il diritto d’autore protegge i singoli contributi.

D: Dall’analisi delle esperienze già presenti in rete ho notato che, a livello progettuale
nei siti che utilizzano CCPL come Flickr p.e., il procedimento di applicazione delle
licenze avviene spesso in un passaggio separato dall’editing e dall’upload dei
contenuti, cioè l’utente dopo l’upload deve eventualmente entrare in un’apposita area
del menu e accedervi.
La mia idea progettuale era quindi di rendere questo procedimento un po’ più
integrato nel flusso di lavoro, quindi simultaneamente alla creazione stessa del
contenuto, definendo uno strumento progettuale che serva a migliorare la creazione
collaborativa e il remix di contenuti in rete valorizzati dall'utilizzo di queste licenze,
che spieghi e aiuti per step nella scelta più consapevole delle licenze già durante
l'editing e che possa eventualmente andare a migliorare esperienze di ambienti
collaborativi già presenti in rete.
Il fatto che risulti un procedimento distaccato potrebbe essere un fattore che influenza
negativamente l’utilizzo delle licenze da parte dei potenziali utenti, considerando
anche che chi non le conosce o le conosce poco?

R: Questo è sicuramente vero che è più come uno step finale che a certi può sfuggire
completamente, sono d’accordo, però è più un miglioramento tecnico del workflow dire
“lo integriamo meglio, te lo rendiamo più evidente e più presente”.

D: E uno strumento di questo tipo potrebbe essere un modo per sensibilizzare


maggiormente un potenziale utente di queste licenze?

R: Ah sicuramente sì, nel senso che l’utente sarebbe più sensibile che esiste questo
aspetto e lo prenderebbe maggiormente in considerazione. Sarebbe interessante
parlare con chi ha fatto le cose già esistenti, per chiedergli perché non l’ha fatto. Perché
magari qualcuno ritiene che l’argomento dei diritti interessa poco o che rischia di
distrarre dalla cosa principale… sarebbe interessante capire perché non è stato già fatto
247
quello che dice lei, capisce? Ma non perché quello che dice lei non sia auspicabile, ma
perché magari ci sono delle obiezioni, magari ci han provato e hanno rinunciato perché
gli utenti si infastidiscono a questo step aggiuntivo… Però ovviamente dal punto di vista
Creative Commons sono d’accordo, sarebbe una cosa opportuna farlo.

D: Dal questionario che sto somministrando in rete finora, il 73% degli intervistati ha
affermato che bisognerebbe fare una promozione migliore in rete di queste licenze.
Secondo Lei in che modo si potrebbe diffondere e pubblicizzare maggiormente la
conoscenza e l’utilizzo delle CCPL in rete?

R: Il discorso è complicato perché l’utilizzo delle licenze Cc, come qualsiasi licenza,
presuppone che ci sia una conoscenza dei concetti di base del copyright, del diritto
d’autore… bell’argomento, nel senso che sino ad adesso la maggior parte delle persone
poteva vivere la sua intera vita ignorando sostanzialmente l’esistenza del copyright.
Adesso la situazione è cambiata, ma non è che nel frattempo le scuole, per esempio,
abbiano iniziato ad insegnare questi concetti di base del diritto d’autore, per cui il vero
ostacolo non è tanto spiegare le licenze -spiegare le licenze è banale, se uno sa già cos’è
il diritto d’autore- ma è spiegare il diritto d’autore. E per spiegare il diritto d’autore o si
hanno delle risorse, come possono avere SIAE o i grandi editori, o altrimenti per un
progetto come Cc… un po’ lo facciamo, ovviamente con le risorse di un progetto
volontario. Quindi il vero problema è educare al diritto d’autore e tra l’altro, dal punto di
vista di Cc, è ancora qualcosa in più. Perché in realtà Creative Commons non sono solo
strumenti tecnici che si basano sul diritto d’autore, ma ci sono dei connotati di tipo
culturale che spiegano perché Cc esiste. Creative commons esiste per….tutta una serie di
problemi, è un’opera educativa che si può soltanto fare, stiamo facendo da diversi anni,
non solo noi ma anche molti altri stanno facendo, ma che è abbastanza impossibile
risolvere nel giro di poco tempo, è un processo continuo di discussione come facciamo
con incontri, articoli sui giornali, festival. Non c’è nessuna soluzione rapida temo su
questo problema. Quindi per una maggiore pubblicità si potrebbero utilizzare i canali
classici della pubblicità, ma non abbiamo chiaramente gli strumenti per farlo, non
abbiamo risorse per mettere annunci pubblicitari sui siti, banners, adwork di google
ecc… e quindi si può soltanto continuare come abbiamo fatto fin adesso con
passaparola, imitazione, non vedo grandi possibilità alternative. Oppure un’altra
possibilità potrebbe essere una pubblicità indiretta, nel momento in cui ci fossero dei
248
casi eclatanti, che so la RAI o un grande editore che adottasse queste cose e le
pubblicizzasse, allora avremmo una pubblicità indiretta.

D: E uno strumento di questo tipo magari integrato anche ad esperienze già presenti in
rete di ambienti collaborativi, potrebbe sensibilizzare maggiormente? Più, magari, di
una pubblicità fatta in rete?

R: Si sicuramente, perché se direttamente nel dominio applicativo alla gente, mentre sta
facendo qualcosa, si fa presente questo aspetto, quindi questo sicuramente si e anziché
essere una pubblicità generica rivolta a tutti e a nessuno, sarebbe rivolta esplicitamente
alle persone interessate a pubblicare. Quindi questo sarebbe sicuramente molto meglio.
Idealmente in realtà Cc, sin dall’inizio dal 2003 da quando ce ne occupiamo noi, ha
contatti con San Francisco, quindi molto vicini all’industria del software americano e da
sempre hanno contatti con i grandi produttori come Adobe, Microsoft e altri perché, se
nei menù di questi programmi come Photoshop, Office, ecc…, ci fosse anche una voce
che dice “quali diritti vuoi attribuire, vuoi scegliere Cc?”, chiaramente la situazione
sarebbe notevole. Finora il successo da questo punto di vista è stato parziale, Office ha
fatto un plugin per aggiungere Creative Commons, però è un plugin, quindi uno deve
saperlo, caricarlo e installarlo in Office, non è uno standard…

D: Non è una cosa automatica quindi?

R: No, almeno non credo nella versione 2007, nell’ultima versione di Office non ho
controllato ma non mi sembra che sia standard, prima non lo era di sicuro… anche
quello sarebbe importante, però le chiavi ce le hanno i produttori software, quindi
bisogna vedere se e quando hanno interesse a fare una cosa del genere. In Flickr per
esempio, è stato uno degli investitori di Flickr Joi Ito è stato abbastanza naturale che lo
includesse, Yahoo e Google hanno esteso una ricerca avanzata, però soltanto pochissimi
utenti utilizzano la ricerca avanzata per trovare materiale.

D: Anche su Mozilla Firefox ho visto che c’è la possibilità nel motore di ricerca di cercare
direttamente…

R: …che è un metamotore di ricerca perché si appoggia poi direttamente a Google o


Yahoo.

249
D: Per quanto riguarda NEXA, cos’è e di cosa si occupa?

R: Allora, mi permetta di fare un passo indietro. Nel 2003 io come ricercatore e docente
di informatica, ci siamo incontrati col Prof. Ricolfi che è un giurista, che conosceva
Lessing dal 1999 -era già venuto a Torino nel 1999- e gli ho raccontato cos’era Creative
Commons e del fatto che creative commons cercasse volontari in giro per il mondo per
fare la traduzione e adattamento. Il prof. Ricolfi ha accettato e a quel punto parte
l’entourage -che in parte ha conosciuto ieri- che ha cominciato a lavorare alle licenze;
questo nel 2003. Abbiamo lanciato le licenze a fine 2004, nel 2004 abbiamo fatto due
giornate di studio alla Fondazione Agnelli su CyberLaw, quindi Internet, tecnologia e
legge, nel 2005 abbiamo ospitato l’Internet Law Program di Harvard del Berkman Center
e così via, mano a mano abbiamo fatto iniziative, il servizio licenze libere SeLiLi -che tra
l’altro adesso stiamo discutendo anche per la Sardegna- e questa serie di iniziative ci han
fatto capire che non era più una collaborazione episodica e occasionale per una certa
cosa specifica, ma Creative Commons continuava la collaborazione con Harvard … certe
idee, il progetto SeLiLi ci ha dato certe idee, alla fine abbiamo capito che, in maniera tale
da rendere sostenibili certe attività -che è puro volontariato fatto oltre a tutti i nostri
normali lavori, quindi il fine settimana o le sere- andava creato qualcosa di più
strutturale che fosse più ampio di ogni singolo progetto che stavamo facendo, e anche
che servisse a fare economie di scala, fattore comune a mettere risorse e competenza, e
quindi a fine 2006 abbiamo creato un centro di ricerca perché ci è sembrato che un
centro di ricerca basato a un’istituzione come il Politecnico potesse fornire da base, da
cappello organizzativo-strutturale per tutte queste attività. L’abbiamo fatto con uno dei
primi finanziamenti e quello che abbiamo adesso com’è Nexa è un centro di ricerca
multidisciplinare accademico, accademico con un orientamento abbastanza preciso che
è quello di… crediamo in un Internet aperta, interoperabile e democratica e così via,
quindi con un orientamento e una visione del mondo chiara e non completamente
neutra e staccata, e all’interno di NEXA adesso ci sta il progetto Creative Commons Italia,
ci sta il progetto SELILI, ci sta il progetto europeo COMMUNIA, e così via, però ora
abbiamo una struttura che può seguire queste cose.

D: Per quanto riguarda il progetto COMMUNIA, di cosa si tratta?

250
R: Il progetto COMMUNIA è un progetto finanziato dall’Unione Europea, un migliaio di
euro per tre anni, adesso abbiamo 41 membri, quindi una rete, una rete telematica, il
finanziamento va perlopiù per coprire i costi di viaggio di questi membri che si
incontrano circa quattro volte l’anno, e questa rete ha ricevuto il mandato dalla
Commissione Europea di studiare il ruolo del pubblico dominio in senso lato, anche le
opere rilasciate sotto Creative Commons sono considerate in pubblico dominio in questo
senso, o anche il pubblico dominio in senso scientifico educativo, le opere orfane e altre
cose un po’ più specializzate, e quello che ci chiede la Commissione Europea con questi
incontri che organizziamo, con questi gruppi di lavoro che abbiamo creato è di suggerire
alla commissione cambiamenti di policies che favorissero il pubblico dominio in Europa.
Cambiamenti di policies, quindi la proposta di direttiva a modifiche di norme o
regolamenti, e questa è una cosa ambiziosa perché è come cercare di dare voce al
pubblico dominio che, essendo una cosa di tutti e di nessuno, è un interesse diffuso, non
concentrato, e specialmente nel confronto con invece interessi concentrati -grandi
editori, grandi discografici, e così via- il pubblico dominio perde perché non c’è nessuno
che lo rappresenta. L’ambizione di questa rete è di provare a dare voce a questa
rappresentativa, e il pubblico dominio è importante per i seguenti motivi economici,
sociali, culturali, politici, educativi e così via. È ambizioso, ma è qualcosa che stiamo
cercando di fare da circa un anno e durerà fino ad agosto del 2010.

D: E per quanto riguarda gli incontri “I mercoledì di NEXA”, ogni quanto avvengono?

R: Abbiamo voluto creare un incontro pubblico, quindi aperto a chiunque, una volta al
mese per il momento -il secondo mercoledì del mese-, dove il gruppo dei “nexiani”
quindi ricercatori, docenti, ecc incontra chiunque sia interessato a parlare di Internet e
dei diversi aspetti di Internet, e quindi siamo aperti a pubblica amministrazione,
imprenditori, studenti, semplici interessati e semplici appassionati. Abbiamo iniziato a
settembre e quindi siamo soltanto all’inizio e mano mano che andiamo avanti capiamo
come strutturarlo, adesso abbiamo avuto un nuovo ospite ieri, avremo un ospite a
gennaio che è il Sen. Fiorello Cortiana e un po’ alla volta lo “stremiamo” live, e l’obiettivo
è anche quello di rendere più trasparente quello che facciamo e anche eventualmente di
attrarre persone nuove, studenti che sono interessati, vedono cosa facciamo, ci vengono
ad ascoltare e poi magari diventano collaboratori del centro.

251
D: Nell’articolo di Glorioso e Mazziotti sulle CCPL e i diritti connessi, per sensibilizzare
maggiormente i potenziali utenti delle CCPL sulla necessità di assicurarsi la
disponibilità di tutti i diritti su un’opera, loro propongono di inserire, nel modulo di
selezione delle CCPL on line, degli avvertimenti che facciano tener conto al licenziante
che non siano violati i diritti di terzi, senza però entrare nei dettagli giuridici.
Secondo lei, degli avvertimenti di questo tipo che permettano anche all’utente che ha
meno competenze giuridiche di capire, se applicati allo strumento di cui parlavamo
prima, potrebbero sensibilizzare maggiormente i potenziali utenti delle CCPL?

R: Direi che è essenziale… anche nei questionari che vengono predisposti per rilasciare
per esempio la tesi con licenza creative commons, anche all’interno delle università, c’è
una fase di corretta informazione dell’utente, nel senso anziché dirgli “la vuoi rilasciare
con licenza CC?” e basta, gli si dice “l’opera è tutta tua? Sei sicuro che l’opera non
contenga contenuti altrui? Se contiene contenuti altrui hai ottenuto il permesso?” E tra
le altre cose gli si potrebbe dire -nel caso di opere musicali per esempio-, “quest’opera è
tua e sei sicuro di avere ottenuto il permesso anche di eventuali altri che hanno i diritti,
come AIE ecc?”. Quindi questa fase educativa, che non deve essere troppo tecnica e
troppo pesante se no farebbe scappare tutti, ma viceversa non si può neanche
nascondere sotto al tappeto perché altrimenti poi uno, magari lo fa in buona fede, ma in
realtà sta violando un diritto di altri e quindi bisogna trovare un bilanciamento tra i due.
Ovviamente la maggior parte dei siti di successo hanno un approccio molto più indiretto
e meno pesante, perché quando uno va su You Tube mica gli fanno quattro paginette di
domande, è tutto nascosto nei Terms of Service -che nessuno legge-, allora ovviamente
You Tube pensa ad avere successo e non vuole scoraggiare l’upload perché vive di
quello, una pubblica amministrazione come l’università deve invece essere più corretta
e più trasparente, bisogna trovare caso per caso il modo giusto per farlo.

D: Nel questionario che sto somministrando il 41% ha dichiarato di avere dei dubbi
sull’utilizzo delle licenze.
La mia domanda è se questo problema potrebbe essere risolvibile, a livello
progettuale, con uno strumento che aiuti nel momento di scelta della licenza più
adatta da parte dell’utente-autore a chiarire eventuali dubbi, sia a livello tecnico che a
livello giuridico.

252
R: Noi abbiamo appena pubblicato -o staranno per pubblicare- le risposte alle domande
più frequenti ufficiale, che ci hanno tenuti impegnati letteralmente per degli anni, e
quello dovrebbe rispondere ad alcune domande. Il fatto che ci siano delle domande è
quasi ovvio, è talmente complicata la materia che sarebbe strano non ci fossero delle
domande, quando non ci sono delle domande è perché in realtà nessuno ha capito, le
cose capitano e magari in certi casi può anche andare bene così. Ma nel caso delle
licenze Creative Commons non possiamo non affrontare questi problemi, spiegarli
sperando che la cosa non diventi troppo complicata. È veramente complicato
comunque, non c’è una soluzione perfetta. Facciamo un esempio, ieri Mazziotti parlava
della parodia, le domande rischiano di diventare così complicate, potremmo dire:
“quest’opera è tua?” e uno dovrebbe dire “no” “ma non stai mica facendo una parodia?
Perché se stai facendo una parodia allora va bene!”. E di eccezioni di questo tipo ce ne
sono talmente tante, di casi particolari, che uno se volesse essere rigoroso dovrebbe
prevedere “stai esercitando il diritto di cronaca?” “stai facendo un upload di questo tipo
perché in realtà è successa una manifestazione e vuoi fare l’upload, il video non è tuo
ma stai esercitando un diritto di cronaca?”, capisce? Quindi uno rischia di immischiarsi in
un labirinto, non è un caso che nella maggior parte dei casi si evita questo genere di
domande, però se uno guarda il Common Deed delle licenze CC italiane, ci sono alcune
frasi che servono a suggerire per esempio “le licenze creative commons non limitano in
alcun modo l’esercizio dei tuoi diritti”, che vuol dire? Io ti dico per esempio che non puoi
fare un uso commerciale della mia opera, per cui repubblica.it non potrebbe usare
perché fa un uso commerciale. Ma se repubblica.it esercita il suo diritto di cronaca
invece lo fa, quindi la verità effettiva -da profano- è che più capisco di questa cosa e più
mi rendo conto che tutto il sistema funziona perché non viene applicato, perché se
venisse applicato sarebbe la paralisi più totale e che se volessimo veramente far
rientrare nella legalità tutti i comportamenti bisognerebbe cambiare praticamente la
legge sul diritto d’autore e dire -come la proposta del prof. Ricolfi di un Copyright 2.0-
dire tutti gli usi sono leciti, c’è solo l’attribuzione e quindi tutti questi problemi
scomparirebbero. Se uno vuole tutti i diritti riservati chiede, ci sarà un bollino e in quello
valgono le regole standard, ma sarebbero un piccolo sottoinsieme, sarebbero le cose
prodotte dall’industria culturale, tutto il resto no.

253
D: E per quanto riguarda i progetti Creative Commons, come CCMixter p.e., chi se ne
occupa a livello progettuale?
R: Stai Uniti.

D: Qua in Italia non c’è nessuno che se ne occupa?


R: Di quei progetti lì, no. C’è un dottorando del centro NEXA, che è un mio dottorando
ingegnere, che in questi giorni è a Boston per il secondo Creative Commons Technology
Summit, dove si discutono gli aspetti tecnici, soprattutto metadati, e quello è l’aspetto di
ricerca tecnologica del centro NEXA su questi temi, che ha un impatto anche sui tuoi
progetti, però non è progettuale ma è ricerca.
Sono temi appassionanti per i giuristi o per altri, sulla parte dei diritti connessi ci hanno
lavorato due anni credo, molto intricato e molto complicato, si è provato a dare degli
spunti per chiarire quell’aspetto, ma poi la cosa importante è usare le licenze.

254
Appendice D

Testo dell’intervista via e-mail a Victor Stone, amministratore del sito CcMixter.org

Dear CcMixter,

I’m student at Sassari University (Italy) and I’m working on my master thesis
investigating web 2.0 phenomena and the use of creative commons licenses.

The objective of my research is evaluating CCPL utilization and popularity among the
web users and how the creation of web contents can be effected by the use of those
licenses.

The aim is to figure out how a juridical instrument such as cc licenses can support new
ways of creating and remixing web contents in collaborative settings.

On the basis of the early outcomes of my research I’m considering to develop an applet
taking the form of an online tutorial that can support the users using the CC licenses
while creating and editing contents in online, collaborative environments.1

This tutorial would explain how to choose the license that best suit with the work you
are creating, by means of brief simulation; in this way it aims at supporting a continuous
learning process on the use of those licenses.

In the context I’m analyzing the experience of the CcMixter web site, which I would like
to use as one of the case studies for my work. To this respect, I would very much
appreciate if you can answer to the following questions that will help me better frame
the research and to understand the Cc Mixter experience.

Do you think could be useful to integrate CcMixter with a tool that enables users to
remix their contents online? Why?

In your opinion, could it be useful for the users to have an applet that allows to integrate
CCPL in the content creation, working as a tutorial of the use of these licenses? What
can be the benefits or the drawbacks of this kind of solution?

In case this solution has been previously considered, which kind of limitation (i.e.
technical) have been encountered? Could you provide me some reference of these

255
experiences? And more in general, what has been the feedback from the users (e.g. too
many steps can make the interaction boring or can be seen as an interruption of the
work flow)?3

I would like to thank you in advance for your kind attention.

Your contribution will be absolutely helpful for the prosecution of my work.

Best wishes,

Paola Cherosu

Hi Paola,

I'm afraid I don't have a lot of time to give you proper attention but
quickly I can say what my impressions are:

Musicians are not interested in a "continuous learning process on the


use of those licenses" - they just want to make music. Anything the
makes them more productive, makes their music better or spreads the
word (publicity) is what we use as criteria for what features to add
to the site. We try to make all the legal stuff as transparent as
possible and focus on the music.

Thanks,
VS

256
Appendice E

Tavola dei risultati delle valutazioni sul prototipo con gli studenti

257
258
259
260
261
262
263
Riferimenti bibliografici e Articoli

AA.VV. Open Sources: voci dalla rivoluzione Open Source, Apogeo, Milano, 1999

Aigrain P., Causa Comune, Stampa Alternativa-Nuovi Equilibri, 2007

Aigrain, P., Internet et Création, Ed. In Libro Veritas, France, 2008

Aliprandi S., (A cura di), Compendio di libertà informatica e cultura open, Ed. PrimaOra,
Lodi, 2006

Aliprandi S., Capire il Copyright: Percorso guidato nel diritto d’autore, Ed. PrimaOra,
Lodi, 2007

Aliprandi S., Copyleft e Opencontent: l’altra faccia del copyright, PrimaOra, Lodi, 2005

Aliprandi S., Teoria e pratica del copyleft guida all’uso delle licenze open content, NDA
Press, 2006

Aliprandi, S., Creative Commons: manuale operativo. Guida all’uso delle licenze e degli
altri strumenti CC, Stampa Alternativa, 2008

Anolli, L., Origini ed evoluzione della cultura, pubblicazione su Giornale Italiano di


Psicologia, 2006 http://www.cescom.info/anolli/Anolli%202006articolo%20bersaglio.pdf

Barr, J., Live and let license, articolo disponibile in rete all’indirizzo
http://www.itworld.com/LWD010523vcontrol4

Beccaria A., I pionieri della frontiera digitale: Internet dagli esordi al world wide web,
disponibile in rete all’indirizzo antonella.beccaria.org/shalom/work/storia_internet.pdf

Beccaria, A., Permesso d’autore. Percorsi per la creazione di cultura libera, 2006,
disponibile in rete all’indirizzo http://permessodautore.it/libro/permessodautore.pdf

Berners-Lee, T., L’architettura del nuovo web, Feltrinelli, Milano, 2002

Berners-Lee, T., Semantic Web Roadmap, articolo disponibile su


http://www.w3.org/DesignIssues/Semantic.html

264
Bollier, D., Why The Public Domain Matters The Endangered Wellsping Of Creativity,
Commerce and Democracy, New America Foundation & Public Knowledge, 2002

Caso, R., Digital Right Management. Il commercio delle informazioni digitali tra
contratto e diritto d’autore, CEDAM, Padova, 2004

Caso, R.,(a cura di), Digital Right Management, problemi teorici e prospettive applicative,
Atti del Convegno tenuto presso la Facoltà di Giurisprudenza di Trento, 2008

Crevola, A.,- Gena C., Web Design, la progettazione centrata sull'utente, CittàStudi
Edizioni, 2006

Csikszentmihalyi, M., Flow. The Psychology of Optimal Experience, HarperCollins


Publishers, 1990

Di Bari, V., Web 2.0, Il Sole24Ore, Milano, 2007

Drahos, P., Information Feudalism: Who Owns the Knowledge Economy?, John
Braithwaite Earthscan, 2002

Fogel, K., La promessa di un mondo senza copyright. Internet e controllo, articolo


disponibile in rete all’indirizzo http://questioncopyright.org/promise

Furini, N., Libero come un software, usare internet con gli strumenti liberi e/o
opensource per comunicare, lavorare, imparare, CC, 2006

Glorioso, A.- Mazziotti, G., Alcune riflessioni sulle licenze creative commons e i diritti
connessi degli artisti interpreti ed esecutori, dei produttori di fonogrammi e degli
organismi di diffusione radiotelevisiva, in “Il diritto di autore”, Rivista trimestrale della
Società Italiana degli Autori ed Editori, Vol. 79 (2) PP. 163 Giuffrè Editore, Milano, Aprile-
giugno 2008

Glorioso, A., Un'agenda per lo sviluppo: battaglia al WIPO articolo su http://punto-


informatico.it/1108177/PI/News/un-agenda-sviluppo-battaglia-al-wipo.aspx

Grivet Foiaia, L., Web 2.0 - Guida al nuovo fenomeno della Rete, HOEPLI, Milano, 2007

265
Gennari, L., Internet e Sicurezza: proroga per il decreto Pisanu, articolo su
http://www.pubblicaamministrazione.net/leggi-e-norme/news/1529/internet-e
sicurezza-proroga-per-decreto-pisanu.html

Gruppo Laser, Il sapere liberato. Il movimento dell’open source e la ricerca scientifica,


Feltrinelli, 2005

Kaye, B., Medoff, N., The World Wide Web. A Mass Communication Perspective,
Mayfield Publishing Company, California, 2001

Levy, P., L’intelligenza collettiva, intervista disponibile su


www.mediamente.rai.it/home/bibliote/intervis/l/levy.htm#link001

Lessing, L., Code, Basic Books, New York, 2006

Lessing, L., Free Culture How Big Media Uses Technology and The Law To Lock Down
Culture and Control Creativity, Apogeo, 2005

Lessing, L., Remix: Making Art and Commerce Thrive in the Hybrid Economy, The Penguin
Press, United States of America, 2008

Lessing, L., The Future Of Ideas, The Fate Of The Commons In A Connected World,
Random House Inc., New York, 2001

Mazziotti, G., EU Digital Copyright and The End User, Springer, 2008

Mazziotti, G., Il diritto d’autore comunitario nel nuovo ambiente digitale-Riproduzione


riservata, diritto d’accesso ed eccezioni all’esclusiva all’ombra della Direttiva
2001/29/CE, pubblicazione disponibile in rete all’indirizzo
http://works.bepress.com/cgi/viewcontent.cgi?article=1001&context=mazziotti

McLeod, K., Freedom Of Expression: Overzealous Copyright Bozos and Other Enemies Of
Creativity, DOUBLEDAY a division of Random House Inc., 2005

Morelli, M., La comunicazione in rete: Sicurezza, Privacy, Copyright in Internet: soluzioni


tecniche e giuridiche, Franco Angeli, Milano, 1999

266
Futia, G., Nexa, un nuovo sguardo verso il futuro delle rete, articolo su
http://www.lastampa.it/_web/cmstp/tmplrubriche/tecnologia/grubrica.asp?ID_blog=30
&ID_articolo=5660&ID_sezione=38&sezione=News

Nielsen, J., Loranger, H., Web Usability 2.0. L’usabilità che conta, Apogeo, Milano, 2006

Nielsen, J., Ten Usability Heuristics disponibile in rete all’indirizzo


www.useit.com/papers/heuristic/heuristic_list.html

Nielsen, J., Web Usability, Apogeo, Milano, 2000

Norman, D., Il computer invisibile:la tecnologia migliore è quella che non si vede,
Apogeo, Milano, 2000

Norman, D., The Design of Future Things, Apogeo, 2008

O’Reilly, T., Cos’è il Web 2.0, Design Patterns e Modelli di Business per la prossima
generazione di software su http://www.awaredesign.eu/articles/14-Cos-Web-2-0

Patterson, L.R., Copyright And `The Exclusive Right' Of Authors, articolo disponibile in
rete all’indirizzo http://www.lawsch.uga.edu/jipl/old/vol1/patterson.html Journal of
Intellectual Property, Vol. 1, No.1, 1993

Ricolfi, M., Copyright Policy for digital libraries in the context of the i2010 strategy,
pubblicazione disponibile in rete all’indirizzo http://communia-
project.eu/communiafiles/conf2008p_Copyright_Policy_for_digital_libraries_in_the_co
ntext_of_the_i2010_strategy.pdf

Saffer, D., Il design dell’Interazione, Pearson Education Italia, Paravia Bruno Mondadori
Editore, Milano 2007

Soro, A., (a cura di) Human Computer Interaction Fondamenti e Prospettive, Polimetrica
International Scientific Publisher, Monza, 2008

St. Laurent, A. M., Understanding Open Source and Free Software Licensing, Ed.
O’Really, 2004

Stallman, R., Software Libero, Pensiero Libero, Stampa Alternativa, Viterbo, 2003

267
Grossman, L., Time's Person of the Year: You articolo disponibile in rete alla pagina
http://www.time.com/time/magazine/article/0,9171,1569514,00.html

Williams, S., Codice Libero: Richard Stallman e la crociata per il software libero, Apogeo,
Milano, 2003

Google Centro Stampa, YouTube Presenta la “Youtube Symphony Orchestra”,


Comunicato Stampa disponibile in rete all’indirizzo
http://www.google.com/intl/it/press/pressrel/20081202_symphony_orchestra.html

268
Riferimenti Web

Anomolo.com

Archive.org

Beatpick.com

Blender.org/blenderorg/blender-foundation

Ccmixter.org

Communia-project.eu

Copyleftfestival.net

Copyleft-italia.it

Creativecommons.it

Creativecommons.org

Digitalmusician.net

Empressr.com

Facebook.com

Flickr.com

Freeimagefestival.org

Freesound.org

Homeworkrecords.net

It.youtube.com/symphony

Jamendo.com

Jumpcut.com

Magnatune.com

269
Motionbox.com

Musikethos.org

Nexa.polito.it

Odesigncommunity.com

Opensource.org

Opensourcecinema.org

Opsound.org

Ourmedia.com

Photobucket.com

Romanzototale.it

Selili.polito.it

Slideshare.net

Soundclick.com

Thumbstacks.com

Totalrecut.com

Youtube.com

Youtube.com/symphony

270
Ringraziamenti

Ringrazio innanzitutto il mio relatore, la Prof.ssa Alessia Rullo, per aver creduto in
questo lavoro sin dall’inizio, spronandomi ad approfondire fino in fondo questo tema e
indirizzandomi con i suoi preziosi suggerimenti verso la realizzazione del progetto finale.

Ringrazio profondamente il Dott. Giuseppe Mazziotti, che ha accettato volentieri di


seguirmi in questo percorso come correlatore, curando la parte giuridica di questo
lavoro e mettendomi in contatto con il gruppo di lavoro Creative Commons Italia.

Ringrazio tutto il gruppo di lavoro Creative Commons Italia per avermi accolto a Torino
con grande disponibilità, dandomi la possibilità di conoscere da vicino questa realtà e di
dare un approccio più realistico al mio lavoro. Un ringraziamento particolare va al Prof.
Juan Carlos De Martin, che si è reso disponibile a rispondere alle mie domande e che mi
ha dato importanti spunti di riflessione da approfondire, che sono stati di fondamentale
importanza per la prosecuzione del mio lavoro.

Ringrazio inoltre Victor Stone, amministratore del sito CcMixter, per aver risposto con
gentilezza alle mie domande.

Grazie a tutti coloro che mi hanno aiutato in tutte le varie fasi di progettazione,
rispondendo ai questionari ed effettuando le valutazioni sui prototipi.

Grazie a tutta la mia famiglia, ma soprattutto grazie di cuore a mia madre, che è riuscita
a starmi vicino e a darmi la forza di andare avanti in questo lavoro anche in un momento
difficile come quello che stiamo vivendo. Tutto ciò che sono oggi lo devo a lei.

Grazie a Luca, che mi sta vicino e mi sostiene ogni giorno da dieci anni. Grazie per il
prezioso aiuto e per i consigli che mi ha dato nella realizzazione del prototipo e per la
sua pazienza.

Infine, grazie alle mie amiche di sempre e a quelle nuove con cui ho condiviso questi due
anni di studio, e non solo. Ognuna di loro, leggendo queste righe, saprà riconoscersi.

271