Sei sulla pagina 1di 155

Teoria e Tecnica

dei Nuovi Media


22
2015-2016
prof. Guglielmo Pescatore
Indice
Voci
Storia 1
Digitalizzazione 1
ARPANET 10
Internet 11
World Wide Web 22
Web 2.0 29

Cultura 33
Interattivit 33
Ipertesto 35
Multimedialit 38
Software libero 44
Open source 51
Creative Commons 59
Social media 69
Contenuto generato dagli utenti 73
Wiki 75
Folksonomia 83

Tecnologia 85
Digitale (informatica) 85
Suite di protocolli Internet 86
Transmission Control Protocol 89
Indirizzo IP 98
User Datagram Protocol 102
Domain Name System 104
Hypertext Transfer Protocol 112
Uniform Resource Locator 117
Permalink 119
Browser 121
File sharing 127
Peer-to-peer 135
Streaming 145
Note 148

Note
Fonti e autori delle voci 149
Fonti, licenze e autori delle immagini 151

Licenze della voce


Licenza 152
1

Storia

Digitalizzazione
La digitalizzazione il processo di conversione che applicato alla misurazione di un fenomeno fisico ne determina il
passaggio dal campo dei valori continui a quello dei valori discreti. Tale processo viene oggi comunemente
sintetizzato nei termini di passaggio dall'analogico al digitale.
La misurazione della temperatura tramite un termometro o la rappresentazione di un suono tramite il tracciamento di
onde sono esempi di grandezze di tipo analogico, in quanto i valori che possono essere assunti sono infiniti.
In effetti l'operazione comporta una perdita di informazioni, che per in alcuni casi accettabile in quanto si
guadagna in semplicit di rappresentazione o in altri casi non comunque percepita.
Nel campo dell'informatica e dell'elettronica, con digitalizzazione si intende il processo di trasformazione di
un'immagine, di un suono, di un documento in un formato digitale, interpretabile da un computer, dove per formato
digitale si intende un codice binario in cui tutto rappresentato da combinazioni di zero od uno, quindi da stati del
tipo acceso/spento. Un disco in vinile su cui registrata una canzone rappresenta un esempio di riproduzione
analogica di un suono; la stessa canzone riprodotta tramite un computer ne rappresenta il formato digitale.

Analogico e digitale
Per analogico si intende un sistema in cui una quantit fisica continuamente variabile (ad esempio, l'intensit di
un'onda audio) viene rappresentata da un'altra (ad esempio, la tensione di un segnale elettrico) nel modo pi fedele
possibile. il sistema dell'imitazione, dell'opposizione originale/falso, dell'imprecisione. digitale invece un sistema
o dispositivo che sfrutta segnali discreti per rappresentare e riprodurre segnali continui sotto forma di numeri o altri
caratteri. l'universo nel quale le informazioni vengono rappresentate da stringhe di 0 e 1, attivo/inattivo, alto/basso,
vero/falso. L'analogico che, come spiega la parola stessa, tende ad evidenziare il legame che esiste tra i fenomeni,
secondo grandezze continue che subiscono progressive trasformazioni, custode e testimone del tempo, della
tradizione; il digitale invece il regno dei caratteri discreti, discontinui, un mondo dove le cose non avranno
sfumature. Saranno 0 o 1, dentro o fuori, bit o non-bit.
Nella parabola della sofisticazione di ci che si ha intorno, non si inscrive solo un processo di miglioramento
tecnologico, ma trovano spazio i geni nuovi di un cambiamento e di un ripensamento dell'intero modo di concepire il
reale, le sue cose e gli usi che ne facciamo. Il passaggio dall'analogico al digitale non riguarda solo ed
esclusivamente il mondo della tecnologia ed i suoi fruitori, non solo i massmediologi e quanti, in questi anni, si sono
occupati di vecchi e nuovi media. Parlare di analogico e digitale, in fondo, significa oggi parlare delle due esclusive
modalit di produzione e fruizione del flusso comunicativo (o forse, delle pi importanti categorie di gestione e
comprensione della realt).
Digitalizzazione 2

Livelli di analisi e pertinenza


a questo proposito, dunque, che sar opportuno scindere le coordinate di una riflessione sull'argomento in 3 livelli
di analisi e pertinenza:
un primo livello attinente alle dinamiche del sistema produttivo pi generale; un secondo livello relativo ai percorsi
di integrazione e differenziazione del sistema mediale; infine, un'ultima dimensione, attenta alle ripercussioni
verificatesi nel sistema sociale e culturale delle comunit investite dall'avvento delle ICT's. Per quanto attiene la
sfera produttiva, va detto che la rivoluzione digitale parte da molto lontano, trovando prodromi in tempi
insospettabili. Essa va letta come un processo che non ha trovato una sua realizzazione fulminea con l'avvento del
bit, ma attraverso un decennale percorso, alimentato dalle necessit che il sistema produttivo via via esprimeva. Gi
il telegrafo e le prime macchine computistiche funzionavano secondo una logica digitale, pur non possedendo la
tecnologia del bit. Esisteva, insomma, gi una prima esigenza nella catena produttiva.

Storia della digitalizzazione


L'obiettivo di fondo, identificato da alcune avanguardie della ricerca fin dagli anni trenta del secolo trascorso,
quello di riorganizzare la conoscenza in modo sempre pi efficiente, semplificando la selezione delle notizie in un
mondo sommerso dalle informazioni. In una estrema opera di semplificazione del processo, si potrebbe affermare
che quell'obiettivo utopistico ha generato gli ipertesti, il pc, Internet.
Si dovuto attendere l'invenzione del chip, dei primi computer e della rete Internet perch il bit diventasse davvero
una rivoluzione. Rivoluzione spinta e alimentata dagli interessi congiunti dell'industria militare (negli anni
cinquanta) e dei mondializzati commerci contemporanei. Il bit stato allo stesso tempo causa e conseguenza del
fenomeno della mondializzazione. Da una parte il progresso tecnologico ha dischiuso potenzialit impensabili sia dal
punto di vista dell'accrescersi dell'intelligenza delle macchine, sia dal punto di vista della trasformazione,
elaborazione e trasmissione delle informazioni. Dall'altra le esigenze dei governi e delle grandi aziende hanno
liberato fondi ingenti per la ricerca e la sperimentazione di queste tecnologie.
Fino a ieri (finch c'era la guerra fredda) erano i militari a finanziare le ricerche di punta: caschi per la realt virtuale
o sistemi avanzati per l'addestramento dei piloti. Oggi cambiato tutto: l'industria dell'entertainment a finanziare i
settori pi avanzati. Le ragioni di questa tendenza sono evidenti. L'industria del divertimento pu sperimentare in
tempi rapidi sempre nuove applicazioni su una platea di giovanissimi, che sono certamente i pi adatti ad apprendere
tecniche avanzate. I videogiochi diventano cos uno strumento di sperimentazione di massa di tecniche di interazione
uomo-macchina, che poi possono essere riutilizzate in altri settori: dall'istruzione a distanza al commercio
elettronico, per esempio.
La rivoluzione delle comunicazioni segue quella industriale e modifica il corpo stesso del suo essere: negli anni
ottanta e novanta, si assiste cos al passaggio da un'interfaccia statica ad un'interfaccia multimediale
dell'informazione.
Il sistema mediale ingloba e subisce, al tempo stesso, le nuove acquisizioni digitali, ridefinendo s stesso in virt
delle incredibili potenzialit tecniche dischiuse. In effetti, quelli introdotti dalle ICT's, solo latamente possono essere
considerati "nuovi" media: fatta eccezione per Internet, si in presenza di un'evoluzione e di una ridefinizione dei
vecchi mezzi di comunicazione, in parte digitalizzati. I media "primitivi" come la stampa, la radio, la TV potevano
solo "essere visti". Il broadcasting non consente interazione con i contenuti n tanto meno con la loro fonte, quindi
pu solo offrire una fruizione passiva dell'atto comunicativo. Resta impossibile produrre informazioni, essere
all'interno del media, interagire, essere visti. L'architettura logico-tecnica many to many di Internet, consente
all'utente di avere pieno controllo sulla comunicazione telematica, trasformandolo da spettatore a produttore di
informazione. Internet viene incontro al bisogno di visibilit delle persone perch conferisce ad essi la piena
autonomia della fruizione del mezzo stesso. Le nuove tecnologie dell'informazione e della comunicazione stanno
modificando radicalmente anche il rapporto di interazione tra producer e consumer. Esse non si configurano pi solo
Digitalizzazione 3

come strumenti per rendere pi efficienti attivit definite e quasi immutabili (le procedure, i flussi di lavoro) ma
rappresentano prima di tutto delle opportunit, dei fattori abilitanti che rendono possibili il cambiamento dei
tradizionali modi di produrre, di distribuire di organizzarsi, di scambiare e condividere il sapere, di cooperare: ci
che Levy ha chiamato intelligenza collettiva nel 1996.
La cultura della comunicazione, sconvolta dall'apparire di Internet, si ristruttura sulla base di tre elementi
fondamentali che informano l'agire sociale e la trasmissione della conoscenza: multimedialit, ipertestualit e
interattivit. Il link diviene la metafora del nostro quotidiano rapporto con la realt. L'avvento delle ICT's fa
registrare fenomeni di cambiamento nei processi comunicativi e nell'industria culturale. La digitalizzazione si
imposta come sistema dominante perch da un lato rende pi economica la produzione industriale delle informazioni
e, allo stesso tempo, espande i mercati e i confini della loro fruizione. L'era analogica era caratterizzata da spazi
confinati all'interno dei limiti imposti dai singoli mezzi di comunicazione e dai costi di produzione e di trasmissione.
Quella digitale scopre i mercati globali e li raggiunge attraverso percorsi rizomatici. Le vecchie agenzie
dell'informazione si trasformano anche in versioni digitali, entrando per di pi in competizione con il consumer della
Rete. Si scontrano globalizzazione e segmentazione estrema dell'informazione: le reti satellitari consentono una
fruizione planetaria dello stesso segnale trasmesso, ma se guardiamo ad esempio alla TV digitale ci si rende subito
conto della estrema tematizzazione dei contenuti veicolati: continuit e discontinuit, unificazione e targettizzazione,
comunit virtuali e pay-per-view isolazionista. Come afferma Thompson (1998), pur non riferendosi esplicitamente
alle nuove tecnologie, si in presenza di un duplice fenomeno: da una parte, si assiste ad una globalizzazione delle
telecomunicazioni, dall'altra ad una localizzazione ed individualizzazione della fruizione dei contenuti. Solo la
discontinuit del digitale rende possibile la creazione di mondi collegati: la continuit della cultura contemporanea
nasce dalla trasmissione discreta delle sequenze informatiche binarie. Con la nascita delle grandi rete di fibre ottiche
l'informazione di massa diventa il suo opposto, cio informazione personalizzata.
L'estensione della interattivit e l'unificazione del medium (il pc-tv e la tv-pc), ovvero ci che da pi parti viene
definita come "convergenza", completano il quadro e insieme fanno saltare in aria il tradizionale sistema dei media.
All'interno della societ della connessione, l'uomo digitale riesce a far convivere codici e linguaggi diversi all'interno
della stessa macchina. Sempre la stessa, ma di volta in volta capace di implementare funzioni e utilit differenti.
L'etica della discontinuit viene a configurarsi come causa e conseguenza del linkage quotidiano che l'uomo ha
adottato come suo schema di pensiero. La traduzione di questa nuova struttura cognitiva la convergenza di
informazioni diverse sullo stesso supporto nonch l'alimentazione di diversi supporti attraverso le medesime
informazioni. E cos ritroviamo il frigorifero nel computer e quest'ultimo nella lavatrice, cos come, l'industria del
telefono in quella delle canzonette: il sogno fatto carne di Negroponte.
Stiamo infatti gi assistendo all'estensione della interattivit e all'unificazione del medium: processi che completano
il quadro e insieme ridefiniscono il tradizionale sistema dei media e delle reciproche relazioni che la storia delle
comunicazioni ha ciclicamente attraversato. Siamo dunque di fronte a un vero e proprio rimescolamento, molto pi
rilevante in quanto investe simultaneamente molti aspetti: le forme di comunicazione, i linguaggi, la mentalit
corrente. Un unico mezzo per infinite funzioni, il concetto di multimedialit o meglio ipermedialit si estende anche
agli oggetti fisici, non pi solo al diverso approccio verso l'organizzazione dei contenuti. Con le modalit di
trasmissione analogiche, diversi tipi d'informazione non potevano viaggiare insieme sullo stesso supporto ed essere
decodificati dal medesimo terminale. Il segnale radio di un televisore era infatti totalmente diverso da quello di un
telefono mobile e, per essere tradotto in immagini, aveva bisogno di circuiti dedicati assenti in un telefono.
L'adozione di una rappresentazione digitale in luogo di quella analogica, nel video, nella musica, nella stampa e nelle
telecomunicazioni in generale, potenzialmente trasforma qualunque forma di attivit umana di tipo simbolico in
software, e cio in istruzioni modificabili per descrivere e controllare il comportamento di una macchina. L'utente di
fine secolo, la cosiddetta generazione Napster, trova la cifra della propria formazione culturale e della propria
interazione con la realt circostante nell'interfaccia e nell'ipertesto. Si tratta di due elementi che hanno cambiato
radicalmente il nostro modo di rapportarci all'informazione generando un coinvolgimento continuo da parte dello
Digitalizzazione 4

spettatore, tanto da rendere questa parola desueta. Chi utilizza Internet un utente che modifica l'enorme flusso
d'informazione, secondo le sue esigenze, per il semplice fatto che se le costruisce attingendo da un archivio comune
e spesso gratuito.
Questo il risultato dell'incontro tra arte e scienza, della formazione di una nuova cultura che ha carattere popolare e
si basa sulle conseguenze di una tecnologia che ha invaso il nostro ambiente culturale e promuove un processo di
sviluppo automatico sostenuto dalle stesse innovazioni tecnologiche e da un permanente desiderio di cambiamento.
La tecno-cultura realizza in parte la globalizzazione di una nuova generazione a cui permesso l'accesso alle merci
tecnologiche high-tech, e la conseguente familiarit con gli strumenti utilizzati, ma anche un dialogo con le derive
culturali che contribuiscono a sviluppare nuove dinamiche all'interno del pubblico discorso. L'epoca digitale
comporta, dunque, una diversa percezione delle cose, una percezione non-analogica che molto pi vicina al sentire
tipico delle arti. Nel paesaggio mediale, nel villaggio globale, ogni comunit produce segni e significati, ogni cultura
che si rispetti si fonda su un insieme di esperienze e di valori condivisi. Attraverso l'uso delle nuove tecnologie si va
sempre di pi verso una societ sintetica, sintetica in diverse accezioni; innanzitutto si intende per comunicazione
sintetica la velocit, l'accelerazione degli scambi comunicativi. Ma per sintetica intendiamo anche la sintesi di
apparecchiature diverse che fino a poco tempo fa erano considerate assolutamente non reciprocamente interferenti e
che con l'avvento delle nuove tecnologie possono, in realt, interagire. E, ancora, sintetica anche nel senso di
ricreazione di immagini, di oggetti fondamentalmente molto vicini all'originale: il sintetico si contrappone al reale o
all'oggetto vero, all'oggetto-punto e alla riproduzione dell'oggetto in rapporto alla vecchia riproduzione delle
tecnologie tradizionali (Bettetini, 1998).
La digitalizzazione crea un testo di dimensioni planetarie, che si sviluppa senza soluzione di continuit (De Carli,
1997), un ipertesto che nasce dai legami che si instaurano tra i vari testi immessi nella rete. Internet la nuova
"semiosfera" (Lotman, 1997), che come una pellicola, una sottile patina di segni e codici linguistici avvolge la
biosfera, il pianeta-terra, "interamente fasciato di reti telematiche". A dispetto di quanti individuano una
degenerazione della "societ dell'immagine", Internet vive prevalentemente di comunicazione scritta. Ma la
comunicazione a stampa, la "galassia Gutemberg", fatta di carta, inchiostro, di fisicit, immersa nel mondo
materiale di cui subisce le leggi della creazione come dell'usura del tempo. Internet non sar certamente
un'intelligenza artificiale che ha acquisito una propria personalit; ma se vero che il bit, come scrive Pancini, tende
a divenire "quasi una nuova Weltanschauung dell'uomo prossimo venturo", sta nascendo progressivamente un altro
mondo, fatto di quelli che Aug chiama "non-luoghi" (1993), che nondimeno vengono avvertiti nella loro surrealt
dai nostri sensi: sullo schermo dei computer c' un mondo che non esiste e che comunque noi percepiamo come
reale.
La commistione tra reale e virtuale non deve per trarre in inganno: fin quando si immersi nel Cyberspazio,
percepibile un abbattimento netto della distinzione centro-periferia, ma non appena oltrepassata la sua soglia,
re-immessi nel mondo reale, ci si accorge delle distanze abissali (e ancora analogiche) che separano dai luoghi
materiali e immateriali.
L'equivoco contemporaneo risiede proprio nella confusione tra due mondi ancora distanti: quello della conoscenza e
quello della programmazione. Il digitale si configura come una possibilit di rappresentazione del reale, ma pur
sempre come una modalit di semplice trasmissione dei contenuti. Fornire i contenuti (e rester sempre) compito
dell'homo analogicus.

Il Suono come Somma di Armoniche


Grazie al Teorema di Fourier possiamo semplificare il suono per digitalizzarlo. Secondo il T. di Fourier qualsiasi
suono presente in natura un suono composto da una frequenza fondamentale f e da un numero n di armoniche pari
o dispari a seconda del tipo d'onda stesso (sinusoidale, quadra, a dente di sega ecc.). Tutte queste armoniche sono
periodiche. Il Teorema di Fourier anche usato per l'analisi spettrale del suono; in questi casi si usa la cosiddetta
FFT (Fast Fourier Transform) che scinde un suono nelle sue componenti (armoniche) per poterlo rappresentare
Digitalizzazione 5

graficamente e per poterlo studiare con precisione. Esistono, per esempio, software di conversione di parole scritte in
qualsiasi formato digitale, in formato vocale sintetizzato. Non sembra, invece, che si sia prossimi a ottenere il
contrario. Ossia non sembra possibile convertire voci digitalizzate in un formato di videoscrittura (anch'esso
digitale); le applicazioni sarebbero innumerevoli.

Nel suono
Negli ultimi anni, di pari passo con l'avvento della digitalizzazione, le applicazioni multimediali si sono diffuse
sempre pi sino a diventare d'uso comune. Una delle caratteristiche della multimedialit certamente l'utilizzo di
audio digitale vocale e sonoro. Il pi grande ostacolo legato alla digitalizzazione dell'audio l'elevata dimensione dei
file che si vengono a produrre, il che pone agli operatori del settore (in particolar modo quelli legati ad internet) il
problema di ridurre lo spazio occupato dai dati per ottenere il duplice vantaggio di:
risparmiare in termini di occupazione di memoria;
risparmiare in termini di tempo di trasferimento sulla rete.
Per questa ragione, quando parliamo di digitalizzazione dell'audio, dobbiamo parlare anche di tecniche di
compressione dei dati. Le tecniche di compressione dei dati, di qualsiasi natura essi siano, si dividono in:
lossy: comprimono i dati attraverso un processo con perdita d'informazione che sfrutta le ridondanze nell'utilizzo
dei dati
lossless: comprimono i dati attraverso un processo senza perdita d'informazione che sfrutta le ridondanze nella
codifica del dato
A seconda della tecnica di compressione utilizzata sono stati creati vari formati. L'MPEG uno standard comune per
la codifica audio-video.

Parametri fondamentali
Il suono un segnale continuo, per essere memorizzato deve essere campionato ottenendo cos un segnale digitale.
Tre sono i parametri che caratterizzano il campionamento, tali parametri influenzano sia lo spazio occupato sia la
qualit del suono:
numero di canali
risoluzione
frequenza di campionamento

Il numero di canali
Esistono due modi di ripartizione dei canali audio: Mono e Stereo. La modalit Mono ha uno solo canale mentre
quella Stereo ne ha due separati ( sinistro e destro ). Ovviamente un segnale Stereo occupa, in termini di spazio, il
doppio di uno segnale Mono. Nelle applicazioni pi recenti il numero di canali notevolmente aumentato, si pensi al
surround, ma come sempre nell'informatica il problema sorge nel passaggio da uno a molti, e non interessa se questi
molti siano due, dieci o pi.
Digitalizzazione 6

La risoluzione
Rappresenta il numero di bit utilizzati per rappresentare i campioni; solitamente si utilizzano 8 o 16 bit per
campione: nel primo caso si hanno 256 valori possibili, relativamente pochi, infatti offrono una qualit del suono
inferiore a quella di un nastro, nel secondo si hanno circa 65000 valori.

La frequenza di campionamento
il numero di campioni al secondo; pu variare da 11 kHz adatta alla registrazione della voce, a 22 kHz adatta alla
registrazione di un nastro fino a 44 kHz per una registrazione a qualit cd. Questo parametro merita una maggiore
attenzione rispetto ai precedenti, infatti segnali analogici diversi possono dare luogo allo stesso segnale campionato.
Per questo motivo possibile che segnali analogici diversi, se campionati con una frequenza troppo grande, diano
luogo alla stesso audio digitale.
La teoria del campionamento, in particolare il teorema di Nyquist, ci fornisce la soluzione a tale problema, infatti per
avere una relazione univoca fra il segnale originale e quello campionato sufficiente che la frequenza di
campionamento sia il doppio della massima frequenza del segnale originale. Sinteticamente pu essere spiegato cos:
"Se si prendono dei campioni molto stretti fra di loro (frequenza di campionamento alta), ed il segnale varia
lentamente nel tempo (la banda del segnale sufficientemente stretta) si possono ricongiungere i vari punti
individuati dai campioni senza intaccare la qualit del suono originale." Il famoso bitrate, non altro che il prodotto
dei tre fattori appena citati (numero di canali, frequenza e risoluzione), ovvero non altro che il numero di bit
necessari per riprodurre un secondo di suono e si misura in bit/s. Esempio: Un minuto d'audio stereo con qualit CD
occupa circa 10 Mb (2 canali *2 byte per campione *44.1 kHz *60 s) mentre la riproduzione richiede una bitrate di
1,4 Mbit/s (2 canali *16 bit per campione *44.1 kHz).

Le tecniche di rappresentazione
Attualmente esistono diversi metodi per rappresentare dati audio; di seguito sono descritti brevemente alcuni formati.
WAV, AIFF
Sono i formati pi semplici creati rispettivamente da Microsoft-IBM e Apple. Si basano sulla tecnica di modulazione
a codifica numerica d'impulsi (Pulse-Code Modulation o PCM), sono cio, una registrazione fedele dei suoni in
formato digitale. Entrambi occupano una notevole quantit di memoria, circa 10 MB per minuto, e sono utilizzati a
livello professionale.
Midi
Questo formato nasce come standard per strumenti musicali digitali. Un file .midi pu essere visto come uno
spartito interpretato da un sequencer, infatti al suo interno contiene una sequenza di comandi che indicano quale nota
far suonare, da quale strumento, con quale intensit e per quanto tempo. Questo comporta un notevole risparmio di
spazio: un intero brano musicale, della durata di svariati minuti, pu occupare qualche decina di kbyte, infatti ogni
singolo evento MIDI occupa soltanto 11 byte.
Streaming audio: RAM, RM, ASF, ASX
Lo streaming il trasferimento in rete dei dati audiovisivi in tempo reale; tutto questo senza tempi d'attesa derivanti
dal download completo del file sull'Hard Disk del computer. Con lo streaming, infatti, non viene scaricato l'intero
file audio prima di consentirne l'ascolto, ma la riproduzione inizia per ogni blocco di due secondi d'ascolto; nel
frattempo viene scaricato il successivo. Si possono verificare momentanee interruzioni nella riproduzione, nel caso
in cui il traffico nella rete risulti congestionato. Le due principali tecnologie d'audio streaming utilizzate sono Real
(attraverso Real Player), e Windows Media ( attraverso Windows Media player). La tecnologia dello streaming audio
ha permesso, per esempio, alle principali emittenti radiofoniche di presentare sui propri siti web i loro programmi
trasmessi via etere.
DAB: Digital Audio Broadcasting
un sistema di trasmissione di segnali radio digitali via etere. Il DAB si basa su un algoritmo di compressione audio
Digitalizzazione 7

simile a MP3 ma evoluto per la trasmissione di bouquet di pacchetti che permettono all'emittente di presentare pi di
una versione dei suoi programmi. La qualit della trasmissione variabile secondo la banda occupata. Durante la
trasmissione sono usati i codici cyclic redundancy check (CRC) per correggere errori e mantenere la trasmissione ad
un elevato livello qualitativo anche in condizione di ricezioni non ottimali.

Nelle immagini fisse


Un'immagine digitale un insieme ordinato di numeri interi, ottenuti dalla scansione di un'immagine analogica
(sorgente), utilizzando un'apparecchiatura speciale detta scanner (digitalizzazione di un'immagine analogica) o
tramite l'utilizzo di fotocamere digitali che producono direttamente l'immagine digitale dalla scena ripresa.
Ogni numero dell'insieme ordinato rappresenta l'intensit luminosa media (livello di grigio) di un'areola
corrispondente nell'immagine sorgente, detta pixel (PICture ELement). L'areola rettangolare e caratterizzata da due
dimensioni dX (orizzontale) e dY (verticale), dette passi di campionamento della digitalizzazione, mentre i reciproci
(1/dX e 1/dY) vengono detti frequenze di campionamento.
L'insieme ordinato di campioni assume l'aspetto di una matrice o tabella numerica composta da un certo numero di
righe (M) e di colonne (N). Ogni campione o elemento di tabella localizzato tramite il suo numero di riga e di
colonna, supponendo che il primo pixel in alto a sinistra costituisca l'origine.
La capacit di ogni sistema di digitalizzazione di eseguire misurazioni pi o meno fini viene detta risoluzione.
Questa si divide in radiometrica e geometrica: Risoluzione radiometrica: la minima differenza di luminosit
rilevabile e viene anche detta profondit del colore in bit (da 0 -> nero, a L-1 -> bianco) e ogni sistema
d'acquisizione utilizza una diversa risoluzione tra:
1. in bianco e nero
1. 1 bit: 2 valori possibili (0,1)
2. a livelli di grigio
1. 8 bit: valore standard (256 livelli di grigio possibili)
2. 10, 11, 12, 16... bit: per applicazioni sofisticate
3. a colori
1. 24 bit
2. 30 bit
3. 36 bit
4. 48 bit
Risoluzione geometrica: legata all'ampiezza delle areole, minori sono i passi di campionamento (dX e dY),
maggiore la risoluzione geometrica del dispositivo. La risoluzione geometrica viene misurata in punti per pollice o
DPI (dots per inch).
Le immagini digitali possono essere:
1. Raster o bitmap (matrici di pixel)
1. Immagini binarie
2. Immagini a livelli di grigio
3. Immagini a colori dotate di palette (o CLUT, Color Look-Up Table)
4. Immagini RGB (True color, ogni matrice R, G o B un'immagine a livelli di grigio)
2. Vettoriali
1. Immagini definite da moduli grafici (punti, segmenti, poligoni, poliedri...)
3. Miste bitmap + vettoriale
Per ogni tipo di immagine occorre fare un discorso a parte sulla memorizzazione e sulla qualit/spazio occupato; per
esempio in un file bitmap sono contenute informazioni quali: tipo di immagine, numero di righe e di colonne,
Digitalizzazione 8

profondit dei pixel (risoluzione radiometrica), palette del colore (se presente), valori dei pixel e informazioni
aggiuntive come la data di creazione, le coordinate dell'origine, risoluzioni geometriche, etc.
Tecniche di memorizzazione dei valori dei pixel:
1. Senza compressione (il numero dei valori memorizzati M x N e non c' nessun risparmio di spazio)
2. Con compressione (il numero dei valori memorizzati inferiore a M x N con un risparmio proporzionale al grado
di compressione Y = byte originali / byte dopo la compressione)
1. senza perdita di informazione (lossless)
2. con perdita di informazione (lossy)
I principali metodi di compressione lossless sono:
Run-length encoding (RLE): compressione delle sequenze di pixel consecutivi uguali
Lempel-Ziv-Welch (LZW): ogni sequenza significativa di pixel viene isolata e immessa in un dizionario dei dati
(inserito nel file) e sostituita dal suo numero nel dizionario
Il pi usato e diffuso metodo di compressione a perdita di informazione, anche se non il pi efficiente il JPEG
(Joint Photographic Expert Group) che comprime separatamente i dati di luminanza e quelli di cromaticit con
rapporto di compressione controllabile dall'utente tramite la percentuale di perdita di informazioni.
Ad ogni formato di file e a ogni metodo di compressione usato per le immagini, corrisponde un'estensione diversa
del nome del file come: BMP (BitMaP), GIF (Graphics Interchange Format), JPEG, MAC (Mac Paint), PCD http:/ /
www. r4-dsi. it (KODAK Photo CD), PCX (PC Paintbrush File Format), PNG (Portable Network Graphic), PSD
(Adobe Photoshop image format), TARGA (Targa Image File), TIFF (Tag Image File Format), RAW format
(semplice memorizzazione della matrice dei pixel riga per riga).

Nelle immagini in movimento


Un video o filmato costituito da una serie di immagini, chiamate fotogrammi, che si susseguono in rapida
sequenza.
I-Frames (fotogrammi di tipo I, chiamati anche Intra-Frames o Key-Frames ): vengono codificati utilizzando le
informazioni contenute nel fotogramma stesso, non contengono nessun riferimento o informazione sui
fotogrammi adiacenti e sono compressi identicamente ad un'immagine singola (per es. JPEG); essi vengono
inseriti in genere quando c' un repentino cambiamento tra due immagini successive, ma sono comunque spesso
vincolati da un intervallo massimo tra loro (Maximum I-Frame Interval) che corrisponde solitamente a 10/12
secondi (circa 250/300 fotogrammi), utili per le ricerche di una particolare scena.
P-Frames (fotogrammi di tipo P, Predicted Frames, chiamati anche Delta-Frames o Inter-Frames): vengono
codificati utilizzando informazioni acquisite in base al fotogramma precedente, sia questo di tipo I o P e, quindi,
utilizzando le somiglianze tra fotogrammi successivi, risultano pi piccoli degli I-Frames; partendo dalla
considerazione che per ogni secondo di video si susseguono 25 fotogrammi, risulta molto pi efficiente
memorizzare non i singoli fotogrammi in modo indipendente, ma esclusivamente le minime differenze tra loro,
operazione resa semplice utilizzando questo tipo di fotogrammi, con il risultato di memorizzare un numero
significativamente pi basso di bit. Tali fotogrammi quindi contengono le informazioni della posizione (X',Y') nel
fotogramma corrente in cui si spostato un blocco che aveva coordinate (X,Y) in quello precedente (Motion
Estimation / Compensation).
B-Frames (Bi-directional encoding): con questo tipo di fotogrammi la ricerca del moto (Motion Estimation /
Compensation) effettuata sia sul fotogramma precedente sia su quello successivo, alterando l'ordine con cui i
fotogrammi vengono archiviati all'interno del file video compresso del fotogramma corrente con quello
successivo (per es. I B B P -> I P B B);
Un concetto importante quello di bitrate. Il bit-rate (velocit dei bit) la quantit di bit che vengono trasmessi in
ogni secondo e viene misurata in bps (bit per secondo); pi alto il bitrate, pi alta la quantit di bit riservata ad
Digitalizzazione 9

ogni fotogramma e conseguentemente maggiore sar il numero di informazioni che possono essere memorizzate,
quindi la qualit del singolo fotogramma.
Per quanto riguarda la compressione video, ci si comporta analogamente alla compressione di una singola immagine,
moltiplicata per il numero di fotogrammi che si susseguono, utilizzando propriamente i tre tipi di frames e le regole
di encoding/decoding.
Per effettuare la compressione vengono utilizzati elementi detti Codec video (Coder/Decoder), programmi composti
da un encoder, il cui scopo comprimere una sequenza di immagini (video) per archiviarla in un file e un Decoder,
necessario per decomprimere la sequenza e poterla nuovamente visualizzare.
Le tecniche di compressione video possono essere suddivise in due grandi categorie:
Lossless: la compressione un processo perfettamente reversibile che avviene senza perdita di informazione e
dove video originale e video decompresso sono identici in tutti i dettagli
Lossy: tecniche di compressione non reversibile, nelle quali video compresso e decompresso non sono pi identici
in quanto al momento della compressione sono state volutamente eliminate alcune informazioni con lo scopo di
occupare spazi ridotti; tali tecniche sono le pi diffuse e conosciute, come le codifiche MPEG (1, 2 e 4), Divx,
Xvid, etc..

Nell'olfatto
Gli ultimi studi nell'ambito della misurazione degli odori hanno portato alla digitalizzazione e alla creazione di un
naso elettronico. Si parla di sistema olfattivo artificiale (SOA).

Voci correlate
Digitale
Acquisizione dati

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Digitization
ARPANET 10

ARPANET
ARPANET (acronimo di "Advanced Research Projects Agency NETwork", in italiano "rete dell'agenzia dei progetti
di ricerca avanzata"), anche scritto ARPAnet o Arpanet, fu una rete di computer studiata e realizzata nel 1969 dal
DARPA, l'agenzia del Dipartimento della Difesa degli Stati Uniti responsabile per lo sviluppo di nuove tecnologie ad
uso militare. Si tratta della forma per cos dire embrionale dalla quale poi nel 1983 nascer Internet. Arpanet fu
pensata per scopi militari statunitensi durante la guerra fredda, ma paradossalmente ne nascer uno dei pi grandi
progetti civili: una rete globale che collegher tutta la Terra.

Storia
Nel 1958 il Governo degli Stati Uniti decise di creare un istituto di
ricerca. L'istituto venne denominato ARPA (acronimo di
Advanced Research Projects Agency) e il suo compito era
ambizioso: cercare soluzioni tecnologiche innovative. Fra gli
incarichi dell'Agenzia c'era di trovare una soluzione alle
problematiche legate alla sicurezza e disponibilit di una rete di
telecomunicazioni.

Il progetto venne sviluppato negli anni '60 in piena Guerra fredda


Arpanet nel 1974
con la collaborazione di varie universit americane, e, secondo
molte fonti, aveva lo scopo di costruire una rete di comunicazione
militare in grado di resistere anche ad un attacco nucleare su vasta scala[1] (questa idea deriva dagli studi che Paul
Baran aveva iniziato nel 1959 alla RAND corporation sulle tecnologie di comunicazione sicura).
Per tutti gli anni Settanta ARPAnet continu a svilupparsi in ambito universitario e governativo, ma dal 1974, con
l'avvento dello standard di trasmissione TCP/IP (Transmission Control Protocol/Internet Protocol), il progetto della
rete prese ad essere denominato Internet.
negli anni ottanta, grazie all'avvento dei personal computer, che un primo grande impulso alla diffusione della rete
al di fuori degli ambiti pi istituzionali e accademici ebbe il suo successo, rendendo di fatto potenzialmente
collegabili centinaia di migliaia di utenti. Fu cos che gli "utenti" istituzionali e militari cominciarono a rendere
partecipi alla rete i membri della comunit scientifica che iniziarono cos a scambiarsi informazioni e dati, ma anche
messaggi estemporanei ed a coinvolgere, a loro volta, altri "utenti" comuni. Nacquero in questo modo,
spontaneamente, l'e-mail o posta elettronica, i primi newsgroup e di fatto una rete: Internet.

Da Arpanet a Internet
Nel 1983 ARPA esaur il suo scopo: lo stato chiuse l'erogazione di fondi pubblici, la sezione militare si isol,
necessitando di segretezza assoluta a protezione delle proprie informazioni, e nacque perci MILNET.
Con il passare del tempo, l'esercito si disinteress sempre pi del progetto (fino ad abbandonarlo nel 1990), che
rimase sotto il pieno controllo delle universit, diventando un utile strumento per scambiare le conoscenze
scientifiche e per comunicare.
In seguito, nei primi anni novanta, con i primi tentativi di sfruttamento commerciale, grazie a una serie di servizi da
essa offerti, ebbe inizio il vero boom di Arpanet, nel frattempo rinominata Internet, e negli stessi anni nacque una
nuova architettura capace di semplificare enormemente la navigazione: la World Wide Web.
ARPANET fu la prima rete a commutazione di pacchetto del mondo.
La commutazione di pacchetto, ora base dominante della tecnologia usata per il trasferimento di voce e dati in tutto il
mondo, era un concetto nuovo e importante nelle telecomunicazioni. Mediante questa tecnica, i messaggi e le
ARPANET 11

informazioni vengono suddivisi in pacchetti dati di lunghezza fissa e ogni singolo pacchetto diventa un'unit a s
stante, capace di viaggiare sulla rete in modo completamente autonomo. Non importante che tutti i pacchetti che
compongono un determinato messaggio rimangano uniti durante il percorso o arrivino nella sequenza giusta. Le
informazioni che essi convogliano al loro interno sono sufficienti per ricostruire, una volta arrivati a destinazione,
l'esatto messaggio originale.
La sostanziale differenza con Internet che quest'ultima si compone di migliaia di singole reti, ciascuna che
raccoglie a sua volta un numero pi o meno grande di host. Il sistema di connessione pu essere vario: fibra ottica
per le grandi distanze, cavo coassiale e doppino telefonico, satellite, onde radio, raggi infrarossi. Si tratta di un
mondo in continua trasformazione, ma nel suo insieme lo spazio Internet sempre disponibile e la sua esistenza non
dipende dall'iniziativa di una singola azienda oppure di un singolo governo.

Note
[1] Fra le diverse fonti: A.L.Barabasi, "Link. La nuova scienza delle reti", Einaudi, 2004

Bibliografia
Matthew Lyon, Katie Hafner, La storia del futuro. Le origini di Internet. Feltrinelli, 1998. ISBN 8807460181.

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:ARPANET

Internet
Internet[1] (contrazione della locuzione inglese interconnected networks, ovvero "reti interconnesse") una rete
mondiale di reti di computer ad accesso pubblico, attualmente rappresentante il principale mezzo di comunicazione
di massa, che offre all'utente una vasta serie di contenuti potenzialmente informativi e servizi. Si tratta di
un'interconnessione globale tra reti informatiche di natura ed estensione diversa, resa possibile da una suite di
protocolli di rete comune chiamata "TCP/IP" dal nome dei due protocolli principali, il TCP e l'IP, che costituiscono
la "lingua" comune con cui i computer connessi ad Internet (gli host) si interconnettono e comunicano tra loro
indipendentemente dalla loro architettura hardware e software, garantendo l'interoperabilit tra sistemi e sottoreti
diverse. L'avvento e la diffusione di Internet hanno rappresentato una vera e propria rivoluzione tecnologica e
sociologica (assieme ad altre invenzioni quali i telefoni cellulari e il GPS) nonch uno dei motori dello sviluppo
economico mondiale nell'ambito dell'Information and Communication Technology (ICT) e oltre.

Descrizione
Costituita da alcune centinaia di milioni di computer collegati tra loro con i pi svariati mezzi trasmissivi, Internet
anche la pi grande rete di computer attualmente esistente, motivo per cui definita "rete delle reti", "interete", "rete
globale" o "la Rete" per antonomasia collegando tra loro a livello globale reti LAN, MAN e WAN.
In quanto rete di telecomunicazione (una rete di computer un sottotipo per comunicazione dati di una rete di
telecomunicazioni) come diffusione seconda solo alla Rete Telefonica Generale, anch'essa di diffusione mondiale e
ad accesso pubblico, ma comprendente il pianeta in maniera ancor pi 'capillare' di Internet. Quest'ultima condivide
largamente la rete telefonica per l'accesso e il trasporto dei suoi utenti ed destinata, in un futuro non troppo lontano
con il miglioramento della tecnologia VoIP, a soppiantarla inglobandola in s in quanto basata sulla pi efficiente
tecnica della commutazione di pacchetto.
Internet 12

Internet offre i pi svariati servizi, i principali dei quali sono il World Wide Web e la posta elettronica, ed utilizzata
per le comunicazioni pi disparate: private e pubbliche, lavorative e ricreative, scientifiche e commerciali. I suoi
utenti, in costante crescita, nel 2008 hanno raggiunto quota 1,5 miliardi e, visto l'attuale ritmo di crescita, si prevede
che saliranno a 2,2 miliardi nel 2013.[2]
Le caratteristiche della Rete Internet possono essere descritte attraverso la sua struttura fisica (topologia, nodi,
collegamenti trasmissivi e apparati di rete), e attraverso il suo funzionamento a livello logico-protocollare.

Struttura fisica
In generale a livello fisico la rete Internet pu essere vista come una complessa interconnessione di nodi con
funzionalit di ricetrasmissione, appoggiata a collegamenti trasmissivi di vario tipo, sia cablati che wireless (fibre
ottiche, cavi coassiali, doppini telefonici, cavi elettrici in posa anche in strutture idrauliche, collegamenti sottomarini,
collegamenti satellitari, collegamenti a radiofrequenza (WiFi) e su ponti radio) che consentono l'interconnessione da
estremo a estremo (end to end) di un agente umano o automatico a un altro agente, praticamente qualsiasi tipo di
computer o elaboratore elettronico oggi esistente.
Ogni dispositivo terminale connesso direttamente a Internet si chiama nodo ospite, in inglese host o end system
(sistema finale o terminale utente), mentre la struttura che collega i vari host si chiama link di comunicazione
passando attraverso i vari nodi interni di commutazione. Da qualche anno ormai possibile collegarsi a Internet
anche da dispositivi mobili come palmari, telefoni cellulari, tablet ecc... In breve dovrebbe essere possibile per
ciascuno di questi dispositivi non solo accedere a Internet, ma anche subire l'accesso da parte di altri host
Internet.
In quanto "Rete delle reti" Internet non possiede dunque una topologia ben definita, ma varia e soprattutto di natura
capillare fino agli utenti, com' tipico anche della rete telefonica. La "ragnatela" di collegamenti composta, a livello
fisico-infrastrutturale, da un'ossatura molto veloce e potente, nota come rete di trasporto, a cui si connettono,
attraverso collegamenti di backhauling (raccordo), molteplici sottoreti a volte pi deboli e lente e che costituiscono
quindi la rispettiva rete di accesso, com' tipico in generale anche della rete telefonica, della quale Internet condivide
proprio l'infrastruttura di accesso per la connessione delle utenze private.
I collegamenti tra i vari nodi interni sono appoggiati su criteri statistici di disponibilit e non su quei criteri
(altrimenti tipici della tecnologia informatica) cos totalmente deterministici da essere spesso ritenuti pi caotici;
d'altra parte, i processi in rete sono distribuiti piuttosto che centralizzati.
Molti nodi interni sono collegati tra loro in diversi modi e tramite diversi path. Questo tipo di interconnessione pu
essere compreso alla luce delle motivazioni che negli anni sessanta dettarono la nascita di Internet (allora
denominata ARPANET): creare una rete di elaboratori decentrata che potesse resistere a un attacco nucleare da parte
dell'Unione Sovietica. Una tale rete decentrata sarebbe sopravvissuta a molti attacchi visto che un attacco a un
singolo elaboratore non avrebbe impedito il funzionamento generale, e i collegamenti ridondanti avrebbero sostituito
quelli distrutti.
Le sottoreti componenti possono anche essere protette e, quindi, consentono l'accesso a Internet (e viceversa) solo in
maniera condizionata. Si tratta delle Intranet e la protezione tipicamente realizzata attraverso l'uso di un firewall
(muro tagliafuoco in inglese).
La velocit di connessione o velocit di trasmissione in una comunicazione end to end tra due terminali in ogni
caso limitata dalle prestazioni pi basse, in termini di velocit di trasferimento, della sottorete o del collegamento
geografico attraversato, che fungono quindi da classico collo di bottiglia, e/o da eventuali situazioni di congestione
interna della rete.
Internet 13

Accesso
Per l'accesso alla rete Internet e la fruizione dei suoi molteplici servizi, chiunque disponga di un computer, di un
modem e degli opportuni software oppure una rete locale da interconnettere attraverso un router, deve instaurare una
connessione con l'Internet Service Provider (ISP), a seguito della stipulazione di un contratto di servizio, che gli
fornisce un accesso attraverso una linea di telecomunicazione dedicata cablata o wireless (ADSL, HDSL, VDSL,
GPRS, HSDPA, Wi-Fi, ecc.) o una linea telefonica della Rete Telefonica Generale (POTS, ISDN, GSM, UMTS
ecc.) ed iniziare cos la rispettiva sessione di navigazione attraverso l'utilizzo di un web browser.
Gli ISP sono connessi a loro volta a ISP di livello superiore che utilizzano router ad alta velocit e link fisici in fibra
ottica nella rete di trasporto.
In molti Stati la possibilit di accesso ad Internet da parte dell'utente viene vista sotto l'obbligo di servizio universale
al pari della connessione alla rete telefonica.

Funzionamento logico
Generalmente definita la Rete delle reti o
semplicemente Rete, Internet infatti
costituita da tutta una serie di reti, private,
pubbliche, aziendali, universitarie,
commerciali, intercconnesse tra di loro. In
effetti, gi prima della sua nascita,
esistevano reti locali, principalmente nei
centri di ricerca internazionali e nei
dipartimenti universitari, che operavano
Utenti internet espressi in decine di migliaia per nazione, dati CIA The World
ciascuna secondo modalit o protocolli
Factbook 2007
propri di comunicazione.

Il grande risultato della nascita e dell'affermazione di Internet stata quindi la creazione di uno standard de facto tra i
protocolli di comunicazione che, senza eliminare ovvero in aggiunta ai protocolli di rete locale, interoperasse e
gestisse in maniera affidabile ad un livello logico superiore tutte le varie reti interagenti, consentendo ai pi diversi
enti e agenti (diversi governi, diverse societ nazionali o sovranazionali, tra i vari dipartimenti universitari) di
scambiarsi dati grazie a un protocollo comune, il TCP/IP, relativamente indipendente da specifiche hardware
proprietarie, da sistemi operativi, dai formati dei linguaggi di comunicazione degli apparati di rete di comunicazione
(modem, repeater, hub, multiplexer, bridge, switch, router, gateway).

Dal punto di vista trasmissivo e informativo ci che viaggia in Internet sono i pacchetti dati, che costituiscono l'unit
minima di informazione in questo vasto sistema di comunicazione. Tali pacchetti viaggiano nei link e nodi interni di
rete usando una tecnica di commutazione nota come commutazione di pacchetto (packet switching) che consente di
condividere pi di un possibile cammino piuttosto che fare uso di un percorso unico dedicato come accade invece
nella classica commutazione di circuito della rete telefonica. In pratica i pacchetti dati di una comunicazione che
partono da un host e giungono ad un altro host non seguono percorsi di instradamento predefiniti, ma quelli pi
congeniali nel preciso momento di attraversamento in base alla disponibilit fisica di collegamento dei link della rete
e/o alle condizioni di congestione della rete stessa. Di conseguenza i pacchetti di una stessa comunicazione possono
seguire percorsi diversi verso lo stesso destinatario.
Per potersi collegare a Internet ed usufruire dei relativi servizi, il solo requisito logico-funzionale richiesto a un
qualsiasi agente o dispositivo elettronico (tipicamente detto client) quello di poter "dialogare" con il destinatario e i
nodi interni di rete per mezzo di opportuni protocolli di rete che, nel caso in questione, fanno parte della cosiddetta
suite di protocolli Internet, regolando opportunamente l'invio e la ricezione dei pacchetti informativi e
implementando a livello software tutte le funzionalit richieste in una tipica architettura di rete a strati o livelli
Internet 14

(layer).
I protocolli pi importanti di tale suite, cio quelli che garantiscono l'interoperabilit e il buon funzionamento tra le
diverse sottoreti, sono il Transmission Control Protocol ("Protocollo di Controllo di trasmissione dati", TCP), l'User
Datagram Protocol (UDP) e l'Internet Protocol ("Protocollo Internet", IP): il primo ha funzionalit di controllo di
trasmissione, il secondo di inoltro semplice, il terzo ha funzionalit di indirizzamento/instradamento nei nodi interni
di commutazione.
Come detto, la struttura della comunicazione a strati (simile al modello di architettura ISO-OSI) in una pila o stack
protocollare di 5 livelli dal livello fisico al livello applicativo: secondo tale struttura, il protocollo TCP o UDP
occupa il livello superiore (livello di trasporto) rispetto a IP (livello di rete). Al di sopra di questi ci sono i protocolli
di tipo applicativo connessi al particolare servizio richiesto da espletare, al di sotto ci sono i protocolli di trasporto
tipici delle reti locali, metropolitane e geografiche da interconnettere, dei collegamenti di raccordo (backhauling) e di
dorsale (backbone), altri ancora sono collocati al loro stesso livello.
In sostanza un pacchetto dati iniziale (payload) che parte a livello applicativo da un host attraversa verticalmente
dall'alto al basso tutti i vari strati protocollari che aggiungono al pacchetto stesso, in una procedura detta di
imbustamento, via via informazioni aggiuntive (header) in una struttura di informazioni di servizio (overhead);
quando il pacchetto totale cos ottenuto, una volta trasmesso a livello fisico sul mezzo trasmissivo, raggiunge la
destinazione, ovvero viene ricevuto, avviene uno spacchettamento inverso dal basso verso l'alto e ogni livello legge e
elabora le informazioni del rispettivo header.
Tale struttura logica di servizio si basa sugli Internet Standard sviluppati dall'Internet Engineering Task Force
(IETF) con documenti rigorosamente approvati noti come Request for Comments ("Richiesta di commenti", RFC) e,
a livello applicativo, dai protocolli del World Wide Web Consortium (W3C).
In particolare, dal punto di vista della fruizione di servizi di livello applicativo, l'architettura logica della rete Internet
pu essere di tipo client-server oppure peer-to-peer. Ciascun terminale o host di rete, per la sua raggiungibilit,
inoltre identificato da un indirizzo IP statico o dinamico (cio assegnato manualmente dall'amministratore di rete o
dal DHCP), mentre le risorse da fruire sono tipicamente presenti sui server, raggiungibili dal client sotto
l'indicazione mnemonica fornita dal cosiddetto URL, grazie all'utilizzo di un web browser e dei suddetti protocolli di
rete forniti/implementati nel sistema operativo della macchina terminale in uso.
La conversione da indirizzo mnemonico URL a indirizzo IP, necessaria per l'instradamento effettivo in rete nei nodi
di commutazione, fornita dal cosiddetto DNS, mentre la comunicazione tra client e server si instaura in seguito alla
definizione dei cosiddetti socket in cui oltre agli indirizzi IP di client e server vengono specificate anche le cosiddette
porte coinvolte nel servizio di comunicazione da espletare.
Le modalit di utilizzo di Internet differiscono a seconda del tipo di servizio che si richiede e al tipo di server a cui ci
si collega; per citarne solo alcune:
Posta elettronica (e-mail)
consente di inviare e ricevere (a/da utenti) messaggi contenenti testo e altri formati (es.: immagini, video,
audio). La modalit di funzionamento dei server di posta elettronica e di molti programmi client viene detta
store-and-forward;
File Transfer Protocol ("Protocollo di trasferimento dati", FTP)
consente di inviare e ricevere (a/da sistemi) file, cio insiemi di informazioni codificate in maniera binaria (es.:
testi, immagini, filmati, programmi, ecc.);
Hyper Text Transfer Protocol ("Protocollo di trasferimento ipertesti", HTTP)
consente di organizzare le informazioni e le risorse presenti in rete in maniera non-sequenziale (Collegamento
ipertestuale), come meglio descritto in seguito.
Internet 15

Nata come rete di comunicazione dati tra utenti diventata in seguito anche una rete per trasferimento di dati vocali
grazie allo sviluppo della tecnologia VOIP.

Storia di Internet
L'origine di Internet risale agli anni sessanta, su iniziativa degli Stati Uniti, che misero a punto durante la guerra
fredda un nuovo sistema di difesa e di controspionaggio.
La prima pubblicazione scientifica in cui si teorizza una rete di computer mondiale ad accesso pubblico On-line
man computer communication dell'agosto 1962, pubblicazione scientifica degli statunitensi Joseph C.R. Licklider e
Welden E. Clark. Nella pubblicazione Licklider e Clark, ricercatori del Massachusetts Institute of Technology,
danno anche un nome alla rete da loro teorizzata: "Intergalactic Computer Network".
Prima che tutto ci cominci a diventare una realt pubblica occorrer attendere il 1991 quando il governo degli Stati
Uniti d'America emana la High performance computing act, la legge con cui per la prima volta viene prevista la
possibilit di ampliare, per opera dell'iniziativa privata e con finalit di sfruttamento commerciale, una rete Internet
fino a quel momento rete di computer mondiale di propriet statale e destinata al mondo scientifico. Questo
sfruttamento commerciale viene subito messo in atto anche dagli altri Paesi.

ARPANET (1969)
Il progenitore e precursore della rete Internet considerato il progetto ARPANET, finanziato dalla Defence
Advanced Research Projects Agency (inglese: DARPA, Agenzia per i Progetti di ricerca avanzata per la Difesa), una
agenzia dipendente dal Ministero della Difesa statunitense (Department of Defense o DoD degli Stati Uniti
d'America). In una nota del 25 aprile 1963, Joseph C.R. Licklider aveva espresso l'intenzione di collegare tutti i
computer e i sistemi di time-sharing in una rete continentale. Avendo lasciato l'ARPA per un posto all'IBM l'anno
seguente, furono i suoi successori che si dedicarono al progetto ARPANET.
Il contratto fu assegnato all'azienda da cui proveniva Licklider, la Bolt, Beranek and Newman (BBN) che utilizz i
minicomputer di Honeywell come supporto. La rete venne fisicamente costruita nel 1969 collegando quattro nodi:
l'Universit della California di Los Angeles, l'SRI di Stanford, l'Universit della California di Santa Barbara, e
l'Universit dello Utah. L'ampiezza di banda era di 50 Kbps. Negli incontri per definire le caratteristiche della rete,
vennero introdotti i fondamentali Request for Comments, tuttora i documenti fondamentali per tutto ci che riguarda
i protocolli informatici della rete e i loro sviluppi. La super-rete dei giorni nostri risultata dall'estensione di questa
prima rete, creata sotto il nome di ARPANET.
I primi nodi si basavano su un'architettura client/server, e non supportavano quindi connessioni dirette (host-to-host).
Le applicazioni eseguite erano fondamentalmente Telnet e i programmi di File Transfer Protocol (FTP). Il servizio di
posta elettronica fu inventata da Ray Tomlinson della BBN nel 1971, derivando il programma da altri due: il
SENDMSG per messaggi interni e CPYNET, un programma per il trasferimento dei file. L'anno seguente Arpanet
venne presentata al pubblico, e Tomlinson adatt il suo programma per funzionarvi: divenne subito popolare, grazie
anche al contributo di Larry Roberts che aveva sviluppato il primo programma per la gestione della posta elettronica,
RD.
Internet 16

Da Arpanet a Internet (anni settanta e ottanta)


In pochi anni, ARPANET allarg i suoi nodi
oltreoceano, contemporaneamente all'avvento
del primo servizio di invio pacchetti a
pagamento: Telenet della BBN. In Francia inizia
la costruzione della rete CYCLADES sotto la
direzione di Louis Pouzin, mentre la rete
norvegese NORSAR permette il collegamento di
Arpanet con lo University College di Londra.
L'espansione prosegu sempre pi rapidamente,
tanto che il 26 marzo del 1976 la regina
Elisabetta II d'Inghilterra sped un'email alla sede
del Royal Signals and Radar Establishment.

Gli Emoticon vennero istituiti il 12 aprile 1979,


quando Kevin MacKenzie sugger di inserire un
simbolo nelle mail per indicare gli stati d'animo.
Tutto era pronto per il cruciale passaggio a
Internet, compreso il primo virus telematico:
sperimentando sulla velocit di propagazione
delle e-mail, a causa di un errore negli header del
messaggio, Arpanet venne totalmente bloccata:
era il 27 ottobre 1980. Definendo il
Transmission Control Protocol (TCP) e
Rete Internet nel 1982
l'Internet Protocol (IP), DCA e ARPA diedero il
via ufficialmente a Internet come l'insieme di reti
interconnesse tramite questi protocolli.

Internet in Italia
L'Italia fu il terzo Paese in Europa a connettersi in rete, dopo Norvegia e Inghilterra, grazie ai finanziamenti del
Dipartimento della Difesa degli Stati Uniti. La connessione avvenne dall'Universit di Pisa, dove era presente un
gruppo di ricerca fra i pi avanzati in Europa. Alcuni dei componenti del gruppo avevano lavorato a contatto con
quelli che poi sarebbero stati considerati i padri di Internet, Robert Kahn e Vinton Cerf. Fu proprio Kahn a
convincere i suoi superiori a finanziare l'acquisto delle tecnologie necessarie (Butterfly Gateway) per il gruppo di
Pisa. Il collegamento avvenne il 30 aprile 1986.[3]

Nascita del World Wide Web (1991)


Nel 1991 presso il CERN di Ginevra il ricercatore Tim Berners-Lee defin il protocollo HTTP (HyperText Transfer
Protocol), un sistema che permette una lettura ipertestuale, non-sequenziale dei documenti, saltando da un punto
all'altro mediante l'utilizzo di rimandi (link o, pi propriamente, hyperlink). Il primo browser con caratteristiche
simili a quelle attuali, il Mosaic, venne realizzato nel 1993. Esso rivoluzion profondamente il modo di effettuare le
ricerche e di comunicare in rete. Nacque cos il World Wide Web.
Nel World Wide Web (WWW), le risorse disponibili sono organizzate secondo un sistema di librerie, o pagine, a cui
si pu accedere utilizzando appositi programmi detti web browser con cui possibile navigare visualizzando file,
testi, ipertesti, suoni, immagini, animazioni, filmati.
Internet 17

Nel 1993 il CERN, l'istituzione europea dove nasce il World Wide Web, decide di rendere pubblica la tecnologia alla
base del World Wide Web in modo che sia liberamente implementabile da chiunque. A questa decisione fa seguito
un immediato e ampio successo del World Wide Web in ragione delle funzionalit offerte, della sua efficienza e, non
ultima, della sua facilit di utilizzo. Da tale successo ha inizio la crescita esponenziale di Internet che in pochissimi
anni porter la rete delle reti a cambiare la societ umana rivoluzionando il modo di relazionarsi delle persone come
quello di lavorare, tanto che nel 1998 si arriver a parlare di "nuova economia".
La facilit d'utilizzo connessa con l'HTTP e i browser, in coincidenza con una vasta diffusione di computer per uso
anche personale (vedi Storia del Personal Computer), hanno aperto l'uso di Internet a una massa di milioni di
persone, anche al di fuori dell'ambito strettamente informatico, con una crescita in progressione esponenziale.

Diffusione
Se prima del 1995 Internet era dunque relegata ad essere una rete dedicata alle comunicazioni all'interno della
comunit scientifica e tra le associazioni governative e amministrative, dopo tale anno si assiste alla diffusione
costante di accessi alla rete da parte di computer di utenti privati fino al boom degli anni 2000 con centinaia di
milioni di computer connessi in rete in parallelo alla diffusione sempre pi spinta di PC al mondo, all'aumento dei
contenuti e servizi offerti dal Web e a modalit di navigazione sempre pi usabili, accessibili e user-friendly nonch
a velocit di trasferimento dati a pi alta velocit di trasmissione passando dalle connessioni ISDN e V.90 alle attuali
e ben note connessioni a banda larga tramite sistemi DSL.

L'evoluzione: Internet2
Fino all'anno 2000 si temuto di dover reingegnerizzare ex novo l'intera Internet (si parlava di Internet2) perch il
numero degli host indirizzabile attraverso il protocollo IP era vicino a essere esaurito (IP shortage) dal numero di
host realmente collegati (oltre alla necessaria ridondanza e alle perdite per motivi sociali).
Il problema stato parzialmente evitato (o posticipato) con l'utilizzo della tecnica del NAT/Gateway mediante la
quale una rete aziendale non ha bisogno di un range ampio di indirizzi IP fissi, ma pu utilizzarne uno pi ridotto
con anche un buon risparmio economico.
Oggi, come soluzione definitiva, si fiduciosi nella possibilit di migrare in modo non traumatico alla versione 6.0
di IP (IPv6) che render disponibili circa 340 miliardi di miliardi di miliardi di miliardi di numeri IP indirizzabili.
I processi di convergenza in atto nell'ambito ICT, media e comunicazioni, indicano inoltre la sempre pi probabile
piena integrazione nel prossimo futuro della rete Internet con la rete telefonica gi con la tecnologia Voip, nonch la
parallela fruizione di contenuti informativi tipici di altri mezzi di comunicazione come la televisione e la radio in
un'unica grande rete.
Se infatti da una parte i primordi della rete sono stati caratterizzati dallo scambio di dati quali i contenuti testuali e
immagini statiche, l'evoluzione futura della rete va verso la sempre maggiore diffusione di contenuti multimediali
quali ad esempio i contenuti audio-video (es. streaming, Web Tv, IPTV, Web Radio) che ne aumentano
enormemente il traffico complessivo e il relativo carico sui nodi o sistemi interni di commutazione (router) e sui
server, vuoi anche per l'aumento del numero di utenti connessi in rete al mondo. La soluzione pi praticata a questo
problema la decentralizzazione delle risorse ovvero sistemi di rete distribuiti (es. Content Delivery Network) in
grado di gestire l'aumento di traffico, mentre per far fronte all'aumento di banda necessaria sui collegamenti sono da
menzionare nuove e pi efficienti tecniche di compressione dati che hanno reso possibile il diffondersi di servizi
sempre pi evoluti e pesanti.
Sotto questo punto di vista l'evoluzione della rete dal punto di vista dei servizi richiede anche lo sviluppo di
un'infrastruttura di rete di accesso a banda sempre pi larga con la realizzazione delle cosiddette Next Generation
Network per sopperire all'aumento di traffico previsto e la fruizione dei servizi stessi dall'utente finale. Gli stessi
operatori che dovrebbero investire sulla realizzazione di tali infrastrutture richiedono per un ritorno certo
Internet 18

dell'investimento ovvero una convenienza economica che risulterebbe invece molto pi a favore dei grandi network
o fornitori di servizi e contenuti di rete (Google, Youtube, Facebook, Twitter ecc...) sollevando cos il problema della
cosiddetta neutralit della rete o meno.
La natura globale con la quale stata concepita Internet ha fatto s che oggi, un'enorme variet di processori, non
solo apparati di calcolo in senso stretto, ma a volte anche incorporati in maniera invisibile (embedded) in
elettrodomestici e in apparecchi dei pi svariati generi, abbiano tra le proprie funzionalit quella di connettersi a
Internet e, attraverso questo, a qualche servizio di aggiornamento, di distribuzione di informazione e dati; dal
frigorifero, al televisore, all'impianto di allarme, al forno, alla macchina fotografica: ogni processore oramai
abilitato a comunicare via Internet. In tal senso dunque un'ulteriore evoluzione della Rete, propugnata da alcuni,
potrebbe essere l'estensione della connettivit agli oggetti taggati del mondo reale dando vita alla cosiddetta Internet
delle cose.

Principali servizi disponibili su Internet


World Wide Web
Motori di ricerca
File Transfer Protocol (FTP)
Telnet
Hosting
Gopher
E-Mail
Mailing list
Newsgroup
Podcast
Chat
Forum
Blog
Social network
File sharing
Video sharing
Webcast
Streaming o Web Tv
IPTV
Web Radio
VoIP
Bitcoin
E-Commerce
E-Learning
E-Government
E-health
Home banking
Multiplayer
Internet 19

Pubblicit in Internet
Internet si sta sempre pi affermando anche come canale pubblicitario, promozionale e commerciale. I suoi vantaggi
sono dati dalla possibilit di effettuare quasi dei collegamenti virtuali one-to-one a costi estremamente competitivi.
Al giorno d'oggi, Internet sostenuta e mantenuta da un milione di imprese commerciali; innumerevoli sono ormai i
siti web di grandi e piccole medie imprese, nonch portali di e-commerce. Esistono in Italia diverse societ
specializzate nella consulenza commerciale via Internet. Nel 2008 la raccolta pubblicitaria in Italia tramite Internet
ha superato quella tramite canali radio.[4]

Problemi della rete

Regolamentazione
Attualmente e sin dai suoi sviluppi al grande pubblico dalla met degli anni 90' la Rete Internet si caratterizzata
come una rete fondamentalmente "anarchica" cio priva di regolamentazione effettiva ufficiale (ciascun utente pu
contribuire ai suoi contenuti secondo regole non sempre ben definite, chiare e omogenee)[5][6][7]. Secondo altri la
Rete rappresenta invece un esempio di libert di espressione e democrazia globale dei tempi moderni e per questo da
tutelare[8][9]. Tutto ci rappresenta di fatto un punto cruciale che secondo alcuni critici dovr essere risolto
nell'immediato o prossimo futuro. In generale la ragione di tale condizione da ricercare semplicemente nella natura
e nelle finalit originarie di Internet come rete dati dedicata alla diffusione di documenti all'interno della comunit
scientifica e non pensata invece per scopi puramente pubblici.

Sicurezza
Su Internet quindi viaggiano tantissime informazioni non solo immagazzinate nei siti web, ma anche con e-mail,
chatting, ecc. Sotto questo punto di vista Internet si caratterizza attualmente come una rete fondamentalmente
ultrademocratica (o per alcuni anche al limite dell'anarchia ovvero scarsamente regolamentata) dove ciascun singolo
utente pu veicolare informazioni di qualunque tipo ai propri scopi e spesso in maniera del tutto anonima.
Tale fatto se da una parte rappresenta una delle ragioni principali del successo della rete come potente strumento di
comunicazione di massa, dall'altra, ovvero nel rovescio della medaglia, evidenzia debolezze e vulnerabilit
intrinseche dovute sostanzialmente al fatto che il "potere" demandato al mittente e a chi "controlla" la rete: molte
sono infatti le tipologie di attacco alla sicurezza informatica attuabili a mezzo della rete stessa da parte di pirati
informatici (cracker) con intenzioni malevoli quali ad esempio attacchi di negazione del servizio e furto di dati
sensibili dell'utente (password e codici di autenticazione, cloning delle carte di credito ecc...).
Inoltre, essendo divenuto una forma di comunicazione di massa, Internet ha necessitato inoltre di diversi tentativi di
filtraggio di parte delle informazioni sensibili veicolate o addirittura di controllo a fini di pubblica sicurezza. Uno dei
programmi ampiamente riconosciuti Carnivore, voluto dall'FBI per controllare la posta elettronica in entrata e in
uscita alla ricerca di parole chiave di interesse.
In Italia, sempre per motivi di sicurezza pubblica legati a norme antiterrorismo, il Decreto Pisanu dal 2006 imponeva
l'obbligo agli utenti che volevano connettersi ad Internet tramite rete Wi-Fi di registrarsi con le proprie credenziali di
identit presso il gestore stesso della rete nonch la previa richiesta di autorizzazione alla questura da parte del
gestore stesso per l'installazione della rete Wi-Fi connessa alla rete Internet. Questa restrizione, da molti vista come
puramente burocratica, ha significato per molti un ostacolo alla diffusione di tale tipo di accesso a Internet rispetto ad
altri paesi europei ed esteri in cui l'accesso tramite Wi-Fi era invece pienamente liberalizzato. Tale situazione
cambiata durante il governo Berlusconi IV, il quale non prorogando il decreto ha liberalizzato l'accesso Internet
tramite Wi-Fi a partire dal 1 Gennaio 2011, ma sul quale per restano aperti diversi interrogativi su quale sia il
corretto iter da seguire per eventuali esercenti pubblici che volessero offrire un servizio WI-FI alla propria
[10][11]
clientela.
Internet 20

In senso opposto invece si muove la proposta di legge italiana dell'onorevole Gabriella Carlucci che anzich
difendere l'anonimato su internet sancisce l'impossibilit di caricare contenuti di ogni genere senza identificarsi e
inoltre propone di espandere il reato di diffamazione ai contenuti digitali.[12]

Privacy
D'altra parte l'intercettazione e il filtraggio dei dati sensibili degli utenti da parte degli ISP o dei maggiori network di
rete a scopo di ricerche di mercato pone oggi anche il problema della privacy dell'utente in Rete.

Copyright
Non solo si vuole controllare Internet perch mezzo di comunicazione di massa, ma anche per il fatto che esistono
dei sistemi di scambio peer-to-peer che veicolano file protetti da diritto d'autore. Le case discografiche hanno cercato
in tutti i modi di sostenere le proposte che suggerivano un controllo della rete a discapito del diritto di anonimato e
della libert personale.
In Italia il primo caso di mappatura dei numeri IP risale al 2007 quando la Logistep, azienda specializzata in
soluzioni anti-pirateria, ha registrato 3636 utenti che avevano in condivisione molti file musicali protetti da diritto
d'autore. La Logistep lavorava per conto della casa discografica tedesca Peppermint Jam Records Gmbh che avrebbe
voluto contattare tramite un avvocato altoatesino gli utenti segnalati per contestare il loro comportamento. In difesa
degli utenti si schierato il garante della Privacy che il 13 marzo 2008 ha intimato alle societ in questione di
eliminare i dati personali che avevano raccolto.
Un esempio pi recente il tentato avviamento in Francia di una proposta di legge che avrebbe permesso agli ISP di
togliere la connessione a internet agli utenti che praticassero condivisione dei file protetti da copyright (dopo due
avvertimenti), ma il decreto voluto da Nicolas Sarkozy ha perso la maggioranza dopo l'approvazione della relazione
sul rafforzamento della sicurezza e delle libert fondamentali su Internet di Stavros Lambrinidis, il 26 marzo 2009,
all'Unione Europea, che esprimeva una posizione forte in difesa della libert d'espressione che in internet vede la sua
piena realizzazione.

Neutralit della rete


Ultimamente al crescere dei servizi offerti dalla rete si fatto strada l'ampio dibattito in merito alla network
neutrality tra chi (gli utenti) vorrebbe una rete completamente trasparente nella fruizione di contenuti e servizi e chi
(gli operatori di rete) vorrebbe un maggior controllo e selezione dei contenuti stessi impedendo la libera
proliferazione di chi si appoggia sulle infrastrutture di rete per diffondere il proprio marketing e il proprio business
ovvero i principali network o fornitori di servizi web (Google, YouTube, Facebook, Twitter ecc...).

Tutela dei minori


La sempre pi facile accessibilit alla rete e ai suoi contenuti liberi da parte di un pubblico/utenti minorenni,
progressivamente sempre pi giovani, pone il problema della loro tutela di fronte a pericoli e rischi che l'anonimato e
la vastit dei contenuti della rete pu offrire nei loro confronti (es. pedofilia, pornografia, cyberbullismo ecc.).
Strumenti di filtraggio dei contenuti, opportunamente impostati (es. firewall), sono tuttavia disponibili da tempo nei
vari sistemi informatici connessi come possibile rimedio al problema.
Internet 21

Principali enti di gestione di Internet


ICANN (Internet Corporation of Assigned Names and Numbers);
IANA (Internet Assigned Numbers Authority);
IAB (Internet Architecture Board);
IETF (Internet Engineering Task Force);
W3C (World Wide Web Consortium);
IESG (Internet Engineering Steering Group);
ISOC (Internet Society).

Note
[1] Il termine "Internet", essendo un nome proprio, dovrebbe essere scritto con l'iniziale maiuscola. Vista la sua ormai ampia diffusione nel
linguaggio comune per accettata anche la grafia con l'iniziale minuscola. Per evitare fraintendimenti con l'omonimo nome comune
comunque preferibile la grafia con l'iniziale maiuscola.
[2] Raffaella Natale. (2009) Internet: 2,2 miliardi di utenti nel 2013. Asia e Cina guideranno la crescita mentre lItalia risulta ancora tra i Paesi
poco connessi (http:/ / www. key4biz. it/ News/ 2009/ 07/ 21/ e-Society/ forrester_internet_Zia_Daniell_Wigder. html). Riportato il 10 ottobre
2009.
[3] Intervista su Repubblica (http:/ / firenze. repubblica. it/ cronaca/ 2011/ 04/ 30/ news/
25_anni_di_internet_ricordo_quel_primo_click-15550074/ ?ref=HREC2-6) a Luciano Lenzini, docente dell'Infn di Pisa
[4] Giorgio Lonardi. (2008) Pubblicit, per la prima volta Internet sorpassa la radio (http:/ / www. repubblica. it/ 2008/ 06/ sezioni/ economia/
pubblicit-/ pubblicit-/ pubblicit-. html). Riportato il 10 ottobre 2009.
[5] Layout 1 (http:/ / www. i-com. it/ AllegatiDocumentiHome/ 457. pdf)
[6] e-G8: per Neelie Kroes urgente la regolamentazione di internet. Dalla Ue 300 mld di euro per sostenere il mercato digitale (http:// www.
key4biz. it/ News/ 2011/ 05/ 25/ Net_economy/ Neelie_Kroes_Digital_Agenda_eG8_Nicolas_Sarkozy_internet_203526. html)
[7] http:/ / www. unipa. it/ gpino/ Assenza%20di%20un%20obbligo%20generale. pdf
[8] Zuckerberg e Schmidt contro l'eccesso di regolamentazione di Internet | BitCity.it (http:/ / www. bitcity. it/ news/ 22520/
zuckerberg-e-schmidt-contro-l-eccesso-di-regolamentazione-di-internet. html)
[9] LOSCE e la libert della rete: internet deve essere considerato un Diritto - SlideToMac Blog (http:// www. slidetomac. com/
losce-e-la-liberta-della-rete-internet-deve-essere-considerato-un-diritto-21241. html)
[10] Liberalizzazione Wi-Fi - http:/ / www. lastampa. it/ _web/ cmstp/ tmplrubriche/ tecnologia/ grubrica. asp?ID_blog=30& ID_articolo=8293&
ID_sezione=38& sezione=
[11] Decreto Pisanu in soffitta e tanta confusione | Guido Scorza | Il Fatto Quotidiano (http:/ / www. ilfattoquotidiano. it/ 2010/ 11/ 05/
il-decreto-pisanu-in-soffitta-tra-tanta-confusione/ 75407/ )
[12] Proposta di legge Gabriella Carlucci (http:/ / www. gabriellacarlucci. it/ 2009/ 03/ 03/ pedofilia-e-internet/ proposta-di-legge/ )

Bibliografia
Lee Siegel, Homo Interneticus - Restare umani nell'era dell'ossessione digitale, prefazione di Luca De Biase,
Edizioni Piano B, Prato 2011 ISBN 978-88-96665-31-2

Voci correlate
Informatica
Arpanet
Storia di Internet
Internet2
Intranet
Internet dipendenza
Lingue di Internet
Metanetwork
Robert Cailliau
World Wide Web
Preservazione digitale
Internet 22

Dizionario Internet
Infranet
Lex informatica

Altri progetti
Wikinotizie contiene notizie di attualit: http://it.wikinews.org/wiki/Categoria:Internet

Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Internet


Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Internet
Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/Internet

Collegamenti esterni
Storia di internet (http://www.dia.uniroma3.it/~necci/storia_internet.htm). Dipartimento di Informatica e
Automazione, Universit degli Studi Roma Tre.
Norme relative al deposito legale dei documenti di interesse culturale destinati all'uso pubblico (Legge 15 aprile
2004, n. 106) (http://www.parlamento.it/parlam/leggi/04106l.htm)
(EN) Definizione di Internet su Internet Society (http://www.isoc.org/internet/history/brief.shtml#Origins)
(EN) National Coordination Office for Information Technology Research and Development (http://www.itrd.
gov)
Video introduttivo sul funzionamento di internet (http://www.warriorsofthe.net/misc/storyit.html)
Storia di Internet: gli anni '60 (http://www.pinzani.it/storia-internet.php)
Storia di internet: il documentario (http://www.bitmagazine.it/internet/la-storia-di-internet/4725.html)
(EN) MINTS (http://www.dtc.umn.edu/mints/home.php) Minnesota Internet Traffic Studies.

World Wide Web


Il World Wide Web ha le potenzialit per svilupparsi in un'enciclopedia universale che copra tutti i campi della conoscenza
[1]
e in una biblioteca completa di corsi per la formazione.
(Richard Stallman)

Il World Wide Web[3] (ellissi diffusa nel


linguaggio comune: "Web";[4][5]
abbreviazione diffusa nel linguaggio
comune: "WWW";[6] appellativo diffuso nel
linguaggio comune: "Grande Ragnatela
Mondiale")[7] un servizio di Internet[8] che
permette di navigare ed usufruire di un
insieme vastissimo di contenuti
(multimediali e non) e di ulteriori servizi
accessibili a tutti o ad una parte selezionata
degli utenti di Internet.

[2]
Immagine dell'home page del primo sito web della storia
World Wide Web 23

Caratteristiche generali
Caratteristica principale della rete Web che i nodi che la compongono sono tra loro collegati tramite i cosiddetti
link (collegamenti), formando un enorme ipertesto. E i suoi servizi possono essere resi disponibili dagli stessi utenti
di Internet.[9] Per quanto riguarda i contenuti, quindi, il Web possiede la straordinaria peculiarit di offrire a chiunque
la possibilit di diventare editore e, con una spesa estremamente esigua, di raggiungere un pubblico potenzialmente
vastissimo distribuito in tutto il mondo.[10]
Il Web stato inizialmente implementato da Tim Berners-Lee mentre era ricercatore al CERN, sulla base di idee
dello stesso Berners-Lee e di un suo collega, Robert Cailliau, e oggi gli standard su cui basato, in continua
evoluzione, sono mantenuti dal World Wide Web Consortium (W3C).
La nascita del Web risale al 6 agosto 1991, giorno in cui Berners-Lee mise on-line su Internet il primo sito Web.
Inizialmente utilizzato solo dalla comunit scientifica, il 30 aprile 1993 il CERN decide di rendere pubblica la
tecnologia alla base del Web. A tale decisione fa seguito un immediato e ampio successo del Web in virt della
possibilit offerta a chiunque di diventare editore, della sua efficienza e, non ultima, della sua semplicit. Con il
successo del Web ha inizio la crescita esponenziale e inarrestabile di Internet ancora oggi in atto, nonch la
cosiddetta "era del Web".

Descrizione
Il Web uno spazio elettronico e digitale di Internet destinato alla pubblicazione di contenuti multimediali (testi,
immagini, audio, video, ipertesti, ipermedia, ecc.) nonch uno strumento per implementare particolari servizi come
ad esempio il download di software (programmi, dati, applicazioni, videogiochi, ecc.). Tale spazio elettronico e tali
servizi sono resi disponibili attraverso particolari computer di Internet chiamati server web.
Chiunque disponga di un computer, di un accesso ad Internet, degli opportuni programmi e del cosiddetto spazio
web, porzione di memoria di un server web destinata alla memorizzazione di contenuti web e all'implementazione di
servizi web, pu, nel rispetto delle leggi vigenti nel Paese in cui risiede il server web, pubblicare contenuti
multimediali sul Web e fornire particolari servizi attraverso il Web. I contenuti del Web sono infatti costantemente
on-line quindi costantemente fruibili da chiunque disponga di un computer, di un accesso a Internet, e degli
opportuni programmi (in particolare del cosiddetto browser web, il programma che permette, come si dice in gergo,
di "navigare" nel Web, cio di fruire dei contenuti e dei servizi del Web.)
Non tutti i contenuti e i servizi del Web sono per disponibili a chiunque in quanto il proprietario dello spazio web, o
chi ne ha delega di utilizzo, pu renderli disponibili solo a determinati utenti, gratuitamente o a pagamento,
utilizzando il sistema degli account.

I contenuti
I contenuti principali del Web sono costituiti da testo e grafica rappresentati in un insieme ristretto di standard
definito dal W3C. Tali contenuti sono quelli che tutti i browser web devono essere in grado di fruire autonomamente,
cio senza software aggiuntivo.
I contenuti pubblicati sul Web possono essere per di qualunque tipo e in qualunque standard. Alcuni di questi
contenuti sono pubblicati per essere fruiti attraverso il browser web e, non essendo in uno degli standard appartenenti
all'insieme definito dal W3C, per poterli fruire attraverso il browser web questo deve essere integrato con i cosiddetti
plug-in, software che integrano le funzionalit di un programma i quali, per quanto riguarda il browser web,
normalmente sono scaricabili dal Web. Il resto dei contenuti del Web utilizzabile con programmi autonomi. Ad
esempio si pu trattare di un file eseguibile sul sistema operativo che si sta utilizzando o di un documento di testo in
formato Microsoft Word.
World Wide Web 24

L'organizzazione dei contenuti

I contenuti del Web sono organizzati nei


cosiddetti siti web a loro volta strutturati
nelle cosiddette pagine web le quali si
presentano come composizioni di testo e/o
grafica visualizzate sullo schermo del
computer dal browser web. Le pagine web,
anche appartenenti a siti diversi, sono
collegate fra loro in modo non sequenziale
attraverso i cosiddetti link (anche chiamati
collegamenti), parti di testo e/o grafica di
una pagina web che permettono di accedere
ad un'altra pagina web, di scaricare
particolari contenuti, o di accedere a
particolari funzionalit, cliccandoci sopra
Rappresentazione grafica di una piccola sezione di World Wide Web
con il mouse, creando cos un ipertesto.

Tutti i siti web, sono identificati dal cosiddetto indirizzo web, una sequenza di caratteri univoca chiamata in termini
tecnici URL che ne permette la rintracciabilit nel Web.
Non previsto un indice aggiornato in tempo reale dei contenuti del Web, quindi nel corso degli anni sono nati ed
hanno riscosso notevole successo i cosiddetti motori di ricerca, siti web da cui possibile ricercare contenuti nel
Web in modo automatico sulla base di parole chiave inserite dall'utente, e i cosiddetti portali web, siti web da cui
possibile accedere ad ampie quantit di contenuti del Web selezionati dai redattori del portale web attraverso
l'utilizzo di motori di ricerca o su segnalazione dei redattori dei siti web.

I servizi
Oltre alla pubblicazione di contenuti multimediali il Web permette di offrire servizi particolari implementabili dagli
stessi utenti del Web. I servizi implementabili sono innumerevoli, in pratica limitati solo dalla velocit della linea di
telecomunicazioni con cui l'utente e chi fornisce il servizio sono collegati e dalla potenza di calcolo dei loro
computer. Di seguito quindi sono elencati solo quelli contraddistinti da una denominazione generica:
download: la distribuzione di software;
web mail: la gestione della casella di posta elettronica attraverso il Web;
streaming: la distribuzione di audio/video in tempo reale;
web TV: la televisione fruita attraverso il Web;
web radio: la radio fruita attraverso il Web;
web chat: la comunicazione testuale in tempo reale tra pi utenti di Internet, tramite pagine web;
World Wide Web 25

Implementazione
Il Web implementato attraverso un insieme di standard, i principali dei quali sono i seguenti:
HTML (e suoi derivati): il linguaggio di markup con cui sono scritte e descritte le pagine web;
HTTP: il protocollo di rete appartenente al livello di applicazione del modello ISO/OSI su cui basato il Web;
URL: lo schema di identificazione, e quindi di rintracciabilit, dei contenuti e dei servizi del Web.
La peculiarit dei contenuti del Web quella di non essere memorizzati su un unico computer ma di essere distribuiti
su pi computer, caratteristica da cui discende efficienza in quanto non vincolati ad una particolare localizzazione
fisica. Tale peculiarit realizzata dal protocollo di rete HTTP il quale permette di vedere i contenuti del Web come
un unico insieme di contenuti anche se fisicamente risiedono su una moltitudine di computer di Internet sparsi per il
pianeta.

Funzionamento
La visione di una pagina web inizia digitandone l'URL nell'apposito campo del browser web oppure cliccando su un
collegamento ipertestuale presente in una pagina web precedentemente visualizzata o in altra risorsa come ad
esempio un'e-mail. Il browser web a quel punto dietro le quinte inizia una serie di messaggi di comunicazione con il
web server che ospita quella pagina con lo scopo di visualizzarla sul terminale utente.
Per prima cosa la porzione di server-name dell'URL risolta in un indirizzo IP usando il database globale e
distribuito conosciuto come Domain Name System (in sigla DNS). Questo indirizzo IP necessario per inviare e
ricevere pacchetti dal server web.
A questo punto il browser richiede le informazioni inviando una richiesta a quell'indirizzo. In caso di una tipica
pagina web, il testo HTML di una pagina richiesto per primo ed immediatamente interpretato dal browser web che,
successivamente, richiede eventuali immagini o file che serviranno per formare la pagina definitiva.
Una volta ricevuti i file richiesti dal web server, il browser formatta la pagina sullo schermo seguendo le specifiche
HTML, CSS, o di altri linguaggi web. Ogni immagine e le altre risorse sono incorporate per produrre la pagina web
che l'utente vedr.

Accessibilit e usabilit
Cruciali nell'evoluzione del Web sono diventati i concetti, di accessibilit e usabilit a favore di ogni tipologia di
utente, relativi alla progettazione, organizzazione e implementazione dei contenuti secondo specifici requisiti, in
comune in generale con le linee evolutive di tutti i prodotti hardware e software in ambito ICT.

Storia

La nascita
World Wide Web 26

La prima proposta di un sistema ipertestuale si pu far risalire agli


studi di Vannevar Bush, poi pubblicati nell'articolo As We May Think
(in italiano "Come potremmo pensare") del 1945.
La data di nascita del World Wide Web viene comunemente indicata
nel 6 agosto 1991, giorno in cui l'informatico inglese Tim Berners-Lee
pubblic il primo sito web dando cos vita al fenomeno "WWW" (detto
anche "della tripla W").
L'idea del World Wide Web era nata due anni prima, nel 1989, presso
il CERN (Conseil Europen pour la Recherche Nuclaire) di Ginevra, Il computer utilizzato da Tim Berners-Lee per
il pi importante laboratorio di fisica europeo.Il ricercatore inglese fu realizzare il primo server web

colpito da come alcuni colleghi italiani usavano trasmettere


informazioni tramite linea telefonica da un piano all'altro dell'istituto visualizzando informazioni tramite video. Il 13
marzo 1989 Tim Berners-Lee present infatti al proprio supervisore il documento Information Management: a
Proposal che fu valutato vago ma interessante. Alla sua base vi era il progetto dello stesso Berners-Lee e di un suo
collega, Robert Cailliau, di elaborare un software per la condivisione di documentazione scientifica in formato
elettronico indipendentemente dalla piattaforma informatica utilizzata, con il fine di migliorare la comunicazione, e
quindi la cooperarazione, tra i ricercatori dell'istituto. A lato della creazione del software, inizi anche la definizione
di standard e protocolli per scambiare documenti su reti di calcolatori: il linguaggio HTML e il protocollo di rete
HTTP.

Questi standard e protocolli supportavano inizialmente la sola gestione di pagine HTML statiche, vale a dire file
ipertestuali -preparati precedentemente- visualizzabili e, soprattutto, navigabili utilizzando opportune applicazioni
(browser web).
Dopo i primi anni in cui era stato usato solo dalla comunit scientifica, il 30 aprile 1993 il CERN decise di mettere il
WWW a disposizione del pubblico rinunciando ad ogni diritto d'autore. La semplicit della tecnologia decret un
immediato successo: in pochi anni il WWW divenne la modalit pi diffusa al mondo per inviare e ricevere dati su
Internet, facendo nascere quella che oggi nota come "era del web".

Dal web statico ai web service


Per superare le limitazioni del progetto iniziale, furono subito definiti strumenti capaci di generare pagine HTML
dinamiche (ad es. utilizzando dati estratti da un database). La prima soluzione di questo tipo furono le CGI (Common
Gateway Interface). Attraverso una CGI possibile richiedere ad un Web server di invocare un'applicazione esterna
e presentare il risultato come una qualsiasi pagina HTML. Questa soluzione, sebbene molto semplice da realizzare,
presenta numerose limitazioni di progetto (l'applicativo esterno viene eseguito ad ogni richiesta utente e non
prevista alcuna ottimizzazione, non vi alcuna gestione dello stato della sessione, etc.).
Per dare al web una maggiore interattivit e dinamicit sono state perseguite due strade. Da un lato sono state
aumentate le funzionalit dei browser attraverso un'evoluzione del linguaggio HTML e la possibilit
d'interpretazione di linguaggi di scripting (come il JavaScript). Dall'altro, si migliorata la qualit di elaborazione
dei server attraverso una nuova generazione di linguaggi integrati con il Web Server (come JSP, PHP, ASP, etc.),
trasformando i Web Server in quelli che sono oggi pi propriamente noti come Application Server.
La diffusione di queste soluzioni ha consentito di avviare l'utilizzo del web come piattaforma applicativa che oggi
trova la sua massima espressione nei Web Service, alla cui realizzazione e diffusione sta lavorando l'intera industria
mondiale del software per la gestione d'azienda, dai grandi nomi commerciali (come SAP e Oracle) fino alle
comunit Open Source. L'utilizzo dei web-service all'interno dell'architettura di integrazione SOA permetter anche
alle piccole imprese di gestire senza grandi sforzi i propri processi aziendali.
World Wide Web 27

Scopo dei Web Service di limitare il pi possibile le attivit di implementazione, consentendo di accedere a servizi
software resi disponibili in rete, assemblarli secondo le proprie necessit e pagarli soltanto per il loro utilizzo
effettivo, metodologia individuata nella terminologia anglosassone come pay per use, on demand software, just in
time software, on tap software, etc.
chiaro, quindi, che i web-service e il loro successo hanno ed avranno un legame strutturale ed intrinseco con i
processi aziendali che dovranno supportare nell'ambito di una nuova organizzazione basata sui processi.

Dal web statico al web semantico


Nonostante tutte queste evoluzioni, il web rimane, ancora e soprattutto, una gigantesca biblioteca di pagine HTML
statiche on-line. Per, se da un lato lo standard HTML con la sua semplicit ha contribuito all'affermazione del web,
dall'altro ha la grossa limitazione di occuparsi solo ed esclusivamente della formattazione dei documenti,
tralasciando del tutto la struttura e il significato del contenuto.
Questo pone notevoli difficolt nel reperimento e riutilizzo delle informazioni. Per rendersi conto di questo
sufficiente eseguire una ricerca utilizzando uno dei molti motori disponibili in rete e ci si accorger che, delle
migliaia di documenti risultanti dalla query, spesso solo una piccola percentuale d'interesse per la ricerca che
s'intendeva fare. Ad esempio, per un qualsiasi motore di ricerca, non esiste alcuna differenza fra il termine Rossi nel
contesto Il Sig. Rossi ed il termine rossi nel contesto capelli rossi, rendendo la ricerca molto difficile.
La risposta a questo problema venuta, ancora una volta, dal fisico inglese Tim Berners-Lee, che, abbandonato il
CERN, ha fondato il consorzio W3C che ha assunto il ruolo di governo nello sviluppo di standard e protocolli legati
al web. Egli nel 1998 ha definito lo standard XML (eXtensible Markup Language), un metalinguaggio derivante
dall'SGML, che consente la creazione di nuovi linguaggi di marcatura (ad es. lo stesso HTML stato ridefinito in
XML come XHTML). Sua caratteristica innovativa la possibilit di aggiungere informazioni semantiche sui
contenuti attraverso la definizione di opportuni tag.
[11]
I principali obiettivi di XML, dichiarati nella prima specifica ufficiale (ottobre 1998), sono pochi ed espliciti:
utilizzo del linguaggio su Internet, facilit di creazione dei documenti, supporto di pi applicazioni, chiarezza e
comprensibilit. Con queste semplici caratteristiche l'XML fornisce un modo comune di rappresentare i dati,
cosicch i programmi software siano in grado di eseguire meglio ricerche, visualizzare e manipolare informazioni
nascoste nell'oscurit contestuale.
per questo che, nonostante la sua giovane et, l'XML alla base di tutte le nuove specifiche tecnologiche rilasciate
dal W3C ed stato adottato come standard di rappresentazione dati da tutta l'industria informatica (dai file di
configurazione delle applicazioni alla definizione di formati di interscambio dei dati).
Le specifiche XML hanno per una lacuna molto importante: non definiscono alcun meccanismo univoco e
condiviso per specificare relazioni tra informazioni espresse sul web per una loro elaborazione automatica (ad es. pi
documenti che parlano dello stesso argomento, persona, organizzazione, oggetto), rendendo molto difficile la
condivisione delle informazioni.
Anche in questo caso la soluzione al problema venuta dal W3C di Berners-Lee, attraverso la formalizzazione del
web semantico. Il W3C considera l'ideale evoluzione del web dal machine-representable al
machine-understandable. L'idea di generare documenti che possano non solo essere letti e apprezzati da esseri
umani, ma anche accessibili e interpretabili da agenti automatici per la ricerca di contenuti.
A tale scopo sono stati definiti alcuni linguaggi, quali Resource Description Framework (RDF) e Web Ontology
Language (OWL), entrambi basati su XML, che consentono di esprimere le relazioni tra le informazioni rifacendosi
alla logica dei predicati mutuata dall'intelligenza artificiale.[12] Questi standard sono gi disponibili, ma continuano
ad essere ulteriormente sviluppati insieme a formalismi e strumenti per dotare il web di capacit di inferenza.
Quello appena esposto un processo solo apparentemente tecnico, ma ben visibile nella sua portata, che ha come
obiettivo l'approdo all'intelligenza condivisa del web che promette, a breve, l'uso pi efficiente dei siti internet e, a
World Wide Web 28

pi lungo termine, una autentica trasformazione nella natura del software e dei servizi.
Tanto interesse per queste tecnologie da ravvisare nel fatto che tutti (utenti, produttori di software e di servizi
piccoli e grandi) hanno da avvantaggiarsi dalla diffusione piena di questi standard. La formazione nel corpo del web
di una vasta rete "semantica" , infatti, la condizione chiave per il decollo di un nuovo modo di intendere ed usare il
web.

Note
[1] L'enciclopedia universale libera e le risorse per l'apprendimento (http:/ / www. gnu. org/ encyclopedia/ free-encyclopedia. it. html), Richard
Stallman.
[2] Primo sito web (http:/ / www. w3. org/ History/ 19921103-hypertext/ hypertext/ WWW/ TheProject. html) della storia (inizialmente
l'indirizzo web era diverso). stato messo on-line il 6 agosto 1991 da Tim Berners-Lee.
[3] "World Wide Web" un nome proprio inglese che tradotto letteralmente significa "ragnatela grande quanto il mondo".
[4] Nel linguaggio comune "Web", per la sue maggiore brevit, quasi sempre preferito a "World Wide Web".
[5] "Web", essendo un nome proprio, andrebbe scritto con l'iniziale maiuscola ma, come tutti i nomi propri non di persona molto diffusi nel
linguaggio comune, viene anche scritto con l'iniziale minuscola. In paricolare, quando utilizzato in funzione aggettivale ("pagina web",
"browser web", "server web", ecc.), viene prevalentemente scritto con l'iniziale minuscola.
[6] "WWW" l'acronimo di "World Wide Web". Per la scarsa compatibilit delle possibili pronunce dell'acronimo "WWW" con la fonologia
della lingua italiana, "WWW" uno dei pochi acronimi che normalmente si utilizza solo nel linguaggio scritto (in caso di lettura di un testo
scritto dove presente l'acronimo "WWW", solitamente l'acronimo viene letto "World Wide Web" o "tripla W"). Anche nel linguaggio scritto
comunque, nella maggior parte dei casi, preferita l'ellissi "Web" all'acronimo "WWW".
[7] "Grande Ragnatela Mondiale" un appellativo che nasce come traduzione letterale di "World Wide Web" (anche se la traduzione letterale pi
accurata sarebbe "ragnatela grande quanto il mondo"). L'appellativo "Grande Ragnatela Mondiale" si diffuso nei primi anni di affermazione
del World Wide Web e oggi tendenzialmente in disuso.
[8] In particolare il World Wide Web uno dei principali servizi di Internet: assieme alla posta elettronica certamente il servizio di Internet pi
utilizzato e conosciuto.
[9] Ovviamente sono necessarie opportune risorse (un computer, opportuni software, un accesso a Internet, ecc.) e conoscenze. Se i contenuti da
pubblicare sul Web non sono troppo complessi le risorse e conoscenze necessarie sono comunque di esigua entit. Ad esempio, gi dotandosi
di un comune personal computer attualmente disponibile in commercio e sottoscrivendo un servizio di accesso a Internet con uno dei pi
popolari Internet service provider, si ha a disposizione tutto il necessario per poter pubblicare sul Web contenuti non troppo complessi. I pi
popolari Internet service provider offrono infatti la possibilit di pubblicare sul Web contenuti non troppo complessi attraverso il Web stesso
senza la necessit di conoscere il linguaggio di markup del Web. Lo stesso vale anche per i blog, molti sono infatti i siti web che offrono
gratuitamente la possibilit di creare un blog in modo semplice e immediato attraverso il Web stesso. In caso invece di contenuti pi complessi
necessario dotarsi anche di un editor web 'WYSIWYG se si vuole evitare, o almeno semplificare, l'apprendimento del linguaggio di markup
del Web.
[10] Gli utenti di Internet nel 2008 hanno superato il miliardo e cinquecento milioni, quasi un quarto della popolazione mondiale (fonte: Internet:
2,2 miliardi di utenti nel 2013. Asia e Cina guideranno la crescita mentre lItalia risulta ancora tra i Paesi poco connessi (http:// www.
key4biz. it/ News/ 2009/ 07/ 21/ e-Society/ forrester_internet_Zia_Daniell_Wigder. html)).
[11] (http:/ / www. w3. org/ TR/ html4/ ).
[12] (http:/ / www. w3. org/ 2001/ sw/ ).

Bibliografia
Vannevar Bush, As We May Think (http://www.theatlantic.com/doc/194507/bush), The Atlantic Monthly July
1945.
James Gillies, Com' nato il web, Milano, Baldini & Castoldi, 2002.
Tim Berners-Lee, Mark Fischetti, L'architettura del nuovo Web, Milano, Feltrinelli, 1999.

Voci correlate
Web mobile
Rete a invarianza di scala
W3C
Web semantico
Web Service
World Wide Web 29

Social media
WWW2

Altri progetti
Articolo su Wikinotizie: Ecco i quindici siti web che hanno cambiato il mondo

Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Internet


Wikinotizie contiene notizie di attualit: http://it.wikinews.org/wiki/Internet

Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:World


Wide Web

Collegamenti esterni
Sito ufficiale del W3C (http://www.w3.org/)
Sito ufficiale del CERN (http://public.web.cern.ch/Public/Welcome.html)

Web 2.0
Il Web 2.0 un termine utilizzato per indicare uno stato di evoluzione
del World Wide Web, rispetto a una condizione precedente. Si indica
come Web 2.0 l'insieme di tutte quelle applicazioni online che
permettono uno spiccato livello di interazione tra il sito web e l'utente
(blog, forum, chat, wiki, flickr, youtube, facebook, myspace, twitter,
google+, linkedin, wordpress, foursquare, ecc.)[1] ottenute tipicamente
attraverso opportune tecniche di programmazione Web afferenti al
paradigma del Web dinamico in contrapposizione al cosiddetto Web statico o Web 1.0.

Generalit
Il termine Web 2.0 stato strettamente associato a Tim O'Reilly a causa della Web 2.0 conference di O'Reilly Media
alla fine del 2004.[2][3] Il termine 2.0 mutuato direttamente dallo sviluppo software nel quale la notazione puntata
indica lindice di sviluppo e successivo rilascio (release) di un particolare software. In questo caso la locuzione pone
l'accento sulle differenze rispetto al cosiddetto Web 1.0, diffuso fino agli anni novanta, e composto prevalentemente
da siti web statici, senza alcuna possibilit di interazione con l'utente eccetto la normale navigazione tra le pagine,
l'uso delle e-mail e dei motori di ricerca.
Per le applicazioni Web 2.0, spesso vengono usate tecnologie di programmazione particolari, come AJAX (Gmail
usa largamente questa tecnica) o Adobe Flex.
Un esempio potrebbe essere il social commerce, l'evoluzione dell'E-Commerce in senso interattivo, che consente una
maggiore partecipazione dei clienti, attraverso blog, forum, sistemi di feedback ecc.
Gli scettici replicano che il termine Web 2.0 non ha un vero e proprio significato e dipenderebbe principalmente dal
tentativo di convincere media e investitori sulle opportunit legate ad alcune piattaforme e tecnologie.
Web 2.0 30

Alcuni hanno iniziato, come Seth Godin,[4] ad utilizzare il termine


"New Web" (Nuovo Web) in quanto si rimane molto scettici
sull'utilizzo dell'etichetta "web 2.0" (o anche 3.0 e successive) quando
utilizzata al fine di definire univocamente e generalmente una
complessa e continua innovazione dei paradigmi di comunicazione
digitale sul web. Se pure il termine "Nuovo Web" non diventasse
velocemente di uso comune anche tra i Netizen, questo probabilmente
non diverrebbe obsoleto come sta accadendo per l'etichetta "web 2.0" a
favore ad esempio di "3.0", "3.5", "4.0" e cos via. Questo tipo di
Rielaborazione in italiano del Web 2.0 Meme
etichette hanno la funzione di "fotografare" in maniera non univoca un
Map di Tim O'Reilly
certo momento.

Analisi storica
Originariamente il web stato concepito come modo per visualizzare documenti ipertestuali statici (creati con l'uso
del linguaggio HTML); questo approccio pu essere definito come Web 1.0 afferente al paradigma del Web statico.
In seguito, grazie all'integrazione con database e all'utilizzo di sistemi di gestione dei contenuti (CMS), esso stato
da alcuni definito Web 1.5.
Attraverso l'utilizzo di linguaggi di scripting come Javascript, degli elementi dinamici e dei fogli di stile (CSS) per
gli aspetti grafici, si possono creare delle vere e proprie "applicazioni web" che si discostano dal vecchio concetto di
semplice ipertesto e che puntano a somigliare ad applicazioni tradizionali per computer.
Da un punto di vista strettamente di tecnologia di rete, il Web 2.0 del tutto equivalente al Web 1.0, in quanto
l'infrastruttura a livello di rete continua ad essere costituita da TCP/IP e HTTP e l'ipertesto ancora il concetto base
delle relazioni tra i contenuti. La differenza, pi che altro, sta nell'approccio con il quale gli utenti si rivolgono al
Web, che passa fondamentalmente dalla semplice consultazione (seppure supportata da efficienti strumenti di
ricerca, selezione e aggregazione) alla possibilit di contribuire popolando e alimentando il Web con propri
contenuti.

Differenze e confronti con il Web 1.0


Il Web 2.0 costituisce anzitutto un approccio filosofico alla rete che ne connota la dimensione sociale, della
condivisione, dell'autorialit rispetto alla mera fruizione: sebbene dal punto di vista tecnologico molti strumenti della
rete possano apparire invariati (come forum, chat e blog, che "preesistevano" gi nel web 1.0) proprio la modalit
di utilizzo della rete ad aprire nuovi scenari fondati sulla compresenza nell'utente della possibilit di fruire e di
creare/modificare i contenuti multimediali.
Sebbene potenzialmente in luce nello stesso paradigma di rete, che si nutre del concetto di condivisione delle risorse,
rappresenta la concretizzazione delle aspettative dei creatori del Web, che solo grazie all'evoluzione tecnologica oggi
costituiscono una realt accessibile. La possibilit di accedere a servizi a basso costo in grado di consentire l'editing
anche per l'utente poco evoluto, rappresenta un importante passo verso un'autentica interazione e condivisione in cui
il ruolo dell'utente centrale.
Nel descrivere le caratteristiche del Web 2.0 si procede spesso per confronto con il Web 1.0, indicando come nel
passaggio di versione gli elementi fondamentali si siano evoluti o siano stati sostituiti da nuovi. Si tratta dunque di
un modo di rappresentare il Web 2.0 divulgativo e non prettamente tecnico, ma piuttosto efficace per riconoscere
l'evoluzione dei sistemi su Internet.
Web 2.0 31

Dai siti web personali ai blog


Se prima la costruzione di un sito web personale richiedeva la padronanza di elementi di HTML e di
programmazione, oggi con i blog chiunque in grado di pubblicare i propri contenuti, dotandoli anche di veste
grafica accattivante, senza possedere alcuna particolare preparazione tecnica. Se prima le comunit web erano in
stragrande maggioranza costituite da esperti informatici, oggi la situazione completamente ribaltata. I principali
produttori di blog sono scrittori, giornalisti, artisti le cui attivit non presuppongono una conoscenza informatica
approfondita.

Dai sistemi per content management ai wiki


La tecnologia Wiki (Wikipedia ne la pi celebre applicazione) il punto di arrivo del content management, in
quanto ne implementa tutti i paradigmi. Se prima erano necessarie pi applicazioni informatiche per la gestione del
ciclo di vita dell'informazione (dall'intuizione alla fruizione), oggi una stessa tecnologia supporta al meglio tutto il
processo. Si fruisce dell'informazione nell'ambiente stesso in cui essa nata.

Dalla stickiness al syndication


Le tecniche utilizzate fino a ieri per tenere per pi tempo i visitatori su un sito web (stickiness, letteralmente
l'"appiccicosit" di un sito, cio la capacit di tenere "incollati" gli utenti ad esso) stanno lasciando il posto ad altre
concezioni di contatto con il fruitore. Attraverso le tecnologie di syndication (RSS, Atom, tagging) chi realizza
contenuti fa in modo che questi possano essere fruiti non solo sul sito, ma anche attraverso canali diversi.
Un esempio di questi nuovi canali sono i feed, cio delle liste di elementi con un titolo (es. notizie di un giornale,
thread di un newsgroup), che permettono il successivo collegamento ai contenuti informativi. Questi ultimi possono
essere aggiornati e consultati di frequente con programmi appositi o anche attraverso i browser e quindi consentono
di essere sempre a conoscenza dei nuovi contenuti inseriti su pi siti senza doverli visitare direttamente.

Strumenti per la creazione di contenuti


Tale possibilit di creazione e condivisione di contenuti su Web, tipica del Web 2.0, data da una serie di strumenti
(tool in inglese) on-line che permettono di utilizzare il web come se si trattasse di una normale applicazione. In
pratica il Web di seconda generazione un Web dove poter trovare quei servizi che finora erano offerti da pacchetti
da installare sui singoli computer.
Esempi di Web 2.0 sono CKEditor e Writely [5], veri e propri elaboratori di testi e convertitori di formato, oppure
NumSum [6], una sorta di foglio elettronico. Anche Google ha recentemente lanciato la sua suite di editor, chiamata
Google Docs & Spreadsheet [7], e Microsoft sta per rilasciare una versione online della suite Office.
Oltre alla creazione condivisa di contenuto on-line, il Web 2.0 caratterizzato dalla pubblicazione immediata del
contenuto e alla sua classificazione e indicizzazione nei motori di ricerca, in modo che l'informazione sia subito
disponibile a beneficio dalla comunit, realizzando in maniera veloce il ciclo di vita del content management. Per la
pubblicazione dei contenuti fanno da padrone sul Web (di oggi) i provider di blog come Blogger, Wordpress e
Splinder, ma anche piattaforme commerciali come Microsoft Sharepoint Services che nella versione 3.0 accentua le
sue caratteristiche di collaborazione diventando la parte server di Office 12.
Web 2.0 32

Note
[1] Dario de Judicibus. World 2.0: una definizione di web 2.0 (in inglese) (http:/ / lindipendente. splinder. com/ post/ 15354690/ World+ 2. 0). 2
gennaio 2008.URL consultato in data 4 gennaio 2008.
[2] Paul Graham. Web 2.0 (http:/ / www. paulgraham. com/ web20. html). novembre2005.URL consultato in data 2 agosto 2006.

I first heard the phrase 'Web 2.0' in the name of the Web 2.0 conference in 2004..
[3] Tim O'Reilly. What Is Web 2.0 (http:/ / www. oreillynet. com/ pub/ a/ oreilly/ tim/ news/ 2005/ 09/ 30/ what-is-web-20. html). O'Reilly
Network, 30 settembre 2005.URL consultato in data 6 agosto 2006.
[4] Seth's Blog: "Notice me" (http:/ / sethgodin. typepad. com/ seths_blog/ 2009/ 10/ notice-me. html)
[5] http:/ / www. writely. com
[6] http:/ / www. numsum. com
[7] http:/ / docs. google. com

Voci correlate
Web 3.0
Folksonomia
Internet2
Intercultura
Rich Internet Application
AJAX
Adobe Flex
Library 2.0
Perpetual beta
Contenuto generato dagli utenti
Freemium
Web al quadrato

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Web 2.0

Collegamenti esterni
Luca Grivet Foiaia, Web 2.0 - Guida al nuovo fenomeno della rete, Hoepli (http://www.hoepli.it/libro/web-20/
9788820339852.asp)
Alberto D'Ottavi, Web 2.0 - Le meraviglie della nuova Internet, RGB, Ottobre 2006 (http://www.scribd.com/
doc/2960860/Web-20-Il-libro-Gratis)
Alessandro Prunesti, Social media e comunicazione di marketing, Franco Angeli, 2009 (http://www.
francoangeli.it/Area_PDFDemo/1065.36_demo.pdf)
Documento di 60 pagine che si propone di definire cosa il Web 2.0 (http://projects.melodycode.com/Web20/
)
(IT,EN) What's Web 2.0? (http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.
html) - Cos' il Web 2.0? - Traduzione in Italiano (http://www.awaredesign.eu/articles/14-Cos-Web-2-0) di
Tim O'Reilly, 30 settembre 2005
Saggio in italiano sul Web2.0 (http://www.openarea.net/Web2.0.pdf)
33

Cultura

Interattivit
Nel campo dell'interazione uomo-macchina, l'Interattivit la possibilit per un utente di:
1. ottenere un'azione dal dispositivo che utilizza, o
2. intervenire sul servizio che riceve a distanza (banche dati, telesorveglianza, ecc.).
Esistono quindi due tipi di interazione possibile: 1) fra utente e apparecchio; 2) fra utente e fornitore del servizio.
Quando l'utente trasmette un'informazione al sistema che sta utilizzando, interagisce con esso; grazie a questa
interazione, il sistema pu deviare dal suo comportamento prefissato ed adeguarsi alle esigenze dell'utente.

Ruolo dei destinatari nella comunicazione


Gli innumerevoli destinatari, ricoprono un ruolo centrale nella comunicazione, l interazione consiste proprio nell
attribuzione di intenzionalit comunicativa fra la sorgente e i destinatari che producono attivamente dei contenuti
servendosi della selezione delle molteplici informazioni .

Comunicazione online
Un aspetto interessante ed importante potrebbe consistere proprio nella comunicazione on-line, che va differanziata
dall'informazione cartacea, televisiva o radiofonica, infatti se prendiamo come caso specifico un testo pubblicato
on-line, il lettore non si pone nella posizione passiva di chi legge un giornale o nel semplice ascolto di una notizia di
un telegiornale, ma avr a disposizione la possibilit di reagire con diversi strumenti, come per esempio inserire a pi
di pagina l'indirizzo di posta elettronica dell'autore dell'articolo, dando direttamente la possibilit al lettore di
commentare ci che ha letto, o addirittura dare al lettore la possibilit di dare un voto all'articolo. Grazie a questi
nuovi mezzi di comunicazione e interazione vediamo come il sistema pu adeguarsi alle molteplici esigenze
dell'utente.

Interattivit in rete
L'interattivit un componente essenziale del Web 2.0 all'interno del paradigma del Web dinamico: l'utente pu
interagire con il sito web visitato aggiungendo contenuti propri sotto forma di commenti, giudizi, valutazioni,
contenuti multimediali come accade usualmente in blog, forum, sistemi wiki, social network, sistemi di video
sharing ecc... Un altro esempio di interattivit sono i dati/richieste fornite dall'utente al server tramite form.

Il concetto di interattivit e le sue accezioni


Negli ultimi anni il concetto di interattivit stato usato in accezioni molto diverse tra loro, distinguendo l'
interattivit in: interattivit di selezione, cio lampliamento della variet delle scelte a disposizione; linterattivit
intesa come intervento richiesto al fruitore; linterattivit come interfaccia antropomorfa, ovvero la capacit di
simulare la conversazione e lo scambio comunicativo umano e la possibilit di monitorare ed osservare gli usi del
mezzo, la sistematica registrazione del feedback e la possibilit che viene offerta allutente di aggiungere proprie
informazioni da mettere a disposizione di un pubblico.
Interattivit 34

Interattivit e Multimedialit nelle scuole


Oggi in tutte le scuole sono presenti le nuove tecnologie finalizzate per la didattica, che hanno stravolto il
tradizionale percorso di apprendimento. Oggi giorno sono sempre pi utilizzate, non solo dai giovani per lo studio,
ma anche dai docenti. Questi nuovi strumenti multimediali hanno facilitato il lavoro di quest'ultimi rendendo pi
breve il tempo di preparazione di materiale didattico e pi facile la valutazione degli allievi. Uno strumento
importante della multimedialit la "lavagna interattiva" che favorisce un miglior apprendimento dell'allievo dei
tradizionali materiali didattici. La lavagna basandosi su video, suoni ecc. coinvolge nell'apprendimento anche altri
sensi. Questo stravolgimento del classico apprendimento ha favorito un miglioramento negli allievi sia sulle loro
abilit che per la loro autostima, specialmente in allievi disabili, ha favorito un accrescimento della voglia di sapere e
dell'autonomia di ogni singolo allievo.

Il Marketing interattivo
Un mezzo di comunicazione di rilevante importanza pu essere il marketing diretto e interattivo, in questa
interattivit rientra come valido canale il telefono, in sostituzione a tutti gli altri media, soprattutto per soddisfare
esigenze dei clienti sia per le vendite che per ordini ed acquisti. Il marketing interattivo ha dato ottimi risultati
soprattutto ad aziende che intendono acquisire nuovi clienti, o nel caso in cui le relazioni con lazienda sono appena
iniziate, ovviamente, poi, per avere maggiore successo bisogna poi concludere con una presenza visiva, che porti a
rafforzare la vendita con una firma scritta.

Bibliografia
Atlante della comunicazione. Autore: Fausto Colombo, 2005.
Politiche: Quale conoscenza per l' azione territoriale. Autore: Luigi Crosta, 1998.
Il marketing diretto e interattivo. Autori: Di Merlin Stone,Alison Bond,Elisabeth Blake, 2005

Voci correlate
Ipertesto
Multimedialit

Note
http://www.fondazionescuola.it/iniziative/Media-Pedia/mediapedia/tendenze/interattivita.html
http://www.stradanove.net/netreporter/corso/it/interattivita.html
http://www.thanx.it
http://www.leonardoausili.com/docet/corsi/
nuove-tecnologie-la-didattica-interattivita-e-multimedialita-come-risorse-didattiche-l-i
Ipertesto 35

Ipertesto
Un ipertesto un insieme di documenti messi in relazione tra loro per
mezzo di parole chiave. Pu essere visto come una rete; i documenti ne
costituiscono i nodi. La caratteristica principale di un ipertesto che la
lettura pu svolgersi in maniera non lineare: qualsiasi documento della
rete pu essere "il successivo", in base alla scelta del lettore di quale
parola chiave usare come collegamento. possibile, infatti, leggere
all'interno di un ipertesto tutti i documenti collegati dalla medesima
parola chiave. La scelta di una parola chiave diversa porta all'apertura
di un documento diverso: all'interno dell'ipertesto sono possibili
praticamente infiniti percorsi di lettura. Prototipo di una console per ipertesto del 1969

L'ipertesto informatico la versione di ipertesto pi usata e pi diffusa


oggi. Il computer ha automatizzato il passaggio da un documento all'altro. I documenti sono leggibili a video grazie a
un'interfaccia elettronica, le parole chiave in esso contenute appaiono marcate (sottolineate oppure evidenziate, ecc)
in maniera da renderle riconoscibili.
L'ipertesto consiste in un collegamento alla parola chiave (opportunamente evidenziata allo scopo), che talvolta
appare nello schermo anche sotto forma di icona o immagine. Selezionando o posizionandosi su tale parola o oggetto
e facendo clic con il mouse oppure dando l'invio (per navigazione basata sulla tastiera) si ottiene come conseguenza
l'apertura di un altro documento, che si pu trovare sullo stesso server o altrove. Quindi le parole chiave funzionano
come collegamenti ipertestuali (hyperlink in inglese), che consentono all'utente di navigare verso informazioni
aggiuntive.
Dopo la nascita del World Wide Web (1993) l'ipertesto ha avuto un notevolissimo sviluppo. Tutto il web, infatti,
stato concepito dal suo inventore, l'inglese Tim Berners-Lee, come un ipertesto globale in cui tutti i siti mondiali
possono essere consultati da tutti. La pagina web il singolo documento e la "navigazione" il passaggio da un sito
all'altro tramite i "link" (ma anche da una pagina all'altra dello stesso sito o in un'altra parte della stessa pagina).
L'interfaccia per visualizzare i siti web (e le pagine ipertestuali contenute) il browser.

Collegamenti ipertestuali
Il World wide web utilizza il linguaggio HTML (HyperText Markup Language) per definire all'interno del testo
istruzioni codificate per il suo funzionamento. Se una pagina del web contiene informazioni su una parola (o termine
di qualsiasi natura) utilizzata su un nuovo documento HTML possibile creare un legame, chiamato collegamento
ipertestuale, tra questo nuovo documento e la pagina gi esistente. Per esempio, nel caso di un indice, allo stesso
modo possibile indirizzare parole di un documento a parti del medesimo.
Se si seleziona con il mouse la parola sottolineata dal tag di rimando o collegamento si visualizza il testo che
contiene la definizione o l'informazione aggiuntiva.
Ipertesto 36

Storia
Agostino Ramelli, ingegnere svizzero-italiano nato nel 1531, ide la "ruota dei libri", un leggo multiplo rotante,
ideato per consentire l'agevole lettura contemporanea di pi testi e che si pu considerare una prima forma di
ipertesto.
Nel 1929 il regista sovietico Sergej Michajlovi Ejzentejn nella prefazione di un suo libro si rammaric di non
potere raccogliere in un volume i suoi saggi in modo che fossero "percepiti tutti insieme simultaneamente" per
"comparare ciascun saggio direttamente con gli altri, di passare dall'uno all'altro avanti e indietro". Per Ejzentejn
l'unico tipo di libro in grado di soddisfare queste condizioni dovrebbe avere la forma di una sfera, "dove i settori
coesistono simultaneamente in forma di sfera, e dove, per quanto lontani possano essere, sempre possibile un
passaggio diretto dall'uno all'altro attraverso il centro della sfera". [1]
Il concetto di ipertesto stato rivalutato dall'informatica, a cui si interessata fin dalle sue origini. Nel 1945
l'ingegnere americano Vannevar Bush scrisse un articolo intitolato Come potremmo pensare nel quale descriveva un
sistema di informazione interconnesso chiamato Memex. Molti esperti non considerano tuttavia il Memex un vero e
proprio sistema ipertestuale. Nonostante ci, il Memex considerato la base degli ipertesti perch il saggio di
Vannevar Bush influenz direttamente Ted Nelson e Douglas Engelbart, universalmente riconosciuti come gli
inventori dell'ipertesto.
Secondo Ted Nelson, che coni il termine hypertext nel 1965, la definizione riveste un significato pi ampio,
coinvolgendo qualsiasi sistema di scrittura non lineare che utilizza l'informatica.
Nel 1980 il programmatore Bill Atkinson realizz per la Apple HyperCard, un'applicazione software che gestiva in
maniera semplice grandi quantit di informazioni sotto forma di testo o di immagini, dotato di un avanzato
linguaggio di programmazione ipertestuale, HyperTalk. Malgrado fosse disponibile solo per la piattaforma MacOS,
HyperCard divenne uno dei pi diffusi sistemi di realizzazione di ipertesti prima dell'avvento del World Wide Web,
Nel 1989 Tim Berners-Lee, ricercatore inglese del CERN, invent il World Wide Web con l'intento di dare una
risposta alla necessit espressa dalla comunit scientifica di un sistema di condivisione delle informazioni tra diverse
universit e istituti di tutto il mondo. All'inizio del 1993 il National Center for Supercomputing Applications (NCSA)
all'Universit dell'Illinois rese pubblica la prima versione del loro browser Mosaic. Mosaic girava in ambiente X
Window, popolare nella comunit scientifica, e offriva un'interfaccia di facile utilizzo. Il traffico web esplose,
passando da soli 500 web server noti nel 1993 a oltre 10mila nel 1994 dopo la pubblicazione della versione che
girava sia in ambiente Windows che MacOS.

Ipermedia
Con l'inserimento di contenuti da vari media diversi (multimedia) all'interno di un ipertesto, si cominciato a
utilizzare il termine ipermedia, per evidenziare appunto che il sistema non composto di solo testo.
La combinazione di fonti informative diverse dal punto di vista del mezzo e della sostanza permette ai singoli di
elaborare, attraverso l'ipermedia, della nuova informazione.

Ipertesto letterario
Mentre nel campo tecnico e scientifico l'ipertesto si rapidamente diffuso, tanto da diventare con il web uno
strumento indispensabile in questi settori, nel campo letterario invece rimasto confinato ad ambiti prevalentemente
sperimentali. La narrativa si infatti finora basata sul sistema sequenziale, lineare, di pagine di un libro stampato. La
possibilit data da un ipertesto di poter accedere in qualsiasi momento a percorsi di lettura diversi appare attraente
ma, con l'aumentare della complessit del sistema, tende a disorientare il lettore e pu stridere con molte delle
convenzioni narrative.
Ipertesto 37

La diffusione dell'ipertesto letterario e narrativo in Italia, a partire dalla met degli anni ottanta, ha tendenzialmente
cercato di ampliare il dibattito sulle specificit semiotiche dell'ipertesto in relazione alle sue finalit pi puramente
espressive. Ipertestualisti come Miguel Angel Garcia e Filippo Rosso rappresentano alcuni casi isolati di uno
scenario ancora prevalentemente nascosto. Il lavoro di questi ultimi, peraltro, pone domande aperte sulla
percorribilit effettiva di una futura canonizzazione dell'ipertesto su scala internazionale.

Iperfilm
L'Iperfilm un film con struttura ipertestuale o un ipertesto con lessie filmiche. Il fruitore sceglie da quale punto di
vista proseguire la visione degli eventi. Il primo iperfilm italiano stato realizzato dal regista Luigi Maria Perotti, il
prof. Pier Giuseppe Rossi e l'ing. Marco Marziali. Il progetto dal titolo Farina Stamen fu prodotto dall'Universit di
Macerata. Tradizionalmente, una narrazione propone al lettore una sorta di viaggio guidato dall'autore. Presuppone
dunque un autore molto attivo, impegnato a predisporre il percorso della narrazione e le sue tappe, lungo le quali
accompagnare il lettore. E presuppone un lettore disposto a farsi accompagnare lungo il percorso che l'autore ha
preparato per lui. Il Novecento ci ha insegnato che questo percorso pu non essere facile, pu rinunciare alle
rassicuranti unit aristoteliche di tempo, luogo e azione. Attraverso l'iperfilm si rinuncia all'idea stessa di un
percorso, narrando in maniera diversa.

Note
[1] In una nota contenuta in: Sergej Michajlovi Ejzentejn, Il montaggio, Venezia, Marsilio Editori, 1986. ISBN 88-317-4932-3

Bibliografia
G.P. Landow, L'ipertesto: tecnologie digitali e critica letteraria, Bruno Mondadori ed., Milano 1998
Come funziona un ipertesto:Produt.Francesco Marangon,volume 29 internet di "Grande enciclopedia per
ragazzi-internet"Mondatori, Milano 2007.
J. Nyce e P. Kahn (a cura di), Da Memex a Hypertext, Franco Muzzio ed., Padova 1992
L. Corchia, Che cos' un ipertesto (http://arp.unipi.it/dettaglioar.php?ide=124279), Scuola di dottorato in
Lingue e letterature straniere, Universit di Pisa, 1, 2007.

Voci correlate
Romanzo ipertestuale
Iperromanzo
Ipervideo

Collegamenti esterni
Ipertesti: una nuova rivoluzione culturale? (http://www.territorioscuola.com/saperi/ipertesto_Davide_Suraci.
html) Ipertesti e cultura - E in Italia? - Ipertesto: cos' - Articolo divulgativo di Davide Suraci - Anno 1997
Ipertestualit Aperta - CritLink Mediator Per La Collaborazione In Rete. (http://www.territorioscuola.com/
ipertesti/relazione.html) Seminario-Laboratorio del prof. Davide Suraci - ITAS "Matteo Ricci" - Macerata,
19-20-21 marzo 1999.
Dialogo Sopra i Minimi Saperi dell'Ipertesto... (http://www.territorioscuola.com/saperi/
dialogo_sopra_minimi.html) Riflessioni sull'ipertesto in Italia e trascrizione di dialoghi insieme a distanza fra
Davide Suraci, Enrico Galavotti e Felice Lacetera. Articolo divulgativo di Davide Suraci - Anno 2004
Per una critica del link (http://www3.unibo.it/boll900/numeri/1999-ii/Pellizzi.html) di F. Pellizzi
Anche il Talmud era un ipertesto (http://www.repubblica.it/online/internet/mediamente/kolb/kolb.html)
Intervista a David Kolb
Ipertesto 38

Dalla cibernetica alle reti neuronali (http://www.mediamente.rai.it/HOME/bibliote/intervis/s/selfridg.htm)


Intervista a Oliver Selfridge
Il confine aperto del testo (http://www.mediamente.rai.it/HOME/BIBLIOTE/intervis/l/landow.htm)
Intervista a George P. Landow
Il dibattito degli anni novanta sull'ipertestualit in campo letterario (http://www.labcity.it/Strumenti/Materiali/
Ildibattitosullipertestualit/tabid/65/language/en-US/Default.aspx)
Ipertesto una nuova frontiera per la lettura (http://selacapo.net/new/prima-pagina/2011/06/27/
lipertesto-una-nuova-frontiera-per-la-lettura-2/)
Il Tractatus di Wittgenstein: il primo vero ipertesto (http://www.bazzocchi.net/wittgenstein/)

Multimedialit
La multimedialit la compresenza e interazione di pi mezzi di comunicazione di massa in uno stesso supporto o
contesto informativo.
Il termine "multimedialit", diffuso tra la fine degli anni ottanta e l'inizio degli anni novanta, deriva dal latino
medium (= "mezzo", qui inteso come "mezzo di comunicazione") e si pu grossolanamente tradurre in "con molti
mezzi".
Nel corso degli anni, il termine "multimedialit" ha assunto molteplici connotazioni. Secondo lo studioso Maragliano
la multimedialit pu essere intesa come la confluenza di tre tradizioni mediali e culturali: quella della stampa,
caratterizzata da oggettivit, analiticit, sistematicit e chiusura; quella dell'audiovisione, dove sono presenti la
soggettivit, la globalit, l'apertura; quella dell'interattivit, dove l'utente ha una funzione co-autoriale. Anche la
ricerca psicologica ha contribuito ad ampliare il significato del termine, distinguendo due forme di multimedialit:
come formato di presentazione che utilizza pi canali sensoriali; come processo cognitivo che consente
l'acquisizione di nuove conoscenze.

Caratteristiche
Si parla di "contenuti multimediali", in ambito informatico, quando per comunicare un'informazione riguardo a
qualcosa ci si avvale di molti media, cio mezzi di comunicazione di massa, diversi: immagini in movimento
(video), immagini statiche (fotografie), musica e testo. Ad esempio, un'enciclopedia multimediale (come la presente
Wikipedia), a differenza di una normale enciclopedia cartacea, permette di associare ad ogni voce non solo la sua
spiegazione testuale, ma anche fotografie, disegni esplicativi, filmati, suoni, commenti audio ecc. Grazie alle
potenzialit espressivo-comunicative, la multimedialit si diffusa in ogni settore della cultura e societ,
dall'educazione al gioco, dalla documentazione allo spettacolo ecc. coinvolgendo ogni forma di comunicazione,
anche se viene sempre pi riferita o perfino fatta coincidere con i new media e il web, considerati multimediali fin
dall'origine e per loro stessa natura.

Oggetti multimediali
Per capire quando possiamo definire multimediale un oggetto o testo e poich oggi si utilizza il termine
multimedialit spesso in modo ambiguo, Giovanna Cosenza propone di chiarirlo attraverso il concetto semiotico di
testo sincretico[1], ovvero un testo la cui la stessa istanza di enunciazione mette in gioco una pluralit di linguaggi di
manifestazione, cio pi sistemi semiotici eterogenei. Spiega inoltre che il termine multimedialit utilizzato in
senso ristretto, intendendola come multisensorialit per l'utilizzo di molti canali sensoriali e molte oggetti espressivi,
e in senso lato, come forma di comunicazione che si realizza attraverso una pluralit di media combinati in modo da
generare una comunicazione nuova fruita in maniera multisensoriale, ma all'interno di una strategia unitaria. Fino a
pochi anni fa, multimediali erano comunemente definiti i CD-Rom e/o DVD in cui immagini, testo e suoni,
Multimedialit 39

combinati insieme, creavano un unico supporto da "leggere" unicamente su un computer. Oggi la multimedialit
molto di pi: Internet e una maggiore capacit di gestire contenuti multimediali hanno trasformato il personal
computer in un Mass Medium capace di trasformarsi in TV, radio o telefono, oltre che in libro o in macchina
fotografica. Oggi, quindi, per multimedia non si intende pi un contenuto legato a un'unica tipologia di supporto, ma
un'informazione fruibile, condivisibile e modificabile ovunque e su diversi dispositivi, dal computer al palmare, al
telefono, alla LIM (lavagna interattiva multimediale) recentemente entrata a far parte dei nuovi sussidi didattici
multimediali della scuola italiana.

Evoluzione
Con il termine multimedialit si fa riferimento ad ambienti che permettono l'utilizzo di altri sistemi simbolici oltre il
testo stampato (parola scritta e immagine statica). La nascita del cinema e, successivamente, della televisione hanno
consentito la creazione di ambienti multimediali veri e propri mediante l'utilizzo di immagini dinamiche e di suoni.
Pi recentemente, negli ultimi due decenni, la multimedialit ha subito trasformazioni verso due distinte direzioni
che Calvani[2] definisce "singolarizzazione" e "ipermedializzazione". Con il primo termine si intende il cambiamento
che ha consentito uno spazio crescente all'attivit del soggetto, mediante il passaggio da una multimedialit "fruita"
(cinema, televisione) ad una multimedialit "costruita" intesa come ambiente di scrittura e di espressione personale.
Con ipermedializzazione si fa riferimento alla dimensione "iper" ossia la possibilit di navigare o allestire pi piste
possibili non pi solo unidirezionali.
I media considerati nella loro evoluzione storica possono essere concepiti come un "processo continuo", nel quale le
nuove tecnologie diventano "ambienti di riproduzione" per le tecnologie pi vecchie. La multimedialit pu allora
essere descritta come un sistema continuo composto di tecnologie di tipo informatico e telematico, di reti di
distribuzione, prodotti off line, che riutilizzano i vecchi media digitalizzandoli.
Gi nel 1995 Nicholas Negroponte preconizzava che quando tutti i media sarebbero divenuti digitali si avranno due
risultati fondamentali: i bit si potranno mescolare facilmente, rendendo pervasiva la ricombinazione multimediale;
nascer un nuovo tipo di bit che parlano di altri bit, come etichette (oggi li chiamiamo tag); ne deriver un altro
cambiamento radicale nel panorama dei media[3]. L'inevitabile evoluzione che sta riformulando il concetto di
multimedialit quindi quella dei cosiddetti new media, ovvero quell'insieme di mezzi di comunicazione che
utilizzano il linguaggio digitale nella codifica delle informazioni, che offre enormi vantaggi in termini di modularit,
variabilit, interattivit e automazione[4]. Altri autori parlano di emergere di rich media - visibili ad esempio nei
formati pubblicitari online che fanno uso di audio, video, animazioni e tecnologia e che quindi vanno oltre i comuni
banner grafici o i link testuali - in cui si evidenzia l'obiettivo di creare un'esperienza sempre pi interattiva e
coinvolgente per il fruitore, organizzata secondo modalit che non si potrebbero ottenere con i singoli mezzi
considerati separatamente, seguendo quello due dei principi guida dell'evoluzione dei media, ovvero la metamorfosi
e l'ibridazione[5].

Multimedialit in rete
La multimedialit divenuta un componente essenziale nei servizi offerti della Rete Internet all'interno del
cosiddetto Web 2.0 e del paradigma del Web dinamico. I contenuti multimediali richiedono per una grande
richiesta di banda poich le immagini e pi in generale le immagini in movimento (video) contengono una grande
quantit di informazione rispetto a dati e audio. La diffusione dei contenuti multimediali audio-video (es. video
sharing, IPTV, streaming video, streaming audio ecc.) resa quindi possibile dalla parallela diffusione di tecniche di
compressione dati, sempre pi efficaci, che riducono l'informazione ridondante associata alla trasmissione
permettendo l'abbassamento del bit-rate associato cio dunque l'uso di una banda minore, evitando la saturazione
della capacit trasmissiva della rete. Inoltre i contenuti multimediali, come tutti gli altri contenuti Internet, possono
fluire in best-effort cio tramite semplice protocollo IP oppure con qualit di servizio garantita (es. tramite
architetture Intserv o Diffserv) laddove sono richieste garanzie sulle specifiche di trasmissione a favore dell'utente
Multimedialit 40

(es. IPTV).

Multimedialit e interattivit
Talvolta la multimedialit viene erroneamente fatta coincidere con l'interattivit. La confusione nasce dal fatto che
spesso la multimedialit affiancata dall'interattivit: ad esempio, la citata enciclopedia multimediale sar molto
probabilmente anche interattiva, ovvero permetter all'utente di interagire con essa (ovvero comunicare delle
indicazioni al programma che gestisce l'enciclopedia, tramite il mouse o la tastiera, e ricevere da esso delle risposte
sul monitor); in questo modo, l'utente potr "dire" all'enciclopedia se di un certo lemma vuole la definizione testuale,
oppure vuole vedere i filmati associati, o le foto, o ascoltare l'audio, ecc. Del resto la progressiva sovrapposizione tra
multimedialit e interattivit rientra nel processo di convergenza che i nuovi media digitali portano con s: una
sempre maggior emulazione e simulazione dell'interazione comunicativa tra individui. In senso proprio si pu quindi
parlare di multimedialit interattiva solo laddove vi sia un sistema che stabilisce con il suo utente una relazione
simile al dialogo prototipico - come studiato dal campo disciplinare denominato HCI, Human Computer Interaction
(Interazione uomo-computer).
In ogni caso, pur nella loro diversit, multimedialit e interattivit sono componenti o elementi nuovi ed essenziali
dei servizi della Rete Internet all'interno del cosiddetto Web 2.0 ovvero del paradigma del Web dinamico.

Multimedialit e ipertestualit
Altro termine che spesso crea confusione parlando di multimedialit l'ipertestualit: l'ipertestualit la
caratteristica di un documento di utilizzare la struttura dell'ipertesto; il prefisso iper sta ad indicare la maggiore
valenza di un documento ipertestuale rispetto a un documento tradizionale (cartaceo), dovuta al fatto che un
documento ipertestuale non deve essere obbligatoriamente letto in modo sequenziale, ma si pu saltare da una parte
all'altra senza seguire nessun ordine prestabilito. Per intenderci, la differenza tra un testo classico e un ipertesto la
stessa che passa tra un'audiocassetta e un compact disc: nel primo caso, per ascoltare un qualunque brano dovremo
prima posizionarci opportunamente sul punto desiderato del nastro, mentre nel secondo potremo in qualunque
momento ascoltare il primo, l'ultimo o un qualunque altro brano. A questo proposito, si utilizza a volte il neologismo
"ipermediale" o "ipermedialit" per indicare pi precisamente la fusione dei contenuti multimediali in una struttura
ipertestuale. Ancora Negroponte sosteneva che il concetto di multimedialit includesse necessariamente idee come
passare facilmente da un mezzo all'altro, dire la stessa cosa in modi diversi, trovando uno sbocco naturale in
interfacce multi-modali[6].

Multimedialit, insegnamento ed apprendimento


Sono ormai in molti a sostenere gli innumerevoli vantaggi che la multimedialit offrirebbe per favorire e migliorare
l'apprendimento: i sistemi ipermediali sarebbero in grado di fornire rappresentazioni della conoscenza sfruttando
differenti sistemi simbolici, permetterebbero di individuare e sviluppare prospettive di lavoro molteplici e
diversificate, favorirebbero una migliore autoregolazione nell'apprendimento.
La multimedialit all'interno di una prospettiva integrata, sistemica, pu essere pensata per formare: con la
multimedialit, alla multimedialit, attraverso la multimedialit, nella multimedialit, sulla multimedialit. Queste le
prospettive presentate:
Formare con la multimedialit: da sempre in atto anche nella formazione di tipo tradizionale, prevede l'utilizzo
della multimedialit per rendere meno monotono l'insegnamento; si traduce in una rottura della lezione frontale e
in un innalzamento dei livelli medi di attenzione.
Formare alla multimedialit: quando si utilizza la multimedialit per costruire ipermedia. Questo sistema, cambia
la prospettiva pedagogica dell'insegnamento-apprendimento, in quanto promuove una pedagogia della diversit
intesa come valore aggiunto.
Multimedialit 41

Formare attraverso la multimedialit: opportunit di utilizzare strumenti per favorire l'alfabetizzazione dei
soggetti ai linguaggi non verbali e/o possibilit di mettere a confronto prospettive, modi di pensare diversi
utilizzando la multimedialit.
Formare nella multimedialit: si fa riferimento alla formazione a distanza, oggi definita anche "on line education".
La multimedialit diviene "ambiente di apprendimento", il docente un "facilitatore".
Formare sulla multimedialit: individua la multimedialit come oggetto di riflessione, per promuovere nei
soggetti in formazione atteggiamenti corretti e consapevolezza critica, intesa come risultato di un percorso
personale che prevede "attivit di lettura critica" della multimedialit e "attivit di analisi critica" del suo
consumo.
I media digitali non sono solamente strumenti didattici. L'utilizzo dei nuovi media genera delle vere e proprie
trasformazioni nel recepire, trasmettere e organizzare le informazioni sia nei docenti che nei discenti. necessario
considerare come le tecnologie provochino modificazioni nell'organizzazione della mente e analizzare i conseguenti
cambiamenti che avvengono nei processi della conoscenza e della comunicazione. Queste trasformazioni,
approfondite dallo studioso Derrick de Kerckhove che ha introdotto il concetto di cervello cibernetico, impongono
un ripensamento delle funzioni cognitive della mente e di conseguenza delle modalit stesse di
insegnamento/apprendimento[7] La multimedialit favorisce l'apprendimento immersivo. I giovani vivono in un
ambiente sonoro, caratterizzato dal sistema dei media (tv, radio, telefono...), di conseguenza apprendono molto
spesso anche inconsapevolmente mediante la partecipazione e condivisione di contenuti audio/video. Questa
tipologia di apprendimento multimediale si differenzia nettamente da quello monomediale che avviene per
astrazione, infatti l'apprendimento gutenberghiano caratterizzato dalla tecnologia visiva, scrittura e stampa, che
ha catapultato il mondo nel silenzio. Pertanto la galassia multimediale ha restituito l'oralit, modificando anche le
modalit di apprendimento. L'uso dei nuovi media muta anche l'ambiente scolastico, considerato cross-mediale
perch l'ampliamento dei new media costringe necessariamente la scuola a rivedere non solo i metodi didattici,
considerati ormai obsoleti, ma anche gli ambienti e spazi di apprendimento. Il digitale introduce delle novit nel
ruolo dei soggetti coinvolti formatore/formando ma anche una rivisitazione della cassetta degli attrezzi.
Le caratteristiche dello spazio ridefinito possono essere riassunti nei seguenti punti: - la didattica svolta in aula
implica presenza, mentre utilizzando ambienti multimediali lo spazio didattico assume una nuova dimensione perch
la lezione si svolge in uno spazio "aperto". Questo comporta una nuova forma di interazione tra i soggetti: i ruoli
definiti in presenza si trasformano, il docente non pi una figura centrale, il suo ruolo cambia verso quello di
facilitatore. La comunicazione tra i membri della classe virtuale si trasforma passando dallo schema gutenberghiano,
che prevedeva la comunicazione basata sul principio uno a molti, a quello reticolare molti-molti.
La concentrazione/dispersione un'altra caratteristica che differenzia la didattica tradizionale da quello fruibile
on-line, e in un ambiente multimediale. Si va da una concentrazione data dall'utilizzo del libro, alla dispersione
dovuta alla molteplicit dei contenuti dell'attivit formativa. Gli insegnanti, sono tenuti a rinnovare gli strumenti
didattici quali penna, carta, lavagna, gessetti, in virt dei nuovi media, integrandoli con e-book, computer, LIM, ecc.
Nell'ambito della multimedialit esistono osservazioni ed indagini che hanno evidenziato alcuni effetti negativi sul
ricordo e sulla comprensione, conseguenti alla somministrazione del materiale in un formato multimediale. Una
spiegazione possibile che la multimedialit, pur offrendo nuovi modi di esprimere i contenuti, spesso viene
utilizzata con l'unico scopo di rendere maggiormente attraente il materiale, in modo da focalizzare su di esso
l'attenzione del destinatario del messaggio, ma ignorando le seguenti condizioni che sono alla base dei principi
dell'apprendimento multimediale:
Contiguit spaziale: gli studenti apprendono meglio quando le parole e le immagini corrispondenti sono
presentate vicine;
Contiguit temporale: gli studenti apprendono maggiormente quando parole e immagini sono presentate nello
stesso momento, poich saranno pi in grado di mantenere le rappresentazioni mentali insieme nella memoria
attiva e di connetterle;
Multimedialit 42

Coerenza: gli studenti imparano di pi quando il materiale interessante ma non rilevante per il tema trattato
testo, figure, suoni - escluso dalla presentazione;
Modalit: gli studenti apprendono di pi quando il messaggio multimediale presentato come testo parlato
piuttosto che scritto;
Ridondanza: gli studenti apprendono maggiormente da animazioni e narrazioni piuttosto che da animazioni,
narrazioni e testo.

Multimedialit e mercato
Secondo una ricerca presentata dalla Rai [8] al 5 Forum mondiale della Tv, al Palazzo dell'ONU a New York,
dedicata all'analisi delle nuove opportunit create dalla convergenza multimediale [9], i mercati europei della
comunicazione valgono il 25 - 30% dei mercati mondiali, mentre nel settore dell'industria musicale rappresentano il
34% circa del valore complessivo mondiale. Nel mercato dell'elettronica di consumo, l'Europa totalizza il 22% del
totale degli affari mondiali, mentre nel settore del broadcasting televisivo si arriva al 28% del mercato mondiale e nel
settore radiofonico al 30%. Un interessante studio sulla convergenza multimediale e apertura dei mercati espone le
prospettive, i problemi, e le soluzioni della rivoluzione digitale [9] che chiama in causa la convergenza multimediale
da un punto di vista tecnologico e normativo.

Studi sulla multimedialit


Precursori delle tematiche della multimedialit, in quanto fondatori del campo di studi sui media, sono stati Walter
Lippmann, Harold D. Lasswell, Kurt Lewin, Joseph T. Klapper, Paul Lazarsfeld, Edgar Morin, Marshall McLuhan,
Jean Baudrillard. Ma lo studio dei media legati alla multi-medialit ottiene una sua specifica attenzione soprattutto a
partire dall'introduzione dei cosiddetti new media, ovvero i media che sfruttano la versatilit e la potenza dei processi
di digitalizzazione dell'informazione e della comunicazione. Pierre Lvy ha approfondito l'impatto delle nuove
tecnologie dell'informazione e comunicazione sulle societ contemporanee e coniato il termine intelligenza
collettiva. Lev Manovich si interessato agli aspetti linguistici e semantici, con particolare attenzione al cinema.
Nicholas Negroponte ha tematizzato il digitale come dimensione pervasiva del vivere contemporaneo. Jan van Dijk
ha approfondito gli aspetti sociologici legati alla cosiddetta CMC (comunicazione mediata dal computer), James E.
Katz ha sviluppato studi sulla multimedialit unita alla Mobile Communication, Henry Jenkins ha introdotto il
concetto di intermedialit, focalizzando l'attenzione sui processi di integrazione e convergenza che stanno avvenendo
grazie alla digitalizzazione dell'informazione.

Bibliografia
Aa.Vv., Nuovi media, vecchi media, a cura di M. Santoro, Bologna 2007
Aa.Vv., The Cambridge Handbook of Multimedia Learning, a cura di Richard E. Mayer, Cambridge 2005
P. Boccia, Comunicazione e mass media, Napoli 1999
P. Boccia, Linguaggi e multimedialit, Napoli 2004
A. Calvani, Manuale di Tecnologia dell'educazione, Pisa 2001
G. Cosenza, Semiotica dei nuovi media, Bari 2008
J. van Dijk, Sociologia dei nuovi media, Bologna 2002
P. Ferri, E-LEARNING, Didattica, comunicazione e tecnologie digitali., Le Monnier Universit, Firenze, 2009.
P. Ferri, Teorie e tecniche dei nuovi media, Pensare formare lavorare nell'epoca della rivoluzione digitale,
Milano 2006
P. Ferri, S. Mizzella, F. Scenini, I nuovi media e il web 2.0. Comunicazione, formazione ed economia nella
societ digitale, Milano 2009
S. Garassini, Dizionario dei nuovi media, Milano 1999
A. Giovenali, Dizionario dei nuovi media: dalle nuove tecnologie multimediali a internet, Milano 1997
Multimedialit 43

T. Gitlin, Sommersi dai media. Come il torrente delle immagini e dei suoni invade le nostre vite, Milano 2003D.
U. Guidolin, Pensare digitale: teorie e tecniche dei nuovi media, Milano 2004
D. de Kerckhove, Brainframes. Mente, tecnologia, mercato, Bologna 1993
H. Jenkins, Cultura convergente, Milano 2007
A. Lamberti, S. Budelli, Multimedialit, costituzione e integrazione europea, Perugia 2004
P. Lvy, Cybercultura: gli usi sociali delle nuove tecnologie, Milano 2001
Mammarella-Cornoldi-Pazzaglia, Psicologia dell'apprendimento multimediale, Bologna, 2005
S. Manca, Multimedialit, comunicazione ed apprendimento: una rivisitazione dei rapporti tra parola, immagine
ed azione, rivista TD24 n 3-2001, ITD CNR Genova.
L. Manovich, Il linguaggio dei nuovi media, Milano 2002
R. Maragliano, Nuovo Manuale di didattica multimediale, Editori Laterza, 1998
R. Maragliano, Nuovo manuale di didattica multimediale, Bari 2007
S. Marcelli, Il gran simpatico: telematica, nuovi media, multimedialit, Roma 1994
L. Messina, Andar per segni. Percorsi di educazione ai media, Padova 2004
N. Negroponte, Essere digitali, Milano 2004
P. C. Rivoltella, Formazione del soggetto e multimedialit, Milano 2001
G. Riva, Psicologia dei nuovi media, Bologna 2004
L. Toschi, Il linguaggio dei nuovi media, Milano 2002

Note Bibliografiche
[1] G. Cosenza, Semiotica dei nuovi media, Laterza, Bari 2008, pag. 18
[2] A. Calvani, Manuale di Tecnologia dell'educazione, ed. Pisa, ETS, 2004, pp. 104-105
[3] N. Negroponte, Essere digitali, Sperling & Kupfer, Milano 1995, pagg 8,9 e 59-72
[4] G. Riva, Psicologia dei nuovi media, Il Mulino, Bologna 2004, pagg. 23 e 30
[5] G. Bettetini, S. Garassini, B. Gasparini, N. Vittadini, I nuovi strumenti del comunicare, Bompiani, Milano 2001, pag. 85 e 169
[6] ibidem, pagg. 70 e 96
[7] . P. Ferri, Teorie e tecniche dei nuovi media, Pensare formare lavorare nell'epoca della rivoluzione digitale, ed. Milano, Guerini Studio, 2006,
pp. 131-134
[8] http:/ / www. ufficiostampa. rai. it/ comunicati_aziendali/ 20001117/
rai__ricerca_sulla_multimedialit%C3%A0_presentata_al_5__forum_onu_sulla_tv. html
[9] http:/ / www. antonionicita. it/ assets/ docdivulgativo. pdf

Voci correlate
Alfabetizzazione multimediale
Artmedia
Convergenza (multimedialit)
Interattivit
Ipertesto
Multimedialit 44

Collegamenti esterni
[*http://www.apprendereinrete.it/Risorse_online_per_la_scuola/Multimedialita/
Multimedialita:_troviamo_una_definizione.kl Multimedialit]
Osservatorio Multicanalit (http://www.multicanalita.net)
http://www.antonionicita.it/assets/docdivulgativo.pdf
http://www.ufficiostampa.rai.it/comunicati_aziendali/20001117/
rai__ricerca_sulla_multimedialit%C3%A0_presentata_al_5__forum_onu_sulla_tv.html

Software libero
Il software libero software pubblicato con una licenza che permette a chiunque di utilizzarlo e che ne incoraggia lo
studio, le modifiche e la redistribuzione; per le sue caratteristiche, si contrappone al software proprietario ed
differente dalla concezione open source, incentrandosi sulla libert dell'utente e non solo sull'apertura del codice
sorgente, che comunque un pre-requisito del software libero.[1]

Caratteristiche
La parola libero non implica la possibilit di utilizzare tale software in maniera indiscriminata: il software libero
comunque soggetto ad una licenza d'uso, a differenza ad esempio del software di pubblico dominio.
Rispetto al software proprietario, la licenza d'uso del software libero
permette di:
eseguire il programma per qualsiasi scopo;
accedere alla struttura interna del programma (codice sorgente),
studiarla ed eventualmente modificarla;
ridistribuirlo in un numero di copie illimitato.
La licenza d'uso pone in genere i seguenti vincoli:
gli autori precedenti del software devono essere menzionati anche Stallman durante il suo intervento a Wikimania
nelle versioni modificate, lasciando intatto il loro copyright; [2]
2005 (Francoforte sul Meno)
in seguito ad una modifica, non possibile applicare una licenza
d'uso incompatibile con la licenza originaria o che vada contro le norme della licenza stessa. Per esempio
chiunque pu riemettere del software pubblicato sotto LGPL usando la licenza GPL (tale operazione anche
chiamata upgrade della licenza), mentre non possibile fare il contrario (naturalmente se non si il detentore
unico del copyright);
normalmente, nella licenza, vi una clausola che sancisce la non usabilit del software se non si rispetta la licenza
d'uso o se una o pi norme della stessa licenza non sono valide per termini di legge;
quando si distribuisce un codice binario occorre o distribuire insieme anche i sorgenti o garantire per iscritto la
possibilit a tutti gli utenti di venirne in possesso dietro richiesta ed al solo costo del supporto
Software libero 45

Le "quattro libert"
Secondo Richard Stallman e la Free Software Foundation da lui fondata, un software si pu definire libero solo se
garantisce quattro "libert fondamentali"[3]:
1. Libert 0
Libert di eseguire il programma per qualsiasi scopo.
2. Libert 1
Libert di studiare il programma e modificarlo[4].
3. Libert 2
Libert di ridistribuire copie del programma in modo da aiutare il prossimo.
4. Libert 3
Libert di migliorare il programma e di distribuirne pubblicamente i miglioramenti, in modo tale che tutta la
comunit ne tragga beneficio[4].
Un programma software libero se l'utente ha tutte queste libert. In particolare, se libero di ridistribuire copie, con
o senza modifiche, gratis o addebitando delle spese di distribuzione a chiunque ed ovunque. Essere liberi di fare
queste cose significa (tra l'altro) che non bisogna chiedere o pagare nessun permesso.

Licenze d'uso libere


Buona parte del software libero viene distribuito con la licenza GNU GPL (GNU General Public License), scritta da
Richard Stallman e Eben Moglen per garantire legalmente a tutti gli utenti le quattro libert fondamentali. Dal punto
di vista dello sviluppo software, la licenza GPL viene considerata una delle pi restrittive, poich impone che
necessariamente ogni prodotto software derivato - ovvero, che modifica o usa codice sotto GPL - venga a sua volta
distribuito con la stessa licenza. Anche MediaWiki, il software usato per Wikipedia, distribuito con licenza GPL.
Una licenza simile, ma meno restrittiva, la GNU LGPL (GNU Lesser General Public License), che permette di
utilizzare il codice anche in software proprietario e sotto altre licenze opensource, purch le parti coperte da LGPL -
anche se modificate - vengano comunque distribuite sotto la medesima licenza. In genere utilizzata per librerie
software.
Non tutte le licenze ritenute libere sono compatibili tra di loro, cio in alcuni casi non possibile prendere due
sorgenti con due licenze libere ed unirle per ottenere un prodotto unico. Questo avviene quando non esista e non sia
possibile creare una licenza che possa soddisfare i requisiti delle licenze originali. Ad esempio la licenza BSD
originale, pur essendo considerata licenza di software libero, incompatibile con la GPL[5]; per ovviare al problema
stato necessario creare una "licenza BSD modificata" compatibile con la GPL.
Un'altra licenza degna di nota l'Apache License, prodotta dalla Apache Software Foundation; la versione 2 di
questa licenza compatibile con la GPL versione 3 ma non con la GPL versione 2[6]. L'Apache License considera un
prodotto derivato alla stregua della LGPL, ma pi liberale nella concessione delle propriet intellettuali.
Le varie licenze libere possono contenere ulteriori limitazioni per alcune situazioni particolari; per esempio la GPL
prevede che si possa esplicitamente vietare l'uso del software nelle nazioni dove tale licenza non valida o dove dei
brevetti software impediscono la distribuzione di tale software.
Le licenze d'uso non vietano in genere di vendere software libero e di solito non stabiliscono minimamente il
possibile prezzo di vendita.
Software libero 46

Differenze rispetto all'open source


Essendo la disponibilit del codice sorgente uno dei requisiti fondamentali che accomuna il software libero ed il
software open source, spesso si indotti a considerare i due concetti equivalenti, ma in realt non lo sono.
Un software open source se i termini secondo i quali viene distribuito rispondono alla Open Source Definition
dell'Open Source Initiative (OSI): in particolare, se una licenza rientra in tale definizione, allora tale licenza pu
essere dichiarata licenza open source. La definizione potrebbe cambiare nel tempo (nessuno garantisce che questo
non possa accadere) e quindi possibile che una licenza attualmente open source non lo sia nel futuro o viceversa.
OSI anche l'organizzazione che su richiesta certifica con il relativo marchio registrato il fatto che una licenza sia
effettivamente aderente alla Open Source Definition. Recentemente l'OSI ha posto un freno al proliferare delle
licenze dichiarando che cercher di limitare il numero di licenze che nel futuro saranno ritenute licenze open source.
Questo potrebbe, in linea teorica, far s che una licenza ritenuta libera non venga ritenuta open source.
Una licenza invece libera (o meglio, una versione di una licenza libera) se e solo se rispetta le quattro libert
fondamentali. Pertanto se una versione di una licenza libera, allora lo sar per sempre. Naturalmente sempre
complesso, almeno per un cittadino "normale" (non esperto di leggi), stabilire se una licenza libera o meno perch
entrano in gioco i termini legali utilizzati nella stessa. Il progetto GNU si occupa tra l'altro anche di indicare se una
licenza libera o meno e se compatibile con le licenze GNU o meno[7].
Il software libero inoltre non deve essere confuso con il software freeware, che distribuibile gratuitamente, ma che
non n software libero n open source: il software libero infatti non detto che sia gratuito ovvero pu anche
essere a pagamento e il termine free in inglese va inteso in italiano appunto come libero, nel senso dei principi
suddetti, e non gratuito.
In ogni caso, gli insiemi di applicativi designati da software libero e open source coincidono a meno di poche
eccezioni. La differenza fondamentale nel tipo di approccio: parlando di software libero si pone l'accento sugli
aspetti sociologici ed etici, che sono volutamente rimossi nella visione open source.

Storia
L'idea di software libero nasce agli inizi degli anni ottanta, quando lo sviluppo del software cominci a passare di
mano dalle universit alle aziende (software proprietario), ponendo un pesante freno alla collaborazione che
caratterizzava il lavoro di gran parte dei programmatori e dei sistemisti dell'epoca, soprattutto con i patti di non
divulgazione che le aziende facevano firmare ai programmatori che assumevano.
In realt il software "commerciale" esisteva da sempre, ma i costi elevati dell'hardware facevano s che il business
delle aziende non fosse concentrato sul software, che era considerato una parte naturale del prodotto, ed i cui sorgenti
erano in genere pubblici. Con il passare del tempo il software divent sempre pi complesso e difficile da realizzare
e le aziende iniziarono a non distribuire i sorgenti e obbligare i propri dipendenti a non rivelare nulla per non
avvantaggiare la concorrenza; inoltre con il crollo dei costi dell'hardware, lo sviluppo commerciale del software
divenne un business notevole, ed il codice sorgente era divenuto un investimento prezioso che poteva da un lato far
acquisire una fetta di tale mercato in rapida crescita e dall'altro legare i propri utenti al proprio software mantenendo
il segreto sui metodi utilizzati per lo sviluppo di sistemi e applicazioni.
In questo modo le aziende cominciavano ad utilizzare la legge sul diritto d'autore per impedire ai concorrenti di
leggere e modificare i loro prodotti, assicurandosi il controllo dei propri clienti che, senza pi poter vedere e
modificare il codice sorgente del software, non potevano pi adattarlo alle loro esigenze ma dovevano chiedere alle
aziende di farlo per loro.
Nel 1983 Stallman fond il Progetto GNU con l'intenzione di creare un sistema operativo completamente libero.
Grazie alla collaborazione di molti sviluppatori volontari, all'uso di Internet per la coordinazione del progetto e al
kernel Linux di Linus Torvalds, nel 1991 nacque GNU/Linux, un clone di UNIX liberamente distribuibile e
modificabile.
Software libero 47

In Italia si riscontra una sempre maggiore attenzione per il software libero, vi sono associazioni che giornalmente
dedicano molte attenzioni ed energie nella tutela e nel rispetto delle norme che regolano (o dovrebbero regolare)
l'utilizzo del software libero nelle varie strutture pubbliche, come anche la Pubblica Amministrazione. Una delle pi
importanti sentenze registrate negli ultimi giorni riguarda l'Associazione per il Software Libero: con una sentenza a
lungo attesa il Tribunale Amministrativo Regionale del Lazio riconosce ad Assoli il diritto di perseguire i suoi scopi
statutari agendo anche in giudizio ove fosse necessario.

Aspetti filosofici e sociali


Nel software libero il significato della parola libero ha un'accezione particolare. Si gi sottolineato che la libert
del software libero non incondizionata, perch soggetta ai precisi vincoli della licenza d'uso, come qualsiasi altra
licenza d'uso, solo che in questo caso l'autore si "espropria" di alcuni diritti per cederli agli utenti. Questi vincoli
sono studiati in maniera tale da favorire il tipo di libert cosiddetta copyleft, ovvero che ha come obiettivo la
condivisione del sapere. Pertanto il software libero parte da considerazione sociali e per molti aspetti una forma di
filosofia.
Le implicazioni sociali del software libero sono notevoli. La condivisione del sapere non permette a un gruppo
ristretto di persone di sfruttare la conoscenza (in questo caso tecnologica) per acquisire una posizione di potere.
Inoltre, promossa la cooperazione delle persone, che tendono naturalmente ad organizzarsi in comunit, cio in
gruppi animati da un interesse comune.
Il modello del software libero si naturalmente esteso ad altri campi del sapere. Chi crede nel modello copyleft
pensa che questo possa essere applicato ad esempio alla musica o alla divulgazione. L'esempio pi riuscito di
applicazione di questo modello ad un campo differente dal software oggi Wikipedia, che promuove la condivisione
del sapere e la formazione di una comunit.

Differenti correnti di pensiero


Tra i sostenitori del software libero, e pi in generale del copyleft, vi sono diverse correnti di pensiero, che spaziano
da una visione radicale ad una pi moderata.
La visione pi radicale tende ad un modello che si spinge molto oltre a quello del software libero, arrivando in alcuni
casi ad auspicare una completa abolizione del software proprietario, considerato una limitazione inaccettabile della
libert e dei diritti dell'uomo. Questa ideologia stata, erroneamente o almeno impropriamente, paragonata a correnti
politiche quali il comunismo, sebbene solitamente i sostenitori del software libero non entrino in questioni politiche.
Chi su posizioni pi moderate considera il software libero un ideale a cui tendere, non negando la possibilit di
esistere al software proprietario e pi in generale allo sfruttamento commerciale del diritto d'autore, sfruttamento che
pu essere fatto anche usando software libero, come dimostrano vari casi di successo (es: MySQL).
La licenza LGPL stata concepita per permettere una certa integrazione tra software libero e software non libero. C'
chi ritiene inopportuno un suo utilizzo perch permette l'integrazione, sotto determinate condizioni, di software
libero da parte di software non libero[8]; tuttavia ogni autore di software pu decidere liberamente che licenza
scegliere e quindi sotto quali condizioni permettere l'uso del proprio lavoro.
Software libero 48

Vantaggi del software libero


A prescindere dalle implicazioni sociali, secondo i suoi sostenitori il software libero presenta numerosi vantaggi
rispetto al software proprietario:
essendo possibile modificare liberamente il software, possibile personalizzarlo ed adattarlo alla proprie esigenze
il codice sorgente sottoposto ad una revisione da parte di moltissime persone, pertanto pi difficile che
contenga bachi e malfunzionamenti. In ogni caso, sempre possibile per chiunque tenere un indice pubblico dei
problemi, in modo che gli utenti li conoscano
se viene scoperto un baco o una falla di sicurezza, la sua correzione di solito molto rapida[9]
essendo il sorgente liberamente consultabile, molto difficile inserire intenzionalmente nel software backdoor,
cavalli di Troia o spyware senza che questi vengano prontamente scoperti ed eliminati, come invece accaduto
per alcune applicazioni commerciali (ad esempio il caso del database Firebird della Borland che conteneva una
backdoor scoperta quando di tale software sono stati pubblicati i sorgenti)
non esistendo standard proprietari, le cui specifiche sono normalmente segrete, molto pi facile costruire
software interoperabile
permettere a chiunque di modificare i sorgenti garantisce che ogni nuova funzionalit o copertura di un baco
possa essere proposta da chiunque e immediatamente applicata dagli sviluppatori. Questo permette di avere
rapidamente a disposizione un software che rispetta le esigenze di chi ha richiesto le modifiche in caso di
necessit[9]
la complessit e le dimensioni di alcune applicazioni di software libero (ad esempio, dei sistemi operativi) tale
che necessario il supporto commerciale di un'azienda; il software libero si presta a creare nuove opportunit di
business nel campo della formazione e del supporto, oltre che della eventuale personalizzazione del software.
collaborando con sviluppatori volontari e utilizzando il lavoro della comunit, anche le piccole e medie imprese
sono in grado di sviluppare e vendere prodotti di alta qualit, senza dover ampliare il loro organico.

Critiche al software libero


Secondo alcuni il software libero avrebbe delle limitazioni e degli svantaggi rispetto al software proprietario:
essendo un lavoro volontario, lo sviluppo del software libero sarebbe pi lento rispetto al software proprietario;
tesi espressa da Bill Gates nella sua lettera aperta ai programmatori dilettanti[10]. Bill Gates ha inoltre
particolarmente criticato la GPL in quanto licenza virale e non economicamente sostenibile[11].
alcune tipologie di software, soprattutto di nicchia, non sarebbero disponibili come software libero; infatti il
software di nicchia non avrebbe abbastanza utenti per la creazione di una comunit che supporti lo sviluppo del
software.
lo sviluppo del software libero avrebbe una struttura anarchica, che porta a risultati incoerenti e ad una mancanza
di uniformit e consistenza[12].
nonostante il codice sorgente sia liberamente disponibile, non tutti sono in grado di apportarvi modifiche[13]
Alcune di queste critiche sono talvolta frutto di un'errata comprensione del software libero. Molte persone tendono
infatti a considerare il software libero come prodotto esclusivamente da volontari, mentre sono molti i casi in cui
semplicemente un modello di sviluppo adottato a livello aziendale.

Applicazioni commerciali del software libero


Il software libero non deve necessariamente essere sviluppato a titolo gratuito o a fondo perduto. Purch si rispettino
i vincoli della licenza d'uso, possibile vendere del software libero; all'interno dei documenti del progetto GNU,
Stallman incoraggia la vendita di software libero. Stando alla GPL, per, il primo che compra un software libero ha
il diritto di redistribuirlo gratis, quello che succede ad esempio con REHL e CentOS, quindi il modello non
sostenibile. Infatti non c' alcuna azienda che fa business sulla vendita di Free Software, ma semmai su servizi e
Software libero 49

assistenza.
Vi sono inoltre alcune aziende che adottano il modello di sviluppo del software libero per i propri prodotti
commerciali. Il ritorno economico in questo caso pu derivare dalla fornitura di assistenza e di know-how.
Un caso diverso quello di alcuni esempi di software che vengono pubblicati con un sistema di "licenze multiple".
In pratica lo stesso software viene licenziato sia come proprietario, sia come software libero. La versione libera
talvolta dispone di meno funzionalit, o limitata ad un numero ristretto di piattaforme. Esempi celebri di software a
doppia licenza sono il database MySQL, di cui esiste una versione "Pro Certified Server" a pagamento e una
versione "Community Edition" pubblicata con licenza GPL, e la libreria Qt[14].
Vi sono poi aziende che sono strutturate integralmente per la vendita e l'assistenza di un determinato software libero:
esempi classici sono alcune distribuzioni di GNU/Linux, come Red Hat o SUSE. Queste aziende utilizzano come
base il software sviluppato dalla comunit, aggiungendo una serie di tool di configurazione o sviluppo, curando gli
aspetti pi tecnici e dando agli utenti finali un'assistenza mirata.
Sfruttando le caratteristiche della licenza BSD, alcune aziende preferiscono invece partire da software libero per
sviluppare un prodotto non libero. Per esempio il sistema operativo proprietario Microsoft Windows implementava,
fino alla versione NT 4.0, lo stack di rete utilizzando codice sotto licenza BSD.

Note
[1] Perch l'Open Source manca l'obiettivo del Software Libero, di Richard Stallman
[2] http:/ / wikimania2005. wikimedia. org/ wiki/ Main_Page
[3] Definizione di Software Libero (http:/ / www. gnu. org/ philosophy/ free-sw. it. html)
[4] L'accesso al codice sorgente ne un prerequisito.
[5] BSD License Problem (http:/ / www. gnu. org/ philosophy/ bsd. html).URL consultato in data 23-12-2007.
[6] Apache License Version 2.0 and GPL compatibility (http:/ / www. gnu. org/ licenses/ license-list. html#apache2).URL consultato in data
14-04-2009.
[7] Various Licenses and Comment about Them (http:/ / www. gnu. org/ licenses/ license-list. html).URL consultato in data 23-12-2007.
[8] Why you shouldn't use the Lesser GPL for your next library (http:/ / www. gnu. org/ licenses/ why-not-lgpl. html).URL consultato in data
23-12-2007.
[9] Use of Free and Open Source Software in the U.S. Department of Defence (http:/ / www. terrybollinger. com/ dodfoss/ dodfoss_pdf.
pdf).URL consultato in data 23-12-2007.
[10] An open Letter to Hobbysts (http:/ / www. flora. ca/ gates_letter. txt).URL consultato in data 23-12-2007.
[11] Gates: GPL will eat your economy, but BSD's cool (http:/ / www. theregister. co. uk/ 2002/ 04/ 22/ gates_gpl_will_eat_your/ ).URL
consultato in data 23-12-2007.
[12] Some Vulnerabilities of The Cathedral and the Bazaar (http:/ / www. softpanorama. org/ Articles/
a_second_look_at_the_cathedral_and_the_bazaar. shtml#Some_Vulnerabilities).URL consultato in data 23-12-2007.
[13] Open Source Problems and Limitations (http:/ / www. softpanorama. org/ Articles/ oss_as_academic_research. shtml#b4).URL consultato
in data 23-12-2007.
[14] Business Model (http:/ / www. trolltech. com/ trolltech/ company/ about/ businessmodel).URL consultato in data 23-12-2007.

Bibliografia
Simone Aliprandi, Apriti standard! Interoperabilit e formati aperti per l'innovazione tecnologica (http://www.
aliprandi.org/apriti-standard), Ledizioni/Copyleft-Italia.it, 2010. Disponibile anche su Wikimedia Commons a
questo link (http://commons.wikimedia.org/wiki/
File:Apriti_Standard!_Interoperabilit_e_formati_aperti_per_l'innovazione_tecnologica.pdf)
AA.VV., Revolution OS. Voci dal codice libero. A cura di A.Mari, S. Romagnolo. Apogeo Editore, 2003. ISBN
88-503-2154-6
Simone Aliprandi, Copyleft & opencontent - L'altra faccia del copyright (http://www.copyleft-italia.it/it/libri/
copyleft-opencontent.html), ed. PrimaOra, 2005
Simone Aliprandi (a cura di), Compendio di libert informatica e cultura open (http://www.copyleft-italia.it/
libri/liberta-cultura-open), PrimaOra/Copyleft-Italia.it, 2006. ISBN 88-901724-3-6. Disponibile anche su
Software libero 50

Wikimedia Biblioteca a questo link (http://biblioteca.wikimedia.it/wiki/


File:Compendio_di_liberta_informatica.pdf)
(con Alessandro Gilioli), Arturo Di Corinto I nemici della rete , BUR-Biblioteca Universale Rizzoli, 2010 ISBN
978-88-17-04275-8
Arturo Di Corinto, Revolution OS II. Software libero, propriet intellettuale, cultura e politica. Apogeo, 2006,
EAN: 9788850323272).
Lawrence Lessig, Cultura libera. Un equilibrio fra anarchia e controllo, contro l'estremismo della propriet
intellettuale (http://www.copyleft-italia.it/pubblicazioni/Lessig-CulturaLibera.pdf), Apogeo, 2005. ISBN
978-88-503-2250-3.
Lawrence Lessig, Il futuro delle idee. Feltrinelli, 2006. ISBN 978-88-07-17123-9.
Richard M. Stallman, Software libero pensiero libero - Volume primo, Viterbo, Stampa Alternativa, 2003. ISBN
978-88-7226-754-7.
Richard M. Stallman, Software libero pensiero libero - Volume secondo, Viterbo, Stampa Alternativa, 2004.
ISBN 978-88-7226-786-8.
Giovanni Ziccardi, Libert del codice e della cultura (Giuffr, 2006).
Gruppo Ippolita, Open non Free, Comunit digitali tra etica hacker e mercato globale (http://www.ippolita.
net/files/open_non_e_free_ippolita.pdf), Eluthera, 2005
Gerardo Pastore, Democrazia Informazione. Una riflessione sui movimenti free software e open source, Erreci
Edizioni, Anzi-Potenza 2009

Presentazioni
Nicola Asuni, Software Libero (http://www.slideshare.net/tecnickcom/software-libero) - Introduzione al
Software Libero, LinuxDay CA, 2010

Documentazione
Daniele Medri. Linux facile (http://linuxfacile.medri.org/download/linuxfacile_5.0-1.pdf) (copyleft)
Daniele Giacomini. Appunti di informatica libera (copyleft)

Voci correlate
GNU, Free Software Foundation e Richard Stallman
GNU GPL, GNU LGPL, GNU FDL, Licenza artistica
Licenza open source, Licenza libera
Comparazione di licenze libere
GNU/Linux, FreeBSD, OpenBSD, NetBSD
Copyright e Copyleft
Elenco di casi di adozione di software libero
FLOSS e FOSS
Free Software Song
Software libero 51

Altri progetti
Wikisource contiene opere originali: http://it.wikisource.org/wiki/:Categoria:Software Libero
Wikinotizie contiene notizie di attualit: http://it.wikinews.org/wiki/Categoria:Software libero

Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Free


software
Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Software libero

Collegamenti esterni
GNU.org (http://www.gnu.org/home.it.html)
(EN) Free Software Foundation (http://www.fsf.org/)
Free Software Foundation Europe (http://fsfe.org/index.it.html/)
AsSoLi - Associazione per il Software Libero (http://www.softwarelibero.it/)
(FR) Storia del Software Libero (http://www.web-libre.org/)
Guida al software libero per l'ufficio (http://www.ufficioopen.it/)
Lezione sul Software Libero (http://www.bononia.it/~renzo/fortic/) di Renzo Davoli
Elenco di software libero (http://linguistico.sourceforge.net/pages/elenco_di_software_libero.html)

Open source
In informatica, open source, termine inglese che significa Codice sorgente aperto, indica un software i cui autori
(pi precisamente i detentori dei diritti) ne permettono, anzi ne favoriscono il libero studio e l'apporto di modifiche
da parte di altri programmatori indipendenti. Questo realizzato mediante l'applicazione di apposite licenze d'uso.
L'open source ha tratto grande beneficio da Internet, perch esso permette a programmatori geograficamente distanti
di coordinarsi e lavorare allo stesso progetto.
I software open source attualmente pi diffusi sono Firefox, VLC, Gimp, 7-Zip, oltre ad un gran numero di progetti
rivolti non all'utente finale ma ad altri programmatori.[1] Sono inoltre degne di nota le famiglie di sistemi operativi
BSD, GNU, Android e il kernel Linux i cui autori e fautori hanno contribuito in modo fondamentale alla nascita del
movimento. La comunit open source molto attiva, comprende decine di migliaia di progetti,[2] numero
tendenzialmente in crescita.
Alla filosofia del movimento open source si ispira il movimento open content (contenuti aperti): in questo caso ad
essere liberamente disponibile non il codice sorgente di un software ma contenuti editoriali quali testi, immagini,
video e musica. Wikipedia un chiaro esempio dei frutti di questo movimento. Attualmente l'open source tende ad
assumere rilievo filosofico, consistendo di una nuova concezione della vita, aperta e refrattaria ad ogni oscurantismo,
che l'open source si propone di superare mediante la condivisione della conoscenza.
Open source 52

Storia

La condivisione del codice fino agli anni settanta


A partire dagli anni cinquanta, e soprattutto negli anni sessanta, stato possibile riusare lo stesso codice e distribuirlo
anche se in modo oggi ritenuto piuttosto artigianale, ovvero con nastri e schede perforate. Questo fenomeno divent
evidente soprattutto quando si afferm il vantaggio di usare una stessa porzione di codice, il che presupponeva di
avere macchine uguali e problemi simili.
Fino a tutti gli anni settanta, anche se in misura decrescente, la componente principale e costosa di un computer era
l'hardware, il quale era comunque inutile in assenza di software. Da ci la scelta dei produttori di hardware di
vendere il loro prodotto accompagnato da pi software possibile e di facilitarne la diffusione, fenomeno che rendeva
pi utili le loro macchine e dunque pi concorrenziali. Il software, tra l'altro, non poteva avvantaggiare la
concorrenza in quanto funzionava solo su un preciso tipo di computer e non su altri, neanche dello stesso produttore.
L'introduzione dei sistemi operativi rese i programmi sempre pi portabili, in quanto lo stesso sistema operativo
veniva offerto dal produttore di diversi modelli di hardware. La presenza di sistemi operativi funzionanti per
macchine di differenti produttori hardware ampliava ulteriormente le possibilit di usare lo stesso codice in modo
relativamente indipendente dall'hardware usato. Uno di questi sistemi operativi era Unix, iniziato nel 1969 come
progetto all'interno di un'impresa delle telecomunicazioni, la AT&T. Una famosa causa antitrust contro la AT&T le
viet di entrare nel settore dell'informatica. Questo fece s che Unix venisse distribuito ad un prezzo simbolico a
buona parte delle istituzioni universitarie, le quali si ritrovarono ad avere una piattaforma comune, ma senza alcun
supporto da parte del produttore. Si cre spontaneamente una rete di collaborazioni attorno al codice di questo
sistema operativo, coordinata dall'Universit di Berkeley, da dove sarebbe poi uscita la versione BSD di Unix, che
diventa da un lato un centro di sviluppo ed innovazione, dall'altro la base di partenza per numerosi fork.

La nascita del software proprietario


Considerato che la condivisione del codice nata insieme all'informatica, piuttosto che di origini dell'Open Source
potrebbe essere pi appropriato parlare, invece, di origine del software proprietario, ed esaminare il contesto storico
in cui questa origine ha avuto luogo.
L'utilit principale delle licenze restrittive consiste nella possibilit di rivendere un programma pi volte, se
necessario con alcune modifiche purch non rilevanti. Questo presuppone che esistano clienti diversi con esigenze
simili, oltre che l'esistenza di pi computer sul quale poter far eseguire il programma. Queste condizioni cominciano
a determinarsi negli anni sessanta, grazie al fatto che esisteva un maggior numero di utilizzatori con esigenze
standardizzabili come lo erano quelle delle organizzazioni economiche nell'area della contabilit, la logistica o delle
statistiche.
L'introduzione dei sistemi operativi rese inoltre possibile l'utilizzo dello stesso programma anche su hardware
differente aumentando cos le possibilit di riutilizzo dello stesso codice e dunque l'utilit nell'impedire la
duplicazione non autorizzata dei programmi.
La suddivisione della AT&T in 26 societ, le cosiddette BabyBell, permise alla AT&T di usare logiche prettamente
commerciali nella distribuzione del suo sistema operativo Unix, innalzando notevolmente i costi delle licenze e
impedendo la pratica delle patch. Il 1982 fu anche l'anno della divisione delle diverse versioni commerciali di Unix,
portate avanti dai singoli produttori di hardware. Questi ultimi, effettuando delle piccole modifiche alla propria
versione del sistema operativo, impedirono ai propri utenti l'utilizzo di altri sistemi, facendo in modo che i
programmi scritti per la propria versione di Unix non funzionassero su versioni concorrenti.
Open source 53

Gli anni ottanta: Stallman, la Free Software Foundation e l'innovazione dei PC


Al MIT la sostituzione dei computer fece s che i programmatori non potessero accedere al sorgente del nuovo driver
di una stampante Xerox per implementarvi una funzionalit gradita in passato: la segnalazione automatica che vi
erano problemi con la carta inceppata. Contemporaneamente, societ private cominciarono ad assumere diversi
programmatori del MIT, e si diffuse la pratica di non rendere disponibili i sorgenti dei programmi firmando accordi
di non divulgazione (in inglese: NDA, ovvero Non-Disclosure Agreement).
In questo contesto molti programmatori - fra i quali Richard Stallman che sarebbe diventato il portabandiera del
software libero - si rifiutarono di lavorare per una societ privata. Stallman fond nel 1985 la Free Software
Foundation (FSF), una organizzazione senza fini di lucro per lo sviluppo e la distribuzione di software libero. In
particolare lo sviluppo di un sistema operativo completo, compatibile con UNIX, ma distribuito con una licenza
permissiva, con tutti gli strumenti necessari altrettanto liberi. Si tratta del progetto nato l'anno precedente, ovvero
GNU, acronimo ricorsivo per contemporaneamente collegarsi e distinguersi da UNIX, ovvero "GNU's Not UNIX".
L'obiettivo principale di GNU era essere software libero. Anche se GNU non avesse avuto alcun vantaggio tecnico
su UNIX, avrebbe avuto sia un vantaggio sociale, permettendo agli utenti di cooperare, sia un vantaggio etico,
rispettando la loro libert.
Tale progetto, finanziato dalla FSF, venne pertanto prodotto da programmatori appositamente stipendiati. I principali
contributi vennero da Stallman stesso: il compilatore gcc e l'editor di testo Emacs. Furono sviluppate anche altre
componenti di sistema UNIX, alle quali si sono aggiunte applicazioni per veri e propri giochi. Questi programmi
furono distribuiti per circa 150$ che oltre a coprire i costi di riproduzione garantivano un servizio di supporto al
cliente. L'unica condizione era che tutte le modifiche eventualmente effettuate su tali programmi venissero notificate
agli sviluppatori.
Nacque cos la GNU General Public License (GPL), il preambolo del cui manifesto comincia con:

'Le licenze per la maggioranza dei programmi hanno lo scopo di togliere all'utente la libert di condividerlo e di
modificarlo. Al contrario, la GPL intesa a garantire la libert di condividere e modificare il free software, al fine di
assicurare che i programmi siano "liberi" per tutti i loro utenti.

Gli anni ottanta sono caratterizzati da alcuni eventi importanti, tra i quali l'introduzione nel mercato di quello che
verr chiamato Personal Computer (PC), ovvero un elaboratore con un proprio processore concepito per essere
utilizzato da un solo utente alla volta. Il prodotto di maggior successo, il PC della IBM, si differenziava dai progetti
precedenti in quanto non utilizzava componenti IBM, ma sia per il software che per l'hardware si affidava alla
produzione da parte di terzi. Ci rese possibile da un lato ad altre imprese di clonare il PC IBM, abbattendone
notevolmente i costi, dall'altro permise a parecchie societ di produrre dei software applicativi standard, in
concorrenza gli uni con gli altri, basandosi su un unico sistema operativo, anche se inizialmente i principali
produttori di software erano identificabili con prodotti per specifiche applicazioni.
Il notevole ampliamento del mercato rese possibili economie di scala e si instaur una sorta di sinergia tra quelli che
sarebbero diventati i principali attori del settore: il produttore dei processori Intel e il produttore del sistema
operativo e di applicativi per ufficio Microsoft. La maggiore potenza dei processori rese possibile lo sviluppo di
programmi pi complessi, la maggiore complessit degli applicativi e del sistema operativo richiesero processori pi
potenti instaurando in un certo modo un circolo vizioso di aggiornamenti continui.
Sia il sistema operativo che gli applicativi furono subito caratterizzati dall'essere destinati ad utenti con conoscenze
informatiche relativamente scarse e dall'avere licenze d'uso strettamente commerciali, vietando da un lato agli utenti
di farne delle copie, dall'altro agli sviluppatori di vedere o modificare il codice.
Sempre negli anni ottanta vennero introdotte le workstation, ovvero un sistema basato su terminali (i client) e
computer centrali (i server). Si tratta di sistemi derivati concettualmente dai mainframe e basati essenzialmente su
sistemi operativi UNIX proprietari. L'hardware stesso varia sul lato server dai mainframe ai PC, mentre su lato client
vengono impiegati soprattutto i PC. Ci favor lo sviluppo di software sia per i client, utilizzati spesso da persone
Open source 54

con scarse conoscenze informatiche, che per i server, il cui funzionamento viene solitamente garantito da personale
informatico particolarmente qualificato.

Gli anni novanta: Internet, Linux e la Open Source Definition


Bench Internet avesse visto la luce gi negli anni settanta, soltanto agli inizi degli anni novanta, con la diffusione
del protocollo HTTP e la nascita dei primi browser, che Internet cominci ad essere diffuso prima in ambito
accademico e poi in modo sempre pi capillare anche tra semplici privati.
All'inizio degli anni novanta, il progetto GNU non aveva ancora raggiunto il suo obiettivo principale, mancando di
completare il kernel del suo sistema operativo (HURD). Per sopperire a tale mancanza, William e Lynne Jolitz
riuscirono ad effettuare il porting di UNIX BSD su piattaforma Intel 386 nel 1991. Purtroppo, negli anni successivi
tale porting si trov ad affrontare problemi di natura legale USL v. BSDi che ne ritardarono temporaneamente lo
sviluppo.
Nello stesso anno, Linus Torvalds, studente al secondo anno di informatica presso l'Universit di Helsinki, decise di
sviluppare un proprio sistema operativo imitando le funzionalit di Unix su un PC con un processore Intel 386. Tale
processore venne scelto per il suo minor costo e per la sua maggiore diffusione rispetto alle piattaforme hardware per
le quali erano disponibili i sistemi operativi Unix. Torvalds era spinto dall'insoddisfazione riguardante alcuni
applicativi di Minix (un sistema Unix-like su piattaforma PC), dal desiderio di approfondire le proprie conoscenze
del processore Intel 386, e dall'entusiasmo per le caratteristiche tecniche di Unix.
Torvalds distribu il proprio lavoro tramite Internet e ricevette immediatamente un ampio riscontro positivo da parte
di altri programmatori, i quali apportarono nuove funzionalit e contribuirono a correggere errori riscontrati. Nacque
cos il kernel Linux, il quale fu subito distribuito con una licenza liberale.
Internet dal canto suo, rende possibile la comunicazione tra persone molto distanti in tempi rapidi e a basso costo.
Inoltre rende possibile la distribuzione di software direttamente dalla rete, riducendo ulteriormente i costi di
duplicazione e le difficolt a reperire il software stesso. La diffusione dei CD-ROM come supporto privilegiato di
raccolte di software rese possibile il fenomeno delle cosiddette distribuzioni.
Linux pu essere considerato come il primo vero progetto "open source" cio come il primo progetto che faceva
affidamento essenzialmente sulla collaborazione via Internet per progredire; fino ad allora, infatti, anche i progetti di
software libero come Emacs erano stati sviluppati in maniera centralizzata seguendo un progetto prestabilito da un
ristretto numero di persone, in base cio ai principi 'standard'di ingegneria del software. Si assumeva valida anche
per i progetti open source la 'legge di Brooks', secondo cui "aggiungere sviluppatori a un progetto in corso di
implementazione in realt rallenta il suo sviluppo", legge che ovviamente non applicabile a un progetto di sviluppo
open source.
Agli inizi degli anni novanta, l'idea delle licenze liberali era rappresentata soprattutto da Richard Stallman e la sua
FSF, ovvero le licenze liberali per eccellenza erano la GPL e la LGPL che per venivano ritenute "contagiose", in
quanto a partire da un codice licenziato con la GPL qualsiasi ulteriore modifica deve avere la stessa licenza. Le idee
stesse di Stallman venivano viste con sospetto dall'ambiente commerciale statunitense, il che non facilitava la
diffusione del software libero. Per favorire dunque l'idea delle licenze liberali nel mondo degli affari, Bruce Perens,
Eric S. Raymond, Ockman e altri cominciarono nel 1997 a pensare di creare una sorta di lobby a favore di una
ridefinizione ideologica del software libero, evidenziandone cio i vantaggi pratici per le aziende e coniarono il
termine "Open Source". Ci anche al fine di evitare l'equivoco dovuto al doppio significato di free nella lingua
inglese, visto che spesso veniva interpretato come "gratuito" invece che come "libero". L'iniziativa venne portata
avanti soprattutto da parte di Raymond che, in occasione della liberalizzazione del codice sorgente di Netscape,
voleva utilizzare un tipo di licenza meno restrittivo per le aziende di quanto fosse il GPL.
La scelta a favore dell'Open Source da parte di alcune importanti imprese del settore come la Netscape, l'IBM, la Sun
Microsystems e l'HP, facilitarono inoltre l'accettazione del movimento Open Source presso l'industria del software,
facendo uscire l'idea della "condivisione del codice" dalla cerchia ristretta nella quale era rimasta relegata fino ad
Open source 55

allora. Venne cio accettata l'idea che l'open source fosse una metodologia di produzione software efficace,
nonostante nel suo famoso saggio La Cattedrale e il Bazaar, Eric S. Raymond avesse esplicitamente criticato i
tradizionali metodi di ingegneria del software, metodi che fino a quel momento avevano dato buoni frutti. Va notato
come i primi programmi 'liberi', come il GCC, seguivano ancora il modello a cattedrale; solo successivamente
progetti come EGCS adottarono il modello a bazaar.

Commissioni e audizione alla Commissione Cultura della Camera italiana


L'attivit della Commissione per il software a codice sorgente aperto nella Pubblica Amministrazione, detta anche
Commissione Meo, ha prodotto, nel maggio 2003, la pubblicazione dell'"Indagine conoscitiva sul software open
source" che, accanto ad un quadro generale, contiene interessanti proposte per la diffusione del software open source
nella PA italiana. La pi rilevante tra le proposte che le PP.AA. non devono vietare n penalizzare l'utilizzo di
pacchetti open source: il criterio che deve valere al momento della selezione di una qualsivoglia soluzione software
quello del value for money.
Queste conclusioni hanno fortemente orientato il legislatore italiano. La prima ricaduta legislativa, esito diretto
dell'indagine conoscitiva sui programmi informatici a codice sorgente aperto, la cosiddetta Direttiva Stanca: il 19
dicembre 2003 l'allora Ministro per l'Innovazione e le Tecnologie, On. Stanca, adottava la direttiva Sviluppo ed
utilizzazione dei programmi informatici da parte delle pubbliche amministrazioni il cui contenuto sostanziale veniva
successivamente trasfuso nel D. Lgs. 82/05 (Codice dell'amministrazione digitale) con l'intenzione di comportare
vantaggi nella scelta dei programmi pi efficienti e convenienti, ma anche risparmi derivanti dalla condivisione
conseguente al riuso all'interno delle amministrazioni pubbliche.
I principali contenuti della "Direttiva Stanca sono i seguenti (in particolare derivanti dagli articoli 3, 4 e 7):
analisi comparativa delle soluzioni. La direttiva dispone che le Pubbliche Amministrazioni acquisiscano
programmi informatici sulla base di una valutazione comparativa tecnica ed economica tra le diverse soluzioni
disponibili sul mercato, tenendo conto della rispondenza alle proprie esigenze.
Criteri tecnici di comparazione. Le Pubbliche Amministrazioni nell'acquisto dei programmi informatici devono
privilegiare le soluzioni che assicurino l'interoperabilit e la cooperazione applicativa tra i diversi sistemi
informatici della Pubblica Amministrazione, salvo che ricorrano peculiari ed eccezionali esigenze di sicurezza e
di segreto.
Rendere i sistemi informatici non dipendenti da un unico fornitore o da un'unica tecnologia proprietaria.
Garantire la disponibilit del codice sorgente per l'ispezione e la tracciabilit da parte delle Pubbliche
Amministrazioni.
Esportare dati e documenti in pi formati, di cui almeno uno di tipo aperto.
Oltre alla Direttiva menzionata, altri sono gli interventi legislativi che considerano l'Open Source come meritevole di
attenzione economica e tecnica come, ad esempio, il gi citato Decreto Legislativo 7 marzo 2005, n. 82, art. 68,
comma 1, lettera d) Codice dell'amministrazione digitale e le successive integrazioni e modificazioni (Decreto
Legislativo 4 aprile 2006, n. 159 Disposizioni integrative e correttive al decreto legislativo 7 marzo 2005, n. 82,
recante codice dell'amministrazione digitale) e, recentemente, la Legge 27 dicembre 2006, n.296 - Disposizioni per
la formazione del bilancio annuale e pluriennale dello Stato (legge finanziaria 2007). Quest'ultima istituiva un Fondo
di 10 milioni di Euro (comma 892) al fine di sostenere la realizzazione di progetti per la societ dell'informazione, la
cui destinazione prioritaria era rivolta a progetti che "utilizzano o sviluppano applicazioni software a codice aperto".
Recentemente vi stata la riproposizione della Commissione Open Source 2007, sempre presieduta dal Prof. Angelo
Raffaele Meo, presso il Ministero per le Riforme e le Innovazioni nella Pubblica Amministrazione stata istituita la
Commissione Nazionale per il software Open Source nella PA. Il decreto ministeriale istitutivo della Commissione
(16 maggio 2007), a firma del Ministro Nicolais, ha definito tre obiettivi prioritari:
un'analisi dello scenario europeo ed italiano del settore;
Open source 56

la definizione di linee guida operative per supportare le Amministrazioni negli approvvigionamenti di software
open source;
un'analisi dell'approccio open source per favorire cooperazione applicativa, interoperabilit e riuso.
I lavori della Commissione, presieduta dal prof. Meo, si sono svolti essenzialmente in modalit on-line supportati
dall'Osservatorio OSS del CNIPA. Si sono svolte anche attivit di audizione, in particolare la Commissione ha
supportato l'organizzazione del convegno Open Source Open Ideas for Public Administration [3] - OSPA 2008
promosso dall'Associazione Concreta-Mente [4]. Nell'aprile 2008 la Commissione ha prodotto una prima bozza di
Relazione.[5]
Nel 2007 il tema dell'open source stato portato autorevolmente presso il Parlamento italiano. La commissione
cultura della Camera ha ascoltato, nella forma di una audizione, il prof. Arturo Di Corinto, Richard Stallman e Bruce
Perens [6] in un'audizione ufficiale dalla commissione cultura della Camera dei deputati. Anche il convegno
Condividi la conoscenza (organizzato in pi edizioni) ha tentato di allargare la base di adesione del mondo
accademico sull'open source e sull'Open content con l'obiettivo di fare ascoltare la propria voce anche dal mondo
politico.

Modalit di guadagno
Lo sviluppo opensource ha tra le sue caratteristiche quello di essere quasi sempre gratuito, tanto da creare confusione
tra alcuni che credono che opensource e gratuito siano sinonimi. Ci si potrebbe chiedere perch delle persone si
dedichino allo sviluppo di progetti talvolta semplici, talvolta impegnativi e complessi, senza una remunerazione. In
realt, ci possono essere delle forme di guadagno (non sempre) e si pu ricorrere ad una o pi strategie per questo
scopo. Nella seguente lista, con "sviluppatore" si pu intendere sia uno o pi privati, sia un'azienda che crea ed
eventualmente si occupa di migliorare il programma o prodotto software:
1. donazioni: lo sviluppatore d la possibilit di fare delle donazioni non obbligatorie a chi usa il suo programma,
come ringraziamento o come incoraggiamento per un ulteriore sviluppo
2. servizio di supporto a pagamento: il programma gratuito ma si paga per avere il supporto dello sviluppatore;
se il supporto prevede donazioni, si pu ritenere simile al punto precedente
3. sponsorizzazione: il programma o il sito che lo ospita pu contenere il nome o altro tipo di pubblicit ad
un'azienda che supporta economicamente lo sviluppatore; pu anche succedere che un'azienda si occupi dello
sviluppo di un programma gratuito e conti sulla pubblicit che riscuoter da esso per farsi conoscere
4. guadagni grazie alla didattica: se il prodotto creato particolarmente complesso, spesso si tratta di un linguaggio
di programmazione nuovo o una libreria (o framework ecc.) con scopi particolari per un linguaggio di
programmazione, lo sviluppatore pu guadagnare grazie all'organizzazione di corsi di apprendimento del
prodotto, la vendita di libri eccetera. Questo tipo di guadagno pu risentire della concorrenza di guide che sono o
saranno pubblicate gratuitamente in rete da parte di utenti, e pu dar vita ad una strategia di mercato piuttosto
complessa. Nei casi di librerie (o framework) che vogliono fare concorrenza a prodotti esistenti, si deve
convincere che essi siano efficaci e pi facili degli altri prodotti disponibili. Pu anche essere che il produttore
metta in rete delle introduzioni all'apprendimento del proprio prodotto che per non coprono tutte le potenzialit
dello stesso. Allo stesso tempo si cerca di creare una comunit di supporto e contemporaneamente un gergo che
l'accomuni. Il gergo pu far uso di termini nuovi che rimpiazzano quelli in uso, giustificati con motivazioni
diverse (ad esempio, le funzioni in Java sono chiamate metodi nonostante compiano azioni o restituiscano un
risultato dopo un'elaborazione che in matematica ed informatica sono chiamate funzioni). Talvolta pu dar vita ad
una serie di acronimi che rendono quasi criptico il linguaggio (vedasi il framework Spring). In tal modo si riesce a
far diminuire il numero degli autodidatti che imparano in rete, spingendo chi vuole apprendere a comprare libri
per l'apprendimento e le pratiche ottimali da seguire e/o seguire corsi ed allo stesso tempo si crea una comunit di
sviluppatori fedele nel tempo, spesso unita anche da una "filosofia" di programmazione.
Open source 57

Studi e Ricerche
OSPA (Open Studies for Public Administration) un gruppo di lavoro dell'Associazione Concreta-Mente [4]
orientato a studiare il tema dell'innovazione organizzativa e tecnologica nella Pubblica Amministrazione. Integra
competenze verticali di origine accademica e professionale con l'obiettivo di formulare proposte concrete e
presentarle ai decisori istituzionali nel contesto di eventi pubblici. Il gruppo di lavoro OSPA organizza annualmente
dal 2008 un convegno nel quale sono presentati e discussi con interlocutori di diverse estrazioni i risultati delle
ricerche sull'innovazione nelle Pubbliche Amministrazioni. Ad oggi ha coinvolto nelle sue attivit: 6 Universit e
Centri di Ricerca Nazionali, pi di 50 aziende del settore privato, oltre 250 Amministrazioni Pubbliche sia locali che
centrali.
OSPA 2008 [3] stato il primo momento in Italia di incontro e confronto tra PA, imprese e universit sul tema
dell'open source nelle Pubbliche Amministrazioni. L'iniziativa dei convegni OSPA poi proseguita negli anni
successivi.
A partire dagli spunti raccolti nel corso della prima edizione, il convegno OSPA 2009 stato dedicato a verificare
l'esistenza di interrelazioni tra cambiamento organizzativo e adozione di soluzioni open in 16 diverse
amministrazioni, e ad approfondirne la natura. I casi di studio esaminati, i risultati della ricerca e le discussioni
attivate sono stati raccolti nel volume Open Source nella Pubblica Amministrazione - OSPA '09 [7], che anche
possibile scaricare gratuitamente [8].
L'edizione OSPA 2010[7] stata orientata all'approfondimento verticale su due temi di grande rilevanza per la
promozione e valutazione dell'innovazione nella PA: il Riuso di soluzioni software tra amministrazioni diverse, e il
Total Cost of Ownership, come strumento per supportare le decisioni di adozione. Anche in questo caso, i risultati
delle ricerche presentati al convegno e le riflessioni degli esperti intervenuti sono stati raccolti in un volume, OSPA
10 - Strumenti per l'Innovazione nella PA [9], che si pu anche scaricare gratuitamente [10].

Note
[1] The Open Source Census (http:/ / www. osscensus. org/ packages-rank-public. php)
[2] Freecode directory (cfr. numero di progetti con una licenza approvata da OSI) (http:/ / freecode. com/ )
[3] http:/ / www. concreta-mente. it/ images/ opensource/ concretamente_ospa08_callforideas_v07-cp. pdf
[4] http:/ / www. concreta-mente. it
[5] Archivio Notizie (http:/ / www. innovazionepa. gov. it/ ministro/ salastampa/ notizie/ 1022. htm)
[6] Rassegna stampa (http:/ / www. dicorinto. it/ wp-content/ uploads/ 2007/ 06/ rassegna-stampa-rep-sw. pdf)
[7] http:/ / www. lulu. com/ product/ a-copertina-morbida/ open-source-nella-pubblica-amministrazione---ospa-09/
6270404?productTrackingContext=search_results/ search_shelf/ center/ 3
[8] http:/ / www. lulu. com/ product/ ebook/ open-source-nella-pubblica-amministrazione---ospa-09/
17377833?productTrackingContext=search_results/ search_shelf/ center/ 4
[9] http:/ / www. lulu. com/ product/ a-copertina-morbida/ ospa-10---strumenti-per-linnovazione-nella-pa/
18661303?productTrackingContext=search_results/ search_shelf/ center/ 1
[10] http:/ / www. lulu. com/ product/ ebook/ ospa-10---strumenti-per-linnovazione-nella-pa/ 18852634?productTrackingContext=search_results/
search_shelf/ center/ 2
Open source 58

Bibliografia
Simone Aliprandi, Copyleft & opencontent. L'altra faccia del copyright, PrimaOra, 2005, disponibile on line su
www.copyleft-italia.it/libro (http://www.copyleft-italia.it/libro) (CCpl)
Mariella Berra, Angelo Raffaele Meo, Informatica solidale. Storia e prospettive del software libero, 2001, Bollati
Boringhieri, ISBN 8833913635 (copyright)
Mariella Berra, Angelo Raffaele Meo, Libert di software, hardware e conoscenza. Informatica solidale 2, 2006,
Bollati Boringhieri, ISBN 8833916464 (copyright)
Arturo Di Corinto, Tommaso Tozzi, "Hacktivism. La libert nelle maglie della rete", 2002, Manifestolibri, ISBN
88-7285-249-8 (copyleft)
Arturo Di Corinto, Revolution OS II. Software libero, propriet intellettuale, cultura e politica, Apogeo Editore,
2005 ISBN 88-503-2327-1 (CCpl)
Giovanna Frigimelica, Andrea Marchitelli, Open source in biblioteca: how to? (http://bollettino.cilea.it/
viewarticle.php?id=786). "Bollettino del CILEA", 114.
Gruppo di ricerca Ippolita, Open non free. Comunit digitali tra etica hacker e mercato globale, Eleuthera,
2005, ISBN 88-89490-04-7, (copyleft) (http://ippolita.net/onf)
Pekka Himanen, L'etica hacker e lo spirito dell'et dell'informazione, 2001, Feltrinelli, ISBN 88-07-17059-0
(copyright)
M.Marchesi, G.Concas, G.De Petra, F.Marzano, P.Zanarini (a cura di), "Finalmente libero!" (http://
finalmentelibero.ning.com/), McGraw-Hill, 2007.
Daniele Medri, Linux Facile, (copyleft) (http://linuxfacile.medri.org)
Carlo Piana, Simone Aliprandi, Italy in Ywein Van den Brande, Shane Coughlan, Till Jaeger (a cura di),
International Free and Open Source Software Law Review, Open Source Press GmbH, 2011. URL consultato il 15
settembre 2011.
Revolution OS: Voci dal codice libero, Apogeo Editore, 2003, ISBN 88-503-2154-6 (copyleft)
Paolo Spagnoletti, Tommaso Federici (2011), Exploring the Interplay Between FLOSS Adoption and
Organizational Innovation (http://aisel.aisnet.org/cais/vol29/iss1/15/), Communications of the Association
for Information Systems (CAIS), Vol. 29, Art. 15, pp.279298
Linus Torvalds - David Diamond, Rivoluzionario per caso. Come ho creato Linux (solo per divertirmi), 2001,
Garzanti, ISBN 88-11-73896-2 (copyright)
Sam Williams, Free as in Freedom. Richard Stallman's crusade for free software, 2002, O'Reilly, ISBN
0-596-00287-4 (copyleft)
CNIPA (a cura di), Linee guida allo sviluppo di software riusabile multiuso nella Pubblica Amministrazione (i
Quaderni n.38) (http://archivio.cnipa.gov.it/html/docs/cnipa_quad_38_int_a.pdf), Roma, CNIPA, gennaio
2009. URL consultato il 3 maggio 2011.

Voci correlate
Metodologia agile
Open content
Licenza open source
Open Source Definition
Differenza tra software libero e open source
Hardware open source
Software libero
Open source 59

Altri progetti
Wikisource contiene opere originali: http://it.wikisource.org/wiki/Categoria:Open Source
Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Open source

Collegamenti esterni
Open source (http://www.dmoz.org/World/Italiano/Computer/Programmazione/Open_Source) su Open
Directory Project ( Segnala (http://www.dmoz.org/public/suggest?cat=World/Italiano/Computer/
Programmazione/Open_Source) su DMoz un collegamento pertinente all'argomento "Open source")
gioblu.com - Tutorials Open Source Arduino / Elettronica in Italiano (http://www.gioblu.com)
Effetti del brevetto sull'Open Source (http://www.nosoftwarepatents.com/it/m/dangers/linux.html)
"Riflessioni sull'open source in Svizzera" - Articolo di swissinfo (http://www.swissinfo.ch/ita/
scienza_e_technologia/detail/La_Svizzera_riflette_sull_open_source.html?siteSect=511&sid=8645439&
cKey=1200921748000&ty=st)
Tutorials in Italiano sui sistemi operativi Open source (http://www.oscene.net/)
Open Source Software (http://www.myopensource.org/it/)
(EN) Come gestire un progetto open source (http://www.tldp.org/HOWTO/Software-Proj-Mgmt-HOWTO/
index.html)
(EN) Open Source Software List (http://www.webi.org)
(EN) Open Source Web Design (http://www.oswd.org)

Creative Commons
Creative Commons

Logo di Creative Commons

Tipo ONG

Fondazione 2001

Sede centrale San Francisco

Area di azione Mondo

Presidente Lawrence Lessig

[1]
Sito web

Creative Commons (CC) un'organizzazione non profit con sede a San Francisco (USA) dedicata ad ampliare la
gamma di opere creative disponibili alla condivisione e all'utilizzo pubblici in maniera legale. Rende possibile il
riuso creativo di opere dell'ingegno altrui nel pieno rispetto delle leggi esistenti.
L'organizzazione ha pubblicato diversi tipi di licenze note come licenze Creative Commons (CC): queste licenze
permettono ai creatori di scegliere e comunicare quali diritti riservarsi e a quali diritti rinunciare a beneficio dei
destinatari. Le licenze forniscono un modo semplice e standardizzato per dare pubblicamente il permesso di
Creative Commons 60

condividere e utilizzare il lavoro creativo in base alle condizioni stabilite dai creatori.
La missione di Creative Commons ben rappresentata dal logo dell'organizzazione (CC), che rappresenta una via di
mezzo tra il rigido modello del copyright (C) (Tutti i diritti riservati, All rights reserved e quello invece di pubblico
dominio (PD) (Nessun diritto riservato, No rights reserved), introducendo il nuovo concetto appunto di Alcuni diritti
riservati (some rights reserved).

Scopi
Le licenze CC consentono di modificare
facilmente i termini di copyright dal default
di "tutti i diritti riservati" ad "alcuni diritti
riservati"; non sono un'alternativa al
copyright ma lavorano a fianco del
copyright e consentono di modificare i
termini di copyright per soddisfare al meglio
le esigenze degli autori di opere creative.
Le licenze di tipo Creative Commons
permettono a quanti detengono dei diritti di
copyright di trasmettere alcuni di questi
diritti al pubblico e di conservare gli altri,
per mezzo di una variet di schemi di
licenze e di contratti che includono la
destinazione di un bene privato al pubblico Cartello sulla vetrina di un ristorante di Granada nel quale viene riprodotta solo
musica disponibile con Licenze Creative Commons.
dominio o ai termini di licenza di contenuti
aperti (open content). L'intenzione quella
di evitare i problemi che le attuali leggi sul copyright creano per la diffusione e la condivisione delle informazioni.

Il progetto fornisce vari tipi di licenze libere, le licenze Creative Commons, che i detentori dei diritti di copyright
possono utilizzare quando rilasciano le proprie opere sulla Rete. Il progetto fornisce anche dei metadata RDF/XML
che descrivono la licenza ed il lavoro che rende pi facile il trattamento automatico e la ricerca delle opere concesse
con licenza creative commons; viene anche fornito un Founder's Copyright[2], il quale un contratto che vorrebbe
ricreare lo spirito del concetto originale di Copyright cos come introdotto dai padri fondatori nella costituzione
americana.

La normativa per le Creative Commons fornisce un insieme di 4 opzioni che permettono facilmente di riconoscere i
diritti vantati dall'autore e da terzi sull'oggetto della licenza. Diversamente dalla General Public License, la legge per
le Creative Commons non contiene un testo di riferimento "pronto all'uso", che l'autore pu adottare per la sua opera
senza alcun adattamento di tipo tecnico o legale.
La normativa non ha disciplinato il tema della revoca della licenza, per mutata volont dell'autore o obbligazioni
legittime derivanti da cause di forza maggiore, come un ordine giudiziale, e il tema collegato della retroattivit di
questa revoca verso le parti dell'opera gi rilasciate sotto licenza opensource e opencontent, e in particolare in
avanzato stato di modifica da parte di altri soggetti.
L'autore di un programma o opera in genere potrebbe ad esempio distribuire gratuitamente e sotto una licenza
Creative Commons per un certo periodo di tempo, beneficiando di una pubblicit gratuita fra gli utenti e dei
contributi apportati dalla comunit, dopodich potrebbe legittimamente revocare la licenza e iniziare una
distribuzione commerciale dell'opera.
La licenza GNU-GPL dalla versione 2.0 ha regolato la materia, prevedendo che l'autore pu revocare la licenza
solamente per la sua copia, non per quelle gi distribuite ad altri utenti, e che quindi la revoca non pu essere
Creative Commons 61

retroattiva, riguardando soltanto parti di codice e modifica all'opera successive al cambio di licenza. Inoltre, se per
obbligazioni dovute a cause di forza maggiore, l'autore non pu applicare la licenza questa si intende revocata
automaticamente per l'intera opera. Resta il caso di una revoca retroattiva per cause di forza maggiore, prevalenti sul
testo della licenza stessa, che non ancora regolato dalla legge.

Storia
Le licenze Creative Commons sono state anticipate dalle licenze Open
Publication License (OPL) e GNU Free Documentation License
(GFDL). La GFDL intesa principalmente come una licenza per la
documentazione software, ma anche in uso per progetti che non
riguardano strettamente il software, come la stessa Wikipedia. La
licenza OPL ora defunta, e il suo stesso creatore suggerisce di non
utilizzarla. Sia la OPL che la GFDL contenevano delle sezioni
opzionali che, nell'opinione dei critici, le rendevano meno libere. La
GFDL si differenzia dalle licenze creative commons nella sua richiesta
che i lavori licenziati con essa vengano distribuiti in una forma
"trasparente", ad esempio non usando formati proprietari e/o segreti.

Creative Commons nato ufficialmente nel 2001 per volere del


professore Lawrence Lessig, ordinario della facolt di Giurisprudenza
di Stanford (e in precedenza anche di Harvard) e riconosciuto come
uno dei massimi esperti di diritto d'autore negli Stati Uniti. Lessig
Golden Nica Award per Creative Commons.
fond l'organizzazione come metodo addizionale per raggiungere il suo
scopo nel suo caso di fronte alla Corte Suprema degli Stati Uniti,
Eldred v. Ashcroft. Il set iniziale delle licenze creative commons fu pubblicato il 16 dicembre 2002.[3] Al progetto fu
conferito il Golden Nica Award durante il Prix Ars Electronica nella categoria Net Vision nel 2004.

A marzo 2009, stata rilasciata la prima versione per la licenza Creative Commons 0. Con questa licenza, l'autore
rinuncia a qualunque diritto sull'opera, che pu essere utilizzata da tutti, in qualunque modo, per sempre e senza
condizioni. Scompare pure l'obbligo di citare l'autore.
La legislazione, al momento, non prevede che vi sia un ente preposto dove l'autore possa depositare l'opera prima di
distribuirla. pi difficile per l'autore dimostrare la paternit dell'opera, nel caso in cui qualcuno applichi
successivamente il diritto d'autore, e al limite accusi di averlo violato quanti fruiscono l'opera stessa.
Rispetto alla licenza, prevale la legislazione, che nei Paesi di diritto latino prevede che resti l'obbligo di citare
l'autore, e che i diritti morali sulle opere siano per questi irrinunciabili.

In Italia
Nella primavera del 2003, in seguito al crescente interesse per le licenze Creative Commons, lIstituto di Elettronica
e di Ingegneria dellInformazione e delle Telecomunicazioni (IEIIT organo del CNR - Consiglio Nazionale delle
Ricerche) contatta Creative Commons internazionale per offrirsi di trattare in modo pi ampio e dettagliato il tema
delle licenze CC in Italia. Scopo del progetto era quello di tradurre e adattare al modello legislativo italiano le
licenze CC create in un sistema giuridico differente, quello americano, soggetto alla Common Law. Come punto di
partenza di questo progetto, l'avvocato milanese Antonio Amelia ha proposto le prime traduzioni delle licenze
contestualizzandole alle leggi italiane.
Il 18 novembre 2003 il fondatore di Creative Commons Lawrence Lessig, gi professore alla Stanford University ed
uno dei massimi esperti mondiali in materia di diritto d'autore, annuncia ufficialmente l'inizio del lavoro di
traduzione e adattamento delle licenze CC da parte del team italiano. Viene nominato a capo del progetto il
Creative Commons 62

professore Marco Ricolfi, docente presso il Dipartimento di Scienze Giuridiche (DSG) dell'Universit degli Studi di
Torino. Al gruppo di lavoro giuridico, del quale fanno parte anche Marco Ciurcina, Massimo Travostino, Nicola
Bottero e Samantha Zanni, si affianca l'attivit di Juan Carlos De Martin e Alessandro Cogo, appartenenti
all'IEIIT-CNR (oggi rispettivamente co-direttore e fellow del Centro Nexa su Internet e Societ del Politecnico di
Torino), che fornisce consulenza e sviluppo in merito agli aspetti tecnologici, oltre che a quelli di traduzione. Inizia
inoltre ad avviarsi un'interazione con la comunit, prevalentemente tramite la mailing list e un wiki.
Nel 2004 sono state pubblicate le prime versioni delle licenze Creative Commons tradotte dapprima nella versione
1.0 e in seguito nella versione 2.0, entrambe disponibili su un wiki per poter essere discusse pubblicamente dalla
comunit. Il 16 dicembre 2004 vengono presentate a Torino le Licenze Creative Commons italiane presso la
Fondazione Giovanni Agnelli. In tale occasione sono stati anche resi pubblici quattro documenti riguardanti alcuni
dei temi approfonditi nel corso dell'attivit.
A questo punto, l'attivit di Creative Commons Italia totalmente avviata, e nel 2005 iniziata una nuova fase del
progetto: il prof. Marco Ricolfi viene sostituito alla guida di Creative Commons Italia da Juan Carlos De Martin. Il
prof. Ricolfi ha assunto il ruolo di coordinatore scientifico del gruppo giuridico. Sempre a Torino, nel novembre
2005, si tenuto CCIT2005, il primo incontro nazionale di CC Italia, su temi riguardanti il multimedia, l'editoria e la
musica. A tale incontro ne seguiranno altri: nel 2006, a seguito della presentazione pubblica della versione 2.5 delle
licenze Creative Commons italiane. In questa occasione si discusso di questioni relative ad archivi, User Generated
Content e Open access. Nel 2009, a seguito della presentazione della bozza 3.0 delle licenze, si sono affrontati temi
relativi alle Licenze libere e alla gestione collettiva dei diritti. Il 2010 ha rappresentato l'occasione per fare il punto
sulle licenze 3.0, analizzando le clausole difficili, la legge applicabile e le banche dati, approfondendo inoltre
progetti editoriali ed educativi che fanno uso di licenze CC. La versione 3.0 delle licenze italiane viene presentata al
pubblico nel giugno del 2011 e, nel corso dello stesso anno in occasione di CCIT2011, l'avvocato Massimo
Travostino ha descritto i futuri sviluppi e i primi passi compiuti verso l'elaborazione della versione 4.0 delle licenze
Creative Commons. Durante l'incontro sono stati inoltre presentate diverse iniziative di successo che hanno fatto uso
di licenze CC.
Attualmente esiste un sito web (http:/ / www. creativecommons. it/ ), che nella prima fase del progetto stato creato
e gestito da membri della comunit. Tale attivit stata portata avanti in primo luogo dai promotori del sito, Danilo
Moi e Lorenzo De Tomasi, coadiuvati dal nucleo di collaboratori. A partire dal 2005, con l'avvio della Fase II del
progetto CC Italia, il dominio del sito web passato dall'EIIT-CNR al Politecnico di Torino, diventando il sito
ufficiale di Creative Commons Italia. Il sito continua a svilupparsi grazie al contributo del Centro Nexa su Internet e
Societ e dei commoners, che avviene sia attraverso i commenti al sito ufficiale, sia tramite le pagine dei
commoners. [4]

Le quattro clausole delle licenze Creative Commons


Le licenze Creative Commons sono nate negli USA appoggiandosi al sistema giuridico locale. Sono state quindi
adattate al sistema giuridico italiano, dove il diritto d'autore regolato dalla legge 633/41. L'autore diventa detentore
dei diritti nel momento dell'estrinsecazione dell'opera creativa, secondo la L. 633/41, art. 6

Il titolo originario dell'acquisto del diritto di autore costituito dalla creazione dell'opera, quale particolare espressione del
lavoro intellettuale

Inoltre tutti i diritti sono riservati all'autore (art.13 / 18bis).


Le sei licenze Creative Commons (definite dalla combinazione di quattro attributi) stabiliscono in modo esplicito
quali sono i diritti riservati, modificando quindi la regola di default in cui tutti i diritti sono riservati.
Creative Commons 63

Attribuzione (by)
Bisogna sempre indicare l'autore dell'opera (attributo obbligatorio) in modo che sia
possibile attribuirne la paternit come definito dagli artt. 8 e 20 lda:

Attribuzione (Attribution)

reputato autore dell'opera, salvo prova contraria, chi in essa indicato come tale, nelle forme d'uso, ovvero, annunciato
come tale nella recitazione, esecuzione, rappresentazione o radiodiffusione dell'opera stessa. Valgono come nome lo
pseudonimo, il nome d'arte, la sigla o il segno convenzionale, che siano notoriamente conosciuti come equivalenti al nome
vero.
(art. 8)

[...] l'autore conserva il diritto di rivendicare la paternit dell'opera [...]


(art. 20)

Non uso commerciale (nc)


Non sono consentiti usi commerciali dell'opera creativa come definito dal secondo
comma dell'art. 12:

Non Commerciale (Non


Commercial)

l'autore ha altres [...] il diritto esclusivo di utilizzare economicamente l'opera [...]

Con il secondo attributo si definisce come diritto esclusivo dell'autore il solo uso commerciale dell'opera creativa. I
diritti di riproduzione (art. 13), di trascrizione (art. 14), di esecuzione (art. 15), di comunicazione al pubblico (art.
16), di distribuzione (art. 17) e di noleggiare (art. 18bis) definiti dalla L633/41 non sono esplicitati nella licenza e
pertanto non sono considerati diritti esclusivi dell'autore. Chiunque pu riprodurre, trascrivere, eseguire e distribuire
purch non a scopo di lucro, attribuendo sempre la paternit come definito nel primo attributo. Tuttavia le limitazioni
sullo sfruttamento economico dell'opera sono limitate al settantesimo anno solare dopo la morte dell'autore come
specificato dall'art. 25 lda.
Creative Commons 64

Non opere derivate (nd)


Non sono consentite elaborazioni dell'opera creativa come definito dall'art 20

No opere derivate (No


Derivative Works)

[...] l'autore conserva il diritto di rivendicare la paternit dell'opera e di opporsi a qualsiasi deformazione, mutilazione od
altra modificazione, ed a ogni atto a danno dell'opera stessa, che possano essere di pregiudizio al suo onore o alla sua
reputazione

Caso particolare costituito dalle opere architettoniche, per le quali

[...] l'autore non pu opporsi alle modificazioni che si rendessero necessarie nel corso della realizzazione [...] o ad opera
gi realizzata

Condividi allo stesso modo (sa)


Si pu modificare l'opera ma l'opera modificata deve essere rilasciata secondo le stesse
condizioni scelte dall'autore originale.

Condividi allo stesso modo


(Share Alike)

Senza pregiudizio dei diritti esistenti sull'opera originaria, sono altres protette le elaborazioni di carattere creativo
dell'opera stessa, quali le traduzioni in altra lingua, le trasformazioni da una in altra forma letteraria od artistica, le
modificazioni ed aggiunte che costituiscono un rifacimento sostanziale dell'opera originaria, gli adattamenti, le riduzioni, i
compendi, le variazioni non costituenti opera originale.
(art 4)

In particolare le sei licenze pubbliche Creative Commons sono:


Attribuzione
Attribuzione - Non opere derivate
Attribuzione - Non Commerciale
Attribuzione - Condividi allo stesso modo
Attribuzione - Non opere derivate, Non commerciale
Attribuzione - Non commerciale, Condividi allo stesso modo
Creative Commons 65

Progetti che adottano licenze Creative Commons


Diversi milioni di pagine e di contenuti sulla Rete adottano le licenze Creative Commons. Alcuni dei progetti pi
conosciuti licenziati sotto CC includono:
Al Jazeera Creative Commons Repository [5]
Arduino, piattaforma hardware open source per il physical computing: la scheda offerta con licenza
Attribution-ShareAlike 2.5[6].
OpenStreetMap [7], le immagini delle mappe sono rilasciate sotto la licenza Creative Commons
Attribution-ShareAlike 2.0
Wikinotizie, utilizza la licenza CC-BY
Linuxquestions.org wiki [8]
Opcopy
Wikitravel
Reset Radio [9]
World66
Wikivoyage
Lega Nerd
La fiction di Cory Doctorow
Il libro del professor Lessig pubblicato nel 2004, Free Culture
Tre dei libri di Eric S. Raymond, The Cathedral and the Bazaar (il primo ad essere pubblicato commercialmente
sotto una licenza CC, edito da O'Reilly & Associates), The New Hacker's Dictionary, e The Art of Unix
Programming (tutti e tre con una clausola condizionale aggiunta)
Public Library of Science
Star Wreck VI
MoveOn.org's Bush In 30 Seconds contest (vedi [10])
Groklaw [11]
CcMixter [12] A community music site featuring remixes licensed under Creative Commons
MIT OpenCourseWare [13]
Pennsulas [14] Progetto on line di Midesa, per la diffusione di testi accademici che analizzano la cultura spagnola
e italiana, sotto licenza Creative Commons.
Telltale Weekly
The Oyez Project - Supreme Court MP3 Files [15]
La maggior parte dei video realizzati dalle Telestreet italiane
POIGPS [16], i punti di interesse da scaricare sul proprio navigatore GPS
Deviantart [17], ha la possibilit di attribuire la licenza CC ai lavori caricati.
RadioMauroDelleChiaie [18], web radio inserita nel libro il software libero in italia di andrea berardi edito da
shake edizioni distribuito da feltrinelli trasmette solo musica su licenza creative commons.
Creative Commons 66

In Italia
Dal 2001 in Italia le licenze Creative Commons sono state utilizzate in molti contesti:
Camera dei deputati, pubblica i dati [19] con licenza Creative Commons BY-SA[20].
Pubblica amministrazione, pubblica parte della documentazione [21] con licenza Creative Commons BY-NC[22].
Istituto nazionale di statistica, pubblica con licenza Creative Commons BY[23].
il Fatto Quotidiano, pubblica tutti gli articoli originali con licenza Creative Commons BY-NC-ND[24].
Internazionale, pubblica tutti gli articoli originali con una licenza Creative Commons BY-NC-SA[25].
Wired, pubblica con licenza Creative Commons BY-NC-ND[26].
La Stampa, pubblica l'archivio storico [27] e gli inserti culturali TuttoScienze [28] e TuttoLibri [29] con licenza
Creative Commons BY-NC-ND[30].
Stampa Alternativa, nella sezione Libera Cultura Libera Conoscenza vengono riproposti diversi titoli con licenza
Creative Commons BY-NC-ND[31].
Punto Informatico pubblica con licenza Creative Commons BY-NC-SA[32].
Arcoiris televisione accessibile gratuitamente da Internet, pubblica video con licenze CC.
La Tana dei Goblin, i contenuti del sito della fondazione che raggruppa associazioni ludiche sono pubblicati con
una licenza Creative Commons BY-NC-SA.
Subcava Sonora, prima etichetta discografica ed agenzia italiana di management musicale No S.I.A.E. per lo
sviluppo della musica, ha pubblicato tre produzioni discografiche (Sula Ventrebianco, Borderline, Nouer) e due
video musicali ("Cosa?" dei Sula Ventrebianco, regia Felice V. Bagnato, e "Strofa e Ritornello" dei Borderline,
regia Marcello Saurino ed Enrico Barile) con licenze in Creative Commons 2.5 BY-NC-ND.
Lega Nerd, primo Social Blog italiano, creato completamente in crowdsourcing, pubblica tutti i suoi articoli con
licenze in Creative Commons 2.5 BY-NC-ND.

Note
[1] https:/ / creativecommons. org/
[2] Founder's Copyright (http:/ / creativecommons. org/ projects/ founderscopyright/ ).URL consultato in data 12-10-2007.
[3] Press releases (2002 December) (http:/ / creativecommons. org/ press-releases/ archive/ 2002/ 12/ ).URL consultato in data 12-10-2007.
[4] Chi siamo | CreativeCommons.it (http:/ / www. creativecommons. it/ About)
[5] http:/ / cc. aljazeera. net
[6] Arduino: Hardware (http:/ / arduino. cc/ en/ Main/ Hardware), dal sito ufficiale
[7] http:/ / www. openstreetmap. org
[8] http:/ / wiki. linuxquestions. org
[9] http:/ / resetradio. net
[10] http:/ / www. moveon. org
[11] http:/ / www. groklaw. net
[12] http:/ / www. ccmixter. org
[13] http:/ / ocw. mit. edu/ index. html
[14] http:/ / www. midesa. it/ peninsula. html
[15] http:/ / www. oyez. org/ oyez/ resource/ nitf/ 273/
[16] http:/ / www. poigps. com
[17] http:/ / www. deviantart. com
[18] http:/ / www. maurodellechiaie. altervista. org
[19] http:/ / dati. camera. it
[20] Il progetto (http:/ / dati. camera. it/ it/ progetto. html)
[21] http:/ / www. dati. gov. it/
[22] Note legali (http:/ / www. dati. gov. it/ content/ note-legali)
[23] Note legali (http:/ / www. istat. it/ it/ note-legali)
[24] Termini e condizioni d'utilizzo (http:/ / www. ilfattoquotidiano. it/ termini-e-condizioni-dutilizzo/ )
[25] Chi siamo (http:/ / www. internazionale. it/ about/ )
[26] Il Web morto e il copyright non si sente tanto bene (http:/ / mag. wired. it/ rivista/ storie/ se-il-web-e-morto-il-copyright-cos-e. html)
[27] http:/ / www3. lastampa. it/ archivio-storico/
[28] http:/ / www3. lastampa. it/ tuttoscienze/
Creative Commons 67

[29] http:/ / www3. lastampa. it/ tuttolibri/


[30] Normative (http:/ / www. lastampa. it/ _settimanali/ ttl/ default_cc. asp)
[31] Libera Cultura Libera Conoscenza (http:/ / www. stampalternativa. it/ liberacultura/ )
[32] Informazioni su PI (http:/ / www. punto-informatico. it/ info. asp)

Bibliografia di approfondimento
Simone Aliprandi, Creative Commons: manuale operativo. Guida all'uso delle licenze e degli altri strumenti CC
(http://www.aliprandi.org/manuale-cc/), Ledizioni/Copyleft-Italia.it, 2008. ISBN 978-88-6222-061-3
Disponibile anche su Wikimedia Biblioteca a questo Biblioteca link (http://biblioteca.wikimedia.it/wiki/
Guida_all'uso_delle_licenze_e_degli_altri_strumenti_CC)
Simone Aliprandi, Creative Commons: a user guide (http://www.aliprandi.org/cc-user-guide/),
Ledizioni/Copyleft-Italia.it, 2011. ISBN 978-88-95994-55-0 Disponibile anche su Wikimedia Commons a questo
link (http://commons.wikimedia.org/wiki/File:Creative_commons_a_user_guide_Simone_Aliprandi.pdf)
Simone Aliprandi, Copyleft & opencontent. L'altra faccia del copyright (http://www.copyleft-italia.it/libri/
copyleft-opencontent/), PrimaOra/Copyleft-Italia.it, 2005. ISBN 88-901724-0-1
Giulio Concas; Giulio De Petra; Giovanni Battista Gallus; Giaime Ginesu; Michele Marchesi; Flavia Marzano,
Contenuti aperti, beni comuni (http://www.flosslab.it/flossLab/resources/cms/documents/completo.pdf)
(PDF), McGraw-Hill, 2009, pp. 280. ISBN 978-88-386-6552-3 URL consultato il 18/12/2009.
Lessig, Cultura libera. Un equilibrio fra anarchia e controllo, contro l'estremismo della propriet intellettuale
(ed. Apogeo, 2005), disponibile anche qui (http://www.copyleft-italia.it/pubblicazioni).
Ziccardi, Libert del codice e della cultura (Giuffr, 2006).

Filmografia di approfondimento
Creative Commons Italia Diventa Creativo (http://creativecommons.it/DiventaCreativo).
Christian Biasco, Francesca Terri Diritti d'autori creativi (http://www.biasco.ch/videoblog/vbp5/index.html).
Video di presentazione (http://www.youtube.com/watch?v=L_qiH_ATvMc) di Creative Commons su
YouTube.

Voci correlate
Copyleft
Copyright
Copyzero
Licenza Creative Commons
Movimento cultura libera
Intercultura
Propriet intellettuale
CC Plus
Diritto d'autore italiano
Creative Commons 68

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Creative
Commons
Articolo su Wikinotizie: Lanciata la versione 3.0 delle licenze Creative Commons 27 febbraio 2007

Collegamenti esterni
Sito ufficiale (https://creativecommons.org/)
Sito ufficiale italiano (http://creativecommons.it/)

Generici e informativi
Creative Commons e gestione discografica (http://musica.illimitarte.com/?p=47) Intervista realizzata per
Musica da Mauro Boccuni ad Alfredo Esposito, general manager della prima label italiana in CC
(EN) A short Flash animation describing Creative Commons (http://mirrors.creativecommons.org/)
(EN) International Commons: Creative Commons initiatives outside the United States (http://www.
creativecommons.org/projects/international)
(EN) BBC to Open Content Floodgates BBC's Creative Archive project (http://www.wired.com/news/culture/
0,1284,63857,00.html?tw=wn_tophead_4)
Creative Commons e RAI (http://www.antidigitaldivide.org/modules.php?op=modload&name=News&
file=article&sid=569)

Strumenti per cercare materiale con licenze CC


iRATE radio (http://irate.sourceforge.net/)
Gnomoradio (http://gnomoradio.org/)
Motore di ricerca Yahoo! per lavori sotto licenze Creative Commons (http://search.yahoo.com/cc)
Common Content (http://commoncontent.org/)
Jamendo - Jamendo (http://www.jamendo.com/) - un archivio di interi album musicali sotto Licenza Creative
Commons
The Assayer (http://theassayer.org) - un catalogo di libri free e copyleft
Flickr Creative Commons search (http://www.flickr.com/creativecommons/) - foto su Flickr.
MusiCC (http://musicc.corank.com) - Social Network su Musica CC e libera
Social media 69

Social media
Social media, in italiano media sociali[1][2][3], un termine generico che indica tecnologie e pratiche online che le
persone adottano per condividere contenuti testuali, immagini, video e audio.
I professori Andreas Kaplan e Michael Haenlein hanno definito i media sociali come un gruppo di applicazioni
Internet basate sui presupposti ideologici e tecnologici del Web 2.0 che consentono la creazione e lo scambio di
contenuti generati dagli utenti.[4]
I social media rappresentano fondamentalmente un cambiamento nel modo in cui la gente apprende, legge e
condivide informazioni e contenuti. In essi si verifica una fusione tra sociologia e tecnologia che trasforma il
monologo (da uno a molti) in dialogo (da molti a molti) e ha luogo una democratizzazione dell'informazione che
trasforma le persone da fruitori di contenuti ad editori. Sono diventati molto popolari perch permettono alle persone
di utilizzare il web per stabilire relazioni di tipo personale o lavorativo. I social media vengono definiti anche
user-generated content (UGC) o consumer-generated media (CGM).

Differenze rispetto ai media industriali


I social media sono diversi dai media industriali come giornali, televisione e cinema. Mentre i social media sono
strumenti relativamente a basso costo che permettono a chiunque (anche soggetti privati) di pubblicare ed avere
accesso alle informazioni, i media tradizionali richiedono cospicui investimenti finanziari per pubblicare
informazioni. Tra le voci di spesa dei media industriali possiamo annoverare ad esempio la pressa tipografica o le
autorizzazioni statali. I media industriali sono comunemente definiti "tradizionali", "broadcasting", o "mass media".
Una caratteristica che accomuna social media e media industriali la capacit di ottenere un'audience sia vasta che
ridotta; sia il post di un blog che una trasmissione televisiva possono raggiungere milioni di persone oppure nessuno.
I parametri che aiutano a descrivere le differenze tra i due tipi di media variano a seconda del tipo di analisi. Alcuni
di questi parametri sono:
1. bacino d'utenza: sia i social media che i media industriali offrono a ciascuno l'opportunit di ottenere
un'audience globale.
2. accessibilit: i mezzi di produzione dei media industriali sono generalmente di propriet privata o statale; gli
strumenti dei social media sono disponibili da ciascuno a un costo contenuto o gratuitamente.
3. fruibilit: la produzione di mezzi industriali richiede in genere formazione e competenze specialistiche; i social
media invece no, o in qualche caso reinventano le competenze, cosicch ciascuno pu gestire i mezzi di
produzione.
4. velocit: il tempo che intercorre tra le informazioni prodotte dai media industriali pu essere lungo (giorni,
settimane o anche mesi) in confronto al tempo impiegato dai social media (che hanno la possibilit tecnica di
reagire istantaneamente, solo la mancanza di reattivit dei partecipanti pu comportare ritardi). Poich ormai
anche i media industriali si avvalgono degli strumenti dei social media, questo potrebbe non essere pi un tratto
distintivo.
5. permanenza: una volta creati, i mezzi industriali non possono essere pi modificati (una volta stampato e
distribuito, l'articolo di una rivista non pu pi ricevere modifiche), mentre i social media possono essere cambiati
quasi istantaneamente mediante commenti e modifiche.
Un'ulteriore distinzione riguarda la responsabilit. I media industriali sono tenuti a rendere conto alla societ della
qualit dei contenuti e dei risultati delle loro attivit in termini di interesse pubblico, responsabilit sociale ed
indipendenza editoriale. I social media non hanno altrettante responsabilit in merito alle loro attivit editoriali. Da
un lato i social media possono sembrare abbastanza liberi da conflitti di interessi, ma d'altro canto il loro valore
economico pu essere minacciato da fenomeni in ascesa come Public Relations 2.0, network pubblicitari e pubblicit
conto terzi.
Social media 70

La comunit dei media un ibrido interessante. Anche se community-owned, ossia posseduti dalla comunit, alcuni
media si avvalgono di professionisti, ed altri di dilettanti. Essi utilizzano sia l'ambito dei social media che quello dei
mezzi tradizionali. Nel 2006, Yochai Benkler ha analizzato molte di queste differenze e le loro implicazioni in
termini di libert economica e politica[5]. Benkler, come molti accademici, usa il neologismo network economy o
"network information economy" per descrivere le pi rilevanti caratteristiche economiche, tecnologiche e sociali di
quelli che chiamiamo "social media".

Divulgazione delle informazioni e interazione umana


I social media dipendono principalmente dalle interazioni tra persone, come la discussione e il dialogo volti a
costruire una sorta di sentimento condiviso attraverso l'utilizzo della tecnologia come canale. I servizi offerti dai
social media stimolano l'uso dell'intelligenza sia induttiva che deduttiva da parte delle persone. Reclami e denunce si
prestano a rapide generalizzazioni a causa delle modalit con le quali le affermazioni diffuse possono essere postate
e visualizzate da tutti.
La velocit di comunicazione, l'ampia diffusione e l'incisivit, e la possibilit di vedere come le parole costruiscano
un caso, sollecitano l'uso della retorica. Il metodo della persuasione viene utilizzato frequentemente come mezzo per
convalidare o autenticare le affermazioni e le parole delle persone: la retorica quindi parte importante del
linguaggio dei social media.
Per alcuni aspetti, i social media non hanno limiti: non c' un numero fisso di pagine o di ore. I lettori possono
partecipare ai social media lasciando commenti, messaggi istantanei o anche pubblicando articoli per conto proprio.
Nei social media si registrata una generale resistenza agli interventi di marketing. Pi rilevante si quindi rivelato
il concetto di social authority, relativo alla capacit - costruita attraverso interventi continui, utili, competenti e
genuini - di influenzare le opinioni in specifiche aree di interesse.

Descrizione
I social media possono assumere differenti forme, inclusi Forum Internet, message board, Blog, wikis, podcast,
immagini e video. Le tecnologie includono blogs, condivisione di immagini, videoblogs, wall-postings, email,
instant messaging, music-sharing, crowdsourcing e voice over IP, per citarne solo una lista parziale. Esempi di
applicazione del concetto di social media sono:
Digrii (social networking),
Google Groups (reference, social networking),
Wikipedia (reference),
MySpace (social networking),
Facebook (social networking),
Last.fm (personal music), YouTube (social networking e video sharing),
sevenload (condivisione video e foto, social networking e Web-TV), Second Life (realt virtuale),
Flickr (photo sharing),
deviantArt (art sharing),
Twitter (social networking e microblogging)
Nuto (social networking per i medici italiani)
Social Play [6] (Condivisione di notizie sociali, blogging, lettura sociale)
altri siti microblogs sono Jaiku
Pownce.
Molti di questi servizi possono essere integrati tramite piattaforme come Mybloglog, una societ di Yahoo, e Plaxo.
Social media 71

Esempi
La definizione stessa di Social Media a volte sfuggente, ed a volte considerata pi vicina al gergo di marketing che
a solide teorie economiche. Per questa ragione pu essere difficile trovare esempi concreti, specie per quanto
riguarda il mondo delle aziende e delle organizzazioni.
Citiamo qui allora alcuni esempi fortemente significativi proposti da Don Tapscott nel suo testo Wikinomics.
Tapscott parla di Wikinomics come nuova economia della collaborazione e della co-creazione di massa dei
contenuti. In questo senso la definizione di Wikinomics ampiamente assimilabile a quella di un sistema economico
caratterizzato dall'utilizzo dei Social Media da parte di aziende, organizzazioni e consumatori grazie all'impiego di
strutture organizzative e tecnologie dedicate a sistemi di collaborazione di massa e di co-creazione dei contenuti. Tra
gli esempi citati da Tapscott sembrano particolarmente significativi quelli di:
Linux, il sistema operativo nato e sviluppatosi grazie alla collaborazione volontaria di migliaia di sviluppatori nel
mondo
La stessa Wikipedia, enciclopedia alimentata costantemente dal flusso di conoscenza e dal lavoro dei suoi
collaboratori volontari
Goldcorp: azienda del settore minerario che nel 2000 ha lanciato la Goldcorp Challenge destinata alla ricerca (e
allo sfruttamento) di nuove aree obiettivo da esplorare per la ricerca di filoni auriferi
Anche in Italia esempi di Social Media nellaccezione di Impresa collaborativa - non mancano, sia di generazione
nativa in Italia, sia create come filiali o divisioni di aziende gi esistenti in altri contesti. Segnaliamo qui ad esempio:
Zooppa, piattaforma di social advertising
La quasi omonima Zopa piattaforma dedicata al Social lending
Userfarm, il network dei videomaker pro e amatoriali utilizzata per creare programmi televisivi e spot pubblicitari
crowdsourcing[7]
Esempi di tecnologie utilizzate nelle applicazioni di social media:
Comunicazione
Microblogs: Twitter e Pownce
Social networking: Facebook, LinkedIn e MySpace
Social Blog
Events: Upcoming
Collaborazione
Wikis: Wikipedia Crowdsourcing Network [8] - Quora [9]
Social bookmarking: del.icio.us e StumbleUpon
Ranking di contenuti/news: Digg
Siti di opininioni: epinions
Slideshare [10]
Co-Creation: Userfarm [11], Zooppa [12]
Multimedia
Photo sharing: Flickr e Zooomr
Video sharing: YouTube e sevenload
Livecasting: Justin.tv
Podcasting
Publishing: Wix.com
Comunit virtuali
spazi di promozione musicale: Myspace e Radiostar.it
Virtual worlds: Second Life
Social media 72

Online gaming: World of Warcraft


Game sharing: Miniclip.com
Pet lover: petpassion.TV
Per le aziende (Enterprise Social Network)
TamTamy [13]
Qontext [14]
Yammer [15]
yoo+ [16]

Bibliografia
Benkler, Yochai(2006). La ricchezza della rete. La produzione sociale trasforma il mercato e aumenta le libert.
Universit Bocconi
Johnson, Steven (2005). Everything Bad is Good for You: How Todays Popular Culture Is Actually Making Us
Smarter. New York: Riverhead Books
Kaplan, Andreas M. (2012) If you love something, let it go mobile: Mobile marketing and mobile social media
4x4, Business Horizons, 55(2), p. 129-139.
Kaplan Andreas M., Haenlein Michael, (2010), Users of the world, unite! The challenges and opportunities of
social media, Business Horizons, Vol. 53, Issue 1
Prunesti A., (2009), Social media e comunicazione di marketing. Milano: Franco Angeli
Scoble, Robert, Israel, Shel (2006). Naked Conversations: How Blogs are Changing the Way Businesses Talk
with Customers. New York: Wiley & Sons
Surowiecki, James (2005). The Wisdom of Crowds. New York: Anchor Books
Tapscott, Don, Williams, Anthony D. (2006). Wikinomics, How Mass Collaboration Changes Everything. New
York: Portfolio
De Felice, Luca (2011). Marketing conversazionale. Dialogare con i clienti attraverso i social media e il
Real-Time Web di Twitter, FriendFeed, Facebook, Foursquare. Seconda edizione. Milano: Il Sole 24 Ore

Voci correlate
Social media marketing
Web 2.0
User-generated content
Social media optimization
Social web
Buzz monitoring
Virtual community
Social Enterprise
Enterprise 2.0
CO-Creation
Social media 73

Note
[1] Media sociali equivalente italiano di social media (http:/ / iate. europa. eu/ iatediff/ SearchByQuery. do?method=searchDetail&
lilId=3510783& langId=& query=social media& sourceLanguage=en& domain=0& matching=& start=0& next=1&
targetLanguages=it).IATE, Banca dati multilingue dell'UE
[2] I media sociali ridisegnano forma e anima delle citt (http:/ / www. ilsole24ore. com/ art/ tecnologie/ 2012-09-21/
media-sociali-ridisegnano-forma-165147. shtml?uuid=AbMZ7PhG). Il Sole 24 ore, 23/12/2012.
[3] Club dei media sociali (http:/ / www. clubdeimediasociali. it/ )
[4] Nell'originale inglese: "a group of Internet-based applications that build on the ideological and technological foundations of Web 2.0, and
that allow the creation and exchange of user-generated content" - Kaplan Andreas M., Haenlein Michael, (2010)., Users of the world, unite!
The challenges and opportunities of social media, Business Horizons, Vol. 53, Issue 1, p. 59-68.
[5] Benkler, La ricchezza della rete. La produzione sociale trasforma il mercato e aumenta le libert, 2006
[6] http:/ / www. socialplay. it
[7] Articolo di Riccardo Bocca su "L'espresso (http:/ / bocca. blogautore. espresso. repubblica. it/ 2012/ 07/ 16/ medicina-creativa)
[8] http:/ / www. crowdsourcingnetwork. it
[9] http:/ / www. quora. com
[10] http:/ / www. slideshare. net/
[11] http:/ / www. userfarm. com
[12] http:/ / www. zooppa. com
[13] http:/ / www. tamtamy. com/
[14] http:/ / www. qontext. com/
[15] http:/ / www. yammer. com/
[16] http:/ / www. yooplus. com/

Contenuto generato dagli utenti


La dizione contenuto generato dagli utenti (User-Generated Content o UGC in inglese) nata nel 2005 negli
ambienti del web publishing e dei new media per indicare il materiale disponibile sul web prodotto da utenti invece
che da societ specializzate. Questo fenomeno visto come un sintomo della democratizzazione della produzione di
contenuti multimediali reso possibile dalla diffusione di soluzioni hardware e software semplici ed a basso costo.

Definizione dell'OCSE
L'OCSE (Organizzazione per la cooperazione e lo sviluppo economico) ha definito tre caratteristiche centrali per gli
UGC:
1. Requisiti di pubblicazione: sebbene gli UGC possano essere elaborati da un utente e mai pubblicati in rete o
altrove, prenderemo in considerazione quegli UCG che vengono pubblicati in un qualche contesto, che sia su un
sito internet accessibile da tutti o su una pagina di un social network ristretto a un gruppo selezionato di persone
(per esempio: studenti universitari). Sono quindi esclusi contenuti diffusi tramite e-mail, chat e simili.
2. Sforzo creativo: questo implica che una certa quantit di sforzo creativo sia impiegato nella costruzione del
materiale o nell'adattamento di qualcosa di preesistente per creare qualcosa di nuovo. Gli utenti devono cio
aggiungere un proprio valore al lavoro. Lo sforzo creativo dietro agli UGC spesso ha un elemento collaborativo,
come nel caso di siti web che gli utenti possono cambiare collaborativamente. Per esempio, copiare
semplicemente un pezzo di uno show televisivo e postarlo in un sito web che pubblica materiale video (attivit
frequente nei siti UGC) non pu essere considerato UGC. Se un utente carica le sue fotografie, oppure esprime i
suoi pensieri in un blog o crea un nuovo video musicale, questo pu essere considerato UGC. Tuttavia difficile
stabilire quale sia il livello minimo di sforzo creativo ammissibile: la valutazione dipende infatti anche dal
contesto.
3. Creazione al di fuori delle pratiche e delle routine professionali: il contenuto generato dagli utenti
generalmente creato fuori dalle routine e dalle pratiche professionali. Spesso non ha un contesto di mercato
istituzionale o commerciale. In casi estremi, l'UGC pu essere prodotto da non professionisti senza l'attesa di un
Contenuto generato dagli utenti 74

profitto o di una remunerazione. Fattori motivazionali includono: la connessione con altri utenti, ottenere un certo
livello di notoriet, prestigio e il desiderio di esprimersi.

Esempi
Esempi di contenuto generato dagli utenti sono foto e video digitali, blog, podcast e wiki. Esempi di siti web che si
basano su questa filosofia sono Flickr, Friends Reunited, FourDocs, OpenStreetMap, YouTube, Second Life e
Wikipedia.
Una declinazione del contenuto generato dagli utenti lo user generated marketing, pubblicit, messaggi e
comunicazioni create dagli utenti. Due esempi italiani sono 123brand.it e Zooppa.
Un esempio di marketing musicale stato fornito dal progetto "amore in chat" di Luca Leoni, cantautore pugliese
(primo risultato nella ricerca di Google su "video ugc").
L'avvento del contenuto generato dagli utenti segna una svolta nelle aziende che si occupano di media, dalla
creazione di contenuti on line alla creazione di ambienti e strumenti per permettere a non professionisti (ovvero la
"gente comune") di pubblicare i propri contenuti in luoghi importanti.
La British Broadcasting Corporation (BBC), ad esempio, organizz un gruppo di prova "User-Generated Content"
(UGC) composto da tre persone, nell'aprile del 2005. A seguito dell'attacco terroristico di Londra del 7 luglio 2005 e
dell'incendio del deposito petrolifero dell'Hertfordshire nello stesso anno, il gruppo divenne permanente e venne
ampliato, riflettendo l'arrivo del cittadino giornalista nei media principali. Durante il disastro di Buncefield, la BBC
ricevette oltre 5.000 foto dai suoi spettatori. Il dibattito sulle vignette di Maometto (gennaio 2006) port a ricevere
oltre 22.000 email da parte degli spettatori nelle prime due settimane. Di norma la BBC non remunera i contenuti
generati dai suoi spettatori.
In anni recenti i contenuti generati dagli utenti sono stati per alcuni di essi una strada verso il successo. La canzone
umoristica Because I Got High, di Afroman, divenne la pi richiesta nelle radio statunitensi nel luglio 2002, grazie al
suo successo su Napster. Nell'estate del 2006, Brooke Brodack sigl un contratto per lo sviluppo di talenti, dopo la
comparsa delle sue brevi scenette su YouTube. Le aziende si stanno sempre pi interessando allo sfruttamento di
spazi intesi in origine per i contenuti generati dagli utenti, come evidenziato dallo scandalo Lonelygirl15 su
YouTube, dove un finto videoblog venne usato per promuovere una aspirante attrice.[1]

Voci correlate
Crowdsourcing
Giornalismo partecipativo
Current TV - una stazione televisiva via cavo che si affida massicciamente ai contenuti generati dagli spettatori
Social media

Note
[1] Guardian Unlimited website: A Bigger Bang (http:/ / www. guardian. co. uk/ weekend/ story/ 0,,1937496,00. html)

Collegamenti esterni
A Bigger Bang (http://www.guardian.co.uk/weekend/page/0,,1939196,00.html) panoramica sulle tendenze
del contenuto generato dagli utenti nel 2006
Wiki 75

Wiki
Un wiki una pagina (o comunque una collezione di documenti ipertestuali) che viene aggiornata dai suoi
utilizzatori e i cui contenuti sono sviluppati in collaborazione da tutti coloro che vi hanno accesso. La modifica dei
contenuti aperta, nel senso che il testo pu essere modificato da tutti gli utenti (a volte soltanto se registrati, altre
volte anche anonimi) contribuendo non solo per aggiunte come accade solitamente nei forum, ma anche cambiando e
cancellando ci che hanno scritto gli autori precedenti.
Ogni modifica registrata in una cronologia che permette in caso di necessit di riportare il testo alla versione
precedente; lo scopo quello di condividere, scambiare, immagazzinare e ottimizzare la conoscenza in modo
collaborativo. Il termine "wiki" indica anche il software collaborativo utilizzato per creare il sito web e il server.
Wiki, in base alla etimologia, anche un modo di essere.

Etimologia
Wiki wiki deriva da un termine in lingua hawaiiana che significa
"rapido" oppure "molto veloce". A volte wikiwiki o WikiWiki o
Wikiwiki sono usati al posto di wiki. Ward Cunningham (il padre del
primo wiki) si ispir al nome wiki wiki usato per i bus navetta
dell'aeroporto di Honolulu. "Wiki fu la prima parola che egli apprese
durante la sua prima visita alle isole Hawaii, quando un addetto lo
invit a prendere un "wiki wiki bus" operante tra i vari terminal
aeroportuali. Cunningham stesso dice: "Ho scelto wiki-wiki come
sostituto allitterativo di quick ("veloce"), evitando quindi di chiamare
Bus navetta "Wiki Wiki"
questa cosa quick-web."[1]. In realt, non si ancora rintracciata la
prima attestazione di questa parola nella lingua hawaiiana e quindi non
si pu escludere che essa sia derivata da un adattamento fonetico proprio della parola "quickly".

WikiWikiWeb un termine usato a volte per riferirsi in maniera specifica al Portland Pattern Repository, il primo
wiki mai esistito. I proponenti di questo utilizzo suggeriscono di usare una 'w' minuscola per i wiki in generale.
Il termine wiki usato anche come acronimo inverso dell'espressione inglese "What I know is", che descrive la sua
funzione di condivisione di conoscenza oltre che di scambio e di immagazzinamento.

Pronuncia
Adattando all'italiano la pronuncia inglese, i pi pronunciano uki ['wiki] la parola wiki. In hawaiano, la consonante
iniziale della parola per la precisione un'approssimante labiodentale sonora ([]), suono intermedio tra il fonema
continuo fricativo labiodentale sonoro [v] (l'iniziale dell'italiano voto) e la semiconsonante [w] (l'iniziale dell'italiano
uomo). Il suono [] ricorre nella pronuncia d'una consistente minoranza degli italofoni come una delle possibili R
mosce (la cosiddetta vve, ma non la sua variante velarizzata) o, in italiano, anche come realizzazione veloce e/o
trascurata del fonema /v/ in posizione intervocalica: un suono frequente, ad esempio, in esecuzioni pi o meno
rapide di frasi come andava via veloce, dove i diversi /v/ tendono a realizzarsi [] anche per dissimilazione. La
pronuncia hawaiiana giustifica perci anche la variante italiana vki ['viki] preferibile se si considera che in
italiano la lettera w generalmente percepita come una consonante[2] , sebbene l'idioma parlato in quelle isole non
conosca affatto la fricativa labiodentale sonora ([v]) dell'italiano.
Wiki 76

Storia
Il software wiki nato nel design pattern di comunit web come una soluzione per scrivere e discutere pattern
languages. Il Portland Pattern Repository stato il primo wiki, ideato da Ward Cunningham nel 1995[1].
Cunningham ha inventato il nome e il concetto wiki e ha prodotto la prima implementazione di un motore wiki.
Alla fine del XX secolo, i wiki sono stati considerati come una strada promettente per sviluppare le basi di una
conoscenza pubblica e privata ed stato questo potenziale a ispirare il progetto dell'enciclopedia Nupedia, avviata da
Jimmy Wales con Larry Sanger come capo redattore, usando la tecnologia wiki come base per un'enciclopedia
elettronica: Wikipedia stata lanciata nel gennaio 2001. Originariamente basata su un software UseMod, pass poi
al suo attuale software open source MediaWiki, che ora adottato da numerose altre wiki.
Attualmente la Wikipedia in lingua inglese il pi grande wiki seguita da quella tedesca. Il quarto pi ampio wiki
Susning.nu, un "language knowledge base" svedese che utilizza UseMod.

Campi di applicazione
Documentazione di numerosi progetti informatici, ad esempio Tango Desktop Project[3], DotClear
documentation[4], EagleFaq[5], Manuel Blender francophone[6];
Progetti collaborativi, ad esempio Documentazione della comunit italiana di Ubuntu[7], Nasgaa[8]
[9]
(distribuzione Linux), CPDL, Choral Public Domain Library ;
Educazione e formazione collaborativa, come libroscuolawiki.altervista.org ;
Enciclopedie e pi generalmente banche del sapere in linea (knowledge based on line), sia generali come
Wikipedia o settoriali come Sensei's Library[10], websemantique.org[11], xulfr.org[12], Ekopedia[13],
Wikiartpedia[14], Anarcopedia[15], e Nonciclopedia;
Knowledge base d'impresa, per permettere di condividere conoscenze e di comunicare in seno all'impresa;
Wiki comunitarie, che raccolgono persone attorno a un argomento al fine di incontrarsi, di condividere la
conoscenza, ecc. Per esempio: Wikitravel[16], Bennilogia[17];
Wiki personali sono utilizzati come strumento di produttivit e di gestione dell'informazione: dal block-notes
evoluto fino all'applicazione molto varia come un'agenda, ad esempio Tomboy e Gnote.

Caratteristiche principali
Un wiki permette di scrivere collettivamente dei documenti in un semplice linguaggio di marcatura (markup)
usando un navigatore (web browser). Poich la maggior parte dei wiki si basa sul web, il termine "wiki" di solito
sufficiente. Una singola pagina in un wiki chiamata "pagina wiki", mentre l'insieme delle pagine, che sono
usualmente strettamente interconnesse, chiamato "il wiki".
Una caratteristica distintiva della tecnologia wiki la facilit con cui le pagine possono essere create e aggiornate.
Generalmente, non esiste una verifica preventiva sulle modifiche, e la maggior parte dei wiki aperta a tutti gli
utentio almeno a tutti quelli che hanno accesso al server wiki. In effetti, perfino la registrazione di un account
utente non sempre richiesta.
Wiki 77

Pagine e modifiche
Nei wiki tradizionali, ci sono tre possibili rappresentazioni per ogni pagina: il codice HTML, la pagina che risulta
dalla visione di quel codice con un navigatore (web browser) e il codice sorgente modificabile dagli utenti, dal quale
il server produce l'HTML. Quest'ultimo formato, noto come "wikitext", scritto in un linguaggio di un marcatore
(mark up) semplificato il cui stile e la cui sintassi variano tra le implementazioni.
Il principio che sottost a questa scelta di design che l'HTML, con la sua grande libreria di etichettatura (tag),
troppo complicato per permettere modifiche rapide, e distrae dai contenuti veri e propri delle pagine. Talvolta
anche considerato un vantaggio il fatto che gli utenti non possano usare tutte le funzionalit permesse dall'HTML,
come JavaScript e i CSS, perch in questo modo si pu imporre una maggiore uniformit di aspetto.

Sintassi wiki (MediaWiki) HTML Risultato

"''Dottore''? Non ha altri titoli? <p> "Dottore? Non ha altri titoli? Uno
Uno ''studioso'', insomma. E "<i>Dottore</i>? Non ha altri titoli? studioso, insomma. E sarebbe lui
sarebbe lui la pi alta autorit Uno <i>studioso</i>, insomma. E la pi alta autorit civile?"
civile?" sarebbe lui la pi&ugrave; alta "Certamente" rispose amabilmente
"Certamente" rispose amabilmente autorit&agrave; civile?" Hardin. "Siamo tutti studiosi, pi o
Hardin. "Siamo tutti studiosi, pi </p> meno. Dopo tutto, pi che una
o meno. Dopo tutto, pi che una <p> vera e propria societ civile, siamo
vera e propria societ civile, "Certamente" rispose amabilmente una fondazione scientifica... sotto
siamo una fondazione scientifica... Hardin. "Siamo tutti studiosi, il diretto controllo
sotto il diretto controllo pi&ugrave; o meno. Dopo tutto, dell'Imperatore."
dell'Imperatore." pi&ugrave; che una vera e propria
societ&agrave; civile, siamo una
fondazione scientifica... sotto il
diretto controllo dell'Imperatore."
</p>

(Citazione da Cronache della Galassia di Isaac Asimov)


Alcuni wiki recenti usano un metodo differente: forniscono strumenti di modifica "WYSIWYG", solitamente tramite
dei controlli ActiveX o dei plugin che traducono istruzioni di formattazione inserite graficamente, come "grassetto" e
"corsivo" nei tag HTML corrispondenti. In queste implementazioni, salvare una modifica corrisponde all'invio di una
nuova pagina HTML sul server, sebbene l'utente non si accorga dei dettagli tecnici e il markup sia generato in modo
a lui trasparente. Gli utenti privi del plugin relativo possono solitamente modificare la pagina modificandone
direttamente il codice HTML.
Le istruzioni di formattazione permesse da una wiki variano considerevolmente a seconda del motore usato; wiki
semplici permettono solo formattazioni elementari, mentre wiki pi complesse hanno supporto per tabelle, immagini,
formule o anche elementi interattivi come sondaggi e giochi. Per questo in corso un tentativo di definire un Wiki
Markup Standard[18].

Collegamento e creazione di pagine


I Wiki sono un mezzo completamente ipertestuale, con una struttura di navigazione non lineare. Tipicamente ogni
pagina contiene un gran numero di link ad altre pagine; nei wiki di dimensioni notevoli esiste comunque una
navigazione gerarchica, ma non deve essere necessariamente usata. I collegamenti (link) vengono creati usando una
sintassi particolare, la cosiddetta "link pattern."
La maggior parte dei wiki usa il modello CamelCase per la nomenclatura dei link, che viene prodotta mettendo in
maiuscolo la lettera iniziale di ogni parola contenuta in una frase ed eliminando gli spazi (il termine "CamelCase"
esso stesso un esempio di CamelCase). CamelCase oltre a facilitare i collegamenti, induce la scrittura dei link a una
forma che devia dallo spelling standard. I wiki basati sul CamelCase sono subito riconoscibili da link con nomi come
"IndiceGenerale" e "DomandeIniziali"; il termine CamelCase deriva da queste frasi che assomigliano vagamente al
Wiki 78

profilo di un cammello (in inglese camel).


CamelCase ha sollevato molte critiche, e gli sviluppatori di wiki hanno cercato soluzioni alternative. Il primo a
introdurre i "free links" (link liberi) mediante questo _(formato di link libero) stato Cliki. Diversi wiki engine
usano parentesi singole, parentesi graffe, sottolineature, barre o altri caratteri come modello di link. Link che
collegano differenti comunit wiki sono possibili con l'uso di uno speciale modello di link detto InterWiki.
Solitamente in un wiki le nuove pagine sono create semplicemente inserendo il link appropriato partendo da una
pagina che tratta un argomento correlato. Se il link non esiste, normalmente evidenziato come link rotto (broken
link). Cercando di seguire quel link viene aperta una finestra di modifica, che permette all'utente di inserire il testo
della nuova pagina. Questo meccanismo assicura che le pagine cosiddette "orfane" (cio che non hanno link che
puntano a esse) siano create raramente, mantenendo generalmente un alto livello di connessione.
I wiki generalmente seguono la filosofia di rendere facile la correzione di eventuali errori, piuttosto che rendere
difficile commettere un errore. Cos, i wiki oltre a essere completamente aperti, forniscono anche vari modi per
verificare la validit di aggiornamenti recenti al contenuto delle pagine. Il pi importante e usato in quasi tutti i wiki
la cosiddetta pagina delle "Ultime modifiche", che mostra sia uno specifico numero di modifiche recenti sia la lista
completa delle modifiche fatte in un determinato lasso di tempo. Alcuni wiki permettono di filtrare dette liste in
modo che le modifiche minori - o le modifiche effettuate automaticamente dai cosiddetti bot (codici di
programmazione eseguiti in maniera automatica) - possano essere escluse.
Dalla pagina dei cambiamenti sono accessibili altre due funzioni in quasi tutti i wiki: la cronologia delle revisioni,
che visualizza le precedenti versioni di una pagina, e la funzionalit "Confronta", che pu evidenziare i cambiamenti
tra due revisioni. La cronologia delle revisioni fornisce un editor per aprire e salvare una precedente versione della
pagina e, in tal modo, ristabilire il contenuto originale. La funzionalit "Confronta" pu essere usata per decidere
quale precedente modifica sia opportuna e quale no. Un utente regolare del wiki pu vedere il confronto di un
cambiamento elencato nella pagina "Ultime modifiche" e, se giudica una ultima versione inaccettabile, pu
consultare la cronologia per ristabilire una precedente versione. Questo processo pi o meno efficiente in base al
software wiki utilizzato.
Alcuni wiki rendono possibile aggiungere segnalazioni di consenso su
versioni nella pagina "Ultime modifiche" giudicate accettabili. Tavi di
Scott Moonen introduce "subscribed changes" (simile alla "watchlists"
di Wikipedia), una forma interna di bookmarking che usata per
generare una lista di cambiamenti recenti per configurare solo un
gruppo di pagine specifiche. Wikipedia fornisce link alle pagine che
sono di una certa dimensione per essere evidenziate, in modo che
creando piccole pagine cosiddette "stubs", queste siano rilevate in tutte
le pagine che hanno un link verso di esse.

Per essere sicuri che una serie di pagine mantengano la loro qualit,
Il confronto cronologico evidenzia le differenze
una persona pu impostare un warning per le modifiche che gli
tra due revisioni di una pagina.
permetta di verificare la validit delle nuove versioni in maniera
agevole.

Il controllo delle modifiche


Parecchi wiki pubblici evitano le procedure di una registrazione obbligatoria, tuttavia molti dei maggiori motori wiki
(inclusi MediaWiki, MoinMoin, UseModWiki e TWiki) forniscono metodi per limitare l'accesso in scrittura. Alcuni
motori wiki permettono che utenti singoli siano interdetti dalla scrittura mediante il blocco del loro particolare
indirizzo IP o, se disponibile, del loro username. Comunque, parecchi Internet service provider (ISP) assegnano un
nuovo indirizzo IP per ogni login, cos l'interdizione dell'IP pu spesso essere aggirata facilmente. Per evitare il
Wiki 79

problema, la temporanea interdizione di IP spesso estesa al range degli indirizzi IP; l'idea che ci sia sufficiente
come deterrente. Ci pu, tuttavia, interdire anche utenti incolpevoli che utilizzano lo stesso ISP per tutta la durata
del divieto.
Una comune difesa contro i persistenti "vandali" semplicemente permettere di cancellare e modificare quante
pagine desiderano, sapendo che possono essere facilmente tracciati e annullati nei loro atti. Questa regola pu
facilmente diventare poco pratica di fronte a modifiche sistematiche.
Come misura di emergenza, alcuni wiki hanno un database che pu essere impostato in modalit sola-lettura, quando
alcuni impongono la regola per cui solo utenti che si siano registrati prima di una certa data possano continuare a
scrivere. Tuttavia ogni danno provocato da un "vandalo" pu essere eliminato in maniera rapida e semplice. Pi
problematici sono gli errori inseriti nelle pagine che passano inosservati, per esempio il cambiamento della data di
pubblicazione di un album e le discografie.
In casi estremi molti wiki forniscono pagine che possono essere protette dalla modifica. Le pagine protette in
Wikipedia, ad esempio, possono essere solo modificate dai cosiddetti amministratori, che possono anche revocare la
protezione. Questo costume generalmente considerato come violazione alla filosofia di base del WikiWiki e,
quindi, spesso evitato.

Ricerca
La maggior parte delle wiki offre almeno una ricerca per titolo, e spesso presente una ricerca full text che analizza
il testo dei contenuti. La scalabilit della ricerca dipende dall'utilizzo o meno di un database per i contenuti: un
accesso a un database indicizzato indispensabile per ottenere ricerche rapide su wiki di grandi dimensioni. Su
Wikipedia, il cosiddetto pulsante "Vai" permette al lettore di visualizzare direttamente la pagina che si avvicina il pi
possibile ai criteri della ricerca. Il motore di ricerca MetaWiki stato creato per permettere ricerche parallele su pi
wiki.

Motori wiki
Il motore Wiki il sistema software di tipo collaborativo su cui gira un sistema Wiki. La sua implementazione
consiste generalmente in un programma installato su diversi server che gestiscono un contenuto solitamente
memorizzato in un database relazionale; alcune installazioni tuttavia utilizzano direttamente il file system del server.
Data la relativa semplicit del concetto di wiki, sono state sviluppate un gran numero di implementazioni, nei pi
svariati linguaggi di programmazione; esse vanno da semplici hack, che hanno solo le funzioni di base, fino a sistemi
di amministrazione del contenuto (Content Management System) molto sofisticati.

Comunit wiki
Per chi interessato a creare il proprio wiki, ci sono molte "wiki farm" disponibili, qualcuna delle quali gestisce
anche wiki privati, protetti da password. La wiki-farm pi famosa Wikia, fondata nel 2004 da Jimmy Wales.
Le 30 wiki pi grandi sono elencate su Biggest Wiki[19].
Un modo per trovare una wiki su un particolare soggetto di tuo interesse seguire il Wiki Node Network da una wiki
all'altra. In alternativa, puoi prendere un autobus per un tour delle wiki: TourBusStop.
Wiki 80

Gergo
Un certo numero di termini gergali sono emersi nel corso dello sviluppo della comunit wiki.
WikiGnome
Una persona che contribuisce positivamente a una wiki attraverso piccole correzioni e aggiunte, rendendosi
utile pur restando in genere nell'ombra. Ovviamente questo comportamento potrebbe essere adottato pi o
meno occasionalmente da persone non in grado di collaborare in altri modi per i motivi pi svariati alla wiki.
WikiFairy
Un'altra persona che collabora positivamente dedicandosi in particolare ad abbellire le pagine di una wiki.
WikiGremlin
Una sorta di opposto di un WikiGnome: qualcuno che produce danni attraverso modifiche a volte intelligenti
ma sempre con scopi maligni e negativi. chiaramente una variante del vandalismo.
Il concetto di WikiGnome e WikiFairy potrebbe essere nato sulla Welcome Visitors Portland Pattern Repository's
Wiki[20] dove si trovano anche ulteriori definizioni pi precise[21][22].

Note
[1] (EN) Wiki History (http:/ / c2. com/ cgi/ wiki?WikiHistory).URL consultato in data 11-02-2010.
[2] Cfr. una scheda (http:/ / www. accademiadellacrusca. it/ faq/ faq_risp. php?id=6600& ctg_id=93) dell'Accademia della Crusca: il normale
parlante italiano intimamente convinto che la w rappresenti (anzi sia) una consonante, come in Walter, e che solo per una convenzione
straniera si debba pronunciarla come la semivocale di uomo.
[3] (EN) Tango Desktop Project (http:/ / tango. freedesktop. org/ Tango_Desktop_Project).URL consultato in data 11-02-2010.
[4] (EN) Dotclear Documentation (http:/ / dotclear. org/ documentation/ ).URL consultato in data 11-02-2010.
[5] (FR) EagleFaq (http:/ / faq. eagle-usb. org/ ).URL consultato in data 11-02-2010.
[6] (FR) Manuel Blender francophone (http:/ / blender. doc. fr. free. fr/ ).URL consultato in data 11-02-2010.
[7] Documentazione della comunit italiana di Ubuntu (http:/ / wiki. ubuntu-it. org/ ).URL consultato in data 11-02-2010.
[8] (FR) Nasgaa (http:/ / nasgaia. org/ wiki/ doku. php).URL consultato in data 11-02-2010.
[9] CPDL, Choral Public Domain Library (http:/ / www. cpdl. org/ wiki/ index. php/ Main_Page).URL consultato in data 11-02-2010.
[10] (EN) Sensei's Library (http:/ / senseis. xmp. net/ ).URL consultato in data 11-02-2010.
[11] (FR) websemantique.org (http:/ / websemantique. org).URL consultato in data 11-02-2010.
[12] (FR) xulfr.org (http:/ / xulfr. org/ wiki/ ).URL consultato in data 11-02-2010.
[13] Ekopedia (http:/ / it. ekopedia. org/ Pagina_principale).URL consultato in data 11-02-2010.
[14] Wikiartpedia (http:/ / www. wikiartpedia. org).URL consultato in data 11-02-2010.
[15] Anarcopedia (http:/ / ita. anarchopedia. org/ ).URL consultato in data 11-02-2010.
[16] Wikitravel (http:/ / wikitravel. org/ it/ Pagina_principale).URL consultato in data 11-02-2010.
[17] Bennilogia (http:/ / www. bennilogia. org/ ).URL consultato in data 11-02-2010.
[18] (EN) Wiki Markup Standard (http:/ / meatballwiki. org/ wiki/ WikiMarkupStandard).URL consultato in data 11-02-2010.
[19] (EN) Biggest Wiki (http:/ / meatballwiki. org/ wiki/ BiggestWiki#Biggest_wikis_by_page_count_on_July_3_2004).URL consultato in data
11-02-2010.
[20] (EN) Welcome Visitors Portland Pattern Repository's Wiki (http:/ / www. c2. com/ cgi/ wiki?WelcomeVisitors).URL consultato in data
11-02-2010.
[21] (EN) Wiki Gnome (http:/ / www. c2. com/ cgi/ wiki?WikiGnome).URL consultato in data 11-02-2010.
[22] (EN) Wiki Faeries (http:/ / www. c2. com/ cgi/ wiki?WikiFaeries).URL consultato in data 11-02-2010.
Wiki 81

Bibliografia
Aigrain, Philippe (2003). The Individual and the Collective in Open Information Communities. Intervento alla 16
Conferenza del Commercio Elettronico, Bled, Slovenia, 11 giugno 2003. Disponibile in: (http://www.
debatpublic.net/Members/paigrain/texts/icoic.html)
Aronsson, Lars (2002). Operation of a Large Scale, General Purpose Wiki Website: Experience from susning.nu's
first nine months in service. Studio presentato alla 6 Conferenza Internazionale ICCC/IFIP sulla Pubblicazione
Elettronica, 6-8 novembre 2002, Karlovy Vary, Repubblica Ceca. Disponibile in: (http://aronsson.se/wikipaper.
html)
Benkler, Yochai (2002). Coase's penguin, or, Linux and The Nature of the Firm. The Yale Law Jounal. v.112,
n.3, pp.369446.
Cunningham, Ward and Leuf, Bo (2001): The Wiki Way. Quick Collaboration on the Web. Addison-Wesley,
ISBN 0-201-71499-X.
Delacroix, Jrme (2005): Les wikis, espaces de l'intelligence collective M2 Editions, Paris, ISBN 2-9520514-4-5.
Jansson, Kurt (2002): Wikipedia. Die Freie Enzyklopdie. Lettura al 19 Chaos Communications Congress (19C3),
27 dicembre, Berlino.
Mller, Erik (2003). Loud and clear: How Internet media can work. Presentazione alla Open Cultures conference,
5-6 giugno, Vienna. Disponibile in: (http://opencultures.t0.or.at/oc/participants/moeller)
Mller, Erik (2003). Tanz der Gehirne (http://www.humanist.de/erik/tdg/). Telepolis, 9-30 maggio. Quattro
parti: "Das Wiki-Prinzip", "Alle gegen Brockhaus", "Diderots Traumtagebuch", "Diesen Artikel bearbeiten".
Nakisa, Ramin (2003). Wiki Wiki Wah Wah. Linux User and Developer v.29, pp.4248. Disponibile in: (http://
194.73.118.134/lud29-Collaborative_Software-Wiki.pdf)
Remy, Melanie. (2002). Wikipedia: The Free Encyclopedia. Online Information Review. v.26, n.6, pp.434.
Don Tapscott, Anthony D. Williams. Wikinomics. La collaborazione di massa che sta cambiando il mondo,
collana Economia e storia economica, 2007, ISBN 978-88-453-1384-4

Voci correlate
Bliki
Comunit di pratica
Hapa
Intellipedia
Intercultura
Lista di software wiki
LyricWiki
MediaWiki
Software sociale
UseModWiki
Wikipedia
WikkaWiki
Wikimentario
Wiki 82

Altri progetti
Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/en:Wiki Science
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Wiki

Collegamenti esterni

Comunit Wiki Enciclopedie Wiki


CraoWiki - Importante comunit francofona Wikipedia
generale. Torrent Wiki (http:/ / torrent. culturaliberap2p. it/ wiki/ Pagina_principale) - Wiki su
WikiCanada (http:/ / www. wikicanada. org) (fr) - BitTorrent.
Wiki generale proveniente dal Canada che Ekopedia - Enciclopedia dell'ecologia
propone varie risorse WikiBatteri (http:/ / batterio. netsons. org) - Enciclopedia sui batteri e i microrganismi
Motori wiki (SV) Susning.nu
Internet-Encyclopedia o Wikinfo (http:/ / internet-encyclopedia. org) - Enciclopedia con
politiche di redazione pi permissive rispetto a Wikipedia.
(EN) Disinfopedia
(FR) Newlimits (http:/ / www. newlimits. org) - Enciclopedia pratica che tratta di
tecniche alternative di vita.
Wikiartpedia (http:/ / www. wikiartpedia. org) - Enciclopedia dell'arte e le culture delle
Reti Telematiche.
WikiKto - Enciclopedia libera di argomento cattolico
Altri

(EN) ASP - WikiPot (http:/ / wikipot. raneri. it/ ) Wiki Engines (http:/ / c2. com/ cgi/ wiki?WikiEngines) - Il primo wiki
Perl MeatballWiki: MeatballWiki - Una delle pi importanti comunit wiki sullo sviluppo di
(EN) le WikiWikiWeb original (http:/ / www. comunit online
c2. com/ cgi/ wiki?WelcomeVisitors) Codepedia (http:/ / www. codepedia. com) - Wiki anglofona a vocazione enciclopedica
Kwiki modulare con tanti plugin (http:/ / per i programmatori
www. kwiki. org/ ) "Tour bus stop" al MeatballWiki (http:/ / www. usemod. com/ cgi-bin/ mb.
WikiWikiWeb pl?TourBusStop)
PHP Lista di comunit wiki (http:/ / www. usemod. com/ cgi-bin/ mb.
pl?WikiCommunityList)
(EN) PmWiki (http:/ / www. pmwiki. org)
EvoWiki: L'evoluzione delle wiki (http:/ / www. evowiki. org/ wiki.
(multilingue)
phtml?title=Wiki_evolution)
(FR) WikiNi (http:/ / www. wikini. net)
Come le venuto in mente di creare le comunit wiki? (http:/ / channel9. msdn. com/
(EN) WikkaWiki (http:/ / wikka. jsnx. com)
ShowPost. aspx?PostID=7726) Un'intervista a video con Ward Cunningham sull'idea
(FR) Wiki-FR (http:/ / www. wiki-FR. com)
della nascita delle Wiki.
(EN) phpwiki (http:/ / phpwiki. sourceforge.
Wiki_Science (http:/ / en. wikibooks. org/ wiki/ Wiki_Science): How to start a wiki
net)
(http:/ / wikibooks. org/ wiki/ Wiki_Science:How_to_start_a_Wiki) (su Wikibooks) -
(EN) Rvh (http:/ / www. rvh9. com)
aiuta Wikibooks a iniziare e terminare questo libro.
tikiwiki (http:/ / www. tikiwiki. org)
Possibili nuove caratteristiche delle wiki (http:/ / wikifeatures. wiki. taoriver. net/ moin.
(multilingue)
cgi/ FeatureSummaries)
MediaWiki (http:/ / wikipedia. sourceforge.
Video: Che cosa un Wiki (http:/ / www. ictv. it/ file/ vedi/ 99/ wiki/ )
net/ ) (creato per Wikipedia)
Wiki.Litfiba (http:/ / wiki. litfiba. net) primo esperimento di una biografia ufficiale
DokuWiki (http:/ / www. splitbrain. org/
creata secondo le modalit wiki
Programming/ PHP/ DokuWiki/ index. php)
Libroscuolawiki (http:/ / libroscuolawiki. altervista. org) Esperimento per la creazione
(multilingue).
di testi scolasitici aperti secondo le modalit wiki
Java
(EN) JSPWiki (http:/ / www. jspwiki. org/
Wiki. jsp)
(EN,FR) XWiki (http:/ / www. xwiki. org/
xwiki/ bin/ view/ Main/ WebHome)
(EN) Python - MoinMoin (http:/ / moinmo. in/ )
(EN) Zope/Python - ZWiki (http:/ / zwiki. org/ )
La rubrica dedicata ai Wiki del sito Framasoft
(http:/ / www. framasoft. net/ rubrique335. html)
Folksonomia 83

Folksonomia
Folksonomia un neologismo derivato dal termine di lingua inglese folksonomy che descrive una categorizzazione
di informazioni generata dagli utenti mediante l'utilizzo di parole chiave (o tag) scelte liberamente. Il termine
formato dallunione di due parole, folk e tassonomia; una folksonomia , pertanto, una tassonomia creata da chi la
usa, in base a criteri individuali.
In maniera pi semplice e concreta, questo termine si riferisce alla metodologia utilizzata da gruppi di persone che
collaborano spontaneamente per organizzare in categorie le informazioni disponibili attraverso internet (vedi web
2.0).
Questo fenomeno, in contrasto con i metodi di classificazione formale (in particolare con la tassonomia classica),
cresce soprattutto in comunit non gerarchiche legate ad applicazioni web, attraverso le quali vengono diffusi
contenuti testuali e/o multimediali.
Considerato che gli organizzatori dell'informazione sono di solito gli utenti finali, la folksonomia produce risultati
che riflettono in maniera pi definita l'informazione secondo il modello concettuale della popolazione in cui il
progetto viene realizzato. La folksonomia non direttamente collegata al concetto di classificazione a faccette della
biblioteconomia.

Origine e storia
L'origine dell'unione delle parole folk (o folks) e sonomy (contrazione di tassonomia) stata attribuita a Thomas
Vander Wal.
Tassonomia deriva dalle parole in lingua greca taxis e nomos. Il termine "taxis" significa "ordine". "Nomos" (oppure
"nomia") significa "amministrazione". L'impiego del termine folk molto significativo, in quanto riferisce di una
dimensione popolare (ossia del popolo) di questa pratica, come nel termine folklore o folk music. Scarica quindi il
concetto di sfumature di significato che si legano all'impiego di termini quali social, collective o common. Il folk
rende conto forse di una dimensione intuitiva e quindi anche non metodica e non necessariamente collaborativa di
questa forma di etichettatura.
Tali caratteristiche - che in seguito verranno definite folksonomia - sono apparse per la prima volta verso la fine del
2003 in del.icio.us e sono state rapidamente replicate nel cosiddetto social software.

Studi accademici
La folksonomia comunemente intesa in senso restrittivo come l'operazione di etichettatura (tagging) di contenuti.
Le scienze sociali e l'antropologia hanno a lungo studiato le "classificazioni popolari" ovvero il modo in cui la gente
comune (non esperta) classifica il mondo. Una referenza pu essere il libro di Harold Conklin Folk Classification: A
Topically Arranged Bibliography of Contemporary and Background References Through 1971 (Classificazioni
popolari: una bibliografia ordinata per argomento di riferimenti contemporanei e ambientali nel 1971) (1972, ISBN
0-913516-02-3).
Le folksonomie funzionano meglio quando un gran numero di utenti descrive la stessa di informazione. Per esempio
su del.icio.us molta gente ha messo tra i preferiti Wikipedia [1], ciascuno con un diverso insieme di parole per
descriverla. Tra i vari tag usati, del.icio.us mostra che le parole reference, wiki, e encyclopedia sono le pi popolari,
mentre Simpy mostra anche la popolarit di un collegamento nel tempo, per esempio traccia questo dato per
Wikipedia [2].
"Jon Udell (2004) pensa che l'idea di abbandonare la tassonomia in favore di liste di parole chiave non nuova, e che
la differenza fondamentale in questi sistemi sia il feedback." [3]
Folksonomia 84

Un autore che in Italia ha lavorato sulla Folksonomy e sui suoi aspetti sociologicamente rilevanti (dal punto di vista
non solo sociale ma anche metodologico) Vergani[4].

Note
[1] http:/ / del. icio. us/ url/ bca8b85b54a7e6c01a1bcfaf15be1df5
[2] http:/ / www. simpy. com/ simpy/ LinkHistory. do?href=http%3A%2F%2Fen. wikipedia. org%2Fwiki%2FMain_Page& v=1
[3] http:/ / www. adammathes. com/ academic/ computer-mediated-communication/ folksonomies. html
[4] Vergani, M. (2011), Folksonomy nel Web, tra utopia e realt, in Tosoni, S. (Eds), Nuovi media e ricerca empirica. I percorsi metodologici
degli Internet Studies, Vita e Pensiero, Milano, pp.115-139

Voci correlate
Social bookmarking
Tag (metadato)

Collegamenti esterni
Folksonomia (http://search.dmoz.org/cgi-bin/search?search=Folksonomia&all=yes&cs=UTF-8&cat=World/
Italiano) su Open Directory Project ( Segnala (http://www.dmoz.org/public/suggest?cat=) su DMoz un collegamento
pertinente all'argomento "Folksonomia")
85

Tecnologia

Digitale (informatica)
In informatica ed elettronica con digitale ci si riferisce a tutto ci che viene rappresentato con numeri o che opera
manipolando numeri. Il termine deriva dall'inglese digit, che significa cifra, che a sua volta deriva dal latino digitus,
che significa dito [1].

Aspetti generali
Un determinato insieme di informazioni viene rappresentato in forma digitale come sequenza di numeri presi da un
insieme di valori discreti, ovvero appartenenti a uno stesso insieme ben definito e circoscritto. Attualmente "digitale"
pu essere considerato come sinonimo di "numerico", e si contrappone invece alla forma di rappresentazione
dell'informazione detta analogica, che non analizzabile entro un insieme finito di elementi.

Specificit tecniche
Ci che digitale contrapposto a ci che invece analogico, cio non numerabile, non analizzabile entro un
insieme discreto di elementi. Digitale riferito dunque alla matematica del discreto che lavora con un insieme finito
di elementi, mentre ci che analogico viene modellizzato con la matematica del continuo che tratta un'infinit
(numerabile o non numerabile) di elementi.
possibile convertire un segnale analogico in uno equivalente digitale, costituito da una serie di numeri, questo
processo chiamato digitalizzazione. A seconda degli scopi a cui destinata la conversione, questa pu essere
effettuata in modo grossolano e approssimativo, oppure in modo molto accurato e preciso, in ogni caso il segnale
digitalizzato perde sempre qualcosa rispetto all'originale analogico, non sar mai identico.
Un tipico esempio la conversione di un'onda sinusoidale (pi o meno regolare), se il circuito di conversione usa un
numero di bit insufficienti, risulta visibile geometricamente, una notevole differenza fra il segnale analogico e il
segnale digitalizzato, costituito da un insieme di spezzate (tratti costanti ai valori dell'insieme discreto, tipicamente 0
e 1) del segnale digitale.
L'uso attuale pi comune del digitale nel campo audio, in cui un segnale analogico pu venire approssimato
sufficientemente bene. In alcune applicazioni la qualit del segnale digitale riprodotto risulta indistinguibile
dall'originale analogico. Tale conversione frequente quanto la discretizzazione di variabili continue in matematica
o statistica (aspetto pi generale di un problema soprattutto pratico).
Per esempio, un orologio con le lancette analogico, perch la posizione di ognuna delle sue 3 lancette (ore, minuti e
secondi) pu indicare uno qualsiasi degli infiniti punti che formano la circonferenza del quadrante dell'orologio
stesso, punti che quindi non sono numerabili. Al contrario in un orologio digitale le cifre che compongono l'ora, i
minuti e i secondi indicano solo e soltanto gli 86.400 possibili momenti in cui pu essere suddiviso, in secondi, un
giorno (24 ore x 60 minuti x 60 secondi).
Un oggetto viene digitalizzato, cio reso digitale, se il suo stato originario (analogico) viene "tradotto" e
rappresentato mediante un insieme numerabile di elementi. Per esempio una foto, normalmente formata da un
infinito numero di punti ognuno dei quali formato di un'infinita gamma di colori, viene digitalizzata, e quindi tradotta
in foto digitale, allorch la sua superficie la si rappresenti divisa in un numero discreto di "punti" (in genere piccoli
quadrati o rettangoli detti pixel) ognuno dei quali formato di un colore tra i 16.777.216 possibili (se codificati in
RGB, e cio in una combinazione di 256 sfumature di rosso, 256 di verde e 256 di blu), ovvero 8 bit per colore.
Digitale (informatica) 86

Molte tecnologie ricorrono al digitale per ottenere la riproduzione di un'onda (sonora o luminosa) che analogica; il
modem converte appunto un segnale analogico inviabile attraverso i doppini telefonici in un segnale richiesto dal pc
o altro dispositivo elettronico che funziona tramite bit (0/1) e richiede un segnale digitale. I moderni televisori LCD
funzionano principalmente con segnali digitali, mentre i televisori della precedente generazione CRT avevano un
funzionamento basato primariamente su segnali analogici.

Note
[1] Con le dita si contano i numeri.

Voci correlate
Analogico
Comunicazioni
Digitalizzazione

Suite di protocolli Internet


In informatica e telecomunicazioni la suite di protocolli Internet un insieme di protocolli di rete su cui si basa il
funzionamento della rete Internet. A volte, per sineddoche, chiamata suite di protocolli TCP/IP, in funzione dei due
pi importanti protocolli in essa definiti: il Transmission Control Protocol (TCP) e l'Internet Protocol (IP).[1][2][3]

Storia del TCP/IP


Nei primi anni settanta, la Defence Advanced Research Project Agency (DARPA) finanzi l'Universit di Stanford e
la BBN (Bolt, Beranek and Newman) per lo sviluppo di un insieme di protocolli di comunicazione da utilizzarsi per
lo sviluppo di reti a commutazione di pacchetto, per l'interconnessione di calcolatori eterogenei. Fu cos che nacque
lInternet Protocol Suite i cui due protocolli pi noti sono il TCP (Transmission Control Protocol) e l'IP
(Internet P'rotocol).
Si fa riferimento a questa architettura di rete con la sigla TCP/IP o IP/TCP (quest'ultima non quasi mai usata). I
creatori di tali protocolli di trasmissione, tuttora utilizzati nel web, sono nello specifico Robert Kahn e Vinton Cerf, a
cui l'ex Presidente degli Stati Uniti George W. Bush ha consegnato la Presidential Medal of Freedom, ovvero la pi
alta tra le onorificenze civili a stelle e strisce, il 9 novembre 2005.[4] I due studiosi non sono nuovi a questo genere di
premiazioni: all'inizio del 2005 stato assegnato loro il prestigioso 2004 A.M. Turing Award, equivalente del Premio
Nobel nel settore dell'Information Technology. Cerf e Kahn hanno sviluppato lo standard per la trasmissione di
pacchetti via rete nel lontano 1973, mentre lavoravano a un progetto di sviluppo dei sistemi di comunicazione voluto
dalla DARPA (Defense Advanced Research Projects Agency). Attualmente Vint Cerf, collabora con Google alla
creazione degli standard per le future applicazioni e nel frattempo si dedica allo sviluppo di nuovi protocolli di
comunicazione interplanetaria per il Jet Propulsion Lab della Nasa. Robert Kahn, invece, dopo 13 anni di servizio
presso la DARPA diventato presidente della Corporation for National Research Initiatives (CNRI).
Questi protocolli, utilizzabili gratuitamente da tutti perch di pubblico dominio fin dall'inizio, ottennero un elevato
successo (utilizzati da un gruppo di ricercatori per ARPAnet).
Questo genera alcune ambiguit dovute al fatto che il nome pi corretto sarebbe Internet Protocol Suite. Per esempio
succede di sentir parlare di servizi basati su TCP/IP anche quando in realt, invece di TCP, viene usato un protocollo
alternativo, UDP, anch'esso appartenente all'Internet Protocol Suite. In genere il TCP viene utilizzato per quelle
applicazioni che richiedono un servizio orientato alla connessione, come ad esempio la posta elettronica e il file
sharing, mentre l'UDP prende sempre pi piede per le applicazioni in tempo reale come l'on-line gaming o lo
Suite di protocolli Internet 87

streaming audio e video; la differenza fra i due protocolli risiede nella maggiore affidabilit nel trasporto dei dati di
TCP, che offre una serie di servizi appositamente pensati (gestione del flusso, della congestione...), mentre UDP
punta molto sulla velocit di trasmissione a scapito della affidabilit. Si tenga quindi sempre presente che la sigla
TCP/IP di utilizzo talmente comune da essere utilizzata, talvolta, anche quando esistono termini alternativi pi
corretti.
L'architettura adottata dalla rete Internet il TCP/IP che si quindi imposto come standard de facto proprio grazie
alla diffusione e ai massicci investimenti legati a internet.

Caratteristiche
Tale suite pu essere descritta per analogia con il modello OSI, che descrive i livelli della pila di protocolli. In una
pila di protocolli ogni livello risolve una serie di problemi che riguardano la trasmissione di dati e fornisce un ben
definito servizio ai livelli pi alti. I livelli pi alti sono logicamente pi vicini all'utente e funzionano con dati pi
astratti lasciando ai livelli pi bassi il compito di tradurre i dati in forme mediante le quali possono essere
fisicamente manipolati e trasmessi infine sul canale di comunicazione.
Il modello Internet stato prodotto come una soluzione ad un problema ingegneristico pratico in quanto si trattato
di aggiungere via via strati protocollari all'architettura di rete delle reti locali per ottenere un'interconnessione
efficiente ed affidabile. Il modello OSI, in un altro senso, invece stato l'approccio pi teorico-deduttivo ed stato
anche prodotto nel pi vecchio modello di rete.
Per comprendere la struttura della suite TCP/IP, si utilizza una schematizzazione a livelli. Ogni livello esegue una
specifica serie di operazioni; ad ogni livello, ci si avvicina sempre pi dall'interfaccia utente (quella con cui
interagiamo) all'interfaccia di rete. Il messaggio trasmesso modificato di conseguenza.
A differenza del modello ISO/OSI sono presenti quattro livelli invece di sette, partendo dall'alto:[5]
Livello applicazione
Livello di trasporto
Livello internet
Livello host-to network: comprendente il livello di collegamento e livello fisico
Essendo importante la distinzione fra livello di collegamento e livello fisico, possibile utilizzare un modello ibrido
che distingue i due strati e porta il numero di livelli a cinque.[6]

Livello applicazione
Il primo livello quello dell'applicazione: esso rappresenta l'interfaccia con l'utente ed abilita, ad esempio, la
consultazione di pagine web, stabilendo e gestendo le sessioni di lavoro dei processi client tra il nostro browser ed il
server web.[7]
Il protocollo di trasporto TCP mette in coda i messaggi generati da client e server e li trasmette sotto forma di
pacchetti su di una connessione full-duplex; il buon fine della spedizione attestato da una ricevuta di ritorno o
riscontro. Anche questo un collegamento virtuale tra le due applicazioni, i cui dettagli sono demandati al
successivo livello, detto di rete.
Suite di protocolli Internet 88

Livello di trasporto
Quindi, il livello di trasporto offre un servizio al livello delle applicazioni avvalendosi dei servizi del sottostante
livello di rete (ed in particolare dell'Internet Protocol).[8]
Per gestire molteplici processi attivi nel trasferimento dati sul medesimo nodo (o computer), cio pi sessioni di
navigazione attive, il livello di trasporto (TCP o UDP) utilizza pi numeri di porta.
TCP nell'invio dei pacchetti usa il meccanismo dello Sliding Window (o finestra scorrevole). Una serie di pacchetti
viene inviata da TCP seguendo delle regole ben precise:
Ad ogni finestra di pacchetti spedita il trasmettitore fa partire un timeout.
Il Ricevitore invia per ogni pacchetto ricevuto un ACK indicando il successivo pacchetto atteso.
Il trasmettitore considera quindi spediti tutti i pacchetti precedenti.
Se il timeout scade oppure sono ricevuti 3 ACK duplicati, TCP assume si sia verificata la perdita di uno o pi
pacchetti e provvede ad implementare opportune strategie di ritrasmissione dei dati e di controllo della
congestione.
Questa una tecnica molto importante perch fornisce un canale di comunicazione affidabile. Inoltre TCP contiene
meccanismi per gestire la congestione ed il controllo di flusso.

Livello internet
Internet Protocol (IP) il protocollo di InternetWorking del modello DOD/DARPA (secondo il modello OSI
classificato nel livello rete). Esso si occupa di gestire l'indirizzamento dei nodi e l'instradamento. A ciascun nodo
viene infatti assegnato un indirizzo IP che lo identificher in modo non ambiguo in rete. Le funzionalit di
instradamento, invece, consentono di selezionare il percorso migliore per veicolare un messaggio verso un dato nodo
destinatario, noto che sia il suo indirizzo IP.[9]

Livello host-to network


Sotto il livello internet, il modello di riferimento TCP/IP specifica solo che ci deve essere un livello host-to-network
in grado di spedire i pacchetti IP.[10] Nel modello ISO/OSI questo strato corrisponde ai primi due livelli: il livello di
collegamento e il livello fisico.
Al livello di collegamento si decide come fare il trasferimento del messaggio per ogni singolo tratto del percorso: dal
computer del web browser al primo router, dal primo router al secondo, dal secondo al terzo e dal terzo al computer
del server. Questo un collegamento virtuale tra due computer (o router) adiacenti. Anche in questo caso le
interfacce di comunicazione dei nodi adiacenti saranno individuate per mezzo di un indirizzo univoco, usualmente
denominato indirizzo MAC.
Il livello fisico, trasmette il messaggio sul canale di comunicazione usualmente sotto forma di segnale elettrici o
elettromagnetici, sebbene sia anche possibile utilizzare onde acustiche (come ad esempio nelle reti di sensori
sottomarine).
Suite di protocolli Internet 89

Note
[1] (EN) TCP/IP Definition (http:/ / www. linfo. org/ tcp_ip. html). linfo.org, 30 ottobre 2005.URL consultato in data 22 settembre 2012.
[2] Andrew S. Tanenbaum, op. cit., p. 41
[3] Kevin R. Fall, W. Richard Stevens, op. cit., pp. 63-64
[4] (EN) Presidential Medal of Freedom Recipients (http:/ / www. senate. gov/ pagelayout/ reference/ two_column_table/
Presidential_Medal_of_Freedom_Recipients. htm). senate.gov.URL consultato in data 22 settembre 2012.
[5] Andrew S. Tanenbaum, op. cit., p. 43
[6] Andrew S. Tanenbaum, op. cit., p. 49
[7] Andrew S. Tanenbaum, op. cit., pp. 43-44
[8] Andrew S. Tanenbaum, op. cit., pp. 42-43
[9] Andrew S. Tanenbaum, op. cit., p. 42
[10] Andrew S. Tanenbaum, op. cit., p. 44

Bibliografia
Andrew Stuart Tanenbaum, Reti di calcolatori (http://books.google.it/books?id=n5m6VFpZYgUC), Pearson
Italia S.p.a., 2003. ISBN 978-8871921822
Kevin R. Fall, W. Richard Stevens, TCP/IP Illustrated, Volume 1: The Protocols (http://books.google.it/
books?id=a23OAn5i8R0C) (in inglese), Addison-Wesley, 2011. ISBN 978-0132808187

Collegamenti esterni
(EN) RFC 675 - Specification of Internet Transmission Control Program, dicembre 1974
(EN) RFC 1122 - Requirements for Internet Hosts -- Communication Layers
(EN) RFC 1180 - A TCP/IP Tutorial

Transmission Control Protocol


In telecomunicazioni e informatica il Transmission Control Protocol (TCP), anche chiamato Transfer Control
Protocol, un protocollo di rete a pacchetto di livello di trasporto, appartenente alla suite di protocolli Internet, che
si occupa di controllo di trasmissione. definito nella RFC 793 e su di esso si appoggiano gran parte delle
applicazioni della rete Internet. presente solo sui terminali di rete (host) e non sui nodi interni di commutazione
della rete di trasporto, implementato all'interno del rispettivo sistema operativo e vi si accede automaticamente dal
browser attraverso l'uso di opportune chiamate di sistema definite nelle API di sistema.

Descrizione
Il TCP pu essere classificato al livello trasporto (OSI level 4) del modello di riferimento OSI, e di solito usato in
combinazione con il protocollo di livello rete (OSI level 3) IP. La corrispondenza con il modello OSI non perfetta,
in quanto il TCP e l'IP nascono prima del suddetto modello. La loro combinazione indicata come TCP/IP e, alle
volte, erroneamente considerata un unico protocollo. Da qui, la difficolt di una classificazione univoca per un
protocollo che comprende, a pieno titolo, due livelli dello stack OSI (o pila ISO/OSI in italiano).
In linea con i dettami del livello di trasporto stabiliti dal modello ISO-OSI e con l'intento di superare il problema
della mancanza di affidabilit e controllo della comunicazione sorto con l'interconessione su vasta scala di reti locali
in un'unica grande rete geografica, TCP stato progettato e realizzato per utilizzare i servizi offerti dai protocolli di
rete di livello inferiore (IP e protocolli di livello fisico e livello datalink) che definiscono efficacemente il modo di
trasferimento sul canale di comunicazione, ma che non offrono alcuna garanzia di affidabilit sulla consegna in
termini di ritardo, perdita ed errore dei pacchetti informativi trasmessi, sul controllo di flusso tra terminali e sul
controllo della congestione di rete, supplendo quindi ai problemi di cui sopra e costruendo cos un canale di
Transmission Control Protocol 90

comunicazione affidabile tra due processi applicativi di rete. Il canale di comunicazione cos costruito costituito
da un flusso bidirezionale di byte a seguito dell'instaurazione di una connessione agli estremi tra i due terminali in
comunicazione. Inoltre alcune funzionalit di TCP sono vitali per il buon funzionamento complessivo di una rete IP.
Sotto questo punto di vista TCP pu essere considerato come un elemento di rete che si occupa di garantire una
qualit di servizio minima su una rete IP sotto che di tipo best-effort.
Il TCP nacque nel 1970 come frutto del lavoro di un gruppo di ricerca del dipartimento di difesa statunitense. I suoi
punti di forza sono l'alta affidabilit e robustezza. La sua popolarit si deve anche grazie ad una sua implementazione
diffusa dalla Universit di Berkeley, rilasciata in California sotto forma di sorgenti (TCP Berkeley). Molte tuttavia
sono le implementazioni e sviluppi che si sono succedute nel tempo come evoluzioni e miglioramenti (es. TCP
Tahoe, TCP Reno, TCP New Reno).

Caratteristiche principali
TCP un protocollo orientato alla connessione, ovvero prima di poter trasmettere dati deve stabilire la
comunicazione, negoziando una connessione tra mittente e destinatario, che rimane attiva anche in assenza di
scambio di dati e viene esplicitamente chiusa quando non pi necessaria. Esso quindi possiede le funzionalit per
creare, mantenere e chiudere/abbattere una connessione.
Il servizio offerto da TCP il trasporto di un flusso di byte bidirezionale tra due applicazioni in esecuzione su
host differenti. Il protocollo permette alle due applicazioni di trasmettere contemporaneamente nelle due
direzioni, quindi il servizio pu essere considerato "Full-Duplex" anche se non tutti i protocolli applicativi basati
su TCP utilizzano questa possibilit.
Il flusso di byte viene frazionato in blocchi per la trasmissione dall'applicazione a TCP (che normalmente
implementato all'interno del sistema operativo), per la trasmissione all'interno di segmenti TCP, per la consegna
all'applicazione che lo riceve, ma questa divisione in blocchi non necessariamente la stessa nei diversi passaggi.
TCP garantisce che i dati trasmessi, se giungono a destinazione, lo facciano in ordine e una volta sola ("at most
once"). Pi formalmente, il protocollo fornisce ai livelli superiori un servizio equivalente ad una connessione
fisica diretta che trasporta un flusso di byte. Questo realizzato attraverso vari meccanismi di acknowledgment e
di ritrasmissione su timeout.
TCP offre funzionalit di controllo di errore sui pacchetti pervenuti grazie al campo checksum contenuto nella sua
PDU.
TCP possiede funzionalit di controllo di flusso tra terminali in comunicazione e controllo della congestione sulla
connessione, attraverso il meccanismo della finestra scorrevole. Questo permette di ottimizzare l'utilizzo della rete
anche in caso di congestione, e di condividere equamente la capacit disponibile tra diverse sessioni TCP attive su
un collegamento.
TCP fornisce un servizio di multiplazione delle connessioni su un host, attraverso il meccanismo delle porte.

Confronto con UDP


Le principali differenze tra TCP e UDP (User Datagram Protocol), l'altro principale protocollo di trasporto della
suite di protocolli Internet, sono:
mentre TCP un protocollo orientato alla connessione, pertanto per stabilire, mantenere e chiudere una
connessione, necessario inviare pacchetti di servizio i quali aumentano l'overhead di comunicazione. Al
contrario, UDP invece senza connessione ed invia solo i datagrammi richiesti dal livello applicativo;
UDP non offre nessuna garanzia sull'affidabilit della comunicazione ovvero sull'effettivo arrivo dei datagrammi,
sul loro ordine in sequenza in arrivo, al contrario il TCP tramite i meccanismi di acknowledgement e di
ritrasmissione su timeout riesce a garantire la consegna dei dati, anche se al costo di un maggiore overhead
(raffrontabile visivamente confrontando la dimensione delle intestazioni dei due protocolli);
l'oggetto della comunicazione di TCP il flusso di byte mentre quello di UDP il singolo datagramma.
Transmission Control Protocol 91

L'utilizzo del protocollo TCP rispetto a UDP , in generale, preferito quando necessario avere garanzie sulla
consegna dei dati o sull'ordine di arrivo dei vari segmenti (come per esempio nel caso di trasferimenti di file). Al
contrario UDP viene principalmente usato quando l'interazione tra i due host idempotente o nel caso si abbiano
forti vincoli sulla velocit e l'economia di risorse della rete (es. instant messaging).

Segmento TCP
La PDU di TCP detta segmento. Ciascun segmento viene normalmente imbustato in un pacchetto IP, ed costituito
dall'intestazione (header) TCP e da un carico utile (in inglese payload), ovvero dati di livello applicativo. I dati
contenuti nell'intestazione costituiscono un canale di comunicazione tra le due entit TCP, che viene utilizzato per
realizzare le funzionalit dello strato di trasporto e non accessibile agli strati dei livelli superiori.
Un segmento TCP cos strutturato:

TCP Header
Bit offset Bits 03 47 815 1631

0 Source port Destination port

32 Sequence number

64 Acknowledgment number

96 Data offset Reserved CWR ECE URG ACK PSH RST SYN FIN Window Size

128 Checksum Urgent pointer

160 Options (optional)

160/192+ Data

Source port [16 bit] - Identifica il numero di porta sull'host mittente associato alla connessione TCP.
Destination port [16 bit] - Identifica il numero di porta sull'host destinatario associato alla connessione TCP.
Sequence number [32 bit] - Numero di sequenza, indica lo scostamento (espresso in byte) dell'inizio del
segmento TCP all'interno del flusso completo, a partire dall' Initial Sequence Number (ISN), negoziato all'apertura
della connessione.
Acknowledgment number [32 bit] - Numero di riscontro, ha significato solo se il flag ACK impostato a 1, e
conferma la ricezione di una parte del flusso di dati nella direzione opposta, indicando il valore del prossimo
Sequence number che l'host mittente del segmento TCP si aspetta di ricevere.
Data offset [4 bit] - Indica la lunghezza (in word da 32 bit) dell'header del segmento TCP; tale lunghezza pu
variare da 5 word (20 byte) a 15 word (60 byte) a seconda della presenza e della lunghezza del campo facoltativo
Options.
Reserved [4 bit] - Bit non utilizzati e predisposti per sviluppi futuri del protocollo; dovrebbero essere settati a
zero.
Flags [8 bit] - Bit utilizzati per il controllo del protocollo:
CWR (Congestion Window Reduced) - se settato a 1 indica che l'host sorgente ha ricevuto un segmento TCP
con il flag ECE settato a 1 (aggiunto all'header in RFC 3168).
ECE (ECN-Echo) - se settato a 1 indica che l'host supporta ECN (Explicit Congestion Notification) durante il
3-way handshake (aggiunto all'header in RFC 3168).
URG - se settato a 1 indica che nel flusso sono presenti dati urgenti alla posizione (offset) indicata dal campo
Urgent pointer. Urgent Pointer punta alla fine dei dati urgenti;
ACK - se settato a 1 indica che il campo Acknowledgment number valido;
PSH - se settato a 1 indica che i dati in arrivo non devono essere bufferizzati ma passati subito ai livelli
superiori dell'applicazione;
Transmission Control Protocol 92

RST - se settato a 1 indica che la connessione non valida; viene utilizzato in caso di grave errore; a volte
utilizzato insieme al flag ACK per la chiusura di una connessione.
SYN - se settato a 1 indica che l'host mittente del segmento vuole aprire una connessione TCP con l'host
destinatario e specifica nel campo Sequence number il valore dell' Initial Sequence Number (ISN); ha lo scopo
di sincronizzare i numeri di sequenza dei due host. L'host che ha inviato il SYN deve attendere dall'host
remoto un pacchetto SYN/ACK.
FIN - se settato a 1 indica che l'host mittente del segmento vuole chiudere la connessione TCP aperta con
l'host destinatario. Il mittente attende la conferma dal ricevente (con un FIN-ACK). A questo punto la
connessione ritenuta chiusa per met: l'host che ha inviato FIN non potr pi inviare dati, mentre l'altro host
ha il canale di comunicazione ancora disponibile. Quando anche l'altro host invier il pacchetto con FIN
impostato la connessione, dopo il relativo FIN-ACK, sar considerata completamente chiusa.
Advertise Window [16 bit] - Indica la dimensione della finestra di ricezione dell'host mittente, cio il numero di
byte che il mittente in grado di accettare a partire da quello specificato dall'acknowledgment number.
Checksum [16 bit] - Campo di controllo utilizzato per la verifica della validit del segmento. ottenuto facendo
il complemento a 1 della somma complemento a uno a 16 bit dell'intero header TCP (con il campo checksum
messo a zero),dell'intero payload, con l'aggiunta di uno pseudo header composto da: indirizzo IP
sorgente(32bit),indirizzo IP destinazione(32bit), un byte di zeri, un byte che indica il protocollo e due byte che
indicano la lunghezza del pacchetto TCP (header + dati).
Urgent pointer [16 bit] - Puntatore a dato urgente, ha significato solo se il flag URG settato a 1 ed indica lo
scostamento in byte a partire dal Sequence number del byte di dati urgenti all'interno del flusso.
Options - Opzioni (facoltative) per usi del protocollo avanzati.
Data - rappresenta il carico utile o payload da trasmettere cio la PDU proveniente dal livello superiore.

Connessione
Prima ancora del trasferimento dei dati su canale di comunicazione e delle operazioni di controllo di trasmissione sul
flusso dei dati in ricezione, in trasmissione TCP si occupa di instaurare la connessione agli estremi tra i processi
applicativi dei terminali in comunicazione attraverso la definizione del socket ovvero coppia indirizzo IP, porta sia
del mittente che del destinatario. Si ricorda invece che la commutazione interna nei nodi della rete di trasporto dati
segue invece tipicamente la commutazione di pacchetto ovvero senza circuito o connessione fissa dedicata tipica
invece della commutazione di circuito. Il fine della connessione TCP in ogni caso il riservamento di risorse tra
processi applicativi che si scambiano informazioni o servizi tra loro (es. server e client). Al termine della
connessione, TCP attua la fase dell'abbattimento della connessione. Le due procedure sono distinte e descritte a
seguito. L'implementazione di applicazioni di connessione di rete a pacchetto ricade nell'ambito della cosiddetta
programmazione socket.
Transmission Control Protocol 93

Apertura di una connessione - Three-way handshake


La procedura utilizzata per instaurare in
modo affidabile una connessione TCP tra
due host chiamata three-way handshake
(stretta di mano in 3 passaggi), indicando la
necessit di scambiare 3 messaggi tra host
mittente e host ricevente affinch la
connessione sia instaurata correttamente.
Consideriamo ad esempio che l'host A
intenda aprire una connessione TCP con
l'host B; i passi da seguire quindi sono:

1. A invia un segmento SYN a B - il flag


SYN impostato a 1 e il campo Sequence
number contiene il valore x che specifica
l' Initial Sequence Number di A;
2. B invia un segmento SYN/ACK ad A -
i flag SYN e ACK sono impostati a 1, il
campo Sequence number contiene il
valore y che specifica l' Initial Sequence Number di B e il campo Acknowledgment number contiene il valore x+1
confermando la ricezione del ISN di A;
3. A invia un segmento ACK a B - il campo Acknowledgment number contiene il valore y+1 confermando la
ricezione del ISN di B.
Il terzo segmento non sarebbe, idealmente, necessario per l'apertura della connessione in quanto gi dopo la
ricezione da parte di A del secondo segmento, entrambi gli host hanno espresso la loro disponibilit all'apertura della
connessione. Tuttavia esso risulta necessario al fine di permettere anche all'host B una stima del timeout iniziale,
come tempo intercorso tra l'invio di un segmento e la ricezione del corrispondente ACK.
Il flag SYN risulta utile nell'implementazione pratica del protocollo, e nella sua analisi da parte dei firewall: nel
traffico TCP i segmenti SYN stabiliscono nuove connessioni, mentre quelli con il flag non attivo appartengono a
connessioni gi instaurate.
I segmenti utilizzati durante l'handshake sono solitamente 'solo header', ossia hanno il campo Data vuoto essendo
questa una fase di sincronizzazione tra i due host e non di scambio di dati.
Transmission Control Protocol 94

Chiusura di una connessione - Four-way handshake


Dopo che stata stabilita, una connessione TCP non considerata
una singola connessione bidirezionale, ma piuttosto come
l'affasciamento di due connessioni monodirezionali. Pertanto,
ognuna delle parti deve terminare la sua connessione, e possono
esistere anche connessioni aperte a met, in cui solo uno dei due
terminali ha chiuso la connessione e non pu pi trasmettere, ma
pu (e deve) ricevere i dati dall'altro terminale.

Di conseguenza, la chiusura della connessione si pu effettuare in


due modi: con un handshake a tre vie, in cui le due parti chiudono
contemporaneamente le rispettive connessioni, o con uno a quattro
vie, in cui le due connessioni vengono chiuse in tempi diversi.
L'handshake a 3 vie omologo a quello usato per l'apertura della
connessione, con la differenza che il flag utilizzato il FIN invece
del SYN. Un terminale invia un pacchetto con la richiesta FIN,
l'altro risponde con un FIN + ACK, ed infine il primo manda
l'ultimo ACK, e l'intera connessione viene terminata.
L'handshake a 4 vie invece viene utilizzato quando la disconnessione non contemporanea tra i due terminali in
comunicazione. In questo caso uno dei due terminali invia la richiesta di FIN, e attende l'ACK. L'altro terminale far
poi altrettanto, generando quindi un totale di 4 pacchetti.

Multiplazione e porte
Ciascuna connessione TCP attiva associata a un socket aperto da un processo (il socket lo strumento offerto dal
sistema operativo alle applicazioni per usare le funzionalit della rete). TCP si occupa di smistare i dati tra le
connessioni attive ed i relativi processi. Per questo, a ciascuna connessione tra due host viene associato un numero di
porta su ciascuno dei due host, che un intero senza segno a 16 bit (0-65535), contenuto nell'apposito campo
dell'header.
Una connessione TCP sar quindi identificata dagli indirizzi IP dei due host e dalle porte utilizzate sui due host.
In questo modo, un server pu accettare connessioni da pi client contemporaneamente attraverso una o pi porte, un
client pu stabilire pi connessioni verso pi destinazioni, ed anche possibile che un client stabilisca
contemporaneamente pi connessioni indipendenti verso la stessa porta dello stesso server.

Server e Client
I due processi che comunicano attraverso una connessione TCP hanno ruoli diversi:
Il processo che avvia una nuova connessione TCP detto client, ed invia una richiesta di connessione verso una
determinata porta.
Affinch la connessione venga stabilita, su quella porta deve esserci un processo server "in ascolto", che accetta di
stabilire una connessione TCP.
Le porte conosciute e registrate sono quindi utilizzate dai processi server, e sono convenzionalmente associate a
particolari servizi, in modo che un client sappia a quale porta connettersi per raggiungere un determinato server.
Il processo server, che in ascolto su una certa porta, rimane bloccato in attesa che un client si colleghi. Il processo
client richiede di stabilire una connessione verso un determinato server su una determinata porta. Normalmente la
porta sorgente usata dal client viene allocata dinamicamente dal sistema operativo del client. Quando il TCP
stabilisce la connessione, a entrambi i processi viene assegnato un socket tramite cui essi possono comunicare tra
Transmission Control Protocol 95

loro. Tipicamente il processo server effettua una fork, affida al figlio il compito di comunicare con il nuovo client e
si rimette in ascolto. Da questo punto in poi, client e server hanno ruoli simmetrici, e utilizzano gli stessi strumenti
per comunicare attraverso il socket.

Affidabilit della comunicazione

Consegna ordinata ed eliminazione di duplicati


Il Sequence number, o numero di sequenza, serve a identificare e posizionare in maniera ordinata il carico utile del
segmento TCP all'interno del flusso di dati. Con la trasmissione tipica a commutazione di pacchetto delle rete dati
infatti ciascun pacchetto pu seguire percorsi diversi in rete e giungere fuori sequenza in ricezione.
In ricezione TCP si aspetta di ricevere il segmento successivo all'ultimo segmento ricevuto in ordine ovvero quello il
cui numero di sequenza pari al numero di sequenza dell'ultimo pervenuto in ordine pi la dimensione del carico
utile del segmento in attesa (cio del suo campo Data).
In relazione al numero di sequenza TCP ricevente attua le seguenti procedure:
se il numero di sequenza ricevuto quello atteso invia direttamente il carico utile del segmento al processo di
livello applicativo e libera i propri buffer.
se il numero di sequenza ricevuto maggiore di quello atteso deduce che uno o pi segmenti ad esso precedenti
sono andati persi, ritardati dal livello di rete sottostante o ancora in transito sulla rete. Pertanto, memorizza
temporaneamente in un buffer il carico utile del segmento ricevuto fuori sequenza per poterlo consegnare al
processo applicativo solo dopo aver ricevuto e consegnato anche tutti i segmenti precedenti non ancora pervenuti
passanti anch'essi per il buffer, aspettandone l'arrivo fino ad un tempo limite prefissato (time-out). All'istante di
consegna del blocco ordinato di segmenti tutto il contenuto del buffer viene liberato. Dal punto di vista del
processo applicativo, quindi, i dati arriveranno in ordine anche se la rete ha per qualsiasi motivo alterato questo
ordine realizzando cos il requisito della consegna ordinata dei dati.
se il numero di sequenza ricevuto inferiore a quello atteso, il segmento viene considerato un duplicato di uno gi
ricevuto e gi inviato allo strato applicativo e dunque scartato. Questo permette di realizzare l'eliminazione dei
duplicati di rete.

Riscontro dei pacchetti e ritrasmissione


Per ogni segmento ricevuto in sequenza inoltre TCP lato ricevente invia un Acknowledgment Number o numero di
riscontro dell'avvenuta ricezione. Il numero di riscontro presente in un segmento riguarda il flusso di dati nella
direzione opposta. In particolare, il numero di riscontro inviato da A a B pari al numero di sequenza atteso da A e,
quindi, riguarda il flusso di dati da B ad A.
In particolare il protocollo TCP adotta la politica di Conferma cumulativa, ovvero l'arrivo di numero di riscontro
indica al TCP trasmittente che il ricevente ha ricevuto e correttamente inoltrato al proprio processo applicativo il
segmento avente numero di sequenza pari al numero di riscontro indicato (-1) ed anche tutti i segmenti ad esso
precedenti. Per tale motivo TCP lato trasmittente mantiene temporaneamente in un buffer una copia di tutti i dati
inviati, ma non ancora riscontrati: quando questi riceve un numero di riscontro per un certo segmento, deduce che
tutti i segmenti precedenti a quel numero sono stati ricevuti correttamente liberando il proprio buffer dai dati. La
dimensione massima dei pacchetti riscontrabili in maniera cumulativa specificata dalle dimensioni della cosiddetta
finestra scorrevole.
Per evitare tempi di attesa troppo lunghi o troppo corti per ciascun segmento inviato TCP lato trasmittente avvia un
timer, detto timer di ritrasmissione RTO (Retransmission Time Out): se questi non riceve un ACK di riscontro per il
segmento inviato prima che il timer scada, TCP assume che tutti i segmenti trasmessi a partire da questo siano andati
persi e quindi procede alla ritrasmissione.
Transmission Control Protocol 96

Si noti che, in TCP, il meccanismo dei numeri di riscontro non permette al ricevitore di comunicare al trasmettitore
che un segmento stato perso, ma alcuni dei successivi sono stati ricevuti (meccanismo ad Acknowledgment Number
negativi), quindi possibile che per un solo pacchetto perso ne debbano essere ritrasmessi molti. Questo
comportamento non ottimale compensato dalla semplicit del protocollo. Questa tecnica detta Go-Back-N (vai
indietro di N segmenti); l'alternativa, ovvero progettare il protocollo in modo tale che solo i pacchetti effettivamente
persi vengano ritrasmessi, detta Selective Repeat (ripetizione selettiva); l'utilizzo per di alcuni campi opzionali
appositi permette l'utilizzo della ripetizione selettiva.
I numeri di riscontro e i relativi timer di ritrasmissione permettono quindi di realizzare la consegna affidabile,
ovvero di garantire che tutti i dati inviati siano comunque consegnati nel caso in cui qualche pacchetto possa essere
perso nel transito attraverso la rete (controllo di errore in termini di riscontro di trasmissione).

Controllo di flusso
L'affidabilit della comunicazione in TCP garantita anche dal cosiddetto controllo di flusso ovvero far in modo che
il flusso di dati in trasmissione non superi le capacit di ricezione ovvero di memorizzazione del ricevente con
perdita di pacchetti e maggior peso e latenze nelle successive richieste di ritrasmissione. Viene attuato attraverso la
specifica da parte del destinatario di un opportuno campo noto come RCW_WND (finestra di ricezione) il quale
specifica il numero massimo di segmenti ricevibile dal destinatario.

Controllo di congestione
Infine l'ultimo tipo di controllo effettuato da TCP per garantire affidabilit alla comunicazione il cosiddetto
controllo della congestione ovvero far in modo che si limitino il pi possibile fenomeni di congestione all'interno
della rete per eccessivo traffico sui dispositivi di rete con perdita di pacchetti in transito e maggior peso e latenze
nelle successive richieste di ritrasmissione, modulando nel tempo la quantit di dati in trasmissione in funzione dello
stato interno di congestione. La particolarit di tale controllo che viene effettuato agendo sulla trasmissione agli
estremi cio sui terminali di rete e non attraverso la commutazione interna alla rete grazie alle informazioni
deducibili dal terminale stesso sullo stato della trasmissione dei pacchetti. Nello specifico, una volta "stimato" lo
stato di congestione interno della rete avendo scelto come parametro di riferimento la perdita di pacchetti trasmessi
desunta dai mancati ACK di riscontro dei pacchetti stessi, tale controllo viene poi attuato attraverso la definizione da
parte del mittente di un opportuno campo noto come C_WND (finestra di congestione) la quale assegna,
dinamicamente nel tempo, il numero massimo di segmenti da trasmettere al destinatario.

I timer del TCP

Timer di ritrasmissione
Come descritto sopra, il timer di ritrasmissione serve a verificare che ciascun segmento trasmesso venga riscontrato.
La corretta impostazione di questo timer difficile ma molto importante, in quanto un timer troppo breve comporta
ritrasmissioni inutili (il timer scatta mentre il riscontro o il pacchetto sono ancora in viaggio), mentre un timer troppo
lungo comporta attese in caso di effettiva perdita di pacchetti. Ovviamente tale intervallo dovr essere almeno pari al
Round Trip Time cio al tempo di percorrenza a due vie di un pacchetto per tornare al mittente sotto forma di ACK.
Tale RTT, per la natura intrinseca della commutazione di pacchetto interna alla rete, tipicamente variabile in
maniera aleatoria. TCP allora aggiusta continuamente il timer di ritrasmissione basandosi su una stima a media
mobile del Round Trip Time.
Transmission Control Protocol 97

Timer di persistenza
Come spiegato sopra, il TCP utilizza il metodo della finestra scorrevole per gestire il controllo di flusso di dati che il
ricevente in grado di accettare dal mittente. Tra i valori validi di questo campo vi anche lo zero, a significare che
il ricevente richiede l'interruzione momentanea dell'invio di dati.
Nel malaugurato caso in cui il pacchetto che riapre la finestra venga perso, il mittente del canale TCP rimarr per in
attesa indefinita. Per evitare questo, il TCP avvia un timer, detto timer di persistenza, ogni qual volta il ricevente
chiude la finestra. Quando questo timer scade, il mittente invia un pacchetto sonda al ricevente, provocandone una
risposta: in questo modo il mittente potr essere sicuro che la finestra sia chiusa (ricevendo un altro pacchetto con
campo Window a 0) o sbloccarsi dallo stallo (ricevendo un pacchetto con campo Window diverso da zero).

Timer di keepalive
La RFC 793 che definisce il protocollo TCP non prevede particolari azioni da intraprendere quando non ci sono dati
da trasmettere sulla connessioni. Alcune implementazioni per consentono di trasmettere periodicamente segmenti
vuoti, detti keepalive, per evitare di mantenere indefinitamente in memoria connessioni con sistemi che potrebbero
anche non essere pi attivi. In molti sistemi il software applicativo ha la possibilit di scegliere se abilitare o meno i
keepalive per ogni connessione.
Quando si usano i keepalive, presente dunque il timer di keepalive: esso viene reimpostato alla ricezione o alla
trasmissione di ogni segmento, e quando scade viene trasmesso un keepalive. Un valore tipico di due ore.

Timed wait
L'ultimo timer utilizzato da TCP il timed wait. In pratica, prima di disconnettere effettivamente una connessione, i
due estremi del canale attendono un tempo pari al doppio del tempo di vita di un comune pacchetto: questo evita che
dei pacchetti possano rimanere circolanti per la rete anche dopo la chiusura.

Voci correlate
Internet Protocol
Porta (reti)
Finestra scorrevole
User Datagram Protocol (UDP)
SCTP
Controllo di errore
Controllo di flusso
Controllo della congestione in TCP
Transmission Control Protocol 98

Collegamenti esterni
(EN) RFC 793 - Transmission Control Protocol Specifications [1]
Traduzione in italiano dell'RFC [2]
(EN) Porte di comunicazione TCP [3]

Note
[1] http:/ / tools.ietf. org/ html/ rfc0793
[2] http:/ / www. rfc. altervista. org/ rfctradotte/ rfc793_tradotta. txt
[3] http:/ / www. answersthatwork. com/ Download_Area/ ATW_Library/ Networking/ Network__2-List_of_Common_TCPIP_port_numbers.
pdf

Indirizzo IP
Un indirizzo IP (dall'inglese Internet Protocol address) un'etichetta numerica che identifica univocamente un
dispositivo (host) collegato a una rete informatica che utilizza l'Internet Protocol come protocollo di comunicazione.
Un indirizzo IP assolve essenzialmente a due funzioni principali: identificare un dispositivo sulla rete e di
conseguenza fornirne il percorso per la sua raggiungibilit da un altro terminale o dispositivo di rete in una
comunicazione dati a pacchetto.
Pi esattamente l'indirizzo IP viene assegnato a una interfaccia (ad esempio una scheda di rete) che identifica l'host
di rete, che pu essere un personal computer, un palmare, un router, elettrodomestici in generale, ecc. Va
considerato, infatti, che un host pu contenere pi di una interfaccia: ad esempio, un router ha diverse interfacce
(minimo due) per ognuna delle quali occorre un indirizzo IP.
L'indirizzo IP un indirizzo di livello 3 del modello ISO-OSI che si rende necessario per l'instradamento indiretto
tramite l'omonimo protocollo di rete IP ovvero per interconnettere (internetworking) pi sottoreti diverse all'interno
del paradigma TCP-IP della rete Internet. Si contrappone all'indirizzo fisico di livello 2 o indirizzo MAC utilizzato
invece per l' instradamento diretto all'interno di una sottorete locale.

Gli indirizzi IP
Gli indirizzi IP pubblici e i range di indirizzi sono rilasciati e
regolamentati dall'ICANN tramite una serie di organizzazioni
delegate[1]. A causa della saturazione dello spazio di IPv4
l'ICANN per ovviare a tale disagio ha proceduto alla definizione
della nuova versione del protocollo IP: IPv6[2]. Tale versione
basata su indirizzi a 128 bit anzich a 32 e ci permetter
l'assegnazione di un numero decisamente maggiore di indirizzi.

Ma la difficile implementazione a livello globale dell'IPv6 ha


portato all'introduzione di nuovi concetti che hanno rivoluzionato
la teoria delle reti. Vanno citati l'abbandono del concetto di classi
di indirizzi IP e il conseguente utilizzo sempre maggiore di
indirizzi classless (privi del concetto di classe)[3], la subnet mask,
la riorganizzazione gerarchica degli indirizzi mediante utilizzo La distribuzione mondiale degli indirizzi IP
massivo di Network address translation (NAT)[3].
Indirizzo IP 99

Composizione e formati
Ogni indirizzo IP suddiviso in due parti:
La prima parte che identifica la rete, chiamata network o routing prefix (Net_ID) ed utilizzato per
l'instradamento a livello di sottoreti.
La seconda parte che identifica l'host (o l'interfaccia in IPv6) e le eventuali sottoreti (Host_ID) ed utilizzato per
l'instradamento a livello locale dell'host una volta raggiunta la sottorete locale di destinazione, cui segue la
traduzione o risoluzione in indirizzo MAC per l'effettiva consegna del pacchetto dati al destinatario con i
protocolli della rete locale.
Grazie all'introduzione del CIDR possibile creare delle sottoreti, a differenza del sistema a classi, che prevedeva il
rigoroso rispetto delle reti imposte con conseguente spreco di indirizzi IP[4].

IPv4

L'indirizzo IPv4 costituito da 32 bit (4 byte) suddiviso in 4 gruppi da 8 bit (1 byte), separati ciascuno da un punto
(notazione dotted) (es. 11001001.00100100.10101111.00001111). Ciascuno di questi 4 byte poi convertito in
formato decimale di pi facile identificazione (quindi ogni numero varia tra 0 e 255 essendo 2^8=256). Un esempio
di indirizzo IPv4 195.24.65.215.

IPv6
L'indirizzo IPv6 costituito da 128 bit (16
byte), viene descritto da 8 gruppi di 4
numeri esadecimali che rappresentano 2
byte ciascuno (quindi ogni numero varia tra
0 e 65535) separati dal simbolo "due punti".
Un esempio di indirizzo IPv6
2001:0DB8:0000:0000:0000:0000:0000:0001,
che pu essere abbreviato in 2001:DB8::1 (i
due punti doppi rappresentano la parte
dell'indirizzo che composta di soli zeri
consecutivi. Si pu usare una sola volta, per
cui se un indirizzo ha due parti composte di L'indirizzo IPv6
zeri la pi breve andr scritta per esteso).

I dispositivi connessi ad una rete IPv6 ottengono un indirizzo di tipo unicast globale, vale a dire che i primi 48 bit del
suo indirizzo sono assegnati alla rete a cui esso si connette, mentre i successivi 16 bit identificano le varie sottoreti a
cui l'host connesso. Gli ultimi 64 bit sono ottenuti dall'indirizzo MAC dell'interfaccia fisica. Per una descrizione
pi dettagliata consultare IPv6.
Indirizzo IP 100

Assegnazione degli indirizzi IP


La parte Net_ID degli indirizzi assegnata dall'ICANN mentre l'assegnazione della parte Host_ID delegata al
richiedente che eventualmente pu suddividerla ulteriormente per la creazione di altre sottoreti logiche (subnetting)
evitando duplicazioni e sprechi di indirizzi.
Gli indirizzi IP possono essere assegnati in maniera permanente (per esempio un server che si trova sempre allo
stesso indirizzo) oppure in maniera temporanea, da un intervallo di indirizzi disponibili.
In particolare l'assegnazione dell'Host_Id pu essere di due tipi: dinamica oppure statica.

Indirizzi dinamici
Gli indirizzi dinamici vengono utilizzati per identificare dispositivi non permanenti in una LAN. Un server DHCP
presente nella LAN assegna dinamicamente e automaticamente l'indirizzo scegliendolo casualmente da un range
preimpostato. Si pu scegliere l'intervallo di indirizzi a seconda del numero delle utenze della rete impostando la
netmask, ossia dicendo al server DHCP quanti bit dell'indirizzo sono assegnabili dinamicamente a ogni singolo client
che fa accesso. Per esempio, se la netmask ha valore 255.255.255.0 (dove ogni blocco separato da puntini denota un
gruppo di 8 bit) solo gli ultimi 8 bit sono assegnabili agli host.
Gli Internet Service Provider (ISP), per esempio, utilizzano un numero di indirizzi assegnabili ristretto per una vasta
clientela facendo leva sul concetto che non tutti i client saranno connessi nello stesso momento. Questo sistema
viene utilizzato soprattutto per gli accessi dial-up, Wi-fi o in qualsiasi altro accesso temporaneo permettendo, per
esempio a un portatile, di connettersi a un'ampia variet di servizi senza la necessit di dover conoscere i dettagli di
indirizzamento di ogni rete.

Indirizzi statici
Gli indirizzi statici vengono utilizzati per identificare dispositivi semi-permanenti con indirizzo IP permanente. I
Server utilizzano tipicamente questo metodo di indirizzamento[5]. Sul fronte della sicurezza informatica
l'assegnazione di un ip statico rende il computer pi soggetto ad attacchi informatici[5].
L'indirizzo statico pu essere configurato direttamente sul dispositivo, oppure come parte di una configurazione
DHCP che associa all'Indirizzo MAC il corrispondente indirizzo IP statico.

I servizi correlati

Sistemi di risoluzione dei nomi


Per rendere maggiormente user-friendly la tecnologia IP sono stati implementati alcuni servizi che associano un
nome leggibile, e pi semplice da ricordare, a un indirizzo ip.

DNS (Domain Name System)


Il DNS un servizio di directory utilizzato per la risoluzione dei nomi dei server da indirizzi logici e testuali (URL)
in indirizzi IP. Questa funzione essenziale per l'usabilit di Internet, visto che gli esseri umani hanno pi facilit a
ricordare nomi testuali, mentre i dispositivi di instradamento (interfacce di rete e router di livello 2 e superiore)
lavorano su indirizzi binari. Permette inoltre ad una qualsiasi entit di cambiare o riassegnare il proprio indirizzo IP,
senza dover notificare tale cambiamento a nessuno, tranne che al proprio server DNS di riferimento.
Un'altra delle peculiarit del DNS quella di consentire, ad esempio ad un sito web, di essere ospitato su pi server
(ognuno con il proprio indirizzo IP), con una conseguente divisione del carico di lavoro.
[6]
Ad esempio si pu vedere come viene risolto www.wikipedia.org qui .
Indirizzo IP 101

FNS (Free Name System)


un sistema equivalente al DNS, alternativo ad esso ma definito dagli sviluppatori come estensione[7]. Pu essere
utilizzato solo dopo aver scaricato un'applicazione apposita.

WINS
Nato dalla azienda Microsoft l'implementazione del protocollo NetBIOS per risolvere nomi in reti locali, presente
in tutti i sistemi operativi Windows. Da Windows 2000 fa parte di Active Directory[8].

NAT
Il NAT (Network Address Translation, Traduzione indirizzi di rete) un servizio che permette a pi dispositivi di
condividere un unico indirizzo IP potendo cos mettere in comunicazione diverse reti. Questa funzione compito dei
Router.

ARP
L'indirizzo IP in formato numerico, una volta raggiunta la sottorete finale di destinazione, deve essere poi convertito
in indirizzo MAC locale per l'instradamento diretto. Di tale risoluzione si occupa il protocollo ARP.

Conoscere il proprio indirizzo IP


Per conoscere il proprio indirizzo IP, subnet mask e gateway nei sistemi basati su Linux sufficiente aprire una shell
e digitare, da root, il comando ifconfig.
Nei sistemi operativi Microsoft Windows, invece con il comando ipconfig, dal prompt dei comandi, si possono
avere le informazioni desiderate. Tale comando non sempre gi installato; Nel caso non lo fosse gi, per installarlo
si deve eseguire un doppio click sul file suptools.msi nella cartella \Support\Tools nel CD di installazione[9].
Nei sistemi operativi Mac OS X, si pu conoscere l'indirizzo IP dal men Mela, Preferenze di Sistema... alla voce
Network, oppure aprendo l'applicazione "Utility Network" contenuta in Applicazioni/Utility.
Chi naviga utilizzando un router, usando tali comandi visualizzer le informazioni relative alla propria rete privata.
Le informazioni riguardo all'IP pubblico (assegnato al router) sono disponibili nel pannello di configurazione del
router stesso oppure possibile visualizzarlo tramite un sito apposito[10].

Note
[1] La struttura dell'ICANN (http:/ / icann. org/ en/ about/ )
[2] Annuncio passaggio IPV6 (http:/ / www. icann. org/ en/ announcements/ announcement-26oct07. htm)
[3] Il CIDR (http:/ / www. autistici. org/ hacklab_fi/ risorse/ DM/ MyLinuxsu198. html)
[4] Il CIDR (http:/ / books. google. it/ books?id=cVP6VhwgHkkC& pg=PA140& lpg=PA140& dq=vantaggi+ CIDR& source=bl&
ots=C-Xh4NNqry& sig=iF5pRjuuXtQEvKjw7djKgo3FTcY& hl=it& ei=nOutTNWkGsaXOo6l8d4F& sa=X& oi=book_result& ct=result&
resnum=1& ved=0CBUQ6AEwAA#v=onepage& q=vantaggi CIDR& f=false)
[5] L'utilizzo degli indirizzi statici (http:/ / www. mc2elearning. com/ html/ adsl-ip-statico. html)
[6] http:/ / www. dnswatch. info/ dns/ dnslookup?la=en& host=www. wikipedia. org& type=A& submit=Resolve
[7] Progetto FNS | Una estensione del DNS (http:/ / www. freenamesystem. it/ )
[8] WINS Technical Reference: Windows Internet Name Service (WINS) (http:/ / technet. microsoft. com/ en-us/ library/ cc736411(WS. 10).
aspx)
[9] Net start (http:/ / technet2. microsoft. com/ windowsserver/ it/ library/ 6c0a1e0b-ea5d-4a38-9682-944d17cfe11c1040. mspx?mfr=true)]
[10] Come quelli che si possono trovare con la ricerca my ip address (http:/ / www. google. it/ search?q=mio+ indirizzo+ ip)
Indirizzo IP 102

Voci correlate
Classi di indirizzi IP
Indirizzo IP privato
Indirizzo IP pubblico
Indirizzo MAC
Router trasparente
Subnet mask
Default gateway
Free Name System

Collegamenti esterni
Informazioni sui vari ip presso il Ripe (http://www.ripe.net/db/index.html)

RFC
Indirizzamento IPv4: RFC 791, RFC 1519, RFC 1918
Indirizzamento IPv6: RFC 4291

User Datagram Protocol


In telecomunicazioni lo User Datagram Protocol (UDP) uno dei principali protocolli di rete della suite di
protocolli Internet. un protocollo di livello di trasporto a pacchetto, usato di solito in combinazione con il
protocollo di livello di rete IP.

Funzionamento
A differenza del TCP, l'UDP un protocollo di tipo connectionless, inoltre non gestisce il riordinamento dei
pacchetti n la ritrasmissione di quelli persi, ed perci generalmente considerato di minore affidabilit. In
compenso molto rapido (non c' latenza per riordino e ritrasmissione) ed efficiente per le applicazioni "leggere" o
time-sensitive. Ad esempio, usato spesso per la trasmissione di informazioni audio-video real-time.
Infatti, visto che le applicazioni in tempo reale richiedono spesso un bit-rate minimo di trasmissione, non vogliono
ritardare eccessivamente la trasmissione dei pacchetti e possono tollerare qualche perdita di dati, il modello di
servizio TCP pu non essere particolarmente adatto alle loro caratteristiche.
L'UDP fornisce soltanto i servizi basilari del livello di trasporto, ovvero:
multiplazione delle connessioni, ottenuta attraverso il meccanismo di assegnazione delle porte;
verifica degli errori (integrit dei dati) mediante una checksum, inserita in un campo dell'intestazione (header) del
pacchetto, mentre TCP garantisce anche il trasferimento affidabile dei dati, il controllo di flusso e il controllo
della congestione.
L'UDP un protocollo stateless, ovvero non tiene nota dello stato della connessione dunque ha, rispetto al TCP,
meno informazioni da memorizzare: un server dedicato ad una particolare applicazione che scelga UDP come
protocollo di trasporto pu supportare quindi molti pi client attivi.
User Datagram Protocol 103

Struttura di un datagramma UDP


Un datagramma (o pacchetto) UDP cos strutturato:

+ Bit 0-15 16-31

0 Source Port (optional) Destination Port

32 Length Checksum (optional)

64+ Data

Source port [16 bit] - Identifica il numero di porta sull'host del mittente del datagramma;
Destination port [16 bit] - Identifica il numero di porta sull'host del destinatario del datagramma;
Length [16 bit] - contiene la lunghezza totale in bytes del datagramma UDP (header+dati);
Checksum [16 bit] - contiene il codice di controllo del datagramma (header+dati+pseudo-header,quest'ultimo
comprendente gli indirizzi IP di sorgente e destinazione). L'algoritmo di calcolo definito nell'RFC del
protocollo;
Data - contiene i dati del messaggio

Applicazioni che utilizzano UDP


Le applicazioni di rete che hanno la necessit di un trasferimento affidabile dei loro dati si affidano ovviamente a
TCP, mentre le applicazioni pi elastiche riguardo alla perdita dei dati e strettamente dipendenti dal tempo si
affidano invece a UDP. Inoltre si utilizza UDP per comunicazioni in broadcast (invio a tutti i terminali in una rete
locale) e multicast (invio a tutti i terminali iscritti ad un servizio).
Di seguito proposto un elenco dei principali servizi Internet e dei protocolli che essi adottano:

Applicazione Protocollo strato applicazione Protocollo strato trasporto

Posta elettronica SMTP TCP

Accesso a terminale remoto telnet TCP

Trasferimento file FTP TCP

Web HTTP TCP

Streaming Audio/Video RTSP/RTP TCP (comandi) + UDP (flusso)

Server di file remoto NFS tipicamente UDP

Telefonia su internet (VoIP) SIP, H.323, altri tipicamente UDP

Gestione della rete SNMP tipicamente UDP

Protocollo di routing RIP tipicamente UDP

Risoluzione dei nomi DNS tipicamente UDP

Collegamenti esterni
RFC 768 User Datagram Protocol (traduzione in italiano [1])

Note
[1] http:/ / www. rfc. altervista. org/ rfctradotte/ rfc768_tradotta. txt
Domain Name System 104

Domain Name System


Il sistema dei nomi a dominio, in inglese Domain Name System (spesso indicato con l'acronimo DNS), un
sistema utilizzato per la risoluzione di nomi dei nodi della rete (in inglese host) in indirizzi IP e viceversa. Il servizio
realizzato tramite un database distribuito, costituito dai server DNS.

Descrizione
Il nome DNS denota anche il protocollo che regola il funzionamento del servizio, i programmi che lo implementano,
i server su cui questi girano, l'insieme di questi server che cooperano per fornire il servizio.
I nomi DNS, o "nomi di dominio", sono una delle caratteristiche pi visibili di Internet.
C' confusione in merito alla definizione dell'acronimo: la S spesso viene interpretata come service, ma la
definizione corretta system.
L'operazione di conversione da nome a indirizzo IP detta risoluzione DNS; la conversione da indirizzo IP a nome
detta risoluzione inversa.

Motivazioni ed utilizzi
La possibilit di attribuire un nome testuale facile da memorizzare a un server (ad esempio un sito world wide
web) migliora di molto l'uso del servizio, in quanto gli esseri umani trovano pi facile ricordare nomi testuali
(mentre gli host e i router sono raggiungibili utilizzando gli indirizzi IP numerici). Per questo, il DNS
fondamentale per l'ampia diffusione di internet anche tra utenti non tecnici, ed una delle sue caratteristiche pi
visibili.
possibile attribuire pi nomi allo stesso indirizzo IP (o viceversa) per rappresentare diversi servizi o funzioni
forniti da uno stesso host (o pi host che erogano lo stesso servizio). Questa flessibilit risulta utile in molti casi:
Nel caso in cui si debba sostituire il server che ospita un servizio, o si debba modificare il suo indirizzo IP,
sufficiente modificare il record DNS, senza dover intervenire sui client.
Un utilizzo molto popolare di questa possibilit il cosiddetto virtual hosting basato sui nomi, una tecnica per
cui un web server dotato di una singola interfaccia di rete e di singolo indirizzo IP pu ospitare pi siti web,
usando l'indirizzo alfanumerico trasmesso nell'header HTTP per identificare il sito per cui viene fatta la
richiesta.
Utilizzando nomi diversi per riferirsi ai diversi servizi erogati da un host, possibile spostare una parte dei
servizi su un altro host, e spostare i client su questo nuovo host modificando il suo record nel DNS.
Facendo corrispondere pi indirizzi IP a un nome, il carico dei client viene distribuito su diversi server,
ottenendo un aumento delle prestazioni complessive del servizio e una tolleranza ai guasti (ma necessario
assicurarsi che i diversi server siano sempre allineati, ovvero offrano esattamente lo stesso servizio ai client).
La risoluzione inversa utile per identificare l'identit di un host, o per leggere il risultato di un traceroute.
Il DNS viene usato da numerose tecnologie in modo poco visibile agli utenti, per organizzare le informazioni
necessarie al funzionamento del servizio.
Domain Name System 105

Storia
Il DNS fu ideato il 23 giugno 1983 da Paul Mockapetris, Jon Postel e Craig Partrige; le specifiche originali sono
descritte nello standard RFC 882. Nel 1987 vennero pubblicati commenti allo standard RFC del DNS, con i nomi
RFC 1034 e RFC 1035 rendendo obsolete le specifiche precedenti.

Nomi DNS
Un nome di dominio costituito da una serie di stringhe separate da punti, ad esempio it.wikipedia.org. A differenza
degli indirizzi IP, dove la parte pi importante del numero la prima partendo da sinistra, in un nome DNS la parte
pi importante la prima partendo da destra. Questa detta dominio di primo livello (o TLD, Top Level Domain),
per esempio .org o .it.
Un dominio di secondo livello consiste in due parti, per esempio wikipedia.org, e cos via. Ogni ulteriore
elemento specifica un'ulteriore suddivisione. Quando un dominio di secondo livello viene registrato all'assegnatario,
questo autorizzato a usare i nomi di dominio relativi ai successivi livelli come it.wikipedia.org (dominio
di terzo livello) e altri come some.other.stuff.wikipedia.org (dominio di quinto livello) e cos via.

Record DNS

Tipi di record
Ad un nome DNS possono
corrispondere diversi tipi di
informazioni. Per questo motivo,
esistono diversi tipi di record DNS.
Ogni voce del database DNS deve
essere caratterizzata da un tipo. I
principali tipi sono:

Record A - Indica la corrispondenza


tra un nome ed uno (o pi) indirizzi IP (per la precisione indirizzi IPv4, ovvero la versione attualmente in uso).
Record MX - (Mail eXchange) indica a quali server debba essere inviata la posta elettronica per un certo dominio.
Record CNAME - Sono usati per creare un alias, ovvero per fare in modo che lo stesso host sia noto con pi
nomi. Uno degli utilizzi di questo tipo di record consiste nell'attribuire ad un host che offre pi servizi un nome
per ciascun servizio. In questo modo, i servizi possono poi essere spostati su altri host senza dover riconfigurare i
client, ma modificando solo il DNS.
Record PTR - Il DNS viene utilizzato anche per realizzare la risoluzione inversa, ovvero per far corrispondere ad
un indirizzo IP il corrispondente nome di dominio. Per questo si usano i record di tipo "PTR" (e una apposita zona
dello spazio dei nomi in-addr.arpa).
Record AAAA - come il Record A ma lavora con l'IPv6 e restituisce un indirizzo IPv6.
Record SRV - Identificano il server per un determinato servizio all'interno di un dominio. Possono essere
considerati una generalizzazione dei record MX.
Record TXT - Associano campi di testo arbitrari ad un dominio. Questi campi possono contenere una descrizione
informativa oppure essere utilizzati per realizzare servizi.
Vi sono anche tipi di record "di servizio", necessari al funzionamento del database distribuito:
Record NS - Utilizzato per indicare quali siano i server DNS autorevoli per un certo dominio, ovvero per
delegarne la gestione.
Record SOA - (Start of Authority) usato per la gestione delle zone DNS.
Domain Name System 106

Nel DNS possono essere immessi altri tipi di record, alcuni folcloristici, come "LOC", usato (poco) per riportare le
coordinate geografiche di un sito, altri aggiungono funzioni di sicurezza per evitare manomissioni. Per avere
riferimenti su tutti questi record vedi Tipi di record DNS.

Record multipli
Ad uno stesso nome di dominio, possono essere associati contemporaneamente record di tipo diverso, o pi record
dello stesso tipo. Questo generalmente viene fatto per suddividere il carico di un server molto frequentato su pi
computer che offrono lo stesso servizio.

Time to live
I record associati ad un nome di
dominio possono cambiare nel tempo,
permettendo ad esempio di assegnare
un nuovo indirizzo IP ad un server,
facendo in modo che questo continui a
rispondere al nome gi noto agli utenti.
A ciascun record DNS associato un
parametro detto "time to live" o TTL
(tempo di vita), che indica per quanto
tempo questo record pu venire memorizzato in un sistema di cache DNS prima che venga considerato scaduto.
Quando un server risponde ad una richiesta con un record preso dalla propria cache, assegna alla risposta il time to
live residuo del record. Quindi se il record originariamente ha un TTL di 12 ore, e un server risponde ad una richiesta
con un dato che ha ottenuto due ore prima, nella risposta metter un TTL di 10 ore.

Utilizzo dei nomi DNS


Un nome di dominio, come per esempio it.wikipedia.org, pu essere parte di un URL, come
http://it.wikipedia.org/wiki/Treno, o di un indirizzo e-mail, come per esempio apache@it.wikipedia.org.
Questi sono gli strumenti pi utilizzati per identificare una risorsa su Internet, il che spiega la pervasivit dei nomi di
dominio.
Molti nomi di dominio utilizzati per server web hanno nella parte sinistra la stringa di caratteri "www", ma non
sempre necessario averla. In molti casi, ma non sempre, il nome privato del prefisso "www." porta comunque alla
stessa pagina, come per esempio "ns.nl" e "www.ns.nl".

Realizzazione
I DNS implementano uno spazio gerarchico dei nomi, per permettere che parti di uno spazio dei nomi, conosciute
come "zone", possano essere delegate da un name server ad un altro name server che si trova pi in basso nella
gerarchia.
I nomi di dominio sono soggetti a determinate restrizioni: per esempio ogni parte del nome (quella cio limitata dai
punti nel nome) non pu superare i 63 caratteri e il nome complessivo non pu superare i 255 caratteri.
I nomi di dominio sono anche limitati ad un sottoinsieme di caratteri ASCII; in questo modo si impedisce di scrivere
nomi e parole con caratteri che non tutti hanno sulla propria tastiera. Per superare questa limitazione, il sistema di
IDNA e basato sul modello Punycode, rileva stringhe Unicode in un insieme di caratteri DNS validi, venne
approvato dall'ICANN e adottato da alcuni registri.
Domain Name System 107

Zone, deleghe e repliche


Una zona DNS una parte dello
spazio dei nomi, costituita da un
dominio e i suoi sottodomini che non
sono a loro volta delegati, che sotto
una stessa gestione amministrativa e
quindi gestita da uno o pi server.

La gestione di una zona delegata


dalla zona superiore tramite dei record
di tipo NS. Ad esempio, nella zona
.org ci sar una delega per la zona
wikipedia.org ai server DNS che la
gestiscono. Per ragioni di ridondanza,
ciascuna zona replicata su pi
server, e di conseguenza la delega
costituita da pi record NS, che
indicano che ciascuno dei server
indicati contiene le informazioni per
quella zona (ovvero autoritativo per la zona). All'interno di una zona possono essere delegate delle zone di livello
inferiore, ad esempio in wikipedia.org potrebbero esistere deleghe per devel.wikipedia.org o per
accounting.admin.wikipedia.org.

I diversi server che sono delegati per una zona dovrebbero contenere le stesse informazioni, in modo che uno
qualsiasi di questi possa rispondere ad una query per un record della zona.
Lo schema di replica tipicamente prevede che ci sia un server master (primario), che quello sul quale vengono
aggiornate le informazioni, e uno o pi server slave (secondari), che copiano le informazioni dal master quando
necessario. Per tener traccia delle diverse "versioni" di una zona che possono esserci in circolazione, ed in particolare
per permettere ad un secondario di decidere se deve trasferire la zona dal primario, ogni zona ha un numero di serie,
che deve essere aumentato ogni volta che vengono fatte modifiche sul primario. Per ottenere il numero di serie di
una zona presente su un server, si effettua una interrogazione di tipo SOA. Il secondario confronta il proprio numero
di serie con quello del primario, e se quello del primario superiore trasferisce la zona.
L'operazione di copia di tutti i record di una zona dal master ad uno slave detta zone transfer, e pu essere
completo (tutto il contenuto della zona viene copiato) o incrementale (vengono copiati solo i record modificati
rispetto alla versione gi presente).
Alcune implementazioni di DNS permettono di modificare le zone da qualsiasi server autorevole, propagando le
modifiche sugli altri server.
La radice (root) dell'albero dei nomi DNS la zona . (punto), che gestita da un insieme di server chiamati appunto
root servers.
Domain Name System 108

Ricorsione
In generale, per ottenere la risoluzione di un nome necessario partire dalla radice, interrogare uno dei root server
nel dominio di primo livello, ottenere il server che lo gestisce, interrogarlo nel dominio di secondo livello, fino a
raggiungere il server autorevole per il nome desiderato. Questa tecnica detta "ricorsione".

Caching
Alcuni server si prestano ad effettuare query ricorsive per conto di alcuni client. Una volta che hanno ottenuto una
risposta, memorizzano in una cache tutte le informazioni che hanno imparato, fino alla loro scadenza. Alcune
implementazioni del servizio DNS permettono di realizzare i cosiddetti servers caching only, ovvero privi di
database proprio, ma utili per reindirizzare ad un server autorevole le query di risoluzione. Tale caratteristica utile
soprattutto quando la risoluzione deve essere effettuata attraverso collegamenti lenti (con velocit inferiore a 500
kbps) o firewall.

Funzioni dei server


Un server DNS pu essere configurato per assolvere ad una o pi delle seguenti funzioni:
server autorevole per una o pi zone, ovvero il server su cui sono configurati i dati di una zona, e che delegato
a gestirla tramite record NS inseriti nella zona superiore. Normalmente sono presenti pi server autorevoli per una
zona. Molte implementazioni permettono di modificare i dati di una zona solo su un server:
primario - server autorevole su cui vengono modificati i dati di una zona
secondario - server autorevole che copia i dati di zona da un primario
server ricorsivo - il server che viene configurato in una popolazione di client, che si occupa di risolvere le query
che riceve interrogando i server originali, e mantenendo una cache delle risposte ricevute
query forwarder - un server che viene configurato in una popolazione di client, che risolve le loro query non
direttamente ma interrogando un server ricorsivo

Origine dei dati


I dati contenuti in una zona possono essere configurati da uno o pi operatori, oppure possono essere alimentati da
meccanismi automatici:
nelle implementazioni pi semplici, i dati di zona sono memorizzati in uno o pi file sul server primario
implementazioni pi raffinate immagazzinano i dati in un database. In alcuni casi, questo accessibile non solo
agli operatori del servizio ma anche direttamente ai clienti ( il caso dei servizi DNS commerciali)

DNS dinamico
Il termine DNS dinamico, o DDNS, indica un insieme di tecnologie che permettono di inserire automaticamente in
una zona DNS gli indirizzi di calcolatori che ottengono un indirizzo non predefinito, tipicamente attraverso il
protocollo DHCP o PPP. A questo scopo, sono definite query DNS di "UPDATE".
In una rete locale, questa funzionalit pu essere utilizzata direttamente dai client, presente nei servizi Active
Directory di windows, o pu essere configurata usando BIND e il server DHCP di Internet Systems Consortium
(ISC).
Il DDNS viene inoltre utilizzato da servizi commerciali per permettere agli utenti dial-up (modem, ADSL) di
registrare un nome corrispondente all'indirizzo che viene loro assegnato di volta in volta dal loro provider. In questo
modo, un host con indirizzo IP dinamico sempre raggiungibile. Esistono client DDNS sia sotto forma di
applicazioni che all'interno di router destinati al mercato domestico.
Domain Name System 109

Utilizzo
Per utilizzare il servizio, necessario configurare su ciascun client uno o pi server DNS di riferimento. Questi sono
predisposti a effettuare query ricorsive e che effettuano servizi di caching.
Quando un sistema ha la necessit di comunicare con un altro sistema, chiede al server DNS di riferimento di
effettuare il processo detto di "risoluzione" del nome in un indirizzo IP. Il server effettua una ricerca all'interno del
suo database per ottenere l'indirizzo IP corrispondente al sistema ricercato.
Se il server interrogato possiede l'informazione richiesta, il processo di ricerca termina con l'invio dell'indirizzo IP al
richiedente. Se la ricerca ha esito negativo il server effettua una richiesta "ricorsiva".

Implementazione
Il protocollo DNS implementato da diversi software. Di seguito alcuni dei pi diffusi:
BIND (Berkeley Internet Name Domain), il nome del pi comune demone DNS usato sui sistemi Unix.
DJBDNS (Dan J Bernstein's DNS implementation)
Unbound, un server DNS progettato modularmente e con un riguardo particolare verso DNSSEC.
MaraDNS
NSD (Name Server Daemon)
PowerDNS
DDNS (Dynamic Domain Name System) Il servizio DNS alla base dei servizi di directory Microsoft incluso nelle
versioni server da Windows 2000 in poi.
Il DNS utilizza il protocollo di trasporto UDP e la porta 53 per soddisfare le richieste di risoluzione provenienti dagli
host.
I server DNS effettuano gli zone transfer usando il protocollo di trasporto TCP e la porta 53. Questa porta viene
usata anche quando una query ha una risposta molto lunga.
Il lato client del servizio DNS normalmente implementato tramite librerie di sistema, che spesso lo integrano con
altri servizi di risoluzione, come ad esempio WINS, NIS, o con la consultazione di file locali, in modo che un utente
possa utilizzare un nome simbolico in un'applicazione ed ottenere la sua risoluzione in un indirizzo IP senza
preoccuparsi di quale strumento stato utilizzato per ottenere la risoluzione.

Il sistema DNS in Internet


Qualsiasi rete IP pu usare il DNS per implementare un suo sistema di nomi privato. Tuttavia, il termine "nome di
dominio" pi comunemente utilizzato quando esso si riferisce al sistema pubblico dei DNS su Internet. Questo
basato su 13 "root server" universali, i cui indirizzi IP sono distribuiti indipendentemente dal DNS tramite un file
detto "root hints" (letteralmente: indizi per la radice). Da questi server principali, il DNS viene poi delegato ad altri
server DNS che si occupano dei nomi all'interno di parti specifiche dello spazio dei nomi DNS.
Dieci dei tredici root server sono, almeno nominalmente, situati negli USA. Tuttavia, dato l'accesso a molti di essi
realizzato tramite indirizzamento anycast, che permette di assegnare a pi computer lo stesso indirizzo IP per fornire
un servizio uniforme su vaste aree geografiche, la maggior parte dei server sono in effetti localizzati al di fuori degli
Stati Uniti.
Il proprietario di un nome di dominio rintracciabile in un database chiamato Whois: per molti domini di primo
livello un Whois base gestito dalla IANA, con il Whois dettagliato mantenuto dall'autorit di registrazione che
controlla quel dominio. Per i pi di 240 domini nazionali l'autorit di registrazione gestisce in esclusiva il Whois per
il dominio di competenza.
Domain Name System 110

Politica

Allocazione delle zone di primo livello


L'attuale modalit di controllo del sistema DNS offre spesso alcune criticit. Alcuni root servers appartengono a
societ private (esempio Verisign) anche se la maggior parte sono controllati da universit o altri enti (ad esempio la
NASA)[1]. Non possibile aggiungere altri root servers, o almeno, non in maniera fisica: a causa di un problema di
compatibilit con il protocollo UDP devono essere visibili solo 13 zone di root servers, ma ogni zona pu avere pi
server[2].

Utilizzi impropri
Nel 2009, Paul Vixie, presidente dell'Internet Systems Consortium, ha pubblicato sul sito della Association for
Computing Machinery un articolo riguardante pratiche che derivano da interpretazioni sbagliate del concetto di DNS
o lo violano deliberatamente.[3]

Manipolazione delle risposte


Quando un client inoltra una query DNS ad un server ricorsivo, si aspetta di ottenere la risposta "corretta", ovvero il
valore del record DNS richiesto oppure un messaggio di errore se il nome richiesto non esiste. Questo messaggio
noto come "NXDOMAIN" o anche come "RCODE=3".
Tuttavia, alcuni gestori di server ricorsivi manipolano le risposte fornite ai propri clienti, eliminandone alcune
selettivamente, oppure restituendo un indirizzo IP diverso da quello corretto.
Questa tecnica pu essere usata con diversi scopi:
protezione da abusi: il server DNS pu filtrare le query relative a siti pericolosi per gli utenti, ad esempio a causa
della distribuzione di malware, o perch usati per operazioni di phishing;
censura: vengono filtrate le query relative a siti che si vogliono rendere inaccessibili per decisione politica (del
gestore della rete o di una autorit pubblica). In caso la visita o il tentativo di visita a siti "proibiti" venga
qualificata come indizio di reato, la redirezione del traffico su un server diverso da quello richiesto dall'utente pu
permettere la raccolta degli indirizzi IP dei client, o anche in alcuni casi il furto di credenziali;
man-in-the-middle: le query vengono modificate in modo da reindirizzare tutto o parte del traffico verso un
server che agisce da proxy trasparente, intercettando il traffico degli utenti. Questo permette il monitoraggio del
traffico degli utenti, e quindi anche il furto di informazioni sensibili e/o credenziali;
redirezione degli errori: alle query per nomi inesistenti viene risposto con l'indirizzo IP di un server, che
tipicamente ospita un motore di ricerca e tenta di aiutare gli utenti a trovare il sito cercato.[3]
Queste tecniche possono essere adottate anche dai gestori di rete, redirigendo le query DNS dirette verso l'esterno su
propri server mediante meccanismi di destination NAT (Network address translation).
Il DNS non stato progettato per questi utilizzi, pertanto le implicazioni sulla sicurezza degli utenti possono essere
negative, in quanto le informazioni personali condivise tra un utente ed il sito che sta visitando vengono scambiate
anche con siti di terzi, non autorizzati.[3]
Domain Name System 111

Note
[1] Sito ufficiale dei root servers - http:/ / www. root-servers. org/
[2] There are not 13 root servers (http:/ / blog. icann. org/ 2007/ 11/ there-are-not-13-root-servers/ )
[3] Paul Vixie. What DNS is Not. DNS is many things to many people - perhaps too many things to too many people (http:// dl. acm. org/ citation.
cfm?id=1647302). novembre2009
Articolo disponibile anche sul sito (http:/ / queue. acm. org/ detail. cfm?id=1647302) della ACM.

Voci correlate
Risoluzione DNS inversa
Record DNS
Dynamic DNS
DNSSEC
ICANN
Nslookup
Cybersquatting
Nome di dominio internazionalizzato

Collegamenti esterni
DNS Security Extensions (DNSSEC) (http://www.dnssec.net/)
root-servers.org (http://www.root-servers.org/)
(EN) RFC 882, Domain Names - Concepts and Facilities (resa obsoleta da RFC 1034)
(EN) RFC 883, Domain Names - Implementation and Specification (resa obsoleta da RFC 1035)
(EN) RFC 920, Domain Requirements - Specified original top-level domains
(EN) RFC 1032, Domain Administrators Guide
(EN) RFC 1033, Domain Administrators Operations Guide
(EN) RFC 1034, Domain Names - Concepts and Facilities
(EN) RFC 1035, Domain Names - Implementation and Specification
(EN) RFC 1101, DNS Encodings of Network Names and Other Types
(EN) RFC 1123, Requirements for Internet HostsApplication and Support
(EN) RFC 1178, Choosing a Name for Your Computer (FYI 5)
(EN) RFC 1183, New DNS RR Definitions
(EN) RFC 1591, Domain Name System Structure and Delegation (Informational)
(EN) RFC 1912, Common DNS Operational and Configuration Errors
(EN) RFC 1995, Incremental Zone Transfer in DNS
(EN) RFC 1996, A Mechanism for Prompt Notification of Zone Changes (DNS NOTIFY)
(EN) RFC 2100, The Naming of Hosts (Informational)
(EN) RFC 2136, Dynamic Updates in the domain name system (DNS UPDATE)
(EN) RFC 2181, Clarifications to the DNS Specification
(EN) RFC 2182, Selection and Operation of Secondary DNS Servers
(EN) RFC 2308, Negative Caching of DNS Queries (DNS NCACHE)
(EN) RFC 2317, Classless IN-ADDR.ARPA delegation (BCP 20)
(EN) RFC 2671, Extension Mechanisms for DNS (EDNS0)
(EN) RFC 2672, Non-Terminal DNS Name Redirection
(EN) RFC 2845, Secret Key Transaction Authentication for DNS (TSIG)
(EN) RFC 3225, Indicating Resolver Support of DNSSEC
(EN) RFC 3226, DNSSEC and IPv6 A6 aware server/resolver message size requirements
(EN) RFC 3597, Handling of Unknown DNS Resource Record (RR) Types
Domain Name System 112

(EN) RFC 3696, Application Techniques for Checking and Transformation of Names (Informational)
(EN) RFC 4033, DNS Security Introduction and Requirements
(EN) RFC 4034, Resource Records for the DNS Security Extensions
(EN) RFC 4035, Protocol Modifications for the DNS Security Extensions
(EN) RFC 4343, Domain Name System (DNS) Case Insensitivity Clarification
(EN) RFC 4470, Minimally Covering NSEC Records and DNSSEC On-line Signing
(EN) RFC 4509, Use of SHA-256 in DNSSEC Delegation Signer (DS) Resource Records
(EN) RFC 4592, The Role of Wildcards in the Domain Name System
(EN) RFC 4635, HMAC SHA TSIG Algorithm Identifiers
(EN) RFC 4892, Requirements for a Mechanism Identifying a Name Server Instance (Informational)
(EN) RFC 5001, DNS Name Server Identifier (NSID) Option
(EN) RFC 5011, Automated Updates of DNS Security (DNSSEC) Trust Anchors
(EN) RFC 5155, DNS Security (DNSSEC) Hashed Authenticated Denial of Existence
(EN) RFC 5395, Domain Name System (DNS) IANA Considerations (BCP 42)
(EN) RFC 5452, Measures for Making DNS More Resilient against Forged Answers'
(EN) RFC 5625, DNS Proxy Implementation Guidelines (BCP 152)
(EN) RFC 5702, Use of SHA-2 Algorithms with RSA in DNSKEY and RRSIG Resource Records for DNSSEC
Accesso alle funzioni DNS in .NET (http://www.giuseppesicari.it/articoli/framework-dot-net/
domain-name-system)

Hypertext Transfer Protocol


L'HyperText Transfer Protocol (HTTP) (protocollo di trasferimento di un ipertesto) usato come principale
sistema per la trasmissione d'informazioni sul web. Le specifiche del protocollo sono gestite dal World Wide Web
Consortium (W3C). Un Server HTTP generalmente resta in ascolto sulla porta 80 usando il protocollo TCP.

Storia
La prima versione dell'HTTP, la 0.9, risale alla fine degli anni ottanta e costituiva, insieme con il linguaggio HTML
e gli URL, il nucleo base della World Wide Web (WWW) global information initiative portata avanti da Tim
Berners-Lee al CERN di Ginevra per la condivisione delle informazioni tra la comunit dei fisici delle alte energie.
La prima versione effettivamente disponibile del protocollo, la HTTP/1.0, venne implementata dallo stesso
Berners-Lee nel 1991 e proposta come RFC 1945 [1] all'ente normatore IETF nel 1996. Con la diffusione di NCSA
Mosaic, un browser grafico di facile uso, il WWW conobbe un successo crescente e divennero evidenti alcuni limiti
della versione 1.0 del protocollo, in particolare:
l'impossibilit di ospitare pi siti www sullo stesso server (virtual host)
il mancato riuso delle connessioni disponibili
l'insufficienza dei meccanismi di sicurezza
Il protocollo venne quindi esteso nella versione HTTP/1.1, presentato come RFC 2068 nel 1997 e successivamente
aggiornato nel 1999 come descritto dal RFC 2616 [2]
Hypertext Transfer Protocol 113

Funzionamento
L'HTTP funziona su un meccanismo richiesta/risposta (client/server): il client esegue una richiesta e il server
restituisce la risposta. Nell'uso comune il client corrisponde al browser ed il server al sito web. Vi sono quindi due
tipi di messaggi HTTP: messaggi richiesta e messaggi risposta.
HTTP differisce da altri protocolli di livello 7 come FTP, per il fatto che le connessioni vengono generalmente
chiuse una volta che una particolare richiesta (o una serie di richieste correlate) stata soddisfatta. Questo
comportamento rende il protocollo HTTP ideale per il World Wide Web, in cui le pagine molto spesso contengono
dei collegamenti (link) a pagine ospitate da altri server diminuendo cos il numero di connessioni attive limitandole a
quelle effettivamente necessarie con aumento quindi di efficienza (minor carico e occupazione) sia sul client che sul
server. Talvolta per pone problemi agli sviluppatori di contenuti web, perch la natura senza stato (stateless) della
sessione di navigazione costringe ad utilizzare dei metodi alternativi per conservare lo stato dell'utente, tipicamente
basati sui cookie.

Messaggio di richiesta
Il messaggio di richiesta composto di tre parti:
Riga di richiesta (request line)
Sezione header (informazioni aggiuntive)
Body (corpo del messaggio)

Riga di richiesta
La riga di richiesta composta da metodo, URI e versione del protocollo. Il metodo di richiesta, per la versione 1.1,
pu essere uno dei seguenti:
GET
POST
HEAD
PUT
DELETE
TRACE
OPTIONS
CONNECT
l'URI sta per Uniform Resource Identifier ed indica l'oggetto della richiesta (ad esempio la pagina web che si
intende ottenere).
I metodi HTTP pi comuni sono GET, HEAD e POST. Il metodo GET usato per ottenere il contenuto della risorsa
indicata come URI (come pu essere il contenuto di una pagina HTML). HEAD analogo a GET, ma restituisce
solo i campi dell'header, ad esempio per verificare la data di modifica del file. Una richiesta con metodo HEAD non
prevede l'uso del body.
Il metodo POST usato di norma per inviare informazioni al server (ad esempio i dati di un form). In questo caso
l'URI indica che cosa si sta inviando e il body ne indica il contenuto.
Hypertext Transfer Protocol 114

Gli header della richiesta


Gli header di richiesta pi comuni sono:
Host: Nome del server a cui si riferisce l'URL. obbligatorio nelle richieste conformi HTTP/1.1 perch permette
l'uso dei virtual host basati sui nomi.
User-Agent: Identificazione del tipo di client: tipo browser, produttore, versione...

Messaggio di risposta
Il messaggio di risposta di tipo testuale ed composto da tre parti:
Riga di stato (status-line)
Sezione header
Body (contenuto della risposta)

Riga di stato
La riga di stato riporta un codice a tre cifre catalogato nel seguente modo:
1xx: Informational (messaggi informativi)
2xx: Successfull (la richiesta stata soddisfatta)
3xx: Redirection (non c' risposta immediata, ma la richiesta sensata e viene detto come ottenere la risposta)
4xx: Client error (la richiesta non pu essere soddisfatta perch sbagliata)
5xx: Server error (la richiesta non pu essere soddisfatta per un problema interno del server)
I codici di risposta pi comuni sono:
200 OK. Il server ha fornito correttamente il contenuto nella sezione body.
301 Moved Permanently. La risorsa che abbiamo richiesto non raggiungibile perch stata spostata in modo
permanente.
302 Found. La risorsa raggiungibile con un altro URI indicato nel header Location. Di norma i browser
eseguono la richiesta all'URI indicato in modo automatico senza interazione dell'utente.
400 Bad Request. La risorsa richiesta non comprensibile al server.
404 Not Found. La risorsa richiesta non stata trovata e non se ne conosce l'ubicazione. Di solito avviene quando
l'URI stato indicato in modo incorretto, oppure stato rimosso il contenuto dal server.
500 Internal Server Error. Il server non in grado di rispondere alla richiesta per un suo problema interno.
505 HTTP Version Not Supported. La versione di http non supportata.

Gli header della risposta


Gli header della risposta pi comuni sono:
Server. Indica il tipo e la versione del server. Pu essere visto come l'equivalente dell'header di richiesta
User-Agent
Content-Type. Indica il tipo di contenuto restituito. La codifica di tali tipi (detti Media type) registrata presso lo
IANA (Internet Assigned Number Authority ); essi sono detti tipi MIME (Multimedia Internet Mail Extensions),
la cui codifica descritta nel documento RFC 1521. Alcuni tipi usuali di tipi MIME incontrati in una risposta
HTML sono:
text/html Documento HTML
text/plain Documento di testo non formattato
text/xml Documento XML
image/jpeg Immagine di formato JPEG
Hypertext Transfer Protocol 115

Esempi di messaggi HTTP


Richiesta:

GET /wiki/Pagina_principale HTTP/1.1


Connection: Keep-Alive
User-Agent: Mozilla/5.0 (compatible; Konqueror/3.2; Linux) (KHTML, like Gecko)
Accept: text/html, image/jpeg, image/png, text/*, image/*, */*
Accept-Encoding: x-gzip, x-deflate, gzip, deflate, identity
Accept-Charset: iso-8859-1, utf-8;q=0.5, *;q=0.5
Accept-Language: en
Host: it.wikipedia.org

(la richiesta deve terminare con una riga vuota, cio con due "a capo" consecutivi)
Risposta:

HTTP/1.0 200 OK
Date: Mon, 28 Jun 2004 10:47:31 GMT
Server: Apache/1.3.29 (Unix) PHP/4.3.4
X-Powered-By: PHP/4.3.4
Vary: Accept-Encoding,Cookie
Cache-Control: private, s-maxage=0, max-age=0, must-revalidate
Content-Language: it
Content-Type: text/html; charset=utf-8
Age: 7673
X-Cache: HIT from wikipedia.org
Connection: close

seguita dai dati richiesti.

Versioni sicure
Dal momento che tutto il traffico HTTP anonimo e in chiaro, sono state sviluppate diverse alternative per garantire
differenti livelli di sicurezza, in termini di
cifratura del traffico;
verifica di integrit del traffico;
autenticazione del server;
autenticazione dell'utente.
La prima proposta venne direttamente da NCSA, con le versioni server 1.1 e client 2.2 che supportavano un
meccanismo di autenticazione utente e cifratura dati basati su messaggi formato PEM e chiavi PGP.
In seguito, sono state standardizzate due versioni sicure del protocollo HTTP chiamate SHTTP e HTTPS. La prima,
modellata sulla posta cifrata S/MIME, ormai caduta in disuso e prevede meccanismi crittografici a livello di
payload: le richieste e gli header vengono scambiati in chiaro mentre il contenuto della pagina viene cifrato come
una struttura MIME multipart. Il meccanismo HTTPS, inventato da Netscape, usa invece il sottostante canale cifrato
a livello di trasporto mediante SSL o TLS per impedire l'intercettazione di qualsiasi parte della transazione. Entrambi
i protocolli possono garantire l'identit del mittente, ma solo SHTTP in grado di garantire anche l'integrit del
contenuto dopo averlo, ad esempio, memorizzato su un disco.
Hypertext Transfer Protocol 116

Streaming HTTP
La fruizione nelle pagine WEB di materiale multimediale, quale audio o video viene gestito in modo del tutto
analogo al download dei file, tramite un caricamento progressivo o distribuzione progressiva, dove il file viene
scaricato in modo progressivo dall'inizio alla fine (tramite i protocolli Real Time Streaming Protocol e Real-time
Transport Protocol) e nel caso il bit-rate sia eccessivo per la rete che lo trasporta pu verificarsi un continuo
ricaricamento del buffer
Per evitare questi inconvenienti esistono altri sistemi alternativi, che permettono l'adattamento del file alla rete
dell'utente finale, questi sistemi sono caratterizzati dai protocolli:
Smooth Streaming, ideato da Microsoft[3][4]
HTTP Dynamic Streaming soluzione ideata da Adobe
HTTP Live Streaming soluzione ideata da Apple
Octoshape una piattaforma proprietaria di streaming multimediale, che utilizza la tecnologia per offrire un
throughput migliore e rompere la congestione nell'ultimo miglio. Ha la possibilit di utilizzare una suite di
tecnologie multicast per ridurre al minimo la larghezza di banda per qualsiasi CDN, ISP, emittente o del fornitore
dell'ultimo miglio.
Per contro queste soluzioni sono notevolmente pi complesse rispetto alle tradizionali tecnologie di streaming.
Alcune delle considerazioni documentate riguardano lo stoccaggio, i costi aggiuntivi per la codifica e la difficolt nel
mantenimento della qualit globale. Ci sono state anche alcune dinamiche interessanti trovate intorno alle interazioni
complesse fra logica adattiva bit rate in competizione con complessa logica di controllo del flusso TCP.[5][6]

Bibliografia
RFC 1945 (Specifiche HTTP 1.0)
RFC 2616 (Specifiche HTTP 1.1)

Voci correlate
HTTP tunneling
SPDY
HTTP Live Streaming
Do not track header

Note
[1] http:/ / tools.ietf. org/ html/ rfc1945
[2] http:/ / tools.ietf. org/ html/ rfc2616
[3] IIS Smooth Streaming Technical (http:/ / download. microsoft. com/ download/ 4/ 2/ 4/ 4247C3AA-7105-4764-A8F9-321CB6C765EB/
IIS_Smooth_Streaming_Technical_Overview. pdf)
[4] Smooth Streaming (http:/ / www. iis. net/ download/ smoothstreaming)
[5] An Experimental Evaluation of Rate-Adaptation Algorithms in Adaptive Streaming over HTTP (http:// www. cc. gatech. edu/ ~sakhshab/
Saamer_MMSys11. pdf)
[6] Is adaptive bit rate the yellow brick road, or fool's gold for HD streaming? (http:/ / www. fierceonlinevideo. com/ story/
adaptive-bit-rate-yellow-brick-road-or-fools-gold-hd-streaming/ 2011-01-28)
Hypertext Transfer Protocol 117

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:HTTP

Uniform Resource Locator


In telecomunicazioni e informatica un Uniform Resource Locator o URL una sequenza di caratteri che identifica
univocamente l'indirizzo di una risorsa in Internet, tipicamente presente su un server, come ad esempio un
documento, un'immagine, un video, rendendola accessibile ad un client che ne fa richiesta attraverso l'utilizzo di un
web browser.

Descrizione
Ad esempio, l'URL di questa pagina
http://it.wikipedia.org/wiki/Uniform_Resource_Locator.
Una definizione formale di questo identificativo, scritta da Tim Berners-Lee, si trova nella RFC 3986 della IETF.

Paradigma
Ogni Uniform Resource Locator si compone normalmente di sei parti, alcune delle quali opzionali:
protocollo://<username:password@>nomehost<:porta></percorso><?querystring><#fragment
identifier>
protocollo:
Descrive il protocollo, tipicamente di livello applicazioni, da utilizzare per l'accesso al server. I protocolli pi comuni
sono l'HTTP, HTTPS, FTP, MMS ecc. Se il protocollo non viene specificato, generalmente il browser utilizza
"HTTP://" come predefinito.
username:password@ (opzionale):
Subito dopo il protocollo, possibile specificare l'autenticazione (username e password) per l'accesso alla risorsa.
Alcuni server consentono di specificare nell'URL le informazioni per l'autenticazione nel formato
"username:password@". Tuttavia, l'autenticazione in URL estremamente rischiosa in quanto le credenziali di
accesso vengono inviate al server in chiaro.
Questo sistema di autenticazione espone inoltre gli utenti al phishing. Infatti, i server che non necessitano di
autenticazione non considerano in alcun modo i contenuti a sinistra del simbolo "@"; perci, un URL creato ad arte
pu portare un utente ad una destinazione completamente diversa da ci che ci si pu aspettare. Ad esempio: l'url
http:/ / www. google. it|searchq=wikipedia@www. microsoft. com a prima vista sembra portare su Google, ma in
realt la destinazione effettiva www.microsoft.com.
Da diversi anni, un update di Internet Explorer (832894) ha disattivato la funzione di autenticazione rendendo
inefficaci i tentativi di phishing. Altri browser come Firefox hanno mantenuto la funzione, avvertendo tuttavia
l'utente del possibile tentativo di phishing.
nomehost:
Rappresenta l'indirizzo fisico del server su cui risiede la risorsa. Pu essere costituito da un nome di dominio o da un
Indirizzo IP.
Il Domain Name System invece il database che contiene la corrispondenza fra nomi di host e indirizzi IP necessaria
per la risoluzione da uno all'altro indirizzo e il successivo indirizzamento-instradamento del flusso dati desiderato
tramite il protocollo IP sulla rete Internet.
porta (opzionale):
Uniform Resource Locator 118

Indica al sistema operativo dell'host remoto la porta del processo server al quale affidare la richiesta. Vi necessit
di indicare questo parametro quando il processo server in ascolto su una porta non conforme allo standard definito
prima da IANA ed in seguito da ICANN. In caso contrario pu essere omesso ed il client provveder a completare
questo campo dell'URL con il valore standard associato al protocollo indicato nella richiesta.
percorso (opzionale):
Percorso (pathname) nel file system del server che identifica la risorsa (generalmente una pagina web, una immagine
o un file multimediale). Se il nome del file non viene specificato, il server pu essere configurato per restituire il file
predefinito.
querystring (opzionale):
Se richiesto, al termine dell'url possibile aggiungere una query string separandola utilizzando il simbolo "?". La
query string una stringa di caratteri che consente di passare al server uno o pi parametri. Di norma, la query string
ha questo formato: [...]?parametro1=valore&parametro2=valore2.
fragment identifier (opzionale)
Se presente indica una parte o una posizione all'interno della risorsa

Voci correlate
URI
Indirizzo IP
Domain Name System
URL shortening

Altri progetti
Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/URL
Permalink 119

Permalink
Un permalink o collegamento permanente un tipo di URL che si riferisce ad una specifica informazione,
implementato in modo da non cambiare o almeno da rimanere lo stesso per lunghi periodi di tempo. Il termine
spesso impiegato nell'ambito dei blog per indicare il link ad un determinato post.
La stabilit dei link una propriet auspicabile quando probabile che i contenuti vengano citati e ne venga fatto un
collegamento da fonti esterne all'organizzazione originale oppure quando nell'ambito della stessa organizzazione la
complessit del sito web cresce oltre le poche pagine. In particolare, nell'ambito di grossi siti commerciali gestiti
mediante Content Management System che si appoggia ad un database necessario definire delle politiche di
progettazione degli URL e di permanenza dei collegamenti.
I primi weblog erano costituiti solamente da pagine HTML statiche. Non esistevano collegamenti alle varie voci di
per s; gli utenti erano costretti a scorrere l'elenco per trovare quello che desideravano. Se l'autore era solito inserire
molte voci, solitamente una voce specifica rimaneva disponibile solo per pochi giorni. Prima dell'introduzione dei
permalink (intorno al 1999), gli utenti del web spesso si accorgevano che gli URL salvati che si riferivano a voci
specifiche dopo qualche tempo diventavano inutili. Questo fenomeno divenne particolarmente evidente quando i siti
web professionali cominciarono a migrare da schemi di URL interni basati su directory contenenti le pagine web
statiche verso uno schema completamente dinamico dove le pagine richieste erano create sul momento a partire dal
database contenente le informazioni.
In questi casi i nomi apparivano quasi senza senso spesso costituiti da numeri interi costituenti l'identificativo interno
al database. Quando gli articoli venivano spostati, cancellati o creati la corrispondenza univoca con l'identificativo
del database era persa e quindi un collegamento dopo breve tempo non poteva pi essere utilizzato facendovi
riferimento diretto.
I permalink sono tipicamente costituiti da stringhe di caratteri che rappresentano data ed ora dell'inserimento e
qualche altro identificativo dipendente dal sistema (che include di solito l'URL base e l'autore). Se un articolo viene
modificato, rinominato o spostato, il suo permalink rimane lo stesso. Se un articolo viene cancellato, il suo permalink
non pu pi essere riutilizzato.
I permalink sono in seguito stati affiancati da altre innovazioni come il link tracking ed il link trackback nei weblog
o nell'utilizzo dell'RSS o di Atom nei feed.
I permalink sono supportati nella maggior parte dei sistemi di weblogging e nei software di content syndication
system, inclusi Movable Type, LiveJournal, WordPress, Blogger e Il Cannocchiale.
All'interno di un wiki il permalink contiene solamente l'indirizzo del sito e il titolo della pagina web-articolo, e
quindi non identifica univocamente una risorsa, della quale possono esserci diverse versioni. Le altre informazioni
contenute in un permalink sono trattate come propriet della risorsa, visibili in una scheda collegata "Cronologia"
che contiene nome dell'autore, indirizzo IP di chi pubblica, data della pubblicazione e indice delle modifiche.

I formati di permalink pi diffusi


Gli autori di software per il blogging o i siti web che ospitano weblog non hanno concordato un unico formato
standard per i permalink e non lo faranno mai perch alcune meta-informazioni su un articolo dovrebbero essere
ricavate dal flusso RSS associato o dai <meta> tag nell'articolo stesso. In definitiva, anche se le varie
implementazioni di permalink svolgono lo stesso ruolo, le soluzioni adottate sono diverse.
Movable Type e typepad.com:
http://<nome utente>.typepad.com/<nome utente>/<anno su 4 cifre>/<mese su 2 cifre>/<nome di 15 caratteri>.html

Blogspot:
Permalink 120

http://<nome utente>.blogspot.com/<anno su 4 cifre>/<mese su 2 cifre>/<nome dell'articolo>.html

Wordpress:
http://<prefisso specifico del sito>/<anno su 4 cifre>/<mese su 2 cifre>/<giorno su 2 cifre>/<nome dell'articolo>/

LiveJournal / bloglines:

http://www.livejournal.com/users/<nome utente>/<identificativo univoco>.html

Formattazione
Le voci dei blog seguono questo schema:
Titolo
Data
Voce
Commenti, permalink e la categoria nella quale la voce stata inserita (conosciuta come metadata)
I permalink sono solitamente rappresentati come testo (p.e. "Permalink" o "Collegamento a questa Entry") ma a volte
viene utilizzato un simbolo. I simboli maggiormente utilizzati sono il simbolo della sterlina o il "#". In alcuni siti
web si pu utilizzare un simbolo di "trademark", un asterisco o un trattino. A volte il carattere di trademark usato
come permalink stesso. Recentemente, si cominciato ad utilizzare il titolo della voce come permalink.

Collegamenti esterni
(EN) Storia e critica dei permalink [1]

Note
[1] http:/ / www. plasticbag. org/ archives/ 2003/ 06/ on_permalinks_and_paradigms. shtml
Browser 121

Browser
In informatica un browser (/braz(r)/) o navigatore un programma che consente di usufruire dei servizi di
connettivit in Rete e di navigare sul World Wide Web, appoggiandosi sui protocolli di rete forniti dal sistema
operativo (a partire da quelli di livello applicativo come HTTP, FTP ecc.) attraverso opportune API, permettendo di
visualizzare i contenuti delle pagine dei siti web e di interagire con essi. Quest'ultima funzionalit supportata dalla
capacit del browser di interpretare l'HTML il codice con il quale sono scritte la maggior parte delle pagine web
e di visualizzarlo in forma di ipertesto.

Descrizione
Esso rappresenta dunque il sistema software di interfacciamento dell'utente con la rete che rende la navigazione
dell'utente tipicamente user-friendly, sebbene ai primordi della rete siano esistiti anche browser testuali da riga di
comando su shell.
I browser vengono principalmente utilizzati su personal computer, ma anche su altri dispositivi che consentono la
navigazione in internet, come i palmari e gli smartphone. Quelli pi noti e diffusi sono Internet Explorer, Mozilla
Firefox, Google Chrome, Safari e Opera.

Storia
Anno Browser Utenti
Internet
(in
[1]
milioni)

1991 WorldWideWeb (Nexus)

1992 ViolaWWW, Erwise, MidasWWW, MacWWW (Samba)

1993 [2]
Mosaic, Cello , Lynx 2.0, Arena, AMosaic 1.0

1994 IBM WebExplorer, Netscape Navigator, SlipKnot 1.0, MacWeb, IBrowse, Agora (Argo), Minuet, Opera 1.0

1995 [3] [4] 16


Internet Explorer 1, Netscape Navigator 2.0, OmniWeb, UdiWWW , WebRouser , Internet Explorer 2, Grail

1996 [5] 36
Arachne 1.0, Internet Explorer 3.0, Netscape Navigator 3.0, Opera 2.0, PowerBrowser 1.5 , Cyberdog, Amaya
[6]
0.9 , AWeb, Voyager

1997 [7] [6] 70


Internet Explorer 4.0, Netscape Navigator 4.0, Netscape Communicator 4.0, Opera 3.0 , Amaya 1.0

1998 Internet Explorer 5.0 Beta 1, iCab, Mozilla 147

1999 [6] 248


Amaya 2.0 , Mozilla M3, Internet Explorer 5.0

2000 [8] [9] [6] [6] 361


Konqueror, Netscape 6, Opera 4 , Opera 5 , K-Meleon 0.2, Amaya 3.0 , Amaya 4.0

2001 [10] [6] 513


Internet Explorer 6, Galeon 1.0, Opera 6 , Amaya 5.0

2002 [6] [6] 587


Netscape 7, Mozilla 1.0, Phoenix 0.1, Links 2.0, Amaya 6.0 , Amaya 7.0

2003 [11] [6] 719


Opera 7 , Safari 1.0, Epiphany 1.0, Amaya 8.0

2004 Firefox 1.0, Netscape Browser, OmniWeb 5.0 817

2005 [12] [6] 1018


Safari 2.0, Netscape Browser 8.0, Opera 8. , Epiphany 1.8, Amaya 9.0 , AOL Explorer 1.0, Maxthon 1.0,
Shiira 1.0
Browser 122

2006 [13] 1093


SeaMonkey 1.0, K-Meleon 1.0, Galeon 2.0, Camino 1.0, Firefox 2.0, Avant 11, iCab 3, Opera 9 , Internet
Explorer 7, Sputnik

2007 Maxthon 2.0, Netscape Navigator 9, NetSurf 1.0, Flock 1.0, Safari 3.0, Conkeror 1262

2008 [14] [6] [6] 1565


Konqueror 4, Safari 3.1, Opera 9.5 , Firefox 3, Amaya 10.0 , Flock 2, Chrome 0,2/0,3/0,4/1, Amaya 11.0

2009 [15] 1734


Internet Explorer 8, Chrome 2/3, Safari 4, Opera 10 , SeaMonkey 2, Camino 2, Firefox 3.5

2010 [16] 1971


Firefox 3.6, Chrome 4/5/6/7/8, Opera 10.50 / 11, Safari 5, Internet Explorer 9

2011 Firefox 4/5/6/7/8, Chrome 9/10/11/12/13/14/15/16, Opera 11.10/11.50 2110

Il primo browser fu sviluppato da Tim Berners-Lee (tra i primi precursori del concetto di WWW e fondatore del
W3C), e venne chiamato WorldWideWeb. Serviva a scopi dimostrativi, era disponibile solo per sistema operativo
NeXT e perci in seguito fu chiamato Nexus.
Il primo browser a raggiungere un'apprezzabile popolarit internazionale fu Mosaic, sviluppato da NCSA, seguito
poi da Netscape Navigator, che crebbe in fretta e fu la piattaforma su cui vennero messe a punto alcune innovazioni
diffusesi a larga scala col passare del tempo (come ad esempio JavaScript). La netta prevalenza di Netscape presso
l'utenza, a met degli anni novanta, fu incrinata dalla cosiddetta guerra dei browser, una competizione inizialmente
commerciale e poi di immagine cominciata da Microsoft quando le innovazioni introdotte da Netscape divennero
cos sofisticate da costituire una minaccia potenziale per i propri interessi. Per vincere la concorrenza, Microsoft
incluse Internet Explorer nel proprio sistema operativo Windows (il pi diffuso al mondo), stroncando sul nascere i
possibili concorrenti. Questa mossa fu motivo di numerose cause legali per la difesa della libera concorrenza e
contro la nascita di monopoli informatici.
Netscape reag rilasciando nel 1998 il proprio codice con una licenza open source. Il progetto Mozilla che ne deriv
fornisce il codice che alla base di diversi browser, fra i quali Netscape, Mozilla Suite, Galeon, Firefox e uno dei
programmi di accesso della AOL.
La presenza di browser diversi con funzioni differenti, ha portato alcuni webmaster a realizzare siti web destinati a
essere visitati con un browser preferenziale, talvolta impedendo l'accesso a utenti che utilizzassero un browser
differente da quello scelto. Questa consuetudine, oltre a essere contro la filosofia portante del World Wide Web, che
vede l'accessibilit come uno dei pilastri portanti e aver quindi suscitato forti critiche e campagne di protesta e
sensibilizzazione (come Campaign for a Non-Browser Specific WWW), ha costretto browser molto comuni (tra i
quali Opera) a "fingersi" un altro browser (modificando il proprio user agent), per poter aver accesso a un maggior
numero di documenti.
Il browser pi diffuso a livello mondiale Internet Explorer, prodotto da Microsoft, che viene fornito gratuitamente e
"di serie" con ogni sistema operativo Windows (dati al 2006). Il secondo browser in ordine di utilizzo Mozilla nelle
sue varianti (e in particolare Firefox), prodotto e distribuito gratuitamente dalla Mozilla Foundation; il terzo Safari
di Apple[17], distribuito assieme al sistema operativo Mac OS X (di cui pi recentemente stata messa a disposizione
una versione gratuita anche per Windows). Altri browser molto diffusi sono Opera (terzo in Italia nel 2006) e il gi
citato Netscape Navigator, il cui sviluppo ormai sospeso.
Fra le principali funzionalit dei browser disponibili, si possono ricordare: navigazione a schede (Tabbed browsing),
supporto alla navigazione off-line tramite la memoria cache e plugin dedicati per mantenere i link tra le pagine
salvate, funzione di download manager con arresto/ripresa sempre tramite la memoria cache, anteprima delle pagine
da scaricare, sintesi vocale, integrazione dei feed RSS e di client di posta elettronica.
La diversa diffusione dei vari browser, con tecnologie compatibili tra loro, ma con alcune peculiarit uniche, ha
portato in passato con Internet Explorer 6 e attualmente con i sistemi basati sul WebKit a progettare le pagine web
tenendo conto di un solo browser causando in alcuni casi il funzionamento solo su specifici browser, il che pu
portare a creare uno standard ancora prima che venga approvato dagli organi competenti[18].
Browser 123

Diffusione dei diversi browser


Non esiste un unico metodo per verificare l'uso di un determinato tipo
di browser rispetto agli altri, per questo i risultati dei diversi contatori
possono differire anche di diversi punti percentuali.[20]

Browser pi usati in ogni nazione secondo


StatCounter.Internet ExplorerGoogle
ChromeFirefoxOpera (web
browser)Opera

Porzioni di mercato dei principali browser nel mondo secondo W3Counter


Browser Maggio 2007[21] Maggio 2008[22] Maggio 2009[23] Maggio 2010[24] Maggio 2011[25] Maggio 2012[26]

Internet Explorer 66,7% 61,6% 57,4% 45,7% 37,7% 28,8%

Mozilla Firefox 24,5% 28,9% 31,0% 32,2% 28,3% 23,3%

Google Chrome 0,6% 8,4% 16,8% 26,4%

Safari 1,8% 2,2% 2,2% 5,3% 6,4% 6,2%

Opera 1,2% 1,1% 0,5% 2,0% 2,2% 2,3%

Porzioni di mercato dei principali browser nel mondo (Europa) secondo StatCounter
Browser Settembre 2008[27] Settembre 2009[28] Settembre 2010[29] Settembre 2011[30]

Internet Explorer 67,16% (56,35%) 58,37% (46,44%) 49,87% (40,26%) 41,66% (34,87%)

Mozilla Firefox 25,77% (33,77%) 31,34% (39,26%) 31,5% (38,97%) 26,79% (33,04%)

Google Chrome 1,03% (1,04%) 3,69% (3,59%) 11,54% (11,32%) 23,61% (22,1%)

Safari 3% (2,45%) 3,28% (3,14%) 4,42% (4,32%) 5,6% (5,56%)

Opera 2,86% (6,20%) 2,62% (6,64%) 2,03% (4,48%) 1,72% (3,78%)

Porzioni di mercato dei principali browser nel mondo secondo NetApplications


Browser Gennaio 2011[31] Gennaio 2012[32]

Internet Explorer 58,35% 52,93%

Mozilla Firefox 23,72% 20,88%

Google Chrome 11,15% 18,94%

Safari 4,15% 4,90%

Opera 2,33% 1,67%


Browser 124

Elenco di navigatori (browser)


11NET
Amaya
Arachne
Aurora
Avant Browser
AWeb
Bird
Camino
Chromium
Cyberdog
Dillo
Dooble
Dragon
Enigma Browser
ELinks
Epic
Flock
Galeon
Gnu IceCat
Google Chrome
GreenBrowser
IceWeasel
Internet Explorer
K-Meleon
Kazehakase
Kirix Strata
Konqueror
Kiwe (per bambini[33])
Links (testuale)
Lunascape
Lynx (testuale)
Maxthon (prima noto come Myie2)
Midori
Minimo
Mosaic
Mozilla
Mozilla Firefox
Netscape
Netsurf
Omniweb
Opera
QtWeb
Pale Moon
RealPlayer
[34]
RockMelt
Safari
Browser 125

SeaMonkey
Sleipnir
Slim Browser[35]
SRWare Iron
w3m (testuale)
Web
WebPositive

[36]
Evoluzione temporale dei web browser (clic per ingrandire)

Note
[1] (EN) History and Growth of the Internet (http:/ / www. internetworldstats. com/ emarketing. htm). Internet World Stats, 9 maggio 2009.URL
consultato in data 17 maggio 2009.
[2] Elaine Brennan. World Wibe Web Browser: Ms-Windows (Beta) (1/149) (http:/ / www. digitalhumanities. org/ humanist/ Archives/ Virginia/
v07/ 0048. html). Humanist Archives Vol. 7, Sun, 13 Jun 1993.URL consultato in data 27 marzo 2010.
[3] Prof. Dr. Hans Peter Gromann. Department of Information Resource Management (http:/ / www. uni-ulm. de/ uni/ veroeff/ fb/ 93-95/ 126.
html. en). University of Ulm.URL consultato in data 22 marzo 2010.
[4] Eolas releases WebRouser via the Internet (http:/ / 1997. webhistory. org/ www. lists/ www-talk. 1995q3/ 0566. html). Eolas Information, 18
settembre 1995.URL consultato in data 18 ottobre 2007.
[5] Oracle Introduces PowerBrowser (http:/ / www. ncns. com/ browser. html). Oracle Corporation, 18 giugno 1996.URL consultato in data 31
ottobre 2007.
[6] Release history (http:/ /www. w3. org/ Amaya/ User/ New. html). W3C.URL consultato in data 2 maggio 2009.
[7] Opera Software Releases 3.60 (http:/ / www. opera. com/ pressreleases/ en/ 1999/ 05/ 19990512. dml). Opera Software, 12 maggio
1998.URL consultato in data 19 febbraio 2008.
[8] Opera 4.0 for Windows Released (http:/ / www. opera. com/ press/ releases/ 2000/ 06/ 27/ ). Opera Software, 27 giugno 2000.URL
consultato in data 10 dicembre 2008.
[9] The Browser War Lights Up in Europe (http:/ / www. opera. com/ press/ releases/ 2000/ 12/ 06_2/ ). 6 dicembre 2000.URL consultato in data
10 dicembre 2008.
Browser 126

[10] Opera 6.0 for Windows launched after record-breaking beta (http:/ / www. opera. com/ pressreleases/ en/ 2001/ 11/ 20011129. dml). Opera
Software, 29 novembre 2001.URL consultato in data 19 febbraio 2008.
[11] Opera 7 Ready to Rock the Web (http:/ / www. opera. com/ pressreleases/ en/ 2003/ 01/ 28/ ). Opera Software, 28 gennaio 2003.URL
consultato in data 19 febbraio 2008.
[12] Speed, Security and Simplicity: Opera 8 Web Browser Released Today (http:/ / www. opera. com/ pressreleases/ en/ 2005/ 04/ 19/ ). Opera
Software, 19 aprile 2005.URL consultato in data 19 febbraio 2008.
[13] Your Web, Your Choice: Opera 9 Gives You the Control (http:/ / www. opera. com/ press/ releases/ 2006/ 06/ 20/ ). Opera Software, 20
giugno 2006.URL consultato in data 10 dicembre 2008.
[14] Opera redefines Web browsing yet again (http:/ / www. opera. com/ pressreleases/ en/ 2008/ 06/ 12/ ). Opera Software, 12 giugno
2008.URL consultato in data 12 giugno 2008.
[15] Turbocharge your Web experience with Opera 10 (http:/ / www. opera. com/ press/ releases/ 2009/ 09/ 01/ ). Opera Software, 1 settembre
2009.URL consultato in data 2 gennaio 2010.
[16] The world's fastest browser for Windows (http:/ / www. opera. com/ press/ releases/ 2010/ 03/ 02/ ). Opera Software, 2 marzo 2010.URL
consultato in data 28 marzo 2010.
[17] Safari terzo nella classifica dei browser | Macitynet (http:/ / www. macitynet. it/ macity/ aA24315/ index. shtml)
[18] Daniel Glazman del W3C: Google e Apple peggio di Internet Explorer 6 coi loro browser mobile (http:// www. downloadblog. it/ post/
16381/ daniel-glazman-del-w3c-google-e-apple-peggio-di-internet-explorer-6-coi-loro-browser-mobile)
[19] http:/ / gs. statcounter. com/ #browser-ww-monthly-201205-201205-map
[20] Microsoft: Chrome non ha mai superato Internet Explorer (http:/ / windows. digital. it/
microsoft-chrome-non-ha-mai-superato-internet-explorer-5950. html)
[21] W3Counter - Global Web Stats, May 2007 (http:/ / www. w3counter. com/ globalstats. php?date=2007-05-31)
[22] W3Counter - Global Web Stats, May 2008 (http:/ / www. w3counter. com/ globalstats. php?date=2008-05-31)
[23] W3Counter - Global Web Stats, May 2009 (http:/ / www. w3counter. com/ globalstats. php?date=2009-05-31)
[24] W3Counter - Global Web Stats, May 2010 (http:/ / www. w3counter. com/ globalstats. php?year=2010& month=5)
[25] W3Counter - Global Web Stats, May 2011 (http:/ / www. w3counter. com/ globalstats. php?year=2011& month=5)
[26] W3Counter - Global Web Stats, May 2012 (http:/ / www. w3counter. com/ globalstats. php?year=2012& month=5)
[27] StatCounter - Global Web Stats, Settembre 2008 (http:/ / gs. statcounter. com/ #browser-eu-monthly-200809-200809-bar)
[28] StatCounter - Global Web Stats, Settembre 2009 (http:/ / gs. statcounter. com/ #browser-eu-monthly-200909-200909-bar)
[29] StatCounter - Global Web Stats, Settembre 2010 (http:/ / gs. statcounter. com/ #browser-eu-monthly-201009-201009-bar)
[30] StatCounter - Global Web Stats, Settembre 2011 (http:/ / gs. statcounter. com/ #browser-eu-monthly-201109-201109-bar)
[31] NetApplications - Global Web Stats, Gennaio 2011 (http:/ / netmarketshare. com/ browser-market-share. aspx?qprid=0& qpcustomd=0&
qptimeframe=M& qpsp=144& qpnp=1)
[32] NetApplications - Global Web Stats, Gennaio 2012 (http:/ / netmarketshare. com/ browser-market-share. aspx?qprid=0& qpcustomd=0&
qptimeframe=M& qpsp=156& qpnp=1)
[33] Kiwe (http:/ / www. kiwe. it)
[34] RocketMelt (http:/ / www. rockmelt. com/ )
[35] Slim Browser (http:/ / www. flashpeak. com/ )
[36] http:/ / upload. wikimedia. org/ wikipedia/ commons/ 7/ 74/ Timeline_of_web_browsers. svg

Voci correlate
Connessione
Navigazione off-line
Guerra dei browser
Usabilit del web
Browser mobile
Browser 127

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Web
browsers

Collegamenti esterni
Elenco di browser su useragents.org (http://www.useragents.org/database-list.asp?id=5)
Ballot Screen per scelta browser (http://www.browserchoice.eu/BrowserChoice/browserchoice_it.htm)

File sharing
In informatica e telecomunicazioni il file sharing la condivisione di file all'interno di una rete di calcolatori
comuni. Pu avvenire attraverso una rete con architettura client-server (cliente-servente) oppure peer-to-peer (pari a
pari).
Le pi famose reti di peer-to-peer sono: Gnutella, OpenNap, Bittorrent, eDonkey, Kademlia. Non vanno confuse con
reti che costituiscono un filesystem distribuito, come Freenet.
Queste reti possono permettere di ricercare un file in particolare per mezzo di un URI (Universal Resource
Identifier), di individuare pi copie dello stesso file nella rete per mezzo di hash crittografici, di eseguire lo
scaricamento da pi fonti contemporaneamente, di riprendere lo scaricamento del file dopo un'interruzione.
Programmi di File-sharing, sono utilizzati direttamente o indirettamente per trasferire file da un computer ad un altro
su Internet, o su reti aziendali Intranet. Questa condivisione ha dato origine al modello peer-to-peer.

La storia
Il file sharing, come fenomeno di massa, strettamente
legato alla diffusione di Internet e della banda larga. Il
primo software dedicato al P2P (Napster) nasce nel
1999 negli Stati Uniti per opera dell'appena
diciannovenne Shawn Fanning, studente alla
Northeastern University di Boston, con l'aiuto
dell'amico Sean Parker.

Ancor prima della nascita di Napster i pionieri della


condivisione di file su internet utilizzavano le BBS e i
siti Warez, dove gli utenti mettevano a disposizione i
propri file su spazi dedicati. Si trattava comunque di
Dimostrazione a Stoccolma (2006) a favore del file sharing e della
una minoranza di navigatori esperti, generalmente pirateria informatica
studenti di informatica, che si collegavano dai grossi
centri di calcolo delle universit.

Ma esistono esempi di file sharing, in senso lato, antecedenti l'avvento della rete. il caso, ad esempio, di una
piccola emittente radiofonica siciliana che nei primi anni 80 utilizzava la modulazione di frequenza per diffondere
brevi programmi, utility e giochi freeware attraverso l'etere. L'allora popolare dj Alex, attraverso le frequenze di
radio Pachino, trasmetteva il suono emesso dai nastri contenenti software per Commodore e Atari che gli ascoltatori
potevano registrare e riprodurre sul proprio Personal Computer.
File sharing 128

Programmi di file sharing


Attualmente sono disponibili diversi programmi di file sharing su reti differenti. La disponibilit dipende
parzialmente dal sistema operativo, da differenti reti di comunicazioni aventi differenti caratteristiche (per esempio
download a sorgente multipla, differenti tipi di ordinamento, differenti limiti nella ricerca, eccetera).

La dinamica del file sharing


Questi programmi di condivisione file possono portare sia vantaggi che svantaggi alla Privacy / Anonimato
attraverso una centralizzazione o una decentralizzazione della rete su cui si basano. Com' naturale, data la natura
stessa di una rete di condivisione, non si esenti da minacce malware et similia, seppur differenti a seconda dell'OS
e della rete. Indipendentemente dal sistema in uso, il Firewall uno strumento indispensabile per una navigazione
privata, ma non priva di falle.
Se un navigatore di Internet crede di avere un guadagno grazie all'accumulo di file, cercher di collegarsi con altri
per condividere sempre pi file. Questo pu causare dei problemi quando il nodo collettore non in grado di
sostenere il traffico di dati. La decentralizzazione un sistema per mitigare questo problema, specialmente nel caso
in cui sia possibile assicurare che copie multiple di una canzone o di un programma popolare siano disponibili da
risorse multiple (persino simultaneamente, mediante downloads multi source).
Concetti come accaparramento (in inglese "hoarding") sono emersi quando ci si resi conto che non si riusciva a
distribuire in rete ci che si aveva caricato sul proprio computer. I sistemi Barter e ratio ridussero l'impatto
dell'accaparramento. Grazie a questi sistemi le persone avrebbero condiviso solo ci che loro si aspettavano di
ottenere.
Nel sistema operativo Windows possibile la creazione di directory personali, invisibili ai computer collegati in rete,
semplicemente dandogli un nome che termina col simbolo "$". Software di scansione di rete o sistemi operativi
differenti come Linux sono in grado di reperire queste risorse collegandosi a nodi remoti.
Windows, con il tasto destro del mouse, dal menu "Propriet/Condivisione", permette di rendere disponibile una
cartella in lettura (o anche in modifica) ad un network di contatti, oppure a qualunque utente in rete.
Le reti decentralizzate, come Emule ed Edonkey, avevano due aspetti che hanno favorito la loro diffusione:
l'assenza di un server centrale nel quale erano presenti i file scaricati. In presenza di contenuti protetti da diritto
d'autore, il sito poteva essere oscurato e la rete divenire inoperativa;
il fatto che la velocit del download cresce con il numero degli utenti connessi. Si tratta della differenza
sostanziale fra una rete centralizzata e una distribuita.
Una rete centralizzata possiede una capacit finita che prima o dopo viene saturata, generando code e attese.
Rispetto a venti anni fa, le dimensioni dei file da scaricare sono sempre dell'ordine di alcuni megabyte, almeno per
testi e musica MP3, cui si sono aggiunti i film. invece sceso drasticamente il costo del gigabyte: abbiamo molta pi
banda e molta pi memoria, a costi pi bassi. Da queste considerazioni facile calcolare che:
un server capace di connettere molti pi utenti, senza generare code;
in presenza di code, le reti sono pi scalabili. Grazie al basso costo delle memorie e a collegamenti veloci fra
server, i server possono essere ridondati, lasciando terabyte di memoria inutilizzati per gestire le situazioni di
maggiore traffico. In presenza di code, il server principale crea in tempi brevi molti mirror dello stesso file
occupando le aree di server secondari, cui pu connettersi parte degli utenti in coda.
I PC hanno una potenza di calcolo sufficiente a configurarli come server, in commercio sono reperibili memoria di
terabyte a poche centinaia di euro, e una connessione da 20 a 100 megabit. Sono tutte premesse per una
moltiplicazione dei server disponibili.
Negli ultimi tempi, stanno diffondendosi nuovamente i download di contenuti tramite reti centralizzate Internet
Relay Chat, grazie a XDCC, un'estensione del protocollo DCC che permette lo scambio di file. Pi utenti si
File sharing 129

collegano a un server centrale, attivando tanti download indipendenti.

I problemi della privacy


I concetti di "tracciabilit" e di "classificabilit" sono ormai una realt quotidiana. Informazioni che identificano ogni
persona sono legalmente associate a ci che fanno al fine di verificarne l'identit; per esempio le carte di credito:
queste devono essere associate con l'acquirente, altrimenti non si in grado di inviare le corrette informazioni
necessarie per effettuare gli acquisti.
Questo concetto si esteso grazie ad Internet a molti aspetti dei personal computer. Mentre i pubblicitari dichiarano
che queste informazioni pubblicitarie sono distribuibili solo a chi veramente interessato a riceverle, molti
affermano che avviene esattamente il contrario.
Le reti di file sharing sono una risorsa di informazioni sulle preferenze degli utenti e le tendenze del mercato. Il
problema della privacy era maggiore con le prime reti P2P non distribuite, come Napster, in cui tutti dovevano
connettersi a un server centrale contenente i file.
Chiaramente il server poteva conservare informazioni sugli indirizzi IP e sul materiale scambiato da un elevato
numero di utenti.
Concetti come decentralizzazione e credito sono stati utilizzati per giustificare l'occultamento dell'identit degli
utenti.
Nel 2006 ha provocato animate reazioni il cosiddetto Caso Peppermint: l'etichetta discografica tedesca Peppermint
Jam Records GmbH accus pi di 3.600 utenti di aver violato la legge, condividendo illegalmente file di cui la
societ deteneva il diritto d'autore. Peppermint, in pratica, sorvegli i consumatori nel loro uso personale di internet
con la complicit dei loro provider, e riusc ad ottenere i dati relativi ai movimenti effettuati dagli utenti, all'oscuro di
questi ultimi.

Tecniche di tutela della privacy


Il desiderio di anonimato ha spinto alcuni client di file sharing a "codificare" i dati, a nascondere diverse funzionalit
al fine di proteggere i propri utenti. Le misure possono essere: cifratura dell'ID utente nella rete P2P, offuscamento
del protocollo, supporto a proxy server e Tor per nascondere l'indirizzo IP, supporto con crittografia SSL dell'intera
connessione.
Per lo scambio della chiave di sessione (fase di handshake) i programmi non utilizzano le chiavi pubbliche e private
delle certification authority, poich renderebbero identificabile l'IP e la persona dell'utente. Per lo scambio, adottano
chiavi pubbliche e private generate con altre fonti, come nei programmi OpenPGP o OpenSSL. Questi programmi
gestiscono tutta la cifratura, sia il protocollo che la fase di avvio e generazione delle chiavi.
Le reti serverless come Gnutella offrono maggiori garanzie a tutela della privacy, non essendovi server spia che
registrano gli IP degli utenti e dei file che cercano, e che spesso contengono delle fake.

I modelli pi recenti di file sharing


Napster un servizio centralizzato, ed stato uno dei primi e pi popolari programmi di file sharing di massa.
Napster consentiva la condivisione, gratuita, unicamente di file MP3. Tale condivisione fu successivamente abolita a
causa degli attacchi legali condotti dalla RIAA e dalle major discografiche. Negli U.S.A. fu apertamente attaccato da
alcuni artisti (particolarmente dal rapper Dr. Dre e dai membri della rock band Metallica) ma appoggiato da altri
(Limp Bizkit, Courtney Love, Dave Matthews). Napster consentiva la ricerca di file MP3 condivisi da altri utenti
collegati al sistema. Comprendeva un sistema tipo chat IRC e un instant messenger. I programmi successivi hanno
seguito il suo esempio. Successivamente apparve Gnutella, una rete decentralizzata. Questo servizio era
completamente open-source e permetteva agli utenti ricerche verso qualsiasi tipo di file, non solo MP3. Questo
servizio fu creato per evitare gli stessi rischi legali corsi da Napster. L'aspetto fondamentale che ha decretato il
File sharing 130

successo di questi programmi di condivisione, e che sta dietro la decentralizzazione, dovuto al fatto che se anche
una persona interrompe il collegamento non causa l'interruzione di tutti gli altri. Gnutella ha fatto tesoro delle
difficolt iniziali e grazie a questo il suo uso si incrementato in modo esponenziale.
Con Napster e Gnutella si scontrano due modi diversi di condividere i file in rete. Gnutella un servizio a protocollo
aperto, decentralizzato e libero senza specifiche direttive ma con una difficile scalabilit. Napster, un servizio a
protocollo centralizzato nonostante la sua velocit e i grossi investimenti, non stato comunque in grado di
convincere l'industria discografica della sua importanza. Molti sistemi di file-sharing hanno comunque scelto una via
di mezzo tra i due estremi; esempio tipo la rete eDonkey, ad oggi la pi utilizzata, nonch la kademlia anch'essa
decentralizzata. Ma prima che sorgessero i problemi legali, le diverse comunit di internauti avevano gi sviluppato
con OpenNap una valida alternativa. Una versione reverse-engineered fu rilasciata come server open source. Questa
rete continua a funzionare e, anche dopo il collasso di Napster, molti client utilizzano questo protocollo che sembra
essere molto utile al server Napigator nello sforzo di centralizzare tutti i differenti server.

File sharing e copyright


Il file sharing anonimo cresciuto in popolarit e si diffuso rapidamente grazie alle connessioni di Internet sempre
pi veloci e al formato, relativamente piccolo ma di alta qualit, dei file audio MP3. Il nuovo modello di
condivisione peer to peer si rivelato, per, destabilizzante per il sistema del copyright, proprio perch ha provocato
una massiccia diffusione di materiale coperto da copyright, spingendo le major discografiche e mediali ad attacchi
legali per tutelare i propri diritti. La condivisione di materiali coperti da copyright ritenuta in genere illegale ma ha
acceso diverse discussioni anche a causa delle diverse legislazioni in vigore nei vari paesi.
I problemi di fondo che gli ordinamenti giuridici hanno incontrato nel tentativo di regolamentare questo fenomeno si
possono riassumere nelle seguenti tre categorie:
1. Il conflitto con le libert fondamentali: Il File sharing rientra nella sfera dei diritti fondamentali previsti dalle
convenzioni internazionali e dalle carte costituzionali di tutti gli stati democratici, dal momento che si basa sulla
comunicazione tra privati. In Italia, ad esempio, l'articolo 21 della Costituzione sostiene la libert di espressione e
accesso alla cultura e all'informazione, mentre l'articolo 15 sancisce l'inviolabilit della corrispondenza e di ogni
altra forma di comunicazione tra privati.Questi diritti fondamentali, essendo in posizione preminente rispetto a
tutti gli altri, possono essere limitati solo se vi pericolo di violazione di diritti di pari rilevanza, tra i quali non
possono essere annoverati i diritti d'autore.
2. La non percezione di illiceit: Lo scambio di file oggi molto semplice da effettuare e molto vantaggioso
economicamente. Insieme alle moderne tecnologie informatiche, che hanno portato gli individui a non potersi pi
privare di oggetti e servizi fino a poco tempo fa sconosciuti, ha rivoluzionato le consuete abitudini di vita e risulta
essere in costante ampliamento, nonostante sia una pratica riconosciuta come illecita e quindi sanzionabile. Ci
succede perch, a causa della sua capillare diffusione, si registra nel tessuto sociale una mancata percezione
dell'illiceit di questo comportamento.
3. L'inesistenza di sistemi centralizzati da colpire: Il modello peer-to-peer rende difficile sanzionare la violazione
del diritto poich la rete composta da un'infinit di soggetti, difficilmente individuabili e con diverse gradazioni
di responsabilit: la posizione dellutente che si connette saltuariamente e scambia qualche file diversa da quella
di chi viola il diritto di autore condividendo e scambiando migliaia di file, criptando dati e rendendosi non
immediatamente identificabile.Il fenomeno ebbe inizio con Napster, uno dei primi software di file-sharing presto
bloccato dalla giustizia americana a causa della sua natura: non si trattava ancora di un vero e proprio peer to
peer, in quanto gli utenti caricavano i file su una piattaforma comune alla quale si appoggiava il software. Per
questo motivo le autorit giudiziarie non ebbero alcuna difficolt nel trovare un capro espiatorio, ingiungendo ai
responsabili del server di cessare la loro attivit.
La decentralizzazione stata una risposta rapida agli attacchi delle major verso le reti centralizzate, al fine di evitare
dispute legali ma anche utenti ostili. Questo implica che le reti decentralizzate non possono essere attaccate
File sharing 131

legalmente, in quanto non fanno riferimento ad un singolo individuo. Anche se il protocollo fondamentale di Internet
TCP/IP era stato progettato per essere resistente ad attacchi concertati, i sistemi di file-sharing e di peer-to-peer
hanno dimostrato una maggiore resistenza. Per tutto il 2001 e il 2002 tutta la comunit di file-sharing fu in
fibrillazione a causa dell'azione di contrasto delle major discografiche e della RIAA. Il server di Napster fu chiuso
con l'accusa di violazione del copyright, ma la comunit reag unita e compatta, producendo nuovi e differenti client.
Da quel momento in poi si sono diffusi programmi di file-sharing grazie ai quali gli utenti possono condividere file
senza necessariamente interfacciarsi con una piattaforma centrale, il che ha reso difficile agli ordinamenti giuridici
risalire ad un unico responsabile per regolamentare il fenomeno; di conseguenza anche le azioni legali delle major
discografiche sono state inefficaci.
Ad esempio, la seconda generazione di protocolli P2P, come Freenet, non dipendente da un server centrale, come
nel caso di Napster. Inoltre, sono stati usati altri espedienti, come quello utilizzato dai gestori di KaZaA, consistente
nel modificare la ragione sociale dell'azienda allo scopo di rendere impossibile o inutile qualsiasi attacco legale.
Questa evoluzione ha prodotto una serie di client aventi una funzionalit ben definita che rendono la condivisione un
fatto effettivo e definito in tutti i sensi consentendo il download e l'upload libero e immune da qualsiasi attacco
legale, soprattutto grazie all'anonimato e alla decentralizzazione. Da un altro lato invece, una pi diplomatica analisi
della questione, ha visto nascere movimenti di protesta e di tutela degli utenti ben organizzato: strenuo baluardo nella
battaglia ai "brevetti" musicali, il Partito Pirata Svedese.
In Italia il 28 maggio 2009 si insediata presso il Ministero per i Beni e le Attivit culturali, Direzione Generale per i
beni librari, gli istituti culturali e il diritto dautore, Servizio IV, la Commissione speciale, costituita dal Prof.
Alberto Maria Gambino presidente del Comitato consultivo permanente per il diritto d'autore, che dovr
rideterminare i compensi spettanti ai titolari dei diritti, in vista dellelaborazione del decreto relativo alla quota
spettante ai titolari di diritti dautore sugli apparecchi di registrazione, analogici e digitali. La Commissione ha il
delicato compito di rivedere la norma transitoria costituita dall'art. 39 del decreto legislativo 9 aprile 2003, n. 68 che
aveva stabilito fino al 31 dicembre 2005, e comunque fino allemanazione del nuovo decreto, il compenso per la
riproduzione per uso privato, individuando le tipologie di supporti per i quali il compenso dovuto.[1]
Successivamente il D.M. 30 dicembre 2009 del Ministro per i Beni e le Attivit Culturali di rideterminazione dei
compensi per copia privata ha previsto il prelievo di una somma forfettaria su ogni apparecchio di memoria venduto,
commisurata allestensione della memoria stessa, da attribuire alla Siae che poi la ripartir tra i titolari dei diritti di
privativa, con ci consacrando una sorta di riparazione preventiva e presuntiva per leventualit che con tali
dispositivi si copino opere coperte da privative.[2]

Configurazione dei programmi di file sharing


Le cause di un rallentamento e instabilit delle connessioni durante il file sharing possono principalmente dipendere
da un basso credito, da limitazioni dell'Internet Service Provider o da un'errata configurazione del programma.
I problemi di crediti possono dipendere dai file messi in condivisione (troppo pochi, tra i meno scaricati) e da
restrizioni eccessive all'upload in termini di banda massima e numero massimo di collegamenti ammessi.
Alcuni provider riducono la velocit della connessione quando viene rilevato l'uso programmi o protocolli P2P. Ci
avviene per motivi legali, per non collaborare ed essere accusati di favorire uno scambio illegale di file, e perch
l'impegno per ore di molta banda risulterebbe penalizzante per gli altri utenti del servizio. A proposito, diversi client
mettono a disposizione un'opzione di offuscamento del protocollo P2P.
Problemi di configurazioni possono verificarsi soprattutto nella sincronizzazione delle porte fra router ADSL e PC,
risolvendosi con il port forwarding.
Con tali accorgimenti possibile velocizzare la condivisione e la diffusione di file propri o del materiale posto sotto
licenza come le creative commons.
File sharing 132

Riconnessione automatica
Windows permette di impostare una riconnessione automatica dopo pochi secondi ogni volta che cade la linea.
Scegliendo questa opzione dalle propriet della connessione di rete attiva, bisogna ricordarsi di disattivare
l'indicatore della connessione.
La riconnessione utile, in particolare, se si intende usare i programmi file-sharing anche quando non si presenti
davanti al computer, se la connessione instabile per un cattivo segnale o perch l'Internet Service Provider
penalizza con la disconnessione gli utenti dei programmi P2P.
Occorre impostare le opzioni del programma P2P in modo che si connetta alle reti all'avvio della connessione
Internet e mantenga la connessione attiva.

Stand by del monitor


I produttori di PC, notebook e molti dispositivi elettronici sono tenuti a rispettare normative internazionali per il
risparmio energetico.
Il monitor dopo alcuni minuti di attivit si oscura e il computer entra in stand-by; i notebook entrano in stand-by
anche quando lo schermo inclinato rispetto alla tastiera di un'angolatura di poco inferiore ai 90.
Entrando in stand-by, normalmente vengono interrotte tutte le connessioni attive. Se persistono, sono comunque
limitate le funzionalit dei programmi aperti.
Nei sistemi Windows, possibile disabilitare lo stand-by e le opzioni di risparmio energetico, dal menu "Pannello di
controllo/Schermo".

Lista di utilities e client file sharing


FTP File Transfer Protocol
Kermit
Operating System File-Sharing Protocols
Network File System (NFS)
Samba or Server message block (SMB)
Appleshare
Operating System File-Sharing Servers
Windows 2000 Server
GNU/Linux
Novell
Mac OS Server
HTTP
Servers
Apache HTTP Server
Microsoft Internet Information Services
User agents
Mozilla, IE, Konqueror, ecc.
User agents
Mozilla Suite
CuteFTP
IRC
Depot channels
Hotline
File sharing 133

OpenNap protocol
Directory servers
OpenNap Server
User agents
Napster
Gnapster
WinMX
Gnutella
BearShare
Gnucleus
LimeWire
FrostWire
Morpheus
Shareaza
XoloX
Bit Torrent (decentralized dynamic network of users)
Azureus
BitComet
Torrent
Freenet protocol
Espra
Audiogalaxy
iMesh
Iphant primo programma P2P multiprotocollo lato server
Direct Connect
NeoModus Direct Connect
DC++
BCDC++
CZDC++
FastTrack protocol
KaZaA
Grokster
OpenFT protocol
giFT
eDonkey protocol
eDonkey2000
eMule
mlDonkey
Overnet
RShare protocollo per rete anonima omonima
StealthNet
SoulSeek
Programmi di condivisione universale
DoubleTwist
File sharing 134

SmartRM
Filenger file sharing privato che utilizza i protocolli POP3/SMTP

Categorie di client
Client Centralizzati: OpenNap
Pregi: Maggior velocit nella ricerca e nel downloading.
Difetti: Pi vulnerabile agli attacchi legali e DoS.
Client Decentralizzati: Gnutella
Pregi: Di solito pi affidabile, raramente si interrompe.
Difetti: Generalmente pi lento di un sistema centralizzato.
Client Decentralizzati "Tracker-Based": BitTorrent
Pregi: Molto veloci grazie alla concentrazione di un singolo file sulle reti BitTorrent, viene utilizzato
soprattutto per lo scambio di file di grosse dimensioni.
Difetti: ricerca non centralizzata, ricerca dei siti spesso chiusi o non funzionanti, non completamente anonimo.
Client Multi-Network:
Pregi: permette la connessione a una o pi reti, quasi sempre dal punto di vista client.
Difetti: spesso costringono a rapidi aggiornamenti del software.
Private File-Sharing Networks

Note
[1] Questa la notizia data dall'Agenzia AGI: Si insediata il 28 maggio 2009, presso il Ministero per i Beni e le Attivit culturali, la
Commissione speciale che dovr rideterminare i compensi per copia privata per uso personale senza scopo di lucro di audiogrammi e
videogrammi. La Commissione, istituita dal presidente del Comitato Consultivo Permanente per il Diritto d'Autore, prof. Alberto Maria
Gambino, avr il compito di rivedere la norma transitoria costituita dall'art. 39 del decreto legislativo 9 aprile 2003, n. 68 che aveva stabilito
fino al 31 dicembre 2005, e comunque fino all'emanazione del nuovo decreto, tali compenso, individuando inoltre le tipologie di supporti per i
quali il compenso dovuto. Tra i componenti designati in seno alla Commissione dal presidente Gambino - che ha stabilito nella data del 30
settembre il termine dei lavori - figurano giuristi come Vittorio Ragonesi, magistrato di Cassazione, Paolo Agoglia, capo dell'ufficio
legislativo della SIAE, Mario Fabiani, direttore della rivista "Il diritto d'autore", e Valeria Falce, dell'Universit Europea di Roma;
rappresentanti dell'industria tecnologica e dei contenuti artistico-culturali come Antonello Busetto di Confindustria Servizi Innovativi, Enzo
Mazza, Presidente della Federazione dell'Industria musicale e Ivan Cecchini, gi direttore dell'Associazione italiana editori; soggetti
istituzionali come Loredana Gulino, direttore generale per la Lotta alla contraffazione del Ministero dello Sviluppo Economico, Luigi Filippi
del Dipartimento delle Politiche comunitarie e Marina Giannetto della Direzione dei Beni librari del Ministero della cultura. Sono presenti
anche diverse personalit del comparto autoriale italiano come il produttore Angelo Barbagalli, il regista e sceneggiatore Massimo Sani,
l'autore e regista teatrale Tony Biocca e il rappresentante del sindacato Scrittori, Alessandro Occhipinti. Alla Commissione, precisa una nota,
attribuita ampia facolt di audizione ed perci probabile che saranno ascoltati tutti gli attori del comparto interessato, associazioni di utenti e
internet provider compresi. Si veda anche APcom: http:/ / notizie. virgilio. it/ notizie/ cronaca/ 2009/ 05_maggio/ 28/
diritto_autore_al_via_commissione_riforma_compensi_copia_privata,19336999. html
[2] Nota critica su Punto informatico (http:/ / punto-informatico. it/ 2880463/ PI/ Commenti/ equo-compenso-divide-et-impera. aspx)
File sharing 135

Voci correlate
Musica digitale
Video sharing
Copyright
Peer to peer
Sniffing Tipologia di controllo nelle reti peer-to-peer
USB dead drop

Collegamenti esterni
File sharing (http://www.dmoz.org/Computers/Software/Internet/Clients/File_Sharing/) su Open Directory
Project ( Segnala (http://www.dmoz.org/public/suggest?cat=Computers/Software/Internet/Clients/
File_Sharing/) su DMoz un collegamento pertinente all'argomento "File sharing")

Peer-to-peer
In informatica il termine Peer-to-peer
(P2P) indica un'architettura logica di rete
informatica in cui i nodi non sono
gerarchizzati unicamente sotto forma di
client o server fissi (clienti e serventi), ma
sotto forma di nodi equivalenti o paritari (in
inglese peer) che possono cio fungere sia
da cliente che da servente verso gli altri nodi
terminali della rete. Essa dunque un caso
particolare dell'architettura logica di rete
client-server.

Mediante questa configurazione qualsiasi Generica rete peer-to-peer: notare che i client ritrasmettono i flussi di dati a altri
client comportandosi quindi da peer.
nodo in grado di avviare o completare una
transazione. I nodi equivalenti possono
differire nella configurazione locale, nella velocit di elaborazione, nella ampiezza di banda e nella quantit di dati
memorizzati. L'esempio classico di P2P la rete per la condivisione di file (File sharing).
In Microsoft si tende a definire con il termine peer-to-peer una rete di un piccolo gruppo di persone (non pi di 10
persone), dove la protezione non costituisce un problema, modalit normalmente conosciuta con il termine gruppo di
lavoro, in antitesi alle reti cliente-servente in cui presente un dominio centralizzato.
Peer-to-peer 136

Applicazioni
Il termine pu essere tecnicamente
applicato a qualsiasi tipo di tecnologia
di rete e di applicazioni che utilizzano
questo modello, come per esempio il
protocollo NNTP utilizzato per il
trasferimento delle notizie Usenet,
ARPANET, applets java, live chat
decentralizzate o le BBS di Fido Net. Il
termine frequentemente viene riferito
alle reti di file sharing (condivisione
Confronto tra un sistema client server (a sinistra) e un sistema peer-to-peer (a destra).
file) come Gnutella, FastTrack, e
l'ormai defunto Napster che
forniscono, o per quanto riguarda Napster forniva, il libero scambio (e qualche volta anonimo) di file tra i computer
connessi a Internet.

Alcune reti e canali, come per esempio Napster, OpenNap o IRC usano il modello client-server per alcuni compiti
(per esempio la ricerca) e il modello peer-to-peer per tutti gli altri. Proprio questa doppia presenza di modelli, fa s
che tali reti siano definite "ibride". Reti come Gnutella o Freenet, vengono definite come il vero modello di rete
peer-to-peer in quanto utilizzano una struttura peer-to-peer per tutti i tipi di transazione, e per questo motivo vengono
definite "pure".
Quando il termine peer-to-peer venne utilizzato per descrivere la rete Napster, implicava che la natura a file condivisi
del protocollo fosse la cosa pi importante, ma in realt la grande conquista di Napster fu quella di mettere tutti i
computer collegati sullo stesso piano. Il protocollo "peer" era il modo giusto per realizzarlo.

Vantaggi e svantaggi
Vantaggi e svantaggi sono relativi al tipo di ambiente in cui si decide di installare questo tipo di rete, ma sicuramente
si deve tenere presente che:
Non si deve acquistare un server con potenzialit elevate e quindi non se ne deve sostenere il costo, ma ogni
computer deve avere i requisiti per sostenere l'utente in locale e in rete, ma anche gli altri utenti che desiderano
accedere alle risorse di questo in remoto;
Ogni utente condivide localmente le proprie risorse ed amministratore del proprio client-server. Questo da un
lato pu essere positivo per una questione di "indipendenza", ma dall'altro richiede delle competenze ad ogni
utente, soprattutto per quel che concerne la protezione;
La velocit media di trasmissione dei dati molto pi elevata di una classica rete con sistema Server / Client, dal
momento che l'informazione richiesta da un Client pu essere reperita da numerosi Client connessi in modo
paritario (ossia "peer"), anzich da un unico server (questo tipo di condivisione diventa tanto pi efficace tanti pi
sono i Client connessi, in antitesi con la rete tradizionale Server/Client, dove un elevato numero di Client connessi
riduce la velocit di trasmissione dati per utente);
La sicurezza degli accessi ai client viene gestita localmente su ogni macchina e non centralizzata, questo significa
che una rete basata su utenti deve avere lo stesso archivio reimpostato in ogni client.
Peer-to-peer 137

Funzionalit
La maggioranza dei programmi peer-to-peer garantisce un insieme di funzionalit minime, che comprende:
supporto multipiattaforma, multiserver, multicanale: il programma compatibili con tutti i sistemi operativi,
server e dispositivi hardware (PC, laptop portatili, palmari, cellulari);
supporto protocollo IPv6;
download dello stesso file da pi reti contemporaneamente;
offuscamento dell'ID di rete;
offuscamento del protocollo P2P;
supporto proxy e Tor;
supporto crittografia SSL;
gestione da remoto, sia da PC/notebook che da cellulari e palmari.
Una funzionalit di recente sviluppo l'assegnazione di una priorit delle fonti, privilegiando quelle con connessione
a banda larga (ad esempio, BitTyrant per i file torrent).
Altri usi del P2P si vedono nel campo dei videogiochi, specialmente MMORPG quali World Of Warcraft e similari;
al momento il P2P viene utilizzato per distribuire client di gioco o anche espansioni e patch in modo che i file
vengano distribuiti pi rapidamente e con meno carico sui server principali di distribuzione.

I protocolli peer-to-peer e le applicazioni


Ecco di seguito le principali reti peer-to-peer con la lista delle applicazioni dedicate, divise per sistema operativo (la
colonna Java indica le applicazioni eseguibili su ogni sistema operativo avente una macchina virtuale Java).

Rete Windows Linux Mac Java

BitTorrent ABC ABC Acquisition Vuze


Anatomic P2P Anatomic P2P Anatomic P2P BT Queue
BearShare BitTorrent++ BitTorrent++ Effusion
BitAnarch BitTornado BT Queue JTorrent
BitBuddy BitTorrent BitTorrent Ufficiale Snark (programma)
BitComet Ufficiale Deluge
BitLord BT Queue FrostWire
BitSpirit CTorrent MLDonkey
BitTornado Deluge iSwipe
BitTorrent.Net Flash! Torrent Tomato Torrent
BitTorrentExperimental KTorrent Transmission
BitTorrent++ MLDonkey
BitTorrent Ufficiale Torrentflux
BT Queue Transmission
Burst!
Deluge
Exeem
Filepipe
Flash! Torrent
FrostWire
G3 Torrent
Lphant
Nova Torrent
MLDonkey
PTC
Shareaza
SimpleBT
Torrentflux
TorrentStorm
TorrentTopia
Peer-to-peer 138

TrustyFiles
TurboBT
Turbo Torrent
UTorrent
XBT Client

Direct Connect NeoModus Direct LDCC NeoModus Direct


Connect Valknut Connect
DC++ linuxdcpp ShakesPeer
BCDC++ dc Valknut
CZDC++
DC Pro
Koala DC++
IDC++
Jubster MP3 Finder
ODC++
PeerWeb DC++
RevConnect
StrongDC++
Valknut
ZDC++
Zpoc

eDonkey aMule aMule aMule


eDonkey2000 eDonkey2000 eDonkey2000
eMule AdunanzA xMule Hydranode
eMule Hydranode iSwipe
eMule Plus Lmule MLDonkey
eMule MorphXT MLDonkey MLmac
eMule Xtreme
Epicea
Hydranode
Jubster MP3 Finder
Lphant
MLDonkey
Morpheus
Shareaza
XoloX

FastTrack Diet Kazaa Apollon iSwipe


Kazaa MLDonkey MLDonkey
Kazaa Ghost Poisoned
Kazaa Lite Tools K++ XFactor
Kazaa Lite Resurrection
giFT
Grokster
iMesh
iMesh Light
Jubster MP3 Finder
Mammoth
MLDonkey
TrustyFiles
XoloX

GNUnet (protocollo) GNUnet GNUnet GNUnet GNUnet


Peer-to-peer 139

Gnutella AlienIdol Apollon Acquisition LimeWire


BearShare FrostWire Cabos
BearShare Lite Gnewtellium FrostWire
Cabos LimeWire iSwipe
Deepnet Explorer MLDonkey LimeWire
FreeWire XNap MLDonkey
FrostWire gtk-gnutella Poisoned
Gluz XFactor
Gnucleus XNap
Jubster MP3 Finder
KCeasy
LimeWire
MLDonkey
MoodAmp
Morpheus
MyNapster
NeoNapster
Nova P2P
P2PStorm Client
Phex
Shareaza
Swapper
TrustyFiles
XNap
XoloX
Zultrax

Gnutella2 Adagio MLDonkey MLDonkey LimeWire


Gnucleus
MLDonkey
Morpheus
Shareaza

Kademlia aMule aMule aMule


Azureus Azureus Azureus
eMule MLDonkey MLDonkey
MLDonkey

MANOLITO Blubster
Piolet
RockItNet

Napster FileNavigator Lopster


Napigator
Networksunshine
OpenNap
Win-Lopster
WinMX
XNap

WPNP WinMX

RShare StealthNet StealthNet StealthNet

Altre reti e/o applicazioni peer-to-peer:


XdccMule
Freenet
Akamai
Alpine
ANts P2P
Peer-to-peer 140

Ares Galaxy
Audiogalaxy
The Bridge
Carracho
Chord
The Circle
EarthStation 5
Evernet
Filenger
Filetopia
GNUnet
Grapevine
Groove
Hotwire
IRC @find e XDCC.
JXTA
konspire2b
MojoNation Mnet
MUTE
OpenFT
Osiris
Overnet
Peer2Mail
Scribe
SongSpy
Soulseek
SquidCam
Swarmcast
Waste
Winny
Una generazione pi recente di sistemi peer-to-peer stata definita "metacomputing" e viene classificata come
"middleware" e sono :
Legion
Globus
Condor
Vedi anche: Servent, Compulsory licensing

Controllo da remoto
Diversi programmi peer-to-peer permettono il controllo da remoto. L'utente pu quindi regolare da un altro computer
le opzioni di connessione, la banda, il download e la condivisione di file. In eMule questa opzione si chiama
WebServer e si pu configurare nel men "opzioni".
Per poter seguire da remoto un computer connesso ad internet, per, bisogna conoscerne l'Indirizzo IP pubblico. Se
esso di tipo statico, allora non cambia nel tempo, mentre se di tipo dinamico (come la maggior parte delle
connessioni ADSL per privati), allora necessario conoscerne ogni variazione e a tale scopo si pu usufruire di un
servizio DNS dinamico[1] Per conoscere il proprio indirizzo IP pubblico si pu semplicemente cercare un sito web
che lo mostri, ad esempio IndirizzoIP.com [2]. Oppure si pu utilizzare, sui sistemi operativi Microsoft Windows, i
Peer-to-peer 141

seguenti comandi eseguibili dal prompt di DOS:

ipconfig/all
netstat -n"

Su sistemi Unix come MAC OS X e FreeBSD oppure Unix-like come GNU/Linux, si pu ricorrere al seguente
comando (talvolta si rende necessario avere i privilegi di amministratore):

ifconfig -a

Possibilit future
In futuro, le reti peer-to-peer potranno essere usate per diffondere elevati flussi di dati generati in tempo reale, come
programmi televisivi o film. Questi programmi si basano sull'utilizzo delle banda di trasmissione di cui dispongono i
singoli utenti e la banda viene utilizzata per trasmettere agli altri fruitori il flusso dati. Questa tipologia di programmi
in linea di principio non richiede server dotati di elevate prestazioni, dato che il server fornisce i flussi video a un
numero molto limitato di utenti, che a loro volta li ridistribuiscono ad altri utenti.
Questo metodo di diffusione permette in teoria la trasmissione in tempo reale di contenuti video, ma richiede che i
singoli utenti siano dotati di connessioni ad elevata banda sia in ricezione che in trasmissione, altrimenti si
arriverebbe rapidamente a una saturazione della banda fornita dal server. Questo limita la diffusione di questa
tecnologia in Italia, dove sono molto diffuse linee asimmetriche (ADSL) che forniscono una banda elevata in
ricezione, ma scarsa in trasmissione. Programmi che diffondono in tempo reale contenuti video sono diventati
discretamente popolari nel 2006 durante i campionati mondiali di calcio svoltisi in Germania. Avendo la RAI
acquistato solo alcune partite del campionato, molte persone utilizzavano programmi che, appoggiandosi a server in
paesi esteri (spesso cinesi), permettevano di visionare la partite con una qualit video accettabile.
da notare che sebbene in questi contesti spesso si parli di server, la tecnologia rimane comunque una tecnologia
peer-to-peer, dato che il server serve da indice, sincronizza i vari utilizzatori che condividono la banda e fornisce il
flusso di dati iniziale che poi gli utenti condividono. Quindi sebbene tecnicamente sia un server in pratica, dopo aver
fornito il flusso dati iniziale ed aver messo in comunicazione i vari utenti, il server si disinteressa della
comunicazione che diventa totalmente peer-to-peer.
Utilizzando questa tecnologia grandi societ stanno sperimentando la possibilit di fornire contenuti a pagamento
tramite tecnologie peer-to-peer. Questo scelta motivata dal fatto che la tecnologia peer-to-peer non richiede server
di grandi dimensioni per gestire molti utenti, dato che se la rete ben bilanciata si autosostiene e quindi
indipendente dal numero di utenti. Vanno ancora risolti per problemi legati alla diffusione di materiali protetti dai
diritti d'autore, e vi sono quindi, oltre agli inevitabili problemi di carattere tecnico, problemi di carattere legale e di
affidabilit. Prima di lanciare servizi a livello nazionale vanno anche effettuate delle fasi di test per individuare
eventuali anomalie o difetti; la diffusione su vasta scala di questa tipologia sembra quindi non essere imminente.
Osiris, cos come il suo predecessore KeyForum, utilizza una rete peer-to-peer per dar vita a portali web anonimi e
distribuiti. I contenuti vengono scambiati tra i vari utenti tramite una rete p2p basata su kademlia e poi salvati su ogni
nodo che partecipa al portale, i dati sono scambiati tramite canali cifrati (AES) e i contenuti sono mantenuti anonimi
in quanto non contengono alcun legame tra l'IP dell'autore e il suo account.
Sfruttando queste tecnologie anche se l'autore originario di un contenuto dovesse disconnettersi dalla rete i suoi
contenuti sarebbero comunque accessibili senza alcun problema. Un altro vantaggio dato dall'assenza di un server
centrale che consente di abbattere i costi di hosting e di non dover sottostare a policy restrittive dei provider.
Peer-to-peer 142

Le prospettive del peer-to-peer dal punto di vista della computer science


Tecnicamente, le applicazione peer-to-peer (o dette anche p2p) dovrebbero implementare solo protocolli di peering
che non riconoscono il concetto di "server e di "client". Tali applicazioni o reti "pure" sono in realt molto rare.
Molte reti e applicazione che si descrivono come peer-to-peer fanno per affidamento anche su alcuni elementi
"non-peer", come per esempio il DNS. Inoltre, applicazioni globali utilizzano spesso protocolli multipli che fungono
simultaneamente da client, da server, e da peer. Reti "peers" completamente decentralizzate sono state utilizzate per
molti anni, per esempio USENET (1979) e FidoNet 1984.
La Sun Microsystems aggiunse degli oggetti in linguaggio Java per velocizzare lo sviluppo delle applicazioni P2P a
partire dal 1990. In questo modo i programmatori poterono realizzare delle piccole applicazioni chat in real time,
prima che divenisse popolare la rete di Instant Messaging. Questi sforzi culminarono con l'attuale progetto JXTA.
I sistemi e le applicazioni Peer-to-peer suscitarono grande attenzione da parte dei ricercatori di computer science.
Alcuni importanti progetti di ricerca comprendono il Chord lookup service, ARPANET, IL PAST storage utility, il
CoopNet content distribution system e OceanStore (vedi sotto i Collegamenti esterni).
Alcuni sviluppi del Peer-to-peer prevedono la realizzazioni di reti telematiche che si affianchino alle reti tradizionali
o le sostituiscano. Un esempio di questi progetti la rete Netsukuku.

Problematiche di sicurezza e privacy


Oltre agli attacchi che una rete aperta pu subire, anche i computer che ad essa accedono possono essere soggetti a
problematiche di security e privacy. Per la stessa filosofia del P2P quasi tutti i programmi di file-sharing richiedono
per la sopravvivenza del sistema di avere sul proprio computer dei file condivisi e che quindi possano essere a
disposizione degli utenti che ne fanno richiesta. Questo implica da un lato la condivisione di unarea del disco sulla
quale mettere i file a disposizione, dallaltro consentire il libero accesso ad alcune porte del computer. Gi di per s
questo porta ad avere un aumento dei problemi di security, in quanto chiunque ha la possibilit di entrare su quelle
porte. Se poi si considera lenorme incremento degli utenti e lutilizzo di linee a banda larga, ormai alla portata di
tutti, questi problemi, che una volta potevano essere trascurabili, diventano prioritari. Ci rende fondamentale
lutilizzo di sistemi di difesa come antivirus, firewall, programmi di pulizia dei file di registro e di rimozione degli
agenti infettivi: virus, spyware, trojan o malware.
Infatti i cracker, sfruttano queste tipo di reti per condividere file infettati da malware e spyware.
Pi recenti sono i casi di musiche MP3 infettate, una volta aperte costringono il programma per ascoltare musiche
audio (es Media Player, ma anche Real Player) a scaricare un "aggiornamento" che contiene invece dei virus.
Il migliore aiuto che si pu dare a questi sistemi di difesa costituito dalla propria cultura informatica che consente
di riconoscere ed evitare lintroduzione nel proprio computer di questi agenti, invece di scaricarli incautamente da
altri utenti del P2P. A volte il diritto alla riservatezza pu nascondere lazione di chi, non avendo interesse allo
sviluppo del P2P o ritenendosi addirittura danneggiato da esso, oppure per semplice vandalismo, mette
intenzionalmente in condivisione file infetti, corrotti o non corrispondenti a quanto dichiarato.

Difesa della privacy


fondamentale poi, a salvaguardia della privacy, la propria attenzione nellevitare di condividere porzioni di disco
nelle quali incautamente sono stati depositati dati personali o aziendali (nel caso di chi utilizza il computer
dellufficio), riferimenti a conti correnti o a password. Una frase diventata famosa riassume bene il concetto: inutile
criminalizzare sistemi di file-sharing, nati proprio come strumento collaborativo, laddove assente una politica
aziendale improntata alla sicurezza e alla conoscenza (pubblicato sul Punto Informatico del 29 ottobre 2004).
Fra i modi per tutelare la privacy, si possono ricordare l'adozione di:
un proxy per la connessione del client che mascheri il vero IP dell'utente,
una rete di anonimato, come quella offerta dal programma Tor (in cui il proxy comunque incluso),
Peer-to-peer 143

servizi che creano una Virtual Private Network,


installare software come I2Phex o PeerGuardian,
crittografia e offuscamento di protocollo,
una block-list degli indirizzi IP ritenuti malevoli da inserire nel client stesso (qualora esso supporti tale
funzionalit),
caricare liste di server (file di testo con estensione .met) da siti che certificano i server e i contenuti.

Controversie legali
I tipi di file maggiormente condivisi in questa rete sono gli mp3, o file musicali, e i DivX i file contenenti i film.
Questo ha portato molti, soprattutto le compagnie discografiche e i media, ad affermare che queste reti sarebbero
potute diventare una minaccia contro i loro interessi e il loro modello industriale. Di conseguenza il peer-to-peer
divenne il bersaglio legale delle organizzazioni che riuniscono queste aziende, come la RIAA e la MPAA. Per
esempio il servizio di Napster venne chiuso da una causa intentata dalla RIAA. Sia la RIAA che la MPAA spesero
ingenti quantit di denaro al fine di convincere i legislatori ad approvare restrizioni legali. La manifestazione pi
estrema di questi sforzi risale al gennaio 2003, quando venne introdotto, negli U.S.A., un disegno di legge dal
senatore della California Berman nel quale si garantivano, al detentore del copyright, i diritti legali per fermare i
computer che distribuivano materiale tutelato dai diritti d'autore. Il disegno di legge venne respinto da una
commissione governativa Statunitense nel 2002, ma Berman lo ripropose nella sessione del 2003.Risale, invece, al
2004 la "Legge Urbani" nella quale viene sancita la possibilit di incorrere in sanzioni penali anche per chi fa
esclusivamente uso personale di file protetti.
Per nel 2007 la III sezione penale della Cassazione con la sentenza numero 149/2007, ha accolto il ricorso
presentato da due studenti torinesi, condannati in appello ad una pena detentiva, sostituita da unammenda, per avere
duplicato abusivamente e distribuito programmi illecitamente duplicati, giochi per psx, video cd e film,
immagazzinandoli su un server del tipo Ftp (File transfer protocol).
I reati contestati ai due ricorrenti erano quelli previsti dagli articoli 171 bis e 171 ter della legge sul diritto dautore,
la numero 633/41, sottoposta a tutta una serie di modifiche in anni recenti: nellultima formulazione, il primo prevede
la punibilit da sei mesi a tre anni, di chiunque abusivamente duplica, per trarne profitto, programmi per elaboratore
o ai medesimi fini importa, distribuisce, vende, detiene a scopo commerciale o imprenditoriale o concede in
locazione programmi contenuti in supporti non contrassegnati dalla Siae; il secondo punisce con la reclusione da
uno a quattro anni chi riproduce, duplica, trasmette o diffonde abusivamente, vende o pone altrimenti in
commercio, cede a qualsiasi titolo o importa abusivamente oltre cinquanta copie o esemplari di opere tutelate dal
diritto dautore e da diritti connessi.
Ebbene, per la Cassazione in primo luogo da escludere per i due studenti la configurabilit del reato di
duplicazione abusiva, attribuibile non a chi in origine aveva effettuato il download, ma a chi semmai si era salvato il
programma dal server per poi farne delle copie. Ma soprattutto deve essere escluso, nel caso in esame, che la
condotta degli autori della violazione sia stata determinata da fini di lucro, emergendo dallaccertamento di merito
che gli imputati non avevano tratto alcun vantaggio economico dalla predisposizione del server Ftp. Per fine di
lucro, infatti, deve intendersi un fine di guadagno economicamente apprezzabile o di incremento patrimoniale da
parte dellautore del fatto, che non pu identificarsi con un qualsiasi vantaggio di genere; n lincremento
patrimoniale pu identificarsi con il mero risparmio di spesa derivante dalluso di copie non autorizzate di
programmi o altre opere dellingegno, al di fuori dello svolgimento di unattivit economica da parte dellautore del
fatto, anche se di diversa natura, che connoti labuso.
Da quel momento in poi le reti "peer-to-peer" si espansero sempre di pi, si adattarono velocemente alla situazione e
divennero tecnologicamente pi difficili da smantellare, spostando l'obiettivo delle major sugli utenti. Qualcuno ha
cominciato ad affermare che queste reti potevano diventare un modo per consentire a malintenzionati di nascondere
la propria identit. Altri dicevano che per essere completamente immuni dalle major fosse necessario creare una rete
Peer-to-peer 144

wireless ad hoc in cui ogni unit o computer fosse connessa in modo equivalente (peer-to-peer sense) a quella
vicina.
bene precisare che in Italia chiunque effettua il download di un'opera protetta dal diritto d'autore e la mette in
condivisione commette un illecito penale ( l'art. 171, lett. a-bis, lda). La norma chiarissima: punito chiunque lo
fa "senza averne diritto, a qualsiasi scopo e in qualsiasi forma". La pena una multa da 51 a 2.065 euro, ma
possibile evitare il processo penale pagando la met del massimo previsto (quindi circa mille euro) e le spese del
procedimento. I programmi di P2P pi diffusi mettono automaticamente in condivisione un file mentre questo viene
scaricato, per cui se viene effettuato il download di materiale protetto da diritto d'autore mediante uno di essi si
concretizza la fattispecie penale.
Inoltre, la violazione del suddetto articolo comporta altres l'irrogazione di una sanzione amministrativa pari al
doppio del prezzo di mercato dell'opera o del supporto oggetto della violazione (art. 174-bis lda), ma detta cifra non
pu essere mai inferiore a 103 euro.

Provider e P2P
Dalle indagini di riviste di computer e dalle lamentele degli utenti nei forum, blog, newsgroup e delle associazioni
dei consumatori si scoperto che i provider italiani limitano il traffico P2P.

Note
[1] Un servizio gratuito di DNS dinamico viene fornito da No-IP (http:/ / www. no-ip. com/ ) (in inglese). Ulteriori istruzioni si possono
consultare qui (http:/ / www. emule-italia. it/ emule_webserver. html).
[2] http:/ / www. indirizzo-ip. com/

Voci correlate
P2P Anonimo
Owner Free Filing System
Ipred2
Bravo copiatore
g2p Google to peer
PeerGuardian
Lista di porte standard
Port forwarding
Network address translation (NAT)
USB dead drop

Altri progetti
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Peer-to-peer software

Collegamenti esterni
Torrent Wiki (http://torrent.culturaliberap2p.it/wiki/Pagina_principale)
P2P Per Tutti! (forum) (http://www.p2ppertutti.it/forum.php)
(EN) OpenP2P (http://www.openp2p.com/)
(EN) Wired News: Still Plenty of Music Out There (http://www.wired.com/news/business/0,1367,41775,00.
html) - Una panoramica sui pi comuni software P2P .
(EN) Sito di monitoraggio dei download nelle reti P2P (http://www.peermind.com/PeerMind/Default.aspx/)
Peer-to-peer 145

Sviluppatori IBM Developer Works: The practice of peer-to-peer computing (http://www-106.ibm.com/


developerworks/java/library/j-p2pcol.html)
News P2Pzone (http://www.p2pzone.net/)
Video: cos' il Peer to Peer (http://www.ictv.it/file/vedi/300/peer-to-peer/)
Multe astronomiche e P2P: aspetti giuridici (http://www.dirittodellinformatica.it/focus/copyright/
multe-condivisione-p2p-200712085.html)

Computer science research


(EN) Chord lookup service (http://www.pdos.lcs.mit.edu/chord/)
(EN) PAST distributed storage utility (http://www.research.microsoft.com/~antr/PAST/)
(EN) CoopNet cooperative content distribution system (http://research.microsoft.com/~padmanab/projects/
coopnet/)
(EN) More peer-to-peer research resources (http://www-2.cs.cmu.edu/~kunwadee/research/p2p/links.html)
(EN) Advanced Peer-Based Technology Business Models (http://shumans.com) - P2P Industry Model from
M.I.T.
(EN) OceanStore Project (http://www.oceanstore.org)

Streaming
In telecomunicazioni il termine streaming identifica un flusso di dati audio/video trasmessi da una sorgente a una o
pi destinazioni tramite una rete telematica. Questi dati vengono riprodotti man mano che arrivano a destinazione.

Tipi di streaming
Sostanzialmente esistono due tipologie di streaming:
1. Streaming on demand
2. Streaming live

Streaming on demand
I contenuti audio/video sono inizialmente compressi e memorizzati su un server come file. Un utente pu richiedere
al server di inviargli i contenuti audio/video. Non necessario scaricarli per intero sul PC per poterli riprodurre: i
dati ricevuti vengono decompressi dal Decodec e riprodotti pochi secondi dopo l'inizio della ricezione. Questo
ritardo serve a creare un polmone ("buffer" in gergo) per rimediare a latenze o microinterruzioni della rete. Di questo
tipo sono i flussi streaming di Real Video e Real Audio, Windows Media Player, QuickTime, Adobe Flash Video
(quest'ultimo tipo di formato file utilizzato nel sito di Youtube).
Questo tipo di servizio viene offerto anche da parte di diverse reti televisive, come MTV o la RAI, come servizio di
streaming totale o parziale (nel caso delle reti RAI si ha quasi la totalit delle trasmissioni a disposizione, dove
alcuni programmi non vengono rilasciati a disposizione o non sono immediatamente disponibili)[1].
Streaming 146

Streaming live
Simile alla tradizionale trasmissione radio o video in broadcast. Anche in questo caso i dati sono trasmessi
utilizzando opportune compressioni per alleggerire pi possibile il carico sulla rete. La compressione dei contenuti
introduce nel flusso un ritardo di circa dieci secondi. Nel campo dello streaming live, di solito, questo ritardo non
costituisce un problema.
Questo tipo di servizio viene offerto anche da parte di diverse reti televisive, come la RAI[2].
Attualmente l'evento pi seguito in diretta streaming nel mondo stato il concerto del 29 Ottobre 2009 degli U2 su
Youtube da Pasadena, California con 2,5 milioni di utenti unici e quasi 10 milioni di connessioni al flusso della
diretta[3]. L'evento con maggiori visualizzazione in Italia appartiene al giornalista Michele Santoro con Rai per una
notte con 400 mila utenti contemporanei seguito dalla trasmissione Servizio Pubblico che ha avuto 100 mila utenti
contemporanei.

Premi
Ad Agosto 2012 per la prima volta un'azienda italiana viene nominata in una delle categorie degli Streaming Media
European Choice Awards, i premi europei dello streaming, che si svolgono ogni anno a Londra.[4]

Protocollo per lo streaming


Generalmente la trasmissione in streaming avviene utilizzando il protocollo RTSP a livello di applicazione mentre a
livello di trasporto si utilizza prevalentemente il protocollo UDP. La distribuzione dei dati di streaming pu essere di
tipo:
Multicast;
Unicast;
HTTP;
Peer to Peer.
Una delle pi recenti applicazioni della tecnologia streaming risulta essere stata applicata nel campo della pubblicit
con la creazione di videobrochure.
Visto l'enorme successo avuto dallo streaming, ormai sono moltissimi i server costruiti appositamente per ospitare
esclusivamente file audio o video.

Software e dispositivi per effettuare/visualizzare uno stream


VLC media player
Winamp
Windows Media Player
QuickTime
Shoutcast
Icecast
iTunes
Amarok
MPlayer
Kaffeine
Picostreamer
RealPlayer
Adobe Flash Player
Streamtuner
Location Free Player
Streaming 147

VideoVista
LiveVista
DelFeo Radio/TV Player
Red5
KeyHoleTV
XMPlay

Note
[1] Rai Replay: 7 giorni di programmi Rai da rivedere (http:/ / www. rai. tv/ dl/ replaytv/ replaytv. html#)
[2] Rai.tv diretta TV (http:/ / www. rai. tv/ dl/ RaiTV/ diretta. html#cid=PublishingBlock-64203784-70f7-4b53-9d21-b14693850195)
[3] Streamingblog u2 live streaming su Youtube (http:/ / www. streamingblog. it/
ottobre-2009-gli-u2-in-diretta-streaming-su-youtube-raggiungono-10-milioni-di-connessioni/ )
[4] http:/ / www. streamingblog. it/ webcast24-e-la-prima-azienda-italiana-nominata-agli-streaming-media-european-readers-choice-awards/

Collegamenti esterni
Streaming (http://search.dmoz.org/cgi-bin/search?search=Streaming&all=yes&cs=UTF-8&cat=World/
Italiano) su Open Directory Project ( Segnala (http://www.dmoz.org/public/suggest?cat=) su DMoz un collegamento
pertinente all'argomento "Streaming")
148

Note
Fonti e autori delle voci 149

Fonti e autori delle voci


Digitalizzazione Fonte: http://it.wikipedia.org/w/index.php?oldid=52504770 Autori:: Alfredxz, Amiltonit, Ary29, AttoRenato, Avesan, Basilero, Biopresto, CavalloRazzo, Djdomix, Fabio Buda
Italy, Fabrymondo, Fafabifiofo, Ft1, Gacio, Gvf, Hellis, IngFrancesco, Iron Bishop, Jacopoberta, MaEr, Mac9, Marco Daniele, Moloch981, Montanari Marcello, No2, Orso della campagna,
Otrebla86, Paginazero, Phantomas, Redeemed, ReliableBeaver, Sergio.ballestrero, Snowdog, Square87, Ste Valentini, ThisAmbiguo, Ticket 2010081310004741, Ufobm, Wiso, 19 Modifiche
anonime

ARPANET Fonte: http://it.wikipedia.org/w/index.php?oldid=53297721 Autori:: %Pier%, Akhernar, AlessandroAM, Alfio, Ariel, AttoRenato, Azrael555, Carlo.Ierna, CavalloRazzo, Davide,
Doremina, Elbloggers, Eleinad, EliOrni, Frieda, Gianfranco, Hce, Hellis, Henrykus, Iron Bishop, LukeWiller, Mess, MikyT, Moongateclimber, Narayan89, Nicoli, Phantomas, Sbisolo,
Sesquipedale, Simon, Snowdog, Suisui, Superrobbie, Taueres, Twice25, Waxen, 56 Modifiche anonime

Internet Fonte: http://it.wikipedia.org/w/index.php?oldid=53440797 Autori:: %Pier%, .anaconda, .mau., 5Y, A.C.95, Aaa3-other, Abisys, Actarux, Addino Cardellino, Adelebabele, Agnellino,
Alberto da Calvairate, Alec, Alfio, Andrea And, Andrea Monaco, Angel.mshm, Aplasia, ArmorShieldA99, Ary29, Ask21, AttoRenato, Augusto 56, Aushulz, Avesan, Azrael555, Bengio76,
Binhos, Biopresto, Bizio, Black Koole, Blakwolf, Bob4, Bowser giga, Brownout, Buggia, Calabash, Caulfield, CavalloRazzo, Civv, Codas, ColdShine, Dagliederoma89, Dark, Darth Kule,
Dega180, Dg, Dimension12, Dr Zimbu, Drugonot, Dwalin, Eleinad, Elwood, Emysimo, Erinaceus, Eumolpo, F l a n k e r, Fabexplosive, Fabiob, Fcarbonara, Feddar, Flavia32, Formica rufa,
Frieda, Frigotoni, Fstab, Furriadroxiu, Gac, Gacio, GiacomoV, Gian Franco, Ginosal, Giovannigobbin, Girotgio, Gliu, Gnumarcoo, Guidomac, Hashar, Helios, Hellis, Hill, Homer, Ilario, Iron
Bishop, Jacopo, Johnny Wiliamson, KS, Kibira, Klaudio, L736E, Lariccia, Larry Yuma, Leo45555, LoStrangolatore, Lolo00, Lorenzo Fratti, Luca88w, Lucamenghini, Luisa, M7, MapiVanPelt,
Marcocavicchioli, Marcok, Mariossj11, Mark91, Massimiliano Panu, Massimobeltramo, Merto, Mishack, Moongateclimber, Moroboshi, NiKneT, Nicoli, Nikz21, Ninetto55, No2, Nubifer,
Orion21, Osk, P tasso, ParadiseCity, Patafisik, Peppo, Pequod76, Phantomas, Pierfranco, Piersantelli, Pill24, Poldo328, Porta seriale, Pr, PravoSlav, Purodha, R0tAbLe, Rago, RanZag, Raptor87,
Restu20, Ribollito, Rick9212, Rikimaru, Ripepette, Romero, Sbisolo, Scleone1987, Sd, Seics, Senpai, Sgiorgia, Shivanarayana, Simo ubuntu, Simone, Sirabder87, Skipass2007, Slarti, Snowdog,
Socho-sama, Sophia91, Soprano71, Spino, Stemby, Struzziomimo, Suisui, SuperVirtual, Supernino, Superpier, Supersuperago, Tank00, Tartarox, Taueres, Tenan, Ticket 2010081310004741,
Ticket OTRS 2011102410007641, Toobaz, Tr6637, Truman Burbank, Tvlocali, Twice25, Umibozo, Valepert, Veneziano, Vikinger, VisedNetGhost, Vituzzu, WikiTech, Ylebru, Zi1024, Zio Illy,
626 Modifiche anonime

World Wide Web Fonte: http://it.wikipedia.org/w/index.php?oldid=53230797 Autori:: .anaconda, 5Y, A7N8X, AKappa, Abisys, Actarux, Adattolo, Aerandir09, Aidosnet, Alfio, Ary29,
Assianir, AttoRenato, Avesan, Basilero, Bciaghi, Bellantese, Beta16, Blakwolf, Brownout, Bultro, ChemicalBit, Civv, Comune mortale, Craig, CristianCantoro, Dommac, DonPaolo, Dread83,
Drugonot, Dzag, Elwood, Energia, Frankthequeen, Frieda, Furret, Gacio, Giuseppe2011solis, Gliu, Hellis, Iron Bishop, Iskander, Jacopo, Koko, Lolo00, Luckyz, Luisa, Lyell01, Macrakis,
MapiVanPelt, Marco Calvo, Marco Plassio, Matgio, Mauro Lanari, MaxDel, Mcimichell, Mfprimo, Midnight bird, MikyT, Moloch981, Moongateclimber, No2, Otto Vask, P tasso, Pepato,
Pequod76, Phantomas, Pisquik, Porta seriale, Pracchia-78, Reddstain, Restu20, Richhard, Rojelio, Romero, Sbisolo, Senpai, Sentruper, Siebrand, Simone, Sky, Suisui, Taueres, Template
namespace initialisation script, Ticket 2010081310004741, Toobaz, Twice25, Wedgefish, ZioNicco, ppp-179-144.24-151.libero.it, 205 Modifiche anonime

Web 2.0 Fonte: http://it.wikipedia.org/w/index.php?oldid=53001858 Autori:: Abisys, Alearr, Andreagoo8, Avesan, BarilloKohnke, Brasacchio3, Brtsergio, Bubu920, Buzz lightyear, Calabash,
Carcavallo, Catenina, Ccamusso, Centrodiurnomilano, Comune mortale, Cyberuly, DoB, Dome, ElenaB84, Eresse, Eumolpa, F.giusto, Federico 2010, Femmina, Fire90, Fmm313, Francesco uni,
Frieda, Furriadroxiu, Gacio, Gatto Nero, Giacomo Ritucci, Goldenboi, Guidomac, Hellis, Idris.albadufi, Ignlig, Ilario, Jacopo, Kal-El, Liviocam, Luca28886, Luky83, Marcok, Matafione,
MaxDel, Melos, Moongateclimber, Mr Cloud, Naevus, No2, Osk, PL, Paolosub, Paperoga68, Peppinorusso, Pipep, Pot, Prust, Rapphyo, Raveliano, Rhadamanth, Samchok, Scotu, Square87,
TXiKi, Ticket 2010081310004741, Ticket OTRS 2011102410007641, Twice25, Vaccaricarlo, Veneziano, Vipera, Vito Calise, Yukyuk, 173 Modifiche anonime

Interattivit Fonte: http://it.wikipedia.org/w/index.php?oldid=50287923 Autori:: Broglie, Buzz lightyear, Cassioli, Ciapy, Debug, Eumolpo, Hellis, Marcok, Pava, ROSA DI CHIARA,
Sentruper, Sneutrino, 7 Modifiche anonime

Ipertesto Fonte: http://it.wikipedia.org/w/index.php?oldid=52504189 Autori:: AlessioMela, Alleborgo, Ancelli, Archenzo, Ary29, Avesan, Buggia, Cardo89, Cavalierebianco, Chinalski,
ColdShine, Dzag, FSosio, Frieda, Frigotoni, Furyo Mori, Gac, Giuse93, Gnumarcoo, Hck190, Hellis, Ignlig, Incola, Ippatsu, Iron Bishop, Iskander, Itachi23, L736E, Laurentius, Luigimaria,
Luisa, Marcok, Mariarosadefalco, Marius, Martos, Moongateclimber, Phantomas, RadioGhironda, Rago, Redazioneprovto, Retaggio, Scholesy, Sentruper, Serla, Shivanarayana, Snowdog, Tam,
Taueres, Teodoro Amad, Tia solzago, Tommaso Ferrara, Twice25, Valepert, 144 Modifiche anonime

Multimedialit Fonte: http://it.wikipedia.org/w/index.php?oldid=53450353 Autori:: Achillu, Adalgisamoretta, Alberto.garniga, Avesan, Buggia, Cassioli, Civv, Efghilmno, Eumolpo,
Gabryformazione, Guidomac, Hashar, Koji, Llorenzi, Marco Plassio, Marcok, Maryangels, Minelita, Mizardellorsa, NewLibertine, No2, Numbo3, Phantomas, Pracchia-78, Riorosso, Sentruper,
Shivanarayana, Soprano71, Ticket 2010081310004741, Valepert, Ylebru, Zenima, 90 Modifiche anonime

Software libero Fonte: http://it.wikipedia.org/w/index.php?oldid=52898494 Autori:: %Pier%, Airon90, Aka-Red, Aleagle, Argento, Arturo.dicorinto, Aubrey, Avesan, Biasco, Bizzia,
Catoblepa79, Ciampix, Davide, Dbiagioli, Demart81, Domenico De Felice, Eippol, Elbloggers, Estel, Fale, Fgiorgi, FiloSottile, Flea, Fradeve11, Freepenguin, Gimy, Guam, Helios, Hellis, Icara,
IngFrancesco, Iron Bishop, L'altro giocoliere, Lucabon, Lucas, Madaki, Marcok, Merlitti, Michele Bergadano, Nemo bis, Paroledipolvere, Peppo, Pequod76, Phauly, Pietrodn, Pil56, Podest,
Pracchia-78, RanZag, Resoli, RobertoITA, Sante Caserio, Senpai, Sirabder87, Ssspera, TheDRaKKaR, TheManu, Thebarald, Torredibabele, Valepert, Vituzzu, WilyD, Wizard, 75 Modifiche
anonime

Open source Fonte: http://it.wikipedia.org/w/index.php?oldid=53393674 Autori:: %Pier%, ...Angelita..., .anaconda, Abisys, Actarux, Airon90, Alessandro1213, Alfio, Alkalin, Amux,
AnjaManix, Argento, Arturo.dicorinto, Ary29, AttoRenato, Aubrey, B3t, Balabiot, Balfabio, Balubino, BerserkerWelding, Bob4, Calabash, Calimbro, Cannarsi, ChemicalBit, Ciro07, Claudius18,
D.tartari, Davide, DavideCrimi, Dajo, Dbiagioli, Dega180, DonPaolo, Eagleone, Elbloggers, Elitre, Etatoby, Fabio Vescarelli, Fidech, Francescost, Frankthequeen, Frieda, Gacio, Gawaine,
GianoM, Giorgio, Gioscarab, Giovanni Bianco, Gmilza, Gnumarcoo, Guido Gonzato, Guidomac, Gvf, Hellis, Hill, Ilario, Ilbeppe, Ines, Iron Bishop, Jacopo, Jaqen, Kiado, Laurentius, Lornova,
Luisa, Lupos, M7, MM, MaEr, Madaki, Marchack, Marchitelli, Marco Ciaramella, Marcok, Marius, Mark91, Markos1988, Mau db, Mikelima, Mion (riassegnato), Mizardellorsa, Moroboshi,
Morph, Mtt, NardoilGagliardo, Nessuno, No2, Ostendali, Outer root, Paolosub, Paroledipolvere, Pavlo Shevelo, Phantomas, Phauly, Piracmone, Plinsky, Pracchia-78, Pspagnoletti, RIPPERO,
Renato Caniatti, RobertoITA, Rollopack, Rpinto, Salvatore Ingala, Seics, Senet, Senpai, Senza nome.txt, Sesquipedale, Shivanarayana, Siggy, Snowdog, Sperimentatore, Swayer, Taueres,
Tfederici, The Doc, Ticket 2010081310004741, Tomi, Turgon, Twice25, Valepert, Valhalla, Vituzzu, Wosp, Xeniun, Yerul, 161 Modifiche anonime

Creative Commons Fonte: http://it.wikipedia.org/w/index.php?oldid=53418218 Autori:: Airin, Airon90, Alfio, Alicecila, Alleborgo, Alphastar, Alvamatik, AttoRenato, Balabiot, Baruneju,
Biasco, Bisk90, Bultro, Carlo.milanesi, Cendacil1974, Codas, Danielemezzalira, DispAcc01, E-Soter, Elbloggers, Eliawk, Elitre, Eumolpo, Fire90, Frack, Francescabobba, Frieda, Gelma,
Giovannigobbin, Giuseppe futia, Guidomac, H5N1, Idris.albadufi, Incola, Jaqen, Lilja, LoStrangolatore, M7, Mahmudmasri, Mandru, Marcok, Marcol-it, Marcuscalabresus, Marioquark,
Mentecontorta, Mess, Mizardellorsa, Mugnozzo, No2, Noieraieri, NotChiara, PL, Papongy, Paroledipolvere, Paulox, Pequod76, Pg, Plinsky, Popop, Pullus In Fabula, Purodha, Pyotr, Quandary,
Radrac, Senpai, Shadd, Snowdog, Stemby, Suisui, Superpaolobros, Tenebroso, Themangia, Tkt2008123110019475, Tocaibon, Tooby, Twice25, Vaccaricarlo, Valepert, Vane croce, Viniciusmc,
Vituzzu, Wgiocoso, WikiPiccolo, Yerul, Yoggysot, Yoruno, 164 Modifiche anonime

Social media Fonte: http://it.wikipedia.org/w/index.php?oldid=53329927 Autori:: 4v4l0n42, Abisys, Agatodaimon, Alfa privativo, AnjaManix, Antonio De Gregoris, Avesan, Azrael555,
Basilero, Calnch, Dado zox, F.giusto, Ignlig, Intoinside, Madguy000, Marcok, Maurizio mazzanti, Mizardellorsa, Neo1975, Otto Vask, Patty000, Pazcal, PersOnLine, Phantomas, Pracchia-78,
Prust, Radio89, SPKirsch, Sabrina1234, Sara189, Shivanarayana, Skymen, Studente1000, Tatufan, Ticket 2010081310004741, Triquetra, VadoDiTraverso, Valeword, Veneziano, Vinceit,
Vituzzu, Zorry9944, 39 Modifiche anonime

Contenuto generato dagli utenti Fonte: http://it.wikipedia.org/w/index.php?oldid=50628975 Autori:: Accurimbono, Annalisa7, Brunopellegrini, Cappesante, Dado zox, Donatellap, F.giusto,
Gac, Giuseppet, Irina torgovitzkaja, Itachi23, Kirill Borisenko, Marcok, Mizardellorsa, Neo1975, Otto Vask, R1-D5, RoyBellingan, Skymen, Snowdog, Veneziano, 23 Modifiche anonime

Wiki Fonte: http://it.wikipedia.org/w/index.php?oldid=53344964 Autori:: .anaconda, .mau., .snoopy., Abisys, AdrianX85, Ae, Aelita, Airon90, Alberto da Calvairate, Alberto di Cristina,
Aleksander Sestak, AlessioMela, Alkalin, AmonSl, Ancelli, Ancem, Andrea Coppola, AndreaFox, AndrewInter, Archenzo, Ary29, Asatruar, Ask21, Assianir, Aushulz, Austro, Avesan,
Azrael555, Barbaking, Basilero, Beard, Biasco, Biopresto, Brownout, Bruno Settimo, Buddino, Buggia, Calabash, Carlog3, Caulfield, CavalloRazzo, Cemg, Cesalpino, Civv, Contezero, Cotton,
CristianCantoro, Danielegerico, DarkAp, Davide21, Dedda71, Dega180, Demart81, Demostene119, Dinwath, Doc.mari, Dr Zimbu, Dream.x, Eippol, Elbloggers, Elwood, Emanuele Romeres,
Emanuele Saiu, Enderjin, Etienne, Eumolpa, Falcodigiada, Fastgiguen, Fciotola, Feddar, Filippof, Fire90, Flip79, FollowTheMedia, Formica rufa, Frack, Francescogori, Franz Liszt, Fredericks,
Frieda, Frigotoni, Ft1, Gac, Gacio, Giacomo Lanza, Gigirex, Giovannigobbin, Giuse93, Gnumarcoo, Gp 1980, Guidomac, Hedorfer, Hill, Iaco, Idris.albadufi, Ignlig, Ilario, Imperato.Davide,
Incola, IndyJr, Jalo, Johnlong, Jorunn, Kazuma, Kiado, Kibira, Klaudio, Klenje, L736E, Laurence, Laurentius, LevkaRomanov, Lion-hearted85, LoStrangolatore, Lobufalo, Lornova, Lp, Lucas,
Lucio Di Madaura, Luisa, M7, Mac'ero, Madaki, MaiDireChiara, MapiVanPelt, Marcel Bergeret, Marco 27, Marco Plassio, Marcok, Marcozampini, Mark91, Martin Mystre, Maso,
Massimomartino, Matteoliut, Mau db, Maupag, Melkor II, Melos, Michelepiffy, Midnight bird, Mike.lifeguard, Mizio66, Moongateclimber, Nalegato, Nemo bis, Nick1915, Nickanc, Nicoli,
Nijeko, Nivola, No2, Nottambulo, Nubifer, Numbo3, Oile11, OrbiliusMagister, Patafisik, Pavelius, Pequod76, Petrik Schleck, Phantomas, Piero, Pirataeddie, Pitore71, PravoSlav, Rago, RanZag,
Razzabarese, Redazioneprovto, Remo Mori, Remulazz, Restu20, Retaggio, RiccardoMarino, Rickythe26, Ripepette, Rob-ot, Roberto Mura, Rojelio, Rossa1, Salento81, Salvo da Palermo,
Fonti e autori delle voci 150

Sannita, Sassospicco, Seics, Semolo75, Senpai, Sentruper, Shais, Shaka, Shivanarayana, Sigifredobau, Simone, Skywolf, Snowdog, Spartan01, Stefano Careglio, Stefano-c, Svante, Tanonero,
Taueres, TheWiz83, Tia solzago, Ticket 2010081310004741, To011, Tobia09, Tommaso venturini, Torsolo, Triph, Truman Burbank, Twice25, Umibozo, Unop2pf, Vaccaricarlo, Valhalla,
ViciDig, Vituzzu, Whatnwas, Whiles, WikiZen, Yoruno, 592 Modifiche anonime

Folksonomia Fonte: http://it.wikipedia.org/w/index.php?oldid=49955698 Autori:: Akash, Alfredxz, Antonio De Gregoris, Atti, Auro, Avesan, Bartleby08, Blueflavio, Bobo italy, Carcavallo,
Epper, F.giusto, Filippodb, Gacio, Giuliastro, Helios, Idris.albadufi, Jollyroger, KS, Leonardoprosperi, Lusum, Marchitelli, Marcok, Piercingthereality, Pierfranco, Pil56, Rhadamanth, Sailko,
Simonepedemonte, Snowdog, Ticket 2010081310004741, Twice25, Upcome, Vaccaricarlo, WebLogin, 31 Modifiche anonime

Digitale (informatica) Fonte: http://it.wikipedia.org/w/index.php?oldid=53082366 Autori:: Abisys, Absinthe, Alfio, Andrea Monaco, Ary29, Avesan, Buggia, Came88, Camingan, Cyber,
Dega180, Djdomix, Domenico De Felice, Dylan--86, Frieda, Gac, Giacobino illuminista, Hellis, Herakles29, Kal-El, Lulo, Nemo bis, Phantomas, Probante, Sanremofilo, Sentruper, SignorX,
Snowdog, Suisui, Tirinto, Twice25, Zeus57, 30 Modifiche anonime

Suite di protocolli Internet Fonte: http://it.wikipedia.org/w/index.php?oldid=52709288 Autori:: Abisys, Amux, Ary29, AttoRenato, Braccobaldo92, Castagna, Daniele Forsi, Davide, Domenico
De Felice, Emanuele96, Giovannigobbin, Guarracino, Hce, Ilario, KeyboardSpellbounder, Lukius, M1CH3L3, Marce79, Misakiforever, Moongateclimber, NicFer, Nitya Dharma,
Ricercatorew76, Rotpunkt, Tank00, Vdfn, Vituzzu, Vulkano, 58 Modifiche anonime

Transmission Control Protocol Fonte: http://it.wikipedia.org/w/index.php?oldid=53052803 Autori:: %Pier%, 212.177.57.xxx, A7N8X, Abisys, Acchiappasogni, Alfio, Alleborgo,
Anotherhacktivist, Ar mythra, Archenzo, Ary29, Automatic jack, Avesan, Azrael555, Bergonz, Brownout, Bultro, Calius25, Cruccone, Daimon, Dav82, Davide, Ddonato, DoBs, Edonan,
Fabior1984, Frieda, Gac, Gianfranco, Hce, IRedRat, Iron Bishop, Jacopo Werther, Jacopobenz, Jean85, KeyboardSpellbounder, Kormoran, L736E, Leo144, Lgiove, Luigi.tuby, Marce79,
Marcuscalabresus, Mat93, Matteo92Ferrari, Maui, Mess, Mix, Moongateclimber, Nervosud, No2, Qualc1, Remulazz, SalvoIsaja, SbiellONE, Sbisolo, Simo ubuntu, Snubcube, Unriccio, Vulkano,
139 Modifiche anonime

Indirizzo IP Fonte: http://it.wikipedia.org/w/index.php?oldid=52666337 Autori:: %Pier%, .anaconda, 172.XXX.XXX.XXX, Abisys, Agnellino, Alfio, Andiii, AnjaManix, Antonellosinisi1986,
Aplasia, Archiegoodwinit, Ary29, Avesan, Berllo e clara, BioPupil, Black Cat XIII, Bongalone, Brownout, Calabash, ChemicalBit, Cruccone, Cybermax, Demart81, Dommac, Dr Zimbu, Dry
Martini, Eippol, Elitre, Elwood, Enricoe, Ernded, Eumolpa, Fede Reghe, Ferrucciolibero, Fire90, Fitzgerald, Gabrielepx, Gac, Gacio, GiacomoV, Giulianorock, Guidomac, Guybrush
Threepwood, Harlock81, Hellis, Huskihuskihuski, IVitto, Johnlong, Jorunn, Jotar, KeyboardSpellbounder, Klayre, Leikfaz, Lenore, Lingtft, Luisa, M7, MER-C, MapiVanPelt, Maquesta,
Marce79, Marco 27, Massimiliano Lincetto, Mauro742, Mino1989, Mizardellorsa, Neoneo, Nick, Nicoli, No2, Olando, Paginazero, Pap3rinik, Phantomas, Piracmone, Praticante, Purodha, Rael,
ReliableBeaver, Retroit, Ripepette, Roberto Mura, Roger469, Rollopack, Salvatore Ingala, Samadhi56, Sandrobt, Sbisolo, Seics, Shivanarayana, Snowdog, Tank00, Time9, Tomarus, Trixt,
Ulisse0, Unop2pf, Utonto, VincenzoX, Vituzzu, Wikit2006, Wiliam Polidori, 228 Modifiche anonime

User Datagram Protocol Fonte: http://it.wikipedia.org/w/index.php?oldid=52758674 Autori:: %Pier%, Abisys, Acchiappasogni, Alfio, Anotherhacktivist, Ary29, Avesan, Brownout, Elwood,
Frendine, Frieda, GianniPucillo, Hce, Hellis, Iannigb, Iron Bishop, Jean85, Krabbit, Marce79, Misterioso, Moongateclimber, Moroboshi, Pibo, Salvorapi, Sbrandollo, Simo ubuntu, Unriccio,
Vulkano, 38 Modifiche anonime

Domain Name System Fonte: http://it.wikipedia.org/w/index.php?oldid=53114829 Autori:: %Pier%, .anaconda, .mau., Abisys, Albert2810, Alfio, Amarvudol, Ancelli, Angelo Mascaro,
Antonellosinisi1986, Ary29, Ask21, Avesan, Balabiot, Beta16, Brownout, Calabash, ChemicalBit, Dav82, Domenico Romeo, Dragotti SLA, Enricomilano, Fede Reghe, Frack, Frieda, Gastipi,
GiaGar, GiacomoV, Gig, Gionnico, Giovannigobbin, Govoch, Gvf, HT, Hce, Hellis, Hill, Igualeonte, Iron Bishop, Jredmond, Kaeso, LoStrangolatore, Lp, LukeWiller, M7, Marce79, Marcok,
Maui, Michelep23, Mira1-System, Moongateclimber, Nitya Dharma, No2, P tasso, Phantomas, Piermarini, Quoniam, Rojelio, Rollopack, Salparadiso, Samadhi56, Sbisolo, Scienzape, Senpai,
Sentruper, Shivanarayana, Simone, Sinigagl, Sir marek, Smallpox, Snowdog, Speedymax, Spikeyrock, Theferro, Tibe, Utopio, Valepert, Viscontino, Vulkano, XCash, Yukie, Zandeg, 131
Modifiche anonime

Hypertext Transfer Protocol Fonte: http://it.wikipedia.org/w/index.php?oldid=52920484 Autori:: %Pier%, .anaconda, .mau., 5Y, A7N8X, Abisys, Al Pereira, Alfio, Anotherhacktivist, Ary29,
Avesan, Azrael555, Brownout, Buggia, Caulfield, Davide21, Derfel74, Elbloggers, Eumolpo, Fabexplosive, Filemon, FollowTheMedia, Frieda, Giacomo Ritucci, Gioppe, Guidomac, Gvf,
Harlock81, Hashar, Hellis, Iron Bishop, Iskander, L736E, Lorenzor, M.Costantino, M7, Madaki, Mamo139, Marce79, Marius, MaxDel, Maxferrario, Mfprimo, Miklee, Moongateclimber,
Napy84, Ninja, Phantomas, Rojelio, Rollopack, Salvatore Ingala, Sbisolo, Sentruper, Simone, Suisui, Taueres, Ticket 2010081310004741, TierrayLibertad, Toobaz, Twice25, Unriccio, Vulkano,
Wfra, 84 Modifiche anonime

Uniform Resource Locator Fonte: http://it.wikipedia.org/w/index.php?oldid=52864866 Autori:: .anaconda, Alfio, Andres149, Antontn, Arriano60, Artvideostudio, Ary29, Asddario94, Avesan,
Azrael555, Beta16, Bultro, C-Zap, Ciccioballarino, Civv, Comune mortale, Delband, Dome, Eippol, Enomisarac, F. Cosoleto, Federicamarangoni, Francescodipaolo82, Francescost,
Frankthequeen, Fumarola Marica, Gac, Garretgian, Gimy, Guidomac, Guitar777, Hashar, Hellis, Ilario, Iron Bishop, Kiarakiller, L736E, Laiten, Lucas, Lupeleleo, M7, Max98, Michelep23,
Mikelima, Palica, Pino alpino, Pullus In Fabula, Purodha, Rojelio, Rotpunkt, Salvatore Noschese, Secretkeeper81, Shivanarayana, SkY`, Snowdog, Stefano Alessandri, Suisui, Tank00, Toobaz,
Twice25, Unriccio, Vernotico, Vituzzu, 59 Modifiche anonime

Permalink Fonte: http://it.wikipedia.org/w/index.php?oldid=49820028 Autori:: Amux, Avesan, ColdShine, Hellis, Laiten, Rhadamanth, SalvatoreZT, Sbisolo, TXiKi, Twice25, 12 Modifiche
anonime

Browser Fonte: http://it.wikipedia.org/w/index.php?oldid=53393464 Autori:: A7N8X, AKappa, Abisys, Airon90, Alfio, Alkalin, Alleborgo, Amux, Apollo13, Ary29, Austro, Balubino,
Brunocip, Buggia, Camoka4, ChemicalBit, Claudius18, DarkAp, Daviboz, Dom De Felice, Eippol, Elbloggers, Elborgo, Euka, Eumolpa, Eumolpo, Eustace Bagge, Fabiob, Fale, Fir, Fra150190,
G84, Gabrielepx, Gandalf92, Garethjax, Gianfranco, Guidomac, Gusme, Harlock81, Hashar, Hellis, Homer, Iron Bishop, Iskander, Istunix, Kaleido, Kibira, Kiterd, Klemen Kocjancic, L.V.,
Lornova, Lucas, Marco Teoli, Marcok, Marcuscalabresus, Marenzio, Massic80, Mauro Tozzi, Mazz, Mazzo96, Mediano88, Melkor II, MikyT, Moongateclimber, Mrtb, Nelloska, Nemo bis,
Nick1915, Nikai, Nikkor5, No2, Olando, Phantomas, Pigr8, Pino alpino, Poweruser, Pullus In Fabula, Qualc1, Rayan, Reo-chan, Restu20, Sabaku The Berserk, SalvoIsaja, Sandro kensan, Sante
Caserio, Sbisolo, Shivanarayana, Sky, StuxNet, Suisui, Taueres, Tooby, Topwikione, Twice25, UED77, Valepert, Waddle, Ylebru, host143-102.pool212171.interbusiness.it, 157 Modifiche
anonime

File sharing Fonte: http://it.wikipedia.org/w/index.php?oldid=52309488 Autori:: 0Roberto0, Abisys, Agnellino, AlessioMela, Amux, AndreA, Ary29, Avemundi, Avesan, Bramfab, Callipeo,
Darpetra, Digitalone, Duffo, Eumolpo, Fantasma, Filenger, Francescost, Frieda, Gac, Gacio, Giangiacomoporro, Gondola, Grifone87, Hellis, Horcrux92, Iron Bishop, Isa Chiariglione, Leoneale,
LoStrangolatore, Lornova, Lucha, Luisa, Lukius, Marco Plassio, Marcok, Marzal, Mesos, MikyT, Orso della campagna, Painlord2k, PersOnLine, Piero, Psylocibe, Qualc1, Raldo, Roddik,
Rollopack, Sbisolo, Simone, Snowdog, Square87, Stefano-c, Toobaz, Traduz, Trevinci, Unop2pf, Viscontino, Ylebru, ZioNicco, 104 Modifiche anonime

Peer-to-peer Fonte: http://it.wikipedia.org/w/index.php?oldid=53329727 Autori:: .anaconda, Abisys, Achillu, Aealith, AlessioMela, Alfio, Alias, Alleborgo, Alz, AndreA, Antoniominotti,
Archenzo, Ary29, Assianir, AttoRenato, Audiogalaxy, Avesan, Azrael555, Baruneju, Bultro, CNetwork, Cirilloblu, Cisco79, Conte91, Copelandia, Cotton, Danila.lo, Dariodippi, Davide21,
Dega180, Delfort, Digitalone, Dirittoinformatico, Dmerico, DnaX, Dread83, Emme.pi.effe, Erinaceus, Eumolpo, Fabrizioroccapc, FenrirTheWolf, Filenger, Formica rufa, Fracode, Francescost,
Francisco83pv, Franz1789, Frieda, Friedrichstrasse, Gacio, Galoppini, GatoSelvadego, Gig, Gigaster, Gionnico, Govoch, Grufo, Hashar, Helios, Hellis, Ilario, Inchiostro Simpatico, Jaggi singh,
Joix, Joram, KS, Kal-El, Lampo24, LapoLuchini, Laurentius, Lecter, LoStrangolatore, Lukius, M.Costantino, M7, Marcok, Marcol-it, Matlab1985, Mizardellorsa, Mons-tis, Narayan89, Nemo
bis, Neviskio, Nintendo 64, No2, Oberon, Orso della campagna, Osk, Painlord2k, Pakdooik, Pesapower, Phantomas, Pierlufi, Pyotr, Red83, Rollopack, Rosco, Rospettino, Rwolf969, Sannita,
Sbisolo, Seics, Snowdog, Stefano-c, Suisui, SuperSecret, T137, Tank00, Taueres, ThirtyThree, Ticket 2010081310004741, Tommaso Ferrara, Trek00, Twice25, Unop2pf, Vaccaricarlo, Vituzzu,
XXxBeTTiNaxXx, Yaxara, Ylebru, 184 Modifiche anonime

Streaming Fonte: http://it.wikipedia.org/w/index.php?oldid=51851330 Autori:: .anaconda, A7N8X, Abisys, Agent59551325, Amux, Andreinidanilo, Archenzo, Ary29, Atomicaev, AttoRenato,
Avesan, Brownout, Brunocip, Buggia, Ciro1992, Cracatua, Cruccone, Delfort, Dome, Drugonot, Eippol, Evakant140, FNM600, Fabrymondo, Fale, Ferrucciolibero, Gac, Gacio, GinkyBiloba,
Grond, Guidomac, Hacker nait, Hal8999, Hellis, Henrykus, Iron Bishop, Jalo, KS, KinG-LioN, Klaudio, Kromeboy, Larry Yuma, LeFilsDePascal, Lilja, Lolo00, Loox, Ludimagister, M7,
MadFool, MapiVanPelt, Maquesta, Marco 27, Marco Bernardini, Marcok, Marcol-it, Marius, Matafione, Mediano88, Miclen1, Mikykim, Mitchan, Moongateclimber, MrNo69, Narayan89,
Nicoli, NuclearWarfare, Paginazero, Peppe Cicco, Phantomas, Pickblack, Rdocb, Reav85, Red83, Restu20, Rosanna.valente, Ryan mcgowan, Salvorapi, Sandrobt, Sbisolo, Senpai, Senza
nome.txt, Shivanarayana, Simo ubuntu, Snowdog, Superdelo, Ticket 2010081310004741, Tiziano90, Torredibabele, Vituzzu, Xangar, Xx1182, Yoruno, Zeusi, 233 Modifiche anonime
Fonti, licenze e autori delle immagini 151

Fonti, licenze e autori delle immagini


Immagine:Commons-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by 3247,
based on the earlier PNG version, created by Reidab.
Immagine:Arpanet 1974.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Arpanet_1974.svg Licenza: Public Domain Autori:: Yngvar
File:GM - Countries by Internet Users.png Fonte: http://it.wikipedia.org/w/index.php?title=File:GM_-_Countries_by_Internet_Users.png Licenza: Creative Commons Attribution-Sharealike
2.5 Autori:: Map made using http://gunn.co.nz/map/ , Original uploader was Aaaarg (code by himself , contact: arthur [atrobase] gunn.co.nz ) at en.wikipedia
File:Internet map in February 82.jpg144kB.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Internet_map_in_February_82.jpg144kB.png Licenza: Public Domain Autori:: Jon
Postel
Immagine:Wikinews-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikinews-logo.svg Licenza: logo Autori:: Vectorized by Simon 01:05, 2 August 2006 (UTC) Updated by
Time3000 17 April 2007 to use official Wikinews colours and appear correctly on dark backgrounds. Originally uploaded by Simon.
Immagine:Wikiquote-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: Public Domain Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq,
Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime
File:The World Wide Web project - Conkeror.png Fonte: http://it.wikipedia.org/w/index.php?title=File:The_World_Wide_Web_project_-_Conkeror.png Licenza: sconosciuto Autori::
Utente:valepert
File:WorldWideWebAroundWikipedia.png Fonte: http://it.wikipedia.org/w/index.php?title=File:WorldWideWebAroundWikipedia.png Licenza: GNU Free Documentation License Autori::
User:Chris 73
File:First Web Server.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:First_Web_Server.jpg Licenza: GNU Free Documentation License Autori:: User:Coolcaesar at en.wikipedia
File:Web20 logo.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Web20_logo.png Licenza: sconosciuto Autori:: Bluvaloo
File:Web 2.0 Meme map.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Web_2.0_Meme_map.png Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: ElenaB84
File:HypertextEditingSystemConsoleBrownUniv1969.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:HypertextEditingSystemConsoleBrownUniv1969.jpg Licenza: Creative
Commons Attribution 2.0 Autori:: Bapho, Dancter, Grlloyd, Grm wnr, Infrogmation, Pmsyyz, 1 Modifiche anonime
File:Wikimania stallman keynote2.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikimania_stallman_keynote2.jpg Licenza: Creative Commons Attribution-ShareAlike 3.0
Unported Autori:: User:Elya
Immagine:Wikisource-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikisource-logo.svg Licenza: logo Autori:: Guillom, Jarekt, MichaelMaggs, NielsF, Rei-artur, Rocket000
File:CC-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:CC-logo.svg Licenza: Public Domain Autori:: Creative Commons
File:Flag of the United States.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Flag_of_the_United_States.svg Licenza: Public Domain Autori:: Dbenbenn, Zscout370, Jacobolus,
Indolences, Technion.
File:Newworldmap.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Newworldmap.svg Licenza: Public Domain Autori:: Original uploader was Zscout370 at en.wikipedia
File:Creativecommons spanien.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Creativecommons_spanien.jpg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Klaus
Graf
File:GoldenNica_CreativeCommons.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:GoldenNica_CreativeCommons.jpg Licenza: sconosciuto Autori:: Conscious, Davepape,
TheLarch, Tsui
File:Cc-by new white.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Cc-by_new_white.svg Licenza: Creative Commons Attribution 2.5 Autori:: User:Sting
File:Cc-nc white.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Cc-nc_white.svg Licenza: Creative Commons Attribution 2.0 Autori:: User:Rfl
File:Cc-nd_white.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Cc-nd_white.svg Licenza: Creative Commons Attribution 2.0 Autori:: User:Rfl
File:Cc-sa_white.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Cc-sa_white.svg Licenza: Creative Commons Attribution 2.0 Autori:: User:Rfl
File:HNL Wiki Wiki Bus.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:HNL_Wiki_Wiki_Bus.jpg Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: Andrew Laing
File:History comparison example.png Fonte: http://it.wikipedia.org/w/index.php?title=File:History_comparison_example.png Licenza: sconosciuto Autori:: User:J.smith
Immagine:Wikibooks-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac et al.
File:Tcp-handshake.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Tcp-handshake.svg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori::
300px-Tcp-handshake.png: ??? derivative work: Snubcube (talk)
File:TCP-Chiusura-a-4-vie.png Fonte: http://it.wikipedia.org/w/index.php?title=File:TCP-Chiusura-a-4-vie.png Licenza: Public Domain Autori:: Acchiappasogni
Immagine:Allocation IPv4.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Allocation_IPv4.png Licenza: sconosciuto Autori:: Samadhi56
Immagine:Ipv4 address.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Ipv4_address.png Licenza: sconosciuto Autori:: Samadhi56
Immagine:Ipv6 address.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Ipv6_address.png Licenza: sconosciuto Autori:: Samadhi56
File:svg2raster.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Svg2raster.jpg Licenza: sconosciuto Autori:: Frigotoni, Samadhi56, 1 Modifiche anonime
File:DNS RR.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DNS_RR.png Licenza: sconosciuto Autori:: Samadhi56
File:Nome spazio di dominio.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Nome_spazio_di_dominio.jpg Licenza: Public domain Autori:: Samadhi56
File:Countries by most used web browser.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Countries_by_most_used_web_browser.svg Licenza: Creative Commons
Attribution-ShareAlike 3.0 Unported Autori:: Countries_by_most_used_web_browser.png: *BlankMap-World-v6.png: Roke derivative work: Altes (talk) derivative work: Peeperman
File:Timeline of web browsers.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Timeline_of_web_browsers.svg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported
Autori:: ADeveria
File:Pro piracy demonstration.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Pro_piracy_demonstration.jpg Licenza: Creative Commons Attribution 2.5 Autori:: Jon slund
File:P2ptv.PNG Fonte: http://it.wikipedia.org/w/index.php?title=File:P2ptv.PNG Licenza: GNU Free Documentation License Autori:: Original uploader was Soumyasch at en.wikipedia
File:Kaprici.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Kaprici.gif Licenza: GNU Free Documentation License Autori:: Original uploader was Edasx at cs.wikipedia
Licenza 152

Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
//creativecommons.org/licenses/by-sa/3.0/

Potrebbero piacerti anche