Sei sulla pagina 1di 16

La rivoluzione culturale del web 2.

di Nicola Rabbi
Giornalista, direttore di www.bandieragialla.it
turtle@bandieragialla.it

Che cos’è il web 2.0

“Il web è più un’innovazione sociale che un’innovazione tecnica. L’ho


progettato perché avesse una ricaduta sociale, perché aiutasse le persone a
collaborare e non come un giocattolo tecnologico. Il fine del web è migliorare la
nostra esistenza reticolare nel mondo”. (1) Queste parole di Tim Berners-Lee,
l’inventore principale del world wide web (www), sono un’ottima introduzione
per spiegare che cosa sia il web 2.0, ovvero un’evoluzione della rete non tanto
un suo drastico cambiamento, ma un’evoluzione coerente con il patrimonio
genetico di internet che mette al centro la persona; spetta poi a noi persone,
individui, saper sfruttare pienamente le tecnologie per comunicare, per
conoscere, capire, superare difficoltà non solo contando su noi stessi ma su chi è
in rete, un mondo intero (e crescente) di persone che possono offrirci quel
pezzettino di informazione che a noi mancava, di cui spesso non ne
sospettavamo nemmeno l’esistenza.
Di web 2.0 se ne parla dalla seconda metà del 2005 e sia in rete (2) che per
quanto riguarda le pubblicazioni cartacee oramai si potrebbero fare
numerosissime segnalazioni. Nella maggior parte dei testi emerge come il
fenomeno possa essere interpretato tenendo presente le due componenti che lo
costituiscono: quella tecnologica e quella socio-culturale. Ad essere fin da subito
precisi la vera novità non si trova tanto nella sua componente tecnologica -
anche se lo sviluppo di nuovi software più facili da usare e che presentano una
multimedialità sempre più spinta sono certamente di aiuto – ma nella sua
componente sociale, è qui, nel diverso uso che ne fanno le persone, sempre più
numerose e sempre meglio tecnologicamente acculturate, che risiede l’originalità
del web 2.0; tutto questo porta e porterà ad una rivoluzione culturale che potrà
influenzare i programmatori, gli imprenditori, il nostro modo di usare internet e,
addirittura, il nostro stesso modo di pensare.
La componente tecnologica

Internet o meglio il web non è cambiato, la sua infrastruttura è sempre quella,


ma i programmatori, gli architetti della rete hanno costruito dei software centrati
sulla persona, più facili da usare (user experience), che permettono lo sviluppo
di relazioni e che assicurano la bidirezionalità (io posso non solo leggere i
contenuti web ma posso anche crearne di nuovi e condividerli con altri).
La diffusione della connessione a banda larga nelle società occidentali e in
quelle sviluppate da modo agli utenti di velocizzare le loro attività in rete e di
aumentarle in termini byte trasmessi, trattando non solo testi ma anche
immagini, suoni, filmati. Parimenti la comunità on line diventa più grande
raggiungendo così la massa critica di persone necessaria ad un pieno sviluppo
delle possibilità offerte dal web.
Oramai gli sviluppatori della rete propongono il web come una vera
piattaforma ovvero un sistema operativo sempre più autonomo che entra in
concorrenza direttamente con chi detiene il monopolio delle più diffuse
applicazioni per il personal computer, ovvero la Microsoft. Scrive Luca Grivet
Foiaia: “Tecnologicamente il web diventa piattaforma grazie all’utilizzo di
tecnologie software (Rss, Ajax) che di fatto creano su di esso una piattaforma
alternativa in aperta concorrenza con Windows”. (3) Una piattaforma di questo
tipo non può essere di proprietà di qualche azienda ma deve essere aperta per
poter essere continuamente perfezionata da sviluppatori volontari (ed è per
questo che i vari software non sono mai scritti una volta per tutte ma sono in fase
di continua evoluzione, in una fase di versione beta perenne). Per capire meglio
questo meccanismo bisogna sottolineare il fatto che nel web 2.0 non vengono
venduti dei prodotti (come le classiche applicazioni) ma vengono venduti
dei servizi che la gente usa (servizi a cui ci si può abbonare o pagare a
consumo). Una volta un software diventava tanto più importante quanto più le
persone lo usavano ma ora l’attenzione si sposta sui dati che un software può
raccogliere, quello che conta sono i database e questi sono costruiti dagli utenti:
più utenti significa più dati, più dati significa un maggior numero di utenti che vi
accede e che eventualmente possono aggiungere altri dati e così via in un
processo virtuoso. Anticipiamo un esempio pratico (ne vedremo diversi più
avanti), ma adesso ci serve per comprendere meglio la questione. Esiste un sito
italiano che si chiama 2spaghi (www.2spaghi.it) in cui gli utenti possono
segnalare con un commento i ristoranti della nostra penisola dove hanno
pranzato indicandone pregi e difetti. La piattaforma web che gestisce tutto è
gratis, basta iscriversi; qui il valore consiste tutto nel numero di segnalazioni, di
consigli, suggerimenti che si basano sull’esperienza diretta (sul grado di
attendibilità di questi commenti per ora non indaghiamo); il valore risiede nella
banca dati di 2spaghi che attira un grande numero di visitatori e che permette a
sua volta la vendita di spazi pubblicitari tematici.
L’esempio più illuminante rimane però quello di Google; in questa esperienza
sono raccolte tutte le caratteristiche del web 2.0 finora citate. Google tramite
un’iscrizione gratuita permette di avere non solo un account di posta (la famosa
Gmail) con parecchio spazio di memoria ma offre anche numerose applicazioni
che di solito noi utilizziamo sul nostro computer portatile. Google Docs (in
perenne versione beta) fornisce dei software per scrivere (come word), per
compilare fogli elettronici (come excel), per fare delle presentazioni (come
powerpoint) Di questo passo tutte le nostre attività possono passare dal locale
(dal nostro computer) alla rete; questo fenomeno oltre che alleggerire il nostro
pc permette a noi di avere i dati sempre raggiungibili ovunque, svincolati dalle
nostre macchine personali ma soprattutto permette di condividere i testi con le
altre persone presenti in rete (cioè ci permette un lavoro collaborativo). In questo
modo la piattaforma può spostarsi dal pc alla rete.
Veniamo adesso ai servizi centrati sui dati, in questo caso l’esempio che ci viene
incontro è Google Maps, il noto servizio di ricerca di mappe esteso su tutto il
pianeta. Si tratta di un servizio gratuito che può addirittura essere utilizzato da
altri siti per associare ad un evento un indirizzo visualizzato attraverso una
mappa. Il sito di informazione sociale per cui lavoro (www.bandieragialla.it), si
è dotato di questa possibilità e ogni volta che pubblichiamo un appuntamento
diamo al lettore la possibilità di vedere sulla cartina stradale cittadina dove si
trova un certa via o piazza. Dice Alberto D’Ottavi “Il web diventa cosi una
piattaforma essenziale per collegare una funzione all’altra - per esempio un
database di ristoranti con uno di mappe stradali… le applicazioni anziché
monolitiche diventano mash up, cioè fatte con componenti prese da fonti diverse
e che vengono mischiate”. (4) In questo modo viene utilizzato ciò che è già
presente (e libero) in rete alleggerendo il lavoro di tutti; questi servizi, il cui
codice di programmazione è a disposizione degli utenti, verranno poi elaborati
e/o perfezionati dai programmatori che lanceranno altri servizi più evoluti o
creeranno addirittura qualcosa di nuovo. L’interesse personale del
programmatore oltre che a motivazioni di carattere etico, è dato dal fatto che chi
crea qualcosa di originale immediatamente diventa noto nel suo ambiente
permettendogli nuove opportunità di carriera.
Nel web 2.0 i contenuti passano velocemente da un luogo all’altro, se fino a
qualche anno fa l’atteggiamento era quello di far rimanere incollati i
“navigatori” della rete al proprio sito, ora questa tendenza alla stickiness
(appiccicosità) è stata sostituita da un abbondante uso del link che porta fuori dal
proprio sito e lo collega in vari modi alla rete ma non è tutto, poiché in questo
caso la tecnologia è anche maturata e ha portato alla creazione e alla diffusione
dei feed. I feed sono dei canali per la trasmissione dei contenuti indipendenti
dalla grafica dal sito da cui provengono, sono una serie di testi che ci
segnalano le novità provenienti dalle fonti che più ci interessano. Spiega
Sergio Maistrello: “Esistono differenti linguaggi per condividere i feed: i più
diffusi si chiamano Rss e Atom e il loro compito è etichettare le frazioni di
contenuto per permettere al software che le legge in modo automatico di
interpretare in modo corretto le informazioni”. (5) In pratica basta abbonarsi agli
Rss per poter ricevere dei flussi di informazione che vengono raccolti dagli
aggregatori (newsaggregator); questi possono essere delle applicazioni
specifiche o possono essere incorporati nei browser come Firefox o nei telefoni
cellulari. Anche qui facciamo un esempio riferendoci a BandieraGialla; una
porzione della nostra home page è stata dedicata alla presentazione di questi
flussi di notizie, in particolare abbiamo sottoscritto le news del settimanale di
informazione sociale Vita, del Corriere della Sera, del sito del comune di
Bologna, del Resto del Carlino e del sito Emilia Romagna Sociale. In questo
modo a rotazione, ogni volta che si ricarica la nostra home page, vengono
visualizzati i titoli degli ultimi aggiornamenti (con il link relativo s’intende) che
provengono da quei siti e che per noi hanno valore in quanto parlano del nostro
territorio e/o di informazione sociale.
Un’altra caratteristica dei siti web 2.0 è la possibilità data all’utente che
interagisce di classificare i suoi contenuti o quelli di altri che segnala.
Praticamente ad ogni tipo di contenuto testuale ma anche fotografico e materiale
audiovisivo viene dato un tag (una etichetta) da parte della persona che lo sta
utilizzando. Questa operazione (taggare) sembra una cosa di poco conto ma in
realtà ha profonde implicazioni culturali e addirittura di organizzazione del
pensiero. La tradizione culturale ci ha abituali a cercare informazioni tramite dei
criteri tassonomici, ovvero tramite categorie, magari molto numerose, ma
comunque finite e standardizzate; quando ricerchiamo in una biblioteca, per fare
un esempio a tutti noto, lo facciamo consultando le aree tematiche o il thesaurus
delle parole chiave; inoltre questi criteri sono condivisi da tutte le biblioteche e
sono stati fissati da esperti e, anche se vengono aggiornati nel corso del tempo,
sostanzialmente sono abbastanza statici e definiti. Ma se noi abbandoniamo i
criteri tassonomici e ci affidiamo alla classificazione della gente, alla
classificazione popolare ecco che abbiamo la folksonomy (folks + taxonomy).
Qui i tag sono infiniti e soggettivi, dato che ogni individuo è diverso con una sua
sensibilità e cultura e può classificare lo stesso materiale con etichette differenti.
Ma questa mancanza di criteri oggettivi non può creare confusione e incertezza
nelle nostre ricerche? Risponde a questa domanda Alberto D’Ottavi: ”Anziché
interrogarsi su come realizzare la migliore classificazione possibile al mondo …
si dice agli utenti di classificarsela da soli… così facendo si scopre che la
maggior parte delle persone ragiona nello stesso modo e che la maggior parte dei
tag vengono ripetuti”. (6) Ma non solo, in questo modo anche tutto quel
materiale fotografico e audio video che prima non poteva essere rintracciato da
un motore di ricerca viene recuperato attraverso le etichette dato a loro. Questo
sistema di classificazione aperto porta anche a scoprire risorse nuove grazie a
delle associazioni mentali fatte da altre persone e a cui noi non avevamo
pensato; questo è un modo di operare molto più vicino a quello del cervello
umano che procede per associazioni più che per classificazioni generali. La
folksonomy comunque non sostituisce la tassonomia e anche nei siti web 2.0
possiamo ritrovare la classificazione ad albero che si accompagna a quella a
nuvola (senza un centro o un inizio ma composta da tante parole a cui si assegna
un’importanza diversa) tipica della classificazione libera a tag. I tagcloud
(nuvole di etichette) sono del resto un elemento che si ritrova spesso nei siti di
questo tipo e rendono visivamente in maniera immediata le parole chiave più
importanti in quel momento (e le parole di corpo più grande saranno quelle più
importanti, più ricercate). Alcuni siti di informazione on line la utilizzano e
guardando la loro tagcloud ci si rende conto subito quali sono gli argomenti più
trattati e importanti (forse) della giornata.

La componente culturale

L’idea portante del web 2.0 è quella di una rete di persone che collabora anzi
coopera; quindi il grado di fiducia che si instaura tra le persone che frequentano
la rete è una questione decisiva. Se non c’è questa fiducia, se non si crede nel
valore che ogni persona può aggiungere alla rete, allora certe esperienze non si
possono creare e sviluppare. Siamo abituati dai mass media tradizionali a vedere
internet come un luogo dove le ragazzine vengono adescate sulle chat, dove il
maggior traffico di utenti passa per i siti pornografici, dove possono rubarci
l’identità e sfruttare così le nostre carte di credito, ma questa è sicuramente una
visione distorta e che non corrisponde certo alla realtà della rete. Abituati a
questi luoghi comuni può sembrare strana allora una visione di internet come
luogo collaborativo che si basa sulla fiducia. Spesso sorgono dei dubbi sul grado
di validità delle informazioni che si trovano in rete, sulla loro efficacia per chi
voglia documentarsi o avere degli strumenti per meglio orientarsi nella vita di
ogni giorno. Eppure basta frequentare, facciamo l’esempio della blogosfera,
qualche blog per accorgersi come ogni autore sia legato ad altri e ai semplici
lettori; un’informazione sbagliata o anche una risposta sgarbata ha delle
implicazione enormi in un luogo dove tutti sono collegati (un po’ come accade
nei piccoli paesi dove tutti sanno di tutti), la brutta figura è subito dietro l’angolo
e il prestigio e l’affidabilità si costruiscono con il tempo, poco per volta.
Sicuramente è più legato e attento un blogger ai propri lettori che un giornalista
tradizionale (nel primo caso l’interattività lo costringe ad un confronto
immediato).
L’altra idea di fondo è la partecipazione il più possibile vasta e democratica
di tutti al web, una partecipazione piena; solo in questo modo la rete potrà essere
uno strumento nuovo che potenzia le capacità intellettuali personali e collettive,
che privilegia addirittura il pensiero intuitivo rispetto a quello analitico: ”E’
importante che il Web aiuti la gente a essere intuitiva oltre che analitica - dice
Tim Berners Lee - Il passo dell’intuizione si compie quando qualcuno segue dei
link da un certo numero di persone tra di loro scollegate, nota un rapporto
interessante e crea un link scorciatoia per registrarlo. Funzionerà solo se ognuno
crea link mentre naviga, perciò scrittura, creazione dei link e navigazione
devono essere totalmente integrati.” (7)
Creare contenuti e condividerli appare l’attività fondamentale degli abitanti
della rete. “Dentro la parte abitata di Internet tutto è interazione. Se i nodi della
rete sono punti di presenza delle persone, i collegamenti tra un nodo e l’altro
rappresentano relazioni e i contenuti diventano conversazioni.” (8)
La tecnologia della rete ha oramai sviluppato degli strumenti facili da usare
anche da parte di chi non ha una formazione informatica approfondita. L’uso dei
blog permette a chiunque di tenere diari personali on line, di portare avanti
discorsi specialistici propri, i wiki danno invece la possibilità di scrivere sullo
stesso documento permettendo un lavoro di cooperazione ancora più spinto (è il
caso di Wikipedia). I podcast introducono ad un utilizzo più sciolto
dell’audiovideo che può essere, abbastanza facilmente, pubblicato all’interno del
proprio blog o archiviato attraverso un aggregatore di notizie di cui abbiamo
parlato sopra.
E’ questa, ancora relativa, facilità per un maggior numero sempre crescente di
persone che fa prendere il largo a tutti quei siti che mettono al centro l’user
generated content (il contenuto aperto creato dall’utente). Sono questi siti che
basandosi su un social software (un software che supporta il sistema
collaborativo) creano una rete sociale che assicura un vantaggio di contenuti,
esperienze e quindi un vantaggio competitivo rispetto a tutti quei siti che si
basano su sistemi chiusi, proprietari, strettamente gerarchici.
Un’altra caratteristica di questa cultura è il fatto quindi che è aperta (open
culture) nel senso che quanto viene prodotto al suo interno non è strettamente
vincolato dalla proprietà intellettuale ma è a disposizione (in parte o totalmente)
delle persone che lo possano riutilizzare per motivi di conoscenza o di sviluppo;
questo vale per un testo, un audiovideo ma anche per il codice di un software. Il
riutilizzo (il remix), il riciclaggio di tutto questo può portare a nuove idee, a
nuovi prodotti, a nuovi servizi.
Vedremo nella parte finale del presente lavoro alcuni esempi di siti che
permettono di creare e condividere i propri video, foto, testi, che creano network
sociali, tutti però, al di là delle loro differenze, si basano sulle premesse culturali
e sulla tecnologia che abbiamo fin ad ora cercato di spiegare.
E’ opinione oramai diffusa che viviamo nella società dell’informazione, dove
l’informazione stessa diventa un prodotto prezioso e chi non ha la possibilità di
accedervi (ma possiamo anche tranquillamente usare la parola connettersi)
rimane un escluso, ha meno possibilità degli altri (è un povero). Meno diffusa è
invece l’idea che in una società così complessa come la nostra sia sempre più
difficile che qualcuno o un gruppo di persone abbia la capacità di controllare
tutto il sapere umano, di averne una visione organica. Ecco allora che un
sistema aperto e collaborativo può permettere una visione più complessiva
dato che le intelligenze che si assommano in questo processo sono
numerosissime: è il concetto di intelligenza collettiva proposto da Pierre
Levy: “L'intelligenza è distribuita dovunque c'è umanità, e questa intelligenza,
distribuita dappertutto, può essere valorizzata al massimo mediante le nuove
tecniche, soprattutto mettendola in sinergia. Oggi, se due persone distanti sanno
due cose complementari, per il tramite delle nuove tecnologie, possono davvero
entrare in comunicazione l'una con l'altra, scambiare il loro sapere, cooperare…
L'etica dell'intelligenza collettiva consiste appunto nel riconoscere alle persone
l'insieme delle loro qualità umane e fare in modo che essi possano condividerle
con altri per farne beneficiare la comunità. Quindi mette l'individuo al servizio
della comunità… Voi e il piccolo gruppo a cui appartenete e con cui avete uno
scambio più stretto non potrete mai sapere tutto e quindi sarete, necessariamente,
obbligati a fare appello ad altri, alle conoscenze d'altri e alle loro capacità di
navigazione: i messaggi che hanno più valore nel cyber-spazio sono quelli che vi
aiutano a trovare dei riferimenti, a orientarvi, quelli che hanno meno valore sono
quelli che aumentano la massa senza dare visibilità o trasparenza alle
conoscenze disponibili”. (9)
Si tratta di un modello di conoscenza diverso da quello a cui siamo abituati, un
modello che presuppone rapporti più alla pari e meno formali; fa impressione
leggere le seguenti parole scritte da Ivan Illich agli inizi degli anni ’70: “La più
radicale alternativa alla scuola sarebbe una rete, o un servizio, che offrisse a
ciascuno la stessa possibilità di mettere in comune ciò che lo interessa in quel
momento con altri che condividono il suo stesso interesse”. (10) Illich scriveva
queste righe pensando a modelli alternativi alla scolarizzazione di massa per lo
spreco di risorse e per il mancato raggiungimento degli obiettivi che questa
comporta; non poteva conoscere internet che in quegli anni non era ancora
sviluppata, ma nonostante tutto, questa è una descrizione precisa di come
funziona la collaborazione in rete nei gruppi di interesse comuni.
Un'altra comune obiezione che emerge quando si parla di internet come
strumento di conoscenza e di collaborazione riguarda la mancanza di un ordine
o di una gerarchia che lo dia, ma questo ordine non sarà mai possibile
trovarlo su un mezzo come internet. Mi ricordo che le prime volte che ho
usato la rete a metà degli anni novanta ho cercato un indice generale come punto
di partenza; con il tempo ho capito che questo non c’era né sarebbe mai esistito
come io me lo immaginavo. Il buon indice, se ancora si può chiamarlo così, è
dato dai motori di ricerca che oggigiorno ricercano (così funziona Google)
dando la priorità alle pagine web maggiormente citate (linkate); più una pagina è
linkata dalla gente, più significativa diventa come documento all’interno della
rete. E i link vengono fatti dalla gente che legge il materiale e lo segnala ad altri
o la fa suo; è il popolo della rete che distribuisce dei voti, da un ordine di
importanza e quando questo popolo ha già raggiunto una massa critica allora la
sua valutazione non va presa sotto gamba (anche se non è sostenuta da un
comitato scientifico o ha la firma di un autorevole intellettuale).
Lo stesso discorso vale anche per la sovrabbondanza delle fonti su internet e
sulla possibilità di farne una buona selezione. Umberto Eco in un saggio (11) del
1996 si poneva il problema di come selezionare tutto questo materiale che
poteva essere fatto con criterio solo da una minima parte di persone formate ma
“Ciò che Eco forse sottovalutava alla metà degli anni Novanta è la dimensione
profondamente collettiva e interattiva delle dinamiche di rete, resa oltremodo
potente dal raggiungimento della massa critica necessaria al funzionamento
virtuoso del sistema”. (12) In altre parole se uno dedica del tempo alla rete e ne
diventa esperto cominciando ad usare tutti gli strumenti che offre, si accorge
subito che i documenti importanti si ritrovano in varie fonti e che una buona
selezione non è poi un lavoro così impossibile da fare. Ancora una volta
ritorniamo alle persone, le persone comuni, sono loro l’elemento determinate del
web 2.0, non è un caso allora che nel 2006 sulla copertina del “Time” che
designava l’uomo dell’anno, appariva uno schermo di computer con una tastiera
e sulla schermo la parola YOU, che si rivolgeva a tutte le persone che popolano
il web.

Leggere, vedere, ascoltare, partecipare

Il miglior modo per capire come funzionano i siti del tipo web 2.0 è utilizzarli in
prima persona. Ne vedremo qualcuno descrivendone il funzionamento, non
soffermandoci però sull’interfaccia (lo spazio non ce lo consente) ma più sul
loro uso sociale, sul loro significato sociale. Ne tratteremo uno per ogni parola
chiave (eccetto nel caso della ricerca e dei network sociali) rimandando il lettore
al libro di Alberto D’Ottavi (13) per un elenco dettagliato e per una descrizione
precisa del funzionamento dell’interfaccia. Le parole chiave che abbiamo
individuato per presentare questi siti sono: ricercare/documentarsi, immagini,
video, musica, informare/informarsi, network sociali.
Dieci anni fa quando si davano consigli su come ricercare in internet si diceva
che le strade possibili erano due, o farlo attraverso i motori di ricerca o rivolgersi
direttamente al popolo della rete che poteva essere interpellato grazie a strumenti
come i newsgroup, le mailing list e poi (qualche anno dopo) con le community,
delle sezioni presenti in quei siti che puntavano più sull’interattività con il lettore
e che consistevano in forum, chat e ancora mailing list. Ma se allora questa
strada era un’esortazione ad usare in modo più attivo la rete, oggi è proprio il
popolo della rete con la sua intelligenza collettiva e connessa che porta a dei
risultati significativi. Un nuovo e interessante modo per fare ricerche in rete
basandosi sui contributi degli utenti è dato da Delicious (http://delicious.com)
che permette di fare del bookmarking sociale (14) ovvero di salvare i propri
link preferiti sul web rendendoli quindi pubblici, disponibili a tutti. Invece
di usare i Preferiti di Internet Explorer o i Segnalibri di Mozilla Firefox,
Delicious da la possibilità (dietro ad una iscrizione gratuita, procedura del resto
comune quando si vuol interagire con siti di web 2.0) di pubblicare sul web i
propri segnalibri classificati con dei tag che noi riteniamo più opportuni. Questo
significa che cercando per tag possiamo trovare le segnalazioni fatte dal popolo
della rete; questo sistema ci può portare a scoprire risorse che con motore di
ricerca forse non avremmo trovato. Ad ogni link corrisponde anche un numero,
ovvero quanto volte questo indirizzo web è stato messo tra i preferiti di un
utente; maggiore è questo numero e maggiore dovrebbe essere il suo grado di
interesse. Se un utente ci ha dato un buon consiglio, Delicious ci permette anche
di andare a curiosare dentro i suoi preferiti per seguire altri percorsi. Lasciando
da parte la sensazione di essere dei “guardoni” questo sistema porta a quello che
in gergo si chiama la serendipity, ovvero la possibilità di fare scoperte non
previste, di trovare cose che non si stavano cercando ma che poi risulteranno
molte utili per altri nostri interessi o per lo stesso argomento ma sotto una
prospettiva a cui non avevamo pensato. La serendipity può essere anche letta
come un’attitudine ad essere aperti alle esperienze esterne ma anche, con una
connotazione negativa, ad essere continuamente distratti da argomenti nuovi e
portati a non approfondire mai nulla evitando di concentrarsi su un unico tema.
Le persone da cui abbiamo avute buone segnalazioni possono entrare a far parte
di un nostro network interno a Delicious e possono portare anche ad una
conoscenza reciproca. La stessa Wikipedia (http://it.wikipedia.org) questo
dizionario universale frutto della collaborazione di centinaia di migliaia di utenti,
non è nient’altro che un gigantesco wiki, ovvero un tipico sito web 2.0 diventato
così famoso da soppiantare per molte persone i tradizionali motori di ricerca. Un
grande successo ha auto in Italia Yahoo! Answers (http://it.answers.yahoo.com),
un sito che permette semplicemente di porre delle domande - a cui non troviamo
una risposta - ad un pubblico di iscritti da cui ci può venire una risposta giusta;
ogni risposta viene classificata dagli stessi utenti in base al grado di utilità che ha
avuto per loro. Come nel caso dei segnalibri di Delicious così anche in questo
sistema sono gli utenti che decretano l’attendibilità delle risposte e del suo
autore che diviene, man mano che fornisce risposte attendibili, sempre più
autorevole. Ricordiamo infine l’esperienza di Technorati (www.technorati.com)
un motore di ricerca specializzato solo nei messaggi postati nei blog che
rappresentano un fetta significativa di quanto passa per il web. Technorati come
altri siti simili da la possibilità anche di abbonarsi tramite gli Rss alle ricerche
che ci sono abituali; facendo un esempio, se io sono interessato a quanto si dice
a proposito della città di Mantova, posso abbonarmi ad una ricerca di
Technorati, mettendo la parola chiave “Mantova” e allo stesso modo posso farlo
con Google Video e con la rassegna stampa offerta da Google News. In questo
modo, attraverso un aggregatore di notizie potrò leggere le novità sulla rete di
quanto si dice su Mantova rispettivamente nei blog, nei video e nelle notizie
pubblicate dai principali mass media.
Per quanto riguarda il trattamento di fotografie, filmati e file audio invece le
funzionalità tipiche del web 2.0 danno la possibilità di caricare in modo rapido e
gratuito il proprio materiale, di etichettarlo in modo personale, di condividerlo
(se si vuole) con altri e di creare gruppi o comunità su interessi comuni. Nel
primo caso il sito più noto è Flickr (www.flickr.com) che appartiene allo stesso
gruppo di Yahoo, (15) dove un utente dopo una semplice iscrizione può caricare
le sue foto e creare delle cartelle; in questo modo si possono avere degli album
fotografici on line sempre a disposizione. Le foto possono essere anche ritoccate
on line e, a pagamento, il sito offre molti servizi come la possibilità di stampa su
carta o su oggetti come quaderni, magliette, poster. Se qui tocchiamo l’aspetto
più commerciale di Flickr non dobbiamo dimenticare quello più sociale, ovvero
quello che riguarda la condivisione. Le foto possono essere condivise con tutti o
solo con i propri amici e familiari; è da questa condivisione che nasce l’aspetto
più interessante dell’ iniziativa. Parenti lontani possono essere ricongiunti
attraverso questi dialoghi fotografici, oppure viaggiatori possono trovare foto
utili pubblicate da altri utenti che hanno già fatto lo stesso viaggio o che vivono
in quella località; per non parlare dell’interesse informativo in senso stretto: ad
esempio quando succede un fatto importante in qualche parte del mondo è molto
probabile che qualcuno che abita nei paraggi pubblichi foto su siti come Flickr,
foto che possono completare la nostra informazione. Visto che le foto sono tutte
etichettate è facile trovarle, così un appassionato di fotografia botanica potrà
scoprire le foto di altre persone che hanno i suoi interessi e, se vuole, può
invitarle nel suo network e approfondire questo interesse.
Così capita anche con i filmati; qui il sito più noto è You Tube
(www.youtube.com) (16) che è stato reso famoso dai mass media per i video che
ritraggono presunti episodi di bullismo a scuola o violenze di tipo sessuale. Ma
al di là di questa pubblicità negativa anche You Tube presenta tutte le
caratteristiche presentate sopra per quanto riguarda le immagini: la possibilità di
pubblicare i propri video (con un limite qui di grandezza del file), di segnalarne
altri, di etichettarli, di commentare ogni filmato presente in rete, di votarlo, di
creare gruppi di interesse, di incontrarsi on line per discutere. Ritornando sul
tema dell’attendibilità di quanto si vede, vale sempre il discorso della fonte; se la
fonte è autorevole (e non deve essere un gruppo istituzionale ma anche un
semplice signor Rossi) allora possiamo fidarci. Nel caso dei video si profila il
tema della televisione del futuro; la televisione su web non sarà generalista come
quella che conosciamo, ma molto specializzata per canali (un po’ già succede
con il digitale satellitare e terrestre) e il suo contenuto non è detto che sarà
deciso da un ristretto numero di persone ma potrebbe essere costruito dal
materiale che proviene direttamente dalla gente contribuendo all’ampliamento di
temi in cui ciascuno potrà trovare il suo prodotto di nicchia. (17)
Infine per i file audio ricordiamo Last.fm (/www.lastfm.it) il sito, ad oggi, più
maturo in questo settore. I siti musicali sono stati i primi a proporre modelli di
condivisione di file audio tra utenti e favorire i rapporti tra di loro; nel caso di
Last.fm non si possono scaricare file audio ma solo ascoltarli. Se io mi iscrivo al
sito posso ascoltare della musica a partire dai miei interessi, poi la stazione radio
da me creata continuerà a proporre brani musicali del tipo simile a quelli che io
ho scelto (interpreterà i miei gusti); infine mi associa ad altri utenti che ascoltano
la mia stessa musica dando la possibilità di entrare in contatto con loro (entrare
nel medesimo network). In questo modo non solo ascolto ciò che mi piace ma
posso conoscere qualcosa di simile di cui prima non ne sapevo l’esistenza e
confrontarmi con altre persone. I brani musicali possono essere commentati,
etichettati, gli autori e i gruppi recensiti secondo il modello del wiki (scrittura
collettiva).
I siti web 2.0 che fanno espressamente informazione sono direttamente costruiti
dagli utenti mediante un sistema di votazione; il più noto a livello internazionale
è Digg (http://digg.com) (18); qui dopo l’iscrizione un lettore può segnalare un
articolo interessate e presentarlo tramite una breve descrizione e il link relativo
ma potrebbe anche pubblicare un proprio articolo originale. A questo punto sono
gli altri lettori che votandolo gli assegnano una posizione di rilievo nella
presentazione dei fatti del giorno. Le notizie possono essere anche commentate e
si può entrare nel network dell’utente che ha segnalato la notizia o l’ha scritta
(nel caso di Digg l’informazione può essere anche audiovisiva o fotografica).
Questo modo di costruire l’informazione ribalta fortemente il modello a cui
siamo abituati che vede una redazione di giornalisti che selezionano e
pubblicano le notizie seguendo dei precisi criteri di notiziabilità, fornendoci così
una rappresentazione quotidiana – seppure parziale - della realtà. Seconda una
ricerca statunitense (19) svoltasi nel giugno del 2007 i siti costruiti dalle
segnalazioni o dagli articoli degli utenti differiscono in termini di temi proposti:
nel caso dei mass media tradizionali le notizie riguardavano soprattutto gli eventi
esteri, i disastri, la politica interna, l’immigrazione, mentre i media gestiti dagli
utenti proponevano un’informazione riguardante più la tecnologia e lo stile di
vita, inoltre questi siti presentavano una quantità di fonti maggiori rispetto ai
media tradizionali ma anche una maggiore frammentarietà delle notizie. Se il
panorama mediatico contemporaneo presenta dei difetti comuni come la
tendenza alla spettacolarizzazione della notizia, la mancanza di approfondimenti
e di contestualizzazioni per cui sempre più siamo avvolti da notizie veloci e
piacevoli da “consumare” ma che trasmettono poco sul mondo che ci circonda,
da parte degli strumenti di informazione che vengono dal basso non ci si
possiamo aspettare per ora soluzioni miracolose; fin da subito possono svolgere
in parte ad una funzione di critica del sistema informativo mainstreaming e
possono ampliare anche le tematiche oggetto di attenzione pubblica. In futuro
però è possibile immaginare una massa di utenti che hanno affinato i loro
interessi e hanno una maggiore responsabilità sociale e che possono contribuire,
con gli strumenti che il digitale offre, ad un panorama informativo diverso. E’
anche vero che questa tensione etica non può provenire solo da internet ma
anche dalle altre istituzioni e dalla società civile reale, quella fuori dalla rete.
I network sociali (o reti) sono ambienti su internet supportati da software sociali
che facilitano la comunicazione, la condivisione e in definitiva la relazione tra
gli utenti; come si può ben vedere tutti i siti che abbiamo visto fino ad ora sono
dei network basati su interessi comune come la musica, la fotografia… i cui
contenuti sono tutti generati dagli utenti; ne esistono altri che si sono creati
attorno alle singole persone che si presentano dando delle descrizioni di se, dei
propri interessi. I motivi che portano una persona ad essere presente sul web
sono molteplici e si va dall’uso fatto di MySpace (/www.myspace.com) da parte
di milioni di ragazzi in tutto il mondo per conoscersi, a quello strettamente
professionale e di ricerca di lavoro come Linkedin (www.linkedin.com). (20)
Questi network spesso presentano in un unico ambiente la possibilità di
condividere foto, filmati, di comunicare direttamente; esistono delle regole al
loro interno per cui a volte per conoscere una persona devi essere presentato da
uno che è già suo “amico” ma al di là delle differenze rimane costante il fatto
che ciascuna persona è un nodo della rete e non esiste un nodo centrale, un
centro della rete sociale; spetta al singolo differenziarsi a seconda delle relazioni
che riesce a creare e di ciò che porta in rete. E’ il medesimo discorso
dell’attendibilità delle fonti in rete: l’importanza di un nodo della rete, di un blog
proviene non da diritti ereditari o dal fatto di appartenere ad una istituzione
(anche se questo come biglietto da visita vale qualcosa) ma da ciò che riesce a
costruire in rete attraverso le sua azioni e le sue relazioni.

Un mondo a parte?

Tutto questo comporterà una vera e propria rivoluzione culturale che avrà
ripercussioni nel lavoro, nella nostra vita sociale, forse nel nostro stesso modo di
pensare, ma è difficile prevedere in che misura questo avverrà e che benefici
porterà.
Di certo c’è che solo una parte di cittadini del pianeta ha accesso a queste
tecnologie e sono collegati ad internet con un’ampia banda; tutto il discorso
relativo al web 2.0 ha senso solo se lo si pensa in un ambiente connesso alla rete,
chi è off line non potrà mai utilizzare delle applicazioni sul web; così chi ha una
connessione lenta o costosa non troverà conveniente caricare foto e filmati.
Ad una maggiore espansione di ciò che il web 2.0 ci promette invece, è il
pensarlo non relegato ad un personal computer ma a dispositivi mobili; in un
futuro molto vicino potremo disporre di apparecchi simili ai nostri cellulari come
portabilità dove potremo fare tutte quelle funzioni che abbiamo descritto fino ad
ora e in qualsiasi luogo. Occorrerà anche una riduzione del numero dei software
sociali che vengono utilizzati e si dovrà pensare a creare un ambiente unico dove
un utente possa fare tutto senza dove saltare da un sito all’altro con registrazioni
e interfacce diverse da utilizzare. Un luogo dove il nodo, la persona utilizzi
applicazioni on line, possa inviare messaggi, archiviare dati (testo, immagini e
audiovideo) e svolga relazioni sociali complesse. (21)

Note
1) Tim Berners-Lee, L’architettura del nuovo web, Milano, Feltrinelli, 2001, pag.
113
2) Per una introduzione al tema in rete si possono trovare l’articolo di Tim
O'Reilly, www.xyz.reply.it/web20, la voce corrispettiva su Wikipedia
http://it.wikipedia.org/wiki/Web_2.0 e poi Federico Moro,
www.openarea.net/Web2.0.pdf e Daniele Simonin
http://projects.melodycode.com/Web20
3) Luca Grivet Foiaia, Web 2.0, guida al nuovo fenomeno della rete, Milano,
Hoepli, 2007, pag. 16
4) Alberto D’Ottavi, Web 2.0, le meraviglie della nuova Internet, rgb editore,
2006, pag. 3. Il testo è on line al seguente indirizzo:
www.scribd.com/doc/2960860/Web-20-Il-libro-Gratis
Suo blog: www.infoservi.it/dblog
5) Sergio Maistrello, La parte abitata della rete, Milano, Hops Tecniche Nuove,
2007, pag. 76. Suo blog: www.sergiomaistrello.it
6) Alberto D’Ottavi, cit. pag. 11
7) Tim Berners-Lee, cit. pag. 174-175
8) Sergio Maistrello, cit. pag. 23
9) Pierre Levy, L’intelligenza collettiva, in
www.mediamente.rai.it/home/bibliote/intervis/l/levy.htm
10) Ivan Illich, Descolarizzare la società, per un’alternativa all’istruzione
scolastica, Milano, Mondadori, 1975, pag. 37
11) Umberto Eco, Le notizie sono troppe, imparate a decimarle subito, in Telema
n. 4 (Fondazione Bordoni, 1996)
12) Sergio Maistrello, cit. pag. 26
13) Alberto D’Ottavi (2006)
14) Sito noto in lingua italiana Segnalo (http://segnalo.alice.it)
15) Altro sito noto sono Picasa di Google (http://picasaweb.google.com)
16) Altri siti noti sono Google Video (http://video.google.it), Blip tv
(http://blip.tv)
17) A questo proposito si ricorda la teoria della Coda lunga (the long tail), che
descrive alcuni fenomeni economici e commerciali tipici della rete. Con internet
si abbattono i costi di vendita e distribuzione della merce e in questo modo i
prodotti di nicchia, quelli che non rientrano nei prodotti di grande successo,
possono essere venduti lo stesso e la somma dei loro ricavati alla fine diventa
maggiore della somma dei ricavati dei (pochi) prodotti di maggior successo. In
questo modo viene assicurato il soddisfacimento, tornado al nostro esempio, di
ogni gusto televisivo anche quello di qualità dato che questo diventa conveniente
anche per chi distribuisce i contenuti
18) Altri siti noti italiani sono OK Notizie (http://oknotizie.alice.it), Fai Notizia
(www.fainotizia.it) e, in una forma che vede anche la partecipazione di una
redazione giornalistica, l’esperienza de La Repubblica, Kataweb News
(http://news.kataweb.it)
19) Citato da Raffaele Mastrolonardo in www.visionpost.it/nexteconomy/news-
degli-utenti-complementari-ma-diverse.htm
20) Altri network sociali noti sono Facebook (www.facebook.com) e Orkut di
Google (www.orkut.com)
21) Sergio Maistrello, cit. pag. 54