Sei sulla pagina 1di 14

LA FINE DEL VIRTUALE E LA NASCITA DEI MEDIA DIGITALI

È necessaria distinzione ontologica tra cioè che è “nativo digitale” e ciò che è stato digitalizzato, ovvero tra oggetti,
contenuti, dispositivi e ambienti che sono nati all’interno del nuovo medium e quelli che gli preesistevano e sono
“migrati” verso di esso.
Tale distinzione apre la questione del metodo da utilizzare quando Internet diventa oggetto di ricerca: bisogna chiedersi
cioè se sia necessario modificare i metodi di studio quando si applicano a oggetti e contenuti che appartengono al
medium. Questa domanda implica l’esistenza di “metodi virtuali” che portano i metodi standard delle scienze sociali e
scienze umane, ovvero distinzione tra:
• oggetti di studio digitalizzati;
• oggetti d studio nativi digitali.

Lo studio dei nuovi media e della cultura digitale in generale dovrebbero smettere di occuparsi delle possibilità offerte
dal passaggio all’inchiostro ai bit, e cominciare a indagare come la ricerca applicata a Internet possa ampliare i propri
orizzonti oltre lo studio della cultura digitale. L’obiettivo finale è rielaborare tali metodi per applicarli alla ricerca su
Internet, sviluppando un nuovo campo di studi→ metodi digitali.
I metodi impiegati finora sono serviti essenzialmente a criticare l’idea che Internet fosse una sorta di regno virtuale a sé
stante, emersa negli anni Ottanta. Steve Jones, invitava i ricercatori a superare la visione di Internet come mondo a sé
stante, aprendo il dibattito sulla questione del metodo. Se le scienze sociali non si limitassero a studiare Internet secondo
gli approcci finora associati a esso si aprirebbero nuove possibilità per la ricerca: concetto di cyberspazio: luogo in cui
gli “abitanti” esperiscono la possibilità di trasformare le proprie identità indipendentemente dalla loro collocazione
geografica nel mondo reale.
Un’altra svolta è data dalla ricerca Virtual Society che demistificò le presunte capacità trasformative del cyberspazio
attraverso studi empirici sugli utilizzatori della rete. La ricerca si concluse con la formulazione di “ cinque leggi della
virtualità”. In una prospettiva che oggi coincide con la digital divide, i ricercatori affermarono che l’uso dei nuovi media
è basato sulla situazione dell’utilizzatore e che rischi e paure sono distribuiti in modo ineguale.
Per quanto riguarda la relazione tra reale e virtuale, la ricerca smentì i timori che le interazioni virtuali inducessero
isolamento e solitudine, dimostrando che le interazioni virtuali si aggiungono ad esse. Infine mostrò che le identità hanno
radici sia nel mondo online che in quello offline. La ricerca si basa su metodi caratterizzati come virtuali, come una
strumentazione specifica per studiare gli utenti della rete: sondaggi, interviste, osservazione e osservazione partecipante.
Anche nelle scienze umane, gli studi hanno affrontato la questione della divisione tra reale e virtuale, cercando di
dimostrare e criticare il ruolo della reputazione nella cultura online.
La tesi: è che i metodi virtuali e gli studi sugli utenti sviluppati dalle scienze sociali e umane abbiano ignorato i dati del
medium, precludendosi così la possibilità di allargare il campo di studio ben oltre la cultura online.
Fino ad oggi, gli studi sull’utente si sono basati su metodi che privilegiano l’osservazione, le interviste e i questionari; la
causa risiederebbe nella differenza tra gli strumenti informatici di rilevamento di cui dispongono: da un lato le scienze
sociali e umane, e dall’altro quelli delle grandi campagne commerciali, che sono in grado di ottenere notevoli risultati
nell’ambito della raccolta dati.
I dati prodotti dagli utenti vengono registrati e analizzati per offrire risultati “su misura”; l’obiettivo del metodo cultural
analytics è costruire massicci strumenti di raccolta, stoccaggio e analisi di dati per la digital humanities. Una delle
caratteristiche di svolta metodologica è la sua netta presa di distanza dall’affidabilità degli accessi ad alcune database
commerciali.
L’approccio cultural analytics è stato fondato da Manovich, le “visualizzazioni dovrebbero essere progettate per
approfittare pienamente del più grande schermo murale a gigapixel disponibile”. I progetti di ricerca in un certo senso
cercano di rispondere alla domanda: “Che cosa farebbe Google?”: si parla di googolizzazione, influenza crescente del
modello di business e dell’estetica di Google nell’industrie dell’informazione e della conoscenza. Il luogo di accesso
delle informazioni si sta spostando dagli scaffali delle biblioteche ai server commerciali. I cosiddetti “ effetti google”
sono effetti mediatici: possono essere considerati in termini di sostituzione della navigazione con la ricerca di
informazioni, oppure sotto il profilo dell’importanza crescente dell’algoritmo di ottimizzazione a cui corrisponde il
declino del redattore esperto. Tuttavia, tali effetti possono essere studiati come modelli di ricerca, i quali cercano di
replicare la scala della raccolta dei dati così come dell’analisi.
Gli strumenti online e i software installati sui computer registrano l’attività quotidiana dell’utilizzatore attraverso
l’interattività della registrazione; le cronologie dei broswer possono diventare un mezzo per studiare i modi in cui gli
utenti usano internet. La tesi principale è che la raccolta dati trarrebbe beneficio da una riflessione su come alcune
tecniche informatiche possano essere utilizzate a fini di ricerca.
Internet può essere utilizzato come luogo di ricerca per studiare molte altre cose oltre alla cultura online, come
diagnosticare il cambiamento culturale e le condizioni social attraverso Internet. La base concettuale è il riconoscimento
di Internet non solo come oggetto, ma come fonte.

Seguire il medium: fare ricerca con metodi digitalizzati


La ricerca su Internet è spesso confrontata con oggetti di studio instabili; questa instabilità è spesso associata al carattere
effimero dei siti web e alle difficoltà connesse ai tentativi di fissarli. La questione è come renderli permanenti in modo
che possano essere studiati con attenzione. L’archiviazione è continuamente confrontata con il problema di registrare i
siti web e contemporaneamente mantenerli “vivi”.
Il problema dell’instabilità va oltre quella della preservazione, lo studioso di internet è spesso colto di sorpresa dai
cambiamenti improvvisi del medium. La pratica di seguire il medium si pone all’opposto dei tentativi di stabilizzarlo e
potrebbe essere definita con il termine: scooping. Il sociologo della scienza Lynch ha applicato questa espressione alla
situazione in cui i soggetti di una ricerca giungono alle stesse conclusioni dei ricercatori e le rendono pubbliche per
primi; il risultato è che i soggetti della ricerca riconfigurano il campo in cui precedentemente avevano pensato di situare
il nostro studio.

Esempio: giardino recintato: è un sistema a cerchi concentrici, un utente deve aprire un account per poter accedere al
sito, deve chiedere e ottenere l’amicizia degli altri utenti per vedere i loro profili ed deve cambiare le impostazioni della
privacy per permettere agli amici degli amici di vedere il profilo privato.

A livello teorico, seguire il medium è una forma particolare di ricerca medium-specific, cioè specifica del medium; essa
non riguarda solo la suddivisione disciplinare degli studi sui media secondo l’oggetto di studio principale, ma si riferisce
anche alla differenza ontologica dei media. Secondo Mc Luhan, ogni medium ha una specificità legata al modo in cui
entra in relazione con i sensi.
Per Raymond Williams, la specificità risiede nelle forme che assumono, le quali sono modellate dagli attori dominanti
per servire determinati interessi; i media non si differenziano a priori, ma possono essere differenziati da chi li produce.
Per Hayles, i media si caratterizzano per la loro materialità, l’analisi che propone un’analisi medium-specific basata su
uno studio comparativo dei media, che consideri le esemplificazioni materiali delle caratteristiche di un certo medium e
analizzi la loro presenza negli altri. Quindi la ricerca consiste nello studiare se i tratti caratteristici di un medium siano
presenti anche negli altri media.
La specialità del medium di Rogers riguarda il metodo sia nel senso degli strumenti preferiti per studiare un particolare
medium, sia nel senso dei metodi del medium stesso. Sul web l’informazione, la conoscenza e la socialità sono
organizzati da sistemi da raccomandazione, algoritmi e script che preparano e servono gli ordini etc; i metodi del web
non ancora interrogati dalla ricerca sono anch’essi degni di essere studiati, sia in se stessi che per gli effetti che
producono sugli altri media. Quindi si deve studiare come questi oggetti vengano utilizzati all’interno del medium e
imparare dal metodo utilizzato dal medium stesso.

Il Link
Ci sono almeno due approcci principali allo studio dei link:
1. teoria dell’ipertesto (hypertext literary theory): per gli studiosi del ipertesto, insieme di link ipertestuali creano
una moltitudine di percorsi distinti all’interno del testo: scegliendo un percorso attraverso una serie di clic,
l’utente dell’ipertesto diventa in un certo senso autore di una storia. Si interessano ai nuovi strumenti
dell’autorialità, sia alla storia raccontata navigando attraverso i link;

2. teoria delle reti sociali (social network theory): per i teorici del “piccolo mondo”, i nodi che formano una
traiettoria o del percorso, gli studiosi delle reti sociali si concentrano su come i legami unidirezionali o
bidirezionali posizionino gli attori sociali. I ricercatori hanno elaborato un vocabolario specifico per definire la
posizione di un attore, la sua centralità all’interno di una rete.

I motori di ricerca trattano i link secondo un approccio che si potrebbe definire scientometrico, essi si interessano alla
posizione dell’attore, ma non necessariamente in termini di distanza dagli altri attori o di come un attore possa essere
raggiunto attraverso la rete. I nodi sono indicatori di reputazione e definiscono la posizione dell’attore.
Il profilo degli attori può essere delineato non solo attraverso la quantità di link ricevuti e la quantità ricevuta a loro volta
da altri attori, secondo l’algoritmo base del motore di ricerca, ma anche esaminando il tipo di link ricevuti ed inviati. La
definizione di un attore in base ai link in entrata e in uscita permette di notare che ci sia qualche divergenza dalla norma e
più generalmente se alcuni particolari link in entrata dicano qualcosa sulla reputazione sull’attore.
Il problema è come costruire un campione di siti web secondo un metodo che segue il medium, imparando dal modo in
cui funzionano i motori di ricerca, attraverso l’analisi dei link, e adeguandolo alla ricerca sociale: metodo
campionamento dinamico dell’URL, per sottolineare la differenza tra la compilazione manuale di una lista di URL e le
tecniche più automatizzate per individuare URL significativi. I nuovi siti trovati vengono, attraverso questo metodo,
verificati attraverso statistiche di connessione per determinare se essi siano bloccati nei vari paesi.

I siti web
La maggior parte dei metodi usati per lo studio dei siti web si colloca “ sopra la spalla”: il ricercatore osserva i soggetti
mentre navigano o usano un motore di ricerca e poi pone loro una serie di domande.
Una delle tecniche più usate in quello che potrebbe essere definito un classico approccio registrazionale: eye tracking,
mentre un sito si carica, gli occhi del navigatore si muovono verso l’area superiore sinistra dello schermo “triangolo
d’oro della ricerca”. Le mappe di colore che ne risultano forniscono indicazioni utili per migliorare l’ergonomia del sito,
e per valutare il valore delle diverse sezioni della pagina a scopi pubblicitari.
Un altro filone dominante negli studi dei siti web è l’analisi delle funzionalità, per cui i siti vengono paragonati e
contrapposti in base al livello di interattività, agli strumenti di feedback per utilizzatore. I siti vengono archiviati per
essere in seguito analizzati approfonditamente; uno dei compiti cruciali è la riflessione sui mezzi attraverso cui i siti
vengono registrati e immagazzinati in modo da rendere accessibili i dati su cui sono basati i risultati della ricerca: Digital
Method si interessa specificatamente ai siti web in quanto oggetti archiviati, resi accessibili nel modo più rapido
attraverso la Wayback Machine dell’Internet Archive, essa permette di studiare l’evoluzione di una singola pagina nel
corso del tempo, raccogliendo per esempio una serie di immagini della pagina nelle date in cui è indicizzata. L’Internet
Archive, può essere usato in altri modi, Digital Method ha elaborato uno strumento per ricostruire la storia dei siti,
registrando le immagini delle pagine e poi montandole in un film. → timelaps.

I motori di ricerca e le sfere


I motori di ricerca vengono studiati in ambito giuridico, soprattutto sotto il profilo delle leggi che riguardano la
conversazione dei dati e del modo di applicarle delle ricerca online.
Un altro filone viene rappresentato dal neologismo googolizzazione, è la critica di matrice politico-economica, che
considera come il modello di Google, ovvero la fornitura di servizi gratuiti in cambio di dati con cui costruire un profilo
dell’utente, possa diffondersi alle varie industrie culturali. Vi sono due punti di vista:
1. front-end: include le politiche di informazione dell’interfaccia;

2. back-end: riguarda l’aumento di importanza dell’algoritmo che raccomanda le fonti in modo gerarchico, sia
sulla base di quello che più utenti hanno cliccato o letto, che sulla base della cronologia di lettura individuale.

Il modello di Google si basa inoltre sull’interattività di registrazione, in cui le preferenze e le cronologie sono registrate,
immagazzinate e utilizzate sempre di più per fornire risultati “su misura”.
I motori di ricerca, principali porte d’accesso del web, sono macchine epistemologiche nel senso che percorrono i
contenuti, li indicizzano, li memorizzano e li ordinano gerarchicamente. È necessario chiedersi se i motori di ricerca
pongano queste diverse definizioni della realtà fianco a fianco, o se al contrario i loro risultati tendano ad allinearsi alle
definizioni ufficiali o comunque dominanti: analizzare cronologicamente i risultati quelle queries operate sui motori di
ricerca potrebbe rispondere a questa domanda.
È importante sottolineare che i primi risultati di una query sono poi quelli più cliccati dagli utenti; per questo motivo le
organizzazioni fanno largo uso delle tecniche di ottimizzazione per i motori di ricerca, in modo da incrementare la
visibilità dei propri siti; ci sono diverse tecniche: white hat, accettate dai motori di ricerca; black hat, che li obbligano a
eliminare alcuni siti affinché questi non si adeguano nuovamente alle regole.
Per quanto Google possa essere dominante, esistono anche altri motori di ricerca che sono leader in particolari sezioni o
sfere del web. La radice -sfera contenuta nel termini blogosfera, richiama idealmente la sfera pubblica, ma suggerisce
anche la forma geometrica, in cui tutti i punti della superficie sono alla stessa distanza dal centro. Questa evoca un ideale
egualitario, per cui ogni blog o addirittura ogni fonte di informazione, è raggiungibile dal centro di altre e ricevono la
maggioranza dei link e di visite.
Secondo il principio secondo cui “il ricco diventa più ricco”, i siti che stanno ricevendo attenzione tendono a riceverne
sempre di più; la distanza tra il centro e gli altri nodi della rete può solo crescere. L’analisi delle sfere è un metodo
digitale per misurare e imparare dalla distanza tra due fonti in diverse sfere del web.
Nell’analizzare una sfera bisogna considerare quali fonti siano più influenti, non solo complessivamente, ma anche per
ciascuna query. L’analisi comparata delle sfere mette a confronto le fonti che ciascuna sfera rimanda per la stessa query,
quindi può essere considerata una classificazione comparativa del ranking. Con questo tipo di analisi è possibile studiare
quali siano le fonti che tendono a porsi al centro di una sfera e non di altri, come cambi la qualità di internet attraverso la
comparazione di diverse sfere o cosa queste rivelino sull’attitudine all’informazione in particolari culture.
Web nazionali
I protocolli e i principi su cui si basa Internet rafforzarono inizialmente la nozione di cyberspazio come luogo libero da
costruzioni fisiche. Il fatto che internet non sia influenzato dalla posizione geografica contribuì a generare l’idea
dell’assenza di luogo: la stessa architettura è costituita da uno spazio slegato dagli Stati-nazione e dalle loro diverse
attitudini verso i flussi informativi.
Per studiare il web su scala nazionale si possono anche usare i dati che vengono raccolti di routine attraverso il servizio
Top Sites che assume dati sui siti più visitati più frequentemente nei diversi paesi e cosa rivelino questi dati rispetto alla
cultura informativa di un certo paese.
L’Internet archive è stato concepito per il surfing, un tipo di uso di internet che probabilmente ha dato origine alle queries
sui motori; nella Wayback Machine, si può inserire un URL, vedere quali siano disponibili e consultarle.

Studi post demografici sui social media


I social network offrono molte opportunità alla ricerca sociale. Un altro approccio, basato sulle scienze informatiche,
cerca di utilizzare l’enorme mole di dati che le persone hanno messo online nei loro “profili”: le informazioni personali
di ciascun profilo comprendono dati demografici, ma anche informazioni post-demografiche come gli interessi, i gusti
musicali, i libri e i programmi. Mentre la ricerca dell’opinione pubblica è stata a lungo associata ai sondaggi, oppure agli
indici di ascolto e di gradimento nel caso degli studi sull’audience televisiva, le informazioni contenute nei profili sui
social network potrebbero fornire una prospettiva diversa sulla composizione e le caratteristiche del pubblico.

Wikipedia e il contenuto creato dalla rete


Wikipedia introduce i concetti di:
• contenuto realizzato dalla rete: contenuti mantenuti da autori umani e da strumenti non umani, come bot,
software di allerta, che ripristinano la versione originale di una voce modificata senza permesso o notificano alla
community wikipediana i cambiamenti che vengono apportati;

• tecnicità del contenuto: si focalizza sul bot, uno strumento trascurato dalla maggior parte delle analisi di
Wikipedia, per lo meno dagli studi che si sono concentrati sulla vigilanza della massa.

Wikipedia è un insieme di attività ed eventi realizzati da una rete, ognuno dei quali viene registrato e reso disponibile
sotto forma di vasti insieme di dati; essa possiede una riflessività intrinseca, dal momento che rende visibili le varie fasi
di elaborazione di ogni articolo, caratteristica che è assente nelle enciclopedie tradizionali e più generalmente nella
maggior parte dei lavori finiti. Rende possibile studiare l’evoluzione di un articolo: i materiali disponibili sono la
cronologia delle revisioni a cui quella voce è stata sottoposta. (localizzazione delle modifiche).

La fine del virtuale: territorializzare le asserzioni online


L’epistemologia del web studia come gli oggetti nativi digitali vengano utilizzati dai dispositivi. I risultati di tale studio
portano a importanti distinzioni metodologiche e alla comprensione degli scopi della ricerca su Internet. Per quanto
riguarda la distinzione metodologica, i metodi correnti di Internet possono essere distinti tra:
• quelli che seguono il medium: tecniche maggiormente utilizzate per produrre e ordinare l’informazione, la
conoscenza e la socialità;

• quelli che rimediano o digitalizzano metodi preesistenti.

La scelta dell’uno o dell’altro può avere conseguenze importanti sui risultati della ricerca: una delle ragioni dell’impasse
in cui trovano oggi gli sforzi per l’archiviazione del web è la scelta di un metodo digitalizzato a scapito di uno digitale,
come quello utilizzato nel progetto originale dell’Internet Archive, dove venivano registrati i siti visitati dagli utenti.
Viene utilizzato il termine “metodi digitali” in modo che i ricercatori possano considerare il valore i risultati di un
approccio rispetto ad un altro. La ricerca che ha per oggetto Internet non deve essere limitata alla cultura online e ai suoi
utenti. Accantonata l’opposizione tra reale e virtuale, Internet può essere pensato come fonte di dati che forniscono
informazioni sulla società e cultura. Raccogliere e analizzare questi dati per la ricerca sociale richiede non soltanto un
nuovo sguardo su Internet, ma anche nuovi metodi per confermare i risultati.

IL LINK E LA POLITICA SPAZIO WEB


Per analizzare le questioni politiche legate allo spazio del web, è utile ripercorrere i modi in cui questo spazio è stato
concepito nel corso del tempo e le diverse forme di mobilitazione politica associate dalla sua rappresentazione spaziale.
Nel periodo web inteso come iperspazio, quando generatori casuali di siti web invitavano gli internauti a saltare da un
sito all’altro, la cartografia era realizzata tramite i link in entrata e presentava i siti uno di seguito all’altro, mostrando le
diverse “politiche di associazione”, attraverso le pratiche di linking di istituzioni, aziende e organizzazioni non
governative.
Nel periodo “neo pluralista”, quando il web era considerato sfera pubblica, le mappe circolari fungevano da tavole
rotonde virtuali; man mano che Internet veniva concepito come una serie di reti sociali piuttosto che come un insieme di
nuove sfere pubbliche, le mappe dei cluster permettevano di evidenziare degli “spazi tematici”, in cui gruppi di attori
impegnati sulla stessa tematica apparivano in posizione più o meno centrale marginale.
Nel periodo, attuale, della localizzazione, ovvero della rivincita geografica, le mappe sono in grado di mostrare la
distribuzione geografica della mobilitazione politica. Gli attori in rete hanno solo una sede temporanea e viaggiano
fisicamente da un evento all’altro.

La morte del cyberspazio


I software web conoscono la localizzazione geografica di ogni utente e agiscono di conseguenza. Se da un lato la
funzione IP-to-geolocation del motore di ricerca può essere considerata come un tentativo pratico e commerciale, per
connettere gli utenti con la lingua e le pubblicità locali, dall’altro può essere interpretata come segno del declino del
cyberspazio, in quanto spazio senza luogo.
Con l’avvento del web degli strumenti consapevoli della localizzazione geografica, il cyberspazio diventa un’esperienza
di rientro, dal momento che l’utente viene riportato a casa di default.
La morte dello cyberspazio ha delle conseguenze per chiunque voglia studiare la storia dello spazio web. Il fatto che il
web conosca la posizione dell’utente ridefinisce non soltanto lo spazio online, ma anche lo spazio della cybergeografia: il
mondo online mette in primo piano la localizzazione, ponendo fine alla cyberogeografia intesa come approccio
tipologico alla rappresentazione della forma e dello spazio online.
La cartografia dello spazio online tuttavia non è solo vincolata al fatto di concepire il cyberspazio come uno spazio fisico
attraverso cui è possibile navigare, bensì riflette i modi di vedere la politica sul web, permettendo di studiarla attraverso i
nuovi media. Collegarsi a siti che esprimono le stesse opinioni, aderire a un insieme di siti connessi tra loro tramite link o
installare un crawler e un dispositivo di visualizzazione grafica per evidenziare la dimensione di un movimento
interconnesso o di una rete collegata a una tematica: tutte queste azioni creano e mappano la politica sul web.
Alcuni studi hanno utilizzato le coordinate della carta geografica: l’infrastruttura base del root server di Internet e i flussi
di traffico che lo attraversano sono stati rappresentati rispettivamente con punti e linee su mappe di Mercatore; le
cartografie possono essere realizzate per visualizzare diverse questione politiche: ad esempio, le mappe del traffico in
Internet mostrano le politiche economiche di ingegneria della rete. (fig. pgg 76-77)
La rappresentazione geografica che permette di visualizzare le questioni politiche online è meno significativa delle
politiche che emergono dalle connessioni di qualunque natura sia questo legame.

Notti stellate: collegare singoli siti web uno all’altro nel periodo dell’iperspazio
La visione del web come universo coincide con l’idea del web, diffusa nei primi anni della sua esistenza, come un
iperspazio in cui era possibile saltare da un sito all’altro, coprendo distanze enormi e sconosciute: il primo web sembrava
portarci in “nuove dimensioni”. (next blog)
Oltre ad analizzare il traffico su Internet e a costruire le mappe di localizzazione dei server, lo studio dei link serve a
radicare lo spazio del web, nonché a situare gli utenti nello spazio geografico. Negli anni Novanta si ebbe un’importante
intuizione: i siti web costruivano i link in modo selettivo piuttosto che casuale; c’è sicuramente un certo grado di scelta
nel predisporre o meno un link a un certo sito, oppure rimuoverlo, possono essere visti come atti di associazione, non
associazione o dissociazione. Questa professionalizzazione delle pratiche di linking si può osservare anche i nei link
diversi nei presenti domini. (siti istituzionali legati a altri siti istituzionali).
Man mano che i collegamenti casuali hanno ceduto il passo a quelli mirati, la cartografia dei link tra singoli siti web ha
permesso di far emergere il loro significato. Attraverso i link, le connessioni tra siti professionali, culturali e di
organizzazioni emergevano in quanto legami densi di significato. Nella cartografia pre-rete, ogni sito era analizzato
singolarmente per valutarne la reputazione e la relazione con altri siti.
Secondo il principio che non tutti i link si equivalgono, nell’analizzare la “diplomazia dei link”, questi sono stati
classificati come:
• cordiali: sono i più diffusi, sono collegamenti che rinviano a progetti partner rispettate;

• critici: stanno scomparendo, spesso rilevati nei siti delle ONG;

• aspirazione: sono di solito di piccole organizzazioni verso i siti di entità riconosciute, il più delle volte nel
tentativo di affiliarsi ad esse o a riceverne finanziamenti.

Questi insieme di siti collegati tra loro attraverso i link divennero noti come “spazi”; l’approccio “delimitante”, che
considera lo spazio come definito e organizzato da atti di associazione, ebbe un’altra importante conseguenza: segnò una
censura netta con il concetto di cyberspazio, suggerendo che le pratiche di linking ne smantellassero l’apertura illimitata,
un concetto che aveva dato vita a quello di “assenza di luogo” e di conseguenza “spazio senza luogo”.

Dalla politica dei percorsi di navigazione all’autorità della lista


Tra la fine degli anni Novanta e i primi anni Duemila le principali visualizzazioni che vennero analizzate erano la
ThinkMap Visual Thesaurus di Plum Design e la Web Stalker, seguita poco dal Google Browser di Touch Graph; si
tratta di grafici non direzionali il che significa che gli elementi o nodi, vengono associati attraverso linee che li uniscono,
senza specificare se si tratti di associazioni uni o bidirezionali. Questo tipo di grafici derivano da un modello di percorso
del web, che si ritrova anche nei browser, nelle frecce che servono per avanzare o tornare indietro e inducono a pensare
che ogni link sia direzionale.
Inoltre, i grafici non direzionali fanno pensare al web come a un “piccolo mondo”, in cui le distanza tra i siti sono
misurabili e possono essere descritte in termini di gradi separazione. Quindi le mappe di link erano concepite come
mappe di percorsi di navigazione che mostravano la distanza tra siti ufficiali e non ufficiali.
Considerare il web come insieme di percorsi non è una forzatura, dal momento che si può andare da una pagina all’altra
e utilizzare i pulsanti del browser, o la cronologia di navigazione, per rintracciare il percorso di un utente.
I link bidirezionali sono effettivamente meno frequenti di quelli unidirezionali, i ricercatori hanno identificato delle
pratiche politiche nei loro percorsi: considerare ogni link come bidirezionale aveva come conseguenza ad esempio che il
sito di un ministero tedesco venisse accusato di essere collegato a un sito gigolò.

È stata la percezione delle implicazioni politiche dei percorsi di navigazione che ha indotto i siti governativi a rifiutare i
link esterni: un utente dovrebbe essere informato che sta uscendo da un sito, e il link che permette di uscire non dovrebbe
essere considerato come un segno di adesione ai contenuti del sito in arrivo.
Gli algoritmi del motore di ricerca più diffuso, invece, trattano i link in uscita come segni di adesione più che come tappe
di un percorso; essi sono considerati globalmente come misure di autorevolezza del sito a cui rinviano.
Con le directory e i motori di ricerca, il web è diventato uno spazio di liste esperte create dagli strumenti, la cui
preoccupazione principale è “costruire una lista”. Per quanto riguarda i motori di ricerca le liste vengono generate sulla
base dei link che collegano i siti tra loro, e la posizione di un sito all’interno di una lista dipende da quanti link riceve da
altri siti che l’algoritmo considera autorevoli.
Abbandonati lo storytelling e l’idea di percorso attraverso il web derivante dalle teorie letterarie sull’ipertesto, si entrava
nell’ambito dell’informazione: le politiche dei motori di ricerca divennero un campo di studio preponderante.
Dal momento che i link organizzavano sempre più il web è importante ricordare come fosse possibile rintracciare ed
eventualmente rappresentare i link, in modo leggere attraverso di essi. Alla fine degli anni Novanta i link, definiti “in
entrata” o “in uscita”, non erano visibili chiaramente all’interno dei siti. Ovviamente i link in uscita erano visibili se
presenti sotto forma di liste; trovare un senso ai link in entrata richiedeva, invece, l’uso della ricerca avanzata di un
motore di ricerca o dei log del sito, oppure di un crawler.
Prima della creazione del trackback, una funzione sviluppata nel 2002 per il software di blogging Movable Type, che
permette di pubblicare i link ricevuto all’interno di un post, i link in entrata non erano all’ordine del giorno nell’agenda
della ricerca. Pochi ricercatori che studiavano le politiche del web riuscivano ad analizzare questo tipo di link,
utilizzando dei crawlers sviluppati appositamente, che li rilevavano percorrendo una serie di siti: i link in uscita di un sito
venivano ricostruiti a partire dai link in entrata di altri siti.
L’analisi attraverso i crawlers di grandi insiemi di siti su una particolare area tematica o un particolare argomento ha
prodotto le cartografia di rete menzionate in precedenza.
Più recentemente, sul web, nella blogosfera, si sono sviluppati alcuni strumenti come le piattaforme che consigliano le
pagine contando i link in entrata, oppure quelle più spedite via e-mail da lettori ai loro contatti, fornendo ulteriori
tipologie di indicatori di autorevolezza e meccanismi. L’abbandono dell’idea del web come cyberspazio e dei
mappamondi politico-geografici dei web, cartografati e non, per concentrarsi sui link in entrata come segno
dell’importanza di una pagina è stato un cambiamento importante nella definizione dello spazio web.
Per avere informazioni sull’autorità di un sito si prendevano in conto i link in entrata; per chi si preoccupava
maggiormente delle politiche delle spazio web, il compito dei link in entrata, e il modo in cui veniva effettuato, facevano
sorgere questione che andavano oltre l’esclusione o inclusione nei risultati forniti dai motori di ricerca. Lo spazio web
ordinato dai motori di ricerca non è più classificato da esperti; le aziende che gestiscono i moti di ricerca impiegano degli
“ottimizzatori”, spesso studenti, che verificano dei campioni di risultati delle queries per determinare se rispondono alle
aspettative.
Lo spazio dei motori di ricerca e la nuova politica della sfera
Le concezione della spazio web e del modo in cui è organizzato devono oggi tenere conto del fatto che i motori di ricerca
sono sfere delimitanti e che i proprietari dei siti devono cooperare con essi per essere inclusi in una sfera. Inizialmente
l’analisi delle sfere del web non si riferiva allo spazio dei motori di ricerca, ma piuttosto a una raccolta meticolosa di siti
tematicamente collegati, su cui compiere analisi.
Oggi, gli algoritmi dei motori di ricerca e il comportamento dei proprietari dei siti cooperano sempre più alla costruzione
delle sfere, non è più consigliabile utilizzare Google per cercare post recenti sui blog o news recenti, perché il web è
organizzato in sfere separate.
Le conseguenze del comportamento dei proprietari/amministratori e degli utenti dei siti hanno piuttosto a che fare con la
moltiplicazione dello spazio web. Ad esempio, i commentatori della blogosfera tendono a non nominare i loro link in
modo gestibile per gli algoritmi dei motori di ricerca più popolari e di conseguenza, i link contenuti in questi commenti
di solito non vengono computati dai motori di ricerca, il che significa che esiste una gerarchia tra i link.
Quando un motore di ricerca non è in grado di gestire il comportamento del proprietario/amministratore del sito e/o
dell’utente in un nuovo spazio, il web si trasforma in una serie di sottospazi. Per esplorare la websfera, blogosfera,
l’infospera, ossia gli spazi folksonomici si devono utilizzare motori di ricerca specifici: per il web, per i blog, per le
news; ognuno di questi poteri di ricerca utilizza diversi meccanismi per privilegiare determinate fonti a scapito di altre,
attraverso diverse combinazioni di autorevolezza e di aggiornamento.
Lo studio della politica dello spazio web ormai è trasversale, e analizza come lo stesso sito si posiziona tra i risultati di
queries effettuate nelle diverse sfere, ciò solleva domande sugli effetti dei nuovi media che sono congiunti al potenziale
neo pluralista del web, desunto dalla teoria della sfera pubblica (se una persona sia meglio informata ed esposta a più
punti di vista, a seconda che svolga le sue ricerca principalmente nella sfera del web, nella sfera dell’informazione
giornalistica, nella blogosfera o nella tagosfera).

Cartografia delle reti e analisi multiple dei siti


Pensare il web come uno spazio di rete ha richiesto inizialmente un cambiamento nella comprensione delle realtà che
esso aveva da offrire, l’informazione proviene dal web non viene più considerata proveniente da una dimensione virtuale
o degna di un particolare status.
Nell’opinione sociale più diffusa, uno degli scopi di cartografare le reti sul web è rendere visibile ciò che è nascosto,
rivelare le strutture profonde delle relazioni, indagare le connessioni. La concezione del web come uno spazio che può
rivelare una rete sociale, unita al ritorno dell’informalità, ha dato vita a uno sguardo indagatore. Non ci si riferisce solo
progetti per rivelare reti vecchi amici, ma anche a quelli basati sulla quotidianità del web, la sua vicinanza alla
dimensione fattuale ed empirica, incluso il cosiddetto fact-checking, espressione dello spirito probatorio della blogosfera
politica. Ricerca di informazioni nascoste, data-mining e verifica sono forme di mappatura delle tracce digitali.
È importante sottolineare la capacità del web di mostrare una cultura politica configurata, professionale e pubblica, il
web inteso come spazio di dibattito, grande conversazione o tavola rotonda virtuale non ha trovato riscontro empirico nei
risultati della nostra ricerca. In genere le organizzazioni esprimono i propri punti di vista su un tema nel proprio sito web,
mentre i forum e altri spazi di dialogo non vengono usati per costruire un dibattito tra le parti. Il web non sostituisce un
luogo fisico o un evento i cui gli attori del dibattito possono incontrarsi di persona.
Al calo dell’interesse verso gli approcci deliberativi dello spazio web politico è corrisposto un apprezzamento per le
forme di politica di rete, in particolare quelle che possono essere viste configurazioni di attori transnazionali ed
estremamente mobili, che in un certo senso si fondano sulla rete. I temi globali sembrano trovare casa nelle tipiche
dimensioni discorsive, come conferenze internazionali. Mappare il web è diventato quindi un mezzo per fissare la
mobilità degli attori all’interno delle reti, oltre che per interrogarsi sull’estensione della mobilitazione e dell’attenzione
pubblica.
In questa prospettiva i movimenti non sono emergenze spontanee, come nel concetto di smart mob, ma piuttosto
fenomeni infrastrutturali: un’idea che sembra suggerire che le reti siano semplicemente in attesa di contenuto politico,
come i siti web in costruzione.
Lo nozione di attori fondata sulle reti, piuttosto che sulle istituzioni o altri contesti radicati nel mondo fisico, solleva il
dubbio che essi si ricordino di cosa stia accadendo sul campo. Attualmente le difficoltà maggiori nella cartografia delle
reti politiche dello spazio web riguardano il modo in cui le mappe reti costruite intorno ad uno specifico tema possano
rappresentare non tanto quello che accade offline, quando offnetwork, al di fuori della rete analizzata.

Questioni per lo studio della politica nello spazio del web recente
Si può considerare il web come spazio di reti cartografabili da software. Tuttavia le mappe, a cui Rogers si riferisce,
ricostruiscono le reti in modo che spesso si differenziano dai modelli infrastrutturali di rete che le hanno precedute, in
particolare quello teorizzato da Paul Baran negli anni Sessanta, che distingue reti centralizzate, decentralizzate e
distribuite, oppure quello delle reti a catena, a stella e multicanale, sviluppato dagli esperti di studi sulla sicurezza John
Aruilla e David Ronfeldt negli anni Novanta. Ogni distribuzione spaziale riconfigura la rete come spazio per compiere
un lavoro che non sia semplicemente mantenere efficace un flusso comunicativo o reagire a un comando eseguendo delle
operazioni.Questi spazi si sono basati non solo sulla fisica della mappa di rete, ma anche sulla metafisica della sfera non
geometrica.
Uno degli obiettivi dell’analisi era la distinzione cronologica tra concezioni dello spazio web. Nel primo periodo, quello
dell’iperspazio, precedente ai motori di ricerca, i link spingevano i cosiddetti cybernauti in altre dimensioni attraverso
link casuali oppure offrendo la funzione next blog, ancora più presente.
Con i primi mappamenti del cyberspazio (anni Novanta), la rete ha assunto contorni più definiti, il web non era più
descritto in termini di matrici e corridoi, ma di territori e isole, mescolando mappe ad albero e disegni di linee costiere.
Quando comparvero i software per cartografare lo spazio web, si realizzò l’auto-spazializzazione, da principio grazie a
un motore di ricerca che effettuava una sorta di analisi scientometrica delle reti.
L’ascesa di Google può essere considerata come trionfo della scienza delle reti su altre discipline, ma l’introduzione dei
grafi ha a sua volta interferito con le rappresentazioni basate su mappe circolari e sul concetto delle tavole rotonde
virtuali. L’uguaglianza dell’informazione associata alle liste alfabetiche e l’egualitarismo dei circoli attivisti e delle
tavole rotonde delle ONG sono stati soffocati dalle reti di link.
La svolta della localizzazione, negli anni Duemila, ha segnato la fine del cyberspazio e del virtuale come spazi politici
che contendevano uno status a se stante; da quando il cyberspazio è stato agganciato allo spazio geografico, i tentativi di
conservare la sua sovranità sono stati spinti lontano, verso i dati. L’attuale periodo della localizzazione è caratterizzato
dalla nascita di metodi all’interno degli strumenti del web usati per rivelazioni e scandali, ma anche dal ritorno di
questioni legate all’eguaglianza e alla concentrazione demografica nello spazio web.
La questione non riguarda più semplicemente come i media e studiosi possano proiettare, storicizzare, confermare
empiricamente o smontare le dinamiche della politica nello spazio web, al contrario , il web è sempre più radicato nelle
specificità geografiche e linguistiche attraverso le piattaforme e la gestione dello spazio.
L’addomesticamento di quello che una volta era il cyberspazio sembra riportarci alle questioni classiche, come le
strutture di classe nei social media. In genere le ricerche dell’ultimo decennio sulla politica nello spazio web sono
passate dallo studio di quanto il mondo online fornisca nuove gerarchie a come esso rifletta e ricreai la realtà sociale di
cui fa parte. Quindi l’oggetto di indagine: politica nei diversi spazi del web.
IL SITO WEB COME OGGETTO D’ARCHIVIO
Il sito web archiviato e la predominanza del contenuto
Il singolo sito viene privilegiato rispetto ad altri oggetti o spazi del web, perché è lì che si trova il “contenuto”; il sito è
l’unita fondamentale di analisi del web.
L’archiviazione del web preserva i vecchi media, se è ancora lecito usare questo termine. Infatti, viene archiviato il
contenuto, privato però di molti altri elementi: di solito per salvare il contenuto, gli archivisti devono per così dire
distruggere la maggior parte del sito: esso viene archiviato senza le annotazioni e glosse che sono scritte al suo interno,
anche i banner pubblicitari, che riconoscono il luogo da cui l’utente si connette e che si rivolgono a un particolare settore
di mercato. Solitamente i video contenuti nei siti non vengono salvati nel corso dell’archiviazione, perché come i banner
e gli annunci Adwords sono stati inseriti da un altro fornitore di contenuti, e non vengono registrate le entità che
circondano il sito, come cookies o i siti interconnessi al sito da archiviare. Queste relazioni si instaurano quando il sito si
carica, durante questa operazione un URL breve può rinviare a un URL di destinazione, che mette in funzione uno o più
adservers e i web bugs 1x1, i quali a loro volta piazzano o leggono i cookies e contano i risultati. Nell’esperienza
quotidiana di navigazione queste appendici dei siti non sono visibili che hanno uno specifico obiettivo di ricerca.
Tra tutti gli oggetti digitali, vengono menzionati i cookies e i web bugs, per sottolineare che il problema di dove finisca
un sito fa il pari con la teoria dei media e la storiografia che accompagna la pratica dell’archiviazione.
Il sito web archiviato termina con il contenuto inserito dall’autore; nell’archiviazione tale contenuto viene privato del
sistema di supporto commerciale, del materiale che viene da seconde terze parti.
Tutti gli elementi tipici dei nuovi media non sono resi disponibili per la posteriorità e il sito web archiviato rimane un
contenitore di contenuto tradizionale, in un certo senso frantumato (mancante di pezzi).

Navigare nel web nel passato


Brügger afferma che, a differenza di altri media ben noti, Internet non esiste semplicemente in una forma che si presta
all’archiviazione, ma è piuttosto costruito come un oggetto da studiare nell’archiviazione, ed è costruito in maniera
diversa a seconda di chi, quando e con quali scopo le archivi.
L’aspetto fondamentale è che un “archivio web”, in quanto oggetto costruito dal processo di archiviazione stesso
incorpora particolari preferenze sui modi in cui utilizzarlo e sul tipo di ricerca che rende possibili. È quindi necessario
chiedersi quali pratiche di ricerca siano incoraggiate e quali siano precluse dalla forma specifica dell’Internet Archive.
Quando gli utenti abituati ai normali motori di ricerca utilizzano l’Internet Archive, quello che risalta è il modo in cui si
possono lanciare delle ricerche attraverso la Wayback Machine; essa fornisce una lista di pagine archiviate associate nel
passato a quel URL, in una tabella a colonne o in una modalità a “calendario”. Accanto alla data, un asterisco indica che
la pagina archiviata è diversa da quella archiviata precedentemente nella versione classica, un aspetto molto importante
per i ricercatori interessati a registrare ed analizzare l’evoluzione di un sito per studiarlo in quanto oggetto archiviato.
L’Internet Archive è nato nel 1996, mentre la Wayback Machine nel 2001. In precedenza i siti web archiviati erano
visualizzabili attraverso la barra degli strumenti di Alexa, che indicava una versione archiviata di un sito era disponibile,
quando si incappava nel famoso “errore 404-pagina non trovata”. In altre parole, la barra degli strumenti di “Alexa” era
la soluzione al problema del link spezzato e della navigazione interrotta. Tutti i mezzi di archiviazione dell’Internet
Archive nella Wayback Machine derivano da un principio di fluidità, che consente di navigare da una pagina all’altra
senza interruzione e preserva anche Internet in quanto cyberspazio, in cui navigare senza soluzione di continuità, inoltre
la sua struttura permette di sperimentare la storia del web ovvero di navigare nel web del passato. Attraverso i clic, la
Wayback Machine abbraccia in un flusso continuo le interruzioni le pagine non trovate, grazie a quello che si chiama
linking atemporale. I siti collegati uno all’altro possono non condividere la stessa periodicità, un termine usato nei
circoli accademici in cui si studia l’archiviazione del web, con cui si intende una cornice delimitata. Una volta caricate le
pagine disponibili nell’archivio per l’URL richiesto, si può cliccare sulle pagine fornite oltre che su ulteriori pagine di
altri siti. Quando un utente clicca su un link, viene caricata la pagina più vicina alla data d’origine; se non è disponibile
alcuna pagina archiviata, la Wayback Machine permetterà di accedere alla pagina web “viva” (online).

La Wayback machine e la biografia del sito web come metodo storiografico


L’Internet Archive, e soprattutto la Wayback Machine, costituiscono anche anche una forma specifica di storiografia: la
storia o biografia di un singolo sito. Per i ricercatori, l’Internet Archive, ha organizzato la storia del web nelle storie dei
singoli siti web. Con l’attuale forma attuale della Wayback Machine si può studiare l’evoluzione di una singola pagina
nel corso del tempo.
L’Internet Archive è stato utilizzato in processi riguardanti la proprietà intellettuale o infrazioni legate a marchi registrati,
ma anche pratiche come il cybersquatting e il typosquatting; può anche aiutare a recuperare citazioni perdute sulle riviste
legali o mediche online.
La biografia di un sito può essere utilizzata anche al di fuori del campo probatorio, si possono esaminare i registri
pubblici per questioni di proprietà, cominciando dalla nascita di un sito e ricostruendo la sua vita attraverso le
registrazioni documentate sia dalle autorità, che forniscono i nomi di dominio, sia dai registri generali del sito stesso,
ovvero i file di log. I siti hanno una storia e un dominio, che può essere stato venduto o rivenduto, possono essere stati
occupati abusivamente o “parcheggiati”, acquistati ma mai utilizzati; alcuni URL possono avere ospitati i siti che violano
le linee guida dei motori di ricerca, o regole sui contenuti nei paesi che praticano la censura in Internet, ed essere stati
rispettivamente degradati o inseriti nella lista nera.

Un metodo simile, ma di tipo più socio-scientifico, per studiare manualmente i siti è l’analisi delle funzionalità, in cui si
crea un codice crittografico di tutte le funzionalità di un sito, o del maggior numero possibile di esse, e in seguito si
controlla una serie di siti per verificarne la presenza o l’assenza, creando una matrice di funzionalità. I siti vengono
analizzati sotto il profilo della preminenza o dell’oscurità delle funzioni.
Gli studi sui movimenti dell’occhio mostrano che i lettori occidentali sono attratti dalla zona in di un sito situata in alto a
sinistra, per cui la preminenza, può essere considerata in termini di posizionamento all’interno di una pagina, mentre le
funzionalità situate al di sotto delle finestre del browser sono considerate oscura.
Una volta introdotta la variabile temporale in questi e in altri tipi di analisi, la Wayback Machine diventa indispensabile
per ricostruire la biografia di un sito.
La pratica di montare in un film i diversi snapshots di un sito, è istruttiva dal punto di vista della narrazione, che
comincia con la storia globale della crescita e della progressiva professionalizzazione di quella che all’inizio era una
redazione enciclopedia amatoriale, basata su una pratica sottoculturale e prosegue concentrandosi su alcune storie,
inclusa la lotta per editare online la voce heavy metal umlaut.
Tutte le pagine tratte da http://google.com sono state registrate dalla Way Back Machine e inserite in un film e in
infografica. L’analisi si concentra sull’area dell’interfaccia posta sopra la maschera di ricerca, esaminando quali servizi
di ricerca siano stati privilegiati da Google del corso del tempo sui tab della home page, dove la posizione preferita è
sempre quella più a sinistra.
Dalla storiografie biografiche a quelle nazionali basate sugli eventi
L’Internet Archive e la Wayback Machine sono citati: una query su un motore di ricerca a parole produce numerosi
risultati; la grande maggioranza sono citazioni e informazioni o pezzi di letteratura scientifica sui metodi e tecniche
dell’archiviazione del web.
L’infrastruttura di archiviazione del web riceve attenzione sia dagli accademici che dai non accademici, mentre i
materiali non archiviati riscuotono meno interesse. La questione della mancanza di “interesse da parte dei ricercatori
verso gli archivi web” è stata sollevata dagli studiosi di archiviazione del web. Una delle osservazioni più pertinenti
riguarda il tipo di web che andrebbe archiviato prioritariamente nel futuro, in modo che i materiali siano utilizzati.
Secondo alcuni, gli archivi web potrebbero essere più attraenti per gli studiosi delle scienze umane se i siti ivi contenuti
fossero costituiti da materiali digitalizzati. Effettivamente sono stati archiviati siti che contengono principalmente
materiali digitalizzati, ma in questo caso la storia e la storia del web diventano due oggetti di studio separati: il web viene
considerato come uno strumento che rende disponibili i vecchi media.
Costruire archivi web sembra un’attività basata su singoli progetti piuttosto che sulla continuità: se si dovessero definire
in generale le collezioni speciali, si potrebbe affermare che esse sembrano incorporare un secondo metodo storiografico
all’archiviazione del web: storia basata su eventi. (pratica che ormai è diventata consolidata).

Schneider e Foot hanno creato raccolte speciali di siti, iniziando con le elezioni americane nel 2000, ed hanno posto le
fondamenta di una tradizione di archiviazione del web che privilegia le elezioni e le catastrofi naturali e non. Gli eventi
pongono probabilmente le maggiori sfide agli archivisti, e contemporaneamente creano una “febbre archivista” per
l’urgenza di intraprendere l’archiviazione dal momento che la combinazione fra natura effimera del web in generale e i
rapidi cambiamenti dei siti, quando si verificano dagli straordinari in particolare causa una perdita costante di contenuti
per la posterità (se non si agisce subito, i contenuti andranno persi).
Foot e Schneider sono molto esaurienti nella loro definizione di websfera, che non è solo un concetto teorico, ma anche
un metodo e una pratica di ricerca. La websfera è costituita da una serie di risorse digitali definite dinamicamente e
collegate tra loro tramite link, che si estendono a diversi siti web riguardanti un certo tema o oggetto. I suoi confini sono
delimitati da un orientamento condiviso verso un tema o un oggetto, e da una cornice temporale. La websfera è dinamica
in due sensi fondamentali:
1. per l’archivista che individua continuamente nuovi siti o nuove risorse web da includere;

2. perché i siti che la compongono rimandano continuamente ad altri siti che sono di qualche rilevanza.

La websfera è delimitata dal tema e dalla dimensione temporale che può essere considerata come l’estensione temporale
della copertura mediatica o nei termini tradizionali del ciclo di attenzione di cui gode un evento. Il metodo di ricerca per
raccogliere i siti web utilizzato attualmente può essere avvicinato al cosiddetto “campionamento a valanga”.
Gli archivisti trovano gli URL cercando e navigando attraverso i link tra siti web collegati tematicamente; altri vengono
segnalati attraverso il crowd-sourcing, e poi gli archivisti controllano per decidere se includerli nella raccolta. Ai siti
vengono poi attribuiti dei tag, etichette o altri tipi di annotazioni in modo da creare metadati.
La natura radicale di questo metodo di selezione dei materiali da archiviare, ovvero la raccolta che evolve in modo
dinamico, è particolarmente apprezzabile se confrontata con un terzo metodo di archiviazione e di storiografia
incorporata. I costruttori dell’Internet Archive e delle collezioni speciali che usano le websfere stanno cedendo il posto di
principali archivisti del web alle biblioteche nazionali che stilano liste di siti da salvare. Il metodo della websfera avrebbe
come risultato un numero indefinito.
Esistono registri nazionali dei nomi di dominio di ogni paese; dall’altra esistono software in grado di riconoscere
automaticamente la lingua in cui sono scritti i testi di un sito, per cui è possibile differenziare un sito in lingua da un’altra
lingua. Per identificare ai fini dell’archiviazione un sito scritto in una qualsiasi lingua che tratti argomenti riguardanti una
Nazione specifica, è necessaria quindi una lettura da parte di operatori umani.
Normalmente i siti che vengono archiviati sono statali, di istituzioni culturali, nazionali e di università, una sorta di
establishment che non solo lascia fuori coloro che si autoproclamano alternativi rispetto ai siti ufficiali, ma anche una
parte consistente della cultura web.
Uno degli obiettivi della riflessione sulle conseguenze delle pratiche di analisi manuali dei siti riguarda il tipo di web
ottenuto una volta ultimata l’archiviazione, e il tipo di ricerche che è possibile svolgere su di esso e attraverso di esso,
come ho descritto in precedenza in termini storiografici: storie o biografie di singoli siti, storia basata su grandi eventi,
storia nazionale.
La fine del cyberspazio come regno virtuale a sé stante e la comparsa di cornici istituzionali e regolamentari che Internet
hanno avuto conseguenze negative per l’archiviazione, anzi hanno addirittura danneggiato l’Internet Archive. Per
rispondere alla grande quantità di richieste di rimozione dell’Archivio e dalla Wayback Machine, fu deciso di inserire i
file robot.txt, il codice di esclusione dei robot o dei crawlers per indicare che il sito preferiva restare fuori dall’Internet
Archive nel suo complesso. Le richieste di rimozione del proprio sito dall’archivio superano quelle di inclusione.

Rievocare uno stato passato del web


Si è studiato l’Internet Archive, secondo i principi generali dei metodi digitali, cercando di definire come utilizzare il suo
dispositivo di classificazione (Wayback Machine) per la ricerca sociale.
Il primo risultato era basato sull’output della Wayback Machine: liste di pagine di un singolo sito del passato; le storie
dei siti sono state registrate, mantenendo solo le pagine a cui erano stati cambiamenti e montandolo a ritroso per creare
una specie di film.
Con i documentari screencast l’analisi dei siti si arricchisce della dimensione temporale. Si esplicitano inoltre le
implicazioni della Wayback machine, che spinge a raccontare la storia di un sito e attraverso di essa la storia del web.
Oggi le biografie dei siti possono stare accanto alle storie basate su eventi delle collezioni speciali e alle storie nazionali
dei registri dei web nazionali, che continuano a essere costruiti.
Il secondo obiettivo dell’applicazione dei principi dei metodi digitali all’Internet Archive e alla Wayback Machine era
costruire un compilatore di collezioni di siti già archiviati. La costruzione di una tale raccolta si poneva in continuità con
la tendenza dell’archiviazione del web a fornire strumenti che permettano agli utenti di contribuire all’archiviazione
stessa invece che fornire archivi in cerca di utenti e studiosi.
Nel costruire questo metodo, si cerca di aggiungere il metodo storiografico sensibile alla necessità della storia del web.
Alle storiografie biografiche, basate sugli eventi e sulle storie nazionali oggi disponibili, si cerca di aggiungere un stato
passato del web, una sua porzione, possibile da ricostruire: la blogosfera, per la sua importanza nella storia del web.
Ognuno dei siti archiviati che appartenevano alla blogosfera degli esordi è stato percorso da un crawler per registrare i
link in uscita. Usando un software di cartografia dei link, si crea una mappa clusters di questi prima blogosfera,
includendo non solo i siti che si trovano nell’archivio, ma anche quelli mancanti. I blog mancanti, sulla mappa, sono
irreperibili, sono riapparsi con il loro nome e sono diventati visibili anche i link che portavano ad essi: in questo modo è
stato ricostruito il contesto temporale che era rimasto invisibile nei singoli siti fornito come output dalla Wayback
Machine o nella categorizzazione dei tipi di siti nelle raccolti speciali.
Mostrando i link reciproci tra i siti archiviati e quelli non, la mappa della blogosfera degli esordi costituisce un mezzo
efficace per rievocare uno stato passato del web, e si è rivelata un metodo valido per lavorare con gli archivi web
attraverso l’analisi storica dei link. Inoltre mostra il grado di rilevanza del sito all’epoca e di conseguenza l’importanza
dei siti della collezione, ma anche di quelli mancanti.