Sei sulla pagina 1di 61

Indice

I motori di ricerca nel caos della Rete

Indice del libro "I motori di ricerca nel caos della Rete", scritto e distribuito in Rete a cura di Ferry Byte,
Claudio Parrini e Mirella Castigli, edito su carta a cura de i tipi della Shake di Milano (gi alla 2a
edizione dopo che la 1a andata esaurita in pochi mesi! :-):

Smog digitale
Il castello dell'informazione
La partecipazione al sapere
Ricerca dell'informazione in Rete
Accessibilita' dell'informazione in Rete
Aspetti linguistici
Agenti di ricerca
Portali
Chaos versus business
Prova su campo

Smog digitale
Smog perenne?
Gli sviluppi degli ultimi dieci anni di Internet, che coincidono in particolare con la storia del Word Wide
Web1, hanno prodotto uno scenario che attualmente presenta l'universo telematico come un enorme,
pressoche' illimitata, massa di dati informativi. Filosofi, sociologi e studiosi della Rete definiscono il
fenomeno irrompente e difficilmente gestibile, rappresentato dall'abbondante quantita' di informazione
che Internet diffonde, come il "diluvio informativo" o "diluvio informazionale2. La metafora adottata, che
ci riporta istantaneamente alla catastrofe immane del Diluvio Universale, e' molto efficace e centrata. La
portata del continuo flusso di informazioni, imponente, complicato da sistematizzare in tempi brevi e',
infatti, paragonabile ad una violenta pioggia ininterrotta che invece di diminuire tende sempre piu' ad
aumentare. Dati nuovi che scorrono impetuosamente, oppure dati vecchi che giacciono da tempo in
siti divenuti putridi, dati che s'intrecciano, si accavallano, si amplificano, si raddoppiano, talvolta
provocando delle vere e proprie metastasi informative. La crescita di Internet e' veramente
impressionante, le persone collegate tra loro attraverso il computer aumentano sempre piu' in funzione di
alcuni fattori nodali: l'accesso gratuito alla Rete, i massicci nvestimenti (hardware e software) da parte
delle multinazionali della comunicazione e l'"inaugurazione" ufficiale, nell'attuale nuovo millennio, del
commercio online. Tutto questo non deve essere vissuto apocalitticamente se, a fianco di questa
"dispersione" informativa, gli apparati pubblici e la politica riescono a garantire una democrazia
telematica che mantenga in vita i mondi individuali e le autonomie di fruizione ed elaborazione dei
pensieri. Anzi l'evoluzione di Internet se e' considerata come una sorta di "entropia positiva", termine caro
a Ilya Prigogine3, puo' essere a maggior ragione un ulteriore passo in avanti nei confronti dell'intelletto
umano. La liberta' che Internet offre, a chi lo richiede, di poter immergersi nel flusso informativo, di
essere in grado di pubblicare, di giudicare di criticare non deve venir meno; l'importante e' pero' non
offrire sola informazione ma far si' che questa sia compresa. E' proprio quest'impegnativo compito,
che esige prudenza, di organizzazione, gestione e diffusione dell'intero materiale che veicola su Internet,
il ruolo primario delle principali risorse di ricerca: i motori di ricerca, le web directory, i portali e vortali,
insieme di dispositivi tecnologici che sono oggetto di studi, riflessioni ed analisi di carattere scientifico,
etico e politico. La Rete puo' essere riassunta come insieme di conoscenza e sapere, punti di vista e modi
di pensare che sono articolati in maniera dischiusa secondo la natura comunicativa orizzontale e
provvisoria di Internet, rifiutando la gestione e diffusione gerarchica tipo broadcasting, appartenente
alla logica televisiva. Il paradigma del chaos, che distingue la comunicazione telematica, non puo' essere
proponibile criticamente come in altri modelli di trasmissione del sapere (televisione, carta stampata,
radio, ecc.), anzi occorre analizzare sistematicamente le parti costitutive di questo strumento tecnologico,
Internet, per capire ed interpretare lo spirito, l'atteggiamento, meglio ancora lo stile di vita di chi pratica
e pratichera' il territorio telematico. Capire quindi il mezzo favorendo quelle caratteristiche che sarebbero
fuorvianti e deleterie in altri sistemi comunicativi: acquisendo delle specifiche capacita'
tecniche, definendo delle regole e metodi di navigazione e di autodifesa digitale, implementando nella
nostra mente un approccio conoscitivo con una visione piu' globale e allo stesso tempo con una
dimestichezza chirurgica di discernimento dei dati informativi; approccio che richiede decisioni continue
e gran volonta' di apprendimento. Il chaos in Rete sembra tale ma non lo e'; il disorientamento,
l'incertezza e la probabilita' sembrano esserne le componenti per uno stato "fisico" ottimale. C'e' un velo
di apparenza nella paventata confusione telematica. La comprensibile ansia tecnologica che ci assale di
fronte a cio' potrebbe portarci a due forme estreme di comportamento: un'accettazione irrazionale ed
indiscriminata di quello che la tecnica ci propone, oppure un rifiuto incondizionato frutto di un arido
"nichilismo". Le posizioni, usate come chiavi di lettura del problema, che sono state assunte riguardo
alla "questione della tecnica", compongono un insieme di categorie ormai note ma a nostro parere poco
usabili: un tecno-ottimismo utopistico, Pierre Le'vy, fondato su una teoria antropologica che pone il
sapere come protagonista della scena tecnologica, linea che passa dalla visione angelicata di Teihard de

Chardin; un filone pessimistico, P. Virilio e J. Baudrillard, che vede nelle innovazioni scientifiche una
serie infinita di rischi e pericoli. L'interpretazione di Heidegger, del tutto riconducibile al destino
dell'uomo e sconfinante in un approccio puramente ontologico, (che in Italia ha avuto come "seguaci", da
un lato i Debolisti, G. Vattimo, dall'altro lato coloro che sviluppano un'analisi di tipo psicologista,
U. Galimberti e E. Severino), forma un punto di vista troppo compatto, una categoria a maglie troppo
larghe, da accettare in toto, che ci fa vedere tutto e niente; piu' o meno, anche se in tono minore, i
Francofortesi, che intendendo la tecnica come forza produttiva, ne' buona ne' cattiva, e rifacendosi ad un
discorso classicamente marxista rivelano un atteggiamento allo stesso modo dogmatico. Il nostro intento,
in qualita' di coloro che praticano realmente la Rete, e' quello di superare queste categorie, l'uso
quotidiano della tecnologia e' la nostra risposta. La tecnologia e' un prodotto dell'uomo e noi vogliamo
partecipare a questo processo e alle scelte. I motori di ricerca non sono altro che, fra i tanti comuni
esistenti strumenti telematici, scatole nere" da capire come funzionano; il momento successivo
consiste nel diffondere a tutti "il trucco". Il percorso da compiere non deve comportare troppe riflessioni
inutili sul fatto della malvagita' o meno di determinate tecniche, troppa letteratura e filosofia sprecata
esiste in merito, ma deve mettere in moto le progettualita' comunitarie per risolvere i problemi pratici del
nostro domani. Un domani non troppo lontano, visto la velocita' e la "obsolescenza" delle scoperte
digitali; spesso cio' che oggi riteniamo appurato e congeniale ai nostri bisogni, in un tempo cortissimo,
diventa vecchio e inusabile. Le conoscenze tecniche acquisite determinano un sapere, che deve essere
reso comunitario, mediante la condivisione continua dello stesso, con spirito mutuale e
ramificato. Sconfiggere le paure e i disastri che puo' provocare la tecnica attraverso l'appropriazione
collettiva del sapere, che ha assunto un inedito ruolo centrale nella politica dell'informazione; le
mutazioni della tecnica non saranno piu' vissute come minacce se il sapere tecnico e' diffuso e distribuito
con l'apporto delle strutture statali: comunita', istituzioni, ma soprattutto nel suo luogo deputato, la
Rete. Correre ai ripari da quest'ipertrofia informativa, che vedendola anche con un occhio storico, risulta
perenne, usando delle difese sbagliate potrebbe essere controproducente; per rimanere nell'ambito dei
motori di ricerca, una delle difese adottate per affrontare il diluvio informativo, la possibilita' di una
buona riuscita sta nel fatto di "calibrare" e "posizionare" bene questi "congegni", in altri termini,
rispondendo con la stessa moneta della Rete: l'orizzontalita'. Come in altri casi, nella storia della cultura
cyber, molti sperimentatori stravaganti e smanettoni a tutto tondo hanno dato vita a realta' che poi hanno
costruito buona parte del mondo virtuale attuale: il circuito Fidonet, l'ipertesto, Linux, i formati di
compressione tipo MP3, esperienze come Gnutella e Freenet, le ricerche sulle interfacce fluttuanti. Cosi'
noi, in qualita' di artisti e ricercatori cyberattivisti, con questo lavoro vogliamo interrogare le intersezioni
esistenti tra le risorse di ricerca, il continuo accumulo di informazione che Internet produce e le
metodologie di ricerca: nuovi knowbots progettati sulle basi dell'Intelligenza Artificiale, e le futuribili
ipotesi tecnologiche legate ai principi etici del chaos. Una forte motivazione che ci ha spinti a scrivere
questo approfondimento si fonda su un'idea artistica, -che accosta la pratica della ricerca a quella dell'arte
ponendo il ricercatore nel ruolo di artista indagatore, meta-diffusore dell'informazione; colui che si
preoccupa, in maniera laterale e creativa, non tanto di limitarsi a produrre qualcosa in rete, ma di offrire
prospettive trasversali per fruire delle esperienze che gia' esistono e soprattutto che stanno evolvendo -,
percio' una possibile efficace democrazia e' quella che si basa su una sorta di "premio
casuale" ammettendo che ogni entita' abbia le stesse probabilita' di successo. A scanso di equivoci, non si
tratta di difendere a spada tratta il dominio sulla tecnica come un Nuovo Illuminismo Cibernetico, ma al
momento che la tecnica, per certi versi, e' destinata al dominio, operare in maniera tale che questo
dominare sia in mano di molti e non di pochi. Non vogliamo che pochi dominino la tecnica per dominare
i molti, ma che la tecnica sia dominata da molti per non essere dominati dalla tecnica.
Memoria storica
La disorganizzata ed esagerata quantita' di informazione presente su Internet, se da un lato offre a tutte le
persone collegate la possibilita' di fruire conoscenze e saperi disparati, dall'altro lato puo' generare linee di
condotta disorientanti se non addirittura repulsive. Gli utenti della Rete vedendo questo sconfinato
orizzonte informativo, spesso fuggono in preda al panico di potersi in qualche modo smarrire (loss
of orientation), allontanandosi dalla fonte, dal gettito continuo dei dati informativi. Non considerando il
fatto che la non gerarchizzazione del modello comunicativo potrebbe aumentare la possibilita' di ricevere

nuove informazioni, che prima risultavano del tutto sconosciute. Da qui potremmo individuare una sorta
di semplice equazione: in funzione della quantita' di informazione ricevuta, la nostra possibilita' di
memorizzare informazione risulta inversamente proporzionale alla verticalizzazione della
diffusione dell'informazione, viceversa direttamente proporzionale all'orizzontalita' del parametro
distributivo dell'informazione. Un esempio immediato puo' essere questo: io svolgo una ricerca in Rete su
un qualsiasi argomento; la possibilita' di avere a disposizione, come materiale consultabile, dieci risultati
considerati i piu' importanti da un dispositivo verticale, come potrebbe essere una redazione umana
selettiva e rigida, del motore di ricerca che recensisce i siti, mi preclude l'occasione aleatoria di
trovare altri cento risultati, tra i quali potrei estrarre cose nuove ed importanti di cui non ero a conoscenza,
da un motore di ricerca fondato su funzionamenti di scelta dei risultati piu' aperti ed elastici.
Otteniamo che il processo orizzontale comunicativo, che non smetteremo mai di ricordare e' uno dei punti
naturali e vitali di Internet, sarebbe, a meno che qualcuno non "distrugga" l'ambiente originario, la
struttura agerarchica, una condizione favorevole per l'accrescimento della conoscenza sia individuale sia
collettiva. Chiediamoci: che cosa sono la memoria e la conoscenza in rapporto all'informazione? Che cosa
significa informazione giusta e sbagliata, buona e cattiva? Iniziamo con queste due domande per
addentrarci nelle riflessioni successive. La visione, ormai completamente accettata da tutti, che il
computer sia un'esteriorizzazione della memoria induce a riflettere su un duplice aspetto: sulla memoria
globale in rapporto ai crescenti e veloci apporti delle scoperte scientifiche, sulla memoria individuale in
stretta relazione all'informazione telematica. Il primo aspetto conferma il fatto che oggigiorno la
mnemotecnica e' dipendente dalle competenze e invenzioni della scienza moderna; Internet visto in senso
lato, ma i motori di ricerca in particolare sono alcune delle forme piu' significative e capitali
di organizzazione della memoria collettiva contemporanea. Ora, se pensiamo Internet come figura
dominante (dominio della tecnica) e gli individui come figure dominate slittiamo sul secondo aspetto, in
altre parole il forzato adeguamento dell'esperienza singola a quella collettiva: ad una
crescente supremazia della tecnica corrisponde una memoria crescente del singolo, di conseguenza una
gestione sempre piu' funzionale ed efficace della memoria. S'intuisce chiaramente l'importante ruolo di
mediatore che assolve il motore di ricerca, del compromesso che esso offre al singolo utente: per non
essere inondato dal mare informativo io navigante sono garantito dal motore a scapito della perdita di una
certa autonomia di scelta. Se concepiamo la memoria di ciascuno di noi come
discernimento, immagazzinamento e disfacimento dell'informazione si puo' pensare la memoria come cio'
che conosciamo e sappiamo gia' e cio' che non conosciamo e sappiamo ancora; e nell'apprendere cose che
non conoscevamo prima, distinguere a quale "livello" di memoria siamo arrivati, rispetto al mondo in cui
viviamo. Non si tratta quindi di considerare la memoria come un semplice elaboratore di carico/scarico
dell'informazione ma un dispositivo personale in grado di costituire una rete autonoma interpretativa
disposta a confrontarsi e connettersi al totale. Il meccanismo di ricerca in Rete se da una parte individua la
sazieta' di sete informativa degli utenti grazie al materiale vagliato e preconfezionato che essi ricevono
(lavoro svolto dai motori di ricerca), dall'altra parte vede l'utente stesso come un'entita' desiderosa
di conoscere la "verita'" di cio' che riceve. Ma cercare una definizione di verita' all'interno del chaos
telematico induce ad evidenziare ancora di piu' la contraddizione sul concetto di verita', relativo alla
ricerca delle informazioni digitali, infatti, la locuzione verita' caotica si presenta come un vero e proprio
ossimoro. La garanzia, la certificazione, l'autorevolezza di tutto quello che veicola Internet non ha senso
al momento in cui Internet stesso e' una finzione di disordine, ed allora forse conviene riformulare
l'accezione di "verita'" nel caso in questione ponendosi di fronte a questo "nuovo" mezzo di
comunicazione in modo diverso rispetto ai precedenti. Il significato di verita', oltre che nella libera scelta
dello strumento usato, si trasferisce nel momento operativo, nella paziente sequenza, nel processo
creativo della ricerca; nella consapevolezza della diversita' dell'esperienze. "Perfino il biologo
piu' ostinato, tuttavia, dovrebbe ammettere che il mondo e' in molti modi diversi -in realta' ci sono anche
molti diversi mondi esperienzali- a seconda della struttura dell'essere interessato e del genere di
distinzione che esso e' in grado di compiere. E anche se restringiamo la nostra attenzione alla conoscenza
umana, si puo' pensare che il mondo abbia molti modi di esistere. Questa convinzione non oggettivista (e,
nel migliore dei casi, anche non soggettivista) si sta lentamente facendo strada nello studio della
conoscenza. Finora, tuttavia, questo orientamento alternativo non ha avuto un nome ben definito, in
quanto e' poco piu' di un ombrello che offre riparo a un gruppo relativamente ristretto di persone
impegnate in campi diversi. Noi proponiamo di usare il termine enattivo per dar risalto alla crescente

convinzione che la conoscenza non sia la rappresentazione di un mondo prestabilito, ma piuttosto


l'enazione, la produzione, di un mondo e di una mente sulla base della storia delle diverse azioni che un
essere compie nel mondo. L'approccio enattivo, quindi, prende seriamente in considerazione la critica
filosofica all'idea secondo cui la mente sarebbe uno specchio della natura, ma si spinge oltre, rivolgendosi
a questo problema dal nucleo stesso della scienza"4. La ricerca telematica non solo riguarda l'esperienza,
la conoscenza, ma e' essa stessa una forma di esperienza, di conoscenza, che possiede alla sua base una
forte volonta' di scoprire qualcosa di nuovo. Non riducendo il potenziale che sta alla partenza di ogni
ricerca, rifiutandosi di catalogare superficialmente e in fretta e furia il sapere nuovo acquisito, non
accontentandosi della sicurezza e lanciandosi in viste piu' radicali, il soggetto tende ad aumentare
l'affermazione della propria posizione di fronte al mondo del sapere. Essere felici di "cio' che passa il
convento" o cercare da altre parti?
Successivamente ed in modo complementare emerge la questione di come affrontare la ricezione
dell'informazione richiesta, distinguere il tipo di informazione: buona o cattiva? Chi deve assumersi
questo ruolo? Le decisioni prese singolarmente nel differenziare l'informazione giusta da quella sbagliata
sono sufficienti a risolvere il problema per intero? La maggior parte dei partecipanti alla vita del grande
network e' capace di assolvere questo incarico, oppure ha bisogno di trovare gia' tutto pronto? Occorre
che alcuni prendano le decisioni per gli altri? Chi? Come non ci sono regole e basi precise
sull'organizzazione e fruizione della conoscenza in Rete, e non ci stancheremo di ripetere e' solo
una finzione di chaos, non esistono sistemi e comportamenti strutturati e definibili nell'elaborazione e
collocazione logica dell'informazione nel nostro cervello. In entrambe le situazioni, individuale e
collettiva, e' l'esperienza e l'interpretazione creativa che modifica le reali interconnessioni sia a livello
neuronale del cervello, che in riferimento all'insieme di piu' cervelli, producendo capacita' di acquisizione
e spostamenti di saperi. Questo concetto di esperienza connettiva prevede dei modelli di reciprocita' e
correlazione ed implica che tutto cio' che avviene all'interno del singolo (cervello) e nella comunita'
(Internet) sia in rapporto alle attivita' delle complessive componenti: nuclei, strati, livelli, nodi, ecc.
seguendo una logica di cooperazione in condizione di rendersi auto-stabilizzante e di controllarsi e
proporzionarsi autonomamente. Forse una chiave di volta del problema relativo alla conoscenza, in
merito alla diffusione del sapere telematico, e' rappresentata dall'analisi di come si comportano i motori di
ricerca, come si potrebbero comportare e forse la domanda piu' inquietante di come si comporteranno.
Entriamo quindi nelle tematiche della moderazione, del filtraggio o piu' squisitamente della esclusionecensura, argomenti che costituiscono uno dei principali obiettivi di questa analisi.
Estremismi
Avvertiamo che il significato, in questo approfondimento, attribuito al termine censura e' in qualche
modo, allargato se non addirittura forzato per cercare di dare un'angolatura diversa, ma certamente non
distorta, alla questione. L'accezione classica della parola censura rimanda espressamente alla volonta' di
un soggetto, o piu' soggetti, che prevede una chiara e "certificata" intenzionalita' monodirezionale di
punizione. Se vogliamo, il nostro lavoro, attraverso l'analisi del funzionamento e dei
meccanismi dell'indicizzazione da parte delle risorse di ricerca, tenta di porre l'accento, usando poco
"correttamente" il termine censura, potremmo parlare di censura debole, sull'attivita' delicata e a tratti
ambigua svolta dai motori di ricerca. Lo abbiamo ritenuto opportuno. I milioni di utenti che
quotidianamente usano Internet non si accorgono, a meno che non si occupino attentamente di questo
problema, degli aggiustamenti impercettibili, "subliminali", che sono messi in atto sull'informazione
telematica da chi svolge lo smistamento della stessa. E' un "sano" metodo di censura, che i diretti
responsabili punitori giustificano con il bisogno di fare pulizia, di dare autorevolezza alle loro decisioni,
da molti utenti ritenuto benevolo per ricercare la "verita'", la giustezza, riconosciute a pochi risultati
informativi rispetto alla grande vastita' esistente in rete; ma che in realta', tale metodo, vela intenti
prettamente commerciali e politici. Ecco che emerge il danno maggiore causato da questa censura: la
limitazione della cultura; non intesa come un sapere tante piccole cose su tutto, ma la possibilita'
democratica che tutti dispongano di giocarsi la moltitudine di probabilita' delle risposte su un dato tema,
ma soprattutto di relazionare ed integrare le innumerevoli conoscenze tra loro. In termini piu'
spiccioli bisognerebbe chiederci: perche' mi deve essere tolta l'opportunita' di scegliere? Invece, i gestori

del potere sull'informazione tendono ad effettuare la scelta, e la larga maggioranza dei naviganti
ingenui preferisce delegare le ricerche. Cosi' ci scordiamo che il nostro pensiero individuale possa essere
represso e che le propulsioni singole di lettura, rappresentazione, progettazione e modificazione del
mondo siano omologate, private di qualsiasi liberta' di giudizio e iniziativa, nel peggiore dei casi alterate
negativamente, contrapponendole allo spirito iniziale del progetto. Come esseri umani pensanti il lasciarsi
trasportare nella Rete, dai vari accompagnatori: i browser, i motori di ricerca, i portali, ecc., senza
un atteggiamento critico e diffidente, fa vacillare uno dei principi cardine della comunicazione telematica
rappresentato dall'interazione con altri essere umani pensanti (soprattutto attraverso la produzione, lo
scambio e la fruizione delle idee per mezzo delle pagine web). Manipolando e canalizzando la libera,
"confusionaria" circolazione del materiale comunicativo, e' inibito il pensiero singolo alienando
il soggetto che rinuncia alla sua potenzialita' di influenzare e cambiare, insieme alla partecipazione di altri
soggetti, la realta'. Questa strategia di controllo digitale potrebbe essere attivata dai poteri forti
per garantirsi sicurezze ed equilibri, badando esclusivamente al mantenimento del proprio status,
anestetizzando l'energia destabilizzatrice insita nelle individualita'. Il sistema del potere non corre grossi
rischi in realta', tranne qualche serio attacco da parte di pirati informatici. Il pericolo vero, in sostanza,
non e' evidente e vicino ed allora la censura non si effettua con azioni drastiche; anzi le informazioni
ritenute ed accertate innocue quisquilie e utile spazzatura sono lasciate in circolazione e servono
come pretesto per dimostrare garanzie di democraticita'. Non essendoci situazioni nocive causate dal
libero sfogo dei soggetti che rappresentano la comunita' del Network, si lasciano le cose come
stanno. Come abbiamo gia' sottolineato, il fenomeno del diluvio informativo pone interrogativi sulla
discriminazione del sapere e fa nascere ipotesi di risoluzioni di controllo per "decifrare" le informazioni:
quelle buone da quelle cattive. Possiamo elencare tre categorie, o gradi, di sentenze censorie: risoluta,
mediata ed invisibile. Il controllo risoluto prevede interventi duri, e' l'esempio dell'Arabia Saudita,
impedendo agli utenti di collegarsi individualmente ad Internet previo il rilascio di permessi e licenze
appositi, si opera quindi sulla regolamentazione del numero dei naviganti; ed interventi meno duri, Cina
e Singapore, dove le maglie dei server statali arrestano il traffico proibito, inserendolo in una sorta di
"indice nero". E' scontato elencare ragioni e motivazioni a questa censura visto il tipo di politica che
vige nei suddetti stati, anche se le loro frontiere elettroniche si stanno sempre piu' aprendo -e' il caso di
SINA.com (http://www.sina.com) portale cinese. In Occidente la linea dura era stata lanciata con il
Communication Decency Act -CDA- che la Corte Suprema degli Stati Uniti, nel giro di meno di un anno,
ha dichiarato incostituzionale in quanto violava la liberta' di espressione dei cittadini (giugno 1997).Oltre
al clamoroso insuccesso del CDA, con relativo effetto boomerang, in Occidente i sistemi di
filtraggio delle informazioni sono rappresentati dalla seconda categoria di controllo, quella mediata. Si
parla quindi di gruppi ed associazioni, piu' o meno folkloristici, di cybervigilanti che garantiscono gli
utenti principalmente dal proselitismo neonazista e dallo sfruttamento sessuale dei bambini ed inoltre di
software di bloccaggio dell'accesso5. Un'altra componente della seconda categoria di censura vede
l'ipotesi di costituire dei supervisori dell'informazione che giudichino quale sia da cestinare o viceversa
da distribuire; si prevederebbe, infatti, di istituire dei "centri di qualita'", "centri di garanzia", dei
buffoneschi "comitati di garanti", specializzati in merce digitale, come se si trattasse di bottiglie di olio o
di vino alle quali bisogna mettere sull'etichetta la sigla D.O.C.G.6 Un'idea garantista assai opinabile e a
tratti folle, che cela la presunzione di giudicare per gli altri, ma soprattutto la volonta' di mantenere e
gestire un proprio potere culturale. L'ultima categoria di filtraggio, di censura, e' quella invisibile e
chiama in causa i motori di ricerca. Tramite gli aggiustamenti del ranking sui risultati ottenuti dalla
richiesta ad una parola chiave, si giudicano e si classificano qualitativamente le pagine web. Gli strumenti
per ottenere un ottimo posizionamento (attualmente si considera un buon ranking l'essere inseriti
all'interno delle prime trenta risposte) sono di genere duplice: economico e tecnicistico. I primo consiste
nell'accordarsi, dietro lauti esborsi a favore dei motori di ricerca, per aumentare, nel peggior caso
per mantenere, la propria posizione (acquisto di keywords, accordi personali, ecc.); il secondo strumento
e' il frutto di conoscenze tecniche, soprattutto di programmazione e impostazione del documento, per
aggirare gli agenti software. In entrambe le situazioni l'azione filtrante non e' percepita dagli utenti, ma e'
lampante il fatto che i siti esclusi dai risultati che producono link sicuramente visitabili, anche se di
qualita' eccellente, non saranno considerati e non avranno voce in capitolo circa l'argomento preso in
esame dall'utente-ricercatore. Una censura silenziosa e anonima ma che a pensarci bene produce
situazioni di contenimento ed indirizzamento che avvantaggiano versanti culturali a scapito di altri. Gli

interessi economici e politici che stanno dietro alle varie forme di censura sollevano problemi di carattere
etico tra i quali spicca su tutti la tutela della liberta' individuale di produrre, diffondere e
fruire informazione digitale. Tale liberta' e' continuamente minacciata e va assumendo sempre piu'
l'aspetto di un terreno carsico, dove forze ed elementi sotterranei lavorano per corrodere e distruggere
questo bene prezioso. Spetta ad ognuno di noi, con grande sacrificio, se non vogliamo essere pilotati
come automobiline (lo stesso problema lo troviamo negli altri mezzi di comunicazione: televisione, radio,
carta stampata), occuparsi per mantenere viva questa liberta'. Come primo passo capire ed accettare che il
concetto di ricerca in Rete ha un significato piu' ampio piu' variabile, meno certo e meno gerarchico di
quello tradizionale, e che occorre costruirsi via via la propria tecnica personale e autodifesa digitale per
affrontarne le "imprese"; nonostante le grosse difficolta' di assimilare positivamente le mutazioni tecniche
visto l'esclusione istantanea, l'essere messi subito in un angolo buio, se non reagiamo alacremente ed
attivamente all'adeguamento. Al momento attuale siamo un po' tutti come Sisifo: per una giusta causa,
portiamo il nostro macigno fino in cima alla montagna e poi qualcuno lo respinge indietro. La sfida e'
in atto.
Tecniche di liberta'
L'accessibilita' al sapere telematico e allo stesso tempo la visibilita' dei web site all'interno del WWW
sembrano essere gli assi portanti sui quali verte tutto il discorso relativo al rapporto tra l'uomo
contemporaneo e le sue potenzialita' di acquisire e fornire nuove conoscenze in Rete. Internet costituisce
quel luogo-contenitore aperto dove sono convogliati, depositati e relazionati tra loro gli innumerevoli
punti di vista degli individui: idee, nozioni, progetti, desideri, pensieri, teorie... ; posizioni individuali che
connesse insieme determinano un sapere collettivo strutturato orizzontalmente, fruibile in modo
autonomo senza costrizioni dirette ma certamente con pratiche docili di instradamento, a partire
dal browser di navigazione. La struttura stessa della Rete presenta dei mezzi, ed insieme dei
metodi, tecnico-scientifici chiamati risorse di ricerca: dallo stesso browser di navigazione passando per i
motori di ricerca fino al semplice scambio tra gli utenti dei bookmark personali, che ci permettono di
accedere piu' o meno liberamente alle informazioni. Il motore di ricerca e' visto dalla maggior parte degli
utenti che effettua qualsiasi tipo di ricerca, come quel dispositivo sicuro ed affidabile, l'oracolo
telematico, dal quale si aspetta con estrema velocita' e garanzia delle risposte. L'utente medio, dietro
l'interfaccia pulita, amichevole e funzionale del proprio motore di ricerca utilizzato, proietta il proprio
bisogno di sicurezza e di razionalita' scientifica, non preoccupandosi di cosa sta dietro alla semplice form
in cui immette la richiesta; non vi e' la richiesta da parte dell'utente, verso il motore di ricerca, di un
"parlar chiaro", senza finalita' persuasive. L'utente medio dovrebbe ricordarsi che i principali motori di
ricerca sono delle organizzazioni puramente commerciali, delle aziende che lavorano sulla gestione delle
informazioni, che in questi ultimi anni e tutt'oggi procurano immensi guadagni e le quotazioni in
borsa dei relativi titoli influenzano pesantemente l'andamento dei maggiori indici internazionali. Proprio
la capacita' dei naviganti di essere in grado di conoscere le tecniche di uso delle risorse di ricerca, le
modalita' di selezione e scelta del materiale, i trucchi e le malizie per aumentare il ranking, sempre in
continua modificazione, che implicano un costante aggiornamento, costituisce una dinamica di sapere
parallelo al sapere diffuso, non gerarchico, anzi caotico come quello rappresentato da tutta
l'informazione esistente su Internet. Il sapere diffuso e' la massa di informazioni, il sapere parallelo e' il
modo di come appropriarsene. Possedere la piena conoscenza dei dispositivi, dei criteri e delle procedure
di ricerca: la navigazione piu' elementare, il riconoscere quando un link e' utile oppure inutile, individuare
i motori di ricerca ed i portali piu' autorevoli, sapere ricercare sia in maniera semplice sia avanzata,
frequentare i newsgroup, mailing-list, forum e chat, capire cosa e' nascosto dietro ad un buon
posizionamento nei primi risultati, significa appropriarsi di un meta-sapere. Questo meta-sapere puo'
essere, anche piu' semplicemente, definito come l'arte di sapere scegliere: in primo luogo saper
scegliere solo di cio' di cui bisogniamo, in secondo luogo, ma strettamente collegata, la tecnica di scelta.
Una volonta' di sapere che richiede a chi desidera conoscere specifiche competenze e funzioni tecniche ed
un'apertura mentale che guardi non piu' al centro, come elemento primario da cui proviene il sapere, ma
ad un insieme di periferie diramate qua e la', delle quali il soggetto conoscente deve rintracciarne i
collegamenti reciproci. L'assenza di un centro nella rete deve indurci a trattare i risultati delle ricerche
come esperienze non prestabilite, discontinue, che si intrecciano o si sviluppano parallelamente, ed anche

si ignorano o si separano, ma in generale che tendono a moltiplicarsi vertiginosamente. Occorre


inventarsi un personalizzato approccio "a togliere", nei confronti del flusso informativo, che ci garantisca
sia dall'informazione inquinata sia dalla troppa informazione. Inoltre risolvere le ricerche individuali in
rete non con un'operazione di significati, di valori, di pesi e misure precostituiti; non immaginarsi che il
motore di ricerca ci mostri sempre il suo volto leggibile e sincero; che lavori per disporci le cose a
nostro piacimento e favore. Concepiamo il fare ricerca come un distorcere, un violentare, un dubitare; tale
esercizio dara' luogo alla serie combinatoria degli eventi che noi stessi ne fisseremo gli estremi. Se i
risultati della ricerca devono essere concepiti innanzi tutto come insieme, come grappoli di risultati, quale
legittimazione e statuto dobbiamo attribuire al risultato che noi scegliamo? Bisogna prendere atto ed
accogliere il rischio dell'incertezza come paradigma che sostenga la logica della ricerca su Internet;
dobbiamo correre l'alea per ottenere la liberta' di ricercare. Si tratta di realizzare un dominio privato sulla
tecnica (in questo caso la tecnica e' rappresentata dalle risorse di ricerca e dal saperle usare al meglio)
per controbattere il dominio della tecnica che il mondo sfrenato dell'economia capitalista usa per
manipolare a proprio favore il potere nell'organizzare e distribuire l'informazione. Lo sforzo individuale
che tutti dovremmo compiere, se pratichiamo la Rete, consiste nell'apprendere l'arte dello scegliere -per
far si' di non essere scelti. In un certo senso il dominio della tecnica deve essere vissuto dal soggetto come
un pericolo per la propria liberta' di pensiero e di azione, un quotidiano avvertimento al quale la risposta
piu' efficace deve essere data dal singolo: affilando le armi della conoscenza per difendere il proprio
dominio sulla tecnica. La difesa contro il sempre presente padroneggiare dei pochi, a fini economici e
politici, espresso negli sbarramenti, nei filtri, nelle soglie e limiti creati appositamente e disposti con
stratagemmi quasi segreti nel territorio telematico: un esempio torna ad essere ancora il motore di
ricerca. Dove esiste un pericolo deve esserci anche qualcosa che ci faccia scampare da tale pericolo. La
grande liberta' che Internet ci mette a disposizione deve essere vissuta come un premio; per
guadagnarselo e' necessario faticare sia individualmente sia collettivamente.
1 I primi codici del linguaggio HTML -Hypertext Markup Language- e le regole della trasmissione HTTP -Hypertext Transport Protocol- prendono vita agli
inizi del 1990 ad opera del fisico inglese Tim Berners-Lee in collaborazione col francese Robert Cailliau.
2 Su questo concetto cfr. Le'vy Pierre, Il diluvio informazionale, http://www.emsf.rai.it/dati nella sezione "Aforismi"; Le'vy P., Cybercultura, Feltrinelli,
Milano 1999, p. 156; Begleiter Ralph, Le de'luge d'informations, Dossiers mondiaux, Revues e'lectroniques de l'USIA, volume 1, n. 12, septembre 1996.
3 Sui processi dell'entropia, probabilita' ed incertezza applicate al futuro della scienza v. Prigogine I., La fine delle certezze: il tempo, il caos e le leggi della
natura, Bollati Boringhieri, Torino 1997.
4 Varela F. J., Thompson E., Eleanor R., La via di mezzo della conoscenza, Feltrinelli, Milano 1992, pp. 31-32.
5 "I programmi di bloccaggio tradizionale, come SurfWatch, CyberPatrol, NetNanny, CyberSitter, X-Stop e molti altri, funzionano in base a due diversi
princi'pi. Un primo sistema, rudimentale ed aspramente criticato, vieta l'accesso a tutte quelle risorse digitali individuate per mezzo di una ricerca per parolechiave, col rischio documentato di privare l'utente di informazioni spesso preziose, come quelle relative alla prevenzione dell'Aids o persino di testi letterari e
di riproduzioni digitali di opere d'arte. Un secondo sistema, piu' evoluto, impedisce di collegarsi con una serie di siti considerati poco adatti per i minori in base
a categorie stabilite dalle aziende produttrici del software. Anche questo sistema e' oggetto di numerose critiche: primo, perche' le scelte vengono
effettuate spesso da personale poco qualificato; secondo, perche' queste scelte rispondono in ogni caso a criteri del tutto soggettivi; terzo, perche' ad una
impossibile operazione di screening completa si sostituisce un'analisi superficiale e grossolana; quarto e ancora piu' importante, perche' i siti effettivamente
bloccati sono spesso di contenuto politico. Ad esempio, CyberPatrol blocca l'accesso a numerosi siti di gruppi estremisti e radicali e di associazioni femministe
e di omosessuali; X-Stop persino a quelli del think tank conservatore Heritage Foundation o a quello della setta religiosa dei Quaccheri"; (da Internet, la
ragnatela

della

liberta', L'INQUISITORE

DIGITALE,

di

Giuseppe

Mancini, http://www.ideazione.com/Rivista/1998/maggio_giugno_1998/mancini_3_98.htm).
6

V.

l'intervista

ad

Umberto

Eco,

Le

notizie

sono

troppe

imparate

a decimarle,

subito,

sulla

rivista

Tele'ma

4,

1996, http://www.fub.it/telema/TELEMA4/Eco4.html; e la polemica, suscitata dalle posizioni dello stesso Eco, con Roberto Casati nell'articolo Vade
retro, esperto, Il Sole 24 ore, 5 marzo 2000. Eco ribadisce la sua critica ad Internet anche all'edizione 2000 della fiera informatica milanese 'Smau', dove con
un intervento orale chiede un "sigillo", un "watermark" per i siti validi rispetto a quelli poco buoni.

Castello
Come e' strutturata la Rete?
La Rete e' come ce la immaginiamo. Ne' potrebbe essere altrimenti essendo la Rete una serie infinita di
interpretazioni di oggetti e simboli, materiali e immateriali, collegati fra loro nei modi piu' bizzarri
e complessi. Per Marcos7 "la rete siamo noi tutti che parliamo e ascoltiamo" - ed e' sicuramente una
definizione su cui riflettere-, per molti utenti storici della telematica la Rete sono le aree di discussione
delle BBS 8 o al massimo i famigerati newsgroup9. Per la maggior parte delle persone la Rete e' il Web10,
per altre ancora la posta elettronica. Per chi scrive e' un'interconnessione rizomatica, un qualcosa che non
si fa a tempo a descrivere che e' gia' cambiato profondamente come un sistema biologico in un percorso
co-evolutivo11.
Abbandonando il terreno delle interpretazioni e dell'immaginario collettivo, la Rete e' innanzi tutto un
numero enorme (milioni ma forse anche miliardi) di computer di vario tipo che costantemente,
oppure occasionalmente, approfittano di un vettore fisico che puo' essere il comune cavo telefonico, ottico
ecc., ma anche l'aria stessa - attraverso cui i radio modem 12 e ponti satellitari si interconnettono per
comunicare fra di loro. Ovviamente non tutti i computer hanno le stesse funzioni, finalita' e possibilita'
comunicative. La distinzione principale in una comunicazione di tipo client-server13 come avviene in
Internet e' fra i computer che ospitano i servizi, ad esempio quelli che ospitano i nomi dei domini 14 e che un recente studio dell'Universita' di Berkely in California stima intorno alle 13.000.000 di macchine
- e i computer che ne usufruiscono. Questi sono i computer che possono leggere le pagine web
appartenenti a tali domini: un numero elevatissimo e in crescita esponenziale, impossibile da determinare
scientificamente! Una volta fotografata l'attuale situazione di una miriade di computer, tra fornitori di
servizi e utenti collegati fra loro fisicamente perlopiu' attraverso una ragnatela di cavi ma anche attraverso
l'etere, rimane da sapere come avviene la comunicazione fra macchine.[Vedi anche traceroute] Le regole,
in telematica si chiamano protocolli, per cui queste macchine comunicano fra di loro sono costituite dal
famoso insieme di protocolli TCP-IP (Trasmission Control Protocol / Internet Protocol). Il TCP/IP
permette attualmente a una vera e propria infinita' di macchine di attivare sessione di comunicazione
nei modi piu' disparati fra i quali, i piu' noti, sono il Web, la posta elettronica e i newsgroup, e l'IRC e
l'FTP che rappresentano rispettivamente le modalita' storiche di chat e trasferimento di file in Rete, cosi'
come il Telnet (accesso diretto a computer remoti), senza tralasciare le moderne possibilita' di attivare
sessioni audio e video attraverso nuovi algoritmi di compressione come l'MP3 oppure tramite programmi
proprietari come il REAL-AUDIO-VIDEO. Il protocollo di comunicazione attuale IPv4 permette gia'
delle funzioni mirabolanti che hanno fatto la fortuna di Internet assicurando la possibilita' di comunicare
in tempo reale fra soggetti molto distanti fra loro; ma la sua futura implementazione gia' annunciata da
tempo - IPv6 - consentira' un aumento considerevole delle macchine che potenzialmente possono
accedere alla Rete insieme a un'ottimizzazione e controllo del traffico della Rete stessa15. Tutto cio' si
attuera' attraverso una traduzione alfabetica del numero di riconoscimento della macchina in Rete, detto
appunto numero IP, delegato a una rete di server speciali noti come DNS (Domain Name Server), e ad
un'organizzazione gerarchica della Rete. Una macchina allora accede alla Rete solo attraverso un'altra
macchina che e' gia' presente in Rete e che ha gia' acquisito il credito e la configurazione necessaria per
essere visibile al resto della Rete. Un network, quindi, fondato su una costruzione piramidale e
verticistica, apparentemente
tutt'altro
che
orizzontale
e
anarchica.

Mettere in comune l'informazione


Se per accedere alla Rete bisogna passare attraverso un sistema di accreditamento basato su una gerarchia
pluri-piramidale i cui vertici sono praticamente irrintracciabili data la complessita' della struttura
della Rete e, peraltro difficilmente gestibili, e' pur vero che un governo della Rete esiste. Anche se ha

delle caratteristiche molto particolari per certi versi di carattere comunitario. Il carattere di condivisibilita'
della Rete non e' per niente alieno alle sue istituzioni centrali 16 tanto che le regole tecniche di governo
della Rete si sviluppano attraverso documenti di proposta detti RFC (Request For Comment) che sono
pubblicamente valutati, discussi e nel caso modificati da chiunque si presti al gioco di testare le nuove
ipotesi di governo tecnico e di sottoporsi a sua volta al pubblico esame 17. Un network gerarchico
ma fondato su una logica "democratica". Per capire come si comunica 18 in Rete ovvero come si mette in
comune un'informazione e' importante indagare sulle regole basilari della trasmissione bidirezionale di
dati che si svolge, si' attraverso la ragnatela dei cavi, ma anche tramite il sistema ipertestuale dei link
19
. La ragnatela dei cavi comporta sempre esigenze di banda, in altri termini, di velocita' di connessione
(quantita' di dati trasmessi per unita' di tempo) richieste dalle diverse sessioni di comunicazione sulla
Rete. Entrando sempre e comunque come ospiti di macchine gerarchicamente piu' importanti o piu'
accreditate di noi, ereditiamo dall'host la nostra legittima capacita' di banda che dovra' bastarci per
effettuare - in tempi funzionali ai nostri scopi - comunicazioni di varia natura: dalla navigazione su web
alla posta elettronica fino alle videoconferenze. Ogni sessione di comunicazione ha una sua particolare
esigenza di banda e quindi, mentre per Telnet, posta elettronica, newsgroup ed IRC sono sufficienti poche
risorse, per navigare efficacemente su Web dobbiamo disporre di una buona velocita' di connessione, e
per scaricare file tramite FTP, ascoltare un brano o partecipare a una sessione video necessitiamo di una
quantita' di banda sempre crescente. Operando in Internet, non e' tuttavia necessario conoscere solo quali
sono le nostre risorse di banda ma anche quelle dei nostri interlocutori: essendo la Rete un ambito di
scambio comunicativo bidirezionale, pur avendo eventualmente la fortuna di trovarci sotto la confortante
presenza di una linea dedicata universitaria, dovremo preoccuparci delle possibilita' tecniche del
nostro interlocutore. La reciprocita' di condizioni e' irrinunciabile: se non abbiamo la "banda" necessaria
per attivare l'auspicata videoconferenza, forse dovremo piu' realisticamente ripiegare nel piu' rustico ma
sempre intrigante dialogo in IRC... La condivisione dei saperi richiede una "reciprocita'
tecnologica" nell'accedere al medium. Cosa centra tuttavia questo preambolo con l'operativita' dei motori
di ricerca? La struttura della Rete, le sue caratteristiche tecniche e le sue modalita' di interconnessione si
riflettono proprio sulle capacita' operative dei motori di ricerca, essendo anch'essi, sotto forma di collettivi
redazionali o di spider automatici, degli eterni e insaziabili browser in cerca di informazione in giro per il
web. I motori di ricerca risentono infatti non tanto di (improbabili) loro limiti di connettivita' ma delle
scarsa larghezza di banda - nota anche come bandwidth - della fonte di informazione da indicizzare, tanto
che un sito risulta piu' difficilmente indicizzabile ai motori quando e' ospitato su un server con poca
banda.
I motori di ricerca
I motori di ricerca20 sono delle complesse macchine basate sia su risorse umane sia su automatismi che
hanno il compito di scandagliare un pezzo prescelto della Rete, indicizzarlo e metterlo a disposizione di
ipotetici utenti interessati a interrogarlo. Le prestazioni e la geografia della Rete incidono senza ombra di
dubbio sulla funzionalita' dei motori di ricerca. Se la velocita' di connessione fra le macchine comunicanti
in Rete ha un'importanza notevole nell'economia della comunicazione in Internet, e' la geografia dei link a
giocare un ruolo di primo piano nel tentare di dare forma e senso alla Rete. Nel 1999 Albert Re'ka,
Hawoong Jeong e Albert-Lazlo' Barabasi pubblicano su Nature21 uno studio per cui la distanza tra due
pagine web qualsiasi era mediamente compresa in un percorso di soli 20 link. Come al solito le
medie pero' nascondono una situazione molto sofisticata... Uno degli studi piu' esaurienti e aggiornati
sulla topografia della Rete e' stato svolto dall'IBM Almaden Research Center in collaborazione con
il Systems Research Center e la societa' Altavista di San Matteo (California) e presentato all'IX
International World Wide Web Conference ~ http://www.almaden.ibm.com/cs/k53/www9.final svoltasi
ad Amsterdam nel maggio 2000. Secondo questo studio la Rete si presenta con un corpo centrale di
56 milioni di pagine web strettamente interconnesse ovvero pagine che sono molto linkate le une con le
altre seppure secondo criteri e percorsi diversi e di diversa lunghezza. Da questo corpo centrale si
staccano due protuberanze di altri 44 milioni di pagine: una protuberanza e' costituita da pagine personali
e siti minori i quali sono linkati al corpo centrale - costituito da portali, motori di ricerca, siti
d'informazione e pagine delle aziende piu' rinomate - ma che non godono del link di ritorno; l'altra
protuberanza e' costituita invece dalla maggioranza delle imprese, delle universita', dei centri di ricerca e

di altre istituzioni che beneficiano di link dal corpo centrale ma non contraccambiano con il link di
ritorno. Collegamenti di leggera entita' connettono poi le due protuberanze minori, mentre sono numerose
le pagine completamente isolate dalla Rete. Come incide tutto cio' sull'operativita' dei motori di ricerca
? Moltissimo, ma soprattutto per due aspetti fondamentali: il reperimento dell'informazione e il
ranking. Tanto per cominciare un'informazione per essere presa in considerazione da un motore di ricerca
deve essere prima reperita. Nel mare magnum valutato genericamente sulle centinaia di milioni di pagine
web, reperire le informazioni diventa un work in progress estremamente complesso. Ad esempio c'e'
molta differenza fra un'informazione contenuta in una pagina che e' linkata da molte altre pagine e che
facilmente prima o poi intercettera' il laborioso navigare dello spider in questo oceano digitale, e una
pagina che non e' linkata da nessun'altra parte. Le pagine linkate infatti hanno il pregio di essere
considerate pagine gia' note o piu' interessanti e aggiornate della Rete, al contrario di quelle isolate la cui
unica speranza resta quella di farsi notare dal motore di ricerca o per un caso fortuito o grazie a una
segnalazione extra-ipertestuale che si spera sia presa nella dovuta considerazione. In mezzo a questi due
estremi c'e' una scala di importanza della costruzione dei link e delle profondita' dei siti 22 che incide, per
le ragioni ora espresse, sulla possibilita' o meno per una pagina web di essere trovata da un motore di
ricerca. Un altro importante aspetto e' rappresentato dal criterio utilizzato dai motori di ricerca per
decidere come stilare la classifica dei risultati conseguiti dopo un'interrogazione: il ranking.[Vedi anche
PAGERANK(TM)checker] E' considerato un buon risultato (top ranking) un risultato che abbia speranza
di visibilita' sull'utente in cerca di informazioni. Apparire almeno fra i primi trenta risultati di una ricerca
effettuata su un motore e' ormai l'aspirazione di ogni sito in cerca di visibilita'. Al di la' delle ipotesi di
censura e privilegio di strategie di marketing - non facilmente praticabili ma sicuramente ipotizzabili
anche in una classifica come quella della maggior parte dei motori di ricerca basati su automatismi23 bisogna per ora mettere in evidenza come la quantita' di link che ha un sito abbia influenza sulla
possibilita' che ha lo stesso sito di scalare le classifiche dei motori di ricerca e apparire fra le sempre piu'
ambite trenta posizioni sia da grandi che piccole aziende. Un'informazione contenuta in una pagina web
ha buone probabilita' di essere reperita da un motore di ricerca nell'attuale geografia di Internet, solo se e'
posizionata in un server che ha buone prestazioni in termini di larghezza di banda. Ma soprattutto
l'informazione godera' di una buona ricaduta di attenzione sul medium se la pagina web e' linkata da
molte altre pagine cosicche' non solo e' facilmente reperibile dallo spider, ma essendo considerata
"popolare" nel microcosmo delle consultazioni digitali 24, ottiene buone probabilita' di essere inserita nel
top ranking dei motori di ricerca.
Il castello dell'informazione...
L'informazione in Rete, seppur malleabile e volatile come un bit digitale, puo' avere caratteristiche fra le
piu' differenti. La pagina Web costruita attraverso un linguaggio a marcatura fra quelli accettati dalla
filosofia della Rete come il comunissimo HTML fa da padrona fra i possibili file presenti in Rete, e
nell'immaginario collettivo la si identifica con la Rete stessa. Tuttavia in Internet sono numerosissimi gli
oggetti presenti: pagine testo in formato txt; miriadi di immagini in formato .gif .jpg o magari .png;
database dai formati piu' diversi; programmi software (quindi di nuovo file binari); video e audio, i cui
formati sono costantemente in evoluzione alla ricerca di quello che meglio si presta ad ottimizzare
la qualita' e la velocita' di trasmissione in rete di oggetti di informazione cosi' ricca e cosi' complessa
come puo' esserlo un evento audio-visivo. Il problema che incontrano quindi i motori di ricerca nel
catalogare informazione trattata ed elaborata nei formati [Cerca diversi formati]fra i piu' diversi,
e' semplicemente immenso. E' perlopiu' risolto dal punto di vista dell'interfaccia verso l'utente creando
appositi servizi: Altavista ha una sezione specifica http://image.altavista.com per le immagini, ad
esempio; mentre Lycos ha una corrispondente http://mp3.lycos.com, per i file audio di maggiore
successo in questo momento. Esistono comunque motori di ricerca specializzati nella ricerca di oggetti
specifici 25. Dal punto di vista, invece, del reperimento dell'informazione, oltre a adottare risorse umane di
tipo redazionale e dell'impiego di automatismi 26, alcuni motori di ricerca si avvalgono di algoritmi di
analisi dell'immagine in grado di riconoscere segnali, testo e didascalie nascoste nel codice 27. Si tratta di
informazioni normalmente usate per la sincronizzazione e la descrizione, per esempio, nelle
trasmissioni satellitari oppure per finalita' di titolazione e ricerca interna dai software per i quali poi sono
destinati ad essere utilizzati 28. Una volta risolto il problema di catalogare informazione di ogni

genere compresa quella sotto forma di codice binario, per l'informazione classica (file di testo, html e
comunque decodificabile correttamente29) il problema non si pone in termini qualitativi, bensi'
quantitativi. Accenniamo di nuovo al problema di localizzare l'informazione nella Rete ma anche a quello
di acquisire e catalogare razionalmente ed efficacemente l'informazione dopo averla localizzata. Il primo
aspetto e' stato "risolto" saltando alla ovvia conclusione che e' praticamente impossibile localizzare tutta
l'informazione presente sulla Rete; si e' quindi in un certo senso deciso di lasciare emergere dalla trama
magmatica e ridondante della Rete una sorta di classifiche compilate in bell'ordine nello stile pop di un
hit parade. Anche la soluzione della seconda problematica risulta tuttavia improbabile e non offre
garanzie. Al di la' della bonta' e dell'efficacia degli algoritmi di indicizzazione usati dai motori, rimane
infatti irrisolta la questione per cui quasi tutti gli spider 30 dei motori di ricerca acquisiscono solo la parte
iniziale dei siti che visitano, senza scandagliarne la profondita' e i contenuti reali. Possiamo quindi
affermare, tristi e sconsolati che i motori di ricerca che credevamo infallibili ed esaustivi sono in realta'
dei laboriosi ma grossolani procacciatori di informazioni, incapaci di districare - senza censure,
insabbiature o macchinosi artifici - la trama caotica e ridondante della Rete, questo sofisticato
meccanismo-simbolo della complessita' postmoderna in cui siamo immersi.
7 Dalla Seconda Dichiarazione della Realidad per l'umanita' e contro il neoliberismo, Una rete intercontinentale di resistenza per l'umanita', Dalle Montagne
del Sudest messicano, Comitato Clandestino Rivoluzionario Indigeno Comando generale dell'EZLN La Realidad, Pianeta Terra, Agosto 1996
8 BBS sta per Bulletin Board Systems e sono sistemi di comunicazione telematici amatoriali con caratteristiche tecniche particolari e non omogenee fra di
loro. Oramai molto rari perlopiu' si riconoscono per la loro attitudine libertaria, localistica e per essere in rete fra loro non in tempo reale.
9 Si sa: quello che non si conosce fa paura ed e' per questo forse che i newsgroups hanno una cosi' brutta fama (tra le persone che ne ignorano la logica). Simili
alle aree di discussione delle bbs i newsgroups rappresentano invece per molte persone esperte della Rete la matrice, ovvero la parte viva di Internet, il flusso
incontrollato di informazioni e dibattiti dove misurare lo stato di salute della Rete.
10 Il Web o World Wide Web (W3) e' la rappresentazione multimediale della Rete attraverso il protocollo http. E' lo strumento piu' immediato ma
anche quello meno interattivo per rapportarsi a Internet.
11 Tommaso Tozzi, Cotropia, lifeware e coevoluzione mutuale, La Stanza Rossa, Bologna 1997.
12 Modem o modulatore-demodulatore e' uno dei tanti apparecchi di uso piu' o meno comune ormai che permettono ai nostri pc di collegarsi a
Internet attraverso un processo di trasformazione del segnale che permetta di attraversare il vettore scelto (sia esso appunto un cavo oppure l'aria
13 Si intende per comunicazione client-server un particolare modo di comunicazione nel quale vi sono dei soggetti che fanno da fornitori di servizi ed altri da
fruitori di tali servizi. Avviene anche nelle comunicazioni ben note come quella che consiste nello sfogliare delle pagine web dove il nostro programma
browser (come communicator di netscape, explorer, opera ecc.) e' il fruitore (client) e il computer che ospita le pagine il fornitore (che ha quindi installato un
server web adatto allo scopo)
14 Si intende comunemente per dominio il suffisso di primo livello che appare all'estremita' destra di un nominativo Internet e che qualifica la nazionalita' (ad
es. it per Italia) o il tipo di servizio (ad esempio org per organizzazione no-profit) di provenienza.
15 L'avvento dell'Ipv6 per la ragione che tentera' di controllare e ottimizzare il traffico di rete ha suscitato qualche perplessita' fra gli amanti della privacy in
quanto sono ipotizzabili anche delle procedure che identificano facilmente il mittente della comunicazione, al momento molto difficoltoso con il protocollo in
uso.
16 Per un approfondimento del funzionamento e dell'organizzazione della Rete sia in termini tecnici che burocratici si veda anche Luciano Paccagnella, La
comunicazione al computer, Bologna Il Mulino, 2000, 201 pp.
17 Malgrado queste forme di autogoverno e il senso di liberta' che e' avvertibile appena si accede alla Rete molte persone e collettivi si sono preoccupati nel
corso degli anni di sviluppare o ipotizzare reti autonome che avessero ancor meno strumenti di controllo di quelli presenti in Internet anche per meglio sfuggire
a quei casi di censura dell'informazione come quello rappresentato nel 1998 dalla momentanea chiusura del server di movimento di isole nella Rete ~
www.ecn.org che ha fatto discutere della Rete e delle sue potenzialita' (anche) repressive mezzo mondo. E', per esempio, opinione comune che prendendo il
controllo dei principali nodi di router della rete (non piu' di una cinquantina a livello mondiale) possono essere intercettate praticamente tutte le informazioni

della Rete! "Il progetto GAIA ~ www.ecn.org/loa/terminal/GAIA e' nato per risolvere un problema frequente nelle reti ad organizzazione gerarchica: la
dipendenza da chi detiene un livello di accesso privilegiato alla struttura piramidale". Paul Garrin, un media artisti di New York ha progettato un network
alternativo di DNS in modo che cambiando il settaggio della propria macchina sulle coordinate di uno dei server di Garrin si possa cambiare le regole
alfabetiche della Rete. E' di Tommaso Tozzi la proposta di un'INTERFACCIA FLUTTUANTE che raccolga al suo interno l'indirizzo di tutti i server nel
mondo senza nessun criterio di scelta o censura e con la possibilita' per chiunque di aggiungervi l'indirizzo del proprio server. La proposta piu' forte rimane
comunque quella denominata Freenet ~ http://freenet.sourceforge.net/ consistente in una rete di macchine che pur "appoggiandosi" ad Internet adottano un
proprio protocollo di comunicazione che le permette di ricercare, immettere e scambiarsi informazione all'interno di questa Rete senza che ci siano possibilita'
tecniche di censura o di rintracciamento dell'autore dell'informazione ovviamente avvalendosi di quello che e' indubbiamente una delle risorse piu' interessanti
della telematica attuale ovvero della crittografia cosiddetta pesante.
18 L'etimo di comunicare secondo alcuni filologi deriva dal latino: cum (insieme) e munus (dono). La comunicazione cioe' come scambio paritario
e condivisione di saperi.
19 I links sono quelle porzioni di testo riscontrabili in Rete dette zone calde su cui e' possibile semplicemente clickare sopra con il mouse per passare in tempo
(quasi) reale da una zona di un documento a un'altra oppure da un sistema informativo a un altro indipendentemente dalla loro localizzazione geografica.
20 Ovviamente sara' oggetto di discussione la struttura e il funzionamento di un motore di ricerca in una sezione apposita
21 Fa ancora piu' scalpore la notizia, riportata sempre su Nature, della scarsa possibilita' dei motori di ricerca di indicizzare la Rete indicando nella cifra
ipotetica del 14% il record di Northern Light ~ www.northernlight.com di indicizzazione della Rete. E il restante 86% (e' venuto da chiedere ai piu'...) ?!?
22 Dicasi profondita' di un sito la quantita' di differenti livelli di link che esso contiene.
23 Fa parte della nostra proposta artistica di aggirare alcuni limiti dei motori di ricerca l'approfondimento di questo argomento che verra' riportato nell'ultima
sezione di questo approfondimento.
24 L'indice di "popolarita'" (ovvero di pagine che linkano al sito preso in esame) e' uno dei parametri piu' importanti adottati dai motori di ricerca per
considerare di qualche interesse di indicizzazione un sito. Un altro parametro, anch'esso oramai molto conosciuto, e' costituito dall'aggiornamento della pagina:
piu' una pagina viene rinnovata in grafica ma soprattutto in contenuto d'informazione e piu' il motore e' invogliato a mantenerla nel proprio elenco di siti da
visitare e con frequenza di visita proporzionale alla frequenza di rinnovamento del sito registrato.
25 DEJA ~ www.dejac.om e' il famoso motore di ricerca per i newsgroups mentre TUCOWS ~ www.tucows.com e' la famosa directory per risorse
software. Ancora FTP SEARCH ~ftpsearch.ntnu.no/ftpsearch interagisce con molte archivi files in FTP e I-SURF ~ http://isurf.interpix.com e'
specializzato nel recupero di immagini.
26 E' un aspetto sul quale torneremo piu' volte comunque i motori di ricerca sono un risultato variamente bilanciato e derivante sia da un lavoro di tipo
redazionale di gruppi di professionisti il cui lavoro e' quello di cercare e filtrare l'informazione sia dallo stesso tipo di lavoro pero' svolto da automatismi di
vario tipo.
27 Un esempio di Audio e VideoLogger di nuova generazione e' costituito dalla tecnologia sviluppata da www.virage.com ed utilizzata, per esempio, anche
da Altavista.
28 Nel caso di un file MP3 viene estrapolata l'informazione normalmente usata dal lettore hardware MP3 oppure dal software di lettura presente sul computer
per dare un titolo al brano e verificarne l'autore e la lunghezza.
29 Mentre per un'informazione di tipo testo e' possibile un'indicizzazione che si avvale di dizionari comprendenti vocaboli conosciuti, per un file di tipo
binario risulta molto piu' difficile decodificare dal codice binario l'informazione che l'autore ha voluto trasmettere magari sotto forma di prestazione di un
software o sequenze di immagini. (Vedi sezione sull'accessibilita' dell'informazione). 30 Una spider e' un programma del motore di ricerca che viene
lanciato nella Rete alla ricerca di informazione: lo si puo' immaginare come un browser molto semplice e veloce incaricato di navigare e registrare
grosse quantita' di pagine web secondo rotte preordinate dal programmatore che lo ha lanciato.

Il sapere
Il sapere al cetro dell'informazione
Il sapere: concetto che accompagna da sempre le vicende umane, che ha assunto, ed assume nel tempo
posizioni diverse, se e' rapportato alle evoluzioni scientifiche, sociali e politiche. Il sapere muta secondo
le modalita' di comunicazione che lo contengono, le svolte epocali delle societa', le decisioni politiche dei
governi. Per leggere la complicata storia delle forme del sapere occorre adoperare piu' filtri e lenti,
per non incorrere in interpretazioni deterministiche ed errate, che possono causare forti abbagli se non
addirittura accecamenti. La parola sapere ha due significati costitutivi fondamentali che la
contraddistinguono. Un significato di natura propriamente contenutistica, un sapere-contenuto
che rappresenta tutto il bagaglio di informazioni e conoscenze esistente in relazione ad un periodo storico
preciso, ad un'area geografica, ad un popolo e alle sue tradizioni, e ai mezzi di comunicazione usati per
la trasmissione; si pensi alla differenza sostanziale di diffusione del sapere che avviene tramite il
approfondimento oppure via etere. L'altro significato riguarda l'aspetto strutturale e metodologico delle
tecniche usate per distribuire l'informazione descritta seguendo l'accezione del primo tipo di sapere;
ovvero, esso designa l'insieme di conoscenze dell'uso degli strumenti per accedere ed acquisire sapere,
cioe' il metodo -come direbbe Descartes: "Per metodo intendo regole certe e facili... per aumentare il
sapere e pervenire alla vera definizione delle cose". Questo sapere-metodo ha la caratteristica di essere
variabile e necessita, per il proprio sviluppo, di continui aggiornamenti. Questi due ruoli assunti
dal sapere: produzione e contenuto, circolazione e accesso, anche se ben distinti spesso coincidono, si
coordinano e sono collegati tra loro nelle proprie funzioni. Il sapere nelle due forme descritte e'
indiscutibilmente un diritto umano; ogni persona deve avere la possibilita' di accrescere sia il saperecontenuto che il sapere-metodo. Si tratta di una liberta' che deve essere garantita dallo Stato a tutta la
collettivita', cosi' come la liberta' di parola, di religione. Questo diritto umano, quindi la vita del sapere, si
evolve subendo naturali cambiamenti in funzione di tre fattori principali: tecno-scientifico, sociale e
politico. In merito al primo fattore, sarebbe cosa lunga e difficile ripercorrere la storia delle tecniche di
produzione e diffusione del sapere: le nuove scoperte, le modifiche gli esperimenti, dalla cultura orale
fino a giungere alla trasmissione WAP31. Basti pensare a due avvenimenti epocali: l'invenzione della
stampa a caratteri mobili da parte di Gutemberg (1450-1460) e la sperimentazione della prima emissione
televisiva tra New York e Washington realizzata dalla Bell (1927). Per l'aspetto sociale legato al sapere
puo' essere sufficiente un buon esempio: il grande sconvolgimento che il sapere subisce nel
periodo dell'Illuminismo; e' durante la cultura della Ragione che avviene la pubblicazione
dell'Encyclope'die di Diderot e D'Alambert (1751-1772). Il passaggio da un sapere controllato da poche
persone e distribuito secondo le loro volonta', ad un sapere diffuso accessibile alla massa; prima
grande esperienza di orizzontalita' democratica del sapere che prevede la liberta' di comunicazione come
un diritto dell'uomo32. Per quanto riguarda l'influsso della politica sul sapere, possiamo dividere la
concezione del potere sul sapere in due posizioni diametralmente opposte: liberale e dittatoriale. La prima
prevede che il sapere, in quanto diritto civile dell'uomo, sia considerato alla stessa stregua di tutte le altre
liberta'; la seconda visione politica vieta questa liberta', garantendola solo alla classe dominante. In
genere, senza limitarsi alle due opinioni antitetiche accennate, esistono decisioni politiche piu' o meno
libertarie o restrittive che condizionano direttamente il sapere33. Per tornare all'oggetto del nostro studio,
nell'ambito della comunicazione telematica le due forme di sapere: come produzione e come
circolazione, appaiono piuttosto distinte. Abbiamo l'insieme delle informazioni che sono freneticamente
prodotte per la rete, sapere-contenuto, e i modi per poterle sia diffondere al meglio che reperire e
apprendere, sapere-metodo. Quest'ultimo compito che riveste il sapere, nel contesto la visibilita' e ricerca
in Internet, ricopre una posizione rilevante se non determinate nella comunicazione tra computer. La
dimensione tecnica che diventa primaria, il privilegi di coloro che detengono le conoscenze specifiche
al riguardo, producono una sorta di monopolio del sapere tecnico ma chepotenzialmente, e di fatto, e'
abbattuto o quantomeno ridistribuito grazie alle caratteristiche del mezzo tecnologico usato, la rete. Un
sapere che difficilmente si pone il problema di essere conservato viste le sue continue modificazioni. La

modalita' di comunicazione telematica si presta poco, infatti, alla conservazione, visto la propria
immediatezza e fluidita'.
Un sapere anche mobile Essere capaci di rendersi visibili in Internet, quindi conoscere bene le regole che
ci garantiscono un ottimo posizionamento nei risultati dei motori di ricerca e sapersi districare nella
caotica fruizione del materiale divulgato dalla rete, rappresentano un sapere. Come abbiamo gia' detto, un
sapere-metodo che permette a chi frequenta il mondo telematico di far fronte al momento, "nei prossimi
cinque minuti"34 ce ne saranno altri, ai due problemi nodali: la visibilita' e ricerca in rete. Al sapere
enciclopedico35, decentrato e "prelevabile" da chiunque scorre parallelo il sapere come puro know-how,
conoscenza tecnica detenuta da poche persone: "il mouse e' la nuova chiave a stella, e' lo
strumento polivalente per conoscere e possedere il mondo. Nella rete concreta del territorio, c'e' un sapere
che la scuola di per se' non possiede"36. Il sapere assume una posizione centrale, mantenuto in una
roccaforte nella quale non tutti entrano37. Detto cosi' brutalmente potrebbe apparire una gratuita
provocazione, una difesa di coloro che sono contrari a qualsiasi innovazione scientifica. Invece crediamo
possa essere una spinta positiva per migliorare la nostra vita all'interno della rete. Ne e' la prova evidente
il sempre maggiore aumento delle pratiche comunicative che si basano sulla filosofia del work in progress
e delle risorse free38, tipici atteggiamenti che connotano soprattutto il sapere pratico, il sapere
come strumento. Il know-how ha stretta necessita' di essere condiviso per migliorarsi continuamente, non
tanto di essere custodito gelosamente come un mistero esoterico39. L'eccezionalita' del sapere individuale
viene meno, a favore della cooperazione nell'acquisizione e nella costruzione di un sapere di gruppo, che
diventa un patrimonio collettivo aperto pronto a ricevere costanti apporti, sia demolendo che ampliando il
gia' conosciuto. Il know-how caratterizzato dalle differenze e specializzazioni assume dunque un ruolo
centrale e decisivo nell'aspetto situazionale della comunicazione, dell'arte e soprattutto delle imprese. La
centralita' del sapere e' allo stesso tempo mobile, provvisoria e flessibile. Sarebbe impossibile pensare il
conoscere un mestiere informatico come un qualcosa di definitivo, di durevole per tutta la vita; sovente
bisogna azzerare quello che abbiamo appreso per ripartire di nuovo40. Questa centrale flessibilita'
influisce profondamente nei rapporti interni al mondo del lavoro; le strutture rigide e gerarchiche di
produzione sono costantemente scalfite dalle individualita' dei singoli i quali si sentono sempre
piu' responsabili e co-autori di un processo unico. Non si debba credere pero' che sia oro tutto cio' che
luccica, i nuovi orizzonti della New Economy non fanno sparire con un colpo di bacchetta magica le
disuguaglianze e lo sfruttamento del lavoro; l'astrattezza di certi investimenti ed operazioni commerciali
destinati a pieni fallimenti ricadono sempre sui piu' deboli, singoli lavoratori, costretti a camminare
sempre piu' sul filo del precariato, dell'insicurezza e del rischio. Gli slogan che molti imprenditori della
rete, a piu' riprese ripetono spesso: "la rete siete voi", "Internet e' di tutti", eccetera, non riescono
concretamente a far sparire i fantasmi del Fordismo41.
Aspetti sociali del sapere
L'argomento trattato in questo approfondimento esamina due fattori, la visibilita' e la ricerca in rete, che
rappresentano una parte di tutto quel sapere tecnico-pratico indispensabile per la comunicazione
telematica. Questo sapere know-how e' caratterizzato da tre aspetti peculiari. Esso e' cumulativo,
cooperativo e flessibile. Il canale maestro dove e' trasmesso il know-how e' Internet: website, forum,
newsgroup su temi specifici; che insieme ad altri luoghi: spazi associativi, ambiti di formazione nel
mondo del lavoro, meeting42, ecc. stabiliscono dei rapporti sociali che si fondano su relazioni reciproche
di scambio delle conoscenze. Un sapere incarnato nella condivisione delle competenze, che e' l'esatto
contrario del sapere riconoscibile solo nel modello istituzionale: autorita' statali, scuole, monopoli
editoriali, concorsi. L'istituzione assoluta che abbisogna costantemente di autorevolezza, che si preoccupa
di difendere le posizioni forti ed elitarie del sapere, contribuendone a sostenere il suo potere culturale per
paura di perderlo. Detenzione e salvaguardia del sapere come manifestazione di potenza a scapito delle
relazioni sociali, il piu' possibile paritarie tra gli individui. Il sapere che e' legittimato e conservato
dall'istituzione e la stessa che si riproduce per mezzo del sapere. Il know-how, invece, si rivela un
componente propulsivo per quanto riguarda lo spazio di relazioni sociali all'interno delle comunita',
l'elemento principale che permette la comunicazione di rete che implica la collaborazione tra piu' persone.
Una forma di cooperazione del sapere dove ognuno riceve secondo i suoi bisogni e offre secondo le sue

capacita'. La messa in connessione delle differenze individuali disposte ad essere collettivizzate, senza
che esse perdano la propria originalita' ed autonomia rischiando altrimenti l'omologazione e
l'appiattimento. Questo valore relazionale del sapere alimenta la vita sociale in Internet e collegata ad
esso, seguendo il paradigma tipico del networking, cioe' la forza di mantenere in vita una comunita'
attraverso lo scambio da pari a pari per un fine unico. Quella propensione a mettere in comune
le conoscenze, a pensare il network come luogo di decentramento del soggetto singolo, di dissoluzione
delle identita' partecipanti, dove il proprio io e' "un io flessibile, un collage di frammenti sottoposti a un
incessante divenire, sempre aperto a nuove esperienze"43; concependo il lavoro di costruzione del sapere
come un "si e' fatto qualcosa", non "ho fatto qualcosa". Questo valore di rete e' una vera e propria fonte di
ricchezza, frutto delle "utopie" del mondo cyberpunk, alla quale oggi si abbeverano le imprese
commerciali della nuova economia. Una ricchezza sociale che va sempre piu' trasformandosi in una
strategia imprenditoriale di guadagno44.
La partecipazione come sapere collettivo
Prima del saper fare e' necessario il desiderio di voler saper fare, e questa necessita' si esplica con lo
sforzo per acquisire degli strumenti, in pratica con la partecipazione alle vicende del sapere in rete. Le
reti di computer compongono quella parte di realta' che e' il mondo di Internet, in cui milioni di persone si
scambiano nformazioni, sentimenti, sapere ed emozioni; per questo la nostra parte di vita digitale deve
essere presa sul serio. La comunicazione elettronica ha come scopo principale il mantenimento
e l'evoluzione delle relazioni tra le persone, connesse alla rete, riconosciute attraverso dei codici
(c.parrini@leonet.it, www.strano.net) trasmessi con diversi dispositivi (email, pubblicazioni web ed
altro)45. Pensiamo quindi alla continua estrema riduzione della fisicita' relativa alla convivenza sociale,
quanti abbracci, odori, strette di mano verranno meno, e quante opere d'arte oggettuali vanno
scomparendo. Coloro che si troveranno al di fuori delle comunita' elettroniche saranno come pesci fuori
dall'acqua, piante senza luce. Molti antropologi, sociologi e filosofi contemporanei sostengono
pessimisticamente che la futura vita digitale portera' con se' solitudine e depressione, ma non tengono
conto di come l'assenza di uso di nuove tecnologie dell'informazione isolera' gli individui dalla
comunicazione, dalla conoscenza, fonti indispensabili per la nostra esistenza, con altrettanti prevedibili
risultati catastrofici. Stabilendo relazioni di particolare interesse con nuove persone, inserendosi
all'interno di comunita' dedicate ad uno specifico argomento, la nostra percezione del reale
subira' mutamenti; non solo accrescera' la varieta' dei punti di vista su determinati temi, ma ci permettera'
di estendere il nostro punto di vista, di dichiarare la nostra posizione, in qualche modo di esprimersi.
Puo' accadere che una certa comunita' non accolga, non "aspetti" un individuo-utente oppure che lo stesso
soggetto abbia l'esigenza di gettare le basi per aprire una nuova comunita' (magari con diverse logiche
di comportamento) dove convogliare altri individui con interessi analoghi, innescando un meccanismo di
mutualita' a favore di uno spirito di convivenza piu' aperta, contro ogni forma di standardizzazione. Tutto
cio' e' strettamente legato al sapere tecnico, il pericolo dell'esclusione da questo sapere dipende quindi
dalla nostra volonta' di partecipare collettivamente non tanto alla produzione di risposte astratte ma alla
definizione di regole di sopravvivenza.

31 WAP (Wireless Application Protocol): e' il protocollo standard di accesso a Internet da parte dei telefoni cellulari e apparecchiature per la comunicazione
via radio. Si puo' operare nel Word Wide Web, usare la posta elettronica e i newsgroup. V. il sito http://www.wapdrive.net/.
32 Infatti, l'influsso della grande impresa libraria lo ritroviamo pochi anni dopo quando, in seguito alla Rivoluzione Francese, l'Assemblea Nazionale il 26
agosto del 1789 inseri' nella dichiarazione dei diritti dell'uomo il seguente paragrafo: "La libera comunicazione dei pensieri e delle opinioni e' uno dei diritti
piu' preziosi dell'uomo: ogni cittadino puo' dunque parlare, scrivere, pubblicare liberamente".
33 Un caso esemplare di provvedimento governativo, di questi ultimi anni, e' la legge sulla regolamentazione delle reti televisive in Italia (legge Mammi'
1990-1991).

34 La frase e' lo slogan preso in prestito da Next five minutes, conferenza e festival sull'arte, politica, attivismo e media tattici. La conferenza N5M nasce nel
1993; la terza si e' tenuta ad Amsterdam e Rotterdam, 12-14 marzo 1999; http://www.n5m.org.
35 L'Encyclope'die segna lo sconfinamento di una lettura universalistica del sapere, cara alla cultura seicentesca in particolare a Leibniz,
verso un'impostazione classificatoria delle conoscenze, registrando i legami fra le varie discipline, assumendo la funzione di un "mappamondo" del sapere.
36 Foa V. e Ranieri A., Il tempo del sapere, Einaudi, Torino 2000, p. 42.
37 Anche linguisticamente il sapere tecnico-informatico e' scollato dalla comunicazione linguistica in generale. Talvolta, parlando con programmatori o
sistemisti di rete, ci troviamo di fronte ad un vero e proprio bilinguismo: i termini e le frasi usati, infatti, sono tutt'altro che elementari e comuni.
38 V. l'esperienza Linux. Creato da Linus Torvalds, Linux e' un sistema operativo free-resource, cioe' che le sorgenti di programmazione sono aperte ad
interventi di chiunque voglia fornire integrazioni per migliorarne le funzionalita'. V. http://www.linuxresources.com. E' da rilevare che nel 1999 la giuria del
Prix Ars Electronica di Linz ha assegnato proprio al software Linux la Golden Nica, con la motivazione: "Si fonda sui contributi di migliaia di programmatori
che volontariamente collaborano online in uno sforzo di gruppo che ha creato un sistema operativo rimarchevolmente robusto", citata in "Internet News", n
11, anno V, p. 53.

V. Gli alberi di conoscenze. Dispositivo di rete concepito da Michel Authier e Pierre Le'vy che si pone l'obiettivo di sviluppare la

conoscenza all'interno di comunita' virtuali, lavorando sul concetto di intelligenza collettiva, riconoscimento di saperi, apprendimenti cooperativi.
"Poggiando sulle autodescrizioni degli individui, un albero di conoscenze rende visibile la molteplicita' organizzata nelle competenze disponibili in
una comunita'" (Le'vy P., Cybercultura, Feltrinelli, Milano 1999, p. 176 e tutto il cap. 129); per un'analisi completa v. Autier M., Le'vy P., Gli alberi di
conoscenze, Feltrinelli, Milano 2000.
39 Non e' un caso che una forma ante litteram di procedura operativa free resource, circa la costituzione e trasmissione del sapere, e' rappresentata dal sapere
medico nel V sec. a.C. Negli scritti egizi e babilonesi vieneusato lo stile manualistico, che seguendo una concezione cumulativa del sapere, la condivisione
delle analisi personali dei medici e la formulazione di quadri clinici, si giungeva ad allargare il sapere gia' conservato, con la descrizione delle nuove malattie,
diagnosi e terapie, riportata nei primi cataloghi-manuali. Il sapere medico, come sapere tecnico, rispetto ad altri saperi di carattere teorico: sapere
filosofico, sapere giuridico, che continuavano a mantenere una comunicazione orale -per trovare qualcosa di scritto bisogna giungere ai Romani (Bruto, meta'
del II sec. a.C.).
40 "Due considerazioni nei confronti di chi opera nella rete. 1) Guai a sentirsi superiori, nel cybermondo si riparte sempre da zero; 2) Guai a trascurare il
cliente, nella nuova economia ha ancor piu' ragione che nella vecchia". Intervista a Michel Duponchel, direttore dello sviluppo IBM di "@_city", Costa
Azzurra, Corriere della Sera, 27/03/2000.
41 In buona sostanza il campanello d'allarme suona quando "all'idea che le reti aperte siano piu' disponibili a reinvenzioni radicali rispetto a gerarchie
piramidali come quelle che dominavano l'era fordista", si affianchino le pratiche del reengineering, "reingegnerizzazione" o "ristrutturazione", con il loro
aspetto piu' evidente che e' il downsizingcioe' la riduzione dei posti di lavoro (Sennet R., L'uomo flessibile, Feltrinelli, Milano 2000, p. 47 e passim).
42 V. l'Hackmeeting, incontro annuale autogestito dedicato agli aspetti sociali, politici e creativi della telematica. Sono previsti incontri, seminari e conferenze
su: crittografia, anonimato, sistemi open-sorce, controllo, sperimentazione, hackeraggio sociale, telematica low tech, ec., si realizzano eventi artistici con
video, erformance, concerti e dibattiti. Il primo Hackmeeting si e' tenuto il 5.6.7 giugno 1998 presso il C.P.A FISUD a Firenze, il secondo il 18.19.20 giugno
1999 al L.S.O.A Deposito BULK di Milano, il terzo il 16.17.18 giugno 2000 al C.S.O.A Forte Prenestino di Roma. V. http://www.hackmeeting.org.
43 Sennet R., L'uomo flessibile, cit., p. 134.
44 Come sottolinea Carlo Formenti citando Kevin Kelly: "...il messaggio di Kelly ai manager dell'informatica suona piu' o meno cosi': imitando gli hacker che
volevano regalare computer e programmi al popolo, costruirete il vostro successo, perche' 'il trionfo del popolo' sara' il vostro trionfo. Chi non capisce questa
verita' e crede di poter campare dei successi passati, anche se e' ancora al vertice, ignora di non essere mai stato vicino alla rovina. Rovina che colpira' tanto
piu' in fretta chiunque si sforza di costruire 'sistemi di proprieta'' chiusi, per proteggere prodotti e know how dalle imitazioni della concorrenza..." (Formenti
C., Incantati dalla rete, Raffaello Cortina Editore, Milano 2000, p. 216).
45 Agli inizi del 2000 il professore americano Norman Nie attraverso lo Stanford Institute for the Quantitative Study of Society ha realizzato un dossiersondaggio con riferimento un campione di 4113 soggetti di eta' che supera i 18 anni: ne viene fuori cheoltre il 55 per cento ha accesso ad Internet, di questi
solo il 15 per cento trascorre meno di un'ora la settimana on-line, il 49 per cento da 1 a 5 ore, il 22 per cento da 5 a 10 ore, il restante 14 per cento supera le
dieci ore settimanali di collegamento.

Ricerca
La ricerca di informazioni in Rete
La ricerca di informazioni in Rete e' svolta adoperando molteplici strumenti che sono comunemente
definiti motori di ricerca. In realta' quando cerchiamo in Rete un'informazione, forse senza rendercene
conto46, utilizziamo una serie di strumenti dotati di caratteristiche e funzioni molto diverse fra loro e tra i
quali solo pochi possono essere propriamente classificati nella categoria dei "motori di ricerca". Secondo
la nostra interpretazione, i principali strumenti di ricerca si possono suddividere in quattro classi distinte:
le comunita' in Rete; i bookmarks o directories; gli agenti intelligenti o strumenti push; ed infine gli
autentici Motori di Ricerca. Per comunita' in Rete si intendono i newsgroups47, le chat48, le mailinglists49, e tutto cio' che si usa in genere per interloquire con altri soggetti umani. Spesso e' in questi ambiti
che si trovano le notizie piu' fresche e aggiornate, o le riflessioni piu' originali rispetto a un argomento di
pubblico dibattito. Cio' che contraddistingue la comunita' da altri ambiti, ormai sempre piu' chiusi e
gerarchici, e' un generoso quanto impressionante spirito collaborativo - sicuramente all'impronta
della solidarieta' e della cooperazione orizzontale - e che deriva storicamente dagli atteggiamenti ed
atmosfere di aperto sperimentalismo maturate in seno alla scena anni '70 delle prime comunita' hacker che
coltivavano e attuavano il (bi)sogno di praticare una reale socializzazione dei saperi50. Oggi troviamo un
esempio di questo spirito di co-partecipazione nelle situazioni in cui qualcuno in difficolta' lancia un
appello di aiuto - perlopiu' richieste di natura tecnica per risolvere problemi di funzionamento hardware o
software - e subito riceve risposte esaurienti da persone altamente qualificate. Le comunita' - come pratica
di comunicazione orizzontale - , nella maggior parte dei casi, rappresentano anche un tool, o meglio, un
contesto in cui reperire informazioni ad hoc o risolvere esigenze specifiche51. Un tentativo classico per
reperire informazioni rimane comunque quello di improntare una ricerca sulla base di cataloghi gia'
esistenti, la cosiddetta collezione dei siti bookmarks, frutto delle segnalazioni di precedenti navigazioni.
Oppure si puo' procedere facendo riferimento a servizi analoghi di tipo pubblico online: le directories
dove sono raccolti, divisi per categorie di interesse, numerosi siti specializzati in settori anche molto
specifici e raccolti in cataloghi52 (dalla letteratura cyberpunk all'immersione subacquea, dalle sostanze
psicoattive all'esoterismo). Rientrano nella categoria delle directories sia la proliferazione odierna dei
portali sia il caso di alcuni famosi servizi, sempre di directories ma pubblicizzati come motori di ricerca:
l'italiano Virgilio o l'internazionale Yahoo53. Pur integrando nei loro servizi anche possibilita' di
reperimento dati nello stile e nelle modalita' dei motori di ricerca classici, in realta' forniscono
principalmente una raccolta di siti divisi per categorie, catalogata ed etichettata da apposite redazioni in
tutto e per tutto simili ad eclettiche redazioni di un'agenzia di informazione presente in altri media e la cui
composizione raggiunge perfino le centinaia di navigatori professionisti. Alcuni cybernaviganti
particolarmente smaliziati preferiscono invece ricorrere a tecnologie piu' sofisticate e impegnative: le
tecnologie push o agenti intelligenti, cioe' tutti quegli strumenti che permettono, una
volta opportunamente configurati, di cercare per conto proprio l'informazione dispersa nel Web partendo
da una rotta iniziale di navigazione (anch'essa tracciata dall'utente oppure personalizzata sui suoi bisogni
da parte del servizio che offre tale tecnologia) e scandagliando gli abissi del cyberspazio con una rete
costruita ad hoc e nelle cui trame digitali rimane impigliato solo il materiale auspicato, gia' setacciato alla
fonte da eventuali indesiderata. Si tratta, a questo proposito, dei gettonati servizi informativi di carattere
finanziario, notiziari politici e sportivi che provvedono a far arrivare alla scrivania multimediale e
telematica di accreditati giornalisti e businessmen, ad esempio, bollettini quotidiani sull'andamento delle
borse o anche solo del tempo meteorologico54. Ma allora in che cosa consiste un vero e proprio Motore di
Ricerca, l'oggetto ancora misterioso dal fascino macchinico e dal nome ingegneristico di questo
approfondimento...?
Il Motore di Ricerca

Il motore di ricerca e' un insieme di strumenti hardware e software funzionali alla ricerca
dell'informazione: procedimento complesso e composto da piu' fasi. La prima fase e' costituita
dall'individuazione dei documenti su cui effettuare la ricerca di informazioni e e' svolta dai cosiddetti
programmi robot o spider. E' un'attivita' molto impegnativa dal punto di vista delle risorse di connettivita'
e di spazio disco, tanto piu' che l'informazione in Rete e' spesso destinata a mutare contenuto o indirizzo
oppure addirittura a scomparire. E' questo forse uno dei lati deboli dei motori di ricerca poiche' i limiti di
spazio disco e di connettivita' obbligano i motori a dover prendere in esame solo una parte della Rete,
ignorandone la geografia globale. Sommariamente, esiste una serie di url55 di partenza dai quali - di link
in link56 - sono recuperati molti documenti fino al limite massimo di spazio disco occupabile e,
connettivita' permettendo, in un lasso di tempo accettabile. L'informazione cosi' trovata sara'
quindi oggetto di visite periodiche da parte dello spider, in un ciclo che si aggira sulle 3-4 settimane57. Il
limite, pur fisiologico della porzione di Rete monitorata e che e' quantificabile nelle migliori delle ipotesi
nel 10-15% presunto58, e' una delle ragioni per cui i motori si prestano all'ipotetica accusa di controllo o
addirittura censura dei contenuti della Rete. In base a quali considerazioni si procede all'esclusione
di materiale: considerazioni culturali oppure interessi di marketing? Va pur detto, a onor del vero, che,
escludendo alcuni motori di ricerca famosi come Virgilio e Yahoo ma che in realta' non sono altro che
directories create da un lavoro redazionale e quindi basato su meccanismi umani di discrezionalita' di
scelta del materiale esaminato, la maggior parte dei motori classici fornisce con un comando al loro
interno (del tipo ADD URL / ADD SITE) la possibilita' di aggiungere un sito qualsiasi all'elenco
delle liste da reperire e indicizzare. In altre parole tali comandi conferiscono al motore un meccanismo di
relativa apertura all'utenza finale. Una volta reperiti i documenti si passa alla fase
successiva: l'indicizzazione. L'indicizzazione e' svolta in maniera funzionale, attraverso complessi
algoritmi59 che tengono conto della rilevanza e della frequenza dell'informazione contenuta nel
documento da catalogare per essere immesso in un database. L'obiettivo finale di indicizzazione consiste
infatti nella creazione del database, una raccolta-catalogo che dovra' essere interrogabile attraverso
interfacce user-friendly dal navigatore in cerca di informazioni. Cio' che, al di la' di questi
processi sotterranei, infine si manifesta all'utente finale e' la lista dei documenti stimati piu' rilevanti
rispetto all'interrogazione effettuata, secondo il criterio del ranking60.
I motori principali
Senza voler essere provinciali, iniziamo con due esempi "italiani": Virgilio61, "il bello di Internet", un
motore di ricerca in versione directory fra i piu' pubblicizzati e conosciuti; e Arianna, storicamente "il
motore di ricerca italiano". Il primo, essendo estremamente selettivo nella sua parte di catalogo scelto da
una redazione, e' anche molto scarno di informazione. Viceversa Arianna, essendo un motore di ricerca
nel senso classico or ora descritto, copre una grande fetta di Rete: oltre 5 milioni di pagine Web
indicizzate e la capacita' di soddisfare oltre cinquecentomila interrogazioni al giorno in maniera
efficace. Fra i piu' particolari in campo "internazionale" e' Excite che a tutt'oggi possiede versioni
opportunamente disegnate sulle caratteristiche informative e linguistiche di vari paesi - Australia, Canada,
Cina, Francia, Germania, Italia, Giappone, Pesi Bassi, Spagna, Svezia e Regno Unito. La directory per
eccellenza in campo mondiale e' senza dubbio Yahoo, sebbene NorthernLight proponga fra le sue
versioni di presentazione dei risultati anche un approccio che, impiegando cartelle (SEARCH
FOLDERS) suddivise in 200mila soggetti tematici, mostra i risultati nello stile organizzato ad albero
della directory. Google, uno degli ultimi arrivati ma che ha subito conquistato una grande visibilita' in
Rete grazie alla sua grafica semplice e scarna senza dar troppo rilievo ai banners pubblicitari, con
l'opzione "I'm feeling lucky" fornisce la possibilita' di trovare immediatamente l'argomento di interesse.
Si tratta di una funzione il cui successo e' tanto illusorio quanto fortuito, come illustra il nome, ma che
nasconde una delle proprieta' che ha fatto non solo la fortuna di questo giovane motore di ricerca ma
anche scuola, rispetto agli altri, in fatto di ranking. La popolarita' di un sito, quindi, il premio consistente
nell'essere posizionato in cima ai risultati di ricerca (il tanto ambito top ranking) vengono infatti misurati
sul numero di link che questo sito puo' vantare in Internet ovvero sul fatto che tanti altri siti lo abbiano
linkato. E' una funzione sicuramente efficace ma che nasconde anche un risvolto perverso: il fatto di
premiare sempre e comunque i piu' noti, finendo per escludere - e non a torto si puo' dire censurare - le
piccole realta' emergenti e poco pubblicizzate62 che, secondo questa logica a spirale, appaiono destinate

a rimanere nell'ombra nella maggior parte dei casi. Per facilitare la ricerca tra una ormai esponenziale e
proliferante mole di informazioni, i motori di ricerca si sforzano di escogitare nuove tecniche. Infoseek,
ad esempio, si e' inventato la possibilita' di ricercare documenti che siano il piu' possibile simili ad uno in
particolare, mentre DirectHits pone in evidenza i siti piu' visitati su un determinato argomento. HotBot
mette a disposizione dell'utente una miriade di variabili di ricerca tra le quali le piu' celebri riguardano le
possibilita' di ricercare documenti reperiti e indicizzati, rispettivamente nell'ultimo mese, nelle ultime due
settimane o nell'ultima settimana, sviscerando - come dice la traduzione stessa del nome - la possibilita' d
trovare materiale "caldo", le notizie piu' fresche e aggiornate. Altavista, sia nella versione italiana che
inglese, e' uno tra i pochi motori che presenta addirittura la possibilita' di utilizzare comandi specifici di
ricerca avanzata come si puo' illustrare in alcuni esempi: "Corvo Rosso": cerca esattamente la stringa
"Corvo Rosso" e nulla al di fuori di questa espressione domain:it: pagine che fanno riferimento solo al
dominio .it link:http://www.shake.it: verifica quanti links secondo il database di Altavista puntano a tali
siti host:www.ecn.org: pagine che fanno riferimento all'host (nodo o server di Rete)
www.ecn.org image:che: pagine che contengono presumibilmente immagini del che Altavista propone
altri tools aggiuntivi, come la possibilita' di operare una ricerca mediante l'impiego degli operatori
booleiani. Si tratta in parole povere di operatori utilizzati in logica matematica per allargare o restringere
un campo di definizione. Ad esempio:
corvo AND rosso: cerca "corvo" e "rosso"
corvo AND NOT rosso: cerca "corvo" ma non "corvo rosso"
corvo NEAR rosso: cerca "corvo" e "rosso" dove si presentino non solo nella stessa pagina come per
AND ma anche vicini
Di grande utilita' e risparmio di tempo sono infine i meta-motori di ricerca, sistemi piu' semplici dei
motori di ricerca poiche' constano di interfacce che vanno ad interagire, rigirando l'interrogazione fatta
al metamotore, con decine oppure centinaia di motori di ricerca. Nel guadagnare in numero di risposte, si
perde tuttavia in qualita'; c'e' il rischio di effettuare un tipo di interrogazione meno raffinata, dal
momento che con questi strumenti risulta troppo complesso richiedere un'interrogazione sofisticata come
quella illustrata per Altavista. Infatti interrogando piu' motori aventi regole di interrogazione anche
molto diverse tra loro, la ricerca avanzata e' drasticamente ridimensionata. In una panoramica sui motori
di ricerca, appare evidente che molti motori condividono lo stesso database dal quale attingono le
informazioni da presentare nella lista dei risultati di ricerca finale, pur ordinandoli in maniera diversa. A
questo proposito una risorsa condivisa da molti motori di ricerca e' infatti il famosissimo Inkitomi.
Tecniche di ricerca
I motori di ricerca, per loro natura fisiologica e struttura anatomica, rappresentano uno strumento con cui
l'utente, cybernavigante esperto o di primo pelo, si interfaccia con la ricerca dell'informazione in
Rete. Spogliata dalla responsabilita' della ricerca, la Rete si presenterebbe infatti come un immenso
oceano informazionale, un campo a maglie larghe le cui frontiere sono in continuo e fluttuante
movimento. Come reperirvi l'informazione? Quali pratiche sperimentare? Bisogna compiere una serie
di passaggi pratici per raggiungere il reperimento delle informazioni in una situazione cosi' complessa,
innanzitutto ovviando alle problematiche e ai limiti affrontati finora, nella speranza di usufruire di tutte le
opzioni offerte dalla Rete e dall'inventiva dei naviganti stessi. Una buona ricerca in Rete deve essere
performativa, nel senso di fondarsi su un criterio efficientistico, perlomeno nel tentativo di ottimizzare
le capacita' tecniche del mezzo; ma deve anche essere in grado di integrare l'impiego della tecnologia con
la creativita', dal momento che sappiamo che non esiste nessuna verita' ma solo combinazioni
pragmatiche.
Suggeriamo in questo senso un possibile percorso di ricerca:
1) verificare se fra i propri bookmarks esistono gia' indirizzi utili;

2) ipotizzare un dominio www.info_da_cercare.it ma anche i suoi possibili equivalenti .com, .org, .net
ecc.;
3) non vergognarsi di chiedere alla comunita' di cui si fa parte in Rete, sia essa una lista, un newsgroup o
un canale irc, lumi in materia; e' altrettanto efficace provare a cercare altre comunita' in Rete che
si presume che siano a conoscenza delle informazioni cercate;
4) trovare tutti gli strumenti push in materia noti per poter ricercare il tipo di informazione auspicata;
5) sfogliare le directories, i cataloghi e i portali in Rete pertinenti in materia;
6) interrogare tutti i motori di ricerca e i metamotori conosciuti tramite interrogazioni semplici ma anche
in modalita' avanzate (e dove possibile ricorrere alla logica booleiana);
7) avvalersi di help online come l'italiano www.vorreisapere.com sul quale si puo' inviare una richiesta ad
un operatore in carne ed ossa che, per nostro conto, effettua la ricerca inviandone il risultato per
email. Solo l'esercizio della critica e l'interazione comunicativa, nell'ambito di una pratica collettiva dei
saperi, possono forse esorcizzare i rischi di tecno-controllo o censura digitale insiti in un perverso e
cattivo impiego dei motori di ricerca in Rete. Nella prospettiva postmoderna di una proliferazione che
tende all'infinito dell'informazione su web e della sempre maggiore volatilita' dell'informazione stessa
,rimane praticabile la strategia del giocatore - di chi conosce le regole del gioco - ma ne sa anche
stravolgere il senso e capirne la logica profonda.
46 Con questo non vogliamo accusare di dabbenaggine la media delle persone naviganti in Rete ma e' pur vero - purtroppo - che si sta affermando un modello
per cosi' dire televisivo dell'utilizzo della Rete per cui si svolge automaticamente una serie di funzioni immediatamente utili ma senza riflettere sulla natura e
sulle caratteristiche di funzionamento degli strumenti di Rete, senza tenere conto che tutto cio' influisce negativamente sulla qualita' dei risultati ottenuti.
47 I newsgroups sono forum pubblici di discussione usufruibili tramite un newsreader come il famoso FreeAgent che si collega a un newsserver pubblico o
piu' comunemente al newsserver del proprio provider di accesso per visionare i forum di eventuale interesse ai quali abbonarsi e partecipare alla discussione
con decine, a volte migliaia di altri utenti. I newsgroups si trovano in tutte le lingue e su i piu' disparati argomenti, fra quelli storici e a volte piu' interessanti e'
doveroso segnalare quelli contrassegnati con la gerarchia alt(ernative).
48 Le chat sono tutti quei momenti in cui si realizza una comunicazione in tempo reale con uno o piu' interlocutori umani perlopiu' attraverso servizi Web
appositamente creati dallo scopo, ma anche attraverso software molto veloci ed efficaci come l'IRC - Internet Relay Chat - oppure attraenti e flessibili, per le
loro caratteristiche multimediali come ICQ - I Seek You. Da notare come in altri casi, acronimi che identificano software o servizi in Rete si debbano
sciogliere con la pronuncia inglese ottenendo la descrizione del loro funzionamento.
49 Per iscriversi a una mailing-list, ovvero a un dibattito che si svolge attraverso lo scambio di e-mail fra indirizzi di posta personali, e' necessario inviare una
stringa di comando che varia da mailing-list a mailing-list a un programma apposito come Majordomo o Listserver, oppure interfacciarsi ad appositi servizi
Web che facilitino questo compito di iscrizione.
50 Sono gli anni, decade sessanta-settanta, prima della privatizzazione delle scoperte dell'industria informatica di base, in cui si elabora una pratica collettiva
della ricerca di avanguardia nel settore del software e dell'hardware. Ne e' un emblema la figura di Felseinstein, eretico pioniere dell'informatica (Raf Valvola
Scelsi, No Copyright, Shake Edizioni, Milano1994).
51 In questa sezione verra' approfondito il funzionamento dei motori di ricerca, mentre le possibilita' di ricerca offerte dalle comunita' in Rete, dalle directories
e dalla tecnologia push sara' materia di approfondimento di sezioni successivi.
52 Il catalogo, secondo l'interpretazione di Bruno Snell ("La civilta' greca e le origini del pensiero europeo", Einaudi Tascabili), e' uno dei tratti di matrice
comune del pensiero occidentale. In particolare fa la sua prima apparizione nella letteratura arcaica dove prima Omero e poi Esiodo lo adoperano nei loro
scritti (celebre il "Catalogo delle navi" nel secondo capitolo dell'Iliade e l'elenco delle Muse ne "I lavori e i giorni") utilizzandolo come elemento teorico di
conoscenza ma anche come elemento esornativo ed espediente narrativo: l'esigenza di creare un ordine (kosmos) sia mentale che estetico dal chaos
dell'universo esistente si manifesta nella scrittura del catalogo, che appunto e' una delle modalita' di ordinare gli oggetti nella forma di lista.

53 E' curioso utilizzare termini come nazionale e internazionale in un approfondimento come questo che trattando di Rete non dovrebbe tenere conto delle
frontiere politico-burocratiche: in realta' sin intende per "italiano" un servizio realizzato in lingua italiana o in Italia; e "internazionale" un servizio che per la
sua capacita' di trattare materiale informativo originario di piu' paesi e in piu' lingue puo' essere appunto cosi' definito.
54 Spesso e volentieri si pensa a questi agenti intelligenti nei termini di strumenti molto raffinati e di difficile gestione. In effetti in alcuni casi lo sono, ma
esistono applicativi relativamente semplici da utilizzare come Teleport o Wget che configurati in maniera specializzata e puntati su siti di partenza efficaci
sono in grado di realizzare report quotidiani di grande efficacia su ogni argomento.
55 URL sta per Unique Resource Location ovvero significa che ad un indirizzo - in questo caso indirizzo web - puo' corrispondere unicamente un solo
documento.
56 Una delle caratteristiche principali del Web e' appunto quella di poter effettuare una navigazione ipertestuale che appoggiandosi allo strumento del link
permette di passare da un documento a un altro indipendentemente dalla loro localizzazione geografica o di Rete.
57 La periodicita' in questione dipende da vari fattori ed e' direttamente proporzionale alla frequenza con cui viene aggiornato il sito su cui si trova la
documentazione reperita dal motore stesso.
58 Presunto nel senso che e' letteralmente e scientificamente impossibile determinare la grandezza della Rete e la quantita' dei documenti ivi presenti.
59 L'argomento verra' piu' diffusamente trattato nella prossima sezione.
60 Un articolo molto sintetico e chiaro e' quello di Attardi Giuseppe, Ricerca di informazione su Web, in AI*IA Notizie, Vol. 12, 1999, No. 2, p. 24-27.
61 Per visualizzare uno qualsiasi dei motori di ricerca citati in questo approfondimento e' sufficiente anteporre www. e posporre .com oppure .it (nel caso degli
esempi italiani) al nome indicato, escamotage linguistico che peraltro mette in risalto il processo di massificazione e commercializzazione di questi strumenti.
62 Si potrebbe dire poco linkate in questo caso: ovvero il link come sinonimo di popolarita'.
63 Dato un sito appena reperito e di comprovato interesse si puo' utilizzare questa funzione del motore per reperire altri siti il cui contenuto informativo e'
stimato simile.
64 Da George Boole (1815-1864) scienziato che invento' quella che poi venne chiamata algebra booleana: la base matematica sulla quale si fonda l'algebra di
commutazione dell'elettronica digitale che consente di elaborare i valori falso e vero che si riferiscono a proprieta', proposizioni, enunciati eventi ecc.
65 Un esempio per tutti www.metamonster.com che nella sua versione completa e' in grado di interrogare contemporaneamente piu' di 500 motori di ricerca.
66 www.inkitomi.com
67 Jean-Franois Lyotard ne La condizione postmoderna.
68 Nel momento in cui andra' in stampa questo approfondimento probabilmente sara' stato approvato il nuovo regolamento dell'ICANN - una delle
tante istituzioni che regolano Internet - riguardanti i suffissi di dominio di primo livello e che prevede molte nuove possibilita' come .shop per attivita'
commerciali e .news per i servizi informativi
69 Il percorso di ricerca puo' essere differente da quello proposto e puo' anch'esso essere di natura ipertestuale, cioe' si potrebbe chiedere nell'ambito della
mailing-list a cui si partecipa se esistono directories utili in materia oppure si puo' cercare con un motore di ricerca se esiste un canale push utile allo scopo.
70 Anche se non e' attualmente stimato molto affidabile questo genere di servizi e' emergente e si conquistera' probabilmente in un prossimo futuro una certa
notorieta' e quindi una fetta di mercato ragguardevole: negli States, per esempio, sono gia' numerosi e molto frequentati i servizi educational, di training e di
formazione universitaria online che possono, in un certo senso, anche essere considerati complessi sistemi di ricerca-reperimento e acquisizione
dell'informazione. Non c'e' da stupirsi della (apparente) gratuita' di alcuni di questi servizi poiche' viene bilanciata dalla fidelizzazione del nostro indirizzo di
posta elettronica che viene presumibilmente associato a una identita' - si' di Rete ma corrispondente a un consumatore vero e proprio che ha delle
preferenze anche di consumo (e che sono dichiarate tramite la richiesta di ricerca) e che quindi sara' forse oggetto a spam di tipo commerciale.

Accesso
Necessita' di indicizzazione
"...le carte coprivano gia' la meta' del pavimento. -Si e' fatto molto lavoro - disse il sindaco crollando il
capo - e quella non e' che una piccola frazione. Il piu' l'ho riposto nel granaio, e veramente la
massima parte e' andata perduta. Come si fa a conservare tutto? Ma nel granaio c'e' ancora molta roba.
Potrai trovare il decreto? - disse rivolgendosi alla moglie - Devi cercare un documento in cui la parola
agrimensore e' sottolineata con la matita azzurra - ..." Cosi' Kafka nel suo "Il Castello" (come altri grandi
letterati di un passato ancora del tutto analogico71) anticipava non solo le odierne paure di non riuscire ad
accumulare e catalogare "tutta" 'informazione, ma addirittura alludeva con l'accenno alla "sottolineatura
azzurra" alla necessita' di indicizzarla. L'indicizzazione e' infatti una necessita' che occorre quando
terminata la fase di recupero dell'informazione, bisogna catalogare e classificare i dati, pronti per essere
successivamente interrogati. Selezionata la porzione di Rete da recuperare (e quindi,
conseguentemente esclusa tutta la Rete che non si e' voluto o potuto scandagliare), la prima scelta72
importante che il motore di ricerca effettua avviene sulla porzione di documento da indicizzare: Altavista
ed Hotbot per esempio indicizzano solo i primi 2-300 caratteri del documento, mentre Arianna indicizza il
testo intero. Non ci stancheremo mai di far notare come in maniera diversa ma articolata, e secondo
procedure molto rigorose, tutti i motori di ricerca provvedano a ri-produrre - e allo stesso tempo a
deformare l'informazione. E se il diritto alla deformazione dell'informazione73, cosi' come alla
sua produzione, e' un principio stabilito dalle prime comunita' hackers nelle quali ci riconosciamo74, e'
altrettanto vero che tale deformazione (o produzione) dovrebbe avvenire secondo procedure rese note
all'utenza finale, interagibili con essa e comunque basate su meccanismi che non siano facilmente
manipolabili dalle esigenze di mercato o di controllo/censura dell'informazione. Chiusa la riflessione
ideologica, possiamo provare ad addentrarci nei funzionamenti tecnici del processo di indicizzazione di
un motore di ricerca75. La fase di indicizzazione consiste nella creazione di indici cosiddetti invertiti, allo
scopo di facilitare l'interrogazione. Ma chi indicizza, utilizza le stesse parole di chi effettua
l'interrogazione di ricerca sul motore ? E' un problema dai molteplici risvolti dal momento
che l'interfaccia utente che svolge la query di ricerca va ad interrogare un database a sua volta indicizzato
secondo regole precise che potrebbero anche aver escluso, o comunque non sottolineato, la parola inclusa
nel documento, a causa della sua frequenza o collocazione nel documento stesso76. Il risultato della
ricerca, e soprattutto il criterio di classifica (ranking) dei risultati con cui sara' fornita risposta alla query,
dipendera' quindi da queste regole. La fase di indicizzazione corrisponde ad un processo di analisi
dei documenti che andranno a costituire il database. E' in questa fase che le parole portatrici di funzioni
sintattiche che non contribuiscono direttamente a specificare un contenuto informativo - le
cosiddette stopwords - dovranno essere eliminate per essere distinte dalle parole riconosciute come
significative77. Dopodiche' si giunge alla creazione degli indici invertiti: l'elenco della porzione di testo in
cui si trova la parola significativa affiancata da un coefficiente che esprime la sua frequenza nel
testo. Attualmente, la maggior parte dei motori di ricerca utilizza l'algoritmo di Porter insieme ad altri
algoritmi che sono in grado di ponderare, oltre alla frequenza, anche variabili qualitative come la
posizione delle parole citate all'interno del testo. Ricapitolando, il motore di ricerca dell'informazione
seleziona a priori una porzione di Rete da cui recuperare l'informazione di ipotetico interesse, dopodiche'
analizza questa informazione in toto oppure solo in parte (i capoversi iniziali). L'analisi dell'informazione
e la sua catalogazione - l'opera di vera e propria indicizzazione - avviene secondo regole formulate in
base ad algoritmi matematici, che cercano di ignorare le parole stimate non significative. L'esclusione dei
termini avviene passando attraverso una "griglia linguistica" fondata sull'impiego di dizionari linguistici
che ignorano tutte le preposizioni, congiunzioni ecc. - oppure secondo criteri quantitativi, che cioe' si
riferiscono alla loro frequenza nel testo, troppo alta o troppo bassa. Cio' che rimane delle parole
considerate significative viene a questo punto "pesato" a seconda della sua frequenza e collocazione nel
testo analizzato, ed e' in questa fase che localizzazione e reiterazione dei termini giocano un ruolo
essenziale. Facciamo due esempi pratici. Una parola posta all'interno dei tag h178 e' sicuramente

interpretata come molto importante e dunque spicca agli "occhi" digitali dello spider. Analogamente si
verifica per una parola che appare raramente in una pagina, e molto di frequente in un'altra facente
parte della stessa documentazione: lo spider infatti suppone di trovarsi di fronte, rispettivamente, a un
indice e a un approfondimento dell'indice stesso e quindi considera il termine di particolare
interesse. Tutto cio' si traduce nel fatto che il motore, una volta formulata un'interrogazione, produrra' un
elenco di risposte stilando una classifica. Una lista che cerchera' di soddisfare le esigenze dell'utente che
effettua la query presentando i documenti contenenti la parola chiave richiesta in un ordine numerato
secondo una graduatoria di rilevanza presunta. In altre parole, la presenza della keyword in posizioni
topiche di particolare risalto, non solo nei meta-tags ma anche nel testo stesso, e riportata nella frequenza
opportuna, pregiudica il ranking. Quanto osservato mostra la necessita' di produrre un'informazione che
sia accessibile al motore di ricerca. Un "tipo di informazione" che possa essere facilmente recuperato e
correttamente indicizzato, poiche' la visibilita' dell'informazione agli spider coincide, giocoforza,
con l'accessibilita' ai motori di ricerca79.
Forme accessibili di informazione
L'informazione deve essere in primo luogo reperibile, quindi interpretabile. Una considerazione quasi
lapalissiana che tuttavia non viene presa nelle dovute considerazioni dalla maggior parte dei produttori e
distributori dell'informazione in Rete. La preoccupazione che invece accomuna tutti gli autori e i web
masters che bramano diffondere informazione in Rete, e' quella di confezionare nella maniera
graficamente piu' attraente possibile un oggetto da collocare sull'ambita ragnatela ipertestuale, senza
perdere troppo tempo in inutili riflessioni generali. La smania di poter apparire sulla vetrina piu'
luccicante e fantasmagorica che l'uomo abbia mai potuto immaginare fa spesso dimenticare i
principi fondamentali per cui l'informazione, per essere effettivamente tale, debba essere reperita, e quindi
"letta" e interpretata. In primis, dai motori di ricerca! Una pagina web per avere qualche chance di
visibilita' da parte del motore ha principalmente due possibilita': essere molto popolare oppure
farsi notare. La popolarita' di un documento sotto il profilo informativo si esprime nel fatto di essere
linkato da molte altre pagine, alcune delle quali sono gia' inserite nell'elenco delle pagine da visitare. I
motori infatti, visitando il web in maniera ipertestuale - ovvero di link in link - sicuramente prima o poi
capiteranno in questa pagina fino ad allora sconosciuta, ma che gode di molti links su pagine gia' note al
motore. La popolarita' - intesa nel gergo dei motori di ricerca come quantita' di links di cui gode una
pagina sul web - ha una forte influenza non solo nel ranking di una pagina ma rappresenta anche una
maniera molto efficace per farsi notare dal motore: una sorta di selezione naturale per cui solo i piu'
linkati si fanno notare e prevalgono sugli altri arrivando primi nelle classifiche dei motori. L'altra
modalita' classica per farsi notare dai motori di ricerca e' quella di segnalare loro la propria esistenza
attraverso i comandi add url / add site. Basta perlopiu' compilare un semplicissimo form in rete in cui
si specifica l'url della pagina ed e-mail di riferimento, e si ottiene l'iscrizione di una pagina all'elenco delle
pagine da visitare da parte dello spider80. Il sito potra' essere di conseguenza visitato e sottoposto al
processo di indicizzazione solo se sara' effettivamente reperibile online. Anche questa, che appare come
una considerazione di sconcertante banalita', nasconde invece delle problematiche tecniche spesso
disattese. Un sito per essere reperito facilmente dal motore di ricerca deve risiedere su una macchina in
Rete ben configurata e in buona salute in termini di funzionamento e banda. L'indirizzo non deve
riscontrare difficolta' in termini di indirizzamento81; ne' deve riscontrare problemi di reperimento sul sito
che lo linka. Infatti se il sito e' linkato troppo in profondita' nella macchina82, il motore che visita la
macchina in Rete deve compiere un numero troppo elevato di salti di link in link per arrivare al
sito partendo dall'homepage della macchina visitata; e, qualora si riscontrino problemi di connettivita',
questo puo' ostacolare il reperimento del sito stesso. La macchina in Rete che ospita il sito deve garantire
una presenza online costante (cosa mai scontata in un sistema complesso come Internet) e con buone
possibilita' di banda di connessione (cosa ancor piu' difficile da riscontrare) in modo tale che il motore,
che periodicamente compie la visita, non incontri intoppi di comunicazione, finendo per effettuare
un lavoro largamente incompleto di reperimento dei siti previsti. In relazione ai problemi di connessione,
si suggerisce di non produrre pagine eccessivamente pesanti in termini di byte83: un'informazione asciutta
e leggera ha maggiori possibilita' di farsi irretire nelle trame dello spider. Un altro ostacolo sulla via del
reperimento e' rappresentato dal caso molto comune di cambiare indirizzo alle pagine, senza lasciare

traccia del nuovo url nel vecchio. Quante volte accade che gli utenti del vecchio indirizzo - compresi i
motori di ricerca - incontrano difficolta' a rintracciare la nuova versione della pagina? Ecco un'altra
indicazione che pare ovvia ma viene sistematicamente disattesa dalla maggior parte dei web masters,
siti istituzionali compresi!
Ammesso, con buona dose di ottimismo, che la pagina in Rete sia facilmente reperibile dai motori di
ricerca, si pone ora il problema di renderla "digeribile" dal motore stesso il cui metabolismo interpretativo
segue regole ed algoritmi differenti dai browsers di navigazione. Non e' infatti scontato che le pagine web
possano essere interpretate correttamente dallo spider del motore di ricerca. Per tentare di comprendere a
fondo il problema, immaginiamo che il motore di ricerca legga le pagine di un sito come un browser di
vecchia data, una specie di lynx84 appositamente configurato per visionare in maniera veloce
un'enorme quantita' di materiale. Allora, tanto per cominciare, molti motori di ricerca non leggono tutte
le pagine di un sito, ma prendono in esame solo la parte iniziale ("in alto") delle pagine che visitano.
Questo vuol dire che non solo viene "tagliato" tutto cio' che si trova al di sotto di questo confine virtuale
("in basso"), ma significa che la discriminante fra "cio' che e' in alto e cio' che e' in basso" per il motore di
ricerca puo' essere anche molto diverso da quello che l'utente vede sullo schermo. Cosa e' "in basso - in
alto" nel caso di pagine fatte tramite formattazione a tabelle, molto comuni ultimamente? E nelle pagine a
frames che spesso e volentieri non vengono interpretate correttamente dal motore stesso? E nelle pagine
che contengono javascript in cima, sebbene ai nostri occhi non visibile? Gli occhi del motore di ricerca
non sono i nostri85 e i parametri - discriminanti ottiche - non si equivalgono quasi mai. Analogamente
succede nel caso in cui lo spider del motore si imbatta in un altro tipo di codice o comandi, relativi ad
esempio ai sempre piu' imperanti plug-in ed effetti speciali del Web86. Inoltre molti motori di ricerca si
trovano in difficolta' quando trovano comandi automatici di reindirizzamento delle pagine come il
comune refresh che spesso viene interpretato come un "trucco" per avvantaggiare il ranking di una
pagina. Una volta individuato, la pagina che presenta il refresh viene penalizzata dal motore
stesso. Anche senza eccessive complicazioni tecniche e senza mettere peraltro in dubbio l'effettiva utilita'
di qualche plug-in alla moda, proponiamo l'analisi di una pagina web composta unicamente da un collage
di immagini anche suggestive. Appare si' come una pagina dotata di senso sotto il profilo estetico ed
artistico rispetto ad un visitatore umano87, ma totalmente priva di significato rispetto a un motore che
deve prelevarla e indicizzarla correttamente. Ogni informazione produce/deforma senso a seconda dei
media con cui si interrelaziona e dei contesti tecnologici con cui si interfaccia. Non solo il motore di
ricerca puo' andare in certi casi88 in crisi in presenza di oggetti difficilmente interpretabili come immagini
senza alternativa testuale, plug-in, codice javascript o di altro tipo, frames, comandi di refresh ecc.; ma e'
anche vero che il motore puo' reagire alla presenza di alcune pagine e interpretarle come "illecite",
penalizzandole alla stregua di un rigorosissimo cybercensore. Ma che cosa e' una pagina illecita per un
motore di ricerca? Sono considerate illecite dai motori di ricerca tutte quelle pagine che sono state
realizzate appositamente non per offrire un contenuto informativo a chi naviga nel cyberspazio, ma per
sottolineare particolari contenuti agli spider. E' il caso delle cosiddette doorways: pagine che ripetono
ossessivamente e in maniera considerata efficace rispetto a taluni motori di ricerca, le parole-chiave
destinate cosi' a salire nel ranking degli stessi motori. Sono pagine molto curiose per la loro pochezza
di contenuti e per la ridondanza della scarsa informazione presente e che hanno la proprieta' di
reindirizzare velocemente, una volta analizzate, il motore sulla pagina vera e propria89.
Questa, insieme ad altre funzioni90 che vengono interpretate da alcuni motori come trucchi escogitati per
pompare le pagine in cima alle classifiche, diventa allora causa di penalizzazione da parte di molti motori.
Pagine cosi' concepite non vengono neanche prese in considerazione, oppure inserite in una "lista nera"
che le valuta con un grado di attenzione minima. Il motore - purche' dotato di automatismi di analisi
ben configurati -riesce quindi in alcuni casi a distinguere e penalizzare un atteggiamento considerato
illecito. Nell'ipotesi di progettare un sito con l'obiettivo di renderlo subito popolare dentro, e quindi anche
fuori91 del cyberspazio, e cioe' realizzare un sito accessibile ai motori di ricerca, e' necessario affrontare
alcuni passaggi. Ne elenchiamo per chiarezza i piu' significativi:
1) Inventare un nome o un acronimo quanto piu' originale92;

2) acquistare il dominio relativo al nome scelto93 oppure farsi ospitare da un dominio in cui ci
riconosciamo per condivisione di idee o attivita' professionali;
3) verificare presso chi ospita il dominio e il sito che sussiste un corretto e costante funzionamento della
macchina in Rete in particolare per quanto riguarda le possibilita' di banda e connettivita';
4) realizzare pagine web originali e creative che soprattutto non abbiano caratteristiche ostili ai motori di
ricerca94;
5) iscrivere il sito manualmente95 ai motori di ricerca ritenuti interessanti;
6) rendere nota - evitando di disturbare pesantemente per non rischiare l'effetto opposto - la nascita del
sito attraverso annunci e iniziative sia in Rete che attraverso altri mezzi di comunicazione, cosi'
da suscitare interesse e forse ottenere anche qualche benefico link;
7) utilizzare efficacemente tutti gli strumenti leciti per una corretta indicizzazione del materiale
informativo contenuto nel sito: l'attributo alt di descrizione delle immagini, il title della pagina, i meta
tag (keywords e description), il testo compreso fra i tag h1. In altre parole mettere l'accento su cosa si
presume appaia allo spider del motore di ricerca soprattutto in cima alla pagina, controllando che anche
nei nomi dei files, delle dir e del dominio appaia la parola-chiave che vogliamo sottolineare. E cosi' via96.
Come si e' potuto intuire non e' affatto scontato realizzare un sito ottimizzando la sua reperibilita' e
indicizzazione rispetto ai motori di ricerca. Ma perche' auspicare di essere trovati e ben apparire sui
motori?
Perche' desideriamo diffondere al maggior numero di persone le nostre informazioni. Lo scopo finale e' la
visibilita'. E dunque, come ci siamo preoccupati fino ad ora di rendere accessibile il nostro ipotetico sito
ai motori di ricerca, dobbiamo come logica conseguenza cercare di renderlo accessibile anche alla totalita'
della potenziale utenza che frequenta il web97. Come rendere accessibile l'informazione su web e' una
problematica enorme98 e finalmente emergente. Il pressing caparbiamente effettuato sull'argomento in
questi anni da personaggi storici della telematica come Arclele, congiunto all'opera di lobbying da parte
di categorie interessate al problema come quelle dei disabili99, sta producendo i primi effetti. Mentre va in
stampa questo approfondimento probabilmente sara' apparsa in Parlamento la prima proposta di legge in
materia allorche' iniziative simili gia' esistono in altri paesi (Francia in testa), e i primi segnali100 di un
interessamento politico si sono gia' avvertiti nell'estate 2000 anche in Italia, in concomitanza con i
seminari tenuti all'hackmeeting del CSA101 Forte Prenestino, sulla necessita' di rendere
universalmente accessibili almeno i siti di interesse pubblico. Gli enti pubblici hanno l'obbligo morale e il
dovere civile di realizzare siti progettati secondo principi di accessibilita' universale, poiche' la loro
funzione pubblica non puo' giustificare una rappresentazione informativa penalizzante nei confronti di
una parte dell'utenza. Ma che cosa significa rendere universalmente accessibile un sito? Rispetto ai motori
di ricerca vuol dire renderlo correttamente reperibile e interpretabile da parte di uno spider in cerca di
informazioni. Ma accessibilita' "universale" significa espandere questo concetto verso un ambizioso
progetto che comprenda tutti gli utenti possibili - compresi i soggetti che possono avere difficolta' di varia
natura nell'utilizzare strumenti hardware o software. Infatti se la preoccupazione di un web master - anche
perche' perlopiu' sollecitato in questo lato dal committente del lavoro - e' in genere quella di produrre un
sito che sia il piu' colorato, multimediale e intrigante possibile secondo i canoni delle estetiche di moda su
Internet, e' pur vero che la fruizione universale di materiale informativo sul Web non segue esattamente
questa logica. La creazione di un sito che offline appare come un CDRom perfettamente funzionante,
ricco di immagini - video - suoni - plug-in flash e chi piu' ne ha piu' ne metta, e' infatti
un'operazione legittima che appaga l'occhio e il senso di meraviglia garantendo il consenso del cliente.
Tuttavia questa ricerca estetica dell'effimero non e' affatto detto che assicuri la visibilita' sui motori, ne'
tantomeno rappresenta la migliore via di veicolare un'informazione in Rete. Innanzitutto e' una pratica che
non ottiene risultati ottimali sui motori i quali incontrano una serie di difficolta' tecniche per reperire
e indicizzare il sito. Inoltre non rispetta neppure le esigenze della maggior parte dell'utenza che

probabilmente non coincide con un navigatore dotato di un'ottima connessione, hardware e software
all'ultimo grido, ma sta spendendo tempo e denaro, abbagliato da effetti speciali che gli allungano i tempi
di connessione prima di arrivare al nocciolo dell'informazione cercata.
Ci sono persone che hanno hardware e softare vecchio, di tipo molto diverso oppure diversamente
configurato da quello auspicato dal webmaster per visualizzare correttamente le pagine. Ci sono ancora
persone che hanno il monitor "settato" a 640x480 e non a 600x800. Ci sono persone con scarse risorse
macchina e di banda. Ci sono persone che non amano girare con gli active X, cookies e gli applet Java
abilitati perche' gelosi della propria privacy e invulnerabilita' digitale. Ci sono persone che non hanno
mai scaricato il plug-in flash oppure quello real-audio anche solo perche' non ne conoscono l'esistenza e
diffidano di misteriosi messaggi di invito a scaricarli. Ci sono persone che hanno il tempo contato per
girare sul web e quindi non hanno voglia di perdersi in onirici labirinti di effetti speciali. Ma soprattutto
esistono persone che possono addirittura essere danneggiate da alcuni movimenti o frequenze di
movimento inaspettate degli oggetti ospitati sulla pagina102, oppure che non iescono a
seguirne coscientemente il percorso comunicativo103. Esistono persone che non vedono e quindi
necessitano di hardware e software di tipo particolare in grado di poter tradurre le pagine web -solo se
realizzate secondo alcuni principi di base ispirati all'accessibilita' - in testo parlato o Bra lle.
Esistono persone che non sentono e che quindi necessitano di traduzioni testuali dell'audio presente su un
sito. Ora, se consideriamo nella sua globalita' che Internet non siete voi - il vostro cliente e qualche
persona con la quale occasionalmente chattate, ma il web e' un potenziale infinito di cui e' impossibile
sapere le caratteristiche, e le problematiche psico-fisiologiche, ne' tantomeno le caratteristiche tecniche di
postazione telematica utilizzata per navigare, allora forse non sara' difficile concordare che esiste in Rete
un universo umano e tecnologico che attualmente sfugge alle logiche di marketing, ma che non puo' e non
deve sfuggire alla nostra coscienza e sensibilita'.
La liberta' di una persona e' la liberta' di tutti.
Questa parola d'ordine e' una delle tante che cercano di descrivere la complessita' di vivere la solidarieta'
in senso universale e che spesso viene solo interpretata nei termini restrittivi di
atteggiamento caritatevole. Tuttavia oltre a questa accezione dovrebbe implicare un significato piu'
profondo perche' cio' che e' universalmente accessibile, cio' che e' utile per le persone che hanno meno
risorse, e' in realta' utile per tutti104!
Realizzare una pagina web accessibile105 e' un vantaggio per tutti, di utilita' universale soprattutto in
determinate situazioni avare di connettivita'. Costruire una pagina che offra in maniera spartana
ma scaricabile velocemente un contenuto informativo chiaro e puntuale, rappresenta una risorsa di grande
importanza.Se poi tutto cio' si scontra comunque con necessita' aziendali di realizzare pagine molto
pesanti ma altrettanto attraenti, si puo' proporre di progettare una doppia versione del sito: accanto alla
versione high-tech, una universalmente accessibile. Diventano quindi termini106 di una rivendicazione
politica le strategie tecniche da adottare per realizzare una pagina ad accessibilita' universale107. Accanto
ai criteri di accessibilita' nei confronti dei motori di ricerca, indichiamo altri utili suggerimenti per
costruire una pagina accessibile.
- evitare di usare codice proprietario108 non conforme agli standard del W3C109; evitare di ottimizzare le
pagine solo per una data versione di browser o per una risoluzione video maggiore di 640 x 480110
- cercare di suddividere la pagina in sezioni chiaramente riconoscibili in modo da ottimizzare la ricerca
delle informazioni sul sito; cercare di distinguere fra struttura e presentazione111; valutare attentamente i
tempi di caricamento delle pagine112 considerando che spesso gli utenti che visitano un sito: sono alla
ricerca di qualcosa di preciso, non conoscono la struttura del sito, non hanno molto tempo da dedicare alla
visione di ogni pagina, non amano i lunghi tempi di attesa nel download
- per i links impiegare un testo che abbia senso anche al di fuori del contesto e in una lettura che avviene
in successione113

- non scrivere documenti aventi linee che superino le 80 battute per riga; utilizzare valori relativi % e non
assoluti per le tabelle114 e gli altri oggetti della pagina, utilizzare ascii-standard115
- garantire un buon contrasto tra testo e sfondo ovvero assicurare che testo e grafica siano percepibili e
comprensibili anche se visualizzati senza colori e comunque non delegare ai colori contenuti informativi;
non ricorrere a oggetti, comandi, applicazioni o tag che provocano movimenti inaspettati delle pagine
- identificare i linguaggi naturali utilizzati nel documento con gli appositi marcatori116, specificare lo
scioglimento di ogni abbreviazione o acronimo nel documento laddove compare per la prima volta, e
tentare di tradurre la pagina in piu' lingue
- se si vuole o si deve aggiungere un oggetto non testuale nella pagina117 prevedere un metodo alternativo
di accesso118 e una descrizione testuale 119
- nel caso di presenza di una audioclip oppure video, provvedere a un commento chiaro con l'attributo
ALT e alla realizzazione di un testo scritto del parlato ad uso delle persone prive di udito; nel caso di
un video provvedere a un file audio in cui un narratore illustri cosa avviene nel filmato in maniera
sincronizzata rispetto ad esso, ad uso di persone ipovedenti120
- - controllare il lavoro svolto con strumenti di valutazione121
Ma i motori di ricerca - una delle porte di accessibilita' ai saperi in Rete - sono a loro volta accessibili? E
soprattutto: sono universalmente accessibili?
Le interfacce utente dei motori di ricerca, escludendo rari esempi122, nella maggior parte dei casi non
rispettano le regole di accessibilita' qui affrontate. L'inserzione sempre piu' massiccia di oggetti
pubblicitari sta purtroppo inquinando una lettura agevole che permetta un'ottimale ed efficace uso degli
stessi motori. Il rischio sempre piu' frequente di finire per sbaglio su una pagina pubblicitaria invece che
su una delle tante modalita' di ricerca avanzata offerte dai motori, la dice lunga sulla attuale necessita' di
strumenti di accesso universale al sapere.
71 Borges, nel 1941, nella Biblioteca di Babele scriveva: " L'universo (che altri chiama la Biblioteca) si compone di un numero indefinito, forse infinito, di
gallerie esagonali ... Quando si proclamo' che la Biblioteca comprendeva tutti i libri, la prima impressione fu di straordinaria felicita'. Tutti gli uomini si
sentivano padroni di un tesoro intatto e segreto. Non v'era problema personale o mondiale la cui eloquente soluzione non esistesse: in un qualche esagono.
L'universo era giustificato, l'universo attingeva bruscamente le dimensioni illimitate della speranza...Alla speranza smodata, com'e' naturale, successe una
eccessiva depressione. La certezza che un qualche scaffale d'un qualche esagono celava libri preziosi e che questi libri preziosi erano inaccessibili, parve quasi
intollerabile... Sappiamo anche d'un'altra superstizione di quel tempo: quella dell'Uomo del Approfondimento. In un certo scaffale d'un certo esagono
(ragionarono gli uomini) deve esistere un approfondimento che sia la chiave e il compendio perfetto di tutti gli altri: un bibliotecario l'ha letto, ed e' simile a un
dio...Come localizzare l'esagono segreto che l'ospitava? Qualcuno propose un metodo regressivo: per localizzare il approfondimento A, consultare previamente
il approfondimento B; per localizzare il approfondimento B, consultare previamente il approfondimento C; e cosi' all'infinito... In avventure come queste ho
prodigato e consumato i miei anni." Secondo Ernesto Hofmann (Un'architettura per l'informazione digitale, IF, 1999, No. 1) in Finnegans Wake, "Joyce
sembra quasi anticipare l'infostruttura del ciberspazio, nel quale il flusso delle informazioni avviene attraverso continue scariche di entita' che, entrando nel
sistema attraverso una "portal vein" (che ricorda i "portal" di Internet!), vengono distribuite, dissociate e ricombinate. Joyce, che in Finnegans Wake, piu' volte
parla di televisione (e siamo solo negli anni '30), era profondamente affascinato dalla sempre piu' complessa infostruttura elettronica che si stava evolvendo. Il
formidabile "chaosmos of Alle" (118, 21) che si andava configurando gli faceva intravvedere un'unica memoria per una quantita' pressoche' infinita di
informazioni. Che ne sarebbe stato allora del approfondimento? Forse, proprio in contrapposizione al prossimo avvento delle realta' virtuali del ciberspazio,
ando' a cercare i suoi mondi virtuali all'interno del linguaggio umano servendosi della lingua ambigua e spesso allucinata dei sogni."
72 Ovviamente e' da intendersi per "scelta" la configurazione adattata dal motore di ricerca per un suo corretto funzionamento relativamente alle attese del
programmatore, o meglio dell'azienda che commissiona il lavoro. Tali configurazioni sono cambiate frequentemente e spesso non sono neanche esplicitate in
maniera trasparente tanto che l'unica maniera per tentare di individuarle e' quella di operare una scupolosa opera di reverse-engineering su questi software di
ricerca.

73 Dalla Dichiarazione Finale dell'ICATA 89 adottata il 04 agosto 1989: "Ogni informazione e' al contempo deformazione. Il diritto all'informazione e' al
contempo insesorabilmente legato al diritto alla deformazione, che appartiene a tutto il mondo. Piu' si produce informazione, e piu' si crea un caos di
informazione, sfociante sempre piu' in rumore. La distruzione dell'informazione come del resto la sua produzione, e' il diritto inalienabile di ognuno."
74 Non tanto per le nostre capacita' tecniche ma piuttosto perche' condividiamo la valenza sociale dell'abbattere le barriere presenti nelmondo della
comunicazione e dell'informazione.
75 Per approfondimenti in materia si consiglia di ricercare documenti aggiornati e facilmente reperibili in Rete dei tanti studiosi che seguono e alimentano il
dibattito scientifico in materia come Gerald Salton, Linda Schamber, Nicholas Belkin, Bruce Croft, Peter Foltz, R. Wilienski e il nostrano Giuseppe Attardi.
76 Vedremo piu' avanti alcuni esempi di appliazione di questo concetto.
77 All'elenco delle stopwords appartengono anche quelle parole per cui la frequenza sia al di sotto o al di sopra di una certa soglia prestabilita; in altre parole,
questo elenco comprende i termini troppo rari o al contrario troppo frequenti.
78 I tag contrassegnati con la lettera h1 sono quelli che all'origine di Internet e secondo il linguaggio html che genera le pagine web - la maggior parte
dell'informazione presa in considerazione dai motori di ricerca -caratterizzavano il testo come molto importante a livello strutturale.
79 Anche il WML, il linguaggio per creare pagine ipertestuali correttamente interpretabili dai cosiddetti telefonini hanno molto in comune con le priorita' di un
documento accessibile: questo perche' - e sara' vero anche per i nascenti apparecchi UMTS - uno strumento palmare visualizza bene delle pagine che sono
realizzate per risorse - quanto meno di visualizzazione - minime.
80 Questo non funziona necessariamente nei casi in cui esista una redazione che controlla il grado di interesse - secondo i suoi parametri - di un sito segnalato
alla directory.
81 Ovvero per esempio in termini di configurazione dei relativi DNS - Domain Name Server.
82 Stesso discorso ovviamente all'interno del sito che qualora sia troppo profondo ovvero in presenza di troppi links concatenati fra loro e in caso di scarsa
connettivita' possono verificarsi problemi di reperimento di parte del sito.
83 Una vecchia regola della Rete dice di non produrre documenti - che siano pagine web ma anche messaggi e-mail - non piu' grandi di 32 Kb.
84 Storico ma efficientissimo browser testuale reperibile su http://lynx.browser.org/
85 Provare per credere il Search Engine Simulator reperibile su http://www.delorie.com/web/ses.cgi. [In alternativa] L'incommensurabilita' tecnica fra
"i sistemi di visione" con cui i browsers leggono il web crea una discrepanza netta: il web visto da lynx non equivale al web visto da netscape o da altri comuni
browsers.
86 Con il risultato di scaricare pezzi di testo inutili o fuorvianti per l'indicizzazione o peggio ancora possono confondere lo spider inducendolo a non effettuare
lo scaricamento completo del sito perche' non ha saputo interpretare correttamente il codice o comandi ivi presente.
87 Normodotato.
88 Ovviamente, cosi' come in questo caso ma anche in altri, non e' sempre vero e soprattutto non e' vero per tutti i motori di ricerca, alcuni dei quali sono in
grado di interpretare correttamente una pagina frame ma reagire negativamente alla presenza del comando REFRESH.
89 Ad esempio con il gia' citato tag REFRESH oppure con un codice javascript funzionale allo scopo.
90 Citiamo ad esempio il "trucco" di mettere del testo in cima alla pagina dello stesso colore dello sfondo in maniera tale che serve a
un'eventuale indicizzazione del motore ma e' invisibile ad occhio umano.
91 Non dimentichiamo mai che quello che facciamo in Rete ha sempre una ricaduta - seppur indiretta - sulle coscienze e sulle realta' fisiche che ci circondano
quotidianamente, tanto che e' vero pur il contrario...

92 Se si sceglie un nome o un acronimo inflazionato ed usato da situazioni gia' molto conosciute sara' ancor piu' difficile farsi notare! La scelta linguistica e'
tanto piu' efficace quanto piu' creativa si mostra, vedi sezione sulla linguistica.
93 Esistono innumerevoli servizi a riguardo alcuni anche molto economici come lo e' attualmente www.DomainMonster.com
94 Si consiglia caldamente a questo scopo di consultare le relative pagine di help e spiegazione in merito presenti sulla maggior parte dei motori di ricerca.
95 Si consiglia di iscrivere manualmente il sito ai motori di ricerca sia perche' e' cosi' possibile farlo specificando eventuali informazioni richieste dai singoli
diversi motori, sia perche' alcuni software automatici di iscrizione possono non effettuare il lavoro cosi' come dichiarato o in maniera tale che indispettisce il
motore di ricerca stesso il quale puo' interpretare come spam alcune opere di intensificazione di iscrizione e quindi penalizzare il sito iscrivente.
96 Per approfondimenti vedi http://strano.net/chaos comunque, considerando che anche per questo particolare ambito telematico, le regole sono in continua
evoluzione, una paziente, periodica ed aggiornata opera di reverse-engineering sui motori di ricerca appare comunque l'unico strumento utile da consigliare in
materia. Se volete tentare di apparire in alto rispetto al tema del birdwatching cercate di diventare popolari in materia con il sito ma anche verificate le
caratteristiche dei siti che appaiono nel top-ranking dei motori di ricerca digitando appunto birdwatching.
97 Parlando di accessibilita' non possiamo fare a meno di ricordare che la maggior parte delle aree geografiche - Africa in primis - e' tagliata fuori non solo dal
circuito telematico ma anche da quello piu' semplicemente telefonico.
98 Per approfondimenti tecnici sull'argomento si consiglia di visitare periodicamente il portale sull'accessibilita' xs2we (Access To Web)
~ http://www.ecn.org/xs2web
99 In particolare gli ipovedenti.
100 L'AIPA - Autorita' per l'Informatica nella Pubblica Amministrazione ha avviato un'indagine esplorativa su come poter rendere maggiormente accessibili
gli strumenti hardware, software i siti della Pubblica Amministrazione mentre si sono registrate numerose interpellanze politiche in materia provenienti da
partiti politici di vario segno.
101 Centro Sociale Autogestito.
102 E' il caso delle persone che soffrono di epilessia.
103 E' il caso di persone con disabilita' cognitive ma anche di molte persone cosiddette normodotate che comunque spesso e volentieri sono frastornate da
tanta informazione accumulata in maniera indecifrabile.
104 Condivisione e socializzazione di risorse e' una pratica utile a tutti.
105 Non bisogna poi dimenticare le barriere linguistiche per cui sarebbe necessario fornire il sito tradotto in piu' lingue.
106 Di nuovo, anche sotto il profilo tecnico, suggeriamo www.ecn.org/xs2web come riferimento manualistico in materia.
107 Cercheremo di essere brevi anche se l'argomento e' enorme. E' infatti sicuramente possibile realizzare pagine che siano universalmente accessibili per
qualsiasi tipo di utenza ma e' pur vero che e' possibile anche un tipo di "politica graduale" in materia. Ovvero e' consigliabile non realizzare pagine con frames
ad esempio ma e' anche vero che dovendole necessariamente realizzare, e' possibile realizzarle secondo criteri piu' o meno accessibili. Di accessibilita' parziale
possiamo quindi parlare anche nel caso in cui venga definitivamente approvato l'html4 che prevede una serie di migliorie sul tema dell'accessibilita' ma che
non potra' tener purtroppo conto di coloro che continueranno a navigare con browsers che non riconoscono le regole dell'html4.
108 Word, pdf, ps ecc.
109 Il World Wide Web Consortium ha elaborato a tal merito delle regole specifiche reperibili in Rete all'indirizzo http://www.w3.org/WAI.
110 La definizione che normalmente viene usata dagli ipovedenti.
111 Organizzare cioe' l'informazione e la struttura del sito in maniera tale che l'utente si possa muovere al suo interno agevolemente.

112 Non utilizzare piu' immagini di quante non ne servano, e cercare di riutilizzarle piu' volte fra/nelle pagine del sito limitando l'uso di immagini ad alta
risoluzione che appesantiscono la pagina aumentando i tempi di download.
113 Ad esempio, non usare "clicca qui" e tenere conto che per alcune categorie di utenti la lettura del testo e quella dei links risulta separata e quindi e'
importante che la lettura in successione dei links abbia un senso. Per la stessa ragione e' importante evitare di mettere links adiacenti e nel caso separarli e
delimitarli da spazi e caratteri di testo. Una buona simulazione di questa situazione si ottiene ripetendo il tasto tab in una pagina visitata dal browser.
114 Cerchiamo di non utilizzare tabelle per formattare il testo bensi' identifichiamo le intestazioni di righe e colonne attraverso i marcatori che associano le
caselle di dati alle celle di intestazioni; inseriamo un link ad una descrizione letterale dei dati inseriti in tabella. I dati in forma di tabella possono essere
rappresentati anche tramite testo preformattato utilizzando l'accortezza di impiegare spazi e non tabulazioni poiche' quest'ultime variano da client a client.
115 Non vocali accentate ecc. per capirsi...
116 In questa maniera, ad esempio, traduttori vocali o bra lle sanno di dover impiegare i relativi dizionari per interpretare la pagina al meglio delle loro
possibilita'.
117 Una mappa cliccabile, un'immagine, uno script, un applet, un'ascii-art, ecc.
118 Attraverso, ad esempio i tag specifici NOFRAMES e NOSCRIPT.
119 Attraverso i tag ALT e TITLE e un (D) link, ovvero link ad una pagina di solo testo che descrive l'oggetto individuato da una "D".
120 In entrambi i casi fornire sempre equivalente testuale.
121 Uno per tutti, il piu' severo: http://www.cast.org/bobby.
122 Sperando di essere smentiti dalla loro evoluzione nel frattempo che andiamo in stampa. Uno studio, invece focalizzato sugli effetti delle telecomunicazioni
sulla lingua, e' stato recentemente sponsorizzato dalla Nokia all'Istituto Linguistico Nazionale dell' Universita' di Helsinki. Si tratta di uno studio che almeno
per ora riguarda l'impatto degli Sms sul linguaggio: gli short massages, consentendo di inviare un massimo di 160 caratteri, stanno dando origine ad una nuova
"cultura linguistica".

La Lingua
Saussure insiste con forza sul carattere potenziale
"Saussure insiste con forza sul carattere potenziale, sulla 'productivite'' e, come egli dice sulla 'cre'ativite''
della lingua: il fatto che una determinata combinazione sintagmatica esista ha una importanza assai
minore del fatto che essa possa esistere" Tullio de Mauro, Introduzione al Corso di linguistica generale di
F. de Saussure
Le implicazioni della linguistica con le metodologie di indicizzazione del materiale in rete sono un
sentiero ancora poco battuto123. L'analisi e la trattazione del materiale testuale attraverso i metodi
statistici, sintattici e logici e' ancora un terreno inesplorato dalla ricerca. Perche' allora addentrarsi in
questo campo minato? In realta' e' un argomento centrale che affronta, secondo l'ottica del gioco
linguistico, la funzione di qualsiasi risorsa di ricerca e le pratiche attuate dagli utenti per far meglio
indicizzare le loro pagine web, a favore della visibilita'. E quindi l'influenza di questi due aspetti sulla
gestione concreta della parte testuale dei documenti html. I motori di ricerca hanno la funzione e il
compito di soddisfare il piu' possibile le aspettative dell'utente. Le condizioni di risposta ad una richiesta
devono essere sempre piu' efficaci e precise; dal punto di vista del motore di ricerca, questo deve fornire
un'elevata velocita' di reperimento dei dati e ridurre al massimo il tempo di risposta alla query, senza
perdere in precisione nel distribuire i risultati nei termini di pertinenza e rispondenza alle
interrogazioni124. Dal punto di vista dell'utente, non in qualita' di ricercatore ma rispetto all'immissione
in rete dei propri dati in fase di indicizzazione da parte delle risorse di ricerca, bisogna invece prendere in
considerazione le tecniche e strategie sintattico-linguistiche che consentono ottimi riscontri orientati
al ranking. Per visualizzare la questione in senso complessivo, occorre di nuovo evidenziare la netta
distinzione esistente tra i due primari strumenti di ricerca attuali. Il motore di ricerca, che si basa su
principi automatici: gli spider che cercano in Internet le pagine per la costruzione del database
consultabile dall'utente attraverso l'uso delle parole chiave. E la web directory, sorta di catalogo realizzato
con il lavoro redazionale umano: navigazione manuale, estrazione delle informazioni ritenute piu'
significative, organizzazione tassonomica dei contenuti. Molti dispositivi di ricerca usano entrambi i
metodi di indicizzazione creando un mixer tra soluzione software e umana, ma l'incremento esponenziale
di Internet impone sempre piu' una riduzione della seconda componente a favore dell'applicazione
di agenti intelligenti. A livello linguistico i due differenti modelli di ricerca comportano che il motore di
ricerca garantisca una completa sistematicita' ed indicizzazione a vasto raggio dei documenti esistenti in
rete, secondo la filosofia dell'"indicizzare tutto", con il risvolto negativo di aumentare il grado
di incertezza ed ambiguita' del valore semantico delle unita' lessicali125. La web directory risolve, in parte,
il problema del significato delle parole offrendo piu' ordine e coerenza, pur offrendo una minore quantita'
di materiale indicizzato e provocando ritardi nell'aggiornamento dei risultati consultabili. Lo slogane'
"indicizzare il meglio", ma la lentezza degli operatori umani in confronto agli agenti software, sia in fase
di primo recupero dell'informazione che delle successive visite ai web site (sottoposti a continui
aggiornamenti) penalizza sotto il profilo quantitativo la web directory. Poiche' il problema della
categorizzazione degli elementi linguistici e delle loro attinenze concettuali riguarda in maniera minore le
web directory, l'oggetto di questa analisi si focalizzera' unicamente nell'attivita' svolta dai software. Le
scelte redazionali, le posizioni interpretative decise dagli operatori umani, se da un lato possono risultare
piu' o meno condivisibili, dall'altro certamente eliminano quello scarto di attribuzione del significato e
della pertinenza esistente nell'azione degli agenti software, la cui azione ricade proprio nel campo dei
giochi linguistici.
Dare senso ai motori di ricerca
Il problema precipuo che riguarda il rapporto della ricerca in rete con la linguistica e' costituito dalla
significazione variabile delle unita' linguistiche minime (monemi e morfemi), le unita' linguistiche

complesse nelle quali si possono distinguere le sottounita' (suffissi, prefissi e radicali), e l'insieme
testuale, come una frase completa,che un motore di ricerca attribuisce ai risultati126. Considerando poi
l'abnorme incremento quantitativo dei dati testuali in rete, la loro dinamicita' e la diversificazione della
natura dei testi: testi scientifici, tecnici, poetici, legislativi, normativi, corrispondenza ecc. Una stessa idea
puo' essere espressa da combinazioni multiple di differenti categorie grammaticali delle parole e
costruzioni sintattiche. Si pensi, ad esempio, all'uso dei sinonimi che, se da una parte permette di evitare
le ripetizioni e ridondanze degli stessi termini all'interno di un testo, dall'altra crea delle complicazioni
non solo in fase di recupero delle informazioni, delegando agli spider maggior mole di lavoro da
compiere, ma soprattutto nell'avanzamento del ranking, che si rapporta alla necessaria e incessante
ripetizione nel testo delle keyword da promuovere. Si apre cosi' la discussione sulla ricerca in rete che
funziona appunto sul modello di richiesta basato sulle parole chiave. Un modello che fa emergere la
difficolta' di formulazione della richiesta e l'inerente ambiguita' della parola, in senso lato, nell'ambito del
linguaggio naturale. Il problema viene chiaramente illustrato dallo scenario della ricerca di informazioni
sul web, dove gli utenti si sentono fortemente impacciati di fronte alla form della query di qualsiasi
interfaccia di un motore di ricerca: e' a volte problematico formulare richieste complesse che usualmente
si riducono alla composizione di una sola parola o coppia di parole. Ma il percorso e' ancora lungo e irto
di difficolta', perche' per ogni richiesta il numero di risposte che appaiono nelle hit e' altissimo, causando
momenti di confusione e straniamento nei confronti dell'utente. Le ragioni di questo fatto sono da
attribuire alla relazione tra identita' e differenze delle parole nel linguaggio naturale, e alle
varianti interpretative delle richieste da parte dei motori di ricerca. Cioe', dando le stesse espressioni di
interrogazione, riceviamo responsi concettuali diversi che dispongono su varie prospettive linguistiche
l'informazione risultante. Rimedio a questo rilevante limite dell'information retrieval127 puo'
essere escogitato dall'utente che deve elaborare una strategia mirata sforzandosi ed abituandosi ad usare
query complesse e a giocare soprattutto con le espressioni linguistiche, in particolare usando la ricerca
avanzata presente sui maggiori motori di ricerca. Puo' operare una selezione scegliendo in maniera
chirurgica l'informazione reale desiderata, e restringendo il campo della domanda. Ma anche il motore di
ricerca, attraverso un miglioramento del feedback, ottenuto allargando la concettualizzazione dei risultati,
puo' a sua volta produrre un'espansione lessicale-semantica del significato delle parole. Alcuni ricercatori
a proposito stanno lavorando nella direzione dello sviluppo di software, algoritmi, agenti intelligenti
capaci di avvicinarsi sempre piu' alle esigenze dell'utente128. La macchina che "capisce" quali sono le
intenzioni linguistiche dell'uomo: ecco l'obiettivo da raggiungere! Interpretare il linguaggio naturale, nel
mondo linguistico-informatico,significa "parlare al motore di ricerca" semplicemente come si puo'
interloquire con una persona qualsiasi che intenda la nostra stessa lingua. La ricerca di punta si sta
dirigendo verso la progettazione di un motore di ricerca che vada al di la' della logica boleana e che
ragioni seguendo la logica fuzzy129, un congegno di recupero informazioni al quale non verra' piu'
chiesta un'interrogazione, come ad esempio - (dipinti near tempera) and "galleria d'arte" - ma -dove posso
comprare un dipinto realizzato a tempera?-130
Il cuore dell'indicizzazione
L'indicizzazione dei documenti e' l'operazione che permette di costruire, in modo ordinato e semplificato,
l'indice del patrimonio di dati che viene interfacciato con gli utenti che desiderano effettuare le ricerche
in rete131. Per il recupero delle informazioni i motori di ricerca si avvalgono di metodi e processi di
indicizzazione progettati sin dagli anni '60132, che sono oggetto di continui studi e sperimentazioni per
estenderne le potenzialita'. I vari metodi di indicizzazione perseguono l'obiettivo primario di costruire una
specie di dizionario, interno al motore di ricerca, che risponda alle diverse esigenze degli utenti; basta
pensare alla differenza tra una query composta da una sola parola o da una frase esatta. Come abbiamo
visto nel precedente approfondimento la fase di indicizzazione si basa sul lavoro di analisi linguistica
svolto in funzione delle istruzioni algoritmiche appropriate, applicabili alle svariate tipologie
di informazione. Un momento topico del processo di indicizzazione che interferisce direttamente con la
struttura ed il significato delle parole e' lo stemming. L'operazione di determinare le stems,
cioe' l'identificazione dell'insieme di parole che posseggono la stessa radice, consiste nel radicalizzare
(stem=radice) tutti quei termini che per estensione assumono differenti significati, ma che possono essere
ricercati velocemente grazie alla medesima radice; ad esempio: arte-artista-artistico-artefatto-ecc.133.

Questo procedimento di riduzione ad elementi-origine e' molto complicato e necessita accortezza, non
tanto nel caso dell'esempio citato (art-), che rappresenta una radice che mantiene il valore concettuale
anche con altre associazioni, quanto nei casi in cui il morfema lessicale (radice) potenzialmente e' in
grado di stravolgere del tutto il concetto abbinato alla parola, ad esempio: porto-portinaia-portata-portale.
Un metodo di indicizzazione, anche se difficilmente implementabile, che cerca di affrontare questi tipi di
inconvenienti e' il Concept Index costituito dall'individuazione dei concetti cardine sui quali i
termini relativi al documento da indicizzare, vengono relazionati attraverso la costruzione di una "mappa"
ad hoc. Per intendersi, ad esempio, viene tessuta una rete concettuale intorno alla parola "animali" che
comprenda i termini "felini", "bovini", ecc., e a sua volta a seguire "gatti", "tigri", e cosi via fino a
giungere ai termini "ultimi", in maniera tale da poter navigare l'intera rete ritrovando il termine e quindi il
documento che interessa reperire. Anche per questo metodo sorgono dei problemi quando ci riferiamo a
materiale testuale di carattere generale o di tipo flessibile, difficilmente da contestualizzare e perlopiu' da
concettualizzare. Un grosso aiuto alle problematiche cheriguardano questi aspetti viene dalla
realizzazione dei tesauri, che raccolgono i sinonimi, oppure le frasi esatte, ma sicuramente il futuro
si sviluppera' sempre piu' verso l'applicazione dell'intelligenza artificiale. I diversi approcci metodologici
attuali, le riflessioni teoriche e le ricerche tecniche che riguardano l'indicizzazione rimarcano il
problema essenziale su cui ruota l'intero discorso di classificazione e ordinamento del linguaggio
all'interno della comunicazione telematica: la pertinenza. La qualita' della pertinenza dei segni linguistici
in rete tende ad essere ingabbiata e irrigidita, collocata in significati preconfezionati e statici, tralasciando
i valori interpretativi e relazionali degli utenti. I motori di ricerca rendono un "oggetto" pertinente
operando secondo il principio di esclusione (la parola ripetuta o insignificante e' eliminata) oppure in
virtu' di regole correlative e di similitudine (i segni che producono gli stessi concetti sono raggruppati).
Questo funziona; ma non dobbiamo dimenticarci che di fronte al chaos semiotico della rete ci sono degli
individui pensanti ai quali non devono essere censurate le loro capacita' creative, combinatorie e ludiche,
nel senso del linguaggio. Per dirla con Peirce: "il segno rappresenta il suo oggetto tramite il
suo interpretante".
Giochi linguistici
Nel microcosmo del Web, a sua volta specchio ipertestuale della Rete dei saperi, il gioco linguistico che
ne consente il monitoraggio e' il motore di ricerca. Secondo questa interpretazione il motore rappresenta
il tentativo utopistico di realizzare un metalinguaggio universale - uno strumento che possa padroneggiare
il chaos informazionale con la razionalita' del sistema-catalogo. Un linguaggio che vorrebbe parlare
tutte le lingue134 padroneggiando il linguaggio reticolare dei saperi contemporanei che spaziano dal
simbolismo chimico al codice genetico, dalle notazioni musicali alle matrici delle matematiche di
avanguardia, dai linguaggi-macchina alla logica fuzzy135... Agli inizi del secolo il logico matematico
Wittgenstein136 ha tuttavia dimostrato il fallimento di un simile progetto di creazione di un linguaggio
universale, da lui stesso definito il fallimento del principio di unitotalita'. E' cioe' impossibile creare una
"sintesi autorizzata da un metadiscorso del sapere"137, essendo il nostro linguaggio come "una
vecchia citta': un dedalo di stradine e di piazze, di case vecchie e nuove, (...), il tutto circondato da una
Rete di nuovi sobborghi con strade diritte e regolari, e case uniformi"138. Ma questa citta' linguistica,
dalla prospettiva labirintica, non e' in grado di autorizzare alcuna legittimazione speculativa, tuttalpiu'
consente un gioco di toponomastica139. Nei saperi contemporanei non esiste infatti alcuna verita', nessun
criterio di legittimazione, ma solo la pratica linguistica e le interazioni comunicative140 possono
delinearne il gioco ed esplorarne le combinazioni pragmatiche. Nella Rete informazionale che si presenta
su web, i saperi come gioco linguistico manifestano due proprieta' dalle notevoli implicazioni pratiche: la
flessibilita' del medium, che si esprime nella molteplicita' dei suoi linguaggi; il carattere di gioco
pragmatico dove le mosse (come nel gioco degli scacchi) sono accettate in accordo al contratto
stipulato in precedenza fra i giocatori141. Si tratta di un gioco linguistico particolarmente interessante
perche', riferito all'information retrieval, implica almeno due tipologie di evoluzione dei saperi: un
progresso che deriva dall'introduzione di nuove mosse nel quadro delle regole prestabilite ("pragmatica
riformista"); e un progresso che e' invece da imputare all'invenzione di nuove regole, e quindi ad un
mutamento del gioco stesso ("pragmatica rivoluzionaria")142. A queste due vie, in realta', si potrebbe gia'

affiancare, in aperta contrapposizione, una terza pragmatica: la prospettiva sistemica. Una pragmatica che
consiste nello stravolgimento non solo delle regole del gioco ma anche della stessa visione del gioco,
tracciando un percorso concettuale che mina alle fondamenta, in maniera radicale, il
quadro epistemologico qui delineato143. Ma questa proposta "artistica" di dadaismo epistemologico144 che
richiede un profondo cambiamento di prospettiva intellettuale, verra' ampiamente discussa
nell'approfondimento sulla ricerca caotica145. Per ora limitiamoci ad analizzare i due percorsi tracciati
nell'ambito dell'information retrieval.
Pragmatismi
Una volta fallito il progetto di un metalinguaggio universale146 - un utopico passpartout in grado di
scassinare qualsiasi serratura linguistica e tradurre i saperi in un unico linguaggio147 - e' stato rimpiazzato
da un nuovo principio: il principio della pluralita' dei sistemi, la cui descrizione viene cosi' affidata ad una
dinamica pluralistica fondata sulla pratica dei giochi linguistici. Nel momento in cui crolla l'univocita'
di un sistema universale c'e' forse solo spazio per una teoria e pratica dei giochi148.
Anche il ramo della ricerca dell'informazione cosi' interconnesso con i linguaggi naturali e artificiali,
registra l'esistenza e il riconoscimento di questo limite filosofico e teorico149. Limite a cui si e' tentato
di ovviare con protesi tecnologiche150: il data mining e l'information retrieval. Sono strumenti, o meglio
ambienti high-tech come nel caso dei motori di ricerca, che obbediscono al principio dell'ottimizzazione
delle prestazioni: la performativita'. In questa metafora dei giochi linguistici sono anch'essi paragonabili a
giochi la cui pertinenza non e' la verita' - la giustizia o la bellezza, bensi' l'efficienza151. Nella pragmatica
che abbiamo definito "riformista", applicata al caso esemplare del top ranking, sappiamo che un sito
acquista visibilita' quando viene correttamente gestita una serie di "mosse linguistiche" (tips and tricks), la
cui pertinenza risiede soltanto nell'efficacia dell'operazione: la bonta' del metodo sta nel realizzare
l'obiettivo (appunto il top ranking) spendendo quante meno energie possibili. L'aumento dell'output, nel
senso di risultati ottenuti, deve corrispondere ad una diminuzione dell'input, nel senso di energia spesa. Il
top ranking, secondo questo modello interpretativo, e' dunque un'attivita' imparentata al minimalismo
e alla sottrazione152: un metodo che raggiunge ottimi risultati restringendo il campo dell'azione e della
creativita'. Dal momento che ogni mossa linguistica e' unicamente vincolata all'ottimizzazione della
visibilita' rispetto agli spider, finisce per risolversi in un'attivita' di sottrazione linguistica, fortemente
limitata all'amministrazione dell'esistente - l'efficacia della keyword "pompata" sul motore di ricerca piuttosto che condotta giocando sul piano di un'utopistica ricerca di sperimentazione linguistica. Al
contrario, la pragmatica creativa (o "rivoluzionaria") consiste in una prolifica-provocatoria-ludica ricerca
innovativa di stravolgimento delle regole del gioco che si contrappone all'atteggiamento conservatore di
assoggettarsi supinamente alle mosse vincenti. Questa pratica e' quindi imperniata su un lavoro piu'
profondo e sotterraneo153: il tentativo di creare ex-novo, contaminare e produrre/deformare senso nella
ricerca di neologismi, in altre parole cortocircuitando l'ortodossia grammaticale verso un approccio
underground e sperimentale dell'immaginazione linguistica154. Si tratta di una pragmatica155
che, liberando energie occultate nel "conservatorismo linguistico" del gioco del top ranking e sviluppando
flussi magmatici dagli imprevedibili e disinibiti risvolti linguistici, consente sia di introdurre nuove mosse
linguistiche, sia di cambiare le regole del gioco156. Solo il deturnamento linguistico, nel senso
situazionista di Debord157, lo sperimentalismo semantico piu' sfrenato possono infatti generare
un'autentica evoluzione nei giochi linguistici - e in particolare nel campo dell'information retrieval.
A) La pragmatica riformista. L'esempio del top ranking.
Nella ricerca dell'informazione in Rete - come nell'altra faccia della medaglia: l'introduzione
dell'informazione su web- esistono come si e' visto due percorsi corrispondenti a due pratiche differenti.
La prima e' la pragmatica, piu' conservatrice, fondata sul criterio performativo e, per come si sta
verificando su larga scala in Internet, sta diventando la pratica consolidata di amministrazione del Web. Si
basa sul principio delle ottimizzazioni delle prestazioni o, come si direbbe in chimica, sul criterio
termodinamico158: produrre energia (informazione) senza creare eccessiva entropia (chaos)159. E' una via
che, semplificata ai minimi termini, intende fornire informazione senza spendere sul versante energetico,

il che equivale ad applicare un criterio efficientistico di miglioramento operativo minimizzando costi o


rischi. Dal punto di vista del gioco linguistico e' il caso piu' volte citato del top ranking. Senza entrare nel
merito della questione tecnica, esso e' un classico caso di aumento degli output / diminuzione degli input.
Il Web Master che vuole pompare un sito sui motori di ricerca per renderlo visibile agli spider, cerca
infatti il miglior risultato finale senza concessioni estetiche o performance artistiche. Egli cerchera' di
dare risalto ad alcune keywords, ricorrendo ad un gioco linguistico unicamente finalizzato alla
ricerca dell'informazione160. Il sito cosi' concepito verra' costruito, come nel caso di Amazon.com,
secondo linee guida e parametri rigorosamenteinviolabili orientati al ranking: la parola book o cd (i
due oggetti messi in vendita corrispondenti alle eventuali parole-chiave da enfatizzare) risultano i termini
piu' reiterati, e pompati fino alla nausea, non solo nel testo ma anche nel codice html sorgente. Dal punto
di vista linguistico non si impiega alcun sinonimo ne' si riscontra nessuna raffinata ricerca sul terreno
della raverie linguistica o dei neologismi, poiche' la stringa chiave deve acquisire risalto ai fini del
ranking. Quali effetti provoca tuttavia una tale interpretazione, senza ombra di dubbio restrittiva, della
pragmatica performativa? Un impoverimento dei giochi linguistici che, incanalato nel tunnel della
coazione a ripetere la keyword, ingenera una logica di costrizione ed involuzione linguistica. In questo
caso il miglioramento delle prestazioni, misurabile in termini divisibilita' del sito, significa d'altro canto
una limitazione delle caratteristiche formali e delle soluzioni realizzative. Tutto cio' che non e' funzionale,
e quindi da illuminare al neon dei metatags, finisce nel cono ombra della rimozione forzata. Ma ci sono
altre innegabili e preoccupanti conseguenze. Questa pratica produce una subdola equazione fra visibilita'
in Rete - efficienza - ricchezza. Senza soldi non e' attualmente possibile finanziare uno studio specifico
sulle piu' aggiornate tecniche del ranking, spesso affidato ad agenzie di settore dagli elevati cachet. E cioe'
senza ricchezza, niente tecnica; ma anche niente ricchezza senza tecnica161. Infatti chi oggigiorno pur
operando in Rete non risulta visibile nel contesto dei motori di ricerca, di fatto non esiste, e a sua volta ha
scarse possibilita' di entrare nell'e-business. I motori di ricerca quindi diventano, da ambienti tecnologici
di ricerca dell'informazione, un "momento di circolazione del capitale": offrendo visibilita' a chi e' in
grado di escogitare soluzioni tecniche sempre piu' forzate e corrazzate, rendono sotto questo profilo
la ricerca dell'informazione un prodotto alla stregua della merce in vendita nelle vetrine virtuali dell'ecommerce. Il motore di ricerca, ridotto nei termini di questa pratica del gioco linguistico finalizzato alla
sola performativita', si trasforma in una forza "produttiva" che fluttua pericolosamente ai confini col
mondo delle agenzie pubblicitarie. Fanno il resto l'invasione sempre piu' massiccia dei banners presenti
sui motori, i programmi di partnership programs162 e i lavori tecnici delle agenzie di top
ranking. L'amministrazione della ricerca dell'informazione cade cosi' sotto il controllo di una pragmatica
unicamente orientata all'efficienza. In una simile situazione, l'unico paradigma accettato e' quello del
gioco della potenza: non si ricerca informazione ne' si da' accesso all'informazione per soddisfare "sete di
conoscenza"163 ma per accrescere la potenza. Il gioco che si fonda sul criterio efficiente/inefficiente e' un
gioco che nulla ha a che spartire con l'invenzione linguistica o lo sperimentalismo concettuale, ma e' un
gioco principalmente basato sulla forza. Non la forza di eliminare direttamente la concorrenza con atti di
censura bruta come all'epoca dell'Indice dei Libri Proibiti164. Ma la forza, di natura economica e
tecnologica, di giocare una mossa piu' efficace dell'avversario, stendendolo al k.o. con una serie di
forzature del gioco linguistico - tattiche tutte orientate al successo del suo criterio performativotecnologico. Sono infatti mosse che, studiate a tavolino fin nei minimi dettagli, a loro volta dettano legge
nelle normative vigenti in nome della presunta efficacia delle procedure165. E' tuttavia possibile
rispondere a un simile attacco tecnologico che assomiglia tanto a un tecnocontrollo delle risorse? Esiste
una strategia alternativa che, giocando con le possibilita' linguistiche e la creativita' artistica, puo' forse
eludere a questo criterio tecnocratico che si sta consolidando come pensiero unico? La via
"rivoluzionaria" della pragmatica creativa e' una delle risposte piu' stimolanti al quesito. Pur senza
spiazzare in modo radicale lo strapotere di chi tenta di arrogarsi la fetta di maggior visibilita' del Web,
come potrebbe verificarsi in una prospettiva sistemica di motori basati su paradigmi caotici166, la
pragmatica creativa permette tuttavia di stravolgere i (con)sensi dei gioghi linguistici esistenti, limitando
le derive tecnocratiche di controllo dell'informazione e tentando di garantire un buon livello di pluralismo
dell'informazione stessa.
B) La via rivoluzionaria o pratica creativa.

La pragmatica creativa rappresenta a suo modo un modello emancipativo tanto delle piccole realta'
storiche di Internet quanto delle realta' emergenti che, pur scarseggiando di risorse economico-finanziarie,
sono dotate di unaforte carica immaginativa e carisma cibernetico. Il sito olandese di xs4all ha ad esempio
fatto scuola. Si tratta di un sito presente su Web dal 1995 ????? il cui nome si riferiva all'allora utopia dei
primi cibernauti di fornire accesso alla Rete gratuito per tutti167 e che fin dall'inizio ha cercato di dare
grande risalto all'impatto immaginativo non solo dei contenuti ma anche delle trovate linguistiche, di
sicuro effetto come appunto lo stesso nome del sito. Basato sull'assonanza linguistica, sulla sonorita'
dell'accostamento fra lettere alfabetiche e numeri che scaturisce dalla pronuncia inglese dell'espressione,
xs4all - Access For All - come xs2web168, rompe innanzitutto la logica performativa or ora discussa
e resiste alle tentazioni di legittimazione tecnocratica di chi invece si affida a trucchi di bassa lega... Gli
hacktivists di xs4all169, come di Isole nella Rete170, giocano invece con le strategie subliminali171 e
nei loro ricchi e ludici giochi linguistici privilegiano la fonetica172 alla semantica creando un
deturnamento concettuale e uno spiazzamento semantico-intellettuale. Mutuando un armamentario di
tecniche retoriche dalle poetiche dell'undergound beat e non solo (dal cut-up di Borroughs ai paradossi
linguistici di Lewis Carrol173, dalle tecniche piu' sofisticate di scrittura automatica elaborate da Joyce alle
punkzine fine anni '70174), la strategia dell'hactivism ha in effetti ricreato in Rete un accentuato
sperimentalismo presente ad esempio nel cyberjacking di etoy175. E' un impiego della linguistica come
gioco linguistico dalle enormi potenzialita'. La sperimentazione permanente citazionista - plagiarista o cyberpunk nasce per deturnare l'esistente creando disordine vitale all'informazione online, che tutto
deve essere ma non mufficata in stereotipi legati alla performativita' e alle esigenze
strettamente commerciali.
Se il principio di efficienza produce l'effetto di subordinare l'informazione (e a sua volta la ricerca
dell'informazione su Web) ad un principio di potenza, la pragmatica creativa rivoluziona questo stato
delle cose generando T.A.Z. di autonomia temporanea di forte impatto immaginativo176.
La pragmatica creativa non si attua pero' soltanto nel caso dell'inserimento di informazione in Rete, e
dunque non si esaurisce nella creazione originale di acronimi - siti - contenuti dalle connotazioni "free" e
dai magici immaginari collettivi. Il percorso "rivoluzionario" di questa pratica si rivela anche
nell'information retrieval poiche' nelle sue linee guida di liberta' espressiva indica la via per una ricerca
libertaria ed autogestita dell'informazione. In particolare suggerisce quello che Lyotard gia' defini' "l'uso
raffinato del gioco linguistico interrogativo": l'interrogazione creativa. Per aggirare i rischi di
tecnocontrollo bisogna imparare ad indirizzare le domande, formulandole in modo tale da non finire nelle
subdole maglie del ranking. "La domanda piu' o meno che bisogna porsi nell'ambito di questa
propedeutica non e' piu': e' vero? ma: a che cosa serve? Nel contesto della mercificazione del sapere, tale
domanda significa nella maggior parte dei casi: si puo' vendere? E, nel contesto dell'incremento di
potenza: e' efficace?". Per evitare le "politiche di seduzione" bisogna imparare a gestire i propri percorsi
informativi nella maniera piu' critica ed aperta possibile giocando con l'immaginazione che permette di
compiere nuove mosse e di mutare le regole del gioco, ricorrendo all'astuzia di Ulisse e il Cavallo di
Troia - la mossa che, come una hacker art, ha spiazzato gli avversari dopo dieci anni di un tanto massiccio
quanto inutile assedio ai troiani...
La bibliografia essenziale e' pressoche' inesistente. Anche in rete, rivolgendoci a forum e newsgroup, i
risultati di indagine documentativa sono stati scarsi; ci sono studi e ricerche in merito, che
focalizzano soprattutto la questione tecnica e scientifica, di carattere prevalentemente universitario e
sperimentale.
124 Luis J. Prieto introduce per primo il concetto di pertinenza in campo semiologico, trattandogli aspetti della fonologia, che viene poi esteso nelle analisi
linguistiche. V. Prieto J. Luis, Pertinenza e pratica, Feltrinelli, Milano 1976
125 Questo fatto ricorda il principio di indeterminazione di Heisenberg alla base della fisica quantistica secondo il quale la ricerca della precisione si scontra
non con un limite tecnologico (l'inefficienza delle strumentazioni) ma costituisce un limite interno alla natura della materia: l'incertezza delle misurazioni,
invece che diminuire all'aumentare della precisione, aumenta con essa. (I. Prigogine)

126 Questa non e' una cosa nuova, come ci ricorda de Saussure: "dato che una parola puo' esprimere idee piuttosto diverse senza che la sua identita' sia
seriamente compromessa (cfr. 'adottare una moda' e 'adottare un bambino' , 'il fiore del melo' e 'il fiore della nobilta'' ecc.). Il meccanismo linguistico ruota
tutto intero su identita' e differenze, queste non essendo altro che la controparte di quelle", De SaussureF., Corso di linguistica generale, Laterza, Bari1967, p.
132.
127 Information Retrieval (IR), recupero delle informazioni. Tutti quei sistemi ed operazioni che permettono di ricercare, consultare online, scaricare sul
proprio hard disk le informazioni presenti in rete. Si puo' recuperare le informazioni accedendo ai tre principali modelli di gestori elettronici: data base (banche
dati), file server (raccolta di file in specifici nodi della rete, chiamati server), servizi informativi integrati (unico servizio che offre funzionalita' diverse: posta
elettronica, accesso a chat, newsgroup, data base e file server.
128 Universita' e istituti di ricercatipo Stanford, Waseda, Northwester, MIT.
129 La logica Fuzzy e' una branchia della matematicainventata nel 1965 dal Dr. Lotfi Zadeh. La logica fuzzy permette di esprimere il valore di una variabile
con termini appartenenti al linguaggio umano e quindi e' possibile intenderela realta' in modo alternativo: non esistono soltanto il vero o il falso, il caldoe il
freddo,ma vi e' anche una verita' di mezzo, una verita' "sfumata" e un livello di temperatura intermedio, il tiepido.
130 Al momento uno dei motori ufficiale esistente che offre un "dialogo" piu' naturale , ininglese, con l'utente e' ASK JEEVES, www.askjeeves.com. Esso
pesca le risposte sia nel proprio database che in quelli di Altavista, Excite, Lycos, WebCrawlere Infoseek.
131 Le metodologie principali per accedere alle informazioni sono: i Data Base Management Systeme il Full Text Retrieval. La prima viene utilizzata per il
recupero dell'informazione di natura gia' strutturata, tipo record e field, dove le relazioni all'interno del testo sono stabilite a priori. Un esempio sono le tabelle
che vengono usate per la classificazione di dati aziendali, anagrafici, ecc. Il Full Text Retrieval lavorando sul testo non organizzato comporta operazioni piu'
complesse ed articolate, con il risultato di ritrovare termini e frasi esatte di un testo che e' inserito dentro un vasto data base come potrebbe essere
un'enciclopedia digitale.
132 Il padre delle attuali procedure di indicizzazione e' lo SMART system. La prima versione fu costruita tra il 1968 e il 1970 da Gerard Salton.
Per approfondimenti e' possibile consultare il materiale e scaricare gratuitamente l'ultima versione di SMART all'indirizzo: ftp://ftp.cs.cornell.edu/pub/smart; il
testo di riferimento principale e': G. Salton, The SMART Retrieval System: Experiments in Automatic Document Processing, New Jersey, Prentice-Hall,
1971.
133 Il "comando" da inserire nel form e' art*.
134 Un linguaggio che non puo' essere progettato non solo per i limiti intrinseci ad ogni formalismo (vedi note successive, teorema di Gdel), ma soprattutto
perche' e' impossibile tradurre un lingua in un'altra dal momento che "la grammatica di ogni lingua non e' semplicemente un sistema di riproduzione per
esprimere idee, ma e' una cosmologia - un sistema che plasma direttamente le idee, fornisce un programma e una guida per l'attivita' mentale dell'individuo,
per la sua analisi di impressioni, per la sua sintesi delle sue risorse mentali" (Whorff, Language, Thought and Reality, Mit Press, 1956, p. 121).
135 B. Kosko, Il "fuzzy pensiero", Baldini & Castoldi.
136 Ludwig Wittgenstein ha analizzato dal punto di vista logico-matematico i "giochi di linguaggio" nel Tractatus Logico-Philosophicus (Einaudi, 1964). Una
riflessione su questo tema e' stata rielaborata da Gregory Bateson nella Teoria dei giochi e della fantasia (Verso un'ecologia della mente, Adelphi, Milano
1972, p. 218).
137 Wittgenstein, Ricerche Filosofiche, Einaudi, Torino 1967, 18.
138 ibidem
139 Come nel paradosso del sorite la citta' linguistica di Wittgenstein puo' infatti essere sottoposta alla seguente domanda: "E quante case o strade ci vogliono
perche' cominci ad essere una citta'?"; Lyotard afferma che nella disseminazione dei giochi linguistici in cui ormai paiono dissolversi i saperi - ognuno
governato da regole differenti - non esiste nessun metalinguaggio tale da determinarne in modo univoco e lineare il campo di definizione.
140 Lyotard, p. 46, ibidem.
141 Luciano Pacagnella, ibidem.

142 Abbiamo scelto la dicotomia riformismo/rivoluzionario riferita a queste due vie di progresso dei saperi come citazione del Congresso della
II internazionale socialista dove si consumo' la scissione fra il pensiero rivoluzionario di Marx e il riformismo di Berstein.
143 Una pratica simile s'ispira a un atteggiamento libertario svincolato dalle costrizioni fisiche, emotive, sociologiche e storiche di giochi che sono invece
governati da regole ferree, in quanto non c'e' nulla di pre-ordinato e"il comandante di ieri puo' diventare un subordinato di domani" (Bakunin, Oevres, vol. II,
p.297).

144 "La presa di coscienza del fatto che ragione e anti-ragione, senso e nonsense, intenzionalita' e caso, coscienza e inconscio, formano tutt'uno: questo fu il
messaggio centrale del dadaismo" (Hans Richter in Dada, arte e antiarte, Mazzotta, 1966).
145 L'approccio sistemico, focalizzato sui paradigmi del chaos o della complessita', rappresenta infatti un radicale mutamento di pensiero dalle irriverenti e
stimolanti implicazioni sia concettuali che pratiche. L'espressione "dadaismo epistemologico" si ispira invece al celebre slogan "anarchico" del filosofo eretico
Feyerabend: "Anything Goes", che significa che "senza caos non c'e' conoscenza. Senza una frequente rinuncia ala ragione non c'e' progresso" (Paul K.
Feyerabend in Contro il metodo, Feltrinelli, 1975, p. 146). Ritornando alla metafora politica precedente, questo passaggio all'anarchismo epistemologico e alla
pratica caotica potrebbe essere paragonato alla espulsione di Bakunin (1814-1876) dalla I internazionale socialista,dopo il congresso de L'Aia del 1872: una
via in contrapposizione a riformismo e marxismo.
146 Si tratta di un metalinguaggio formalmente universale ma non consistente riguardo alle negazioni, cioe' che ammette la formazione di paradossi linguistici.
Il teorema di Gdel ha infatti stabilito nel sistema aritmetico l'esistenza di una proposizione che non puo' essere ne' dimostrata ne' confutata nell'ambito del
sistema, vedi Lyothard, ibidem. T. Pynchon lo riassume in una tra le piu' brillanti e caustiche sintesi concettuali: "...la legge di Murphy... quando si e' pensato
tutto, quando si e' certi che tutto funzionera', che non ci saranno sorprese... qualcosa sicuramente andra' storto", in Gravity's Rainbow (L'Arcobaleno
della gravita', Rizzoli, p. 377).
147 Feyerabend ha trattato sotto molteplici punti di vista il tema dell'incommensurabilita' (ovvero, l'incapacita' di misurare i saperi con un'unica misura). Al
complesso tema dell'incommensurabilita' diede anche un'interpretazione linguistica di grande suggestione. Semplificando, non e' possibile comparare i
contenuti di teorie diverse perche' non e' possibile tradurne i contenuti. "I linguaggi non sono semplicemente strumenti per la descrizione di eventi, ma anche
determinanti di eventi (fatti, situazioni) poiche' la loro grammatica contiene sempre una cosmologia (...) che influisce sul pensiero, sul comportamento, sulla
percezione" (ibid., p. 185).
148 L'invito ad adottare una metodologia pluralistica -da pochi anni accolto nella Combinatorial Chemistrry, e in altre discipline scientifiche che non si
uniformano ad un unico e vincolante paradigma ma aprono una porta in direzione dell'interdisciplinarieta'- e' uno dei capisaldi del pensiero di Feyerabend, o
della lettura di Lyotard del postmoderno. "Abbiamo bisogno di un mondo di sogno al fine di scoprire i caratteri del mondo reale in cui pensiamo di vivere - e
che in realta' potrebbe essere solo un altro mondo di sogno" (ibid., p. 28: ai confini con Philip Dick...)
149 Limite interno ai formalismi logico-matematici, e di conseguenza a tutti i formalismi informatici e linguaggi-macchina.
150 Protesi nel senso dato da McLuhan di estensioni corporee e sensoriali.
151 Lyotard, ibid., p. 38.
152 Questo paragone con alcune correnti dell'arte contemporanea non ha nessuna pretesa estetica, se non quella di esemplificare i concetti.
153 Ogni lingua ha un suo universo carsico di rapporti linguistici e classificazioni sotterranee che, per loro natura, vengono spesso solo "percepite piu' che
comprese", e rimangono il piu' delle volte inconsapevoli. Whorff definisce queste sottili classificazioni "criptotipi", e cioe' "significati sommersi, sottili ed
elusivi, non corrispondenti ad alcuna parola reale, ma funzionalmente importanti nella grammatica", come ad esempio il fonema del th inglese, la cui
consolidata presenza nelle particelle dimostrative (the,, this, there, then) ha creato, a livello incoscio,una "pressione psichica contro l'accettazione del
suono dolce th in parole nuove o immaginarie che non avessero un significato dimostrativo" ( Whorff, ibid., p. 76). Nei movimenti italiani degli anni '70 si
consolido' un subliminale uso linguistico della K come fattore connotativo della scrittura militante extra-parlamentare, il cui significato era dato dal
contrassegno foneticodella k (lettera peraltro inusuale nel contesto linguistico italiano) che faceva assumere a tale fonema precisi compiti semantici e non
solo.

154 Nell'immaginario del cyberpunk e' innegabile la rivisitazione, per quanto eclettica ed originale, del situazionismo - reinterpretato alla luce dell'esperienza
punk e della Xerox Art. A sua volta il movimento del '77, con tutto il suo bagaglio di slogan deturnanti, e' tuttora serbatoio inesauribile di idee (saccheggiate
dal cannibalismo pubblicitario) e giochi linguistici di irrefrenabile carica surreale: "Lama non l'ama nessuno", coniato dagli Indiani Metropolitani, e' un
esempio di sintesi creativa piu' folgorante di tanti manifesti politici. Rimandiamo per un approfondimento critico alla lettura di una storia orale del '77 Una
sparatoria tranquilla, Odradek Edizioni.
155 Un'interessante interpretazione sul filo rosso di continuita' dei movimenti, sia politici sia artistici dell'ultimo secolo - da Duchamp all'hackmeeting - e'
oggetto di studio da parte della sociologa Tatiana Bazzichelli (in "Simultaneita'" e in "Neural", 2000).
156 Si puo' assimilare al branching model, ma all'ancora piu' esplosivo e deflagrante modello della schizo-analisi delineato da Deleuze in Differenza e
ripetizione. La schizofrenia e gli stati psicotici come esplorazione di un altrove linguistico e concettuale altamente creativo, sono anche al centro dell'opera di
scienziati quali Stanislav Grof e Gregory Bateson.
157 Per una lettura completa dell'Internazionale Situazionista si rimanda all'opera completa Internazionale Situazionista 1958-69, Nautilus, Torino 1994.
158 Secondo invece il dissipazionismo di Ilya Prigogine (premio Nobel per la chimica del 1977) , i fenomeni irreversibili non si riducono affatto ad un
aumento del "disordine molecolare", ma manifestano un ruolo costruttivo di vasti orizzonti. Una visione della termodinamica classica, come si e' studiata
finora, e' concettualmente restrittiva e non e' applicabile a sistemi complessi.
159 Secondo il principio di Clausius, l'entropia e' infatti una forma di degradazione dell'energia e puo' solo aumentare, o tuttalpiu' rimanere costante:
"l'universo e' condannato a evolversi in direzione della morte termica" (Ilya Prigogine, Le leggi del caos dove offre una reinterpretazione del secondo principio
e una visione nuova del caos alla luce della sua scoperta delle "strutture dissipative"). Thomas Pynchon in Il lotto 49 (e/o edizioni, 1966) ha costruito su questo
principio un allucinato ed esilarante personaggio, rivisitazione del fisico Clerck Maxwell e il suo diaveletto: "Mentre il Diavoletto se ne stava a dividere le
molecole in calde e fredde, si supponeva che il sistema perdesse entropia. Ma la perdita in qualche modo era compensata dall'informazione che il Diavoletto
riceveva via via sullo stato di quelle molecole. -La chiave e' la comunicazione- proruppe Nefastis..." (ibid., p. 106).
160 Secondo le regole del reverse-engineering.
161 Parafrasando le profetiche parole di Lyotard a proposito del sapere scientifico nel secolo della privatizzazione della ricerca.
162 Ovvero gli accordi tecnico-commerciali per cui si premia economicamente il sito che tramite banners appositi e' riuscito a dirottare parte dei suoi visitatori
su un altro sito sul quale ha acquistato il prodotto pubblicizzato dai banners.
163 L'Ulisse di Dante nel canto XXVI dell'ultimo viaggio.
164 Atti di censura espliciti che si concludevano nei celebri roghi di libri proibiti.
165 Il loop in cui cade una tale logica di potenza e' forse uno dei rischi piu' inquietanti dell'attuale evolversi di queste pratiche. Quando infatti la pratica diventa
legge (nel caso dei motori, il consolidamento del ranking effettuato in questi termini restrittivi di doorways e keywords pompate), viene falsato il percorso
stesso della ricerca dell'informazione.
166 Stanislav Grof, psichiatra clinico, esperto di terapia psichedelica e inventore della "respirazione olotropica", in "The Cosmic Game" ha esplorato le
intuizioni provenienti dagli stati non ordinari di coscienza, giungendo a formulare un quadro filosofico di tipo sistemico in cui si integrano gli sviluppi
esperienziali di evoluzione della coscienza con le teorie della complessita' (in "Altrove", n. 7, Nautilus, 2000).
167 Non si trattava infatti di una banale formula commerciale come invece e' avvenuto in Italia con la finta formula dell'"Internet Gratis" che si risolve invece
in uno fidelizzazione commerciale dell'utenza finale costretta oltretutto a pagare in termini di perdita non solo della privacy ma anche di risorse economiche
per la connettivita'.
168 Sito ospitato su ecn.org sull'accessibilita' dell'informazione.
169 www.xs4all.nl
170 www.ecn.org

171 L'idea di Tommaso Tozzi era quella di creare "operazioni subliminali" per espandere "virus informativi" in opposizione al sistema ufficiale della cultura e
della comunicazione di massa. "Hacker Art come sviluppo parallelo a ogni tipo di guerriglia clandestina. Hacker Art come definizione di una soglia entro cui
l'operazione virtuale e l'operazione reale si scambiano indistintamente i ruoli mantenendo stabile la gestione e lo scopo dell'atto trasgressivo" (in Opposizioni
'80, edizioni Amen, 1991, p. 283).
172 Come in Mc Luhan da L'Oeil a L'Oreil avviene uno spostamento dal significato di visibilita' a quello di orecchiabilita'.
173 In una carrellata di sperimentazioni linguistiche che piu' hanno plasmato l'ultimo secolo, non puo' mancare l'autore di "Alice nel paese delle meraviglie", il
quale in ogni sua opera letteraria o di logica ha affrontato il complesso tema dei paradossi logici. Il movimento della controcultura ha sempre reso omaggio a
questo onirico scrittore d'avanguardia.
174 Ma e' doveroso citare anche il contributo di autori quali Rimbaud, Orwell, A. Huxley, P. Dick, Vonnegut, W. Gibson, N. Stephenson, R. Quenau, I.
Calvino, G. Perec, Don DeLillo, N. Balestrini, i testi dei CCCP, e lo sperimentalismo musicale degli Einsturzende Neubauten, e DVA... Ma un capitolo a parte
di interesse linguistico dovrebbe essere ricoperto dallo studio dello sperimentalismo chimico-psichedelico degli anni '60. Il nome della Dietilamide dell'acido
lisergico, il cui acronimo e' L.S.D., ha battezzato un'epoca. L.S.D., psylocina, MDMA, THC, ayahuasca, ibogaina, ecc. - insieme a tecniche come il
biofeedback o la vasca di isolamento sensoriale - hanno fatto da laboratorio per tutte le sperimentazioni emozionali e psicosomatiche che hanno dato un forte
impulso innovativo nel campo conoscitivo e linguistico.
175 La vicenda di etoy www.etoy.com e' emblematica ed e' stata oggetto di un approfondito articolo in "Neural" (2000). etoy: corporation di sette artisti
austriaci, svizzeri e inglesi nata nel 1994. Esponente del "digital hijack", meccanismo per mettere in trappola il navigatore dirottandolo per mezzo di un
indirizzamento forzato all'interno del Web. V. Nico Piro (a cura di), Cyberterrorismo. Come si organizza un rapimento virtuale, Castelvecchi, Roma 1998.
176 Da citare il Luther Blisset Project, e le esperienze di Tactical Media Crew (www.tmcrew.org) ed ECN (European Counter Network)in generale i
cui contributi ad un approccio linguistico comunicativo nuovo sono da anni sotto gli occhi di tutti.

Agenti
Che cosa sono gli agenti di ricerca?
Che cosa sono gli agenti di ricerca? Assistenti personali in grado di eseguire per conto dell'utente e in
modo praticamente automatico numerose attivita' connesse all'elaborazione177, come la ricerca di una
pagina Web e la relativa copia sul disco rigido. Ma in cosa differiscono dai motori di ricerca?
A differenza dei motori, gli agenti ricevono una serie di informazioni personali sull'utente influenzando la
stessa ricerca dell'agente intelligente. Altra differenza con i motori: gli agenti iniziano a ricercare le
informazioni a partire da un percorso prestabilito, ma libero di utilizzare gli agganci ipertestuali di questo
iter, che risulta quindi libero di snodarsi per la Rete lungo tracciati anche largamente imprevisti. Un
agente di ricerca e' anche il famoso software WebCompass178 che peraltro utilizza proprio i motori di
ricerca come base di partenza per le sue esplorazioni ipertestuali; oppure un esempio di agente di ricerca
puo' essere un offline browser come teleport179 o wget180 che, opportunamente configurati, consentono lo
scaricamento di pagine web selezionate secondo una lista di parole-chiave di partenza.
Ma perche' si dicono allora "intelligenti"? In realta' gli agenti attualmente utilizzati dispongono di
funzioni automatiche ma sono privi di intelligenza. In futuro pero' si prevede che gli agenti di ricerca
saranno in grado di valutare molteplici fattori nell'assumere una decisione, anche grazie agli sviluppi della
intelligenza artificiale (AI). Le decisioni che deve prendere un agente intelligente nel
reperimento dell'informazione consistono principalmente nel valutare l'interesse di un'informazione
trovata, raffrontandola con le caratteristiche personali dell'utente che ha ordinato la ricerca e il percorso
ipertestuale da seguire lungo rotte predefinite.
Questo ci conduce pero' ad uno dei problemi piu' gravi riguardanti l'uso degli agenti intelligenti: la
capacita' di movimento (o mobilita'). Infatti, se per uno scopo relativamente semplice181 come la
ricerca dell'informazione non e' necessaria una particolare interazione con il server che l'agente sta
visitando, in altri casi - come quelli legati ad operazioni di e-commerce - si pone il problema di far
eseguire all'agente codici sul server, il quale, malgrado alcune configurazioni e funzioni dell'agente
ispirate a criteri di sicurezza (ad esempio firmando elettronicamente le proprie attivita'182), puo' decidere
di non far svolgere all'agente una simile attivita' proprio per ragioni di policy di sicurezza. Cosi' se il
server non si fida a far eseguire il codice all'agente, analoghi timori di sicurezza possono insorgere
nell'utente che ha istruito l'agente ad effettuare una ricerca o un'operazione di commercio elettronico.
Pensiamo all'esempio di dover acquistare un oggetto in Rete e alla relativa necessita' di attrezzare l'agente
con gli estremi della propria carta di credito: il timore del furto di dati cosi' delicati, ad opera di un server
appositamente configurato allo scopo e ai danni dell'agente che lo visita, e' legittimo183. Ammesso e non
concesso che i problemi di mobilita' degli agenti184 - connessi soprattutto alla loro capacita' di esecuzione
di codice sui server di transito nelle loro esplorazioni - vengano risolti in tempi brevi, sara' attuabile il
sogno di creare strumenti configurati al fine di svolgere ricerche in Rete, ispirandosi proprio a criteri
costruiti ad personam: una ricerca su misura effettuata valutando se l'informazione trovata o il percorso da
intraprendere e' conforme alle caratteristiche dell'utente. Un agente che sa di compiere una ricerca per una
persona di lingua inglese, amante dello sport ed in particolare del tennis su erba, desiderosa di ricevere
sulla propria scrivania ogni mattina le news inerenti al suo hobby, acquisira' informazioni differenti e
scegliera' di muoversi fra links diversi dall'agente configurato invece per l'utente di lingua italiana,
amante del calcio o del tennis su terra rossa. Questi agenti saranno istruiti su una griglia di coordinatebase informativa che scandaglia i piu' comuni motori di ricerca oppure i canali push specializzati in
tematiche sportive; ma fin dai primi passi opereranno scelte diverse nel reperimento dati e nella scelta del
percorso ipertestuale di ricerca. La Rete viene cosi' "radiografata" trasversalmente ai suoi millepiani,
fiutando tracce originali e non percorrendo unicamente leautostrade prestabilite dei motori. Un esempio di
agente di ricerca che invece imposta la base di ricerca sopra un motore e vi rimane addirittura all'interno,

e' rappresentato dall'opzione My Yahoo! del noto motore di ricerca, che, fra le tante opzioni, permette di
utilizzare un metodo di analisi che classifica i risultati in base alle preferenze impostate dall'utente: una
sorta di ranking personalizzato sulle proprie caratteristiche personali. Gli agenti di ricerca in effetti
tendono a interagire -per non dire confondersi -con gli altri principali strumenti di ricerca della
Rete, mimetizzandosi con i motori di ricerca e con le risorse umane online. Firefly185, ad esempio, e' un
agente con capacita' di apprendimento che consente la creazione di un profilo personale delineato su
specifici interessi dell'utente in fatto di divertimento (musica, cinema ecc.) e sulla base dei requisiti
suggerisce una lista invitando a creare comunita' fra utenti con gusti simili186. Looksmart187 offre un
ampio ventaglio di servizi che comprendono l'interazione con redattori online, e con comunita' di
appassionati raggruppati per materie di interesse comune. Un ruolo di primo piano e' sempre piu'
frequentemente ricoperto dagli agenti umani. La pratica dell'intelligenza collettiva nelle sue
reti specifiche, definita da Levy come "intelligenza connettiva", e' una risorsa dalle enormi potenzialita'
che da agenti e motori di ricerca viene vista come complementare alle loro funzioni, ma stimata sempre
piu' indispensabile per poter offrire servizi qualificati e personalizzati alle esigenze di ognuno. Se infatti i
motori di ricerca sono una risorsa immediata per costruire una piattaforma informativa di base su cui
lavorare o ripartire per ricerche piu' approfondite, e gli agenti di ricerca - se ben configurati - offrono un
ventaglio di possibilita' per reperire almeno parte dell'informazione specifica che auspichiamo di trovare,
entrambi questi strumenti risentono dei limiti imposti dai propri automatismi. Vediamo
quali. Innanzitutto entrambi si trovano ad elaborare l'informazione in base a dizionari linguistici ed indici
di parole-chiave che devono inevitabilmente tenere conto dei limiti di interpretazione linguistica e
cognitiva. Torniamo all'esempio precedente - la persona appassionata di sport e poniamo il caso di calcio
- ed immaginiamo che l'agente di ricerca trovi un'informazione o un link accompagnato dall'espressione
"el pibe de oro". Tale dizione e' una metafora e non contiene nessuna parola chiave con cui si e' istruito
l'agente di ricerca per prelevare pagine web o seguire nuovi links presumibilmente interessanti alla
tematica del calcio. Eppure agli occhi di un appassionato e' indubbio che si tratta di una pagina (o
link) dedicata all'ex campione del mondo e giocatore del Napoli Maradona! L'agente di ricerca e' incapace
di distinguere fra parole pertinenti ma scritte in altre lingue oppure con un'ortografia corretta, o
ancora espresse in metafore o similitudini equivalenti. E invece il linguaggio vive proprio di questo
singolare sottobosco linguistico che non assume alcun significato all'inflessibile esame degli agenti
intelligenti. In secondo luogo, l'agente e' incapace di scegliere autonomamente la base informativa di
partenza su cui cominciare l'esplorazione dell'informazione agognata.E' pur sempre indispensabile
un'impostazione umana non solo nella selezione di parole-chiave che guideranno la ricerca, ma anche
nella cernita di portali, motori di ricerca, strumenti push o semplici pagine web che, a causa di una
moltitudine di segnalazioni pervenute a "orecchio umano"188 - visione di telegiornali, consiglio di persone
amiche, segnalazione su una mailing-list, ascolto di uno spot alla radio, percezioni subliminali ecc. - ,
possono anche subire variazioni frequenti ed impreviste. In alcuni casi bisogna che l'agente software sia
affiancato - a volte anche sostituito - da un agente umano: una persona che per le sue relazioni sociali,
affinita' intellettuali, capacita' professionali e abitudini personali sia costantemente aggiornata su cio' che
succede rispetto a determinate tematiche, o abbia gli strumenti adeguati - perche' no, anche software - per
reperire le informazioni richieste. In poche parole, un cacciatore di informazione.
Cacciatori
L'agente umano ha una capacita' superiore di reperire l'informazione, perlomeno dal punto di vista
intuitivo ed extra-razionale, rispetto a uno software. Facciamo l'esempio concreto di un cacciatore di
informazione che deve fornire un'informazione altamente specifica. Comincera' col cercare e frequentare
le mailing-lists, i canali irc e i newsgroups pertinenti, semplicemente mettendosi sulla lughezza d'onda
della comunicazione in atto o anche ponendo quesiti che provocano quasi sempre risposte interessanti
e pertinenti, suscitando a catena nuovi interrogativi e risposte... Chiedera' aiuto ai propri amici e forse
sfogliera' qualche rivista del settore e ascoltera' programmi radio e tv sull'argomento. Utilizzera'
sicuramente anche motori di ricerca ed agenti intelligenti, ma avra' una visione a 360 gradi del contesto in
cui cade la sua ricerca, acquisendo la capacita', piu' raffinata rispetto a un software, di distinguere
materiale e links pertinenti e interessanti dal trash o da superficiali banalita'.

Riuscira' infine a trovare quello che cercava personalmente, o oggi sempre piu' spesso quello che cercava
per commissione. Sono infatti sempre di piu' le testate giornalistiche, i singoli giornalisti, persino i portali
e i motori di ricerca organizzati a directories che si avvalgono di cacciatori di informazione professionisti,
di solito attrezzati di ottime postazioni multimediali che si avvantaggiano, allo stesso tempo, di elevate
risorse di connettivita' ma anche di strumenti di navigazione molto spartani, o comunque capaci di
visualizzare numerosi siti, uno di seguito all'altro o anche simultaneamente189. Rientrano indubbiamente
nella categoria dei cacciatori di informazione anche quei servizi commerciali che effettuano ricerche di
informazione online su richiesta oppure forniscono informazioni dettagliate su raccolte di links
specializzate. Sono servizi che ancora possono avvantaggiarsi di operatori umani o automatismi artificiali
di vario tipo, ma e' ovvio che gli unici che abbiano pretese di buon funzionamento sono quelli che si
avvalgono di personale umano. Ask Jeeves190, infatti, se rappresenta un interessante tentativo di
mettere in condizione l'utente finale di porre una domanda molto articolata senza dover conoscere i
linguaggi di interrogazione dei motori di ricerca, d'altro canto non risulta mai essere particolarmente
efficace. Consta di un'interfaccia amichevole che permette di porre un quesito su un
argomento adoperando un linguaggio naturale che viene poi tradotto dal servizio in linguaggio di
interrogazione di facile interpretazione per alcuni fra i motori di ricerca principali191. Ask Jeeves ha il
merito di facilitare l'esistenza a chi non ha tempo e voglia di studiarsi la logica booleana e le regole di
ricerca avanzata dei vari motori; ma finora si puo' dire che, al di la' del produrre domande su domande per
cercare di interpretare l'interrogazione umanamente formulata, non fornisce in ultima battuta risposte
molto efficaci. Solo uno sviluppo futuro delle applicazioni della logica fuzzy nel software potranno aprire
uno spiaraglio all'orizzonte192. Di segno positivo, viceversa, e' un servizio recentemente inaugurato
sul web italiano e dal nome VorreiSapere193 che, attraverso una semplice procedura di domanda via email, fornisce in tempi brevi (entro le 24 h) risposte mediamente esaurienti, in particolare per sapere se
esistono links inerenti alle tematiche richieste. E' un esempio eclatante - se rapportato al precedente - in
cui una redazione umana si rivela piu' efficace di qualsiasi agente intelligente a tutt'oggi
elaborato194. Basati, invece, perlopiu' su automatismi di vario genere e su agenti intelligenti sono alcuni
servizi specializzati in settori specifici: su rbay195 si puo' trovare un elenco di utilities disparate comprese
le "online detective" ovvero quei servizi che sono specializzati nel recupero di informazioni di carattere
personale; Careermart196 invece e' un vero e proprio agente specializzato nella ricerca di opportunita' di
lavoro, svolgendo egregiamente la sua funzione di analisi di offerte su molti siti americani, seppure al
costo di comunicare un curriculum personale dettagliato197. Come ultima categoria di cacciatori di
informazione possiamo citare tutti quei soggetti privati o istituzionali che realizzano directories di
links commentati198. Ne esistono oramai di vario tipo e sono un valido aiuto a chi e' in cerca di qualche
informazione in quanto - sulla fiducia - permettono di valutare se tale sito vale la pena di essere visitato o
meno, fornendo liste precompilate e commentate di links divise per argomento.
E' il caso per esempio del Social Science Information Gateway (SOSIG), creato per fornire una selezione
di links ritenuti interessanti in materia di scienze sociali, economiche e giuridiche. Di ogni sito
ritenuto interessante SOSIG199 fornisce una scheda di commento comprendente lingua di origine, abstract,
parole-chiavi, autore del sito ed url di riferimento. Tutti i servizi recensiti in questo approfondimento, da
una parte affiancano con successo risorse umane di analisi ai software di ricerca, dall'altra hanno pero' a
loro volta il limite di essere prodotti da singoli o istituzioni che decidono quale materiale sia interessante
da recensire o fornire come risultato di ricerca; sono cioe' privi di quella possibilita' di critica e liberta' di
espressione che invece riscontriamo in molte delle comunita' presenti in Rete la cui ricchezza e' proprio la
libera condivisione del sapere e la sua pubblica diffusione.

Strumenti collettivi di condivisione dei saperi


La Rete e' piena di umanita'. Chi non si riconosce in questa affermazione non conosce la Rete o forse e'
un software o un replicante, sebbene non se ne sia ancora accorto! In effetti, bisogna essere freddi alla
stregua di un prodotto tecnologico per non riuscire a scorgere in mezzo a tutto il codice e agli
automatismi presenti in Internet, sprazzi di calda umanita'. Anche quando esibisce maniere tiepide e
codificate ed a volte, proprio il suo non mostrarsi, e' la controprova piu' forte del suo "essere"

umanita'200. E' difficile razionalizzare, ad esempio, la sensazione di sentirsi parte di una comunita' in Rete
oppure riuscire a decodificare emozioni forti dalle friogeniche e distaccate rappresentazioni del
cyberspazio. E' difficile spiegare tutto cio' a chi non ha mai provato, con pazienza e perseveranza, ad
entrare in una comunita' in Rete e forse e' impensabile tentare anche una trasposizione di queste
sensazioni in un saggio. Ma cercheremo in ogni caso di sensibilizzare i lettori sulla questione, almeno per
porre l'accento sul senso e l'importanza delle communities nel contesto della ricerca dell'informazione in
Rete.
La socialita' in Rete201 non deve essere considerata un'alternativa valida alla mancanza di socialita' nella
vita reale, ma e' incontrovertibile che rappresenta un modo di rapportarsi ad altre persone adoperando
dinamiche e regole naturali che sono caratteristiche proprie della Rete e difficilmente riproducibili al suo
esterno. E', infatti, difficile in altri ambiti annullare (o trasgenderizzare202) il concetto di identita' fisica e
allo stesso tempo accedere alle stesse possibilita' comunicative di chiunque altro. Come tutto cio' incida
sulla ricerca dell'informazione e' un processo sottile e impalpabile i cui effetti necessitano di un
approfondimento ulteriore. Per fare cio' dobbiamo prima delineare alcuni tratti dello stare insieme in Rete.
Lo "stare insieme", e il coinvolgimento emozionale, sono uno dei primi obiettivi della Rete, tanto che la
posta elettronica e i newsgroups sono fra i primi servizi attivati storicamente e anche oggi sono annoverati
fra quelli che riscuotono il maggior successo. La necessita' di creare nuove reti e sottoreti all'interno di
Internet, il cui fine e' appunto fare "Reti di reti" (Internetworking), viene avvertita fin da subito e non solo
per un desiderio di socialita' "generico" ma per il piacere di socializzare i saperi acquisiti e i (bi)sogni di
espandere le proprie conoscenze. Le comunita' in Rete - che siano improvvisati canali chat di tipo
IRC, affollatissimi newsgroups oppure ordinate mailing-lists - nascono dalle esigenze piu' diverse:
desiderio di socialita' nel senso piu' classico della parola203, necessita' di coordinarsi fra persone che
sono perseguitate o emarginate per i motivi piu' disparati204, voglia (e/o perdita) di identita' e
appartenenza a un gruppo ben delineato205, ma anche spesso e volentieri il piacere di condividere saperi
faticosamente conquistati e - viceversa - il bisogno di reperire informazione malleabile e troppo volatile
per farsi irretire. Una comunita' in Rete e', insieme, un palcoscenico ideale per condividere/mostrare il
proprio sapere e know-how, un formidabile banco di prova per collaudare il livello di qualita'
dell'informazione reperita e un efficace (non)luogo dove porre domande e sperare nella maggior parte
dei casi di adescare risposte. Parlando di comunita' possiamo certamente pensare ai canali IRC
dove spasmodiche e spassose conversazioni in tempo reale sul proscenio pubblico fanno quasi da sfondo
a una miriade di confronti privati dove parole ed emozioni forti sono spesso accompagnate a duelli
rusticani molto high-tech206. I canali IRC sono anche formidabili strumenti dove sperare di reperire
un'informazione "al volo"; basta, infatti, indovinare il canale giusto207 e porre la domanda in termini
precisi e gentili208 per ottenere una risposta esauriente. Quando si dice comunita' non si puo' non illustrare
le fluide capacita' comunicative dei newsgroups. Cosiddetti forum di discussione di tipo pubblico, i
newsgroups rimangono un oggetto misterioso per la maggior parte dei novelli navigatori del cyberspazio
in quanto - come nel caso dell'IRC - necessitano di un minimo209 di conoscenza tecnica della Rete.
Essi rappresentano, come gia' accennato, la "matrice" del cyberspazio, ovvero il network dove
l'informazione viene spesso generata e comunque il piu' delle volte collocata per la prima volta. In ogni
caso rappresenta la faccia pubblica e viva di Internet: se, infatti, un indirizzo Web e' sinonimo di vetrina
in Internet, e' sui newsgroups che troviamo l'esistenza dell'informazione. Gli annunci piu' importanti di
nascita di nuovi software, le discussioni tecniche e politiche piu' animate, il materiale informativo piu'
raro, scabroso e censurato, si trovano senz'ombra di dubbio attraverso la rete interminabile dei
newsgroups210. I newsgroups, a differenza del patinato e statico Web, sono, infatti, materia viva dove
l'informazione puo' essere collocata da un italiano, criticata da un finlandese, manipolata ad arte da un
francese che viene subito sconfessato da un australiano. In questo marasma affascinante e terribile di mari
agitati dell'informazione e' possibile insinuare qualsiasi domanda e trovare qualsiasi risposta, col rischio
pero' di incappare in quella fuorviante, scorretta o forse solo perdersi nel frattempo in qualche vortice di
discussione fine a se' stessa, lasciandosi attrarre da qualche scroscio di rumore di fondo della
Rete improvvisamente cascatoci addosso e che ci distoglie dalla nostra ricerca. Le mailing-lists, a detta di
chi scrive, sono invece - fra le strutture classiche di comunita' della Rete - lo strumento collettivo piu'
efficace per la ricerca dell'informazione. Le mailing-list non sono facilmente localizzabili; ci s'iscrive e si
partecipa attraverso la posta elettronica ed una propria casella postale: per queste ragioni la "lista"

e' considerata una via molto piu' intima di partecipare ad una comunita' in Rete. Inoltre sempre per questa
ragione e' trattata con molto piu' riguardo e offre maggiore affidabilita' rispetto ad un canale irc o ad un
newsgroup. Gli iscritti ad una lista seguono con grande attenzione il dibattito in corso ma non vi
partecipano necessariamente. Avviene, infatti, comunemente di trovare mailing-lists dove sono iscritte
anche centinaia di persone ma il cui dibattito viene alimentato da poche decine. E' il caso della cyberrights211 - mailing-list cui si deve un forte impulso alla nascita di questo approfondimento per le
informazioni tecniche e gli spunti di discussione che si sono avvicendate in quel tazebao virtuale dove, nonostante una massiccia partecipazione d'iscritti e un gateway212 con il Web213 che garantiscano
una vasta visibilita', si registra un numero relativamente basso di partecipanti attivi al dibattito in corso.
La maggior parte degli iscritti e la totalita' di coloro che la leggono da Web, un po' per timidezza, un po'
per paura di deragliare nell'off-topic o dire cose tecnicamente imprecise, si limitano a seguire il dibattito
senza interlocuire e apprezzando il flusso di informazioni e gli elementi di riflessione da lui generato. Le
liste sono un contesto fra i piu' affidabili dove poter effettuare una domanda; o meglio sono una delle
forme di comunita' in Rete dove e' fortemente probabile ricevere una risposta affidabile ai nostri quesiti.
In una lista, infatti, si celebra per cosi' dire un processo di "fissazione dell'informazione". L'informazione
viene in genere richiesta da chi ne ha imminente bisogno. Spesso il meccanismo di innesco della
fissazione ha successo e allora accade che o gli altri partecipanti alla lista sono gia' in
possesso dell'informazione richiesta e la forniscano subito; oppure scatta un dibattito interno ma aperto
sulle modalita' per reperirla. Se l'informazione consiste in una interrogazione, scaturisce il dibattito per la
sua rapida risoluzione. Finche' si giunge alla soluzione al quesito e viene fornita una risposta
soddisfacente che innesca l'ultima fase del processo di fissazione dell'informazione. In che cosa consiste
la fissazione? E' un processo di pubblico esame del prodotto elaborato e della sua qualita'. Se
l'informazione scovata o la soluzione ipotizzata difetta in qualche suo aspetto teorico o tecnico, e' assai
probabile che venga sottoposta a correzioni e miglioramenti ad opera di qualche pignolo partecipante alla
lista. I vantaggi di partecipare ad una communityin Rete rispetto all'esigenza di cercare o produrre
un'informazione possono essere ricapitolati in due punti:
a) elevata capacita' di ricerca dell'informazione: le fonti di informazione e di ricerca sono rappresentati
dai partecipanti alla lista, tutti potenziali agenti umani che, soprattutto in alcune liste frequentate
da esperti, giornalisti e tecnici specializzati in vari settori, costituiscono - sempre potenzialmente
beninteso - il meglio che si possa sperare a livello di rilevatori di novita' e osservatori accorti e
curiosi dell'esistente214;
b) capacita' di elaborazione dell'informazione: l'informazione (o quesito) viene analizzata, risolta,
elaborata e metabolizzata dalla discussione e dall'esame collettivo, fino ad assumere una forma che si puo'
considerare altamente affidabile.
Le comunita' in Rete hanno - rispetto ai motori e agli agenti di ricerca - delle forti potenzialita' di sviluppo
nel campo minato della reperibilita' dell'informazione e di analisi dell'informazione reperita. Negli ultimi
anni, oltre alle classiche strutture di canali IRC, newsgroups e mailing-lists215, la Rete ha pero' elaborato
altre forme di "stare insieme", di fare comunita', alcune delle quali inevitabilmente hanno caratteristiche
interessanti proprio sotto il profilo del reperimento dell'informazione. Sempre piu' spesso si formano
comunita' in Rete che elaborano proprie directories con l'intento di presentare una raccolta di
indirizzi commentati che si riconoscono in un comune orientamento, oppure specializzati in un certo
settore o per semplificare la ricerca in Rete ad una particolare utenza. E' l'esempio di Altravista216,
progetto il cui nome (ludico gioco di parole) richiama alla mente la possibilita' di fornire altri punti di
vista oltre - visioni alternative - oltre agli elenchi dei motori di ricerca straconosciuti, e risolve l'annoso
problema della comunita' di Isole nella Rete217 di catalogare il peraltro incensibile mondo
dell'underground digitale.
Ma l'orientamento autenticamente innovativo che sta espandendosi con vigore fra le communities in Rete
e creandone di nuove e' quello del file-sharing. Sotto questa etichetta possiamo includere i vari progetti
napster, gnutella, freenet e molti altri ancora218. Si tratta di servizi che, secondo protocolli e procedure
diverse tra loro, permettono a tutti di raggiungere un risultato simile: la condivisione di files, documenti o

addirittura pezzi interi di disco fisso (o memoria). E' Freenet forse, fra quelli elencati, il progetto piu'
ambizioso e capace di rivoluzionare l'utilizzo della Rete in un prossimo futuro. Nato dalla fervida mente
di un giovane studente irlandese Ian Clarke219, Freenet220 si propone di realizzare una sottorete capace di
proteggere l'anonimato e la liberta' di espressione dei suoi partecipanti. Una volta scaricato e installato il
server freenet su un computer in cui e' presente una Java Virtual Machine, e' possibile immettere in questa
speciale Rete documenti e files di qualsiasi natura contrassegnabili da nomi (dette chiavi221)
oppure ricercare files particolari, purche' si conoscano le corrispondenti chiavi. I files saranno immessi e
reperiti senza che sia possibile rintracciare il percorso preciso di immissione o reperimento secondo un
principio di ridondanza dell'informazione in Rete e protezione dell'anonimato percio' al massimo e'
possibile sapere l'IP dell'ultimo computer di questa Rete con cui si e' avuto a che fare222. L'idea di filesharing, corollario della filosofia Freenet, consiste nel mettere a disposizione di queste procedure di
ridondanza e condivisione dell'informazione, interi settori del disco rigido del computer che
svolge funzioni da server Freenet, senza che il gestore del server si renda immediatamente conto223 di
quanto sta succedendo e non sia di conseguenza in grado di decidere se accettare o no sessioni di
condivisioni di files e documenti. Uno dei principi di Freenet permette proprio di scaricare o immettere
qualsiasi files ma non consente di cancellare alcunche', almeno fino a quando il server e' online: la
censura e' tecnicamente bandita. Gia' funzionante fra una ristretta cerchia di ammiratori, si pensa
che questa Rete possa rappresentare in un futuro, fatto forse di interfacce piu' amichevoli, un'alternativa ai
sistemi di controllo e reperimento dell'informazione in Rete. Come Linux, anch'esso partorito da una
giovane mente224, e' u prodotto free ovvero aperto all'analisi e al contributo della comunita' in Rete. Come
Linux225 ha attirato una grande attenzione delle corporazioni commerciali, tanto che i fondatori sia Linus
sia Ian, stanno attualmente lavorando anche per conto di holding informatiche molto potenti e
indirettamente collegate al colosso Microsoft. E' la naturale conseguenza di un Mercato che scopre fin
dagli esordi come la Rete giri meglio intorno e dentro alle comunita'. Comunita' che, attraverso
una precisa campagna di fidelizzazione ovvero di censimento di dati privati, possono rappresentare anche
solo per la loro esistenza una fonte di guadagno. Se comunque Freenet finora non ha subi'to una deriva
commerciale e, nel caso, controreagira' elaborando alternative da parte di altri studenti insofferenti allo
stato di cosepresenti, e' invece Napster226, un servizio ora gestito da una societa' finanziaria, ad aver
suscitato maggiore scandalo.
Contemporaneamente al dilagare del formato MP3 per lo scambio e l'ascolto di files musicali, ha riscosso
molto successo in Rete questo sistema di condivisione di files MP3 percio' un numero di utenti aventi
client Napster e collegati a un server Napster, possono vedere e scambiarsi i files MP3 presenti nei loro
PC. Napster e' salito alla ribalta per il fatto che l'industria discografica ha fatto pressione anche presso
ambiti giudiziari affinche' venisse chiuso d'autorita': "chiusura di fatto inapplicabile perche' in realta' di
cloni Napster e di progetti di file-sharingspecializzati nella condivisione di files MP3, esistono orami
moltissimi esemplari; ed alcuni anche di carattere no-profit come il famoso GNUtella227 che, pur essendo
ancora lento rispetto a un network di tipo Napster228, garantisce comunque la non commercializzazione
dei dati degli utenti che partecipano allo scambio di files oltre ad offrire la possibilita' di condividere
qualsiasi tipo di file. Ma se non fossero files di tipo MP3 ad essere condivisi attraverso un network
apposito, bensi' i bookmarks delle nostre navigazioni? Pensiamo auna comunita' di navigatori del
cyberspazio che accomunati da un interesse, passione od orientamento culturale, e dotati di appositi client
connessi ad appositi server, potrebbero efficacemente ed in tempo reale abbreviare e ottimizzare le
proprie ricerche di informazioni e navigazioni in Rete, scegliendo di (con)dividere le proprie risorse
informative e tracce ipertestuali.
Qualcosa di affine e' stato gia' elaborato nel passato. Un progetto di (active) collaborative filtering
denominato Simon, i cui utenti godrebbero della condivisione di liste di links ipertestuali a pagine
Web appositamente commentate dai singoli utenti. Purtroppo, e paradossalmente, di questo progetto non
si trova piu' traccia in Rete; ma cio' non toglie che l'idea di trasformare i bookmark dei vari browser in un
formato comune e facilmente indicizzabile, realizzzando parallelamente un indicizzatore completo di
moduli client e server necessari a formare la rete di condivisione/ricerca229, rimane un'ipotesi di
intelligenza collettiva - e connettiva - che potrebbe concretizzarsi in un futuro prossimo in un formidabile
strumento di ricerca dell'informazione in Rete230 basato sul principio della libera condivisione dei saperi.

177 Secondo la definizione data da Leslie Lesnick e Ralph E. Moore nel loro "Agenti di Ricerca" edito da McGraw-Hill Libri Italia srl nel 1997.
178 http://www.qarterdeck.com
179 http://www.tenmax.com/teleport/pro/home.htm
180 http://sunsite.auc.dk/wget/index.html
181 Da un punto di vista delle risorse di esecuzione del codice necessarie.
182 Con la firma elettronica il server puo' quindi riconoscere un agente ritenuto innocuo da uno potenzialmente nocivo.
183 Operazione non di facile realizzazione tecnica ma sicuramente fattibile.
184 La capacita' di trasferire codice di tipo Java da un computer a un altro rappresentera' in questo senso una opportunita' importante per gli agenti intelligenti
del futuro
185 http://www.ffly.com
186 La societa' privata Agents Inc. creatrice di FireFly e originaria dal famoso Media Lab del Massachussets intende cosi' testare questa tecnologia per
estenderla ad altri campi commerciali quali i servizi finanziari e il turismo.
187 http://www.looksmart.com
188 E per loro natura difficilmente registrabili da uno strumento software.
189 Nell'ambito dei cacciatori di informazione va molto di moda ad esempio sia il browser lynx perche' molto veloce ma anche il browser Opera in quanto
capace di visualizzare efficacemente piu' siti contemporaneamente.
190 www.askjeeves.com
191 "Can You tell me some news about art and in particular on visual arts?" verra' probabilmente tradotto per altavista in: "news AND visual and ART*".
192 Molti matematici ritengono che solo una sofisticata ricerca linguistica fondata sulle regole fuzzy potra' discriminare le sfumature del linguaggio naturale
(mai semplicemente binario: o bianco o nero) imparando ad interpretare i frattali linguistici che rendono ancora difficile una gestione unicamente software
della ricerca in Rete.
193 www.vorreisapere.com
194 La ricerca nel settore dei motori di ricerca e' comunque molto intense e non e' detto che non ci regali qualche sorpresa in un prossimo futuro. Si consiglia
allo scopo di tenere d'occhio la directory www.agentbase.com/survey-main.htm
195 http://rbay.com/spy/spy.htm
196 www.careermart.com
197 Si e' usato il termine costo in quanto e' ormai noto che le informazioni personali rappresnetano un valore anche economico nell'universo di Internet.
198 Seppure con un proprio carattere originale e' da citare il caso anche dei notiziari spediti via e-mail sempre ricchi di url utilissime e aggiornate come
http://www.zeusnews.com
199 http://sosig.esrc.bris.ac.uk/

200 E' indubbio, ad esempio, che quando si scrive un messaggio in una mailing-list e non si riceve risposta e' segno il piu' delle volte non tanto di indifferenza
ma di silenzioso assenso. E' vero infatti il contrario che non passano indenni nelle comunita' in Rete affermazioni prive di qualsiasi senso.
201 Ampiamente analizzata da Luciano Pacagnella, ibidem.
202 Il concetto di trasgender e' uno dei cavalli di battaglia di Helena Velena.
203 Inutile nascondersi che la ricerca di emozioni rappresenta anche in Rete la spinta prevalente per comunicare.
204 La Rete e' sempre stato un rifugio per i maledetti, i perseguitati politici, gli intolleratamente diversi.
205 Altrimenti come spiegarsi l'esistenza di newsgroup come alt.alien.vampire.flonk.flonk.flonf ?
206 Chi partecipa a una sessione chat tramite IRC cosi' come tramite ICQ si espone inevitabilmente, tramite l'inevitabile esposizione del proprio numero ip, a
possibili attacchi e tentativi di intrusione.
207 Si chiamano canali e sono per la maggior parte pubblicamente elencati e rintracciabili le decine di migliaia - considerando anche le diverse reti e i diversi
server irc esistenti - di forum a cui poter partecipare o chiedere aiuto.
208 Si ha ovviamente piu' possibilita' di ricevere una risposta utile se la domanda la si effettua in un canale dove si e' riconosciuti per qualche ragione, e anche
per la semplice e periodica partecipazione allo stesso.
209 Peraltro si allude proprio ad un livello minimo di conoscenza tecnica e piu' precisamente consistente nel sapere a quale newsserver connettersi avendo a
disposizione una connessione che lo permette e apposito software newsreader.
210 I newsgroups sono anch'essi decine di migliaia e difficilmente censibili considerato la loro veloce crescita ed evoluzione.
211 Mailing list ospitata su Isole nella Rete ~ http://www.ecn.org/lists/cyber-rights/ e che vede la partecipazione di piu' di 400 accounts di posta fra tecnici,
giornalisti e appassionati della Rete ed in particolare delle problematiche inerenti le sue possibilita' - anche politiche - di espressione.
212 Si intende per gateway uno strumento tecnico che mette in connessione diretta due ambiti di comunicazione di tipo diverso.
213 In passato anche con qualche newsgroups e qualche area BBS.
214 Consideriamo che ogni partecipante alla lista ha le sue fonti di informazione e quindi una lista rappresenta da questo punto di vista una ragnatela di fonti
fra le piu' disparate, sia analogiche che digitali. Un network di bookmark.
215 I quali rispettivamente hanno il pregio dell'immediatezza (IRC), del confronto pubblico (newsgroups) e dell'accuratezza (liste).
216 Reperibile su www.altravista.org presenta a tutt'oggi le varie categorie d'interesse: Anarchia, Antifascismo, Antimilitarismo, AntiProibizionismo,
Associazioni, Centri Sociali, Collettivi, Commercio equo e solidale, Culture giovanili, Cyber Rights, Ecologia, Terra, Editoria, Immigrazione,
Internazionalismo, Lavoro e Sindacalismo, Marxismo, Media activism, Memoria, Miscellaneous, Musica, Riviste, Scuola, Stragi di Stato, Video.
217 www.ecn.org
218 Molti dei quali sono invece definiti dal termine di (active) collaborative filtering.
219 L'ideazione di questa che possiamo definire una sottorete e' infatti stata la sua tesi di laurea.
220 L'homepage attualmente e' su http://freenet.sourceforge.net/ ma e' probabile che evolva velocemente in un proprio dominio indipendente.
221 Provate ad esempio a cercare ArticoloHackLabFIBFI e troverete un articolo dell'hacklab di Firenze, una dei primi collettivi italiani di hacktivists che si e'
rapportato a questo strumento.

222 Cosa questa difficilmente evitabile essendo una Rete che comunque si appoggia sulla struttura TCP-IP di Internet anche se sfugge da alcuni suoi principi
base di funzionamento come ad esempio il fatto di non utilizzare il sistema DNS per individuare i nodi della Rete.
223 Uno dei tanti sviluppi previsti di Freenet e' quello di crittare e quindi rendere sempre indecifrabile il contenuto di questi files condivisi.
224 Il finlandese Linus Torvalds.
225 Con le dovute differenze naturalmente visto che il fenomeno Linux puo' essere considerato l'evento informaticom dell'anno 2000 senza timore
di sbagliare.
226 www.napster.com
227 La homepage di Gnutella e' http://gnutella.wego.com. Va considerato che si tratta di progetti work in progress la cui natura puo' radicalmente cambiare nei
mesi a venire.
228 La maggiore lentezza e' dovuta al fatto che non esiste un server centrale e quindi anche la ricerca si snoda attraverso tutti i pc partecipanti al network
GNUtella.
229 Magari sottoforma di plug-in del browser normalmente utilizzato come l'attuale sperimentazione portata avanti da www.pointera.com.
230 Questa idea e' emersa varie volte sia all'interno della lista cyber-rights che durante alcuni seminari dei vari hackmeeting.

Portali
Filosofia dei portali
Tutto in una parola
La parola portale (portal) compare abbastanza tardi nel vocabolario del web rispetto a cio' che essa vuol
significare. Per intenderci, un qualsiasi sito di una certa grandezza dedicato ad una serie di temi o ad un
argomento specifico, era gia' portale prima che il termine in questione venisse adottato. Si inizia, infatti,
ad usare ed abusare la parola portale agli sgoccioli del precedente millennio (1998-2000), ma i primi
grandi networknascono verso il 1993-1995231. Ma che cosa e' un portale? Un portale e' una "porta" di
entrata, uno "snodo" principale della rete232, in pratica un punto di riferimento del quale gli utenti si
servono per le proprie ricercheo semplici navigazioni; il portale, quindi, puo' essere considerato a ragione
una risorsa di ricerca.
Questa specie di porta di accesso che permette di immetersi nel caotico traffico del Word Wide Web e'
una home page (spesso resa personalizzabile agli utenti) di un sito che opera in rete svolgendo varie
attivita', ma sempre riconoscibile da un proprio carattere, settore e contenuti. Quello che distingue un
portale da un normale sito e' la quantita' e qualita' di servizi ed opzioni che e' in grado di offrire agli
utenti. Si puo' iniziare dall'accesso gratuito ad Internet, con annessi email e spazio web; l'interfaccia di
solito molto semplice presenta dei canali tematici o aree dedicate; il motore di ricerca interno e'
essenziale; possiamo avere la possibilita' di inviare messaggi sms, consultare mappe stradali,
elenchi telefonici, meteo, oroscopo, quotazioni di borsa, traduttori, vocabolari; ricevere newsletter e
partecipare a forum, chat, mailing-list; fare shopping ed acquistare all'asta e adesso alcuni portali hanno
attivato anche i servizi Wap. Per cercare di definire meglio le finalita' e le caratteristiche dei vari portali
esistenti attualmente il significato della parola portale ha assunto diverse estensioni: generalista, verticale,
orizzontale, tematico, commerciale, trasversale, ecc. Ma i "risultati" semantici cercati sovente, anche tra
gli addetti ai lavori, sono scarsi e producono sempre piu' delle vere e proprie speculazioni linguistiche, nel
senso che tutte le varianti tipologiche individuate conducono alla medesima sostanza e
difficilmente l'utente medio riesce a capire e spiegare la differenza reale tra un portale verticale e
trasversale. Forse l'unica grande distinzione, anche se e' un po' stretta, puo' essere fatta tra portale che
contiene piu' aree e categorie (generalista) e portale che concentra il suo lavoro su un unico tema, il
vortale (da vortal, vertical portal)233.
8.2
L'importante e' fidelizzare
Lo sforzo maggiore che ogni portale deve compiere, oltre a mantenere costante il proprio aggiornamento,
e' rappresentato dalla facolta' di attirare a se' gli utenti e far si' che questi continuino a frequentarlo. Tale
compito, definito fidelizzazione, consiste nell'invogliare l'utente, mediante le piu' svariate e pittoresche
forme di "attrazione"234, a dirigersi stabilmente con fedelta' verso quel determinato sito. Nasce
un rapporto "fiduciario" cosi' come accade nel mondo televisivo, quando il telespettatore sceglie il proprio
canale per vedersi il telegiornale o la partita di calcio. Il parallelo con la televisione potrebbe
apparire brutale e sconnesso, soprattutto considerando la diversita' dei due mezzi di comunicazione, ma in
realta' in ambedue i casi il processo di fidelizzazione nei confronti dell'utente e' mirato alla capacita'
dei network (telematici e televisivi) di possedere persistentemente un considerevole bacino di
utenti. Garantire un notevole numero di utenti che passano attraverso un portale per andare verso altre
direzioni, significa in pratica possedere una certa audience235, che permette di ottenere dei succulenti
riscontri economici in termini di pubblicita'. I banner pubblicitari, ospitati sulle pagine web, avranno dei
prezzi assai diversi se i portali che le contengono sono piu' o meno transitati dai naviganti. Il valore

economico di un banner dipende, appunto, dal serbatoio degli ipotetici "passaggi" verso i siti
commerciali, sia in funzione dell'immagine dell'impresa che della vendita online dei prodotti, che un
portale e' in grado di assicurare al committente della pubblicita'.
Si deve inoltre far notare la morbosa attenzione dei portali nell'immagazzinare la maggior quantita' di dati
personali che, come abbiamo evidenziato altre volte, rappresentano un valore economico. La
famosa formula che ha preso piede anche in Italia dell'Free Internet, oltre a "mimetizzare" in questo
slogan i reali costi di connessione telefonica, ha fra le sue caratteristiche quella di richiedere
obbligatoriamente e dettagliatamente i dati personali, comprensivi magari di passioni e hobby dell'utente
aspirante a ricevere il servizio: dati che al di la' delle rassicurazioni legali fornite ritualmente sono poi
utilizzati come merce di scambio nell'enorme mercato mondiale dei data base finalizzati al marketing. A
questa analisi, della vita dei portali, di taglio prettamente commerciale bisogna affiancare, in un'ottica
negativa e maligna, la riflessione etica che paragona i portali a dei luoghi di ramificazione dove gli
utenti vengono in maniera indiretta indirizzati in specifiche home page che operano in rete con fini di
mero business. Questo indirizzamento e' il pedaggio che i naviganti sono costretti a pagare al momento
che essi si avvalgono, spesso casualmente o per semplice routine, dei servizi, tra la vasta gamma, che i
portali mettono a disposizione. Metaforicamente il portale assume il ruolo di uno specchio per le allodole
telematico; un portale che una volta ci offre l'email gratis, poi il servizio sms, poi ancora il premio in
"gettoni d'oro", se non subito ma alla fine ci costringera', anche per sbaglio! a cliccare un link che ci
portera' dove vuole lui. L'orizzonte dei portali non e' pero' cosi' nero e contaminato come lo abbiamo
appena descritto. Esistono delle situazioni, generalmente no-profit, in cui l'accezione portale induce a
pensare secondo i dettami originari di Internet: volontariato e associazionismo236. Sentimenti e modi di
agire che producono benefici agli utenti, che chiedono di essere guidati e che vedono il portale come un
utilissimo e puro strumento di ricerca. Inoltre prevedendo che in futuro le persone collegate ad
Internet diventeranno ancora piu' pratiche e scaltre nella navigazione e useranno agevolmente i potenziati
motori di ricerca, il portale sara' sempre meno adoperato come guida, poiche' gli URL saranno raggiunti
velocemente e senza intermediari.
8.3
Il sito grande mangia quello piccolo
E' veramente molto difficile disegnare il prossimo scenario che concerne le vicende dei portali, ma
osservando con attenzione alcuni fattori ed accadimenti si potrebbe azzardare delle previsioni che
accennano ad una diminuzione di questo tipo di siti web. La legge della giungla che vige nel presente del
WWW ci conferma che solo pochi siti riusciranno a competere nella lotta per la "seduzione" degli utenti,
che oltre a crescere vertiginosamente diventano sempre piu' smaliziati ed esigenti. Il mantenimento di un
portale comporta spese fisse ed investimenti finanziari di grosse dimensioni che i piccoli siti in cerca di
fortuna non riescono a sopportare. L'originalita', consistente nell'inventare nuove categorie di operativita',
nuovi nomi, slogan, loghi, ecc., sebbene e' ancora una carta vincente nelle attivita' di rete, e' sempre piu'
risicata ed i margini di inventiva si restringono237. Molti siti, infatti, hanno preferito abbandonare le
classifiche dei portali generalisti creando delle categorie del tutto "originali" risultando cosi' primi in
assoluto nelle hit; un escamotage concettuale che spesso funziona ma una volta scoperto il trucco riporta
gli speranzosi protagonisti a ricondurre la cruenta battaglia per il primato. Tattiche e tattiche che sono
adottate, tra le quali quella di non praticare link esterni per non offrire ulteriore visibilita' agli altri, ma
in definitiva l'arma vincente e piu' spietata e' costituita dal "far fuori" i piccoli siti, conquistandone utenti,
contenuti, idee, "teste pensanti", programmatori, ecc., a suon di alleanze strategiche, lauti compensi
e scalate di Borsa. Questo millennio nato sotto la "stella" della New Economy, coincide non a caso con i
grandi accordi che sono stati stipulati dalle maggiori realta' telematiche e multimediali238. Il portale piu'
potente risucchia quello piu' debole, facendo piazza pulita, diventando il polo di riferimento principe.
Fusioni, matrimoni, compartecipazioni, effettuati dai portali big con i piccoli: i primi che mirano
soprattutto ad essere contraccambiati con fette di utenza, garantendosi in questo modo le raccolte
pubblicitarie, e con le parti contenutistiche che i secondi possiedono, riuscendo cosi' ad esaudire le
svariate richieste degli utenti, mantenendo autorevolezza e credibilita'.

La situazione attuale, al riguardo, si presenta molto volatile ed incerta, le evoluzioni si susseguono in


tempi brevi. In fondo cio' che a noi preoccupa e' la evidente logica aggressiva e predatrice del piu' forte,
che come e' accaduto, per certi versi, con il mezzo via etere, non passi da un momento in cui tutti possono
partecipare alla libera comunicazione, ad uno status quo dove solamente una manciata di "eletti"
gestiscano l'informazione dettandone oltretutto le regole della sua circolazione.

231 Nel 1995, ad esempio, viene costituito a Firenze DADA (www.dada.it), uno dei primi Internet Service Provider italiani. Questo "grande sito" si occupava
agli inizi di Design, Architettura, Arte, Cinema ed altro sulla cultura. Oggi attraverso Supereva (www.supereva.it) rappresenta uno dei maggiori Portal
Community esistenti in Italia.
232 In ambito architettonico cittadino i portali realizzati da scultori e maestri scalpellini, in pietra con tecniche di lavorazione finissime, abbellivano con
l'eleganza degli ornati le porte di ingresso dei palazzi e chiese piu' importanti della citta'. Prerogativa di qualsiasi portale era la rappresentazione, in bella
evidenza, dello stemma nobiliare o religioso, simbolo di potere.
233 V. VerticalNet (www.verticalnet.com), il portale dei portali verticali.
234 News "fresche di giornata", link accattivanti, concorsi a premi per vincere automobili e viaggi esotici, ecc.
235 Il problema dell'audience in rete e' molto caldo; termini tipo advertising server, impression, audiweb, audinet, click through, ecc. stanno entrando
rapidamente nel linguaggio naturale del web. Vengono sperimentati sistemi e metodi di analisi che riguardano il controllo e la certificazione delle "visite" ai
siti ma al momento non esistono metodologie ufficiali di applicazione. V. www.abcinteractiveaudits.com, www.mediametrix.com, www.audinet.it,
www.doubleclick.net
236 Ci riferiamo in particolare dei siti *.org
237 Basta dare un'occhiata all'interfaccia dei principali portali per capire che le differenze strutturali sono minime.
238 Aole Time Warner, Vodafone-Mannesmann e Vivendi, Seat Pagine gialle e Tin.it, Deutsche telekom e Club Internet, San Paolo-Imi e Tiscali, tutti accordi
avuti luogo tra gennaio e febbraio del 2000.

Chaos
Chaos vs. Business?
Quante sono le pagine web? Un miliardo? Cento miliardi? Chi offre di piu'239?
Il 26 giugno 2000, Google ha annunciato di aver censito oltre un miliardo di pagine web, di cui 560
milioni acquisite per intero e 500 milioni segnalate solo in base al loro indirizzo web ma non ancora
analizzate nel dettaglio. Nel frattempo, Lycos amplia l'archivio dei siti catalogati fino a 340 milioni di
pagine web, decidendo di utilizzare la tecnologia fast. Non passa neanche un mese che un nuovo studio
sulle dimensioni del World Wide Web dichiara che le pagine online superano le piu' fervide previsioni. Il
rapporto di ben 42 cartelle, stilato dalla BrightPlanet240, sostiene che in realta' i documenti online
sarebbero circa 550 miliardi241. Secondo BrightPlanet, Internet sarebbe qualche ordine di grandezza piu'
estesa di quello che si credeva fino ad oggi242!
A cosa e' dovuta questa esplosione della Rete? Sicuramente anche all'incremento dei suoi "abitanti". Si
pensi che in Cina243 nel 1997 gli utenti erano 200.000 e nel 2.003 saranno circa 35 milioni secondo
una valutazione del "BDA" - Istituto indipendente di ricerca cinese. Aumentano a vista d'occhio i
navigatori, aumentano i web-masters, aumentano i sistemisti e le macchine connesse a Internet: come non
prevedere un incremento esponenziale anche delle pagine Web presenti in Rete? La Rete si sta inoltre
differenziando sempre piu' ed i motori di ricerca si dovranno prima o poi scontrare non solo col problema
(irrisolvibile) di catalogare tutta la Rete, ma con il limite ancor piu' ambizioso di prendere in
considerazione non solo il protocollo della Rete che interessa il Web, ma anche tutte quelle sottoreti che
per motivi commerciali - come nel caso del Wap e Publius - o ideologici - come nel caso di Freenet - si
stanno sviluppando ed estendendo indipendentemente dai parametri dettati dal Web. Focalizzando
comunque solo l'ambito della Rete cosi' come e' comunemente conosciuta, esistono studi ritenuti molto
affidabili che assegnano percentuali di copertura incredibilmente basse a pur blasonati motori di ricerca.
Secondo il dossier di S. Lawrence e C. Lee Giles pubblicato su Nature244, i motori di ricerca prendono in
considerazione un'infima parte della Rete: Altavista il 12 per cento, Northernlight il 16 per cento, Lycos il
2,5 per cento! Sempre secondo questo studio, la porzione di Internet che indicizzano e' oltretutto in gran
parte di tipo commerciale. Internet puo' quindi essere vista come una grande torta che i motori di ricerca
si affannano a ritagliare in tante fettine, purtroppo per scarsezza di mezzi sempre piu' piccole e sempre
piu' infarcite di canditi dall'amaro sapore commerciale... Eppure, rimanendo nei confine della metafora, e'
la fetta che non ci tocca quella piu' appetibile: e' nella porzione meno nota, incensita e popolare della
Rete, quella meno linkata, essendo estranea ai meccanismi di marketing della Rete245 che forse, e a volte
sicuramente, si cela l'informazione che non riusciamo a scoprire.
Gli ultimi non saranno mai i primi
Le classifiche dei risultati di motori di ricerca abbondano di vizi. Che l'ordinamento dei risultati - il
ranking - prodotto dalle interrogazioni dei motori di ricerca sia viziato da numerosi fattori di natura
tecnica, ma anche trucchi finanziari e "culturali" e' indubbio. Il ranking, e in particolare il top ranking, e' il
prodotto di una serie di eventi particolarmente complessi, che hanno tuttavia come matrice comune il
fatto di esaltare le differenze di risorse che esistono fra i vari siti. Se proprio non vogliamo parlare di
classi economiche nel turbo (o anarco?) capitalismo della new economy, e' comunque innegabile che non
tutti i siti appaiono alla stessa maniera agli occhi di uno spider dal momento che solo quelli che
dispongono di notevoli investimenti finanziari e non solo, hanno la speranza di arrivare in vetta alle
ambite classifiche. Vediamo uno ad uno quali sono i gap fra i siti che determinano la loro presenza o
meno nella hit. E' necessario che il sito possa investire in risorse per acquisire il know-how sufficiente ad
elaborare un codice html che si presti efficacemente ad essere acquisito e ben indicizzato dal motore di
ricerca. Chi non e' in grado di ottimizzare un codice agli occhi dello spider del motore, difficilmente

potra' sperare di entrare nella pole position dei risultati. I motori di ricerca che hanno anche una struttura
di directory ad albero selezionano i siti in base a criteri di bellezza, ricchezza di contenuti, popolarita' e
perfino, talvolta, in base ad accordi economici246. Chi ad esempio non ha le competenze per realizzare un
bel sito, non ha una redazione247 capace di produrre in continuazione contenuti di alta qualita' oppure non
ha risorse economiche da investire per un buon ranking si trova con le ali tarpate e le ambizioni tradite. Il
ranking di molti motori di ricerca si fonda sul meccanismo di misura della popolarita' del sito - un criterio
che abbiamo gia' definito quantificabile nel numero di link che in Rete puntano a quel sito[Backlink]. Chi
non ha soldi da investire in banners pubblicitari o altri accordi di partnership commerciale finalizzati allo
scambio o alla collocazione strategica di links in Rete, chi non suscita scandalo o interesse clamoroso e
improvviso in Rete senza riuscire a generare un'escalation di links verso se stesso, chi non ha risorse
sufficienti per realizzare un sito da propagandare fra i punti di riferimento in Rete su un tema di
specifico interesse, chi non ha le risorse pubblicitarie per catturare attenzione e attirare links sul proprio
sito o portale, difficilmente potra' nutrire qualche speranza di visibilita' sui motori. Chi invece decide di
investire anche sotto il profilo economico per inserirsi nella hit dei risultati ha nel suo carnet di possibilita'
una strada molto semplice: posizionare appositi banners pubblicitari, quasi trompe d'oeil ben evidenti,
intorno alla mascherina della stringa di ricerca sul motore. In corrispondenza di determinate ricerche e'
possibile infatti far apparire il proprio banner, qualora l'utente che effettua la ricerca abbia selezionato
proprio una delle parole-chiave corrispondenti al prodotto da reclamizzare.
A causa di discriminanti economiche spesso basate su gap culturali ed eventi mediatici, non e' affatto
casuale scalare la prima pagina dei risultati di un motore di ricerca. Viceversa suggeriamo proprio il caso
- o meglio il chaos - come tool o applicazione concettuale per tentare di risolvere i problemi del
reperimento dell'informazione e della catalogazione dei materiali recuperati. Uno strumento casuale in
grado di affrontare la complessita' del caos informazionale, intraprendendo azioni di reperimento ed
indicizzazione che esulino veramente dall'ambito delle misure censorie. Di fronte a una situazione
complessa e non lineare - sia essa una reazione biologica, uno studio cartografico, il doppio vincolo nei
casi di schizofrenia, l'analisi delle dinamiche delle crisi ecologiche, la filosofia cibernetica, la grammatica
di una frase, una struttura fisica dissipativa, e molto altro ancora248 - non e' possibile applicare i
criteri newtoniani e cartesiani della scienza classica. Il paradigma della scienza classica, concepito per un
mondo ordinato, senza attriti, fisso, invariabile, e termodinamico, non e' piu' applicabile ad un universo
che invece e' in perenne oscillazione, ma stabile seppur lontano da uno stato di equilibrio.
L'universo informazionale quale emerge dallo stato magmatico e rizomatico della Rete, e' una struttura
che assomiglia a un "organismo vivente che e' caratterizzato da un flusso e da un cambiamento continui
nel suo metabolismo"249: una struttura dissipativa come un mulinello d'acqua la cui struttura globale si
conserva a dispetto del flusso interrotto dei suoi componenti... Non e' un universo termodinamico che
tende a ridurre al minimo le sue fluttuazioni oscillando in prossimita' del rassicurante stato di equilibrio.
E' al contrario ridondante e fluttuante, dissipativo; un universo le cui proprieta' non si definiscono di per
se', entro i rassicuranti confini di un'ideale piano cartesiano, ma si esplicano solo nell'ambito di un
contesto (come ad esempio l'organizzazione supermolecolare) sistemico. E' un universo interconnesso
descrivibile unicamente attraverso equazioni matematiche non lineari. In altre parole non e' possibile
trattare ricorrendo ai criteri ortodossi i sistemi ad elevata complessita'. Come un cartografo
contemporaneo non puo' risparmiarsi dall'impiegare i frattali, o software basati su matematiche complesse
per disegnare i profili delle frastagliate scogliere irlandesi, cosi' un cybernavigante non puo' esularsi dal
riflettere a situazioni reticolari con gli strumenti del chaos per rapportarsi alla Rete. Quanto le equazioni
lineari non sono adeguate a descrivere le strutture dissipative scoperte da Ilya Prigogine250, tanto i
fenomeni di ridondanza e varieta' del Web non rispondono piu' a criteri universalistici ed enciclopedici di
settecentesca memoria. A Diderot bisogna sostituire la labirintica biblioteca di Borges. Alle previsioni
newtoniane, criteri stocastici. Al paradigma meccanicistico - causale e deterministico - , una nuova
visione del mondo casuale e complessa. All'indicizzazione verticistica e gerarchica dei motori di ricerca,
forse bisogna sostituire (anche solo parzialmente) una ricerca caotica e ridondante, e una relativa
decodificazione degli eventi che percepisca il mutamento di paradigmi nei saperi
contemporanei. L'ipotesi del chaos assume dunque un significato provocatorio ma antiteocratica che
richiama proprio i paradigmi delle scienze d'avanguardia. Gli strumenti concettuali della teoria dei sistemi

dunque puo' offrire uno spunto di riflessione. Nel nostro piccolo, abbiamo individuato un valido aiuto
nella contrapposizione di due principi: i principi del chaos e quelli del business. Che il chaos sia sinonimo
e fonte di vita non puo' essere oggetto diretto di questo approfondimento, ma e' risultato essere un assunto
di importanti ricerche e decisivi studi sia del passato -nella scienza basti pensare al principio
dell'evoluzione di Darwin251 - che del presente. Quasi tutta la matematica d'avanguardia, in particolare
quella applicata allo studio dei fenomeni naturali si basa su principi "caotici"; nell'ultimo decennio
perfino la chimica di sintesi ha abbandonato lo stereotipo della chimica ortodossa (e lineare) per un
modello di chimica "random"252, e cosi' l'arte in molti approcci, stili e movimenti (Dada, Fluxus, e il piu'
moderno Dissipazionismo) ha avuto come riferimento atteggiamenti spontanei e casuali. Atteggiamenti
libertari e antidogmatici, volti nella direzione di un'eclettica e dissenziente interdisciplinarieta'.
Il business si incarna e prospera su cio' che e' generato casualmente dagli esseri viventi: ogni strategia
commerciale o di marketing prende spunto da cio' che piu' di bizzarro e quindi spesso generato per caso e'
prodotto da esperienze artistiche, scientifiche e politiche e, circoscrivendo le problematiche fin qui
trattate, anche i motori di ricerca e soprattutto i portali non sono altro che appropriazioni e
rimaneggiamenti di antiche abitudini e consuetudini di navigatori della prim'ora che costruivano
e distribuivano ai propri amici elenchi di bookmark costruiti con passione e perseveranza in anni di
navigazione libertaria nel cyberspazio. Una volta che il chaos viene raccolto ed adottato dal business e'
strutturato e sfruttato a scopi commerciali generando dei meccanismi che sono ovviamente fruttuosi per
chi li realizza ma diventano poi un peso, una forzatura e un limite per chi li deve utilizzare. I motori di
ricerca e i portali (intendendo chiaramente chi li gestisce) non sono da meno: nascono avvalendosi di una
tecnologia sviluppata in ambiti di ricerca, come Internet, spesso frequentati da soggetti quanto meno
stravaganti - il "padre" di Fidonet e' un anarchico gay - i quali si preoccupano di mantenere la libera
diffusione dei loro "prodotti". Dopodiche' sussungendo alcuni caratteri ed usi di creativi navigatori esperti
"avanguardisti", come nell'esempio citato la composizione della lista dei siti top dedicati ad un argomento
specifico, si lanciano nel business di "fare la rete a fette". E venderne il pezzo apparentemente piu'
succulento al miglior offerente: Godado docet?
Nel momento in cui scatta il profit avviene il giro di vite, dalla generazione spontanea, comunitaria,
caotica e vitale si passa al mortifero irrigidimento di sfruttamento commerciale, simbolo di un omologato,
a senso unico e spregiudicato mondo economico.
Come far fronte a questo stato di cose? Una pratica sperimentale che abbia fondamento nei concetti di
casualita', condotta applicando una sorta di premio casuale, potrebbe tuttavia offrire una via d'uscita al
collo
di
bottiglia
dell'attuale
stato
della
ricerca
in
Rete.
Antidoti all'infinito e ai meccanismi di censura
La prima proposta consiste nello studio di sistemi che permettano una scelta casuale della porzione di rete
da indicizzare; innescare cioe' meccanismi che siano orientati al reperimento di informazione in
Internet partendo da indirizzi casuali ma possibili della Rete stessa. Un'ipotesi potrebbe essere quella di
indicizzare una frazione della Rete partendo da IP numerici oppure nomi simbolici possibili. E' una
proposta dalla forte carica utopistica e dalla improbabile valenza tecnica, qualora abbracciata
fideisticamente. Tuttavia avanziamo l'ipotesi di una sua validita' generale purche' venga presa in
considerazione come strategia da affiancare alle attuali politiche di reperimento dell'informazione in Rete
dei motori di ricerca. Si auspica quindi che per una certa, minima parte, i motori di ricerca prendano in
considerazione la possibilita' di generare indirizzi simbolici possibili della rete come;
www.parola_possibile_in_italiano.it
oppure
www.word_in_english.org.

e assumere l'eventuale sito, trovato per caso, con i suoi relativi link come informazione facente parte delle
loro basi di conoscenza. Lo stesso potrebbe verificarsi ipotizzando indirizzi numerici IP della Rete fra
quelli potenzialmente destinati ad ospitare server web. Una volta "azzeccato" un indirizzo IP numerico o
indirizzo simbolico alfabetico, il motore di ricerca si troverebbe quindi nell'invidiabile posizione
di esplorare e indicizzare un pezzo di Rete che altrimenti non sarebbe mai stata trovata perche' poco
conosciuta e quindi affatto linkata, oppure perche' nessuno si e' mai preoccupato di segnalarla ai motori
stessi. Una pratica quindi di ipotesi casuale del materiale informativo da reperire in Rete che non
risolverebbe sicuramente il problema di indicizzare "tutta" la Rete, ma che toglierebbe di mezzo qualsiasi
dubbio su quali criteri, realmente "democratici", utilizzare per tentare di indicizzarne la maggior quantita'
possibile senza escludere e penalizzare nessuna forma di rappresentanza della Rete stessa. E soprattutto
una pratica casuale come l'unica pragmatica attuabile di fronte a un sistema altamente complesso
e caotico.
Le ragioni del chaos contro quelle del business
Se la proposta avanzata nel precedente approfondimento si rivela problematica nella sua realizzazione
tecnica e presumibilmente poco produttiva nella sua elaborazione operativa, risulta invece essere
semplice la progettazione dell'interfaccia che andiamo ad ipotizzare: un'interfaccia che risolverebbe il
problema di quale criterio impiegare nella presentazione dei risultati di ricerca. "Quale criterio / nessun
criterio" appare ai nostri occhi di nuovo la soluzione eticamente piu' intrigante, sebbene ancora non
necessariamente la piu' efficace. Se, infatti, un ranking viziato dalla popolarita' e dal livello di fattura di
un sito - oltre che dalle sue possibilita' economiche di concordare accordi in merito - (sopra)espone allo
sguardo di un cacciatore di informazioni una serie di messaggi pubblicitari, e' pur vero che funzionera'
anche nel fornirgli indirizzi che, proprio perche' famosi e ben fatti, potrebbero contenere l'informazione
che sta cercando, e soprattutto che un'informazione che rispecchi parametri di una certa qualita'.
Al contrario un ranking che non prenda in considerazione nessun criterio di ordinamento gerarchico, ma
scardinera' proprio il concetto di gerarchia verticale, fornira' risultati di ricerca fra i quali si potra'
scorgere, e perche' no fin dalle prime posizioni, il sito amatoriale accanto a quello professionale, quello
sconosciuto ancor prima di quello iperpropagandato, quello graficamente improbabile ma accessibile che
precede quello esteticamente impeccabile. Come realizzare un progetto di ranking caotico potrebbe
essere relativamente semplice potendo disporre di un metamotore di ricerca che:
1) rigira l'interrogazione fatta a una selezione di motori di ricerca253;
2) ottimizza i risultati trovati escludendo le copie e quelli che puntano ad uno stesso indirizzo
3) rimescola l'ordine dei risultati proposti dai motori e li riordina casualmente
Un'interfaccia quindi neppure eccessivamente sofisticata254 che consentirebbe di avere una classifica di
risultati che, proprio perche' libera da condizionamenti, potrebbe regalare diverse s/gradite
sorprese. Un'interfaccia che, dissipando irreversibilmente energie a livello macroscopico, creerebbe
invece nel microcosmo del Web isole di autonomia in un oceano caotico: ricchezza - varieta' - bellezza
dell'incertezza emergono cosi' dalla trama caotica di imprevedibili fenomeni spontanei e instabili. Se in
un universo deterministico non esistono ne' storia ne' reativita', in un mondo generato dal caso "la storia
contribuirebbe a giocare le sue carte, il futuro sarebbe incerto e l'imprevedibilita'
svilupperebbe creativita'"255.
238 Aole Time Warner, Vodafone-Mannesmann e Vivendi, Seat Pagine gialle e Tin.it, Deutsche telekom e Club Internet, San Paolo-Imi e Tiscali, tutti accordi
avuti luogo tra gennaio e febbraio del 2000.
239 Vedremo piu' avanti come il meccanismo del mettere all'asta i bisogni di ricerca dell'informazione non e' affatto una provocazione ma un metodo di lavoro
di alcuni motori di ricerca.

240 http://www.brightplanet.com/
241 Sono numerosi gli studi in Rete sull'enorme crescita del numero di pagine presenti sul web. Alcuni esempi: oltre al rapporto di BrightPlanet
~ http://www.completeplanet.com/Tutorials/DeepWeb/index.asp;

Web

Bigger

Than We

Think

Yahoo!

News http://dailynews.yahoo.com/h/ap/20000727/tc/deep_web_3.html; Study finds Web bigger than we think (CNET) ~ http://news.cnet.com/news/0-1005200-2356979.html?tag=st.ne.1002.thed.ni; The

Register

~ http://www.nandotimes.com/technology/story/0,1643,500232662-500338191-501933993-

0,00.html
242 Brightpanel con il suo nuovo motore denominato LexiBot offre la possibilita' di effettuare una ricerca su "tutta" la Rete censita a patto che si sia disposti a
sborsare 90 dollari ed aspettare fino a 90 minuti per una risposta.
243 Esempio significativo se si pensa che lo sviluppo di Internet e' tormentato in questa regione cosi' come in tutti quegli ambiti dove un apparato politico
verticistico e' incompatibile con la presenza di un sistema di comunicazione tendente alla decentralizzazione dell'informazione e quindi, di fatto, anche del
potere.
244 Vol.400, 8 luglio 1999, www.nature.com
245 Quella ovvero che e' al di fuori della logica del "cliccka e ti pago", lontana dalle logiche di partnership commerciale e di scambio dei
banners pubblicitari.
246 Godado (http://www.godado.it) mette all'asta le posizioni nelle pagine dei risultati. Chi offre di piu' compare per primo. La messa all'asta
del posizionamento all'interno dell'elenco dei risultati e' quantificabile mediamente in 150 lire per keyword per ogni visita di navigatore che viene sul sito
dell'offerente provenenedo da godado, una specie di partenership evoluto sulle regole dei motori di ricerca. La scelta delle parole chiavi e la serieta'/pertinenza
dei siti alle stesse viene controllata da Godado stesso. Godado dimostra di aver capito anche un altro meccanismo (simmetricamente opposto ma ugualmente
funzionale) ovvero dell'importanza di essere linkati pagando viceversa circa 40 lire per ogni mascherina di ricerca di godado inserita in una pagina web.
247 La "caccia alle teste", ovvero a produttori di contenuti e' uno degli aspetti piu' eclatanti della new economy: i beni immateriali, saperi - know how - brain
workers, non sono mai stati in modo cosi' esplicito ricercati.
248 Dalla linguistica ai frattali, dal movimento antipsichiatrico alla Combinatorial Chemistry, il sapere scientifico ha radicalmente mutato i suoi paradigmi nel
quadro di una concezione sistemica elaborata da Maturana e Varela, ispirata all'epistemologia della "scuola di Palo Alto" e al dissipazionismo dei sistemi
instabili scoperto da I. Prigogine.
249 F. Capra, ibid., p. 202. L'opera del fisico teorico consiste in una divulgazione "per tutti" dei concetti piu' ostici della teoria del caos.
250 Un caso di laboratorio esemplificativo di questi meccanismi di caos spazio-temporale e' lo studio delle molecole di clorato di sodio: la rottura di simmetria
in questo celebre esperimento e' "una manifestazione spettacolare di dissimetria introdotta dalla freccia del tempo" (I. Prigogine in Le leggi del caos, p. 20).
251 Reinterpretato nelle teorie sistemiche in La rete della vita di F. Capra.
252 l'attuale chimica combinatoria, in inglese CombiChem, si fonda proprio su sintesi casuali, non lineari e simultanee, vedi Castigli Mirella, L'altrove della
chimica di sintesi, in "Altrove", n. 6, 1999.
253 Un elenco scelto fra quelli che presumibilmente coprono la maggior parete della Rete.
254 Il mondo della programmazione Free e' ormai ricco di prodotti software che coprono ogni esigenza immaginabile, esiste in ambiente gnome-linux anche il
metamotore reperibile su http://gwsearch.netpedia.net/ e si presume che possa essere quindi di relativamente facile realizzazione anche un'interfaccia del
genere.
255 I. Prigogine e I. Stengers in "La nuova alleanza. Metamorfosi della scienza" (1979, Einaudi). Secondo il fisico matematico inglese Roger Penrose (in "La
nuova mente dell'imperatore", 1989, Rizzoli, p.22) nella fisica classica l'universo vi appariva come un immenso automa, sottomesso a leggi deterministiche e
reversibili in cui non era affatto facile riconoscere una delle proprieta' fondamentali del pensiero: la creativita'. Secondo lo studioso, solo introducendo
instabilita' e caos, e' possibile rompere la teocrazia dogmatica del determinismo e ridare dignita' scientifica alla dimensione creativa. Per non prestare cieca
"fedelta' a una razionalita' che lo lascia solo in un mondo muto e stupido" (I. P., ibid., p. 30)

Prova
Prova su campo
Come prova su campo, abbiamo scelto di provare sul campo una selezione di motori, mailing-list e indici
(sia italiani che internazionali) testandoli con una query molto precisa: la richiesta di una vecchia versione
di software per trasmettere e ricevere fax sotto windows. Prima di accompagnare il lettore di questa
appendice in questo itinerario sperimentale di ricerca pratica dell'informazione, anticipiamo le principali
conclusioni derivanti da questo test.
1.
Le mailing-list - comunita' di intelligenza umana presenti in Rete - si confermano forse come la
migliore risorsa per il reperimento dell'informazione in Internet.
2.
Per poter ottenere dei risultati utili dai motori di ricerca tradizionali e' necessario conoscere le
modalita' di interrogazione avanzata degli stessi e attuare uno sforzo cognitivo e linguistico notevole per
immaginare la stringa di query presumibilmente piu' efficace per la ricerca in questione.
3.
I motori di ricerca tradizionali si stanno trovando in difficolta' di fronte alle sempre piu' numerose
pagine dinamiche presenti in Rete che essendo generate dinamicamente su richieste specifiche sfuggono
alla indicizzazione automatica dei motori e all'opera di ricognizione degli spider in Rete. E' un problema
che puo' essere risolto facilmente da chi progetta siti dinamici realizzando anche una breve presentazione
statica che riassuma i contenuti e le parole-chiave piu' significative della versione dinamica.
4.
Il lavoro redazionale, sebbene selettivo e quindi censorio, risulta comunque in alcuni casi utile per
poter reperire l'informazione dai portali in tempi ragionevoli.
5.
Rimane l'enorme problema di valutare se l'informazione trovata sia utile e affidabile. Nel caso di
un software (come in questo caso) bisognera' anche sapere se il prodotto trovato e' affidabile oppure
viceversa e' cosi' mal disegnato che mandera' in crash una volta installato una serie di altri programmi o
funzionalita' del PC che lo ospita o addirittura se attivera' un virus maligno incluso al suo interno. Ipotesi
sicuramente ingigantite e fuori misura. Nell'esempio qui riportato la persona ha invece beneficiato di
questa ricerca acquisendo un nuovo e utile software che non sapeva altrimenti come procurarsi. Ma sono
ipotesi che aiutano a consigliare di testare l'informazione trovata (sia essa un testo o un codice binario)
con l'arma del buon senso per prendere per oro colato una risposta a una query. Anche sotto questo
profilo la risorsa della mailing-list appare forse la piu' utile in quanto il risultato trovato viene sottoposto
all'esame della comunita' in mezzo alla quale si puo' sempre trovare qualcuno che lo sconfessi a ragion
veduta.
Il primo passo di questo test e' consistito nello spedire la seguente mail alla mailing-list cyber-rights [
http://www.ecn.org/lists/cyber-rights ]: "ciao all ! un amico, una persona disabile che mi da'
occasionalmente mano sul portale dell'accessibilita' http://www.ecn.org/xs2webgiusto ieri aggiornato mi
ha chiesto dove poter trovare una versione di winfax per la vecchia versione di windows 3.1 e/o 3.11 ora
mi metto a cercarlo in Rete ma c'e' qualche anima gentile che mi darebbe la dritta giusta ?
magari esiste qualche archivio specializzato in risorse software per hardware povero... magari... alla
prossima !"
Appena spedita la mail ci spostiamo su Altavista cercando prima nella versione di interrogazione standard
la stringa "winfax 3.1 e 3.11". Non ottenendo al primo tentativo risultati utili proviamo la
possibilita' offerta da Altavista delle related searches ma anche la lista offerta da "winfax download"
appare troppo ricca di risultati, leggermente piu' efficace quella di "free winfax download". Decidiamo
comunque di utilizzare le proprieta' avanzate.

Proviamo anche la funzione di ricerca fra i risultati ottenuti con "free winfax download" aggiungendoci
old e sperimentando anche le chiavi "win or windows 3.x". Individuiamo un'altra buona chiave ovvero
"WinFax PRO 4.0" che ci sembra essere l'ultima versione per win 3.x... Troviamo alcune pagine con
contenuti non corrispondenti con l'indice: segno che vengono indicizzate di rado... Forse abbiamo trovato
quello che cercavamo ma dobbiamo settare il browser in maniera ottimale per poter vedere la pagina
correttamente... niente da fare... Cambiamo strategia e ci accorgiamo di aver formulato male anche
la richiesta nella lista, in effetti il nostro amico ci chiedeva winfax perche' lo conosce e ha una macchina
win 3.x da poter usare ma potrebbe essergli utile anche un prodotto diverso! Facciamo altri tentativi fra
cui anche introdurre la stringa "symantec + fax +win* +3.x +download +free" ma non troviamo niente
nella mezzora che avevamo deciso di investire su altavista per la ricerca.
Ci spostiamo su una directory specializzata sull'argomento software come www.tucows.com e... troviamo
subito quello che ci serve. Dalla lista dopo poche ore cominciano ad arrivare messaggi di aiuto di risposta
con indicazioni utili e precise
From: sgnurf@hotmail.com
To: ferry.byte@ecn.org
Subject: [cyber~rights] chi domanda trova ? ;-)
Se ti interessa ti posso uppare QuickLinkII per Windows311 & Dos che mi funzionava bene e occupa
1,2Mb.. Fammi saper Non so se l'hai gia' trovato, anyway segnalo i seguenti archivi per Win3.x:
http://classic.tucows.com/win3xsoft.html
http://www.winsite.com/win3/
http://www.zdnet.com/swlib/hotfiles/w31uti.html
http://ftp.vse.cz/simtel.net/win3/index-win3.html
(non garantisco che tutti i link siano esatti, ogni mese 'sti stronzi riorganizzano i siti...)
Utilizziamo anche Northern Light considerato da molti il motore di ricerca che ndicizza la porzione piu'
grande della Rete e vediamo cosa troviamo. Cerchiamo una chiave semplice "fax": northerlight offre i
risultati ottenuti anche dividendoli fra directories di tematiche specifiche. Ci avventuriamo su "computer
software industry" e "all others"
Proviamo anche la power research e aggiungiamo chiavi alla ricerca "+fax +download +3.x +win
+windows free"
In effetti muovendosi tra directories consigliate e con la stringa di chiavi frutto del lavoro precedente fatto
su altavista, individuiamo velocemente diversi siti con il software che ricercavamo. Testiamo infine anche
un blasonato motore di ricerca italiano di tipo tradizionale: arianna.it Scegliamo la nuova sezione
internazionale perche' a naso ci sembra quella piu' adatta e digitiamo semplicemente fax. Casca subito
l'occhio sulla directory offertami intitolata "software" e su quella "programs". In effetti questo sistema,
molto simile a northernlight, di suggerimento di directories di links su argomenti piu' specifici funziona, e
ben presto troviamo un elenco di siti utili. Ovviamente non possiamo fare a meno di testare anche la
directory di rilevanza internazionale per eccellenza www.yahoo.com Digitiamo fax e di nuovo viene in
aiuto un elenco di directories... all'interno delle quali pero' si trovano elenchi di urls poco utili alla nostra
ricerca. Troviamo si' la versione recente da comprare di winfax ma niente di "antico" e commercialmente
non spedibile... Azzardiamo: "free fax software download" e qualche altra sintassi di chiavi ma non
siamo fortunati e non troviamo niente per mezzora. Proviamo a consultare yahoonella sua forma classica

di directories ad albero ma anche in questo caso la fortuna non ci assiste e non scopriamo niente di utile in
tempi ragionevoli.
Concludiamo la sperimentazione con l'italianissimo indice Virgilio il quale ha fatto la scelta di mantenere
poche directories e pochi urls all'interno del suo database, la maggior parte indirizzi a loro volta portali
di materie specifiche che riescono velocemente a soddisfare i bisogni della nostra ricerca.