Sei sulla pagina 1di 9

CAPITOLO 1

STORIA DELL’INTERAZIONE TRA TECNOLOGIA E SAPERE UMANISTICO

1. Nascita del calcolatore: da Turing al pc

Il computer o calcolatore è la macchina elettronica general-purpose a programma memorizzato. È


presente una prospettiva umanistica che ha influenzato la nascita e lo sviluppo dell'informatica della
scienza, risalente alla fine della seconda guerra mondiale, in cui la macchina era considerata come
un mezzo che avrebbe potuto risolvere non soltanto le equazioni ma fornire anche un risultato
semplice ed univoco ad ogni problema di rappresentazione. Dunque l'informatica, nacque durante la
seconda guerra mondiale per la necessità di eseguire grandi quantità di dati e di occuparsi della
costruzione di strumenti adeguati. I calcolatori vennero progettati secondo il modello logico-
teorico di Alan Turing. C'era però un limite: l'incapacità di portare a termine le procedure di una
categoria di problemi, es: la decisione. La macchina di Turing comunque, era semplice: costituita da
un nastro bidimensionale diviso in quadrati e una tavola di istruzioni che rappresentava la procedura
da eseguire. Macchina (secondo Turing) come “indagine sulle possibilità teoriche e i limiti di
macchine calcolatrici digitali”. L'esecuzione del calcolo comunque, era una semplice manipolazione
di simboli, non c'è alcuna differenza qualitativa tra cifre e formule. Turing inventò poi, il concetto
di “macchina universale”, simile alle altre macchine di Turing, in cui il calcolatore era in grado di
sostituire qualsiasi macchina se ne conosceva il programma. Turing cercò quindi di trovare un
sistema che permettesse a tutti gli studiosi di calcolare il risultato, ad esempio di una preposizione,
attraverso l'uso di un linguaggio adatto a rappresentarla, e un calcolo che permetteva la risoluzione
di qualsiasi problema. Inizio novecento così, Vannevar Bush progettò e costruì l'analizzatore
differenziale, basato su un modello analogico, e con l'esigenza di decodificare i messaggi in
codice (dell'esercito tedesco). Ciò venne ripreso da numerosi studiosi, matematici, e soprattutto da
Turing, che realizzò la prima macchina elettronica: il Colossus: un'impresa complessa, collettiva e
interdisciplinare, a cui però egli cercò di aggiungere altre componenti, come la disciplina stessa.

2. Dall'analogico al digitale: 

Le macchine si ispiravano a quella di Turing, soprattutto perché forniva sempre più risultati precisi
e ripetibili. Vennevar Bush, però aggiunse dei vincoli su come le macchine dovevano essere
costruite. Trattabilità, Questo perché un problema per essere risolto doveva essere intrattabile
(numero di passi per risolverlo>capacità fisiche della macchina). I problemi intrattabili vengono
chiamati “NP-completi”, sono molto comuni, ma non è chiaro se possano essere risolti con
algoritmi polinomiali (=trattabili). Questo fa capire che il calcolatore non riesce a risolvere tutti
questi problemi e allora la domanda che ci si è posta è stata: Perché il computer ha avuto tutto
questo successo? -Perché comunque è nato per maneggiare solo simboli e preservare le verità delle
premesse per arrivare poi alle conclusioni. E soprattutto per ridurre le operazioni ad operazioni più
elementari, e creare così una lista precisa di istruzioni che l'agente del calcolo esegue. Dall'altra
parte invece, il modello analogico di VB presentava molti più problemi per l'interpretazione dei
risultati, e per la ripetibilità delle esecuzioni. Da ciò deduciamo che al centro dello sviluppo
dell'informatica vi è il rapporto tra la logica e il linguaggio.

3. Il sogno di Bush:
VB come abbiamo detto è stato molto importante per la costruzione dell'analizzatore differenziale
(1936). Nel 1939 divenne uno dei consiglieri più fidati di Roosvelt. Nel 1940 fu sostenitore dello
sforzo bellico dal punto di vista scientifico, e si trovò al centro della più grande rete scientifica mai
costruita. Fondò il Nfs (National Science Foundation), il quale finanzia e guida la ricerca scientifica
negli USA. La risoluzione comunque a tutti i problemi secondo Bush arrivava con la costruzione di
una macchina: Memex: - supportava lo sforzo umano a gestire le informazioni in modo dinamico
ed efficiente. -comprendeva delle informazioni che non sarebbero più state prodotte sotto forma di
testo. -necessità inoltre, di aggiornare continuamente i dati, conservarli adeguatamente e renderli
accessibili. -utilizzava tecniche alternative. Secondo Bush, il Memex, utilizzando dispositivi
analogici, poteva aumentare il potere naturale del cervello umano di costruire associazioni utili ed
efficaci, in quanto poteva creare piste associative secondo la selezione desiderata dall'utente ed
immagazzinarle nella sua memoria. Era comunque una macchina da tavolo, destinata non solo agli
scienziati ma anche a lavoratori e professionisti. -A lui si rifece soprattutto Engelbart, il quale
sviluppò le cosiddette interfacce ad icone, e l'invenzione di periferiche come il mouse.

4. Nobert Wiener: 

Grazie al quale, attraverso i suoi seminari, nacque la cibernetica= scienza del controllo e della
comunicazione nell'animale e nella macchina. C'era una preoccupazione però: come tecnologie
avrebbe potuto sia il funzionamento della mente e del comportamento umano, che comprendere
quali sarebbero state le conseguenze di tali applicazioni sulla società. Winier avviò questa
disciplina, soprattutto perché egli sentì la necessità di una riflessione teorica ed etica che andasse
oltre alla tecnologia. Secondo Winier lacomunicazione e il controllo, erano due nozioni
interconnesse. Il controllo era un caso speciale della comunicazione. La comunicazione invece, era
un'attività d'interazione con altre persone nel tentativo di ottenere un feedback. Feedback=tema
centrale della cibernetica, visto come meccanismo della reazione e del riequilibrio degli agenti
rispetto ai messaggi dell'esterno). Lo scopo della cibernetica: studiare i linguaggi e le tecniche che
ci permettono di risolvere il problema del controllo e della comunicazione in generale. Al centro
delle ricerche soprattutto i linguaggi che rendevano possibile l'interazione tra macchine ed essere
umani.

5. Etica politica e informatica secondo Wiener

Altro tema importante per Wiener: La perdita dell'innocenza degli scienziati; secondo il quale è
avvenuta in seguito al lancio della bomba atomica. Questo perché secondo Wiener una volta
compiuta la “seconda rivoluzione industriale”(le promesse cibernetica avverate) ci sarebbero stati
diversi rischi: 1) Una forte disoccupazione intellettuale, provata dal fatto che le macchine avrebbero
sostituito la mente di molti lavoratori. Conseguenza= L'essere umano con una mediocre
preparazione non ha nulla da vendere che valga veramente la pena. 2) Ci sarebbe stata l'analisi di
processi evolutivi della scienza, che Wiener non voleva, in quanto le scoperte secondo lui non
dovevano essere segrete perché sarebbe significato rallentarle. 3) Si sarebbero costruiti meccanismi
antidemocratici, supportati dal cattivo uso di macchine per il controllo che favoriscono
l'accentramento del potere. Altro metodo per opporsi alle conseguenze dell'entrata in funzione delle
macchine per il controllo della società è la resistenza, ossia, fornire la massima informazione in
ambito scientifico e nell'innovazione tecnologica al fine di aumentare la consapevolezza.
L'intenzione era quella di porre da una parte gli ostacoli che brevetti e copyright opponevano allo
sviluppo della conoscenza e dall'altra come la conoscenza stessa si possa rigenerare attraverso la sua
libera e aperta trasmissione.

6. Licklider e “l'uomo-macchina”
Venne influenzato da Wiener, e fu il primo durante i suoi studi ad entrare in contatto con
i minicomputer (Pdp1) che consentiva un'interazione diretta con i suoi operatori. Svolse un ruolo
importante anche nello sviluppo dell'informatica, base dei finanziamenti per lo sviluppo
dell'interfaccia uomo-macchina ma che ha portato soprattutto alla costruzione dell'Arpanet, una
rete che collegava università e centri di ricerca, trasformato poi in Internet. Questo progetto si
realizzò definitivamente nel 1969, sotto la guida di un suo collega Taylor. I compiti comunque di
Licklider erano: occuparsi dei problemi di command and control e di scienze di comportamento,
interpretati come la necessità di realizzazione della simbiosi uomo-macchina. Una macchina
destinata non solo agli scienziati per risparmiare tempo ma anche per condividere la parte dedicata
al pensiero formulativo e creativo. Il suo scopo=portare le macchine calcolatrici dentro i processi di
pensiero nel tempo reale(quel tempo che scorre troppo velocemente per permette di usare i
computer in modi convenzionali). Importante perciò sarà la simbiosi: umanizzazione del computer;
in cui si fondano diversi compiti di calcolo e gestione dei dati con quelli di immagazzinamento e
ricerca delle informazioni. Una volta costruito poi, questo legame ed aver integrato la componente
della comunicazione a tutti i livelli siamo difronte ad una macchina nuovarispetto a quella di Von
Neumann del 1945. In comune: processore, memoria ed insieme di istruzioni di programmazione.
Diverso: nuovi meccanismi per la gestione collettiva del tempo macchina, e dispositivi input o
output. Importante sarà inoltre il ruolo dell'utente nell'elaborazione dei processi meccanici(Novità,
es: Macchina di Turing operatore=tavola di istruzioni). In conclusione secondo il modello
cibernetico, la macchina era partecipe e complice delle sua attività, e subentrava l'operatore umano
nelle componenti automatiche del compito= egli integra la componente analogica e per renderlo
possibile si sono costruiti, appunto, dei sistemi di input ed output, i quali facilitano la
comunicazione con la macchina.

7. ”Information processing” e biblioteche 

Diciamo così che Licklider creò dei gruppi che operavano con un diverso modo di gestire i dati, di
costruire le informazioni e creare conoscenza. Secondo lui il computer riguardava tutti i processi
creativi intellettuali e sostenne la tesi, secondo la quale l'information processing sarebbe diventato
il campo di una scienza importante, poiché contribuiranno comunicazione, matematica, e logica,
forse psicologia e filosofia); tutte discipline che se avrebbero avuto a che fare con processi creativi
di conseguenza avrebbero riguardato l'informatica.

-Ritornando alla simbiosi; L'ostacolo principale: Differenza di velocità tra uomo e


macchina. Soluzione: favorire lo sviluppo deltime-sharing, una tecnologia utilizzata da diverse
consolle a distanza che fanno uso dello stesso tempo macchina, e secondo Lick i luoghi in cui
poteva avvenire meglio questo processo gli diede il nome di biblioteche. In esse: la digitalizzazione
era uno strumento nuovo ed essenziale per la consultazione di materiali, ed inoltre la disponibilità
delle macchine avrebbe permesso a tutti di raggiungere i contenuti digitali. Il TIME-SHARING
però porto effetti sia positivi che negativi: -Dal punto di vista sociale: l'uso collettivo di un'unica
macchina costruì una sorta di spirito di gruppo e di collaborazione tra i programmatori ponendo le
basi per la cultura della condivisione e del rispetto del lavoro, che portò così allo sviluppo
di Internet.=progetto collettivo con lo scopo di distribuire informazioni come bene imprescindibili
delle nuove teconologie. -Dal punto di vista della struttura tecnologica: Tutt'oggi internet dispone
del time-sharing, si basa sul modello client-server (disponibilità limitata di processori e memoria)
che confina il lavoro più pesante sul server mentre i clients (computer connessi) usufruiscono del
risultato. --Altro ostacolo: Linguaggio: Diverso tra macchine ed esseri umani, poiché basato su
principi disomogenei. Perciò per far sì che si attuasse la simbiosi bisogna usare principi di
comunicazione, e controllare quelli che erano in uno all'epoca. Lick cercava allora di costruire dei
percorsi “real-time”, per favorire l'interazione con la macchina. Il linguaggio della macchina
comunque è sempre sottoposto ad una ricerca linguistica e la soluzione più adatta sarebbe quella di
avviare una continua comunicazione tra esseri umani e macchine, e l'uomo non deve adeguarsi al
sistema. --Altro ostacolo: Dispositivi input e output: Innanzitutto non erano adatti per svolgere il
ruolo di calcolatore come strumento di comunicazione. Dispositivi di input venivano usati per
un'interazione veloce e immediata. Nacquero dei displays che erano in grado di controllare l'attività
della macchina e mostravano i risultati. Lick riprese questi displays e li adattò a muro per facilitare
appunto la simbiosi, specialmente nei lavori di gruppo.

8. Rete intergalattica: 

Importante sempre Licklider, il quale nel 1963 pubblicò una lettera, in cui faceva soprattutto il
punto della situazione dei progetti e delle loro intersezioni, e tentava di individuare l'obiettivo di
essi. Innanzitutto affermò: L'obiettivo finale era costituito da quelle barriere di comunicazione
create nel sistema cooperativo e interattivo dai membri che ne facevano parte. E che i progetti
consistevano nella costituzione di una rete di computer interconnessi e intercomunicanti, i quali
avrebbero permesso ai diversi operatori delle macchine di usare programmi di tutte le altre
macchine, conservare i dati e utilizzarli anche se provenienti da altre parti del sistema. Una rete così
intergalattica, in cui la rete gestisce autonomamente il traffico dei dati e la loro archiviazione.
Scopo: Cercare comunque, di mettere al centro l'utente, in modo tale da procedere dal suo punto di
vista, per vedere cosa preferirebbe in modo tale da soddisfare questi requisiti. Nasce così l'user-
centred design, (centralità dell'utente) come supporto delle attività umane. Da qui possiamo notare
che il computer non è più limitato al rapporto con il singolo utente ma viene percepito come un
sistema complesso di comunicazione. Nel 1964 però, Lick lasciò l'Ipto, e il progresso venne guidato
da Taylor, uno dei miglior manager tecnologici. Mise in moto il progetto Arpanet, di cui abbiamo
parlato, e nel 1996 divenne diretto dell'Ipto. Seguì l'idea di Lick e immaginò di connettere i diversi
laboratori tra loro, attraverso una rete che parlasse una lingua comune a tutti. E secondo Taylor la
comunicazione tramite macchine avrebbe surclassato quella faccia a faccia.

9. Computer come strumento di comunicazione:

L'idea di Taylor e Licklider perciò era la progettazione di un dispositivo utile all'interazione e non
solo al trasferimento di informazioni. Taylor riformulò inoltre il rapporto tra esseri umani e
macchine. Bush e Wiener avevano introdotto l'idea della comunicazione non come un semplice
scorrere di dati codificati ma anche come la funzione di risposta a quel flusso di dati che prendeva
la forma del feedback (meccanismo interattivo e interconnesso che comprendeva una relazione tra i
due soggetti dello scambio. Licklieder e Taylor invece: “Comunicare è più che inviare e ricevere”,
in cui l'interesse principale era l'aspetto più creativo della comunicazione umana, che le macchine
potevano supportare ed “aumentare”. Per far sì che questo avveniva, bisognava disporre di un
mezzo plastico, modellato in base alle circostanze, dinamico, sul quale sperimentare. (un mezzo
simile perciò al calcolatore). Gli utenti che ne facevano parte erano coloro che erano coinvolti in
un'attività creativa (umanisti digitali). Da ciò possiamo dedurre che L e T anticiparono la realtà
online. Era presente però un rischio: digital dive, in cui si domandarono se essere online sarebbe
stato un privilegio o un diritto, e a ciò legarono il fatto che la rete poteva essere sia un vantaggio che
un rischio per la società.

10. ARPANET:

1) Realizzata da Taylor. 2) Presentava delle innovazioni riguardanti il funzionamento: esempio, -il


packet-switching, che instradava i pacchetti dell'informazione uno alla volta perché seguissero un
proprio percorso autonomo. -decisione dell'architettura di rete, macchine dedite alla comunicazione
e alla gestione dei pacchetti in transito. Lo scopo comunque era quello di distribuire il controllo su
tutti i nodi, cosicché nessuno avrebbe potuto organizzare la rete a proprio piacimento. -La comunità
intergalattica comunque si riuniva per migliorare gli strumenti comuni. Importante: Engelbart, un
progettista della rete e di strumenti per la costruzione dei personal computer, e studiò un'interfaccia
più amichevole con il computer. Il prototipo per eccellenza lo costruì però Taylor nel 1973. Il
processo comunque, di centrare l'interfaccia in base alle esigenze dell'utente ha avuto il potere di
trasformare la macchina rispetto al modello di Von Neuman. Prima perciò dell'umanista digitale è
stato necessario costruire una macchina umanistica.

11. Il www:

venne presentato da Tim Berners-Lee nel 1955=world wide web, che mirava a facilitare il
passaggio delle informazioni tra i ricercatori. Perciò si trattava di razionalizzare le risorse e
organizzare le informazioni per renderle facilmente accessibili. Secondo Lee comunque: il web era
una cosa facile in quanto tutto era già lì pronto per essere usato (Internet, i protocolli, e presiedeva
soprattutto alla trasmissione del trasferimento dei dati. Importante: il concetto di ipertestualità, in
cui si Internet si associavano i server ad un numero unico che li identificasse. L'ipertestualità
comunque fu un concetto inventato da Ted Nelson, il quale si rese conto che, ad esempio, per
scrivere un saggio era necessario un sistema autore ipertestuale, che permetteva di connettere
attraverso dei link i diversi materiali. Nel 1960 inventò il progetto Xanadu (primo sistema autore
ipertestuale). -Dettagli storia del web: -Idea di un sistema autore, un progetto partecipativo e
universale, un ruolo centrale da parte della comunità. E il suo obiettivo principale: definire un
meccanismo di natura editoria che privilegiasse i contenuti e li rendesse facilmente accessibili
attraverso percorsi associativi. Sono tre comunque gli elementi che contraddistinguono il web: Uri,
http e Html, ossia identificatori universali, il protocollo di riferimento (che permette il dialogo) e il
linguaggio. Il web era uno spazio nel quale l'informazione nasce, viene prodotta e connessa. Inoltre
nel 1993 Cern cercò di andare oltre Lee, e mise che i programmi e protocolli potevano essere
scaricati gratuitamente, cosicché permettevano alle macchine di comprendere e connettere i
documenti ipertestuali. Per ottenere ciò comunque c'era bisogno del browser, ossia visualizzatore
di pagine ipertestuali indipendenti dalla piattaforma. Qui allora c'era da ricercare un browser adatto
e facile da scaricare e disponibile su tutte le piattaforme: il Mosaic, sviluppato da Andreessen e
Bina. Mancava allora solo il governo. La situazione cambiò nel 1994 quando Lee decise di fondare
il Worl Wide Web Consortium (istituzione internazionale di governo del web) con lo scopo di
sviluppare protocolli e linee guida che assicurano la crescita del web e stabiliscono regole per la
convivenza civile. Obiettivo: generare standard che garantivano l'omogeneità del web. La www
foundation ha il fine di studiare le condizioni di diversità dalle quali sia possibile accedere al web
(es: differenze culturali, tecnologiche e linguistiche.)

12. Web 2.0:

È un'etichetta data da O'Reilly per ragioni di marketing, poiché cercò di rianimare il settore colpito
dal crollo delle dot com che stentava a riprendersi. Cercò di puntare sull'offerta dei servizi e non di
software, ed elaborare strategie per lo sfruttamento dell'intelligenza collettiva. Il Web 2.0 segnala la
comparsa di nuovi mediatori, ossia organizzatori dei contenuti collettivi. Può essere considerato
allora come il regno dell'amatorialità, ossia non sono presenti professionisti. Usa inoltre delle
applicazioni, che prendono il nome di folksonomy (folk=popolo, taxonomy=tassonomia) che
permettono la categorizzazione e la condivisione del contenuto online. Il sistema comunque, cerca
di sfruttare il comportamento dei navigatori per scoprire delle informazioni implicite nella
descrizione della loro attività. Es: Amazon.

13. Il web del futuro: open data, e open access 


Open data, ossia rendere i dati disponibili in tutti i campi per essere accessibili e utilizzabili. Il
movimento poi, è collegato al semantic web che si propone di aggiungere uno strato di logica al
web e di identificare ogni singola risorsa online attraverso una serie di tag, i cosiddetti tag
semantici. Importante: L'open data movement, che presenta i risultati della collaborazione tra
cittadini e pubbliche amministrazioni. Gli open data comunque, sono strettamente connessi agli
open access. Quest'ultimi sono digitali, online e privi di costi e restrizioni dovute al copyright. Sono
così accessibili a tutti, anche se bisognerà abbattere prima le barriere dovute al costo, es: dei
giornali a pagamento. Le sue ricerche sono finanziate comunque da fonti pubbliche, lo stato perciò
paga due volte, poiché andrà a finanziare sia l'ottenimento dei risultati che le biblioteche che
dovranno acquisire i periodici. Altra componente degli open access sono: gli archivi pubblici, che
possono essere tematici o propri dell'università. In conclusione questi mettono a disposizione delle
informazioni privilegiate, grazie a strumenti tecnologici come, ad esempio, i content management
systems, ossia i strumenti per la gestione e l'organizzazione dei contenuti digitali. Un esempio è
proprio Google, che ha firmato un accordo con l'Universal per creare un canale dedicato alla
musica, e che prevede la condivisione delle entrate pubblicitarie.

CAPITOLO 4

CERCARE E ORGANIZZARE

1. Platone:

Il filosofo si sofferma sul problema della ricerca, spiegandocelo in un dialogo


intitolato Menone, in cui dirà che non è possibile trovare ciò che sappiamo già poiché non c'è nulla
d'aggiungere e non si può trovare ciò che non sappiamo perché non esiste alcun traccia che ci
potrebbe condurre alla scoperta di ciò che stavamo cercando. La soluzione, secondo Socrate, colui
che parla nel discorso di Platone, risiede nelle nostre preconoscenze inconsce, dovute ad una nostra
esistenza preumana. Oltre Platone, anche Cartesio affronta questo argomento: egli ci invita a
considerare che quando cerchiamo una nuova conoscenza lo facciamo a partire da un'idea chiara di
cosa dobbiamo trovare, sebbene ne ignoriamo ancora i dettagli. Il processo cognitivo è il prodotto di
quello che sappiamo già più le nostre ipotesi su quello che ancora ignoriamo.

2. La topologia del web: i nodi non sono tutti uguali

L'obiettivo di Arpanet era quello di evitare l'isolamento degli scienziati, permettere lo scambio di
dati e favorire le relazioni umane. Studi successivi hanno dimostrato che in realtà l'Arpanet
raggiunse esiti diversi da quelli ipotizzati in partenza. Il gruppo di ricerca della Notre Dame
University mise a punto un esperimento per la mappatura del web. A capo c'era Barabasi, che in
seguito dichiarò: “Il risultato più affascinante fu la scoperta di una totale assenza nel web di
democrazia, equità e valori ugualitari. Imparammo che l'unica cosa che la tipologia di questa rete
permette di vedere solo il miliardo di documenti in essa contenuti.” Soltanto alcuni dei “continenti”
del web sono facili da raggiungere, mentre la maggior parte dei nodi rimangono nascosti per
l'utente. Uscirebbe così ridimensionata la visione del web come uno strumento che garantisce
l'accesso totale a tutte le informazioni pubblicate online.

3. Search engines: il loro ruolo nella ricerca di informazioni sul web


Secondo un sondaggio la metà degli americani usa i motori di ricerca in un giorno tipo. I motori di
ricerca rappresentano il filtro del materiale presente sul web e come dichiarano gli inventori di
Google si propongono un obiettivo di medio termine ancora più ambizioso: “organizzare
l'informazione mondiale”. Inoltre si è scoperto che la maggior parte degli americani considera i
risultati delle ricerche altamente attendibili e che il 90% dei giovani inizia una ricerca proprio dai
motori di ricerca. Un esperimento di Steve Lawrence e Lee Giles del 1997 (e ripetuto nel 1999)
comparava le pagine trovate dai vari motori di ricerca diffusi in quegli anni e scoprirono che ogni
motore poteva garantire solo una copertura parziale delle pagine del web. Tuttavia è impossibile
misurare l'efficienza di un motore di ricerca, sia per l'assenza di una metrica adatta a tale
valutazione, sia perché non esiste uno strumento alternativo ad esso che possa valutare i risultati.

4. Il funzionamento dei motori di ricerca

Per capire quanto siano affidabili i motori di ricerca è necessario studiare le attività e i componenti
tipici di un motore quando indicizza e organizza le pagine web. I crawlers (o spiders) sono agenti
software che vengono inviati da motori di ricerca a esplorare il web. Il loro funzionamento consiste
nel visitare i siti in cui hanno gli url e spostarsi attraverso i link in essi contenuti. Dunque
esploreranno solo quei siti che sono ben collegati e non zone del web in cui invece potrebbero
rimanere incastrati. Esistono delle pagine irraggiungibili per loro: es: le pagine dinamiche, i risultati
di ricerca delle biblioteche o altre per problemi di policy aziendale. Una volta acquisiti i contenuti
delle pagine, i crawlers le riversano nel page repository. Il repository è il deposito informazioni di
un motore di ricerca. In questo deposito è presente una copia delle pagine visitate dai crawlers,
dunque se una pagina non fosse più accessibile, lo sarebbe comunque la sua copia cache. Quando il
motore indicizza poi la pagina, associa il suo Url a tutte le parole in esso contenute, nella forma di
un vettore fatto dalle sequenze di lettere che costituiscono le parole. Ma questo indice va invertito
per essere utile agli utenti. Essi infatti chiedono che vengano associati degli Url alle parole chiave
presenti nell'interrogazione. Per questo l'indice viene invertito associando ad ogni parola la lista
degli Url nei quali è contenuta. In altre zone del motore invece si eliminano tutte le espressioni quali
congiunzioni, articoli, ecc... Le queries sono sequenze di parole che l'utente usa per interrogare il
motore. Non si usa interrogare il motore attraverso una domanda esplicita, ma di solito si
inseriscono delle parole chiave. Negli ultimi anni i principali motori di ricerca hanno iniziato ad
usare le query suggestions, cioè suggerire la prosecuzione di una query o correggere un errore di
ortografia. Importante da studiare comunque, è l'algoritmo ranking, in cui bisogna però tener
conto che nessuno conosce il suo esatto funzionamento (esclusi pochi dipendenti Google) e che è
costantemente modificato per essere migliorato. L'idea di base di questo algoritmo per l'attribuzione
del rango è lo sfruttamento delle interconnessioni tra le pagine del web come una valutazione
dell'autorità delle pagine stesse. L'autorevolezza di una pagina non è un valore a sé, ma si costruisce
in base ai link che puntano a quella pagina. Se una pagina ha autorevolezza 10 e contiene 5 link ad
altre pagine, allora trasferirà su di esse il valore della sua autorevolezza (10) suddivisa fra tutte (5),
quindi ognuna otterrà 2 punti. L'idea di PageRank, consiste nell'attribuire ad ogni link il valore di
una citazione positiva e quindi considerarlo come un voto favorevole attribuito dalla pagina dalla
quale parte il link. Da quando la rete si è espansa però questo meccanismo si è molto complicato.
Negli anni '90 esistevano già altri modi per indicizzare le pagine della rete, che funzionavano in
base a meccanismi diversi, ma non ebbero altrettanto successo come Google. Il sistema che usa
Google per immagazzinare i dati si basa su una tecnologia chiamata the cloud e consiste non
nell'utilizzo di enormi macchine potenti ma della connessione di molte macchine poco performanti.
Le tecniche che venivano usate di information retrieval, derivano dalla gestione tipica dei database,
ma la rete è molto più vasta, meno coerente e cambia più rapidamente. Queste tecniche non sono
però adeguate per il web.

5. Cos'è che non va nei motori di ricerca?


Il sistema PageRank funziona bene per pagine nodali o molto popolari, ma non altrettanto per
pagine minori. Se cerchiamo qualcosa che già conosciamo, sarà sufficiente inserire le parole chiave
per trovarlo. Ma nel caso in cui invece non lo conosciamo, allora il PageRank sarà determinante per
le nostre scoperte. Non sapremo mai perciò se quello che abbiamo trovato era davvero ciò di cui
avevamo bisogno. Inoltre nell'attribuire un voto gli algoritmi di ranking confondono autorevolezza e
popolarità. Ci sono quindi molti rischi nell'affidarsi ciecamente ai motori di ricerca. Search engine
optimizers: sono agenzie che si occupano di migliorare la visibilità delle pagine web. Operano
attraverso tecniche di boosting (incremento) e di hiding (occultamento). La prime amplificano la
rilevanza e l'importanza di alcune pagine, mentre le seconde nascondono all'occhio dell'utente le
tecniche adottate per migliorare la rilevanza di un certo oggetto web. Se fossero diffuse molte
filosofie diverse da parte dei motori di ricerca, sarebbe molto difficile tentare di ingannare i
crawlers con queste tecniche. D'altra parte è anche scontato dire che è meglio avere dei motori di
ricerca che doversi cercare da soli le risorse nella rete. La lista dei primi dieci o venti siti che un
motore di ricerca trova in relazione ad un concetto, ci fornisce il contesto e la rappresentazione che
il motore ci dà a quel riguardo. Ma cercando la stessa parola in due lingue diverse si ottengono
risultati diversi. Se si cerca, ad esempio, “Italia” si ottengono informazioni istituzionali, ma se lo si
cerca in inglese si trovano info turistiche.

6. Strumenti di ricerca alternativi ai motori generalisti

I metamotori: non hanno un deposito di info, non usano crawlers e non possiedono un indice sui
loro server. Quando ricevono un'interrogazione, cercano delle informazioni sui principali motori di
ricerca e ne restituiscono i risultati in maniera omogenea. Esempi: Kartoo, Clusty e Ixquick. Gli
strumenti di ricerca “semantici”: cercano di organizzare le risorse di qualità o di sfruttare le
comunità di utenti e sviluppatori per migliorare le proprie prestazioni. Esempi: Powerset (interroga
Wikipedia), Freebase e WolframAlpha (organizza le info provenienti da fonti ufficiali di fisica,
chimica e matematica.) L'invisible web coincide con quella parte della rete impossibile da
frequentare attraverso i normali motori di ricerca. Ad esempio Deepdyve è uno degli strumenti che
vuole superare le difficoltà di conoscenza e mettere l'utente in contatto con questo mondo.
Www.archive.org si occupa di archiviare tutte le pagine web esistite. Inserendo l'Url di una pagina
non più esistente, si sarà rimandati alla pagina che prima corrispondeva a quel Url.

7. Il nuovo ruolo sociale dei motori di ricerca fra etica e politica

Nel 1986 Richard Mason, pioniere dell'etica dell'informatica, individuò quattro sfide cruciali
dell'età dell'informazione: privacy, accuratezza, proprietà e accessibilità. Queste sfide sono ancora
aperte e al loro cuore troviamo i motori di ricerca. Un caso interessante è quello di Google Book
Search, che pretende di diffondere libri a scapito dei diritti d'autore e delle case editrici. La
collaborazione con le biblioteche è stata pagata da Google a peso d'oro. La tendenza dei fornitori di
servizi è ritenere di avere il diritto di appropriarsi del contenuto residente nelle proprie macchine, a
completo detrimento dell'autore che lo avesse prodotto. Il caso della privacy è il più delicato, infatti
molte volte si è dovuto ricorrere a correggere le leggi e a farne di nuove. Anche la censura è un
tema scottante, in particolare basta vedere il caso della Cina. Gli utenti non possono accedere a tutti
i contenuti e i motori di ricerca hanno dovuto sacrificare parte della loro deontologia democratica.
Google è stato costretto ad autocensurare sia il motore delle news cinese e sia il motore di ricerca
generale. Google ha però oscurato nelle ricerche alcune pagine anche per altri motivi, ad esempio se
avevamo usato dei metodi illeciti per avere più visibilità. Chiaramente in uno stato di quasi
monopolio nei motori di ricerca, è chiaro che questa tecnica di censura è molto pericolosa. Se
fossero oscurate pagine di oppositori per scopi politici? La tecnologia deve essere regolata da leggi
internazionali, non può regolarsi da sola. Per questo è importante il ruolo di un umanista digitale,
che contribuisca a costruire il movimento volto a modificare le scelte sia a livello degli strumenti di
ricerca e sia a livello delle responsabilità dei governanti.

Potrebbero piacerti anche