2. Dall'analogico al digitale:
Le macchine si ispiravano a quella di Turing, soprattutto perché forniva sempre più risultati precisi
e ripetibili. Vennevar Bush, però aggiunse dei vincoli su come le macchine dovevano essere
costruite. Trattabilità, Questo perché un problema per essere risolto doveva essere intrattabile
(numero di passi per risolverlo>capacità fisiche della macchina). I problemi intrattabili vengono
chiamati “NP-completi”, sono molto comuni, ma non è chiaro se possano essere risolti con
algoritmi polinomiali (=trattabili). Questo fa capire che il calcolatore non riesce a risolvere tutti
questi problemi e allora la domanda che ci si è posta è stata: Perché il computer ha avuto tutto
questo successo? -Perché comunque è nato per maneggiare solo simboli e preservare le verità delle
premesse per arrivare poi alle conclusioni. E soprattutto per ridurre le operazioni ad operazioni più
elementari, e creare così una lista precisa di istruzioni che l'agente del calcolo esegue. Dall'altra
parte invece, il modello analogico di VB presentava molti più problemi per l'interpretazione dei
risultati, e per la ripetibilità delle esecuzioni. Da ciò deduciamo che al centro dello sviluppo
dell'informatica vi è il rapporto tra la logica e il linguaggio.
3. Il sogno di Bush:
VB come abbiamo detto è stato molto importante per la costruzione dell'analizzatore differenziale
(1936). Nel 1939 divenne uno dei consiglieri più fidati di Roosvelt. Nel 1940 fu sostenitore dello
sforzo bellico dal punto di vista scientifico, e si trovò al centro della più grande rete scientifica mai
costruita. Fondò il Nfs (National Science Foundation), il quale finanzia e guida la ricerca scientifica
negli USA. La risoluzione comunque a tutti i problemi secondo Bush arrivava con la costruzione di
una macchina: Memex: - supportava lo sforzo umano a gestire le informazioni in modo dinamico
ed efficiente. -comprendeva delle informazioni che non sarebbero più state prodotte sotto forma di
testo. -necessità inoltre, di aggiornare continuamente i dati, conservarli adeguatamente e renderli
accessibili. -utilizzava tecniche alternative. Secondo Bush, il Memex, utilizzando dispositivi
analogici, poteva aumentare il potere naturale del cervello umano di costruire associazioni utili ed
efficaci, in quanto poteva creare piste associative secondo la selezione desiderata dall'utente ed
immagazzinarle nella sua memoria. Era comunque una macchina da tavolo, destinata non solo agli
scienziati ma anche a lavoratori e professionisti. -A lui si rifece soprattutto Engelbart, il quale
sviluppò le cosiddette interfacce ad icone, e l'invenzione di periferiche come il mouse.
4. Nobert Wiener:
Grazie al quale, attraverso i suoi seminari, nacque la cibernetica= scienza del controllo e della
comunicazione nell'animale e nella macchina. C'era una preoccupazione però: come tecnologie
avrebbe potuto sia il funzionamento della mente e del comportamento umano, che comprendere
quali sarebbero state le conseguenze di tali applicazioni sulla società. Winier avviò questa
disciplina, soprattutto perché egli sentì la necessità di una riflessione teorica ed etica che andasse
oltre alla tecnologia. Secondo Winier lacomunicazione e il controllo, erano due nozioni
interconnesse. Il controllo era un caso speciale della comunicazione. La comunicazione invece, era
un'attività d'interazione con altre persone nel tentativo di ottenere un feedback. Feedback=tema
centrale della cibernetica, visto come meccanismo della reazione e del riequilibrio degli agenti
rispetto ai messaggi dell'esterno). Lo scopo della cibernetica: studiare i linguaggi e le tecniche che
ci permettono di risolvere il problema del controllo e della comunicazione in generale. Al centro
delle ricerche soprattutto i linguaggi che rendevano possibile l'interazione tra macchine ed essere
umani.
Altro tema importante per Wiener: La perdita dell'innocenza degli scienziati; secondo il quale è
avvenuta in seguito al lancio della bomba atomica. Questo perché secondo Wiener una volta
compiuta la “seconda rivoluzione industriale”(le promesse cibernetica avverate) ci sarebbero stati
diversi rischi: 1) Una forte disoccupazione intellettuale, provata dal fatto che le macchine avrebbero
sostituito la mente di molti lavoratori. Conseguenza= L'essere umano con una mediocre
preparazione non ha nulla da vendere che valga veramente la pena. 2) Ci sarebbe stata l'analisi di
processi evolutivi della scienza, che Wiener non voleva, in quanto le scoperte secondo lui non
dovevano essere segrete perché sarebbe significato rallentarle. 3) Si sarebbero costruiti meccanismi
antidemocratici, supportati dal cattivo uso di macchine per il controllo che favoriscono
l'accentramento del potere. Altro metodo per opporsi alle conseguenze dell'entrata in funzione delle
macchine per il controllo della società è la resistenza, ossia, fornire la massima informazione in
ambito scientifico e nell'innovazione tecnologica al fine di aumentare la consapevolezza.
L'intenzione era quella di porre da una parte gli ostacoli che brevetti e copyright opponevano allo
sviluppo della conoscenza e dall'altra come la conoscenza stessa si possa rigenerare attraverso la sua
libera e aperta trasmissione.
6. Licklider e “l'uomo-macchina”
Venne influenzato da Wiener, e fu il primo durante i suoi studi ad entrare in contatto con
i minicomputer (Pdp1) che consentiva un'interazione diretta con i suoi operatori. Svolse un ruolo
importante anche nello sviluppo dell'informatica, base dei finanziamenti per lo sviluppo
dell'interfaccia uomo-macchina ma che ha portato soprattutto alla costruzione dell'Arpanet, una
rete che collegava università e centri di ricerca, trasformato poi in Internet. Questo progetto si
realizzò definitivamente nel 1969, sotto la guida di un suo collega Taylor. I compiti comunque di
Licklider erano: occuparsi dei problemi di command and control e di scienze di comportamento,
interpretati come la necessità di realizzazione della simbiosi uomo-macchina. Una macchina
destinata non solo agli scienziati per risparmiare tempo ma anche per condividere la parte dedicata
al pensiero formulativo e creativo. Il suo scopo=portare le macchine calcolatrici dentro i processi di
pensiero nel tempo reale(quel tempo che scorre troppo velocemente per permette di usare i
computer in modi convenzionali). Importante perciò sarà la simbiosi: umanizzazione del computer;
in cui si fondano diversi compiti di calcolo e gestione dei dati con quelli di immagazzinamento e
ricerca delle informazioni. Una volta costruito poi, questo legame ed aver integrato la componente
della comunicazione a tutti i livelli siamo difronte ad una macchina nuovarispetto a quella di Von
Neumann del 1945. In comune: processore, memoria ed insieme di istruzioni di programmazione.
Diverso: nuovi meccanismi per la gestione collettiva del tempo macchina, e dispositivi input o
output. Importante sarà inoltre il ruolo dell'utente nell'elaborazione dei processi meccanici(Novità,
es: Macchina di Turing operatore=tavola di istruzioni). In conclusione secondo il modello
cibernetico, la macchina era partecipe e complice delle sua attività, e subentrava l'operatore umano
nelle componenti automatiche del compito= egli integra la componente analogica e per renderlo
possibile si sono costruiti, appunto, dei sistemi di input ed output, i quali facilitano la
comunicazione con la macchina.
Diciamo così che Licklider creò dei gruppi che operavano con un diverso modo di gestire i dati, di
costruire le informazioni e creare conoscenza. Secondo lui il computer riguardava tutti i processi
creativi intellettuali e sostenne la tesi, secondo la quale l'information processing sarebbe diventato
il campo di una scienza importante, poiché contribuiranno comunicazione, matematica, e logica,
forse psicologia e filosofia); tutte discipline che se avrebbero avuto a che fare con processi creativi
di conseguenza avrebbero riguardato l'informatica.
8. Rete intergalattica:
Importante sempre Licklider, il quale nel 1963 pubblicò una lettera, in cui faceva soprattutto il
punto della situazione dei progetti e delle loro intersezioni, e tentava di individuare l'obiettivo di
essi. Innanzitutto affermò: L'obiettivo finale era costituito da quelle barriere di comunicazione
create nel sistema cooperativo e interattivo dai membri che ne facevano parte. E che i progetti
consistevano nella costituzione di una rete di computer interconnessi e intercomunicanti, i quali
avrebbero permesso ai diversi operatori delle macchine di usare programmi di tutte le altre
macchine, conservare i dati e utilizzarli anche se provenienti da altre parti del sistema. Una rete così
intergalattica, in cui la rete gestisce autonomamente il traffico dei dati e la loro archiviazione.
Scopo: Cercare comunque, di mettere al centro l'utente, in modo tale da procedere dal suo punto di
vista, per vedere cosa preferirebbe in modo tale da soddisfare questi requisiti. Nasce così l'user-
centred design, (centralità dell'utente) come supporto delle attività umane. Da qui possiamo notare
che il computer non è più limitato al rapporto con il singolo utente ma viene percepito come un
sistema complesso di comunicazione. Nel 1964 però, Lick lasciò l'Ipto, e il progresso venne guidato
da Taylor, uno dei miglior manager tecnologici. Mise in moto il progetto Arpanet, di cui abbiamo
parlato, e nel 1996 divenne diretto dell'Ipto. Seguì l'idea di Lick e immaginò di connettere i diversi
laboratori tra loro, attraverso una rete che parlasse una lingua comune a tutti. E secondo Taylor la
comunicazione tramite macchine avrebbe surclassato quella faccia a faccia.
L'idea di Taylor e Licklider perciò era la progettazione di un dispositivo utile all'interazione e non
solo al trasferimento di informazioni. Taylor riformulò inoltre il rapporto tra esseri umani e
macchine. Bush e Wiener avevano introdotto l'idea della comunicazione non come un semplice
scorrere di dati codificati ma anche come la funzione di risposta a quel flusso di dati che prendeva
la forma del feedback (meccanismo interattivo e interconnesso che comprendeva una relazione tra i
due soggetti dello scambio. Licklieder e Taylor invece: “Comunicare è più che inviare e ricevere”,
in cui l'interesse principale era l'aspetto più creativo della comunicazione umana, che le macchine
potevano supportare ed “aumentare”. Per far sì che questo avveniva, bisognava disporre di un
mezzo plastico, modellato in base alle circostanze, dinamico, sul quale sperimentare. (un mezzo
simile perciò al calcolatore). Gli utenti che ne facevano parte erano coloro che erano coinvolti in
un'attività creativa (umanisti digitali). Da ciò possiamo dedurre che L e T anticiparono la realtà
online. Era presente però un rischio: digital dive, in cui si domandarono se essere online sarebbe
stato un privilegio o un diritto, e a ciò legarono il fatto che la rete poteva essere sia un vantaggio che
un rischio per la società.
10. ARPANET:
11. Il www:
venne presentato da Tim Berners-Lee nel 1955=world wide web, che mirava a facilitare il
passaggio delle informazioni tra i ricercatori. Perciò si trattava di razionalizzare le risorse e
organizzare le informazioni per renderle facilmente accessibili. Secondo Lee comunque: il web era
una cosa facile in quanto tutto era già lì pronto per essere usato (Internet, i protocolli, e presiedeva
soprattutto alla trasmissione del trasferimento dei dati. Importante: il concetto di ipertestualità, in
cui si Internet si associavano i server ad un numero unico che li identificasse. L'ipertestualità
comunque fu un concetto inventato da Ted Nelson, il quale si rese conto che, ad esempio, per
scrivere un saggio era necessario un sistema autore ipertestuale, che permetteva di connettere
attraverso dei link i diversi materiali. Nel 1960 inventò il progetto Xanadu (primo sistema autore
ipertestuale). -Dettagli storia del web: -Idea di un sistema autore, un progetto partecipativo e
universale, un ruolo centrale da parte della comunità. E il suo obiettivo principale: definire un
meccanismo di natura editoria che privilegiasse i contenuti e li rendesse facilmente accessibili
attraverso percorsi associativi. Sono tre comunque gli elementi che contraddistinguono il web: Uri,
http e Html, ossia identificatori universali, il protocollo di riferimento (che permette il dialogo) e il
linguaggio. Il web era uno spazio nel quale l'informazione nasce, viene prodotta e connessa. Inoltre
nel 1993 Cern cercò di andare oltre Lee, e mise che i programmi e protocolli potevano essere
scaricati gratuitamente, cosicché permettevano alle macchine di comprendere e connettere i
documenti ipertestuali. Per ottenere ciò comunque c'era bisogno del browser, ossia visualizzatore
di pagine ipertestuali indipendenti dalla piattaforma. Qui allora c'era da ricercare un browser adatto
e facile da scaricare e disponibile su tutte le piattaforme: il Mosaic, sviluppato da Andreessen e
Bina. Mancava allora solo il governo. La situazione cambiò nel 1994 quando Lee decise di fondare
il Worl Wide Web Consortium (istituzione internazionale di governo del web) con lo scopo di
sviluppare protocolli e linee guida che assicurano la crescita del web e stabiliscono regole per la
convivenza civile. Obiettivo: generare standard che garantivano l'omogeneità del web. La www
foundation ha il fine di studiare le condizioni di diversità dalle quali sia possibile accedere al web
(es: differenze culturali, tecnologiche e linguistiche.)
È un'etichetta data da O'Reilly per ragioni di marketing, poiché cercò di rianimare il settore colpito
dal crollo delle dot com che stentava a riprendersi. Cercò di puntare sull'offerta dei servizi e non di
software, ed elaborare strategie per lo sfruttamento dell'intelligenza collettiva. Il Web 2.0 segnala la
comparsa di nuovi mediatori, ossia organizzatori dei contenuti collettivi. Può essere considerato
allora come il regno dell'amatorialità, ossia non sono presenti professionisti. Usa inoltre delle
applicazioni, che prendono il nome di folksonomy (folk=popolo, taxonomy=tassonomia) che
permettono la categorizzazione e la condivisione del contenuto online. Il sistema comunque, cerca
di sfruttare il comportamento dei navigatori per scoprire delle informazioni implicite nella
descrizione della loro attività. Es: Amazon.
CAPITOLO 4
CERCARE E ORGANIZZARE
1. Platone:
L'obiettivo di Arpanet era quello di evitare l'isolamento degli scienziati, permettere lo scambio di
dati e favorire le relazioni umane. Studi successivi hanno dimostrato che in realtà l'Arpanet
raggiunse esiti diversi da quelli ipotizzati in partenza. Il gruppo di ricerca della Notre Dame
University mise a punto un esperimento per la mappatura del web. A capo c'era Barabasi, che in
seguito dichiarò: “Il risultato più affascinante fu la scoperta di una totale assenza nel web di
democrazia, equità e valori ugualitari. Imparammo che l'unica cosa che la tipologia di questa rete
permette di vedere solo il miliardo di documenti in essa contenuti.” Soltanto alcuni dei “continenti”
del web sono facili da raggiungere, mentre la maggior parte dei nodi rimangono nascosti per
l'utente. Uscirebbe così ridimensionata la visione del web come uno strumento che garantisce
l'accesso totale a tutte le informazioni pubblicate online.
Per capire quanto siano affidabili i motori di ricerca è necessario studiare le attività e i componenti
tipici di un motore quando indicizza e organizza le pagine web. I crawlers (o spiders) sono agenti
software che vengono inviati da motori di ricerca a esplorare il web. Il loro funzionamento consiste
nel visitare i siti in cui hanno gli url e spostarsi attraverso i link in essi contenuti. Dunque
esploreranno solo quei siti che sono ben collegati e non zone del web in cui invece potrebbero
rimanere incastrati. Esistono delle pagine irraggiungibili per loro: es: le pagine dinamiche, i risultati
di ricerca delle biblioteche o altre per problemi di policy aziendale. Una volta acquisiti i contenuti
delle pagine, i crawlers le riversano nel page repository. Il repository è il deposito informazioni di
un motore di ricerca. In questo deposito è presente una copia delle pagine visitate dai crawlers,
dunque se una pagina non fosse più accessibile, lo sarebbe comunque la sua copia cache. Quando il
motore indicizza poi la pagina, associa il suo Url a tutte le parole in esso contenute, nella forma di
un vettore fatto dalle sequenze di lettere che costituiscono le parole. Ma questo indice va invertito
per essere utile agli utenti. Essi infatti chiedono che vengano associati degli Url alle parole chiave
presenti nell'interrogazione. Per questo l'indice viene invertito associando ad ogni parola la lista
degli Url nei quali è contenuta. In altre zone del motore invece si eliminano tutte le espressioni quali
congiunzioni, articoli, ecc... Le queries sono sequenze di parole che l'utente usa per interrogare il
motore. Non si usa interrogare il motore attraverso una domanda esplicita, ma di solito si
inseriscono delle parole chiave. Negli ultimi anni i principali motori di ricerca hanno iniziato ad
usare le query suggestions, cioè suggerire la prosecuzione di una query o correggere un errore di
ortografia. Importante da studiare comunque, è l'algoritmo ranking, in cui bisogna però tener
conto che nessuno conosce il suo esatto funzionamento (esclusi pochi dipendenti Google) e che è
costantemente modificato per essere migliorato. L'idea di base di questo algoritmo per l'attribuzione
del rango è lo sfruttamento delle interconnessioni tra le pagine del web come una valutazione
dell'autorità delle pagine stesse. L'autorevolezza di una pagina non è un valore a sé, ma si costruisce
in base ai link che puntano a quella pagina. Se una pagina ha autorevolezza 10 e contiene 5 link ad
altre pagine, allora trasferirà su di esse il valore della sua autorevolezza (10) suddivisa fra tutte (5),
quindi ognuna otterrà 2 punti. L'idea di PageRank, consiste nell'attribuire ad ogni link il valore di
una citazione positiva e quindi considerarlo come un voto favorevole attribuito dalla pagina dalla
quale parte il link. Da quando la rete si è espansa però questo meccanismo si è molto complicato.
Negli anni '90 esistevano già altri modi per indicizzare le pagine della rete, che funzionavano in
base a meccanismi diversi, ma non ebbero altrettanto successo come Google. Il sistema che usa
Google per immagazzinare i dati si basa su una tecnologia chiamata the cloud e consiste non
nell'utilizzo di enormi macchine potenti ma della connessione di molte macchine poco performanti.
Le tecniche che venivano usate di information retrieval, derivano dalla gestione tipica dei database,
ma la rete è molto più vasta, meno coerente e cambia più rapidamente. Queste tecniche non sono
però adeguate per il web.
I metamotori: non hanno un deposito di info, non usano crawlers e non possiedono un indice sui
loro server. Quando ricevono un'interrogazione, cercano delle informazioni sui principali motori di
ricerca e ne restituiscono i risultati in maniera omogenea. Esempi: Kartoo, Clusty e Ixquick. Gli
strumenti di ricerca “semantici”: cercano di organizzare le risorse di qualità o di sfruttare le
comunità di utenti e sviluppatori per migliorare le proprie prestazioni. Esempi: Powerset (interroga
Wikipedia), Freebase e WolframAlpha (organizza le info provenienti da fonti ufficiali di fisica,
chimica e matematica.) L'invisible web coincide con quella parte della rete impossibile da
frequentare attraverso i normali motori di ricerca. Ad esempio Deepdyve è uno degli strumenti che
vuole superare le difficoltà di conoscenza e mettere l'utente in contatto con questo mondo.
Www.archive.org si occupa di archiviare tutte le pagine web esistite. Inserendo l'Url di una pagina
non più esistente, si sarà rimandati alla pagina che prima corrispondeva a quel Url.
Nel 1986 Richard Mason, pioniere dell'etica dell'informatica, individuò quattro sfide cruciali
dell'età dell'informazione: privacy, accuratezza, proprietà e accessibilità. Queste sfide sono ancora
aperte e al loro cuore troviamo i motori di ricerca. Un caso interessante è quello di Google Book
Search, che pretende di diffondere libri a scapito dei diritti d'autore e delle case editrici. La
collaborazione con le biblioteche è stata pagata da Google a peso d'oro. La tendenza dei fornitori di
servizi è ritenere di avere il diritto di appropriarsi del contenuto residente nelle proprie macchine, a
completo detrimento dell'autore che lo avesse prodotto. Il caso della privacy è il più delicato, infatti
molte volte si è dovuto ricorrere a correggere le leggi e a farne di nuove. Anche la censura è un
tema scottante, in particolare basta vedere il caso della Cina. Gli utenti non possono accedere a tutti
i contenuti e i motori di ricerca hanno dovuto sacrificare parte della loro deontologia democratica.
Google è stato costretto ad autocensurare sia il motore delle news cinese e sia il motore di ricerca
generale. Google ha però oscurato nelle ricerche alcune pagine anche per altri motivi, ad esempio se
avevamo usato dei metodi illeciti per avere più visibilità. Chiaramente in uno stato di quasi
monopolio nei motori di ricerca, è chiaro che questa tecnica di censura è molto pericolosa. Se
fossero oscurate pagine di oppositori per scopi politici? La tecnologia deve essere regolata da leggi
internazionali, non può regolarsi da sola. Per questo è importante il ruolo di un umanista digitale,
che contribuisca a costruire il movimento volto a modificare le scelte sia a livello degli strumenti di
ricerca e sia a livello delle responsabilità dei governanti.