Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Nel 1949 due ingegneri Shannon e Weaver, istituiscono un modello di comunicazione ove il 1° elemento è
l’informazione di partenza cioè un messaggio, il quale è stato generato da una fonte di informazione che
naturalmente è preparato per un trasmittente, il quale si occupa di codificare e inviare un segnale tramite un
canale (ad es. un cavo) soggetto a dei rumori (noises). A questo punto c’è bisogno dell'aiuto di un ricevitore,
che decodifica il segnale per poi mandarlo definitivamente al destinatario di informazione con la possibilità
di un feedback.
Il WEB è stato inventato da T. Berners-Lee il quale afferma: “è più un’innovazione sociale che tecnica. L’ho
progettato perché aiutasse le persone a collaborare e non come giocattolo tecnologico…”
Grazie poi all’invenzione dell’ipertesto, si introduce l’idea che all’interno dei dati/documenti si possa navigare
(all’interno della comunicazione) non solo in maniera lineare ma trasversale. Il Web diventa quindi una vera
e propria evoluzione della comunicazione, un nuovo luogo dove la comunicazione diventa
BI/MULTIDIREZIONALE e non più monodirezionale (passando dal web 1.0 al 2.0).
Le “ere” del web:
PC ERA (1980-1990) l’informatica è legata alla gestione funzionale di dati, di singoli utenti (ad es. desktop)
Il WEB 1.0 → Chiamato anche read only web, questo web si è sviluppato e diffuso fino agli anni 2000. È un
medium, perciò permette di navigare e visualizzare solo documenti ipertestuali statici (ad es. HTML),
aggiornati poco frequentemente. Si sviluppa su un’organizzazione Directory, cioè ha un approccio ai
contenuti tassonomico (tassonomia = classificazione gerarchica di concetti), rigido.
Il WEB1.5 → È un luogo, permette di navigare e visualizzare documenti ipertestuali dinamici (ad es.
DataBase, archivio di dati strutturato in modo da razionalizzare la gestione e l'aggiornamento delle
informazioni e da permettere lo svolgimento di ricerche complesse. Content Management System, sistema
che gestisce i contenuti dei siti. Computing Classification System, schema di classificazione utilizzato per le
pubblicazioni e il calcolo automatico. Linguaggi di SCRIPT, permettono di aggiungere funzionalità interattive
alle pagine).
WEB 2.0→ Chiamato anche read & write web, il web 2.0 un format, in cui i siti diventano contenitori di servizi
e applicazioni (Hardware, componente fisica del computer e Software, insieme dei programmi del
computer). Si entra quindi nella fase interattiva del web: ciò comporta un sistema di Tagging (= marcatura),
diventato famoso e condiviso grazie all’arrivo dei social network. Essa è una modalità di condivisione,
collaborazione e interazioni tra utenti, piattaforme e tecnologie (tutto è a disposizione di tutti). Questa
modalità viene sviluppata attraverso una folksonomia che associa alle informazioni le descrizioni che gli
utenti attribuiscono alle informazioni stesse.
Avviene la connessione tra le persone attraverso la definizione di contenuti/linguaggi (ad es. XML, il
documento viene descritto e poi scritto nella sua struttura così che le macchine possano comprendere e
distribuire il tutto in modo logico).
WEB 3.0 A partire dal 2006 lo sviluppo dei linguaggi, porta al Web 3.0 l’aggiunta del nome execute al read
& write. Il read, write & execute web trova spazio alle tecnologie IA-BASED (intelligenza artificiale), software
in grado di interagire con i visitatori. È un Web semantico, cioè un ambiente virtuale dove le informazioni e i
dati sono collegati tra loro e organizzati per essere elaborati automaticamente (le macchine leggono i
contenuti e li interpretano), permettendo di costruire una struttura dati condivisa e immutabile (i nuovi dati
non cancelleranno quelli precedenti così da creare uno storico di informazioni vastissimo). È un Web
Geospatial, si connette con il sistema georeferenziato e il 3D. Il mondo delle informazioni e quello fisico sono
fondamentali per distribuire e comprendere le informazioni.
Altre caratteristiche:
Web potenziato: Web come canale di comunicazione che influenza la realtà più di qualsiasi altro media
prima d’ora, vi è una relazione continua.
Fusione dei Poli: inizialmente vi erano due poli distinti, il Web e l’Utente, con l’affermarsi poi delle varie
evoluzioni tecnologiche si sono fusi in un processo di co-creazione continua;
Web come un database: inteso come Rete una specie di enorme contenitore (database) ricco di
informazioni facilmente reperibili e distribuibili (non più archivio ma database).
WEB 4.0 o METAWEB Vi è una connessione tra i sistemi di comprensione muniti di agenti intelligenti che
cercheranno informazioni rispetto a quelli che sono gli interessi dichiarati degli utenti, ma anche quegli
interessi che vengono evinti dalla navigazione e dai contenuti dentro e fuori dal web.
Il web 4.0:
- Avrà il suo ALTERERGO DIGITALE, cioè gestirà delle specie di Avatar (non
quelli del film) che vivono sulla rete come se fossero noi per cercare le
informazioni che ci servono quando ci connettiamo.
KEY WORDS:
Il WEB 2.0 rappresenta una svolta semantica, dove l’utente è al centro della struttura e che sin dalla sua
nascita vede dividersi due diverse correnti di pensiero:
Da un lato viene visto come un nuovo modo di intendere la rete: pone al centro i contenuti, le
informazioni, l’interazione.
Dall’altro non gli viene attribuito nessun vero significato (ogni nuova tecnologia stimolava le persone
a dire che il web era cambiato, per far sì di affermare le loro nuove scoperte).
Il web semantico ha una visione USER-CENTRED, cioè si sposta l'attenzione dal produttore al fruitore, che
diventerà a sua volta un creatore di contenuti. Il web mette al centro l’utente in modalità bi/multidirezionale
e non più uni-direzionale, dove tutti comunicano con tutti e possono produrre contenuti, aumentandone così
il valore.
Esempi di web semantici Intelligence Collective di Pierre Lèvy, Global Brain di Howard
Bloom, Smart Mobs di Horward Rheingold.
Il web semantico in rapporto alla comunicazione è ben descritto da quelle che vengono chiamate le “4c”:
Creatività: gli utenti diventano creatori di contenuti/collegamenti anche solo con la loro
partecipazione diventano ciò che viene chiamato PROSUMER ( PROducer & conSUMER).
Intelligenza collettiva: la rete permette di sviluppare questo concetto che era stato teorizzato molto
tempo prima, per la prima volta negli anni ‘90. Come afferma George Pór in The Quest for Cognitive
Intelligence (1995), essa è “la capacità di una comunità umana di evolvere verso una capacità
superiore di risolvere problemi, di pensiero e di integrazione attraverso la collaborazione e
l’innovazione”.
Client side: la gestione della rete è per mano dei clienti, il ché crea la possibilità di realizzare infiniti
contenuti.
Copyright & Copyleft: non è solo il diritto di poter scrivere ma anche quello di copiare il materiale
letto per produrre nuovi contenuti (“Software libero”).
- RIGHT: è il diritto di/per copiare un’idea. Chiunque ne volesse usufruire deve farsi pagare/deve
pagare una somma di denaro.
- LEFT: Il copyleft (left nel senso di “lasciato”) è un metodo generico per rendere un programma (o
altro lavoro) libero ed imporre che tutte le modifiche e versioni estese del programma siano
anch'esse software libero.
Il copyleft viene sviluppato attraverso la GNU LGPL (Lesser General Public License), nonché un
sistema secondo cui non tutti possono copiare senza citare la fonte ma regolamentando la possibilità
che in rete si possono riutilizzare/modificare/cambiare oggetti fatti da altri.
Un web 2.0 è un insieme di nodi che comunicano tra loro e possono essere di tre tipi:
un utente, un’applicazione o la loro fusione quindi un utente e un’applicazione insieme.
Il Web semantico mette a disposizione degli strumenti (applicazioni), i quali sono: wiki, blog, podcast e
vodcast, social network, folksosnomie.
WIKI tutti lo associano a Wikipedia, anche se quest’ultimo è solo uno dei tanti wiki. Un Wiki è un sito Web
composto da un insieme di documenti ipertestuali dove gli utenti hanno la possibilità di inserire e modificare
i contenuti attraverso link definiti in Camel Case.
I Camel case sono parole che vengono identificate da una sintassi con un’iniziale maiuscola/minuscola, non
sono link già esistenti ma sono richieste di andare a cercare in tutto l’ambito del sito Wikipedia, se esistono
delle voci che possono essere paragonate alla richiesta. Ciò produce delle pagine nuove se l’oggetto c’è,
oppure un link se l’oggetto non c’è. (wiki significa rapido, veloce).
BLOG Abbreviazione di “Web Log”(= lasciare traccia in rete), il Blog nasce nel 1997 (in Italia nel 2001) negli
Stati Uniiti da un’idea di Jorn Barger, come uno strumento grazie al quale le persone possono usare il web
per dire la propria (un es. di passaggio da medium a luogo a format). Possiamo considerare il blog come il
“genitore” dei social network, poiché agevola il concetto di community, vale a dire un gruppo di persone che
si riunisce per creare contenuti. È fortemente strutturato, non è un sito generico ma una struttura specifica
per una funzione specifica, in modo da lasciare tracce in rete, connettersi con gli altri, di produrre della
comunicazione/ delle informazioni attraverso documenti e relazioni tra di essi. Non a caso tutti i blog sono
caratterizzati da elementi fissi:
o POST, unità di contenuto logicamente autoconsistente non fatta in chiave generica ma con
data, testo, titolo e link
o PERMALINK, ponti tra i diversi blog. Ogni post ha un URL (Uniform Resos Locator) ossia una
sequenza di caratteri che identifica inequivocabilmente la posizione di una risorsa in internet.
Se il post viene cancellato, il link di quest’ultimo non viene attribuito a nessun altro link (ad
es. se uno carica un video su YouTube e poi viene cancellato, quel file non lo troverà più).
Questo è un fattore molto importante per la gestione dei contenuti, perché evidenzia come
il tutto sia molto flessibile.
o COMMENTI, i protagonisti sono lettori e autori.
o TRACKBACK, sistema che permette di segnalare se altri blog fanno commenti remoti al blog
stesso o a qualche post.
o REFFERS, la possibilità di aggregare i contenuti, cioè si possono archiviare i contenuti secondo
chiave di significato, non si modificano i link ma li mette in una modalità di navigazione più
semplice.
o MONITOR del TRAFFICO in ENTRATA, ogni blog è in grado di sapere e chi linka, quindi chi fa
collegamenti. Ciò crea la cosiddetta “blogosfera” o “infosfera”, siamo una società
estremamente liquida e che vive l’informazione.
PODCAST & VODCAST Il dizionario americano New Oxford nel 2005 definisce il Podcasting una
“registrazione digitale di una trasmissione radiofonica o simili, resa disponibile su internet con lo scopo di
permettere il download su riproduttori audio personali”.
Il podcast è un neologismo, per tanto comporta iPod e Broadcasting, quest’ultimo è l'idea che la
comunicazione, i documenti vanno costruiti e trasmessi senza vincolarli allo strumento finale che
li fruirà. Quindi la rete nella sua diversità di device che incontra, si pone l’idea di strutturare le
informazioni in modo che ogni device è in grado di ricomporre questa informazione, farla fruire
nella modalità e con la forma tipica del device di fruizione.
Vale a dire:
1. arriva un messaggio
2. un device ne comprende la struttura
3. un device di carattere testuale, lo trascrive
4. un device di carattere audiovisivo, lo trasforma in voce e lo collega a delle immagini.
In parole povere è uno scambio di files audio tra diversi sistemi digitali o anche una trasmissione di
informazioni di un sistema trasmettente ad un insieme di sistemi riceventi, non definito a priori.
Il vodcast/vodcasting è lo scambio di files video. Il videocast ovvero video on demand, fa
crescere il concetto degli RSS o RDF (RDF Site Summary anche Really Simple Syndication o
Rich Site Summary), un formato per la distribuzione di contenuti a cui vengono associate
delle descrizioni semantiche (chi li ha prodotti, di che argomento trattano, la data
ecc.…tutto ciò che serve ad inquadrare il significato di quel video).
SOCIAL NETWORK consiste in un qualsiasi gruppo di individui connessi tra loro da diversi legami sociali.
Per gli esseri umani i legami vanno dalla conoscenza casuale, ai rapporti di lavoro, ai vincoli familiari;
All’interno delle folksonomie c’è assenza di gerarchia e di controllo di autorità, cioè non ci sono set
predefiniti e c’è libertà nell’uso dei tag. Le parole chiave sono infatti COLLABORAZIONE, DISTRIBUZIONE
E CONDIVISIONE. La tassonomia segue una struttura gerarchica, mentre la folksonomia può variare.
I set e i tag sono definiti dagli utenti e non sono predefiniti, il ché crea il problema dell’ “Information
Retrieval”, cioè nel recupero delle informazioni.
- BROAD (dal più macro al più specifico. Ad es. Delicious aggregatore e distributore di link -
Pinterest è un aggregatore di immagini significative);
- NARROW ( dal più concreto al più ampio. Ad es. Flickr, distributore di foto, le quali vengono
taggate secondo un thesaurus preciso perché ci sono delle caratterizzazioni condivise che
identificano una foto – il panorama piuttosto che il ritratto, il bianco e nero anziché il colore ecc..
). Tutto ciò serve per gestire la risorsa. (Ad ogni modo, a prescindere che sia Broad o Narrow, il
documento identifica una risorsa.)
La Folksonomia permette di gestire la centralità dei tag (le etichette diventano centrali) il ché permette la
condivisione di informazioni tra utenti, la mappa di un profilo utente, la relazione tra i tag, la mappa dei tag
in rete, e l’andamento semantico della rete.
Esistono dei generatori di TAGCLOUDS, i quali permettono di prendere un testo e rappresentarlo in modo
grafico rispetto alle parole più importanti e la loro relazione di distanza/vicinanza logica. Permette tutto una
serie di elaborazioni molto interessanti e potenti per rendere la ricerca di conoscenza (= la comunicazione)
più efficace e preciso. (guarda slides del prof per degli schemi)
Essa consiste in una ruota con una serie di supporti, ognuno dei quali contiene
un libro e una sorta di meccanismi a pedali che fungono da segnalibro e che
aprono il libro ad una certa pagina. Quale miglior rappresentazione tecnica di
quelli che sono i documenti, siti e link e come la pedalata e il movimento della
pagina, quella che è la navigazione della rete. Ciò permetteva a chi metteva
questi segnalibri, non solo di fornire una serie di documenti ma anche di
correlazioni, data da uno spostamento e da un'apertura di un segnalibro che
era stato messo in origine da chi, quel cammino ha progettato. Di conseguenza
c’è una sorta di posizionamento del sapere che è ineludibile Questa ruota,
questo meccanismo era comunque riuscito ad automatizzare un processo
logico, in cui i collegamenti sono automatizzati e non figli di una deduzione o
comprensione di uno studente o di chi legge ( aveva quella che sarebbe stata
poi definita una struttura topologica che diventa logica).
La storia dell’ipertesto procede con Vannevar Bush, un fisico di metà ‘900 che comincia ad immaginare alcuni
metodi per poter navigare in un mondo in cui il sapere si stava
accumulando. Nel 1945 scrisse un articolo per dal titolo “As We May Think”
che introdusse un nuovo modo di concepire i sistemi informativi avviando
la riflessione sullo sviluppo dei sistemi ipertestuali.
Nell’immagine vediamo una sorta di scrivania che aveva nel suo insieme,
non solo collegamenti elettrici ma anche rimando a libri fisici (quindi un
sistema che metteva in ipertestualità documenti fisici con documenti in
formato digitale (o perlomeno, in formato analogico).
Arriveremo poi nel 1960 con Ted Nelson, che immagina quello che viene
chiamato Progetto Xanadu ( = città perfetta), un primo progetto vero
di ipertesto dove si comincia a parlare di rete di computer con interfaccia
utente semplice.
Esso nasce come un programma di scrittura testi (il termine word
processor comparve diversi anni più tardi) capace di memorizzare più
versioni dello stesso scritto (ovvero tutta la cronologia delle modifiche) e
capace di visualizzare le differenze tra le diverse versioni. Nelson non riuscì
all'epoca a portare a termine l'implementazione, tuttavia una dimostrazione
del sistema si dimostrò sufficiente per attirare l'interesse sul progetto.
L’idea del digitale acquista sempre più piede perché riesce a rendere reali, fattibili e fruibili dei sistemi di
carattere ipertestuale. Non solo immagina un sistema che ben racchiude un sistema di navigazione logica del
sapere ma si immagina anche la necessità di avere un’interfaccia semplice, così che l’utente sia in grado di
accedervi. Non è solo una centralità che “sforna” produttori e consumatori di informazione MA trasforma in
modalità informatica quello che è il modo naturale delle persone di accedere alle informazioni, in modo da
creare un mondo connesso, semantico ma soprattutto reticolare.
Proseguiamo lungo la storia dell’ipertesto tornando da Ted Nelson che,
sempre nel 1960, insieme a Douglas Engelbart, studia e produce testi
ispirati dai concetti di Bush. Inoltre, Engelbart ed English inventeranno
il mouse e lo presenteranno il 9 dicembre 1968 a San Francisco. La
novità portata da questa nuova invenzione non era tanto per l’oggetto
in sé, ma il fatto che il mouse andava a identificare una struttura che
poteva essere significativa per quanto riguarda l’approccio con il sapere: un individuo quando vuole sapere
qualcosa che non conosce la indica.
Nel 1965 sempre Ted Nelson introduce per la prima volta il termine di Hypertext e si introduce il concetto di
HTML (Hyper text markup language).
Nel 1987 Bill Atkinson realizza con la Apple Hypertalk, un “sistema di gestione di grandi masse di testo e
immagini, con un linguaggio di programmazione ipertestuale” dove era possibile creare il sistema
ipertestuale sia attraverso il proprio linguaggio di programmazione (già esistente), sia attraverso la grafica
(Novità - se il sistema forniva i nodi era possibile definire tirando delle linee il collegamento da un elemento
ad un altro e definire da cosa quell’elemento era attivato).
Tra il 1980 e il 1989 Tim Barners Lee e Robert Cailliau cominciano ad immaginare e a progettare il web. Al
CERN implementano un nuovo software, Enquire, il quale lancia concettualmente le basi del futuro web
perché immagina delle query che ragionano sulla possibilità di navigare in modo relazionale da un
documento ad un altro. Nella immagine vediamo la slide con il quale i due presenteranno il loro progetto,
che vedeva una serie di elementi, una serie di relazioni, e di link alcuni semanticamente definiti, e tutta una
rete che poteva essere navigata.
In quegli anni questa innovazione portò tanto interesse, portando alla prima intervista al TG1 nel 1993, fino
ad arrivare al Massachusetts Institution of Technology (MIT), dove venne fondato il W3C, consorzio fatto di
sviluppatori ed esperti per definire gli standard della rete.
Sempre nello stesso anno i server nati passano da 500 a 10.000, fino ad arrivare al 2012 dove si arriva a circa
908.586.000 server, di cui Google ne usa 900.000.
Questa struttura, ideata negli anni ‘80 e creata nel 1991 con la pubblicazione del primo sito web
(http://info.cern.ch/) è ritenuta valida perché resiste al grande sviluppo della rete.
KEY WORDS:
SOCIAL MEDIA: gruppo di applicazioni basate sul web e costruite sui paradigmi (tecnologici ed ideologici) del
web 2.0 che permettono lo scambio e la creazione di contenuti generati dagli utenti.
SOCIAL NETWORK: gruppo di persone connesse tra loro con legami di diversa natura. L’evoluzione digitale
delle reti social come reti tipicamente fisiche. Teoria delle reti sociali (grafi, mappe, rappresentazioni).
Robin Dunbar nel 1992, ipotizza l’esistenza di vincoli di carattere cognitivo nei confronti di una rete sociale e
che quest’ultima sia composta da 150 individui.
Nel 1967 Stanley Milgram fece una ricerca grazie alla quale dimostrò che ogni abitante degli Stati Uniti aveva
in media 3 gradi di separazione da ogni altro abitante vennero inviate due lettere in due punti separati,
chiedendo se si conoscesse la persona in questione. Se la risposta era Sì, la lettera veniva restituita se invece
era No, veniva inviata ad altre 5 persone, e così via.
Nel 2006 Microsoft analizza i dati relativi a coloro che utilizzavano Messenger, 30 miliardi di conversazioni
elettroniche, sparse nei cinque continenti emerse che la distanza media di connessione è di 6,6. Più le
conversazioni aumentano, più questo numero diminuisce Nel 2011 infine subentra Facebook che fa
scendere il numero a 4,74.
Nacque da qui la Teoria dei Piccoli Mondi la quale sostiene che tutte le reti complesse presenti in natura
sono tali che due nodi qualunque possono essere collegati da un percorso costituito da un numero
relativamente piccolo di collegamenti. Un grafo in cui si ha che la relazione tra il numero di nodi e il numero
delle loro connessioni di tipo esponenziale negativo (quindi invariante per cambiamenti di scala) rappresenta
una Rete a Invarianza di Scala (Scale free Network). Le Scale Free Network partono da una domanda, “Come
si formano le reti?”, e insieme alla citazione di Einstein “Dio non gioca a dadi con l’universo”, spiegano che le
reti non si formano in modo casuale/aleatorio. Ciò porta ad analizzare le reti con un’ottica ad invarianza di
scala, quindi non è vero che mediamente tutti i nodi hanno lo stesso numero di link ma che i nodi che hanno
un maggiore numero di link ne hanno sempre di più e il numero di nodi che hanno un minore numero di link
ne hanno sempre di meno. In parole povere: chi conosce molte persone continuerà a conoscerne e chi ne
conosce poche ne conoscerà sempre meno.
Tali reti di invarianza di scala integrano reti sociali, reti fisiche, reti di informazioni e reti di comunicazione
di conseguenza, forma reti nuove nuovi nodi nuovi link.
Quella che ha più collegamenti è la HUB, nonché il fulcro della rete.
Anche i social media hanno una loro visione della comunicazione, infatti lo schema qui sotto cerca di
evidenziare, rispetto a due assi, una comunicazione che è permanente (1), rispetto ad una comunicazione
più effimera, volatile (2); una comunicazione One-To-One (3) rispetto ad una comunicazione One-To-Many
(4).
La comunicazione digitale si occupa anche di una struttura a grafo ridotto, dove suddivide la rete in tante
aree e ne fa una rappresentazione dove le parti cerchiate in giallo sono degli unici grandi nodi, e all’interno
di essi ci saranno tutti i documenti. Tutti i nodi hanno un qualcosa che li collega tra di loro e formano un unico
grande schema.
COMPONENTI SORGENTE (circa il 24%), cioè nodi che puntano alla componente gigante (ad es. i
pallini bianchi più vicini al cerchio, dove ci sono le freccette gialle che partono);
COMPONENTI POZZO (circa il 24%), cioè nodi raggiungibili dalla componente gigante (es. pallini
bianchi anche se lontani dal cerchio grande sono puntati dalle freccette gialle);
TENTACOLI, cioè link/collegamenti per sorgenti e pozzi che non passano però dalla componente
gigante;
PAGINE “REIETTE”, che sono in quella struttura ma non possono essere raggiunte dalla componente
gigante.
- Raccolgono i dati.
- Elaborano e catalogano i dati raccolti.
- Rilevano delle ridondanze, cioè se l’informazione è
duplicata.
- Rilevano la presenza di Spamming cioè se le
informazioni sono di poco valore o qualità.
- Reperiscono e analizzano le informazioni per il calcolo
del Ranking cioè per vedere ciò che è considerato più o
meno interessante, in funzione della ricerca e di chi lo
fa.
- Elaborano le risposte alle interrogazioni degli utenti.
COME CI RIESCONO?
Grazie ai SEO Search Engine Optimization = tutte le attività di ottimizzazione di contenuti comunicativi con
l’obiettivo di migliorare il posizionamento nei risultati organici dei motori di ricerca.
E come fanno a raccogliere i dati? Grazie ai Crawler. Un crawler (detto anche web
crawler, spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo
metodico e automatizzato, in genere per conto di un motore di ricerca. Nello specifico, un crawler è un tipo
di bot (programma o script che automatizza delle operazioni), che solitamente acquisisce una copia testuale
di tutti i documenti presenti in una o più pagine web creando un indice che ne permetta, successivamente,
la ricerca e la visualizzazione.
Un uso estremamente comune dei crawler viene effettuato sul Web; esso si basa su una lista di URL da
visitare fornita dal motore di ricerca (il quale, inizialmente, si basa a sua volta sugli indirizzi suggeriti dagli
utenti o su una lista precompilata dai programmatori stessi). Durante l'analisi di una URL, identifica tutti
i collegamenti ipertestuali presenti nel documento e li aggiunge alla lista di URL da visitare. Il processo può
essere concluso manualmente o dopo che un determinato numero di collegamenti è stato seguito.
Inoltre i crawler attivi su Internet hanno la facoltà di essere indirizzati da quanto indicato nel file "robots.txt"
posto nella root del sito. All'interno di questo file, è possibile indicare quali pagine non dovrebbero essere
analizzate. Il crawler ha la facoltà di seguire i consigli, ma non l'obbligo.
La funzione associa ad ogni pagina un numero reale che indica la RILEVANZA di quella pagina nel contesto di
quella query (interrogazione/ricerca).
ANALISI DEL CONTENUTO TESTUALE > ANALISI DELLA STRUTTURA DEI LINK
Analisi dei link importanza di una pagina è direttamente proporzionale al numero che la puntano
Se R1 è il Rank (rango) di una pagina (la sua importanza), la pagina trasmette l’importanza alle pagine che
punta, distribuisce il suo rango in maniera uniforme.
Evidenzia la parte relazionale della rete.
Vale a dire: se faccio una ricerca in medicina, è chiaro che
se a puntare la pagina di uno studioso x sono pagine di
altri studiosi, l’importanza di quest’ultimi si riflette anche sulla pagina puntata. Il Page Rank ha
continuamente migliorato il suo algoritmo di ricerca, proprio per:
- includere tutte quelle caratteristiche che la rete mette a disposizione
- evitare che le ricerche siano influenzate da fattori non strettamente connessi al contenuto della pagina
- non falsare le ricerche
NASCITA DI GOOGLE
Il termine Google, il è un’iperbole matematica con un errore ortografico, è stato ideato dal matematico
Edward Kasner nel 1938 1 googol = 1,0 x 10 alla 100
Per capire:
- 10 72 e 1087 stima delle particelle elementari dell’universo visibile
- 10123 partite a scacchi possibili
Googolplex = 10 alla googol
Nel settembre del 1998 ci fu un errore nella trascrizione di Googol in Google cosicché il 27 settembre 1998,
nacque ufficialmente il motore di ricerca Google.
- ricerca 2.0 ricerca in tempo reale
- Google trends in tempo reale vengono fornite le informazioni più ricercate
- social media marketing (SMM)
L’immagine a sinistra, contenuta in un libro di Eli Parisar, cerca di spiegare in modo semplificato, attraverso
delle “filter bubbles”, come si sviluppa la rete in pratica ogni persona è all’interno di una serie di bolle che
filtrano tutte le sue ricerche e filtrano il web. Queste bolle sono contenute dentro una bolla più grande (una
specie di “limite” o “confine”) che rappresenta i siti più frequentati, i quali si occupano di ricerca, vendite,
video, informazioni, etc.
Cosa significa occuparsi di REAL TIME e TREND? Vuol dire tenere conto che:
L’ultim’ora passa, sempre più spesso, prima sui social network, sulla rete e poi sulle testate
giornalistiche
L’importanza e il valore dei contenuti è dato dagli utenti stessi attraverso valutazioni dirette
Gli ambienti sociali come Facebook influenzano sempre di più il web e il suo funzionamento. La
rilevanza per il suo posizionamento dei contenuti viene fortemente influenzato dagli utenti
I risultati esprimono opinioni, giudizi e commenti (WEBsumer, colui che consuma ma produce e
influenza ciò che succede sulla rete.
Un’altra cosa che Google considera nella sua ricerca sono i GOOGLE SERP – COS’È UNA SERP?
In parole povere il SERP (Search Engine Results Page) cioè, come vengono mostrati i risultati mentre
l’UGC (User Generated Content) è come vengono analizzati i contenuti generati dagli utenti.
È stata creata grazie ai motori di ricerca la tabella periodica dei fattori di successo. I fattori SEO in grado di
influire sul posizionamento di un sito web possono essere schematicamente suddivisi in due macro-categorie
(dette AREE):
GOOGLE PENGUIN
Scopo: penalizzare i siti colpendo il Black Hat ovvero che usano link building ingannevoli per
posizionare un sito
Parametri: Scambio di link (A linka B e linka A), Guest posting (lasciare sul blog di qualcun altro un
nostro articolo firmato), Footer link (inserire link non naturale), Widget link (strategie per le quali si
distribuisce un pezzo di codice –widget—da mettere su altri siti; di solito questo codice viene inserito
all’interno di un blacklink), Categorie di sito (un sito di immobili linka un sito di gioielli può essere un
campanello di allarme poiché potrebbe essere un link innaturale (tematiche completamente
differenti)
GOOGLE HUMMINGBIRD: si basa sulla geolocalizzazione delle attività dell’utente ed è in grado di
fornire risposte dettagliate circoscritte anche rispetto ai posti che si cercano; cerca di intuire quali
sono le risposte precise richieste dall’utente senza prescindere dalla keyword ma considerando il
contesto.
RankBrain = nuovo sistema di machine learning che si basa sull’intelligenza artificiale e utilizzato per
elaborare ed ordinare i risultati di ricerca.
RankBrain = intelligenza artificiale + machine learning affinare i risultati delle SERP
Caratteristiche: algoritmo interpretativo, agisce in tempo reale, comprende le intenzioni di ricerca
dell’utente, indipendentemente dalle keyword usate dall’utente e utilizza relazioni semantiche per
valutare gli argomenti e non le parole chiave.
GOOGLE PINGEON
Algoritmo indirizzato alle imprese locali mostrare le più vicine – cresce l’importanza della posizione
geografica, così come la rilevanza delle pagine Google+ e Google My Business
Google lo chiama BROAD CORE ALGORITHM UPDATE, chiamato MEDIC UPDATE, perché ha colpito
tantissimi siti in ambito medico.
Le pagine colpite sono YMYL (Your Money, Your Life) è un termine per indicare le pagine che
potrebbero potenzialmente avere un impatto sulla felicità future, sulla salute, sulla stabilità
finanziaria o sulla sicurezza degli utenti. Google in parallelo ha aggiornato le linee Quality Rather
GOOGLE BERT è uno dei più grandi passi avanti della storia della ricerca, 21 ottobre 2019 Query in
lingua inglese e 9 dicembre 2019 diventa a livello globale.
BERT Bidirectional Encoder Rapresentation from Transformation, e si basa su:
- RETI NEURALI (algoritmi che si allenano su set di dati fino ad individuare e riconoscerne i modelli e
algoritmi di pattern recondition, per categorizzare il contenuto delle immagini, riconoscere la
scrittura a mano)
- ELABORAZIONE DEL LINGUAGGIO NATURALE (distinguere il contesto delle parole nella query).
BERT è una tecnica di preformazione per l’elaborazione del linguaggio naturale sviluppata da Google.
BERT è stato creato e pubblicato nel 2018 da Jacob devlin e dai suoi colleghi di Google.
L’obiettivo dei NPL e di consentire ai computer di comprendere il modo in cui gli esseri umani
comunicano con linguaggio naturale (in ogni lingua).
KEY WORDS:
La realtà virtuale è data da una composizione di quella che è la realtà + quello che è il virtuale.
Concetto esprimibile attraverso il concetto di emulazione della realtà. L’emulazione è una procedura con cui
un elaboratore riproduce in un sistema di elaborazione il funzionamento di un altro elaboratore di analoghe
o inferiori capacità tecniche.
La realtà virtuale diventa un’esperienza, generata con il computer, che avviene all’interno di un contesto
virtuale grazie alla capacità della tecnologia di simulare ambienti o realtà; al suo interno l’utente si sente
immerso in un contesto in cui può interagire o esplorare, muovendosi all’interno di essi.
Essa è una tecnologia emergente ed esponenziale, dove in realtà c’è un aumento rapido nel tempo di quelle
che sono le applicazioni, sia perché c’è uno sviluppo di device sia perché c’è un generale interesse al suo
sviluppo; le tecnologie artificiali sono molteplici: intelligenza artificiale, blockchain, stampa 3D,
nanotecnologie, robotica, biotecnologie, realtà aumentata, realtà virtuale, quantum computing.
LA STORIA DELLA RV
La storia della RV parte dagli anni ‘50 con il SENSORAMA, una macchina realizzata in
un solo prototipo nel 1962 da Marton Heilig per il suo “Experience Theater”, in
contemporanea alla produzione di 5 cortometraggi, che mostrarono le
caratteristiche della sua invenzione. Questa macchina era in grado di visualizzare
immagini stereo 3D (l'utente appoggiava il mento ed aveva il viso inserito in un cono
visivo), riconoscere l’inclinazione del corpo grazie a dei sensori tattili, ed attivare
vento, vibrazioni e addirittura aromi durante i film. Il costo eccessivo, e l'assenza di
finanziamenti da parte delle grandi case di produzione cinematografica statunitensi,
posero fine alla sperimentazione. [Video su Classroom]
A partire da questa prima intuizione arriviamo all’informatico Ivan Sutherland, il quale nel 1963 inventò il
software SKETCHPAD per cui riuscì a ricevere il premio Turing nel 1988.
Questo software fu la nascita del cosiddetto HMD (= Head Mounted
Display), progettato e studiato dall’Università dell’UTHA. Questa invenzione
consisteva in un casco che permetteva di simulare e far sì che i movimenti
della persona potessero essere riprodotti da un computer e dare un senso di
navigazione 3D.
Tale invenzione venne soprannominata Spada di Damocle, poiché era
talmente pesante che per poter essere utilizzata la si doveva appendere al
soffitto; inoltre muovendo la testa consentiva di vedere i lati di un cubo
wireframe (in 3D) – i movimenti della testa venivano inviati a computer che
generava la corretta prospettiva.
Andando avanti con la storia della RV, essa veniva stimolata dall’arte e
dall’interazione con oggetti teatrali. Ed è per questo che nel 1974 Myron
Krueger (ricercatore in “ambiti interattivi” e “interfacce uomo-
computer”) fondò un laboratorio di REALTÀ ARTIFICIALE chiamato
Videoplace (presentato nel 1975 al Milwaukee Art Center) Cosa si
intendeva per realtà artificiale? Si intendeva sollecitare la partecipazione
di un computer/digitalizzazione/tecnologia ad eventi reali, e questa
partecipazione doveva essere accettata come una partecipazione reale. La
realtà artificiale offre la possibilità di creare delle c.d. attività sintetiche, senza precedenti reali (cioè non c’è
più una ricostruzione di quello c’era già nella realtà, ma la riproduzione di oggetti che non ci sono nella realtà
realtà, appunto, sintetiche sia per carattere sia per tipologie).
Ricorda secondo certi aspetti la realtà virtuale ma la differenza sostanziale è che la realtà artificiale non vuole
riprodurre la realtà convenzionale, cioè rappresentare cose non esistono già nella realtà ma che magari
potrebbero essere realizzate.
Nel 1977 il MIT (Massachusetts Institute of Technology), sviluppa il suddetto ASPEN MOVIE MAP.
Quest’ultimo non è altro che una visita virtuale ad Aspen (in Colorado) in tre stagioni diverse, che permetteva
di mettere in chiave reale un sistema interattivo e ipermediale (
ipermedialità = l’unione di diversi miglia attraverso dei collegamenti
logici).
Qual furono le novità portate da Aspen Movie? Intento si faceva uso
della tecnologia Laserdisc (maturata poi per i DVD), più pulita nel
segnale e intenzione di una memoria più permanente; inoltre, si
avvale di un DataBase e in seguito di metadati per correlare immagini
e informazioni, descrivendo la realtà in un modo semantico Questo ultimo
punto va a sottolineare le parole chiavi che si intendevano raggiungere con Aspen
Movie Map: Iperattività e collegamenti, collegamenti che poi la rete avrebbe ripreso
con il concetto di collegamento di tipo semantico (quindi archivi che diventano
DataBase, i quali non solo memorizzano dati ma anche le relazioni tra dati per fornire informazioni, per
fornire poi relazioni tra le informazioni, per fornire infine conoscenza). Quindi non c’è differenza tra questa
RV e la rete, cambia la rappresentazione ma la struttura è sempre quella: Elementi Relazioni Elementi
che permettono un’interattività Elementi che diventano ipermediali, perché gli stessi media diventano
fungono da “porta” per poter navigare tra media diversi (ad es. immagini che rimandano ad un testo, un testo
che rimanda ad un’immagine)
Nel 1982 si arriva al CYBERSPAZIO con William Ford Gibson, scrittore di fantascienza, che per la prima volta
parla di Cyberspazio in contrapposizione al Livespace (il Meatspace) e
nel 1989 Jaron Lanier, sviluppatore e fondatore della VPL Research,
inizia a parlare di Realtà Virtuale, definendola come una tecnologia
usata per sintetizzare una realtà condivisa. Essa ricrea la nostra
relazione con il mondo fisico in un nuovo piano. Non influisce sul mondo
soggettivo e non ha niente a che fare con ciò che è nel cervello bensì,
solo con cosa i nostri organi sensoriali percepiscono.
La realtà virtuale ha una serie di parole chiave che la richiama:
da un lato tiene conto:
- Dell’UTENTE(rapporto utente-macchina)
- Dei SENSI,
- Dell’AMBIENTE,
- Del COMPUTER o delle PERIFERICHE usate per la realtà virtuale;
…dall’altra parte si occupa di:
- SIMULAZIONE
- INTERAZIONE,
- IMMERSIONE,
- PRESENZA.
Una crescente è il livello di partecipazione che va dalla simulazione fino alla presenza.
La Simulazione diviene il modello della realtà al fine di prevedere e valutare il susseguirsi di eventi
conseguenti alla definizione di condizioni “a contorno” da parte dell’analista, in altre parole la Simulazione
porta a progettare dei modelli che siano in grado di poter prevedere le possibili risposte che accadono
rispetto alle possibili interazioni, cioè tutte le possibili relazioni causa effetto.
Altra parola chiave è l’Interazione, nonché le modalità e le possibilità con cui l’utente può o intende
modificare l’ambiente o il sistema. Sistema che non è costante ma risponde in funzione degli input
dell’utente. Introduce problematiche di gestione e relazione temporale tra gli eventi.
Simulazione + Interazione mi dà una misura del Grado di REALISMO della mia realtà virtuale.
Altra parola chiave è l’immersione, una metodologia e tecnologie (interfacce e devices) che permettono una
percezione sensoriale dell’ambiente virtuale. L’Immersione misura il grado di PERCEZIONE, di come io
percepisco questa realtà virtuale.
Strettamente legato all’immersione è la Presenza cioè la sensazione e la capacità mentale di essere all’interno
di uno spazio virtuale (analogamente a Libri e Film) Per questo misura il grado di COINVOLGIMENTO
dell’Utente, cioè quanto questa realtà virtuale/gioco riesce a trasportare, ad immergere l’utente in questo
mondo (proprio quello che succede quando un libro piace particolarmente).
DALLA REALTÀ VIRTUALE HANNO TRATTO ORIGINE LA REALTÀ AUMENTATA E LA REALTÀ MISTA.
Il tutto si è sviluppato principalmente dal 2009, quando si sono diffusi i primi smartphone Windows Phone,
Android e iPhone.
Per REALTÀ AUMENTATA (Augmented Reality AR), o realtà mediata dall'elaboratore, si intende
l'arricchimento della percezione sensoriale umana mediante informazioni, in genere manipolate e
convogliate elettronicamente, che non sarebbero percepibili con i cinque sensi.
Realtà Aumentata su computer. È basata sull'uso di marcatori, di disegni stilizzati in bianco e nero
che vengono mostrati alla webcam, vengono riconosciuti dal computer, e ai quali vengono
sovrapposti in tempo reale i contenuti multimediali: video, audio, oggetti 3D.
Dall’unione della REALTÀ VIRTUALE e REALTÀ AUMENTATA nasce la REALTÀ MISTA (/IBRIDA).
La Realtà Mista è qualunque tecnologia che unisce elementi reali con elementi virtuali (es. cellulare che
proietta un’ immagine virtuale su un tavolo).
“Reality-Virtuality continuum” teorizzato in contemporanea da Milgram e Kishino mostra come ci sia uno
spettro di tecnologie che va dalla pura realtà reale alla pura realtà virtuale.
KEY WORDS:
concetto di Emulazione riproduzione della realtà, non
solo fisica ma anche logica.
concetto di Simulazione modellazione della realtà.
concetto di Interazionerealtà, tecnologie, utenti,
sistemi e informazioni.
Lezione 5 – grafica & interattività, cognetica,
User Experience
GRAFICA E INTERATTIVITÀ sono caratteri della rete, strettamente legati alle modalità con cui la rete si
presenta e con cui interagisce con gli utenti. In particolare, importante è il concetto di MULTIMEDIALITÀ, la
quale va vista sia tecnicamente (e questo vuol dire la compresenza e la pluralità di diversificate risorse
tecnologiche) sia con un approccio semiotico* (cioè la compresenza di più
canali comunicativi, dove la predominanza è nel canale visivo).
[*semiotica, scienza generale dei segni, comprendente le tre branche:
pragmatica, semantica, sintattica]
Quando parliamo di rete parliamo sempre di interattività che deve
accogliere in sé e fare sintesi di quella che è l’ipermedialità (gestione di
diversi media che fanno l’uno strumento di accesso all’altro), di quella che è
la grafica (rappresentazione che è una simbologia, legata alla struttura delle
icone, tipica modalità di comunicazione della rete che cerca anche di
svincolarsi da un linguaggio naturale laddove è diventato un sistema
globale, laddove è più facile ragionare con un agrafica o simbologia
significativa ancor prima con un linguaggio naturale che non è comune a
tutti). Oltre a questo, avremo il concetto di COGNETICA, quella branca che
ci permetterà di analizzare e comprendere quali sono i meccanismi di
interazione di un uomo con gli artefatti, con l’informazione, con la struttura.
Con grafica intendiamo quindi una rappresentazione che non è solo
immagine, non è solo decorativa ma è significativa.
Cos’è importante quando definisco le tecnologie? Sapere quando e come gestiscono le persone o comunque
come il cervello gestisce le situazioni. Altra cosa Importante è sapere che è sempre possibile passare
dall’Inconscio al conscio, ma che non è possibile passare dal Conscio all’Inconscio (cioè, non si può dire
“adesso non ci faccio caso”/”adesso non me lo ricordo più”).
Tra il Conscio e l’inconscio c’è sempre un unico Focus dell’attenzione; il Focus non è completamente sotto il
nostro controllo (se sto facendo qualcosa ma sento un rumore la nostra mente si focalizza su tale rumore).
Per focus intendiamo sia un oggetto fisico che un’idea, ma rimane sempre uno solo.
Questo porta a ragionare sul fatto che quando qualcuno va a progettare o ragionare sugli strumenti di
informatica, deve ragionare sulla USER EXPERIENCE, cioè centrare sull’utente così come fa la rete.
Nella creazione di una nuova interfaccia si parla perciò di:
User Experience (bisogna analizzare il background dell’utente, sia a livello informatico che non)
Design (come strutturare gli strumenti dal punto di vista della grafica, della cognetica, dell’ergomia),
Processo del Designer (andare a gestire le esperienze per fornire design sempre più adatti)
per arrivare all’User-Centered Design (così come nel web 2.0)
Cioè l’UE è la somma di tutto ciò che succede tra l’interazione, l’utente e
un prodotto (di qualsiasi genere. Tutte le volte che succede qualcosa viene
sommato e questa è la sua user experience).
Con tutti questi principi Peter Morville fa un’Architettura
dell’informazione e dice che quelle nella prima foto sono le caratteristiche
che l’UE deve in qualche modo soddisfare: deve essere utile valutabile,
credibile, accessibile, desiderabile, usabile e trovabile (intesa come
semanticamente definita).
Tutto ciò ha prodotto per quanto riguarda il concetto di Design questo schema
a due assi (tempo e completamento dell’opera) che partono dal concetto più
astratto al più concreto.
In esso c’è:
LA RICERCA SULL’UTENTE (capire le sue esperienze e le sue modalità di
approccio con la cognetica);
L’ANALISI DELL’USABILITÀ;
L’ARCHITETTURA DELL’INFORMAZIONE (tutti quei concetti visti sopra);
L’INTERACTION DESIGN (come progettare e facilitare l’interazione a livello di
design), che porta a
L’USER INTERFACE DESIGN;
VISUAL/GRAPHIC DEISGN, per tutti i motivi che abbiamo visto finora.
Tutto questo produce uno schema che pone l’User Interface Design al
centro come intersezione tra gli elementi precedentemente citati
(architettura, interaction...) Si può parlare di artefatti emotivi
La USER EXPERIENCE (in breve UX) si occupa di come una persona si
prova nell'utilizzo di un sistema (artefatto). La UX mette in evidenza la
dimensione esperienziale, affettiva, gli aspetti significativi e di valore di
una interazione uomo-computer (HCI) e proprietà del prodotto, ma si
occupa anche delle percezioni di una persona degli aspetti pratici come
l'utilità, la facilità d'uso e l'efficienza del sistema. L'esperienza
dell'utente è di natura soggettiva, ed è dinamica, perché cambia nel
tempo e con il cambiamento delle circostanze.
KEY WORDS:
GRAFICA = comunicazione, come veicolo di sensi
COGNETICA = tecnologia e interazione uomo-artefatto
USER= utenti come Central e Interaction Design.
Lezione 6 – Usabilità e accessibilità, Interaction design e Test
di usabilità
L’usabilità e l’accessibilità sono concetti che abbracciano molte branche della vita quotidiana (dalla facilità
per accedere a un ufficio o a casa, tutto deve essere strutturato così da permettere all’utente un uso semplice
ed immediato degli strumenti tecnologici che ha davanti).
Usabilità e accessibilità ragionano sempre nell’ottica di capire quali possono essere i limiti che l’informatica
produce e rispettive soluzioni, non tanto i motivi.
USABILITÀ: «Efficacia, efficienza e soddisfazione con i quali gli utenti raggiungono determinati
obiettivi in determinati ambienti.» ( Tale definizione è stata fatta dalla ISO - International Standard
Organization – che nella sua nota 9241, parla di Ergonomic requirements for office work with visual
display).
L’usabilità negli anni ’60 era legata al concetto di ERGONOMIA: “scienza che si occupa dell'interazione tra gli
elementi di un sistema (umani e d'altro tipo) e la funzione per cui vengono progettati, per migliorare la
soddisfazione e le prestazioni del sistema” (def. Della IEA – International Economics Association).
ACCESSIBILITÀ: Per definirla ci si rifà al Glossario W3C (World Wide Web Consortium) del 1999:
«L'abilità di garantire che dei servizi (come, per esempio, l'accesso al Web) siano disponibili per le
persone nella misura più ampia possibile, indipendentemente da se abbiano o no delle menomazioni,
di qualsiasi natura esse siano.»
Naturalmente questo ha prodotto per l’accessibilità una specifica, il WAI (Web Accessibility Initiative)
progetto il quale cerca di migliorare l'accessibilità del World Wide Web alle persone disabili. Il WAI
ha generato il WCAI (Web Content Accessibility Initiative). Il WCAI ha rilasciato a più riprese una serie
di documenti contenenti principi e linee guida cui attenersi per realizzare contenuti web che siano
accessibili al maggior numero di persone possibili.
Tutto questo, specie il concetto di usabilità, ha portato a sviluppare tutta l’area dell’Interaction design,
la progettazione guidata dal processo di interazione tra essere umano e sistemi informatici e meccanici.
Disciplina sviluppata nell’ambito della ricerca della HIC (Human Computer Interaction). Si pone quindi
l’obiettivo di formalizzare sistemi e regole, per una progettazione di sistemi informatici (e meccanici) tra un
essere umano, considerandoli interazione.
L’Interaction Design è una forma di progettazione di interfacce (interactive) che rendono visibili artefatti e
macchine alle persone per cui sono state pensate.
• codice semanticamente CORRETTO (in ogni tipo di informazione esiste una descrizione del significato),
LOGICO (con un protocollo convalidato che lo rende comune a tutte le persone che hanno o che possono
avere un approccio) e VALIDATO.
• testi chiari, fluenti e facilmente comprensibili
• disposizione coerente e lineare dei contenuti e dell'interfaccia grafica
Come possiamo ragionare sull’Interaction Design? Seguiamo il modello di Donald Norman (1986), dove va a
schematizzare il rapporto tra un sistema e un utente (questo modello verrà poi utilizzato dal web quando
verrà creato 6 anni dopo). In questo modello ci sono 7 “passi”:
L’Usabilità quindi si occupa di determinati obiettivi in determinati ambienti + accesso a informazioni e servizi
con l’uso di diverse interfacce interattive. Essa ragiona di:
EFFICACIA: livello di raggiungimento dell’obiettivo -- Efficace se permette il raggiungimento
dell’obiettivo. Il livello di efficacia è misurabile nel numero medio di operazioni svolte nella direzione
dell’obiettivo.
L’efficacia è il rispetto delle specifiche dell’output, nel posto, nel tempo e nei miei modi concordati
+ il rapporto tra i risultati ottenuti e gli obiettivi raggiunti.
EFFICIENZA: qualità di lavoro (sforzo, risparmio economico, di tempo, …) per il raggiungimento
dell’obiettivo -- Efficienza = (livello di efficacia) / (utilizzo di risorse). Il livello di efficienza è misurabile
in termini tempo ed errori commessi per raggiungere lo scopo o numero di errori in un tempo
determinato per raggiugere lo scopo (carico mentale).
L’efficienza significa fare le cose nel miglior modo possibile; è la relazione input-output, cioè il
rapporto tra le risorse consumate (input) e i risultati ottenuti (output). È un indice di rendimento e/o
di produttività, in quanto è una misura di processo.
SODDISFAZIONE (qualità): livello di utilità e confort percepita dagli utenti. -- Difficile misurabilità
(soggettivo) ma fondamentale nella percezione dell’usabilità.
La soddisfazione è la corrispondenza o eccesso rispetto alle aspettative dell’utente.
I TEST sono sia di Usabilità che di Accessibilità. Presentano però importanti differenze: se per
l’usabilità abbiamo sia Test Ispettivi
(Usability Inspection: dare in mano a degli
esperti il sistema, quindi loro analizzano il
sistema nelle loro varie forme) sia Test
Empirici (Usability Inquire: si dà ad un
utente finale il sistema e si osserva ciò che
lui fa in termini di azioni, valutazione di
problemi, etc ).
Interessante per questo metodo l'uso di una analisi basata su scenari, “storie d’uso”, per quanto riguarda
i contenuti. [ci sono test di usabilità e accessibilità tra i materiali della Classroom]
Molto spesso in questo contesto di analisi si usano le EURISTICHE (Euristica = parte di una scienza che ha per
oggetto la scoperta di fatti o di verità. Nell'ambito di una scienza, la metodologia di ricerca di fatti o verità,
ovvero di fonti e documenti, preliminare allo studio specifico).
2. CORRISPONDENZA TRA SISTEMA E MONDO REALE. Il sistema deve parlare il linguaggio dell’utente, con
parole, frasi e concetti a lui familiari.
Uso di messaggi testuali, icone, azioni dal significato condiviso da tutti (“salva con nome”, icona
“cestino”, azione “copia e incolla”)
Garantire l’associazione tra oggetti e informazione
3. CONTROLLO E LIBERTÀ. L’utente deve avere il controllo del contenuto informativo e muoversi
liberamente tra i vari argomenti.
4. CONSISTENZA E STANDARD L’utente deve aspettarsi che le convenzioni del sistema siano valide per tutta
l’interfaccia.
Riportare in ogni pagina alcuni elementi di riconoscimento (logo, stile, grafico, etc.)
Dare la sensazione di essere sempre nello stesso ambiente
5. PREVENZIONE DELL’ERRORE Evitare di porre l’utente in situazione ambigue, critiche e che possono
portare all’errore.
6. RICONOSCIMENTO ANZICHÉ RICORDO. Le istruzioni per l’uso del sistema devono essere ben visibili e
facilmente recuperabili.
7. FLESSIBILITÀ D’USO Offrire all’utente la possibilità di un uso differenziale (a seconda della sua
esperienza) dell’interfaccia.
KEY WORDS:
USABILITÀ: Efficacia, efficienza e soddisfazione
ACCESSIBILITÀ: Codice semanticamente corretto, logico
e valutativo
USER INTERACTION: Interazione Uomo-Artefatto