Sei sulla pagina 1di 31

FONDAMENTI DI INFORMATICA

Lezione 1 - La comunicazione digitale, Web da medium a


format, Rete e semantica un format comunicativo
Il termine tecnologia deriva dal greco “Tèchnè”, letteralmente “arte” e “logòs” ossia “trattato”. L’informatica
( INFOrmazione autoMATICA) porta a sua volta a due concetti: relazione (serie di dati) e struttura
(contenitore dei dati – es-DataBase). I dati nel loro insieme creano informazioni, le informazioni a loro volta
creano la conoscenza e quest’ultima a sua volta, cultura.

Nel 1949 due ingegneri Shannon e Weaver, istituiscono un modello di comunicazione ove il 1° elemento è
l’informazione di partenza cioè un messaggio, il quale è stato generato da una fonte di informazione che
naturalmente è preparato per un trasmittente, il quale si occupa di codificare e inviare un segnale tramite un
canale (ad es. un cavo) soggetto a dei rumori (noises). A questo punto c’è bisogno dell'aiuto di un ricevitore,
che decodifica il segnale per poi mandarlo definitivamente al destinatario di informazione con la possibilità
di un feedback.

Il WEB è stato inventato da T. Berners-Lee il quale afferma: “è più un’innovazione sociale che tecnica. L’ho
progettato perché aiutasse le persone a collaborare e non come giocattolo tecnologico…”

La rete ha nel tempo subito delle metamorfosi:

 inizialmente la denominarono MEDIUM, nonché un mezzo con cui venivano trasportate le


informazioni da un’area all’altra
 poi divenne un LUOGO, dove le informazioni vengono create e condivise
 infine, divenne un FORMAT, la rete attraverso la quale le persone comunicano tra loro grazie ad un
concetto reticolare (= rete di comunicazioni e di relazioni).

Grazie poi all’invenzione dell’ipertesto, si introduce l’idea che all’interno dei dati/documenti si possa navigare
(all’interno della comunicazione) non solo in maniera lineare ma trasversale. Il Web diventa quindi una vera
e propria evoluzione della comunicazione, un nuovo luogo dove la comunicazione diventa
BI/MULTIDIREZIONALE e non più monodirezionale (passando dal web 1.0 al 2.0).
Le “ere” del web:

PC ERA (1980-1990)  l’informatica è legata alla gestione funzionale di dati, di singoli utenti (ad es. desktop)

Il WEB 1.0 → Chiamato anche read only web, questo web si è sviluppato e diffuso fino agli anni 2000. È un
medium, perciò permette di navigare e visualizzare solo documenti ipertestuali statici (ad es. HTML),
aggiornati poco frequentemente. Si sviluppa su un’organizzazione Directory, cioè ha un approccio ai
contenuti tassonomico (tassonomia = classificazione gerarchica di concetti), rigido.
Il WEB1.5 → È un luogo, permette di navigare e visualizzare documenti ipertestuali dinamici (ad es.
DataBase, archivio di dati strutturato in modo da razionalizzare la gestione e l'aggiornamento delle
informazioni e da permettere lo svolgimento di ricerche complesse. Content Management System, sistema
che gestisce i contenuti dei siti. Computing Classification System, schema di classificazione utilizzato per le
pubblicazioni e il calcolo automatico. Linguaggi di SCRIPT, permettono di aggiungere funzionalità interattive
alle pagine).

WEB 2.0→ Chiamato anche read & write web, il web 2.0 un format, in cui i siti diventano contenitori di servizi
e applicazioni (Hardware, componente fisica del computer e Software, insieme dei programmi del
computer). Si entra quindi nella fase interattiva del web: ciò comporta un sistema di Tagging (= marcatura),
diventato famoso e condiviso grazie all’arrivo dei social network. Essa è una modalità di condivisione,
collaborazione e interazioni tra utenti, piattaforme e tecnologie (tutto è a disposizione di tutti). Questa
modalità viene sviluppata attraverso una folksonomia che associa alle informazioni le descrizioni che gli
utenti attribuiscono alle informazioni stesse.
Avviene la connessione tra le persone attraverso la definizione di contenuti/linguaggi (ad es. XML, il
documento viene descritto e poi scritto nella sua struttura così che le macchine possano comprendere e
distribuire il tutto in modo logico).

PRINCIPALE DIFFERENZA WEB 1.5 E 2.0


Differenze tra web 1.5 e 2.0: Nel WEB 1.5 la condivisione è frutto di una pubblicazione di documenti, ma
sempre in modalità monodirezionale (dal server al client). Dal WEB 2.0 c'è una bidirezionalità che
evidenzia la figura del prosumer (produttore e consumatore di informazioni). I documenti dinamici sono
documenti costruiti da applicazioni e data base. Si può immaginare la home page di un giornale (anche
wiki è un possibile esempio).

WEB 3.0  A partire dal 2006 lo sviluppo dei linguaggi, porta al Web 3.0 l’aggiunta del nome execute al read
& write. Il read, write & execute web trova spazio alle tecnologie IA-BASED (intelligenza artificiale), software
in grado di interagire con i visitatori. È un Web semantico, cioè un ambiente virtuale dove le informazioni e i
dati sono collegati tra loro e organizzati per essere elaborati automaticamente (le macchine leggono i
contenuti e li interpretano), permettendo di costruire una struttura dati condivisa e immutabile (i nuovi dati
non cancelleranno quelli precedenti così da creare uno storico di informazioni vastissimo). È un Web
Geospatial, si connette con il sistema georeferenziato e il 3D. Il mondo delle informazioni e quello fisico sono
fondamentali per distribuire e comprendere le informazioni.
Altre caratteristiche:

 Blockchain distribuita, cioè:

 struttura dati condivisa e immutabile

 Uso della crittografia (integrità)

 Supporta un linguaggio turing completo

 Web potenziato: Web come canale di comunicazione che influenza la realtà più di qualsiasi altro media
prima d’ora, vi è una relazione continua.

 Fusione dei Poli: inizialmente vi erano due poli distinti, il Web e l’Utente, con l’affermarsi poi delle varie
evoluzioni tecnologiche si sono fusi in un processo di co-creazione continua;

 Web come un database: inteso come Rete  una specie di enorme contenitore (database) ricco di
informazioni facilmente reperibili e distribuibili (non più archivio ma database).

WEB 4.0 o METAWEB  Vi è una connessione tra i sistemi di comprensione muniti di agenti intelligenti che
cercheranno informazioni rispetto a quelli che sono gli interessi dichiarati degli utenti, ma anche quegli
interessi che vengono evinti dalla navigazione e dai contenuti dentro e fuori dal web.

Il web 4.0:

- userà la REALTÀ AUMENTATA, vicinissimo e in relazione alla realtà che ci


circonda;

- sfrutterà i suddetti BIG DATA, svilupperà la consapevolezza che i dati sono


in veloce inquisizione, provenienti da fonti diverse e in modi diversi.

- Avrà il suo ALTERERGO DIGITALE, cioè gestirà delle specie di Avatar (non
quelli del film) che vivono sulla rete come se fossero noi per cercare le
informazioni che ci servono quando ci connettiamo.

KEY WORDS:

 STRUTTURA  dati e relazioni


 FORMAT COMUNICATIVO informatica che viaggia
 INFORMAZIONE E SICUREZZA dall’archivio al database all’ambiente (4.0)
 CONOSCENZA insieme di tutto
Lezione 2 – Strumenti del web semantico (Web 2.0)

+ storia e struttura dell’ipertesto

Il WEB 2.0 rappresenta una svolta semantica, dove l’utente è al centro della struttura e che sin dalla sua
nascita vede dividersi due diverse correnti di pensiero:

 Da un lato viene visto come un nuovo modo di intendere la rete: pone al centro i contenuti, le
informazioni, l’interazione.
 Dall’altro non gli viene attribuito nessun vero significato (ogni nuova tecnologia stimolava le persone
a dire che il web era cambiato, per far sì di affermare le loro nuove scoperte).

Tali pensieri sono stati sviluppati da due studiosi:

 da un lato il web 2.0 “radicalmente diverso” è un’affermazione di Tim O’ Reilly


 dall’altro il “nessun vero web 2.0” cambiamento è un’affermazione di Tim Berners-Lee (inventore
del web)

Il web semantico ha una visione USER-CENTRED, cioè si sposta l'attenzione dal produttore al fruitore, che
diventerà a sua volta un creatore di contenuti. Il web mette al centro l’utente in modalità bi/multidirezionale
e non più uni-direzionale, dove tutti comunicano con tutti e possono produrre contenuti, aumentandone così
il valore.

Esempi di web semantici  Intelligence Collective di Pierre Lèvy, Global Brain di Howard
Bloom, Smart Mobs di Horward Rheingold.

Il web semantico in rapporto alla comunicazione è ben descritto da quelle che vengono chiamate le “4c”:

 Creatività: gli utenti diventano creatori di contenuti/collegamenti anche solo con la loro
partecipazione  diventano ciò che viene chiamato PROSUMER ( PROducer & conSUMER).
 Intelligenza collettiva: la rete permette di sviluppare questo concetto che era stato teorizzato molto
tempo prima, per la prima volta negli anni ‘90. Come afferma George Pór in The Quest for Cognitive
Intelligence (1995), essa è “la capacità di una comunità umana di evolvere verso una capacità
superiore di risolvere problemi, di pensiero e di integrazione attraverso la collaborazione e
l’innovazione”.

 Client side: la gestione della rete è per mano dei clienti, il ché crea la possibilità di realizzare infiniti
contenuti.
 Copyright & Copyleft: non è solo il diritto di poter scrivere ma anche quello di copiare il materiale
letto per produrre nuovi contenuti (“Software libero”).

Diventa fondamentale la differenza tra Copyright e Copyleft:

- RIGHT: è il diritto di/per copiare un’idea. Chiunque ne volesse usufruire deve farsi pagare/deve
pagare una somma di denaro.
- LEFT: Il copyleft (left nel senso di “lasciato”) è un metodo generico per rendere un programma (o
altro lavoro) libero ed imporre che tutte le modifiche e versioni estese del programma siano
anch'esse software libero.
Il copyleft viene sviluppato attraverso la GNU LGPL (Lesser General Public License), nonché un
sistema secondo cui non tutti possono copiare senza citare la fonte ma regolamentando la possibilità
che in rete si possono riutilizzare/modificare/cambiare oggetti fatti da altri.

Un web 2.0 è un insieme di nodi che comunicano tra loro e possono essere di tre tipi:
un utente, un’applicazione o la loro fusione quindi un utente e un’applicazione insieme.

Il Web semantico mette a disposizione degli strumenti (applicazioni), i quali sono: wiki, blog, podcast e
vodcast, social network, folksosnomie.

WIKI  tutti lo associano a Wikipedia, anche se quest’ultimo è solo uno dei tanti wiki. Un Wiki è un sito Web
composto da un insieme di documenti ipertestuali dove gli utenti hanno la possibilità di inserire e modificare
i contenuti attraverso link definiti in Camel Case.

I Camel case sono parole che vengono identificate da una sintassi con un’iniziale maiuscola/minuscola, non
sono link già esistenti ma sono richieste di andare a cercare in tutto l’ambito del sito Wikipedia, se esistono
delle voci che possono essere paragonate alla richiesta. Ciò produce delle pagine nuove se l’oggetto c’è,
oppure un link se l’oggetto non c’è. (wiki significa rapido, veloce).

BLOG  Abbreviazione di “Web Log”(= lasciare traccia in rete), il Blog nasce nel 1997 (in Italia nel 2001) negli
Stati Uniiti da un’idea di Jorn Barger, come uno strumento grazie al quale le persone possono usare il web
per dire la propria (un es. di passaggio da medium a luogo a format). Possiamo considerare il blog come il
“genitore” dei social network, poiché agevola il concetto di community, vale a dire un gruppo di persone che
si riunisce per creare contenuti. È fortemente strutturato, non è un sito generico ma una struttura specifica
per una funzione specifica, in modo da lasciare tracce in rete, connettersi con gli altri, di produrre della
comunicazione/ delle informazioni attraverso documenti e relazioni tra di essi. Non a caso tutti i blog sono
caratterizzati da elementi fissi:

o POST, unità di contenuto logicamente autoconsistente non fatta in chiave generica ma con
data, testo, titolo e link
o PERMALINK, ponti tra i diversi blog. Ogni post ha un URL (Uniform Resos Locator) ossia una
sequenza di caratteri che identifica inequivocabilmente la posizione di una risorsa in internet.
Se il post viene cancellato, il link di quest’ultimo non viene attribuito a nessun altro link (ad
es. se uno carica un video su YouTube e poi viene cancellato, quel file non lo troverà più).
Questo è un fattore molto importante per la gestione dei contenuti, perché evidenzia come
il tutto sia molto flessibile.
o COMMENTI, i protagonisti sono lettori e autori.
o TRACKBACK, sistema che permette di segnalare se altri blog fanno commenti remoti al blog
stesso o a qualche post.
o REFFERS, la possibilità di aggregare i contenuti, cioè si possono archiviare i contenuti secondo
chiave di significato, non si modificano i link ma li mette in una modalità di navigazione più
semplice.
o MONITOR del TRAFFICO in ENTRATA, ogni blog è in grado di sapere e chi linka, quindi chi fa
collegamenti. Ciò crea la cosiddetta “blogosfera” o “infosfera”, siamo una società
estremamente liquida e che vive l’informazione.

 PODCAST & VODCAST  Il dizionario americano New Oxford nel 2005 definisce il Podcasting una
“registrazione digitale di una trasmissione radiofonica o simili, resa disponibile su internet con lo scopo di
permettere il download su riproduttori audio personali”.
Il podcast è un neologismo, per tanto comporta iPod e Broadcasting, quest’ultimo è l'idea che la
comunicazione, i documenti vanno costruiti e trasmessi senza vincolarli allo strumento finale che
li fruirà. Quindi la rete nella sua diversità di device che incontra, si pone l’idea di strutturare le
informazioni in modo che ogni device è in grado di ricomporre questa informazione, farla fruire
nella modalità e con la forma tipica del device di fruizione.
Vale a dire:
1. arriva un messaggio
2. un device ne comprende la struttura
3. un device di carattere testuale, lo trascrive
4. un device di carattere audiovisivo, lo trasforma in voce e lo collega a delle immagini.

In parole povere è uno scambio di files audio tra diversi sistemi digitali o anche una trasmissione di
informazioni di un sistema trasmettente ad un insieme di sistemi riceventi, non definito a priori.
Il vodcast/vodcasting è lo scambio di files video. Il videocast ovvero video on demand, fa
crescere il concetto degli RSS o RDF (RDF Site Summary anche Really Simple Syndication o
Rich Site Summary), un formato per la distribuzione di contenuti a cui vengono associate
delle descrizioni semantiche (chi li ha prodotti, di che argomento trattano, la data
ecc.…tutto ciò che serve ad inquadrare il significato di quel video).

 SOCIAL NETWORK consiste in un qualsiasi gruppo di individui connessi tra loro da diversi legami sociali.
Per gli esseri umani i legami vanno dalla conoscenza casuale, ai rapporti di lavoro, ai vincoli familiari;

 FOLKSONOMIE  contrapposto al concetto di Tassonomia (regole e criteri predefiniti), la folksonomia


tende al concetto di folk +tassonomia (= generata dal popolo) generata da coloro che hanno letto quel
documento o letto quel sito e che possono aggiungere una parola chiave che li vada a definire
logicamente (ad es. #). È funzionale alla condivisione e all’organizzazione dei contenuti.

All’interno delle folksonomie c’è assenza di gerarchia e di controllo di autorità, cioè non ci sono set
predefiniti e c’è libertà nell’uso dei tag. Le parole chiave sono infatti COLLABORAZIONE, DISTRIBUZIONE
E CONDIVISIONE. La tassonomia segue una struttura gerarchica, mentre la folksonomia può variare.

I set e i tag sono definiti dagli utenti e non sono predefiniti, il ché crea il problema dell’ “Information
Retrieval”, cioè nel recupero delle informazioni.

Concetto di Folksonomia fondato da Thomas Vander Wal.

Gestisce il Thesaurus, il lessico di un certo ambiente di informazione:

- BROAD (dal più macro al più specifico. Ad es. Delicious aggregatore e distributore di link -
Pinterest è un aggregatore di immagini significative);
- NARROW ( dal più concreto al più ampio. Ad es. Flickr, distributore di foto, le quali vengono
taggate secondo un thesaurus preciso perché ci sono delle caratterizzazioni condivise che
identificano una foto – il panorama piuttosto che il ritratto, il bianco e nero anziché il colore ecc..
). Tutto ciò serve per gestire la risorsa. (Ad ogni modo, a prescindere che sia Broad o Narrow, il
documento identifica una risorsa.)

La Folksonomia permette di gestire la centralità dei tag (le etichette diventano centrali) il ché permette la
condivisione di informazioni tra utenti, la mappa di un profilo utente, la relazione tra i tag, la mappa dei tag
in rete, e l’andamento semantico della rete.

Esistono dei generatori di TAGCLOUDS, i quali permettono di prendere un testo e rappresentarlo in modo
grafico rispetto alle parole più importanti e la loro relazione di distanza/vicinanza logica. Permette tutto una
serie di elaborazioni molto interessanti e potenti per rendere la ricerca di conoscenza (= la comunicazione)
più efficace e preciso. (guarda slides del prof per degli schemi)

L’ IPERTESTO è la storia di un metodo di strutturazione del sapere, la sua definizione è insita


all’apprendimento della conoscenza e del sapere, un sapere che non è mai sequenziale ma reticolato.
L’ipertesto è un testo che può essere navigato in modalità trasversale, un modello per i sistemi di rete e web
vede nei documenti i nodi. I collegamenti avvengono con parole, immagini e tutti quei sistemi logici che
permettono di rappresentare una navigazione logica di quel documento, il quale è inteso come una serie di
elementi che lo vanno a comporre e che possono essere navigati secondo diverse logiche.
LA STORIA DELL’IPERTESTO
La storia dell’ipertesto va veramente indietro nel tempo, partendo da Agostino Ramelli, un ingegnere del
1500 che costruiva macchine da guerra. Nel 1531, nel suo libro “Le diverse ed artificiose macchine”, oltre a
descrivere tutte le macchine da difesa e da attacco che ha prodotto, parla di una sua nuova invenzione, la
ruota dei libri (Bookwheel), che rimase di fatto sconosciuta poiché prodotta in pochissimi esemplari.

Essa consiste in una ruota con una serie di supporti, ognuno dei quali contiene
un libro e una sorta di meccanismi a pedali che fungono da segnalibro e che
aprono il libro ad una certa pagina. Quale miglior rappresentazione tecnica di
quelli che sono i documenti, siti e link e come la pedalata e il movimento della
pagina, quella che è la navigazione della rete. Ciò permetteva a chi metteva
questi segnalibri, non solo di fornire una serie di documenti ma anche di
correlazioni, data da uno spostamento e da un'apertura di un segnalibro che
era stato messo in origine da chi, quel cammino ha progettato. Di conseguenza
c’è una sorta di posizionamento del sapere che è ineludibile  Questa ruota,
questo meccanismo era comunque riuscito ad automatizzare un processo
logico, in cui i collegamenti sono automatizzati e non figli di una deduzione o
comprensione di uno studente o di chi legge ( aveva quella che sarebbe stata
poi definita una struttura topologica che diventa logica).

La storia dell’ipertesto procede con Vannevar Bush, un fisico di metà ‘900 che comincia ad immaginare alcuni
metodi per poter navigare in un mondo in cui il sapere si stava
accumulando. Nel 1945 scrisse un articolo per dal titolo “As We May Think”
che introdusse un nuovo modo di concepire i sistemi informativi avviando
la riflessione sullo sviluppo dei sistemi ipertestuali.

Nell’immagine vediamo una sorta di scrivania che aveva nel suo insieme,
non solo collegamenti elettrici ma anche rimando a libri fisici (quindi un
sistema che metteva in ipertestualità documenti fisici con documenti in
formato digitale (o perlomeno, in formato analogico).

Arriveremo poi nel 1960 con Ted Nelson, che immagina quello che viene
chiamato Progetto Xanadu ( = città perfetta), un primo progetto vero
di ipertesto dove si comincia a parlare di rete di computer con interfaccia
utente semplice.
Esso nasce come un programma di scrittura testi (il termine word
processor comparve diversi anni più tardi) capace di memorizzare più
versioni dello stesso scritto (ovvero tutta la cronologia delle modifiche) e
capace di visualizzare le differenze tra le diverse versioni. Nelson non riuscì
all'epoca a portare a termine l'implementazione, tuttavia una dimostrazione
del sistema si dimostrò sufficiente per attirare l'interesse sul progetto.
L’idea del digitale acquista sempre più piede perché riesce a rendere reali, fattibili e fruibili dei sistemi di
carattere ipertestuale. Non solo immagina un sistema che ben racchiude un sistema di navigazione logica del
sapere ma si immagina anche la necessità di avere un’interfaccia semplice, così che l’utente sia in grado di
accedervi. Non è solo una centralità che “sforna” produttori e consumatori di informazione MA trasforma in
modalità informatica quello che è il modo naturale delle persone di accedere alle informazioni, in modo da
creare un mondo connesso, semantico ma soprattutto reticolare.
Proseguiamo lungo la storia dell’ipertesto tornando da Ted Nelson che,
sempre nel 1960, insieme a Douglas Engelbart, studia e produce testi
ispirati dai concetti di Bush. Inoltre, Engelbart ed English inventeranno
il mouse e lo presenteranno il 9 dicembre 1968 a San Francisco. La
novità portata da questa nuova invenzione non era tanto per l’oggetto
in sé, ma il fatto che il mouse andava a identificare una struttura che
poteva essere significativa per quanto riguarda l’approccio con il sapere: un individuo quando vuole sapere
qualcosa che non conosce la indica.

Nel 1965 sempre Ted Nelson introduce per la prima volta il termine di Hypertext e si introduce il concetto di
HTML (Hyper text markup language).

Nel 1987 Bill Atkinson realizza con la Apple Hypertalk, un “sistema di gestione di grandi masse di testo e
immagini, con un linguaggio di programmazione ipertestuale” dove era possibile creare il sistema
ipertestuale sia attraverso il proprio linguaggio di programmazione (già esistente), sia attraverso la grafica
(Novità - se il sistema forniva i nodi era possibile definire tirando delle linee il collegamento da un elemento
ad un altro e definire da cosa quell’elemento era attivato).

Tra il 1980 e il 1989 Tim Barners Lee e Robert Cailliau cominciano ad immaginare e a progettare il web. Al
CERN implementano un nuovo software, Enquire, il quale lancia concettualmente le basi del futuro web
perché immagina delle query che ragionano sulla possibilità di navigare in modo relazionale da un
documento ad un altro. Nella immagine vediamo la slide con il quale i due presenteranno il loro progetto,
che vedeva una serie di elementi, una serie di relazioni, e di link alcuni semanticamente definiti, e tutta una
rete che poteva essere navigata.

In quegli anni questa innovazione portò tanto interesse, portando alla prima intervista al TG1 nel 1993, fino
ad arrivare al Massachusetts Institution of Technology (MIT), dove venne fondato il W3C, consorzio fatto di
sviluppatori ed esperti per definire gli standard della rete.

Sempre nello stesso anno i server nati passano da 500 a 10.000, fino ad arrivare al 2012 dove si arriva a circa
908.586.000 server, di cui Google ne usa 900.000.

Questa struttura, ideata negli anni ‘80 e creata nel 1991 con la pubblicazione del primo sito web
(http://info.cern.ch/) è ritenuta valida perché resiste al grande sviluppo della rete.

KEY WORDS:

- SEMANTICA: dati e informazioni significanti


- CONNESSIONE: condividere e collaborare
- RETE E WEB: dalla tecnologia, al format + Infosfera
Lezione 3 – social media e social network

+ Page Rank e algoritmi di Google

SOCIAL MEDIA ≠ SOCIAL NETWORK

SOCIAL MEDIA: gruppo di applicazioni basate sul web e costruite sui paradigmi (tecnologici ed ideologici) del
web 2.0 che permettono lo scambio e la creazione di contenuti generati dagli utenti.

SOCIAL NETWORK: gruppo di persone connesse tra loro con legami di diversa natura. L’evoluzione digitale
delle reti social come reti tipicamente fisiche. Teoria delle reti sociali (grafi, mappe, rappresentazioni).
Robin Dunbar nel 1992, ipotizza l’esistenza di vincoli di carattere cognitivo nei confronti di una rete sociale e
che quest’ultima sia composta da 150 individui.

STORIA DEI SOCIAL

Nel 1967 Stanley Milgram fece una ricerca grazie alla quale dimostrò che ogni abitante degli Stati Uniti aveva
in media 3 gradi di separazione da ogni altro abitante  vennero inviate due lettere in due punti separati,
chiedendo se si conoscesse la persona in questione. Se la risposta era Sì, la lettera veniva restituita se invece
era No, veniva inviata ad altre 5 persone, e così via.

Nel 2006 Microsoft analizza i dati relativi a coloro che utilizzavano Messenger, 30 miliardi di conversazioni
elettroniche, sparse nei cinque continenti emerse che la distanza media di connessione è di 6,6. Più le
conversazioni aumentano, più questo numero diminuisce  Nel 2011 infine subentra Facebook che fa
scendere il numero a 4,74.

Nacque da qui la Teoria dei Piccoli Mondi la quale sostiene che tutte le reti complesse presenti in natura
sono tali che due nodi qualunque possono essere collegati da un percorso costituito da un numero
relativamente piccolo di collegamenti. Un grafo in cui si ha che la relazione tra il numero di nodi e il numero
delle loro connessioni di tipo esponenziale negativo (quindi invariante per cambiamenti di scala) rappresenta
una Rete a Invarianza di Scala (Scale free Network). Le Scale Free Network partono da una domanda, “Come
si formano le reti?”, e insieme alla citazione di Einstein “Dio non gioca a dadi con l’universo”, spiegano che le
reti non si formano in modo casuale/aleatorio. Ciò porta ad analizzare le reti con un’ottica ad invarianza di
scala, quindi non è vero che mediamente tutti i nodi hanno lo stesso numero di link ma che i nodi che hanno
un maggiore numero di link ne hanno sempre di più e il numero di nodi che hanno un minore numero di link
ne hanno sempre di meno. In parole povere: chi conosce molte persone continuerà a conoscerne e chi ne
conosce poche ne conoscerà sempre meno.
Tali reti di invarianza di scala integrano reti sociali, reti fisiche, reti di informazioni e reti di comunicazione
 di conseguenza, forma reti nuove nuovi nodi nuovi link.
Quella che ha più collegamenti è la HUB, nonché il fulcro della rete.

I social media vengono divisi in base al loro scopo:

 PUBLUSHING: diffusione di letteratura, musica o informazioni, l’attività di mettere le informazioni a


disposizione del pubblico in generale.
Piattaforme Blog: WordPress, Blogger, TypePad, Medium, Wix, Weebly, Ghost, SquareSpace
Wikis: Wikipedia, Wikia
Ibridi Publishing / sharing: Tumblr o MySpace e Mastodon
 SHARING: video (YouTube, Vimeo, Dailymotion), live video (Twitch, Periscope), documenti
(SlideShare, Scribd,..), dati (data.world), foto (Instargram, Flickr, Imgur, Giphy, 500px…), vari
(Pinterest, Behance, Dribble,..), music (Spotify, Deezer, Pandora, SoundMusic,..)
 MESSAGING: (Whats App, FaceBook Messenger, SnapChat, iMessage, BBM, Android Message,..)
visual messaging (Tribe, TapTalk) e messaggitica classica – webmails (Gmail, Outlook, Yahoo Mail).
 DISCUSSING/COLLABORATING: (Github, Reddit, FaceBook, Groups, ..) comment system (Dysqus,
Muut, Discourse,..) e collaborating FAQ (Quora, Ask,..).

Anche i social media hanno una loro visione della comunicazione, infatti lo schema qui sotto cerca di
evidenziare, rispetto a due assi, una comunicazione che è permanente (1), rispetto ad una comunicazione
più effimera, volatile (2); una comunicazione One-To-One (3) rispetto ad una comunicazione One-To-Many
(4).

La ricerca digitale si avvale di:


 RETE WEB: grafo dinamico, pagine e link, nodi e archi
 DOCUMENTI: oltre 5x10 alla 9 (senza contare i nodi isolati, pagine senza link)
 COLLEGAMENTI: oltre 6x10 alla 9 (=6 miliardi)
 UTENTI: oltre 8x10 alla 6 (= 800 milioni di utenti)
 SERVER: oltre circa 3x10 alla 6 (= 300 milioni)
GRAFI DEL WEB SEMANTICO  La rete web è un grafo dinamico, fatto da pagine, link, nodi e archi.

La comunicazione digitale si occupa anche di una struttura a grafo ridotto, dove suddivide la rete in tante
aree e ne fa una rappresentazione dove le parti cerchiate in giallo sono degli unici grandi nodi, e all’interno
di essi ci saranno tutti i documenti. Tutti i nodi hanno un qualcosa che li collega tra di loro e formano un unico
grande schema.

* Diametro = distanza media tra i nodi

* Cammino orientato = dove c’è un senso nei link. Va dai 25 ai 30 passaggi


La struttura a caramella è composta da: una componente gigante su cui i motori di ricerca si affidano
(rappresentato dal cerchio bianco) e una componente invece più marginale (i pallini bianchi più “lontani” dal
cerchio grande nelle due “ali” a dx e a sx) di cui i motori di ricerca non tengono conto.

Si parla quindi di:

 COMPONENTI SORGENTE (circa il 24%), cioè nodi che puntano alla componente gigante (ad es. i
pallini bianchi più vicini al cerchio, dove ci sono le freccette gialle che partono);
 COMPONENTI POZZO (circa il 24%), cioè nodi raggiungibili dalla componente gigante (es. pallini
bianchi anche se lontani dal cerchio grande sono puntati dalle freccette gialle);
 TENTACOLI, cioè link/collegamenti per sorgenti e pozzi che non passano però dalla componente
gigante;
 PAGINE “REIETTE”, che sono in quella struttura ma non possono essere raggiunte dalla componente
gigante.

COSA FANNO I MOTORI DI RICERCA?

- Raccolgono i dati.
- Elaborano e catalogano i dati raccolti.
- Rilevano delle ridondanze, cioè se l’informazione è
duplicata.
- Rilevano la presenza di Spamming cioè se le
informazioni sono di poco valore o qualità.
- Reperiscono e analizzano le informazioni per il calcolo
del Ranking cioè per vedere ciò che è considerato più o
meno interessante, in funzione della ricerca e di chi lo
fa.
- Elaborano le risposte alle interrogazioni degli utenti.
COME CI RIESCONO?
Grazie ai SEO  Search Engine Optimization = tutte le attività di ottimizzazione di contenuti comunicativi con
l’obiettivo di migliorare il posizionamento nei risultati organici dei motori di ricerca.
 E come fanno a raccogliere i dati? Grazie ai Crawler. Un crawler (detto anche web
crawler, spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo
metodico e automatizzato, in genere per conto di un motore di ricerca. Nello specifico, un crawler è un tipo
di bot (programma o script che automatizza delle operazioni), che solitamente acquisisce una copia testuale
di tutti i documenti presenti in una o più pagine web creando un indice che ne permetta, successivamente,
la ricerca e la visualizzazione.
Un uso estremamente comune dei crawler viene effettuato sul Web; esso si basa su una lista di URL da
visitare fornita dal motore di ricerca (il quale, inizialmente, si basa a sua volta sugli indirizzi suggeriti dagli
utenti o su una lista precompilata dai programmatori stessi). Durante l'analisi di una URL, identifica tutti
i collegamenti ipertestuali presenti nel documento e li aggiunge alla lista di URL da visitare. Il processo può
essere concluso manualmente o dopo che un determinato numero di collegamenti è stato seguito.
Inoltre i crawler attivi su Internet hanno la facoltà di essere indirizzati da quanto indicato nel file "robots.txt"
posto nella root del sito. All'interno di questo file, è possibile indicare quali pagine non dovrebbero essere
analizzate. Il crawler ha la facoltà di seguire i consigli, ma non l'obbligo.

[ Spider Traps  mirano ad intrappolare i


software per far svolgere il loro lavoro.
Mancanza di standard condivisi e rispettati: è
vero che parliamo di web semantico ma è anche
vero che convivono molte informazioni con
molte strutture diverse.
Aggiornamento frequente delle pagine: sposta
l’attenzione dei
motori di ricerca rispetto alla ricerca vera delle
informazioni, a un continuo monitoraggio di ciò
che succede in rete. I robot.xtx sono quei file che
aiutano a mettere il motore di ricerca sulla
“buona strada” e dove i vari siti, possono
permettere di vedere le directory, possono limitare il tempo in cui viene visitato il sito e/o in cui circolano
questi robot.
Ranking: dato un insieme di pagine P e una query Q il ranking è definito da una funzione:

La funzione associa ad ogni pagina un numero reale che indica la RILEVANZA di quella pagina nel contesto di
quella query (interrogazione/ricerca).

ANALISI DEL CONTENUTO TESTUALE > ANALISI DELLA STRUTTURA DEI LINK
Analisi dei link importanza di una pagina è direttamente proporzionale al numero che la puntano
Se R1 è il Rank (rango) di una pagina (la sua importanza), la pagina trasmette l’importanza alle pagine che
punta, distribuisce il suo rango in maniera uniforme.
Evidenzia la parte relazionale della rete.
Vale a dire: se faccio una ricerca in medicina, è chiaro che
se a puntare la pagina di uno studioso x sono pagine di
altri studiosi, l’importanza di quest’ultimi si riflette anche sulla pagina puntata. Il Page Rank ha
continuamente migliorato il suo algoritmo di ricerca, proprio per:
- includere tutte quelle caratteristiche che la rete mette a disposizione
- evitare che le ricerche siano influenzate da fattori non strettamente connessi al contenuto della pagina
- non falsare le ricerche

NASCITA DI GOOGLE
Il termine Google, il è un’iperbole matematica con un errore ortografico, è stato ideato dal matematico
Edward Kasner nel 1938  1 googol = 1,0 x 10 alla 100
Per capire:
- 10 72 e 1087 stima delle particelle elementari dell’universo visibile
- 10123 partite a scacchi possibili
Googolplex = 10 alla googol
Nel settembre del 1998 ci fu un errore nella trascrizione di Googol in Google cosicché il 27 settembre 1998,
nacque ufficialmente il motore di ricerca Google.
- ricerca 2.0  ricerca in tempo reale
- Google trends  in tempo reale vengono fornite le informazioni più ricercate
- social media marketing (SMM)

L’immagine a sinistra, contenuta in un libro di Eli Parisar, cerca di spiegare in modo semplificato, attraverso
delle “filter bubbles”, come si sviluppa la rete  in pratica ogni persona è all’interno di una serie di bolle che
filtrano tutte le sue ricerche e filtrano il web. Queste bolle sono contenute dentro una bolla più grande (una
specie di “limite” o “confine”) che rappresenta i siti più frequentati, i quali si occupano di ricerca, vendite,
video, informazioni, etc.
Cosa significa occuparsi di REAL TIME e TREND? Vuol dire tenere conto che:

 L’ultim’ora passa, sempre più spesso, prima sui social network, sulla rete e poi sulle testate
giornalistiche
 L’importanza e il valore dei contenuti è dato dagli utenti stessi attraverso valutazioni dirette
 Gli ambienti sociali come Facebook influenzano sempre di più il web e il suo funzionamento. La
rilevanza per il suo posizionamento dei contenuti viene fortemente influenzato dagli utenti
 I risultati esprimono opinioni, giudizi e commenti (WEBsumer, colui che consuma ma produce e
influenza ciò che succede sulla rete.
Un’altra cosa che Google considera nella sua ricerca sono i GOOGLE SERP – COS’È UNA SERP?
In parole povere il SERP (Search Engine Results Page) cioè, come vengono mostrati i risultati mentre
l’UGC (User Generated Content) è come vengono analizzati i contenuti generati dagli utenti.

È stata creata grazie ai motori di ricerca la tabella periodica dei fattori di successo. I fattori SEO in grado di
influire sul posizionamento di un sito web possono essere schematicamente suddivisi in due macro-categorie
(dette AREE):

 Fattori ON-THE-PAGE, che vengono determinati all’interno


del sito stesso e che sono in gran parte sotto il controllo degli
editori
 Fattori OFF-THE-PAGE, che sono in grado di influire sulla SEO
di un sito ma che non dipendono idirettamente dal sito stesso.
Tali fattori, infatti,idipendono da altri siti web e, più
precisamente, dal imodo con cui questi siti si relazionano con il
nostro (es. condivisioni, commenti, etc)

…E da queste CATEGORIE (e di cui fattori sono):


 CONTENT: relativi alla qualità dei contenuti;
 ARCHITECTURE: relativi alla funzionalità del sito;
 HTML: specifici delle pagine web;
 TRUST: relativi all’affidabilità e all’autorevolezzaidel sito;
 LINK: relativi a come i link impattano sul posizionamento;
 PERSONAL: relativi a come la personalizzazione dei risultati
delle ricerche impatta sul ranking;
 SOCIAL, relativi a come le azioni sui social iimpattano
oooooiisul posizionamento.

GLI ALGORITMI PRINCIPALI DI GOOGLE:


 GOOGLE PANDA (2011)
Scopo: penalizzare i siti che hanno un contenuto di bassa qualità e che sono presenti nei motori di
ricerca solo perché utilizzano tecniche SEO e hanno come unico obiettivo fa r cliccare gli utenti sui
Banner Pubblicitari
Parametri: la pagina è scritta da una persona esperta che conosce bene l’argomenti o è scritto in
modo superficiale? Questo sito contiene errori ortografici, stilistici o di contenuto? L’articolo ha
un’eccessiva quantità di annunci che distraggono o interferiscono con il contenuto della pagina?
Raccomanderesti questo articolo? Il sito presenta contenuti duplicati, simili o ridondanti?

 GOOGLE PENGUIN
Scopo: penalizzare i siti colpendo il Black Hat ovvero che usano link building ingannevoli per
posizionare un sito
Parametri: Scambio di link (A linka B e linka A), Guest posting (lasciare sul blog di qualcun altro un
nostro articolo firmato), Footer link (inserire link non naturale), Widget link (strategie per le quali si
distribuisce un pezzo di codice –widget—da mettere su altri siti; di solito questo codice viene inserito
all’interno di un blacklink), Categorie di sito (un sito di immobili linka un sito di gioielli può essere un
campanello di allarme poiché potrebbe essere un link innaturale (tematiche completamente
differenti)
 GOOGLE HUMMINGBIRD: si basa sulla geolocalizzazione delle attività dell’utente ed è in grado di
fornire risposte dettagliate circoscritte anche rispetto ai posti che si cercano; cerca di intuire quali
sono le risposte precise richieste dall’utente senza prescindere dalla keyword ma considerando il
contesto.

PRIMO ALGORITMO INTERPRETATIVO DARE RISPOSTE ALLE DOMANDE SPECIFICHE DELL’UTENTE

RankBrain = nuovo sistema di machine learning che si basa sull’intelligenza artificiale e utilizzato per
elaborare ed ordinare i risultati di ricerca.
RankBrain = intelligenza artificiale + machine learning  affinare i risultati delle SERP
Caratteristiche: algoritmo interpretativo, agisce in tempo reale, comprende le intenzioni di ricerca
dell’utente, indipendentemente dalle keyword usate dall’utente e utilizza relazioni semantiche per
valutare gli argomenti e non le parole chiave.

 GOOGLE PINGEON
Algoritmo indirizzato alle imprese locali mostrare le più vicine – cresce l’importanza della posizione
geografica, così come la rilevanza delle pagine Google+ e Google My Business

 GOOGLE FRED - Ogni aggiornamento è Fred.


Fred 2017 è un aggiornamento mirato al tentaivo di penalizzare fortemente le Fake News, contenuti
bufala e risultati violenti o offensivi. A rischio penalizzazione: pagine/siti con eccessive pubblicità e
abuso di affiliazioni, contenuti di bassa qualità, scarni e/o duplicati, abbandono dei contenuti da
parte dell’utente e frequenza di rimbalzo elevata, sovra-ottimizzazione on-site e keyword stuff
(imbottitura di parole chiave)

Google lo chiama BROAD CORE ALGORITHM UPDATE, chiamato MEDIC UPDATE, perché ha colpito
tantissimi siti in ambito medico.
Le pagine colpite sono YMYL (Your Money, Your Life) è un termine per indicare le pagine che
potrebbero potenzialmente avere un impatto sulla felicità future, sulla salute, sulla stabilità
finanziaria o sulla sicurezza degli utenti. Google in parallelo ha aggiornato le linee Quality Rather

 GOOGLE BERT è uno dei più grandi passi avanti della storia della ricerca, 21 ottobre 2019 Query in
lingua inglese e 9 dicembre 2019 diventa a livello globale.
BERT  Bidirectional Encoder Rapresentation from Transformation, e si basa su:
- RETI NEURALI (algoritmi che si allenano su set di dati fino ad individuare e riconoscerne i modelli e
algoritmi di pattern recondition, per categorizzare il contenuto delle immagini, riconoscere la
scrittura a mano)
- ELABORAZIONE DEL LINGUAGGIO NATURALE (distinguere il contesto delle parole nella query).
BERT è una tecnica di preformazione per l’elaborazione del linguaggio naturale sviluppata da Google.
BERT è stato creato e pubblicato nel 2018 da Jacob devlin e dai suoi colleghi di Google.
L’obiettivo dei NPL e di consentire ai computer di comprendere il modo in cui gli esseri umani
comunicano con linguaggio naturale (in ogni lingua).

KEY WORDS:

- SOCIAL  Network e Media; collegamenti e percorsi

- UTENTI E INFORMAZIONE  Catalogazione, diffusione e ricerca

- STRUTTURA, TEMPI E MODI DELL’INFORMAZIONE  Algoritmi di ricerca;


accesso e generazione delle informazioni.
Lezione 4 – realtà virtuale, realtà aumentata e realtà mista

La realtà virtuale è data da una composizione di quella che è la realtà + quello che è il virtuale.
Concetto esprimibile attraverso il concetto di emulazione della realtà. L’emulazione è una procedura con cui
un elaboratore riproduce in un sistema di elaborazione il funzionamento di un altro elaboratore di analoghe
o inferiori capacità tecniche.
La realtà virtuale diventa un’esperienza, generata con il computer, che avviene all’interno di un contesto
virtuale grazie alla capacità della tecnologia di simulare ambienti o realtà; al suo interno l’utente si sente
immerso in un contesto in cui può interagire o esplorare, muovendosi all’interno di essi.
Essa è una tecnologia emergente ed esponenziale, dove in realtà c’è un aumento rapido nel tempo di quelle
che sono le applicazioni, sia perché c’è uno sviluppo di device sia perché c’è un generale interesse al suo
sviluppo; le tecnologie artificiali sono molteplici: intelligenza artificiale, blockchain, stampa 3D,
nanotecnologie, robotica, biotecnologie, realtà aumentata, realtà virtuale, quantum computing.

LA STORIA DELLA RV
La storia della RV parte dagli anni ‘50 con il SENSORAMA, una macchina realizzata in
un solo prototipo nel 1962 da Marton Heilig per il suo “Experience Theater”, in
contemporanea alla produzione di 5 cortometraggi, che mostrarono le
caratteristiche della sua invenzione. Questa macchina era in grado di visualizzare
immagini stereo 3D (l'utente appoggiava il mento ed aveva il viso inserito in un cono
visivo), riconoscere l’inclinazione del corpo grazie a dei sensori tattili, ed attivare
vento, vibrazioni e addirittura aromi durante i film. Il costo eccessivo, e l'assenza di
finanziamenti da parte delle grandi case di produzione cinematografica statunitensi,
posero fine alla sperimentazione.  [Video su Classroom]
A partire da questa prima intuizione arriviamo all’informatico Ivan Sutherland, il quale nel 1963 inventò il
software SKETCHPAD per cui riuscì a ricevere il premio Turing nel 1988.
Questo software fu la nascita del cosiddetto HMD (= Head Mounted
Display), progettato e studiato dall’Università dell’UTHA. Questa invenzione
consisteva in un casco che permetteva di simulare e far sì che i movimenti
della persona potessero essere riprodotti da un computer e dare un senso di
navigazione 3D.
 Tale invenzione venne soprannominata Spada di Damocle, poiché era
talmente pesante che per poter essere utilizzata la si doveva appendere al
soffitto; inoltre muovendo la testa consentiva di vedere i lati di un cubo
wireframe (in 3D) – i movimenti della testa venivano inviati a computer che
generava la corretta prospettiva.

Andando avanti con la storia della RV, essa veniva stimolata dall’arte e
dall’interazione con oggetti teatrali. Ed è per questo che nel 1974 Myron
Krueger (ricercatore in “ambiti interattivi” e “interfacce uomo-
computer”) fondò un laboratorio di REALTÀ ARTIFICIALE chiamato
Videoplace (presentato nel 1975 al Milwaukee Art Center)  Cosa si
intendeva per realtà artificiale? Si intendeva sollecitare la partecipazione
di un computer/digitalizzazione/tecnologia ad eventi reali, e questa
partecipazione doveva essere accettata come una partecipazione reale. La
realtà artificiale offre la possibilità di creare delle c.d. attività sintetiche, senza precedenti reali (cioè non c’è
più una ricostruzione di quello c’era già nella realtà, ma la riproduzione di oggetti che non ci sono nella realtà
 realtà, appunto, sintetiche sia per carattere sia per tipologie).
Ricorda secondo certi aspetti la realtà virtuale ma la differenza sostanziale è che la realtà artificiale non vuole
riprodurre la realtà convenzionale, cioè rappresentare cose non esistono già nella realtà ma che magari
potrebbero essere realizzate.

Nel 1977 il MIT (Massachusetts Institute of Technology), sviluppa il suddetto ASPEN MOVIE MAP.
Quest’ultimo non è altro che una visita virtuale ad Aspen (in Colorado) in tre stagioni diverse, che permetteva
di mettere in chiave reale un sistema interattivo e ipermediale (
ipermedialità = l’unione di diversi miglia attraverso dei collegamenti
logici).
Qual furono le novità portate da Aspen Movie? Intento si faceva uso
della tecnologia Laserdisc (maturata poi per i DVD), più pulita nel
segnale e intenzione di una memoria più permanente; inoltre, si
avvale di un DataBase e in seguito di metadati per correlare immagini
e informazioni, descrivendo la realtà in un modo semantico  Questo ultimo
punto va a sottolineare le parole chiavi che si intendevano raggiungere con Aspen
Movie Map: Iperattività e collegamenti, collegamenti che poi la rete avrebbe ripreso
con il concetto di collegamento di tipo semantico (quindi archivi che diventano
DataBase, i quali non solo memorizzano dati ma anche le relazioni tra dati per fornire informazioni, per
fornire poi relazioni tra le informazioni, per fornire infine conoscenza). Quindi non c’è differenza tra questa
RV e la rete, cambia la rappresentazione ma la struttura è sempre quella: Elementi  Relazioni  Elementi
che permettono un’interattività  Elementi che diventano ipermediali, perché gli stessi media diventano
fungono da “porta” per poter navigare tra media diversi (ad es. immagini che rimandano ad un testo, un testo
che rimanda ad un’immagine)

A partire da questa realtà virtuale, nel 1984 si arriva ad avere un’HMD DI


UN COCKPIT (cabina di pilotaggio).
Questo si differenzia dall’HMD del 1966, oltre per il peso, per il costo, in
quanto l’ultimo arriva a 20.000 dollari mentre nel 1966 arrivava a 1 Milione
di dollari.
Inoltre, mentre nel ’66 HMD si trattava solo di un casco, nel ’84 si
aggiunsero dei sensori per rilevare la posizione delle mani (dataglove) +
viene integrata una work station per generare ambienti reali.

Nel 1982 si arriva al CYBERSPAZIO con William Ford Gibson, scrittore di fantascienza, che per la prima volta
parla di Cyberspazio in contrapposizione al Livespace (il Meatspace) e
nel 1989 Jaron Lanier, sviluppatore e fondatore della VPL Research,
inizia a parlare di Realtà Virtuale, definendola come una tecnologia
usata per sintetizzare una realtà condivisa. Essa ricrea la nostra
relazione con il mondo fisico in un nuovo piano. Non influisce sul mondo
soggettivo e non ha niente a che fare con ciò che è nel cervello bensì,
solo con cosa i nostri organi sensoriali percepiscono.
La realtà virtuale ha una serie di parole chiave che la richiama:
da un lato tiene conto:
- Dell’UTENTE(rapporto utente-macchina)
- Dei SENSI,
- Dell’AMBIENTE,
- Del COMPUTER o delle PERIFERICHE usate per la realtà virtuale;
…dall’altra parte si occupa di:
- SIMULAZIONE
- INTERAZIONE,
- IMMERSIONE,
- PRESENZA.
Una crescente è il livello di partecipazione che va dalla simulazione fino alla presenza.

La Simulazione diviene il modello della realtà al fine di prevedere e valutare il susseguirsi di eventi
conseguenti alla definizione di condizioni “a contorno” da parte dell’analista, in altre parole la Simulazione
porta a progettare dei modelli che siano in grado di poter prevedere le possibili risposte che accadono
rispetto alle possibili interazioni, cioè tutte le possibili relazioni causa effetto.

Altra parola chiave è l’Interazione, nonché le modalità e le possibilità con cui l’utente può o intende
modificare l’ambiente o il sistema. Sistema che non è costante ma risponde in funzione degli input
dell’utente. Introduce problematiche di gestione e relazione temporale tra gli eventi.
Simulazione + Interazione mi dà una misura del Grado di REALISMO della mia realtà virtuale.

Altra parola chiave è l’immersione, una metodologia e tecnologie (interfacce e devices) che permettono una
percezione sensoriale dell’ambiente virtuale. L’Immersione misura il grado di PERCEZIONE, di come io
percepisco questa realtà virtuale.

Strettamente legato all’immersione è la Presenza cioè la sensazione e la capacità mentale di essere all’interno
di uno spazio virtuale (analogamente a Libri e Film) Per questo misura il grado di COINVOLGIMENTO
dell’Utente, cioè quanto questa realtà virtuale/gioco riesce a trasportare, ad immergere l’utente in questo
mondo (proprio quello che succede quando un libro piace particolarmente).

L’ambiente, così come l’interfaccia o i sistemi di comunicazione, sono o MUD o MOO:


MUD: Multi User Dangeons  Gioco di ruolo eseguito su internet attraverso il computer da più utenti;
MOO: MUD Object Oriented È un sofisticato programma informatico che permette a più utenti di
collegarsi da remoto, normalmente via Internet, ad un ambiente condiviso che contiene stanze ed oggetti
(come metodologia di implementazione), all'interno di esso è quindi possibile interagire, sia con l'ambiente
che con gli altri utenti, in tempo reale.

Un concetto chiave della realtà virtuale ce lo ha


evidenziato Jack M. Loomis, psicologo
dell’Università della California, il quale ha
affermato che quello che serve o a cui serve o che
produce la realtà virtuale è questo passaggio
attraverso delle mediazioni da un mondo fisico a un
mondo fenomenico.
La REALTÀ VIRTUALE non intende ricostruire la REALTÀ REALE, cerca di convincere l’utente di essere nella
realtà per svolgere il suo compito (task) nel modo più naturale possibile e deve pensare che il MONDO
FENOMENICO mantenga l’aspettativa del mondo reale.

DALLA REALTÀ VIRTUALE HANNO TRATTO ORIGINE LA REALTÀ AUMENTATA E LA REALTÀ MISTA.

Il tutto si è sviluppato principalmente dal 2009, quando si sono diffusi i primi smartphone Windows Phone,
Android e iPhone.

Per REALTÀ AUMENTATA (Augmented Reality AR), o realtà mediata dall'elaboratore, si intende
l'arricchimento della percezione sensoriale umana mediante informazioni, in genere manipolate e
convogliate elettronicamente, che non sarebbero percepibili con i cinque sensi.

 Realtà Aumentata su dispositivo mobile. Il telefonino (o smartphone di ultima generazione) deve


essere dotato necessariamente di Sistema di Posizionamento Globale (GPS), di magnetometro
(bussola).

 Realtà Aumentata su computer. È basata sull'uso di marcatori, di disegni stilizzati in bianco e nero
che vengono mostrati alla webcam, vengono riconosciuti dal computer, e ai quali vengono
sovrapposti in tempo reale i contenuti multimediali: video, audio, oggetti 3D.

DIFFERENZE TRA RV E RA:


- CREARE VS AUMENTARE : Nella RV viene creata l’informazione, nella RA viene aggiunta
informazione.
- VISORE VS SMARTPHONE: La RV permette un Visore, la RA permette l’uso dello Smartphone.
C’è un grado di IMMERSIVITÀ diverso: più si va verso una RV più ci avviciniamo a un concetto di
immersione, nella RA l’immersione non è un target né tantomeno un effetto collaterale.

Dall’unione della REALTÀ VIRTUALE e REALTÀ AUMENTATA nasce la REALTÀ MISTA (/IBRIDA).
La Realtà Mista è qualunque tecnologia che unisce elementi reali con elementi virtuali (es. cellulare che
proietta un’ immagine virtuale su un tavolo).
“Reality-Virtuality continuum” teorizzato in contemporanea da Milgram e Kishino mostra come ci sia uno
spettro di tecnologie che va dalla pura realtà reale alla pura realtà virtuale.

KEY WORDS:
concetto di Emulazione riproduzione della realtà, non
solo fisica ma anche logica.
concetto di Simulazione modellazione della realtà.
concetto di Interazionerealtà, tecnologie, utenti,
sistemi e informazioni.
Lezione 5 – grafica & interattività, cognetica,
User Experience

GRAFICA E INTERATTIVITÀ sono caratteri della rete, strettamente legati alle modalità con cui la rete si
presenta e con cui interagisce con gli utenti. In particolare, importante è il concetto di MULTIMEDIALITÀ, la
quale va vista sia tecnicamente (e questo vuol dire la compresenza e la pluralità di diversificate risorse
tecnologiche) sia con un approccio semiotico* (cioè la compresenza di più
canali comunicativi, dove la predominanza è nel canale visivo).
[*semiotica, scienza generale dei segni, comprendente le tre branche:
pragmatica, semantica, sintattica]
Quando parliamo di rete parliamo sempre di interattività che deve
accogliere in sé e fare sintesi di quella che è l’ipermedialità (gestione di
diversi media che fanno l’uno strumento di accesso all’altro), di quella che è
la grafica (rappresentazione che è una simbologia, legata alla struttura delle
icone, tipica modalità di comunicazione della rete che cerca anche di
svincolarsi da un linguaggio naturale laddove è diventato un sistema
globale, laddove è più facile ragionare con un agrafica o simbologia
significativa ancor prima con un linguaggio naturale che non è comune a
tutti). Oltre a questo, avremo il concetto di COGNETICA, quella branca che
ci permetterà di analizzare e comprendere quali sono i meccanismi di
interazione di un uomo con gli artefatti, con l’informazione, con la struttura.
Con grafica intendiamo quindi una rappresentazione che non è solo
immagine, non è solo decorativa ma è significativa.

Cos’è quindi la COGNETICA?


Essa viene definita ergonomia della mente dall’informatico
Jef Raskin nel suo libro “Interfacce a misura d’uomo”.Il
concetto di Ergonomia della mente venne utilizzato
precedentemente dallo psicologo Kennet Frank Murrell e
ancor prima di lui la utilizzò nel 1871 Jastrezbwsci.
L’ergonomia ha quindi avuto una sua storia che ad oggi
prende la definizione di Scienza che si occupa
dell'interazione tra gli elementi di un sistema (umani e d'altro
tipo) e la funzione per cui vengono progettati (nonché la
teoria, i principi, i dati e i metodi che vengono applicati nella
progettazione), allo scopo di migliorare la soddisfazione dell'utente e l'insieme delle prestazioni del sistema.
Scienza che si occupa dello studio dell'interazione tra individui e tecnologie.
La cognetica come ergonomia della mente abbraccia diversi ambiti anche ingegneristici, anche di carattere
informatico. È un’ergonomia cognitiva che vede alle proprie origini la psicotecnica nel 1960, un’ergonomia
quindi che è ottimizzazione per la comprensione, volta a strutturare logiche, oggetti, interfacce, strumenti,
tecnologie che siano comprensibili in poco tempo: essa produce conoscenza e le persone la apprendono.
La cognetica si rifà ai paradigmi cognitivisti (dell’apprendimento) ma si rifà anche alla Human Information
Processing (ha tre paradigmi fondamentali: ciò che è semplici resti tale, non danneggiare il lavoro dell’utente
e non sprecare il tempo dell’utente).
La HIP trova alcune suoi fondamenti nella cosiddetta TEORIA DEL CAMPO, la quale esprime l'idea che il modo
in cui ci si rappresenta il mondo, è fattore principale dell'agire dell'essere umano.
L’ergonomia cognitiva applicata a contesti sociali = ci dà l’Ergonomia Sociale: Ergonomia cognitiva applicata
ai contesti relazionali, in particolare nel contesto di INTERAZIONE e COOPERAZIONE tra elementi/individui.
L’importanza della Cognetica nell’Ergonomia della Mente è anche schematizzazione di come persone
interagiscono nella realtà le persone si relazionano con la realtà che li circonda e quindi con anche gli
strumenti, gestendo e facendo uso del CONSCIO COGNITIVO e dell’INCONSCIO COGNITIVO.
L’importanza principale di usare il conscio e l’inconscio cognitivo è l’esistenza di proprietà che vengono
utilizzate dalle persone per capire quando subentra uno o l’altro così da analizzarne come tutto ciò può essere
utilizzato per gestire delle tecnologie in modo soddisfacente/ergonomico.

Il Conscio Cognitivo e l’Inconscio cognitivo sono caratterizzati da:


 ATTIVAZIONE: quando si attiva il conscio e quando si attiva l’inconscio;
 USO: che uso viene fatto del conscio e dell’inconscio;
 GESTIONE: che gestione viene fatta di essi;
 ACCETTAZIONE: che tipo di accettazione hanno, cosa accettano;
 MODALITÀ OPERATIVA: come operano;
 CONTROLLO: chi o cosa controlla il conscio e l’inconscio;
 CAPACITÀ: quale capacità hanno;
 DURATA: quale durata hanno il conscio e l’inconscio;

Ora andiamo a vedere quando l’inconscio e il conscio applicano le caratteristiche citate:

Cos’è importante quando definisco le tecnologie? Sapere quando e come gestiscono le persone o comunque
come il cervello gestisce le situazioni. Altra cosa Importante è sapere che è sempre possibile passare
dall’Inconscio al conscio, ma che non è possibile passare dal Conscio all’Inconscio (cioè, non si può dire
“adesso non ci faccio caso”/”adesso non me lo ricordo più”).
Tra il Conscio e l’inconscio c’è sempre un unico Focus dell’attenzione; il Focus non è completamente sotto il
nostro controllo (se sto facendo qualcosa ma sento un rumore la nostra mente si focalizza su tale rumore).
Per focus intendiamo sia un oggetto fisico che un’idea, ma rimane sempre uno solo.
Questo porta a ragionare sul fatto che quando qualcuno va a progettare o ragionare sugli strumenti di
informatica, deve ragionare sulla USER EXPERIENCE, cioè centrare sull’utente così come fa la rete.
Nella creazione di una nuova interfaccia si parla perciò di:
 User Experience (bisogna analizzare il background dell’utente, sia a livello informatico che non)
 Design (come strutturare gli strumenti dal punto di vista della grafica, della cognetica, dell’ergomia),
 Processo del Designer (andare a gestire le esperienze per fornire design sempre più adatti)
 per arrivare all’User-Centered Design (così come nel web 2.0)

Con questi principi è importante ragionare su che cos’è l’user experience:

INTERAZIONE UTENTE PRODOTTO + INTERAZIONE UTENTE PRODOTTO


+ INTERAZIONE UTENTE PRODOTTO = USER EXPERIENCE

Cioè l’UE è la somma di tutto ciò che succede tra l’interazione, l’utente e
un prodotto (di qualsiasi genere. Tutte le volte che succede qualcosa viene
sommato e questa è la sua user experience).
Con tutti questi principi Peter Morville fa un’Architettura
dell’informazione e dice che quelle nella prima foto sono le caratteristiche
che l’UE deve in qualche modo soddisfare: deve essere utile valutabile,
credibile, accessibile, desiderabile, usabile e trovabile (intesa come
semanticamente definita).

A queste caratteristiche, James Melzer aggiunge (seconda foto), parlando


anche del concetto di grafica, il concetto di affordance (“invito” – Qualità
fisica di un oggetto che, attraverso la sua grafica, suggerisce a un essere
umano le azioni appropriate per manipolarlo, che permette di sfruttare la
user experience - ad es. se l’utente vede un qualcosa che sembra un
pulsante sarà portato, con il mouse, a cliccarci)

JESSE JAMES GARRETT – USER EXPERIENCE

Tutto ciò ha prodotto per quanto riguarda il concetto di Design questo schema
a due assi (tempo e completamento dell’opera) che partono dal concetto più
astratto al più concreto.
In esso c’è:
 LA RICERCA SULL’UTENTE (capire le sue esperienze e le sue modalità di
approccio con la cognetica);
 L’ANALISI DELL’USABILITÀ;
 L’ARCHITETTURA DELL’INFORMAZIONE (tutti quei concetti visti sopra);
 L’INTERACTION DESIGN (come progettare e facilitare l’interazione a livello di
design), che porta a
 L’USER INTERFACE DESIGN;
 VISUAL/GRAPHIC DEISGN, per tutti i motivi che abbiamo visto finora.
Tutto questo produce uno schema che pone l’User Interface Design al
centro come intersezione tra gli elementi precedentemente citati
(architettura, interaction...)  Si può parlare di artefatti emotivi
La USER EXPERIENCE (in breve UX) si occupa di come una persona si
prova nell'utilizzo di un sistema (artefatto). La UX mette in evidenza la
dimensione esperienziale, affettiva, gli aspetti significativi e di valore di
una interazione uomo-computer (HCI) e proprietà del prodotto, ma si
occupa anche delle percezioni di una persona degli aspetti pratici come
l'utilità, la facilità d'uso e l'efficienza del sistema. L'esperienza
dell'utente è di natura soggettiva, ed è dinamica, perché cambia nel
tempo e con il cambiamento delle circostanze.

Quanto si parla di emozioni esiste un MODELLO DI NORMAN, che parla di:


 DESIGN VISCERALE: riguarda l’aspetto, le forme e i sensi, ecc. Impatto emozionale immediato e
standard per ciascun essere umano
 DESIGN COMPORTAMENTALE: riguarda l’esperienza, l’utilizzo, la prestazione e l’efficienza
 DESIGN RIFLESSIVO: riguarda il messaggio, il significato e la morale. Esso è altamente influenzato
dalla cultura e dalle tradizioni e pertanto è facilmente variabile a seconda dell’individuo

Il modello di Norman ragiona su due assi: da un lato la memoria dall’altro la consapevolezza.


La Memoria vuol dire CON Memoria (serve la
memoria) o SENZA Memoria (sono auto
esplicative).
La Consapevolezza che ragiona tramite
Conscio (Riflessivo, con una percezione
ELABORATA E COMPLESSA) e Inconscio
(ragiona su un comportamentale, viscerale,
con una percezione ISTINTIVA) e questa è
un’unione tra Comportamentale e Riflessivo
che porta a un ragionamento, all’esperienza e
al ricordo.
Da un lato poi avremo i SENSI.

KEY WORDS:
 GRAFICA = comunicazione, come veicolo di sensi
 COGNETICA = tecnologia e interazione uomo-artefatto
 USER= utenti come Central e Interaction Design.
Lezione 6 – Usabilità e accessibilità, Interaction design e Test
di usabilità

L’usabilità e l’accessibilità sono concetti che abbracciano molte branche della vita quotidiana (dalla facilità
per accedere a un ufficio o a casa, tutto deve essere strutturato così da permettere all’utente un uso semplice
ed immediato degli strumenti tecnologici che ha davanti).
Usabilità e accessibilità ragionano sempre nell’ottica di capire quali possono essere i limiti che l’informatica
produce e rispettive soluzioni, non tanto i motivi.

 USABILITÀ: «Efficacia, efficienza e soddisfazione con i quali gli utenti raggiungono determinati
obiettivi in determinati ambienti.» ( Tale definizione è stata fatta dalla ISO - International Standard
Organization – che nella sua nota 9241, parla di Ergonomic requirements for office work with visual
display).
L’usabilità negli anni ’60 era legata al concetto di ERGONOMIA: “scienza che si occupa dell'interazione tra gli
elementi di un sistema (umani e d'altro tipo) e la funzione per cui vengono progettati, per migliorare la
soddisfazione e le prestazioni del sistema” (def. Della IEA – International Economics Association).
 ACCESSIBILITÀ: Per definirla ci si rifà al Glossario W3C (World Wide Web Consortium) del 1999:
«L'abilità di garantire che dei servizi (come, per esempio, l'accesso al Web) siano disponibili per le
persone nella misura più ampia possibile, indipendentemente da se abbiano o no delle menomazioni,
di qualsiasi natura esse siano.»
Naturalmente questo ha prodotto per l’accessibilità una specifica, il WAI (Web Accessibility Initiative)
progetto il quale cerca di migliorare l'accessibilità del World Wide Web alle persone disabili. Il WAI
ha generato il WCAI (Web Content Accessibility Initiative). Il WCAI ha rilasciato a più riprese una serie
di documenti contenenti principi e linee guida cui attenersi per realizzare contenuti web che siano
accessibili al maggior numero di persone possibili.

Tutto questo, specie il concetto di usabilità, ha portato a sviluppare tutta l’area dell’Interaction design,
la progettazione guidata dal processo di interazione tra essere umano e sistemi informatici e meccanici.
Disciplina sviluppata nell’ambito della ricerca della HIC (Human Computer Interaction). Si pone quindi
l’obiettivo di formalizzare sistemi e regole, per una progettazione di sistemi informatici (e meccanici) tra un
essere umano, considerandoli interazione.
L’Interaction Design è una forma di progettazione di interfacce (interactive) che rendono visibili artefatti e
macchine alle persone per cui sono state pensate.

Esistono varie declinazioni (obiettivi) del concetto di usabilità:


• L’utente deve avere la possibilità di raggiungere buone prestazioni in tempi brevi. (FACILITÀ DI
APPRENDIMENTO).
• L'utente deve poter interagire, senza riapprendere, con un'interfaccia anche dopo un periodo di lungo
inutilizzo. (FACILITÀ DI RICORDO).
• Le conseguenze di un possibile errore devono essere inversamente proporzionali alla probabilità che esso
venga compiuto. (SICUREZZA E ROBUSTEZZA ALL’ERRORE).
Per quanto riguarda il concetto di accessibilità e compatibilità, si parla di definire e controllare l’utilizzo di:

• codice semanticamente CORRETTO (in ogni tipo di informazione esiste una descrizione del significato),
LOGICO (con un protocollo convalidato che lo rende comune a tutte le persone che hanno o che possono
avere un approccio) e VALIDATO.
• testi chiari, fluenti e facilmente comprensibili
• disposizione coerente e lineare dei contenuti e dell'interfaccia grafica

Come possiamo ragionare sull’Interaction Design? Seguiamo il modello di Donald Norman (1986), dove va a
schematizzare il rapporto tra un sistema e un utente (questo modello verrà poi utilizzato dal web quando
verrà creato 6 anni dopo). In questo modello ci sono 7 “passi”:

in cui ESECUZIONE = fase in cui si pianificano e si effettuano le azioni sul sistema


e VALUTAZIONE = fase in cui si confrontano ciò che è successo con la meta/scopo che si voleva

L’Usabilità quindi si occupa di determinati obiettivi in determinati ambienti + accesso a informazioni e servizi
con l’uso di diverse interfacce interattive. Essa ragiona di:
 EFFICACIA: livello di raggiungimento dell’obiettivo -- Efficace se permette il raggiungimento
dell’obiettivo. Il livello di efficacia è misurabile nel numero medio di operazioni svolte nella direzione
dell’obiettivo.
L’efficacia è il rispetto delle specifiche dell’output, nel posto, nel tempo e nei miei modi concordati
+ il rapporto tra i risultati ottenuti e gli obiettivi raggiunti.
 EFFICIENZA: qualità di lavoro (sforzo, risparmio economico, di tempo, …) per il raggiungimento
dell’obiettivo -- Efficienza = (livello di efficacia) / (utilizzo di risorse). Il livello di efficienza è misurabile
in termini tempo ed errori commessi per raggiungere lo scopo o numero di errori in un tempo
determinato per raggiugere lo scopo (carico mentale).
L’efficienza significa fare le cose nel miglior modo possibile; è la relazione input-output, cioè il
rapporto tra le risorse consumate (input) e i risultati ottenuti (output). È un indice di rendimento e/o
di produttività, in quanto è una misura di processo.
 SODDISFAZIONE (qualità): livello di utilità e confort percepita dagli utenti. -- Difficile misurabilità
(soggettivo) ma fondamentale nella percezione dell’usabilità.
La soddisfazione è la corrispondenza o eccesso rispetto alle aspettative dell’utente.
I TEST sono sia di Usabilità che di Accessibilità. Presentano però importanti differenze: se per
l’usabilità abbiamo sia Test Ispettivi
(Usability Inspection: dare in mano a degli
esperti il sistema, quindi loro analizzano il
sistema nelle loro varie forme) sia Test
Empirici (Usability Inquire: si dà ad un
utente finale il sistema e si osserva ciò che
lui fa in termini di azioni, valutazione di
problemi, etc ).

L’usabilità comprende anche il Modello MiLE (Milano Lugano Evolution method).


Il metodo MiLE è uno strumento sistematico per l’analisi e la valutazione dell’usabilità di un sito web.
Esso combina i metodi ispettivi e i metodi empirici e prevede due fasi:

Fase 1 - ispezione da parte di esperti


 parte 1 fase 1: momento di verifica
 parte 2 fase 1: momento di valutazione
Fase 2 - test empirici sui punti deboli identificati dalla fase 1.

Interessante per questo metodo l'uso di una analisi basata su scenari, “storie d’uso”, per quanto riguarda
i contenuti. [ci sono test di usabilità e accessibilità tra i materiali della Classroom]

Molto spesso in questo contesto di analisi si usano le EURISTICHE (Euristica = parte di una scienza che ha per
oggetto la scoperta di fatti o di verità. Nell'ambito di una scienza, la metodologia di ricerca di fatti o verità,
ovvero di fonti e documenti, preliminare allo studio specifico).

Le più importanti sono le Euristiche di Nielsen (1993):


1. VISIBILITÀ DELLO STATO DEL SISTEMA. Il sistema deve sempre tenere informato l’utente su cosa sta
facendo, fornendo un adeguato feedback in un tempo ragionevole.

 Sapere se un oggetto è un link e dove porta


 Icona o testo sottointensificato significa che la funzione non è disponibile
 Presenza di un segnale di attività in corso (clessidra, barra di caricamento, messaggio testuale, etc.)

2. CORRISPONDENZA TRA SISTEMA E MONDO REALE. Il sistema deve parlare il linguaggio dell’utente, con
parole, frasi e concetti a lui familiari.

 Uso di messaggi testuali, icone, azioni dal significato condiviso da tutti (“salva con nome”, icona
“cestino”, azione “copia e incolla”)
 Garantire l’associazione tra oggetti e informazione
3. CONTROLLO E LIBERTÀ. L’utente deve avere il controllo del contenuto informativo e muoversi
liberamente tra i vari argomenti.

 Evitare procedure costrittive troppo lunghe (iscrizioni)


 Evitare percorsi predefiniti senza possibili scorciatoie
 Evitare azioni non volute dall’utente (apertura automatica di pagine non richieste)

4. CONSISTENZA E STANDARD L’utente deve aspettarsi che le convenzioni del sistema siano valide per tutta
l’interfaccia.

 Riportare in ogni pagina alcuni elementi di riconoscimento (logo, stile, grafico, etc.)
 Dare la sensazione di essere sempre nello stesso ambiente

5. PREVENZIONE DELL’ERRORE Evitare di porre l’utente in situazione ambigue, critiche e che possono
portare all’errore.

 Dare la possibilità di tornare indietro


 Evitare che la non comprensione induca in errore

6. RICONOSCIMENTO ANZICHÉ RICORDO. Le istruzioni per l’uso del sistema devono essere ben visibili e
facilmente recuperabili.

 Produrre layout semplici e schematici


 Non contare sulla capacità dell’utente di ricordare il posizionamento degli oggetto che caratterizzano
le pagine
 Evitare che l’utente riscopra ogni volta l’interfaccia

7. FLESSIBILITÀ D’USO Offrire all’utente la possibilità di un uso differenziale (a seconda della sua
esperienza) dell’interfaccia.

 Offrire una navigazione gerarchica per i meno esperti


 Offrire delle scorciatoie per i più esperti

8. DISEGNO ED ESTETICA MINIMALISTA Dare maggior importanza al contenuto che all’estetica.

 Evitare di accentuare oggetti irrilevanti o raramente necessari (immagini grandi, etc.)


 Evitare che il contenuto informativo della pagina sia messo in secondo piano
 Evitare che l’utente si distragga o si confonda

9. AIUTO ALL’UTENTE Aiutare l’utente a riconoscere, diagnosticare e recuperare l’errore.

 I messaggi di errore devono essere espressi in linguaggio comprensibile (senza codici)


 I messaggi di errore devono indicare in modo preciso il problema e suggerire una soluzione
 Chiedere conferma per un’azione importante
10. DOCUMENTAZIONE Anche se il sistema deve essere usabile senza documentazione è preferibile che essa
sia disponibile.

 Deve essere facile da reperire


 Focalizzata sul compito dell’utente
 Strutturata in un insieme di passi comprensibili

KEY WORDS:
 USABILITÀ: Efficacia, efficienza e soddisfazione
 ACCESSIBILITÀ: Codice semanticamente corretto, logico
e valutativo
 USER INTERACTION: Interazione Uomo-Artefatto

(LEZIONE 7&8 = COSTRUIRE AMBIENTI 3D CON “COSPACES” – saltata)

Potrebbero piacerti anche