Sei sulla pagina 1di 39

Teorie e tecniche dei media digitali

Lezione 1 30/07

Le forme della socialità


Primi studi sui media – media di massa
Società di massa: inizio Novecento con accezione negativa, intesa come moltitudine di persone
politicamente passive, in posizione di oggettiva dipendenza dalle istituzioni portanti di una società (politiche,
economiche, militari) e quindi fortemente influenzabili da esse, incapaci di organizzarsi e di esprimere una
propria volontà. Segmentazione dei ruoli che porta le persone ad individualizzarsi privandosi di una visione
globale.
I media di massa come la radio e i giornali agiscono secondo il principio del “dividi e comanda”, le persone
senza uno stato comunitario e relazionale diventano incapaci di esprimersi e vengono manipolati. Idea che
gli individui siano del tutto indifesi, schiacciati dal mondo industriale che non da loro mezzi per opporsi a
questa incapacità di relazione.

Massa: Ciò che ha iniziato a prendere forma è l’idea di una progressiva e inarrestabile atomizzazione della
società. A fronte dell’indispensabile specializzazione delle funzioni, legata all’industrializzazione, si colloca
il rischio di una perdita insostituibile di una rete di relazioni sociali significative per gli individui,
rappresentati sempre più come soli e isolati.
Georg Simmel (1917) sostiene che la massa si fonda sull’esaltazione delle parti che accomunano gli
individui piuttosto che di quelle che li differenziano. Tendenza delle masse di appiattirsi su pochi e semplici
concetti, le azioni di massa cercano di raggiungere le loro idee nel modo più semplice perché non sono in
grado di organizzarsi e trovare tratti identitari comuni. Inoltre, le azioni della massa «puntano diritto allo
scopo e cercano di raggiungerlo per la via più breve: questo fa sì che a dominarle sia sempre una sola idea, la
più semplice possibile. “Capita assai di rado che, nelle loro coscienze, i membri di una grande massa abbiano
un vasto campionario di idee in comune con gli altri”. Ancora una volta, dunque, vengono sottolineati i tratti
dell’irrazionalità, della disorganizzazione, della difficoltà a trovare tratti identitari comuni e dell’isolamento
nel quale versano gli individui che abitano la società di massa.

Comunità: concetto opposto a quello di massa, le persone agiscono per gli altri perché spinti da legami
spontanei e di appartenenza.
Tonnies, in un’opera centrale per la sociologia moderna (1887), distingue fra comunità (gemeinschaft) e
società (gesellschaft). Mentre la prima è dominata da legami e solidarietà spontanei, da una scarsa
individualizzazione, dall’appartenenza forte a un comune credo morale e religioso, nella società, emergente
con l’epoca industriale, domina la volontà individuale, l’azione dei singoli è influenzata da legami
contrattuali, la solidarietà è di tipo razionale.
Nel web, proprio per queste ragioni, si cerca di creare molte più comunità che società.
Comunità virtuali: importante nella riflessione dei media digitali. Idea di comunità legata a comunanza di
interessi, valori e progetti, viene ripresa, in epoca successiva, nelle prime teorie legate a internet. Centrali a
riguardo sono i primi lavori di Sherry Turkle (“La vita sullo schermo”, 1992) e Howard Rheingold
(“Comunità virtuali. Parlare, incontrarsi, vivere nel ciberspazio”, 1994) sulle comunità virtuali che
definiscono come gruppi di individui che, al contrario che nei sistemi di massa, possono esprimere, tramite la
rete, la loro identità, le loro passioni, e trovare persone con cui condividerle. La rete, quindi, permettendo a
soggetti simili di incontrarsi, fuori dai vincoli di spazio e tempo della realtà fisica, dà luogo secondo questi
autori, a nuove forme comunitarie.

Folla: lo studio di Le Bon “Psicologia delle folle” (1895) associa al concetto di massa quello di folla, intesa
come moltitudine di individui radunati in un certo luogo e tra loro interagenti sulla base di pulsioni e
credenze condivise, ancorché elementari. Nella folla emergono i peggiori lati dell’individuo, forme arcaiche
di irresponsabilità e violenza, che ciascun singolo, preso a sé, respingerebbe con sdegno. Stando nella folla le
persone osano e fanno cose che singolarmente non farebbero mai. Questo può anche accadere nelle
discussioni che nascono sui social.

Smart mobs: interpretazione temporanea del termine folla data da Howard Rheingold (2003) risulta quindi
positiva. per l’autore, “profeta” della cybersocietà a partire dagli anni ’90, le tecnologie mobili di
connessione permettono, oggi, alle folle di organizzarsi, muoversi e agire in modo organico e strutturale,
anche pianificato, dando luogo a un’intelligenza “a sciame”, dove l’insieme possiede più conoscenze delle
singole parti es. primavere arabe.
Sciami pensanti → termine coniato da Kevin Kelly (out of control, 1996), a partire dalle teorie dei sistemi
emergenti in natura, traccia un parallelo tra alcuni sistemi viventi, come le colonie di formiche, e le nuove
intelligenze collettive, definite “superorganismi”. In questi sistemi si verifica la capacità del gruppo di
svolgere compiti che nessuno individualmente sarebbe capace di svolgere. Non c’è qualcuno che coordina
ma questo avviene con il passaggio di comunicazione tra gli attori (esattamente ciò che accade su internet).
Gli esempi vanno dalle jazz session, alle colonie di formiche, ai sistemi di collaborative filtering di un sito
come Amazon.

Tribù: nell’interpretazione postmoderna di Michelle Maffesolì (“Il tempo delle tribù. Il declino
dell'individualismo nelle società postmoderne”, 2004), l’immagine della tribù contamina e sostituisce
progressivamente quelle di società e di comunità. Le tribù, secondo l’autore, sono agglomerati allo stesso
tempo locali e globali, guidati dall’affetto e dalle emozioni, più che da valori stabili. A differenza delle
comunità, le tribù sono per definizione “nomadi”, instabili ed effimere: esse sono il nuovo modello di
socializzazione soprattutto nelle giovani generazioni metropolitane.

Network: sostituisce sempre di più il concetto di comunità. Il termine network society viene coniato da J.
Van Dijck (1991) e utilizzato da Castells (1996) per identificare forme di società in cui reti sociali fisiche e
reti virtuali, basate sullo scambio di informazioni, modellano i comportamenti sociali.
Barry Wellman contribuisce notevolmente a definire la natura delle nuove reti sociali abilitate da internet: la
moltiplicazione di legami deboli (weak ties), persone che ci interessano solo per alcuni aspetti e in alcuni
momenti piuttosto che legami duraturi e forti.

Le teorie comunicative sulla società di massa


- Teoria dell’ago ipodermico o proiettile magico (bullet theory)
Questa teoria fa riferimento a un modello comunicativo che si caratterizza per una relazione diretta e univoca
che lega lo stimolo alla risposta. I media producono un effetto diretto e generalizzato sugli individui. Con la
teoria ipodermica, il potere dei media sembra non avere ostacoli nel conseguimento dell’obiettivo di imporre
la volontà di chi governa agli individui della massa. L’audience è passiva di fronte al messaggio e nessun
fattore di mediazione, individuale o sociale, contribuisce differenziare gli effetti dei media sui diversi
soggetti.
Teoria che si ritrova in un episodio realmente accaduto negli anni ’30 del Novecento: il caso della guerra
dei mondi. Il 30 ottobre del 1938 andò in onda il radiodramma di Orson Welles dal titolo “La guerra dei
mondi”, ovvero il dramma che si trasformò «in uno dei più rilevanti eventi mediali di tutti i tempi». A
decretarne la rilevanza fu la quota di circa un milione di radioascoltatori – su un totale di sei – che credette
che gli Stati Uniti fossero stati invasi dai marziani e, quindi, mise in atto comportamenti dettati dal panico.
Studi dedicati al caso (Cantril) mostrarono che alcune variabili relative ai soggetti esposti, come il livello di
istruzione e di religiosità, erano correlate al livello di credulità e senso critico nell’interpretazione della
notizia. Inoltre altri fattori che contribuirono a rendere il programma più veritiero furono:
 il tono realistico, ovvero l’alternanza tra la narrazione, le interruzioni giornalistiche e i sipari
musicali contribuirono a dar vita a un prodotto che non si identificava necessariamente con un
prodotto della fantasia; lo stesso svolgimento dei fatti nella fase iniziale appariva abbastanza
realistico (incertezza circa gli eventi, dichiarazioni provenienti da ambito scientifico e così via);
 l’affidabilità della radio, ovvero la grande autorevolezza.
 l’uso di esperti, vale a dire il grande ricorso a personaggi dell’ambiente accademico e scientifico del
mondo militare e politico contribuì ad accrescere la credibilità del dramma.
 l’uso di località realmente esistenti.
 la sintonizzazione dall’inizio del programma o a programma già cominciato ; i soggetti che,
attraverso lo zapping, si sintonizzarono dopo l’inizio del programma furono più propensi a credere
che stessero ascoltando un news report, al contrario di chi si sintonizzò dall’inizio.

- Modello di Lasswell
Modello più articolato del flusso di comunicazione rispetto alla teoria dell’ago ipodermico. Vengono
individuati fattori rilevanti nei diversi attori del processo.

Limiti di questa teoria:


Pur inserendo un insieme più complesso di fattori e oggetti di studio nella comunicazione, anche il modello
di Lasswell presenta diversi limiti:
 l’asimmetria della relazione : il processo comunicativo ha origine esclusivamente dall’emittente, il
ricevente entra in gioco solo come termine ultimo con il quale si conclude il processo;
 l’indipendenza dei ruoli: l’emittente e il destinatario vengono raffigurati come due soggetti che non
entrano mai in contatto diretto né appartengono allo stesso contesto sociale e culturale;
 l’intenzionalità della comunicazione: i messaggi veicolati dai media si prefiggono sempre un
obiettivo; esso può essere nobile o meno nobile, buono o meno buono: in ogni caso, vi è sempre
un’intenzionalità da parte dell’emittente

Gli effetti limitati dei media


Hovland e il suo gruppo di ricerca a Yale “Program of Research and Attitude Change”, attraverso oltre 50
ricerche empiriche, approfondirono le modalità di costruzione dei messaggi persuasori (Communication and
Persuasion, 1953). Una sintesi dei risultati di studio più importanti ai quali pervennero è articolata in tre
elementi. La capacità di persuadere è legata a:
 credibilità della fonte
 ordine e completezza delle argomentazioni (per esempio inserire o meno posizioni opposte)
 esplicitazione delle conclusioni.

- La teoria della comunicazione a due stadi


In uno studio del 1948, Lazarsfeld Berelson e Gaudet analizzarono l’influenza dei messaggi mediali relativi
alle elezioni presidenziali del 1940. L’attribuzione da parte degli intervistati di una maggiore capacità
persuasoria ad alcune persone piuttosto che ai mezzi di comunicazione condusse i ricercatori a individuare
alcuni soggetti dotati di influenza, definiti «leader d’opinione». Questi leader erano rintracciabili all’interno
di qualsiasi strato sociale ed economico, tanto da poterli definire «leader molecolari». Elaborarono il famoso
modello del «flusso a due fasi della comunicazione», presentato dagli stessi studiosi nei seguenti termini: «le
idee sembrano spesso passare dalla radio e dalla stampa ai leader d’opinione e da questi ai settori meno attivi
della popolazione»

I leader di opinione
In uno studio successivo su 800 donne del Midwest, Lazarsfeld e Katz analizzarono a fondo i tratti dei leader
d’opinione, osservando che questi soggetti erano caratterizzati da una più alta esposizione ai media, rispetto
agli altri. Essi, inoltre, potevano essere distinti in leader orizzontali (influenza esercitata tra soggetti simili
sul piano sociale) o leader verticali (influenza esercitata da soggetti con un più alto status sociale).
Dai leader di opinione agli influencer
Con la nascita di internet e dei social cambiano anche i modi di fare ricerca e analisi. Nella rete non si parla
di sistemi ad imbuto ma la viralità della diffusione di opinioni e dovuta soprattutto all’attivismo delle
persone più influenzabili, quelle che tendono maggiormente a condividere e commentare le notizie. Non c’è
più un meccanismo di autorevolezza ma si fa un discorso quantitativo, nel momento in cui la notizia
raggiunge un soggetto influenzabile questo rimanderà a cascata le reti di informazione che porteranno ad un
allargamento a cascata delle notizie. Influenzabilità a volte anche dovuta al fatto che ci si vuole far
influenzare, no sempre il flusso di persuasione nelle reti passa da noti autorevoli perché esiste tutto il potere
degli influenzabili.
In una successiva analisi– sviluppata attraverso modelli statistico-matematici di simulazione – Duncan J.
Watts e Peter Sheridan Dodds (2007) adottano un modello di influence networks che differisce da quello
del flusso a due stadi: se nel modello two-step flow l’influenza era un flusso che andava unicamente
dall’opinion leader ai suoi seguaci, il modello reticolare vede l’influenza propagarsi per molte vie.
«I processi di influenza non si attuano per opera di alcuni individui altamente influenti che influenzano tutti
gli altri ma piuttosto a causa di una massa critica di individui facilmente influenzabili che influenzano altre
persone facili da influenzare. Nei nostri modelli, gli influenti hanno una probabilità superiore alla media di
innescare questa massa critica, quando esiste, ma solo leggermente più grande» Ciò che emerge è che
l’influenza è maggiormente guidata dall’interazione tra le persone che vengono facilmente influenzate
piuttosto che dalle persone influenti stesse.
Criticità: non viene considerato il ruolo degli attori come essi stessi produttori di contenuti.

Lezione 2 01/10

Teorie della selettività


Studi fatto intorno agli anni Settanta e Ottanta, viene ridimensionato il ruolo dei media nella formazione
delle opinioni: le persone si espongono a informazioni e contenuti che sono già coerenti con la loro posizione
e i loro valori. Con i media si agisce rafforzando quelle che sono già le nostre opinioni e i nostri punti di
vista, chiudendoci a quei messaggi che vanno contro il nostro sentire.
Tre tipi di selettività:
- Esposizione selettiva: si bannano le persone che hanno espresso pareri che a noi danno fastidio,
quando si ha un contenuto che non è nelle nostre corde lo si elimina. Meccanismo in cui ci si sottrare
in tutti i modi dai messaggi.
- Elaborazione selettiva: di fronte ad un messaggio che non rientra nei propri valori o interessi viene
ribaltato completamente il significato.
- Memoria selettiva: ritenzione del messaggio, ci si dimentica dei messaggi dissonanti e si ricordano
solo quei messaggi conformi e coerenti alla propria visione.
Negli ultimi anni queste posizioni si sono modificate perché si è sottoposti all’idea che si è bombardati da
messaggi e quindi la nostra selezione viene fatta in maniera differente rispetto ad una volta. È aumentata
anche l’esposizione casuale ai messaggi e ai contenuti. Inoltre anche la segmentazione dei consumi mediali
dovuta alla personalizzazione attuata dai soggetti e dalle stesse interfacce algoritmiche ci mette di fronte ad
una maggior difficoltà di selezione. Anche l’eventuale ibridazione di contenuti e messaggi dovuti alle
dinamiche transmediali e le pratiche relazionali sui social dove spesso messaggi provenienti da fonti
“dissonanti” vengono discorsivizzati in nuove forme e in tal modo raggiungono soggetti che non intendevano
essere raggiunti.
Vengono quindi studiate le dinamiche, spesso contraddittorie, dei fenomeni di echo chambers (nicchie
costruite dagli stessi soggetti) e delle filter bubbles (nicchie create dagli algoritmi).

Teorie degli usi e delle gratificazioni


Anni Settanta: ci si chiede cosa fanno le persone con i media? Piuttosto che invece domandarsi cosa fanno i
media alle persone? Ci si focalizza sul fatto che le persone utilizzano in maniera attiva i media per soddisfare
bisogni di vario genere. Teoria che nasce in un momento di ottimismo nei confronti della tecnologia e
nell’idea che il consumo mediale possa essere qualcosa di utile, interessante e benefico per le persone.
Teoria funzionalista secondo la quale:
 L’audience è attiva
 Il consumo mediale è orientato ad un obiettivo e consente un ampio ventaglio di gratificazioni
 Le gratificazioni trovano origine nel contenuto mediale, nell’esposizione e nel contesto sociale nel
quale si colloca la stessa esposizione.
Le funzioni dei media
Le funzioni attribuite ai media da Lasswell (1948) e dai successivi studiosi sono:
a) il controllo dell’ambiente, cioè la raccolta e la distribuzione delle informazioni;
b) la correlazione tra le varie parti della società e l’interpretazione delle informazioni relative all’ambiente;
c) la trasmissione del patrimonio sociale da una generazione all’altra,
d) il rafforzamento delle norme sociali
e) il prestigio di chi fruisce
f) il divertimento
Negli anni successivi, diversi studi si occupano di sistematizzare e dare rigore metodologico alle teorie
funzionaliste. McQuail et altri (1972), ad esempio, hanno proposto una tipologia con quattro categorie
funzionali:
 evasione (fuga dalla quotidianità, relax)
 relazioni interpersonali (interazione sostitutiva, compagnia)
 identità personale (rinforzo valoriale, esplorazione della realtà)
 controllo (sorveglianza dell’ambiente).
La tipologia a cinque classi costruita invece da Katz et altri (1973) prevede le seguenti classi di bisogni:
 bisogni cognitivi (acquisizione di elementi conoscitivi)
 bisogni affettivo-estetici (rafforzamento dell’esperienza emotiva)
 bisogni integrativi a livello della personalità (rassicurazione, status, incremento della credibilità);
 bisogni integrativi a livello sociale (rafforzamento dei rapporti con familiari, amici, colleghi);
 bisogni di evasione (allentamento della tensione)
Non sempre però ci sono funzioni definite dei media. L’assunto delle teorie sugli usi e gratificazioni è che gli
individui si espongono ai prodotti mediali con un obiettivo ben preciso. Tuttavia le esperienze di consumo
mediale che facciamo ogni giorno e, contemporaneamente, la riflessione teorica più aggiornata, suggeriscono
una situazione di gran lunga più complessa. Rubin (1984), per esempio, ha introdotto la distinzione fra
esposizione al mezzo televisivo di natura ritualistica e strumentale: la prima avviene quando accendiamo la
televisione semplicemente per guardarla, a prescindere da ciò che viene trasmesso; la seconda si realizza
quando la sintonizzazione avviene nell’obiettivo di guardare un programma specifico.

Le teorie funzionaliste nell’era dei media digitali


Un contributo nella direzione di individuare eventuali specificità dei nuovi media è stato fornito da Ruggiero
(2000) allorché ha richiamato l’attenzione degli studiosi su alcuni attributi di internet assenti nei media
tradizionali. Più specificamente: l’interattività, la demassificazione e l’asincronia.
Newhagen e Rafaeli (1996) hanno ampliato la lista degli attributi aggiungendo la multimedialità e
l’ipertestualità.
Sundar e Limperos (2013) nel loro lavoro di analisi del rapporto tra le affordances dei nuovi media e le
gratificazioni ottenute dai soggetti. Le affordances prese in considerazione dagli studiosi sono quelle della
modality (intesa come realismo, coolness, novità, presenza), agency (aumento delle opportunità di agency,
community building, bandwagon, filtraggio e targettizzazione, appropriazione), interactivity (interazione,
attività, controllo dinamico), navigability (browsing, aiuto alla navigazione, divertimento e gioco).

Funzioni della navigazione in internet


L’emergere di approcci critici
Con l’arrivo negli USA di alcuni studiosi tedeschi sfuggiti al nazismo, quali Adorno e Horkheimer, si fa
avanti un punto di vista diverso ed emergono nuove leve problematiche e critiche. Adorno, Horkheimer e in
generale gli studiosi della teoria critica, evidenziano i limiti della ricerca amministrativa in quanto approccio
“mediocentrico”, che si concentra sull’analisi dello status quo e dei suoi effetti, con il fine principale di
migliorare i prodotti per un consumo sempre più vasto e redditizio. Questi studiosi, quindi, denunciano
l’intreccio troppo fitto tra ricerca e logiche capitaliste.
Iniziato nell’Istituto per la ricerca sociale o Scuola di Francoforte, l’approccio della Teoria Critica nacque nel
1923 in Germania ad opera di un vasto gruppo di studiosi con interessi compositi: Herbert Marcuse, che
formulerà una critica durissima nei confronti sia del marxismo sia della società capitalistica americana che lo
aveva adottato dopo la fuga dalla Germania; Erich Fromm, che proseguirà nell’interpretazione di Sigmund
Freud e nella teoria critica della società contemporanea; Walter Benjamin, che assumerà come oggetto di
studio l’opera d’arte; Adorno e Horkheimer, infine, che studieranno la nascita e l’affermazione dell’industria
culturale. L’avvento del nazismo costringe gli studiosi a una diaspora che per alcuni di loro si concluderà, in
un primo momento, negli Stati Uniti.

Punti chiave della teoria critica:


 concetto di industria culturale al posto del concetto di cultura di massa, meccanismi di produzione di
media che assumono le stesse caratteristiche dell’industria.
 appiattimento verso lo stereotipo e il mediocre, appiattimento culturale per ottimizzare al massimo il
processo industriale.
 effetto genere come modello produttivo.
 easy listening considerato come consumo distratto che porta all’abbassamento della soglia di
capacità critica del pubblico.

Teoria critica nell’epoca del web


Viene attualizzato il pensiero della scuola di Francoforte. Il pensiero chiave in questo contesto è “La
“dittatura del dilettante”(Keen, 2007): “MySpace e Facebook hanno generato una cultura giovanile fatta di
narcisismo digitale; i siti open-source di condivisione della conoscenza come Wikipedia insidiano l’autorità
degli insegnamenti scolastici; la generazione di YouTube sembra più interessata all’autoespressione che alla
conoscenza del mondo esterno; la cacofonia dei blog anonimi e dei contenuti user-generated rendono la
gioventù contemporanea insensibile alle voci degli esperti veri e dei giornalisti professionisti; i ragazzini di
oggi sono così impegnati a divulgare se stessi sui vari social network che hanno ormai smesso di consumare
il lavoro creativo di musicisti, romanzieri e registi di professione”.
Narcisismo digitale che porta la gioventù contemporanea verso l’insensibilità della voce di esperti e di
giornalisti, si va sempre in modo diretto all’accesso di contenuti senza pestare veramente attenzione su
quello a cui si sta accedendo. Tutto ciò non comporta altro che un inevitabile abbassamento della soglia
critica perché si è continuamene bombardati da dati e informazioni.

Lezione 3 07/10

I cultural studies
Nati nel 1964 in Gran Bretagna, presso il Centre for Contemporary Cultural Studies, per opera di Richard
Hoggart e Stuart Hall, i Cultural Studies inquadrano il tema dei media come un oggetto di studio
multidisciplinare, che deve riguardare i fenomeni mediali nel loro contesto specifico, situato, tenendo quindi
conto delle micro-dinamiche sociali.
Elementi centrali di questo approccio sono l’uso di metodi etnografici e, in generale di tipo qualitativo, per
approfondire le pratiche di fruizione mediale nei loro contesti. Esempi in questo senso sono la ricerca di Lull
(1980, 1990) sulla fruizione televisiva di circa 200 famiglie per oltre 3 anni, che individua 2 funzioni:
 uso strutturale (ambientale, regolativo)
 uso relazionale (comunicazione, appartenenza, apprendimento valori, apprendimento sociale,
dominio)

Modello Encoding – Decoding

Il modello encoding-decoding evidenzia


come alla base dei processi
comunicativi ci siano processi di
interpretazione (encoding) del
messaggio, da parte degli emittenti, che
possono essere diversi dall’effettiva
interpretazione degli utenti finali.
L’azione di decoding, infatti, può
essere: preferita (quando
l’interpretazione è congruente con
quella del produttore) negoziale
(quando l’interpretazione prende solo
alcuni pezzi e li rielabora facendoli
propri selezionando e trasformando il
messaggio) o oppositiva (quando
l’effetto desiderato dall’emittente viene
capovolto dal pubblico).

Il concetto di domestication
La formulazione del concetto di domestication risale a una pubblicazione di Silverstone, Hirsch e Morley del
1992, presso la Brunel University e dedicata agli usi delle ICT nell’ambito domestico. Un lavoro che si
prefiggeva l’obiettivo di analizzare il consumo mediale e delle tecnologie nell’ambito delle relazioni e delle
dinamiche familiari e che ha avuto il merito di aver allargato l’ambito della audience research oltre i confini
dei television studies. L’addomesticamento rappresenta il passaggio di una frontiera dallo spazio pubblico
(dei negozi e centri commerciali) a quello privato (del lavoro e della casa) e attraverso questa transizione
“oggetti e significati vengono potenzialmente formati e trasformati”.
La teoria della domestication si fonda su tre elementi costitutivi:
1) l’economia morale della famiglia, e il modo in cui interagirà con il medium modificando le relazioni e i
rapporti di potere
2) una doppia articolazione tra medium come oggetto (di design, di arredo) e come mezzo di comunicazione
3) la presenza di quattro dinamiche processuali:
 Appropriazione: avviene quando il bene di consumo viene trasformato da oggetto freddo e privo di
significato in un bene che si arricchisce del valore simbolico che incarna per l’ambito familiare
 Oggettivazione: è inerente alla collocazione spaziale dell’oggetto-medium e alla sua esibizione.
 Incorporazione: riguarda invece i modi in cui gli oggetti mediali si inseriscono (e costruiscono) nelle
routine quotidiane, rientrando nei ritmi temporali dell’unità domestica.
 Conversione: definisce la relazione fra l’ambito familiare e il mondo esterno, il momento in cui
l’artefatto e i significati, i testi e le tecnologie possono essere trasformati in uno status per il
soggetto, nella sua capacità di partecipare ad una cultura pubblica. Ad esempio, utilizzando i
contenuti mediali come argomenti di conversazione con i coetanei o con altri soggetti.

Verso le audience attive


Una ricostruzione della storia della audience research che traccia questa parabola dell’«attivazione» delle
audience viene ricostruita da Nick Abercrombie e Brian Longhurst (1998) attraverso una periodizzazione che
vede:
1) l’affermarsi di un «paradigma comportamentista», connotato dall’oscillazione tra ricerche sugli
effetti dei media e quelle su usi e gratificazioni
2) l’approccio alla ricezione mediale definito «paradigma incorporation / resistance»
(incorporazione/resistenza) e identificato con i lavori basati sull’approccio encoding/decoding di
Stuart Hall
3) il «paradigma spectacle/performance», che definisce ad esempio i lavori di Silverstone e i loro.
L’approccio Spectacle/Performance evidenzia come nel panorama contemporaneo ogni individuo
oscilli tra attività di fruizione passiva (spettatore) e, in molti casi azioni di produzione attiva
(perfomer)

Ibridazione tra consumo e produzione


Abercrombie e Longhurst definiscono in tal senso un «continuum del pubblico» costituito dalle seguenti
categorie:
 Consumatori, il cui uso dei media è relativamente generalizzato e non focalizzato, la cui attività
produttiva si limita ai discorsi quotidiani con gli amici sui testi mediali
 Fan, che sono utenti particolarmente assidui dei media e che mostrano un particolare interesse per
certi generi, contenuti e personaggi mediali ma senza che questo li porti a organizzarsi con altri fan o
ad attività di produzione che non siano le conversazioni quotidiane
 Adepti, che sviluppano una competenza specializzata per certi generi e testi mediali e che
costruiscono reti informali di comunicazione costante con altri fan. Si tratta di pubblici che
all’interno di queste comunità consumano, producono e mettono in circolazione prodotti di fan;
 Appassionati, che consumano, producono e condividono, in reti organizzate di fan molto coinvolti,
dei prodotti mediali amatoriali che includono disegni, poesie, critiche o fiction basati su personaggi o
ambientazioni dei contenuti di culto per i fan;
 Piccoli produttori, il cui entusiasmo va al di là della dimensione amatoriale per orientarsi alle forme
semiprofessionali

Gli studi sugli effetti dei media, con l’avvento del web 2.0, si rivolgono sempre più a indagare le pratiche di
ibridazione fra produzione e consumo e le azioni di co-produzione dei contenuti da parte dei pubblici
connessi. Nel mondo della produzione culturale entrano, di impeto, milioni di utenti: la produzione, e non
più solo la fruizione culturale, diventa una produzione di massa, modificando completamente le logiche
comunicative a livello macro (sistemi produttivi, attori globali, rapporti con gli altri attori sociali) e micro
(pratiche individuali). Si va sempre di più verso il concetto di prosumer (producer + consumer).
Nello scorso decennio autori, come Jenkins, Ford e Green in Spreadable media, hanno analizzato in
profondità il rapporto tra consumatori, in particolare fan, e industria culturale, evidenziando come i fan si
approprino progressivamente dei prodotti culturali mainstream adattandoli, remixandoli e “aumentandoli”. I
fan, infatti, sono coinvolti in un lavoro attivo di continua trasformazione del prodotto mediale, che va oltre la
semplice interpretazione e conduce a nuovi artefatti. Nell’ultimo decennio possiamo vedere spostarsi ancora
di più il baricentro da audience che trasformano e aumentano i prodotti mainstream, a audience che
diventano produttori di contenuti ex novo, sostituendosi completamente agli attori professionali nel processo
di produzione culturale.

Lezione 4 8/10

Le caratteristiche delle interfacce digitali


- MULTIMEDIALITÀ
Esperienza multisensoriale, integrazione di diverse modalità comunicative in un unico prodotto. Il
multimedia esiste prima e oltre l’utilizzo del digitale e dell’utilizzo del computer.
Es. Wagner, il concetto di Opera d’Arte Totale (1813-1883). La visione di Wagner comprendeva
l’unificazione di tutte le arti (musica, danza, poesia, pittura, architettura) in una totalità, la Gesamtkunstwerk.
Es. Il Bauhaus (1888-1943). La visione del teatro di W. Gropius e del Bauhaus era di rompere con
risolutezza gli schemi in voga della separazione spaziale tra palcoscenico e uditorium, per creare un
ambiente e un medium interattivo che “avrebbe reso lo spettatore partecipe del dramma in scena”. Altro
principio base della scuola era la fusione di forma e funzione, di arte e tecnologia, di design ed estetica.
Morton Heilig Sensorama, 1962. Ispirato da curiosità come il Cinerama e i film 3D, Heilig pensò che
un’estensione logica del cinema sarebbe dovuta essere immergere l’audience in un mondo sintetico che
coinvolgesse tutti i sensi. Egli pensò che espandere il cinema significava coinvolgere non solo vista e udito,
ma anche tatto, olfatto, gusto. Le tradizionali quattro mura del film e del teatro si sarebbero dissolte,
trasportando il pubblico in un mondo virtuale. Egli chiamò quest’esperimento "experience theater," e costruì
il Sensorama, attraverso il quale si poteva attraversare virtualmente le strade di Brooklyn ed esperire diverse
avventure.

Graphical user interface: multimedialità e mimesi


Negli anni ‘70 Alan Kay, lavorando per Xerox Palo Alto Research ed ereditando le intuizioni di D.
Engelbart, introduce il concetto di GUI (Graphical User Interface) e con questo rivoluziona il paradigma di
interazione uomo-macchina. Il principio delle interfacce grafiche si basa sul concetto di “simulazione” per
consentire agli utenti di agire sugli oggetti del computer e sui programmi senza utilizzare la complessa
sintassi dei linguaggi di programmazione. L’utente è in grado di interagire con il computer semplicemente
muovendosi all’interno di ambienti simulati (la scrivania, il foglio di scrittura, una console di comandi simile
a quelle aerospaziali). Cambia completamente il modo di interagire con il computer, non era necessario
conoscere il linguaggio del computer, si crea una mimesi anche con la nostra corporeità (es. con il mouse
trasciniamo le cose sullo schermo, in una cartella…). Anche se lontano dalla nostra gestualità queste
interfacce, grazie alla loro mimesi, permettevano alla gente di essere usate anche in modo molto intuitivo.
Le interfacce Gui prevedono:
 la manipolazione diretta (agire su menu e icone, invece che impartire comandi scritti), poter parlare
con le macchine manipolando gli oggetti
 la visualizzazione “What You See Is What You Get” (WYSIWIG), quello che vedi è quello che
ottieni, introducono l’idea che ad ogni nostro movimento corrisponda un feedback diretto che ci
indica quanto stiamo avanzando nella procedura, non bisogna fare operazioni simboliche e
concatenate.
 l’uso della metafora della scrivania, cioè un modello concettuale familiare all'utente.
 la possibilità di diverse opzioni per la visualizzazione degli oggetti e quindi la personalizzazione,
ridondanza di possibilità come strumento per supportare l’utente (es. se si vuole aprire un file si può
cliccare su diverse sorgenti e anche più volte), tutto ciò fatto per aumentare la trasparenza nell’uso
delle interfacce.
 l’introduzione di comandi universali fissi come copia, sposta, cancella -un alto grado di consistency,
coerenza linguistica tra le applicazioni, tutti i programmi contengono gli stessi comandi con anche lo
stesso nome in modo da facilitare e rendere intuitive le interfacce senza dover imparare nuovamente
i comandi in modo tale che l’utente sia molto più sciolto nell’interazione con le interfacce.

Un autore che ha lavorato molto su come le interfacce grafiche possono raggiungere l’obiettivo di essere
trasparenti, ovvero dimenticarsi dell’interfaccia per dedicarsi semplicemente al compito da effettuare, è Ben
Shneiderman (1986) che ha enunciato tre principi base della Direct Manipulation:
1) Rappresentazione continua degli oggetti e delle azioni di interesse con metafore visive significative.
2) Uso di azioni fisiche invece di sintassi complessa es. trascinare, cliccare, swipe, zoom…
3) Reversibilità delle operazioni e visibilità immediata dell’effetto delle azioni sull’oggetto, gli utenti
possono tornare indietro nelle azioni che fanno, approccio molto meno ansioso a quello che accadeva
prima con l’uso soltanto dei comandi. Le interfacce diventano proprio qualcosa alla portata di tutto,
anche l’utente comune poteva approcciarsi a questi contenuti senza stress e senza fare danni.

I principi di Shneiderman
Consistency. Sequenze coerenti di azioni dovrebbero essere richieste in situazioni simili.
Consenti agli utenti assidui di utilizzare le scorciatoie.
Offri un feedback informativo su ciascuno stato del sistema
Le sequenze di azioni dovrebbero essere organizzate in gruppi con un inizio, una parte centrale e una fine.
Offri una gestione degli errori semplice. Progetta il sistema in modo che l'utente non possa commettere un
errore grave...
Consenti una facile inversione delle azioni. Questa funzione allevia l’ansia.
Supporta il locus of control interno. Gli operatori esperti desiderano fortemente la sensazione di essere
responsabili del sistema
Progetta il sistema per rendere gli utenti gli iniziatori delle azioni piuttosto che i rispondenti.
Riduci il carico di lavoro della memoria a breve termine

Shneiderman enuncia anche una serie di benefici e vantaggi della Direct Manipulation:
 i novizi possono imparare le operazioni di base in fretta con una dimostrazione o da soli;
 gli esperti possono rapidamente procedere su diverse opzioni
 chi usa il sistema non quotidianamente può comunque ricordare facilmente le funzioni; -i messaggi
di errore sono raramente necessari
 l’utente vede subito se le sue azioni realizzano l’obiettivo e può velocemente cambiare azione
 l’esperienza ha un carico inferiore di ansia perché il sistema è comprensibile e le azioni possono
essere invertite facilmente (Undo, annulla); -l’utente acquista fiducia e capacità

La rivoluzione wysiwyg: La Direct Manipulation è un’alternativa ad altri sistemi di interazione come i


menu, il form filling, il command language, il natural language (utilizzo del linguaggio vocale).

Interfacce alternative alle GUI


Anche il form filling, il command language, il natural language tuttavia, hanno i loro aspetti positivi e in certi
contesti sono più usabili. Nei casi, ad esempio, in cui non si ha dimestichezza con il sistema, la possibilità di
avere il menu con tutte le opzioni favorisce il processo di decisione e di apprendimento. Se devo introdurre
dei dati nel sistema, la formula del form filling con chiavi, regole, opzioni, ecc. è più utile. Il command
language è più complesso da imparare, ma produce un forte senso di controllo e iniziativa dell’utente nei
confronti del sistema. Il natural language permette di interagire tenendo libere mani e occhi. Tutti questi
modelli di interazione sono stati integrati nelle interfacce attuali, sia web che mobile.

Interfacce basate sul linguaggio naturale e interfacce vocali


Le interfacce vocali si basano sul Natural Processing Language (NPL), a diversi livelli di complessità:
 sistemi di Question Answering
 chatbot generativi
 sistemi conversazionali task-oriented
I sistemi che permettono l’analisi dei messaggi in linguaggio naturale e l’elaborazione di risposte mirate sono
definiti chatbot (applicazioni conversazionali la cui user interface è lo scambio di testi, tipicamente in
applicazioni di messaggistica istantanea su smartphone) o voicebot (applicazioni conversazionali la cui
interfaccia si attua attraverso la voce.
Esempi conosciuti al pubblico consumer di interfacce vocali sono: SIRI (sistema di help vocale di IOS),
Cortana (sistema di help vocale di Android), Amazon Echo e Alexa, e il nuovo robot mobile Astro, Google
Home.

- IMMERSIVITÀ
Ivan Sutherland scrisse, nel 1965, The Ultimate Display, nel quale faceva le sue prime scoperte in relazione
al rapporto tra computer e design, esplorandone le potenzialità per la costruzione, navigazione e abitazione di
mondi virtuali. Sutherland preannunciò importanti scoperte che resero successivamente realistica la
costruzione di mondi sintetici virtuali. Molti anni prima dell’invenzione del personal computer, nel 1970
realizzò un fondamentale passo avanti verso la realtà virtuale, implementando lo head-mounted display - un
elmetto dotato di visori oculari in grado di proiettare l’utente in un mondo immersivo in 3D.

Realtà virtuale: In base alla classificazione di Bettetini-Colombo (1993) possiamo distinguere due tipi di
realtà virtuale. Entrambe basate su concetti di mimesi, esse si distinguono per il livello di trasparenza
dell’interfaccia:
 Realtà virtuale emersiva: qtvr, vrml, google street view, videogame, realtà navigabile a 360 gradi ma
all’interno di uno schermo. Es. google street view e google street art. Google, dopo aver lanciato
Street view, sistema di navigazione geografica a 360, ha avviato altri territori, come l’arte e la
performance fruibili con immagini e video navigabili a 360 gradi
 Realtà virtuale immersiva: cave, dispositivi dataglove, head mounted display…

Realtà virtuale immersiva: view


Uno dei primi sistemi complessi di realtà virtuale immersiva, dopo l’esperimento di Heilig, è stato il sistema
VIEW (Virtual Environment Workstation). Ideato da Scott Fisher nei tardi anni 90 presso i laboratori della
NASA, esso riprendeva l’head mountain display, aggiungendo la visione stereoscopica, un microfono per
audio 3D, sistemi di riconoscimento vocale e dataglove, guanti per l’interazione manuale con la realtà
virtuale.

Realtà virtuale emersiva: rappresentazione del sistema cave, ideato da Daniel Sandin e Thomas Defanti nel
1992. A differenza dei sistemi immersivi esso mira a creare un’interazione tra mondo fisico e virtuale,
conservando la consapevolezza del “palcoscenico digital”. Possibilità di muoversi dentro la scena e dirigere
il punto di vista (diverso, perciò, dal film in 3D).

Altri esempi: Il film Hackers, (1995) diretto da Iain Softley. La rappresentazione chiave del film è proprio la
“città di testo”.
City of news, progetto del MIT di Boston. includeva la visualizzazione dello spazio web attraverso una
rappresentazione tridimensionale di una città, esplorabile tramite movimento.

La realtà virtuale è usata oggi in moltissime declinazioni e quello che è più di traino sono i videogame.
Inoltre anche altri settori sono stati trainati nell’utilizzo della realtà virtuale. Più recentemente rispetto alle
applicazioni di realtà virtuale, sono nati i sistemi di realtà aumentata, che prevedono la sovrapposizione di
informazioni, testuali e/o iconiche alla realtà fisica, tramite l’uso di appositi occhiali (es. Google glasses) o
con l’utilizzo dello smartphone o di un tablet. Attualmente una delle applicazioni più riuscite di realtà
aumentata è stata legata a un gioco: Pokemon Go. Ispirandosi a questa case history di successo sono nati
diversi urban game, ARG (Alternate Reality Game).
Anche il Vaticano aveva creato un’applicazione di realtà aumentata chiamata “Follow Jesus Christ Go”,
remake di Pokemon go, nel quale c’era l’idea di seguire e trovare degli oggetti riconducibili al modo e allo
stile di vita di Gesù, seguire indizi che ti facevano comprendere se si stava seguendo un cammino di fede
giusto oppure sbagliato.

Wearable computer
Nell’ambito delle interfacce bisogna anche pensare al fatto che queste sorpassino l’idea di mouse o occhio
come strumento di navigazione e che si dirigano sempre di più verso la possibilità di indossare queste
interfacce. L’indossabilità dell’interfaccia, iniziata con gli head mounted display, prosegue oggi con i
wearable computer e con gli ubiquitous computer, che rendono l’interazione totalmente trasparente e
immersiva (es. wii come evoluzione del wearable, il nostro corpo diventa il mouse che si muove dentro il
sistema).
Si è arrivati anche all’unione del wearable computer e le interfacce neurali, ovvero wearable computer che si
aggancia alle nostre onde celebrali. Nascono interfacce che non hanno nemmeno più bisogno del nostro
movimento ma si basano interamente sul pensiero (lettura diretta del cervello).

Esoscheletri: L'esoscheletro è un apparecchio cibernetico esterno in grado di potenziare le capacità fisiche


(forza, agilità, velocità, potenza, ecc.) dell'utilizzatore che ne viene rivestito e che costituisce una sorta di
"muscolatura artificiale”. Il futuro vede l’interfaccia neurale del cervello sempre più connessa al corpo e alle
sue estensioni cibernetiche. L’interfaccia diventa il corpo.

Il wearable “light” degli smartphone


Accelerometro: serve per misurare l’accelerazione del device. Funziona soprattutto in tandem con il
giroscopio.
Giroscopio: insieme all’accelerometro è uno dei sensori principali degli smartphone ed è utilizzato dai
dispositivi mobili per individuare ogni movimento. Grazie al giroscopio è sufficiente inclinare lo smartphone
per cambiare prospettiva o muovere un oggetto all’interno di un gioco, ad esempio.
Sensore di luminosità: questo sensore è utilizzato dallo smartphone per adattare in maniera automatica la
luminosità del display alla luce ambientale e ottimizzare in questo modo la visualizzazione dello schermo.
Termometro: è un sensore che serve proprio per misurare i gradi raggiunti dal dispositivo
GPS: sensore che permette di utilizzare le applicazioni di navigazione, come ad esempio Google Maps. E
non solo. Il GPS è impiegato anche da altre app a cui serve “geolocalizzare" gli utenti.
Lettore impronte digitali: sbarcato inizialmente solo sui dispositivi di fascia alta, ultimamente il lettore di
impronte digitali è integrato su quasi tutti gli smartphone. Si tratta di un sensore molto importante sul fronte
della sicurezza perché consente agli utenti di sbloccare il dispositivo utilizzando l’impronta del dito. Con
l’arrivo dei sistemi di pagamento elettronici, come ad esempio Apple Pay, può essere utilizzato anche per
completare in sicurezza gli acquisti.
Magnetometro: questo è un altro sensore molto importante poiché misura l’intensità e la direzione di un
campo magnetico. In pratica, se potete scaricare e usare applicazioni di bussola è perché sul dispositivo
mobile è presente proprio il magnetometro.
Sensore di prossimità: per farvi capire la funzionalità del sensore di prossimità è sufficiente pensare a quando
il display dello smartphone, durante una chiamata, si spegne. Come è possibile? Il sensore utilizza un
meccanismo (le onde riflesse) che permette al dispositivo di disattivare lo schermo se un oggetto, come ad
esempio il volto o l’orecchio, si avvicina troppo. Il sensore di prossimità è molto utile in quanto impedisce
allo smartphone di eseguire funzioni non volute dall’utente.
In quest’ottica il contrario della realtà virtuale è quello che viene definito ubiquitous computer, ovvero
l’internet distribuito nelle cose (internet of things, IOT). L’ubiquitous computing è un paradigma di Human-
Computer Interaction che prevede che i sistemi di calcolo siano integrati in modo invisibile ovunque nel
mondo intorno all’uomo e accessibili tramite interfacce intelligenti, per cui possono essere utilizzati in modo
naturale, quasi inconsapevolmente. Il termine fu coniato intorno al 1988 da Mark Weiser.
Nel mondo della realtà virtuale, quindi, convergiamo tutti verso uno schermo dove è poi contenuta tutta
l’intelligenza. Nel caso dell’ubiquitous computer l’intelligenza è distribuita negli oggetti.
I sistemi IOT, in particolare attraverso tecnologie come NFC (Near Field Communication), Bluetooth, Wi-fi,
e l’emergente 5G, permettono ai sistemi artificiali di recepire informazioni geolocalizzate; ascoltare; parlare;
vedere; e tracciare cose.
Internet of things oggi: La comunicazione umano-umano è così oggi integrata da comunicazione: umano-
macchina; macchina-umano e macchina-macchina, attraverso l’IOT le macchine e gli oggetti comunicano tra
di loro es. con centrali che danno informazioni sul traffico, sul temi ecc.
Con i sistemi di IOT la trasparenza delle interfacce diventa totale, i nostri input vengono poi trasmessi al
sistema. Tutto questo però porta anche a questioni legate al tema della sorveglianza perché vuol dire che si è
perennemente un device di input su quello che facciamo, su ciò che si sceglie e nei posti in cui si va.

Lezione 5 21/10

Un altro tipo di interfaccia interessante è il NUI, ovvero le natural user interfaces o anche dette TUI
(Tangible User Interfaces) sono sistemi generalmente multi-touch e multi-user, che permettono
un’interazione naturale, diretta, fisica con lo spazio dell’informazione, a differenza delle comuni GUI che
prevedono una relazione indiretta, tramite dispositivi come tastiera e mouse ed una risposta prevalentemente
grafica. Le NUI sono dunque contraddistinte dalla manipolazione diretta da un alto livello di immersività, da
un’associazione emotiva che ricorda il gioco, dall’adattabilità ai compiti collaborativi e sociali.
Le interfacce naturali prevedono l’inclusione del tatto, ci coinvolgono quindi anche a livello di percezione
diverse es. possibilità di muovere della sabbia per muovere dei dati. Coinvolgono quindi una sfera sensoriale
che normalmente non viene considerata dalle interfacce
- INTERATTIVITÀ
Rispetto ai media di massa, quelli digitali si caratterizzano moltissimo per un potenziamento enorme delle
capacità interattive.
Allan Kaprow coniò il termine “Happening” nel 1950, iniziando un genere di grande popolarità negli anni
‘60. Gli Happenings sono difficili da descrivere, in quanto ogni volta definiti dall’azione con il pubblico.
Happenings, come Household, del 1964, erano tenuti in spazi fisici e connettevano persone, oggetti, eventi
giustapponendoli in modo sorprendente l’uno con l’altro. Kaprow vede l’arte come veicolo per espandere la
nostra capacità di promuovere eventi e interazioni inaspettati. Egli incoraggiava il pubblico a fare le proprie
associazioni e collegamenti tra idee e eventi. Queste strategie narrative riportano a non lineari modalità di
comunicazione e all’uso dell’indeterminatezza come propulsore estetico. La decentralizzazione
dell’autorialità, unita all’immaginazione e alla partecipazione degli spettatori anticiperà lo sconfinamento
dello spazio e tempo attuato attraverso i nuovi media.
Brenda Laurel (Computer as theatre, 1993), esperta di videogiochi e teorica della Human Computer
Interaction, individua 3 fattori di successo per un sistema interattivo computerizzato:
 Frequenza: ogni quanto è possibile interagire es. comunicazione mediale (una volta con le lettere ci
volevano giorni per raggiungere il nostro destinatario e altrettanti giorni per ricevere una risposta) il
digitale velocizza questa frequenza di interazione, per avere una risposta dal nostro interlocutore
bastano anche solo minuti o comunque pochissimo tempo
 Campo di variabilità: quante sono le scelte disponibili, il digitale ha ampliato la possibilità di scelte
che si possono fare es. nei videogame si possono cambiare i parametri della situazione in qualsiasi
momento, al contrario della televisione dove le possibilità di scelte sono minori, più ristrette (es.
audio, saturazione…)
 Rilievo: fino a che punto le scelte influiscono effettivamente sui problemi, l’impatto che la nostra
azione ha sull’oggetto che stiamo manipolando e sull’esperienza che stiamo vivendo. Con il digitale
si ha molto più rilievo, potere sulla scelta che si sta facendo.
Per lei quindi il teatro, e in particolare l’happening teatrale, costituiscono il massimo livello di interattività
che il computer può prendere a modello
Ogni prodotto/contenuto interattivo può essere collocato diversamente su questi tre parametri. I media di
massa non è che non avessero possibilità di ritrovarsi in uno di questi tre parametri ma nel loro caso erano
parametri ben diversi.

- INTERCREATIVITÀ
Esempi di intercreatività sono ambienti digitali che permettono la rielaborazione collettiva a partire da
modelli precostituiti dal sistema oppure da altri utenti. Nel mondo del web 2.0 ci sono prodotti che
amplificano la libertà del prodotto in quanto gli utenti possono inserire quello che vogliono. Questa libertà
però col tempo ha incominciato ad essere sorvegliata da veri e propri redattori in modo tale che ciò che ce
iva inserito nelle diverse pagine rispettasse i criteri comuni e condivisi es. pagine Wikipedia dove vengono
controllati i contenuti al fine che possano essere usati come fonti attendibili.
Es. minecraft – costituisce un modello videogame dove il gioco è affidato completamente alla libertà e alla
creatività dell’utente. Il gioco è proprio quello di costruire la propria storia e la propria narrazione dentro un
mondo virtuale.

Tutte queste caratteristiche dell’interfacce portano a notevoli cambiamenti anche nel modo in cui noi
comunichiamo con gli altri.
La comunicazione mediata dal computer (CMC) – prima fase di studi
Gli studi sulla comunicazione mediata dal computer iniziano dagli anni ’80, rivolti soprattutto ai contesti
aziendali e organizzativi perché internet veniva inizialmente usato in questi contesti (con la nascita della
mail). I temi chiave in questo ambito erano la leadership, le decisioni di gruppo e l’efficacia ed efficienza
organizzativa.
Uno dei primi studi che venne fatto fu l’approccio reduced social cues (Kiesler 1984) che mostra, attraverso
esperimenti empirici di confronto tra gruppi on line e faccia a faccia, gli effetti della riduzione degli
indicatori sociali veicolati dalla comunicazione mediata dal computer. Questa mancanza di indicatori sociali
portava a due effetti: da una parte maggior libertà di espressione, maggior democraticità nella discussione,
emergevano più idee e più punti di vista ma, dall’altro lato però si notò un rallentamento dei processi
decisionali. Questo accadeva perché normalmente, nella dinamica comunicativa/organizzativa, si rispettano
le posizioni, parlando se è consentito farlo e poi si prende una decisione. In un contesto dove tutti scrivono la
propria senza un ordine gerarchico si finisce per difendere sempre la propria opinione senza arrivare a
prendere una decisione finale. Secondo questo approccio di ricerca, quindi, la comunicazione mediata dal
computer produce minore coordinamento decisionale, rissosità (flame) e incapacità di normare le
comunicazioni on line.
Con il tempo, però, al posto che considerare le reduced social cues una variabile indipendente in grado di
influenzare in toto la comunicazione sociale, sono state considerate diverse caratteristiche mediali in grado di
produrre effetti sulla socialità come le problematiche spazio-temporali, i partecipanti e la natura
(prevalentemente) scritta della comunicazione mediata.
Comunicazione mediata dal computer e aspetto spazio-temporale: per quanto riguarda l’aspetto spazio-
temporale, la comunicazione mediata dal computer ha comportato una drastica riduzione del ruolo della
prossimità spaziale e temporale nelle relazioni. Questo ci permette di posizionarci a distanza dagli altri non è
più necessario essere qui, e ora, per intessere uno scambio comunicativo. Questo ha comportato un aumento
del potenziale di socialità e di impegno interpersonale agibile dal singolo individuo. La possibilità che non
abbiamo di mettere una distanza di spazio e tempo con gli altri ci permette di usare questo spazio e questo
tempo di più per elaborare la nostra comunicazione. Inoltre la possibilità di rileggere, riscrivere, editare la
propria comunicazione interpersonale prima di inviare un messaggio, quindi disporla in maniera analitica
nello spazio e nel tempo, attraverso la scrittura, comporta l’aggiunta di un livello meta-riflessivo alla
comunicazione interpersonale (Walter Ong 1992), lo spazio della relazione si ibrida con lo spazio della
scrittura, e con le sue regole.
Comunicazione mediata dal computer e spazio: tra villaggio globale e cyberbacanizzazione
Da una parte la despazializzazione delle relazioni ha portato a interpretare la comunicazione on line come la
realizzazione compiuta del villaggio globale di McLuhan, dall’altra, posizioni più pessimiste hanno
sostenuto l’emergere di fenomeni di isolamento e di chiusura culturale, legati alla possibilità di ghettizzarsi
in comunità di interessi on line blindate. Il cosiddetto bubble effect.
Filter bubble effect e echo chamber – secondo Hogan (2010) le persone tendono a censurare i propri post
verso il “lowest common denominator” di tutti i propri amici del proprio specifico account piuttosto che
considerare una distinzione pubblico e privato o piuttosto che costruire liste. All’aumentare della lista di
amici, la discussione su topic sensibili è sempre più difficile. Questo crea uno spazio egemonico,
mainstream, “medio”, dove si autocensurano le posizioni personali alternative perché si percepisce il rischio
di poter urtare qualcun’altro si auto applica un “filter bubble effect” (Pariser 2011) dove Facebook mostra
solo ciò che le persone vogliono vedere gli utenti tendono a omogeneizzare le proprie strategie di
condivisione dei contenuti, condividendo solo opinioni giudicate socialmente gradite (echo chamber).

Comunicazione mediata dal computer e partecipanti: questo aspetto riguarda la scarsità delle
informazioni relative ai partecipanti e il loro effetto sull’identità e sulle relazioni. Superato l’approccio
deterministico della fase reduced social cues, si indagano aspetti complessi, quali: la definizione di identità
multiple; il web come spazio di moratorium e ridotto rischio sociale e la definizione di pubblici invisibili.
Identità autentiche: “Anonimity is part of the magic” (Myers 1987; Haraway, 1991; Stone 1995; Turkle
1996). Per loro il digitale permette di essere più liberi dalle proprie griglie sociali e biografiche, si poteva
esprimere un’identità più libera. L’assenza di questi vincoli social, negli studi che avevano fatto in quegli
anni, rendeva possibile staccarsi dalla propria identità e condividere contenuti che fossero lontani anche da
ciò che si faceva vedere quotidianamente. Per altri, invece, l’anonimato incentiva e favorisce, nelle persone,
la capacità di dire la verità e di essere più oneste, bypassando i rischi che correrebbero off line. (Mc-Kenna e
Bargh, 2000).
Spesso, infine, le identità online, invece che essere sganciate dai contesti, sono un patchwork fortemente
contestualizzato alle molteplici realtà sociali off-line. L’identità on line, in questi casi, ad esempio quella
costruita tramite le pagine personali, è quindi luogo di ricomposizione dei molteplici e spesso frammentari sé
vissuti nel quotidiano (Gofmann 1966).
Identità multiple: autrici come Turkle (1996), e Stone (1995) evidenziano l’emergere dello spazio virtuale
come una risorsa innovativa per la ridefinizione del concetto di identità, non più legata fortemente al sé
corporeo e/o a fattori contestuali (il luogo dove si vive, il proprio lavoro), ma costruibile in relazione
all’universo simbolico di desideri e proiezioni degli individui. Tali identità simboliche non vengono
considerate dei “falsi”, delle bugie, ma piuttosto delle finestre molteplici dalle quali guardare agli individui
con minori limitazioni. Identità multiple come idea che ognuno non debba avere solo un’identità ma una
possibilità di libertà che ha l’individuo post-moderno di rappresentarsi facendo uso di più identità.
Web come spazio di moratorium: si parla di nuovo luogo di moratorium (concetto risalente ai romani) cioè di
spazio, paragonabile al ruolo che nelle società pre-moderne aveva il carnevale, dove è possibile in un
contesto limitato temporalmente trascendere le regole del vivere civile, trasgredire: la trasgressione
controllata è infatti funzionale al sistema civile. Idea che il digitale crei spazi di moratorium quindi dove la
comunicazione, mediata attraverso la possibilità di agire ed esprimersi senza filtri sociali, ci permetta di
avere delle aree di libertà che non avremmo nella società reale e fisica.
La comunicazione mediata dal computer è fredda o calda? A fronte dei primi studi che volevano la
comunicazione mediata dal computer povera di indicatori sociali e quindi di strumenti di empatia, diversi
studi successivi (Meyers 1987) hanno mostrato come il gioco, la convivialità e il desiderio di calore e
spontaneità (aspetti caldi) sono molto frequenti nella comunicazione mediata dal computer, soprattutto a
causa della “effimerità’, velocità, interattività e libertà dalla tirannia dei materiali”.
Pubblici invisibili: nella comunicazione mediata dal computer cambia anche il modo in cui gli individui si
relazionano al loro pubblico durante la comunicazione. Mentre nella comunicazione faccia a faccia è sempre
chiaro e inequivocabile il proprio destinatario, nella comunicazione mediata dal computer non sempre è
possibile sapere a priori chi e quanti saranno i propri destinatari. La stessa comunicazione può avere, quindi,
tanti livelli di lettura.
Thompson (1998) studia l’effetto della comunicazione mediata già nella tv, definendo le interazioni che
avvengono tra emittenti e destinatari tv come: quasi-interazioni mediate. Sul web il panorama si complica.
Insieme alle quasi-interazioni mediate, avvengono anche interazioni mediate in modo sincrono.

Comunicazione mediata dal computer e nuove relazioni sociali: la comunicazione mediata dal computer,
basando la creazione di nuove relazioni non su indicatori fisici, ma culturali (il modo di scrivere, di
presentarsi, cosa si dice e come), mette in discussione le classiche teorie dell’interazione sociale, come il
modello della penetrazione sociale (Lea e Spars 1995), suddiviso in fasi, dove la prima è veicolata
soprattutto dall’aspetto fisico. In ogni caso anche le relazioni avviate tramite la comunicazione mediata dal
computer, seguono un andamento prevedibile mirato, progressivamente, a ridurre l’incertezza e ad aumentare
l’affinità: si passa ad esempio dalla discussione pubblica, a quella privata asincrona (mail) a quella sincrona e
infine al faccia a faccia.

Comunicazione mediata dal computer e relazioni esistenti: diversi studi evidenziano, in maniera
contraddittoria, gli effetti della comunicazione online sulle relazioni esistenti. A fronte di alcuni studi (Wolak
et al. 2003) che mostrano gli adolescenti on line più insicuri e conflittuali dei loro coetanei off line,
soprattutto con i genitori, diversi altri studi evidenziano che i forti comunicatori on line di solito usano di più
anche telefono e comunicazione faccia a faccia, e che oggi molte delle relazioni, anche parentali (es. Tra
fratelli) vengono gestite in maniera massiccia (circa il 10% delle comunicazione) attraverso strumenti on
line, in primis la mail.

Comunicazione mediata dal computer e concetto di community:


Van Dijk (1998) crea una tassonomia per descrivere le principali
caratteristiche delle comunità on line, rispetto a quelle off line, che
definisce “organiche”.

Internet e la discussione pubblica: idea che il digitale ci permette


di essere più liberi nell’esporre le proprie idee e quindi di creare discussioni pubbliche tali da potersi
esprimersi liberamente.
Schneider (1997) ha studiato l’influenza di tali comunità nel modellare la sfera pubblica, analizzando un
forum sull’aborto e raccogliendo una base empirica di oltre 46.000 messaggi. Per interpretare il ruolo di
questi forum nel costruire e modificare la sfera pubblica, Schneider ha analizzato le 4 dimensioni di
Habermas (1989) relative alla sfera pubblica, queste quattro dimensioni servono anche per capire se nella
discussione pubblica si ha un grado di libertà o se questo viene a mancare. Queste dimensioni sono:
 uguaglianza nell’accesso all’arena del dibattito , si può guardare se l’accesso all’arena di dibattito è
libero o no e quindi se si deve seguire qualcosa per potervi partecipare.
 diversità di opinioni e argomentazioni irrilevanti , si può dunque osservare se c’è eterogeneità nei
messaggi oppure se sono tutti diversi.
 reciprocità o grado di interazione tra i partecipanti , si può guardare se tutti sono in grado di interagire
allo stesso modo o se ci sono alcuni che intimidiscono e prendono maggiormente la scena
 qualità delle informazioni, si vede il tipo di contenuto del dibattito, se è approfondito o se si tratta di
insulti o di beceri commenti.
Queste caratteristiche possono permetterci di capire quanto un contesto di discussione pubblica sia o non sia
democratico e di qualità.

I networks
A partire dagli anni 90 si passa, progressivamente, dal concetto di community a quello di network. Un
modello nuovo di socialità, basato, secondo Wellman, sull’emergere di legami deboli, i cosiddetti weak ties.

Networked individualism: Lee Rainie e Barry Wellman, nel lavoro Networked: The New Social Operating
System (2012), attraverso l’analisi combinata di una rilevante mole di dati qualitativi e quantitativi, raccolti
lungo dodici anni di ricerche, esplorano la natura della società in rete mettendo in relazione lo sviluppo delle
tecnologie dell’informazione e della comunicazione con quella delle reti sociali delle persone. La pietra
angolare di questo studio è il concetto di networked individualism, già sviluppato nelle ricerche di
Wellman (2002), che mette in luce come, attraverso le tecnologie di comunicazione e internet in mobilità, si
sia passati dalla connettività tra i luoghi a quella tra le persone. Gli individui sono sempre meno vincolati a
reti parentali, di vicinato e piccolo gruppo e sempre più orientati verso network personali più allargati, molto
diversificati e caratterizzati da minor coesione sociale: «gli individui networked sono caratterizzati da forme
di appartenenza parziale a molteplici network e fanno meno affidamento su forme di appartenenza
permanente a gruppi stabili»

Lo sviluppo dell’individualismo interconnesso

Le nuove logiche relazionali: si ha una moltiplicazione della weak ties (legami deboli, persone eterofile,
diverse da noi) e una diminuzione di quelli che sono gli strong ties (legami forti, di tipo omofiliaco cioè di
persone molto simili a noi provenienti ti dal nostro stesso contesto). Si passa sempre di più da relazioni
faccia a faccia a quelle nella rette. I social facilitano i messaggi mediati e la manutenzione della propria rete
sociale, delle proprie weak ties.

Comunità vs networked individualism


Questa forma di connettività estesa e flessibile, caratterizzata da barriere sufficientemente permeabili e dalla
possibilità di passare quasi senza soluzione di continuità da un network a un altro, contraddistingue la società
contemporanea e segnala la prevalenza dell’appropriazione personale delle dinamiche di relazione sociale.
“Piuttosto che essere organizzati in gruppi chiusi e discreti – a casa, nella comunità, al lavoro, all’interno
delle organizzazioni – le persone sono in perenne movimento come singole individualità tra diversi network
separati da confini sfumati (fuzzily-bounded networks)”

Ogni persona è simile ad un «quadro comandi» che gestisce legami e network. Le persone rimangono
connesse ma in quanto individualità autonome, non sulla base del fatto che hanno i piedi ben piantati nella
‘casa base’ del contesto familiare e di lavoro. Ogni persona attiva in modo selettivo i propri network per
ottenere informazione, collaborazione, direttive, supporto, senso di socialità e di appartenenza

La network society: Manuel Castells


Manuel Castells comincia a delinearne i contorni a partire dalla trilogia The Information Age – The Rise of
the Network Society (1996), The Power of Identity (1997) e The End of Millennium (1998). Castells
rintraccia le radici della trasformazione tra la fine degli anni Sessanta e la metà degli anni Settanta a partire
da tre fattori indipendenti:
1) l’affermarsi delle tecnologie dell’informazione;
2) la crisi dei modelli socio-economici capitalisti e statalisti e una loro ristrutturazione;
3) l’affermarsi di alcuni movimenti culturali per la difesa dei diritti umani, l’ambientalismo e il
femminismo. L’intreccio fra questi fattori ha dato vita a «una nuova struttura sociale dominante, la
società in rete; una nuova economia, l’economia informazionale/globale; e una nuova cultura, la
cultura della virtualità reale»

Punti chiave della riflessione sulla Network Society:


1. SEGMENTAZIONE. I pubblici si segmentano in modi sempre più complessi sotto la spinta di una duplice
tensione, quella del marketing editoriale attraverso forme di targettizzazione sempre più raffinate e quella
delle persone che sfruttano le possibilità interattive e di selezione per approcciare contenuti diversificati;
2. STRATIFICAZIONE. Una stratificazione sociale prodotta da un divario conoscitivo e da diseguaglianze
non solo sulle competenze, l’accesso e l’uso, ma relative anche alle ricadute tra inclusi ed esclusi dai
meccanismi di partecipazione attraverso i media;
3. INTEGRAZIONE CROSSMEDIALE. Forme di comunicazione diverse che vengono fruite dagli stessi
ambienti mediali tenderanno a miscelare i loro codici producendo forme ibride, come l’infotainment o il
processo di gamification applicato a diversi ambiti di contenuto; o finendo per confondere i codici simbolici,
come nel caso di siti che producono false news che finiscono per circolare come contenuti informativi.
Trattandosi poi di ambienti interattivi, quelli che sono i pubblici finiscono per partecipare al processo anche
sul versante della produzione (e circolazione)
4. IBRIDAZIONE DI ESPRESSIONI CULTURALI ALTE E BASSE . La differenza fra cultura alta e bassa
viene annullata nel flusso comunicativo di contenuti. In pratica «ogni espressione culturale, dalla peggiore
alla migliore, dalla più elitaria alla più popolare, sfocia in questo universo digitale che collega in un
gigantesco ipertesto astorico le manifestazioni passate, presenti e future della mente comunicativa».

Mass-self communication: Castells definisce come mass-self communication la forma di comunicazione


che è basata sul considerare internet secondo tre termini:
1. resta di massa, poiché può raggiungere un’audience globale
2. è multimodale, perché la natura digitale dei contenuti e la disponibilità, spesso gratuita, di social software
permettono di dare forme nuove ai contenuti e distribuirli online;
3. è autogenerata per quanto riguarda i contenuti, autodiretta per quanto riguarda i meccanismi di emissione
ed è auto selezionata per quanto attiene la ricezione, il tutto all’interno di reti molti-a-molti. Pur avendo
quindi la possibilità di diffusione di massa, questo tipo di comunicazione introduce una condizione diversa
della «posizione comunicativa» del soggetto che vi partecipa. Gli individui percepiscono, anche
ideologicamente, di non essere più semplice «oggetto» – in quanto pubblico, consumatori, elettori – di una
forma di comunicazione di massa prodotta attraverso i media dall’intrattenimento, dalla politica o dal
marketing. L’intera esperienza della comunicazione cambia grazie alla consapevolezza che gli individui
hanno di sé stessi come potenziali «soggetti» di comunicazione

Lezione 6 22/10

Nascita ed evoluzione dei social network


Innovazione dei social: connettere e personalizzare la propria pagina, gli algoritmi ci suggeriscono
continuamente nuovi utenti e contenuti a noi sconosciuti. Il punto di rottura con altri strumenti sta nel fatto
che i social non si limitano a mantenere la rete sociale esistente ma aumentano la nostra interazione con i
social e lo fanno in due modi: rendendo più intensive e frequenti le relazioni che già abbiamo e facendoci
interagire con più persone, allargando il campo numerico dei contatti che abbiamo. Questi sono anche due
obiettivi dei social per mantenerci attivi su di essi

Architettura algoritmica dei social


Boyd ed Ellison(2007) definiscono “social network sites” quei servizi web che permettono:
La persistenza: le azioni svolte lasciano una traccia, anche a distanza di anni. Non si ha più potere sui
contenuti diffusi, i contenuti diffusi non sono più nostri ma sono di tutti coloro che agiscono nella rete
La ricercabilità: sarà sempre più semplice cercare le molliche di pane (messaggi, video, like ecc.) che
lasciamo. Nel web 2.0 il singolo ha maggior capacità di esprimersi rispetto a ciò che accadeva nel web1.0,
quello che si crea è l’estrema facilità di produzione di contenuti che permette a chiunque d riprodurre e di
entrare nel mondo dell’autoespressione del digitale
La replicabilità: le tracce si possono facilmente riprodurre altrove, su diversi supporti. ciascun contenuto può
essere decontestualizzato e remixato. Il messaggio stesso, nell’atto in cui viene condiviso, viene modificato.
Il pubblico invisibile: questi spazi rendono difficile immaginare il pubblico cui ci si rivolge. Inoltre le
proprietà della persistenza, ricercabilità e replicabilità consentono la partecipazione di pubblici che non erano
nemmeno presenti nel momento in cui ci eravamo espressi. Visto che non sappiamo a chi dovrà andare ciò
che condividiamo si crea un pubblico che a noi è sconosciuto e questo comporta la necessità, per chi produce
un messaggio, di prevedere e tenere conto dei diversi tipi di pubblico. Questo però porta anche alla creazione
di contenuti che, molto spesso, dipendono proprio dal pubblico a cui vogliono arrivare e quindi sempre meno
autentici.

Timeline – tappe evolutive dei social


Sixdegrees.com primo social network (1997) – Il nome di questo primo social network deriva dalla teoria di
Stanley Milgram sui 6 gradi di separazione. Siamo separati dai nostri contatti sociali solo per sei gradi
(attraverso sei collegamenti, passaggi di rete sociale). Conteneva, dal punto di vista tecnologico tutto ciò che
ha poi avuto Facebook più avanti. È fallito perché questo social è arrivato troppo presto rispetto al grado di
utilizzo da parte degli utenti, mancava la possibilità di poter accedere a internet e quindi di poter sfruttare al
meglio il meccanismo di frequenza, tipico processo dei social.

Friendster (2003) – maggior sviluppo di internet da parte degli utenti, internet diventa uno strumento di uso
quotidiano. Social che ebbe tantissimo successo, viene ricordato come uno dei più grandi fallimenti delle
app. Questo social è fallito perché non ci sia spettava un successo così rapido e travolgente e quindi non si è
investito abbastanza nella tecnologia del social. Non avevano pensato alla scalabilità del sistema, avevano
server piccoli che non avevano la potenza e la memoria per gestire i milioni di utenti (saltavano i profili).
Inoltre non considerarono l’idea di sito come “stanza” perché era nato come app di incontri, e quindi
cancellarono tutti i profili anonimi che però potevano essere un modo per gli utenti di provare e sperimentare
il social, hanno ignorato le pratiche sociali di appropriazione di quello strumento. Tutti gli utenti, nel
momento in cui hanno trovato un social migliore, hanno abbondato in massa questo, per questa ragione è
fallito (sono andati tutti su my space dove ognuno poteva essere padrone dei propri contenuti senza essere
modificato da un momento all’altro dai fondatori, come era avvenuto con Friendster)

MySpace – si connota subito per la possibilità di personalizzare totalmente le sue pagine. Diventa in pochi
anni “la cameretta virtuale” dei teenager e delle band musicali. Nel 2006 viene acquisito da Murdoch.
Ognuno poteva creare uno spazio digitale a proprio piacimento. Divenne un fenomeno di massa e destò, per
la prima volta, la preoccupazione dei media degli adulti (es. giornali o talk show).
Panico morale, venivano esaltate le preoccupazioni legate a questo social es. sovraesposizione dei ragazzi,
casi di pedofilia…l’onda di panico morale si abbatté in poco tempo sopra il social e l’effetto fu talmente
grande che riuscì a distruggere la sua popolarità. MySpace non fu in grado di cogliere in tempo reale questo
malumore e crescente oda di preoccupazione. Non si occupò della crisi sociale che stava avvenendo sulla sua
interfaccia e per questa ragione fallì.

Facebook (2006) - nato sul modello degli annali di Harvard, riesce a scalzare il competitor MySpace
sfruttando anche la pubblicità negativa che i mass media facevano di MySpace, giudicato luogo di incontri
pericolosi per i teenager e spazio di socialità malata.
Interfaccia che si distingue subito da MySpace: ordinata, pulita e razionale, vengono creati spazi predefiniti
per gli utenti. Le pagine risultano più ordinate e composte.
Facebook social più di élite rispetto a MySpace: es. quelli di myspace definivano gli utenti di Facebook
“fighetti” al contrario gli utenti di myspace venivano definiti da quelli di Facebook come “truzzi”.
L’evoluzione di Facebook:
Il successo di Facebook è dovuto anche alla sua innovazione continua questo permetteva di vedere cosa
accadeva a mano a mano che il social si diffondeva, inizia testando le poche funzionalità sui primi utenti
migliorando e introducendo sempre più innovazioni rispetto anche alla risposta degli utenti es.
trasformazione delle pagine Fan in I Like; visualizzazione nel wall delle news degli amici; giochi e
applicazioni (es. messanger, places); creazione dei social plug-in per “invadere” il web (icona del condividi,
idea che si potesse anche condividere i propri contenuti da pagine esterne a quella della piattaforma, i social
iniziano così a colonizzare tutto l’universo informativo); differenziazione delle pagine: aziende, gruppi,
pagine sociali, cause; personalizzazione della privacy.

L’uso dei social tra generazioni


Rispetto al passato i social vengono usati in misura minore per rimanere in contatto con gli amici e molto di
più per lavoro, per seguire personaggi famosi, per scoprire prodotti da acquistare. Intervistati sul ruolo dei
social media nel “purchase journey”, i più giovani dicono di usarli per interagire con i brand e per cercare
prodotti/servizi (sopra il 60%). Per quest’ultima funzione i ragazzi della Gen Z dichiarano di preferirli ai
motori di ricerca. In particolare il 18% di essi dice di scoprire brand e prodotti grazie agli influencer

Memoria dei social che cambia, attraverso la cancellazione dei post si può rimettere mano alla propria
biografia.

Capacità di dislocazione che porta due tipi di effetto: siamo in un luogo ma è come se non ci fossimo, con i
social siamo sconnessi dal contesto sociale per essere vicini a persone in rete. Dall’altro lato con la realtà
aumentata (es. cuffie) possiamo vedere i contenuti sui quei luoghi, il luogo è svuotato da persone fisiche del
momento ma pieno di persone virtuali che hanno raccontato quel luogo.
Secondo Boyd (2008), l’accesso mobile ai social permette una sempre maggiore connettività person-to-
person. Inversamente, nello stesso tempo, i social network divengono sempre più collegati e integrati ai
luoghi fisici. La dislocatability è oggi potenziata dal sistema di “Internet of Things”.

Tendenza della realtà virtuale: Facebook sta sperimentando diversi modelli di realtà virtuale: es Spaces e
Workrooms.
Spaces è un’applicazione per Oculus Rift, che permette di interagire con i propri amici in un ambiente
virtuale. In pratica una sorta di Second Life in Facebook. All’avvio, scegliendo una foto profilo, è possibile
creare il proprio avatar. A questo punto si potranno invitare gli amici in questo spazio virtuale. Usare un
pennarello per disegnare, scegliere contenuti da vedere insieme (foto e video a 360° per essere immersi in
ambiente diverso), video chiamare altri amici e usare un bastone da selfie per scattare una foto di gruppo

Il metaverso: l’utopia dell’internet totale: il termine “metaverso” trae origine da “Snow Crash“, un libro di
fantascienza pubblicato nel 1992 da Neal Stephenson, il quale proponeva un viaggio esplorativo tra diverse
innovazioni tecnologiche. Il concetto di “metaverse“, faceva riferimento a un’esperienza virtuale altamente
immersiva.
Anche se per alcuni il metaverso non è altro che un tentativo di rebranding delle tecnologie di realtà virtuale,
come Second Life, esistenti dagli anni Novanta, società tecnologiche e esperti tentano di sottolineare le
differenze e gli upgrade:
1) non spazi virtuali separati, ma interoperabili, in modo da garantire continuità di esperienze (es. comprare,
visitare, ballare, giocare, ecc)
2) dalla condivisione alla partecipazione live
3) possibilità di fruizione non solo in 3D (versione immersiva) ma anche in 2D da device multiple (versione
emersiva)

Es. concerto di Travis Scott su Fortnite


Lezione 7 28/10
Progettare la socialità
- Il sé online: come si disegna l’interazione sociale affinché gli utenti possano creare una loro identità ed
esprimersi. I social hanno bisogno di creare una struttura relazionale che permette alle persone di mettere il
proprio io in mostra e in condivisione.
I social lavorano in due settori:
 individuazione – far si che tutti possano essere diversi l’uno dall’altro
 aggregazione – mostrare chi è simile a noi

Tutti gli ambienti web 2.o presentano sempre una parte di incompletezza, ci sono delle parti che vanno
completate dagli utenti. Uno dei principi delle interfacce del web 2.0 è quindi quello di lasciare parti
incomplete e fare domande in modo che siano gli utenti a completare l’interfaccia. Il contenuto sarà sempre
parte di un’architettura generale costruita ma poi sarà dinamico perché verrà completamente completato dai
contenuti.
Alla base di un social si sono quindi le domande che vengono poste all’utente es. a cosa stai pensando? dove
stai andando? Domande che sono inviti a completare l’interfaccia con i propri contenuti.

L’incompletezza può avere varie forme:


1. Customization – personalizzazione dell’interfaccia, scelta dei contenuti che vogliamo metterci sopra,
ciò che rende l’interfaccia diversa dalle altre. Si decide quali moduli vedere sulla propria interfaccia.
2. Skinning – impatto del marketing comunicativo, monoprodotto che può essere personalizzato dal
punto di vista grafico. Si può trasformare l’interfaccia in qualcosa che ci rappresenta e che dà modo
di crearsi un’idea su noi stessi.
3. User-generated contents – cuore dei siti web 2.0, come utenti si possono generare contenuti
all’interno della piattaforma. I social devono stimolare gli utenti a produrre più contenuti possibili.
4. Tag e folkonomie – attraverso in tag si creano le folkonomie che sono delle categorizzazioni che
vengono dal basso es. un’immagine categorizzata come paesaggio con l’aggiunta di tag si classifica
in base ai propri contenti, quello che per noi è pertinente. Se ci piacciono foto di paesaggi i nostri tag
saranno rivolti maggiormente a quello. A noi viene dato il potere di condividere contenuti ma anche
la possibilità di organizzarli in maniera diversa in base ai nostri gusti e alle nostre preferenze.
Queste sono tutte modalità che costruiscono il social, che spingono gli utenti a mettere in atto la propria
identità all’interno del sistema.

Fattori che servono alla creazione dell’identità in un social:


 Identità Presenza
 Reputazione
 Azione
 Relazione
Tutti questi sono elementi che vanno poi a costituire le interfacce vere e proprie e che permettono agli utenti
di esprimere la loro individualità e soggettività.

Il primo momento in cui viene chiesto il sé nei social network è la fase di registrazione perché ci viene
richiesto di esprimerci riguardo alla nostra identità. Se si sta progettando un social bisogna fornire diverse
domande all’utente, una volta che è entrato nella piattaforma, per permettergli di trovare delle persone simili
a lui. Il sistema, infatti, al momento della registrazione, propone in maniera algoritmica tutte le cose che
possono essere più affini ai nostri interessi. Nella fase di registrazione, normalmente, vengono chiesti
elementi che permettono immediatamente di connetterci ad altre persone e contenuti alle quali si può essere
interessati.
Open id – possibilità di registrarsi attraverso altre piattaforme es. attraverso account google o Facebook.
Questo viene fatto molto spesso sulle piattaforme per rendere la fase di registrazione più rapida e trasparente,
per evitare che l’utente si annoi decidendo così di non utilizzare più la piattaforma.
Il secondo passaggio fondamentale è poi la pagina di benvenuto che accoglie l’utente e deve fornire le
istruzioni sulle possibilità di utilizzo. Patto comunicativo che si deve creare tra l’interfaccia e l’utente.
Il re-engagement – modo per mantenere gli utenti sul proprio sito e farli tornare. Questa strategia viene
attuata principalmente con le e-mail. Le e-mail vanno pianificate con cura, non devono diventare spamming.
Nelle e-mail si sottolinea feature strategiche per l’utente, o nuove feature. Se il sito si basa su relazioni,
evidenzia alcune informazioni pubbliche di aggiornamento sugli amici, che possano interessare l’utente- La
mail deve contenere una chiara “call to action” perché solo così riesce ad invitare l’utente a rientrare nel
sistema.

La parte essenziale dell’identità online è il proprio profilo/avatar questa parte deve essere tarata ovviamente
in base al tipo di piattaforma social. La parte della personalizzazione della pagina personale è una fase
importante della costruzione del proprio io online, perciò, è essenziale quando si vuole permettere agli utenti
l’auto-espressione. Il profilo è importante se si vuole consentire agli utenti di sbirciare nella vita degli altri
questo perché le informazioni contenute agevolano le interazioni sociali e la creazione di legami. È decisivo
quindi lavorare sulla scalabilità e il controllo da parte dell’utente delle informazioni pubbliche e private però
l’autenticità del profilo è una scelta che dipende dagli scopi del sito.
È importante favorire l’inserimento, nel profilo, di quelle informazioni e contenuti che saranno utili alla
creazione di relazioni e scambi. In ogni caso però l’utente non deve mai essere forzato a fornire più
informazioni di quanto non sia necessario.
In molti casi la parte identitaria è costruita attraverso gli avatar, dal modo i li si costruisce e li si lega a fattori
culturali e sociali, anche in base alle scelte che si fanno sulla struttura dell’avatar; così si possono creare
legami di appartenenza a certe comunità e tribù.
In altri casi la nostra identità è costruita attraverso la nostra reputazione, non tanto su quello che si dice di sé
stessi ma quello che gli altri dicono di me es. le recensioni. La reputazione è quello che verrà visto dagli altri
e che permetterà anche di creare legami con gli altri utenti es follower su Instagram.

→ Altro modo per definire i tasselli


dell’identità online. Alcuni social possono
essere incentrati sulla presenza, altri sulle
relazioni o sulla reputazione…Es. confronto
Twitter – flickr – su Twitter l’area più
intensa è la presenza perché è un social che
si basa proprio sulla possibilità di essere
sempre produttivi. Twitter basa proprio la
sua forza sulla costanza. Diversamente
accade con flikr (social dedicato alla
fotografia) perché non si basa tanto sulla
continuità o sulla presenza ma sulla
condivisione.

Un altro elemento importane che bisogna osservare all’interno di queste dinamiche è il tipo di identità che
viene creata:
 finzionale – identità simbolica e fittizia che ci narrativizza es. nickname o avatar, costruire tutto su
una base finzionale
 biograficamente autentica – identità legata alla nostra vita reale offline

Nei social la nostra identità sarà destinata dentro la nostra pagina personale però i nostri segni identitari
saranno anche seminati intorno a tutti i nostri contenuti. Le informazioni sul profilo sono accompagnate
come label alle interazioni dell’utente in community, e permettono agli altri utenti di risalire a una carta
d’identità dell’autore e a ridurre l’anonimato dell’interazione.
Nelle dinamiche identitarie, inoltre, ci sono anche gli indicatori di attribuzione tra contenuti e utente. Gli
indicatori di “status”, come il rating, la reputazione, la presenza… possono comparire in maniera sintetica
accanto ai contenuti: ciò aiuterà a creare relazione tra contenuti e persone.
→ Relazioni tra contenuti es. Lo stesso tag per due contenuti
→ Relazioni tra persone es. Amici, colleghi
→ Relazioni contenuti-persone es. Profilo associato al contenuto

Dashboard - La dashboard deve permettere all’utente di controllare tutte le principali caratteristiche del
profilo, di monitorare le ultimi azioni svolte, visionare gli aggiornamenti più interessanti, accedere ai
contenuti più importanti per il proprio profilo, personalizzare.

Indicatori di presenza: es. pallini verdi che dicono che noi siamo online, esistono diversi tipo di questi
indicatori:
 Semplice presenza statica nel web (sito)
 Instant Messaging e microblogging (sincrono e asincrono)
 Indicatori di presenza (es. in Skype, interazioni sincrone)

In futuro gli indicatori di presenza potrebbero anche diventare interfacce aptiche e indicatori di presenza
integrati nell’ambiente
Altri indicatori di presenza possono segnalare il tipo di azione che l’utente sta compiendo, es il tipo di
musica che l’utente sta ascoltando (es. Lastfm) o le attività più recenti sui social media.

Lezione 8 29/10

Progettare la socialità
- Il “noi” online
La cooperazione: Nel 1651 il filosofo Thomas Hobbes sosteneva che la competitività fra uomini è tale per
cui il solo modo per cooperare è la presenza di un concorrente più forte capace di imporre una tregua.
Hobbes chiamò questa autorità coercitiva Il Leviatano.
Decenni dopo Hobbes, John Locke sostenne che gli uomini possono essere governati dal contratto sociale,
invece che da un’autorità oppressiva e dispotica.

Teoria dei giochi: Nel 1944, la Theory of Games and economic Behavior di von Neumann e Morgenstein
fornì una chiave per analizzare il modo in cui le persone si scontrano e colludono, cooperano e si defilano in
situazioni competitive. Collaborare è economicamente vantaggioso, perché ci conviene dal punto di vista
economico. Questo è stato dimostrato attraverso esperimenti empirici chiamati giochi:
I polli; Caccia al Cervo, Senza via d’uscita, il Dilemma del detenuto.

Dilemma del detenuto - “Due uomini, accusati congiuntamente di una violazione della legge, vengono
tenuti separati dalla polizia. A ciascuno di loro viene detto che:
1) se uno confessa e l’altro no, il primo sarà liberato, mentre l’altro verrà condannato a tre anni.
2) se entrambi confessano, saranno condannati a due anni (...).
3) se nessuno dei due confessa, verranno condannati a un anno
Razionalmente, i due concluderanno che la testimonianza gli farà risparmiare un anno di carcere.
indipendentemente da quello che farà l’altro. Non farlo gli darà la soddisfazione di non essere la spia, ma
mentre si rimane lealmente in silenzio, l’altro esce di galera. Se però entrambi non testimoniano, se la
caveranno con un anno ciascuno. Ecco il dilemma: se ciascuno dei giocatori persegue il proprio interesse
individuale, il risultato non piacerà a nessuno dei due.
Il gioco, ripetuto più volte con gli stessi giocatori, mostra che, proprio perché i giocatori possono re-
incontrarsi, prevale la strategia della cooperazione. Il concetto di reputazione è un altro modo per definire
questa “ombra del futuro. In base alla reputazione che si crea anche gli altri si comporteranno di
conseguenza.
Longitudinarietà dei rapporti sociali – è economicamente vantaggioso fregare gli altri quando le persone
si incontrano una volta e in anonimo. Nel momento i cui questo meccanismo viene ripetuto le persone si
conoscono e si crea il sistema di reputazione.
Nel breve termine la soluzione migliore è comportarsi a discapito deli altri ma nel caso di situazioni che si
reiterano nel tempo l’operazione più economica sarà collaborare perché nella competizione si verrebbe
marcati come persone che verranno trattati con la stessa reciprocità.
Questo ha anche a che fare con tutte le dinamiche dei social: la reputazione è la moneta di scambio delle
dinamiche social, è il fulcro in base al quale si è portati a dare contenuti e ad impegnarci a collaborare con gli
altri. Tutti i sistemi social che si basano so libero contributo degli utenti si basa sulla reputazione attraverso
la quale si creano meccanismi economici che portano le persone anche ad agire e dare all’interno del sistema.

Stimolare la cooperazione: fiducia sistemica. Secondo Luhman (1979) gli individui agiscono in base non
solo a una spinta individuale, ma sotto la pressione di spinte sistemiche derivanti dal sistema sociale nel
quale sono inseriti. Quando calati in un sistema complesso, in cui si relazionano in collettività ampie e con
sconosciuti, gli utenti non godono di fiducia reciproca ma ripongono fiducia nelle capacità del sistema di
gestire questi scambi e il rischio che altri non contribuiscano, li danneggino o abbandonino il sistema
danneggiandolo. La fiducia sistemica viene allora costruita automaticamente attraverso continue esperienze
positive (feedback).
Questo vale anche per le interfacce digitali, perché le persone abbiano fiducia queste devono avere
caratteristiche specifiche.

Stimolare la cooperazione: meccanismi regolativi


Elementi chiave da implementare in un sistema perché sia cooperativo.
1. Comunicazione: nella costruzione di un sistema cooperativo è fondamentale implementare la possibilità
di comunicare tra gli utenti. La comunicazione fa sviluppare empatia e fiducia negli altri, aiutando nella
risoluzione di problemi.
2. Empatia e Solidarietà: immedesimarsi in qualcun altro, provare le stesse emozioni e talvolta le stesse
sensazioni (empatia) così come identificarsi in un gruppo (solidarietà), rende gli utenti disposti a sopportare
un costo personale per il benessere del gruppo a cui sentono di appartenere. Per stimolare questo processo è
importante umanizzare le persone, permettere di sapere chi sono e perché necessitano dell’aiuto o contributo
di altri.
3. Framing: creare un frame, un contesto che descriva il sistema come cooperativo, come una comunità,
orientando l’interpretazione del sistema da parte degli utenti rendendoli maggiormente disposti alla
cooperazione.
4. Reputazione, trasparenza e reciprocità: i sistemi che si basano sulla reciprocità, soprattutto quella
indiretta, sono facilmente invasi da utenti che attingono al sistema senza contribuire, basta pensare al
fenomeno dei free riders (Benkler 2011). La reputazione è lo strumento più importante che si ha per
sostenere il sistema ma per essere veramente efficace necessita che l’identità delle persone coinvolte sia
visibile e trasparente, sempre nei limiti della privacy.
5. Equità, moralità, norme sociali: se percepiamo il sistema in cui siamo inseriti come equo, siamo più
predisposti a cooperare. Basarsi solo su incentivi e punizioni può essere controproducente, è necessario
pensare se e come il nostro sistema risulti equo. Moralità: definire chiaramente i valori, discutendone,
spiegandoli, evidenziando qual è la cosa che si ritiene giusta da fare in ogni situazione. Social Norms: Le
norme sociali sono un codice che orientano il comportamento ma non sono stabilite a priori, sono emergenti,
per questo generalmente la maggior parte delle persone tende a seguirle. Rendere trasparente il
comportamento degli altri nelle diverse situazioni permetterà di conformarsi con ciò che è ritenuto
“normale”.
6. Modularità: cooperare ha un costo, è come l’impegno in una attività, una spesa economica per l’accesso a
un servizio, la rinuncia ad una risorsa a favore di qualcun altro. Dunque uno dei primi elementi da attivare
per incentivare la cooperazione è consentire la partecipazione per piccoli moduli di contribuito
7. Premi e punizioni: siano essi materiali (ottenimento di vantaggi per il singolo), oppure sociali
(raggiungimento di un benessere comune) ma sempre dati in base alle motivazioni degli utenti. Dare premi
materiali a qualcuno che coopera alla comunità perché interessato al bene comune o, viceversa, premiare con
la reputazione qualcuno interessato ad un aumento di risorse materiali, potrebbe causarne l’allontanamento
spontaneo dalla comunità. Bisogna fare attenzione ai premi perché in alcuni casi sono inopportuni, a volte
non è opportuno creare sistemi in cui ogni cosa che si fa è seguita da un premio, se si lasciano liberi gli utenti
e i contenuti si crea un sistema flessibile e si otterranno risultati simili a quelli del dono: quando si fa un dono
quello che si riceve, nel tempo, sarà nettamente maggiore.
8. Flessibilità: è necessario tenere presente i diversi profili motivazionali, anche quelli poco produttivi;
perciò, i sistemi che si avvalgono della cooperazione devono essere flessibili e consentire una contribuzione
asimmetrica, sfruttando il principio della coda lunga

Online questi meccanismi hanno delle problematiche es. fregare gli altri usando identità false.
La fiducia, costruita per sistemi virtuali, deve basarsi su una serie di incentivi e di disincentivi.
 Incentivi: creare connessioni tra persone che non si conoscono in base a comunanza di gusti, di
necessità, di obiettivi.
 Disincentivi: i cosiddetti meccanismi regolativi, quali l’esclusione, la reputazione, la reciprocità
permettono al sistema di regolare le interazioni negative all’interno del sistema
I vantaggi che si hanno sono che attraverso gli algoritmi di possono mettere insieme persone con stessi
interessi aumentando spontaneamente la reciprocità.

Modelli di collaborazione
Le interfacce possono avere inviti all’uso e al non uso che mostrano i modelli relazionali all’interno del
sistema. Ci sono 5 modelli di relazione all’interno delle piattaforme:
 Caring – prendersi cura i membri sono motivati dall’aiutare altri membri. C’è molta asimmetria.
Es. i blog c’è chi fa domande e ci sono persone esperte che rispondono così che gli altri membri
possano trovare una guida e dei consigli. Nel contesto del caring non p opportuno dare dei punteggi,
piuttosto si danno delle etichette che valorizzano, in maniera numerica, il contributo di tutti.
 Collaborativo – si tratta di membri che hanno un unico obiettivo, persone individuali che
contribuiscono all’obiettivo di tutti. Es. produrre o scrivere insieme una campagna
pubblicitaria/Wikipedia. È utile non creare gerarchie tra gli utenti ma mettere in luce la
partecipazione e il contributo delle persone per farsi un’idea della reputazione degli altri utenti.
 Cordiale – tipico dei social, ognuno ha il proprio obiettivo specifico ma nel perseguirlo le persone
agiscono costruendo un sistema per tutti es. eBay, Yahoo answers o vinted. Gli obiettivi vengono
perseguiti dentro lo stesso ambiente e quindi si crea un sistema comune e condiviso. In questo tipo di
modello è utile creare una trasparente visualizzazione di ciò che è stato fatto dall’utente della
reputazione che le azioni dei singoli utenti hanno ottenuto.
 Competitivo – si tratta di membri che hanno gli stessi obiettivi e che competono tra di loro per
raggiungerlo. Es. contest o concorsi. Non c’è collaborazione ma scontro uno contro l’altro. Quello
che normalmente viene fatto in questo tipo di modello è la classifica proprio per creare una
gerarchia.
 Combattivo – per ottenere il proprio obiettivo ogni membro deve cercare di eliminare la
concorrenza e quindi tutti gli altri, deve rimanere uno solo, solamente uno si aggiudica il proprio
premio o il raggiungimento del proprio obiettivo. Questo non esiste ovviamente nei sistemi sociali
ma è tipico dei videogiochi.

Visualizzazione della reputazione nei diversi tipi di modello


- Etichette senza livelli: tipico dei modelli di caring, sono da usare quando si vuole attribuire visibilità a ruoli
“speciali” all’interno della community. Quando si vuole incentivare gli utenti a prendere in carico un certo
“ruolo”. Le etichette non portano a competizione tra loro e possono anche essere sovrapponibili. L’utente
deve candidarsi per una certa etichetta o accettare la candidatura.
- Livelli di etichette: tipico dei modelli collaborativi. Meno “freddi” dei livelli numerici. Usare una metafora
coerentemente in tutti i livelli (Livello Bronze, Silver, Gold). Usare etichette che diano un’idea scalare e
siano comprensibili anche ai nuovi utenti. Livello di competizione che viene ridotto perché non si è soli ma
si è dentro ad una categoria e si può anche crescere di livello.
- Livelli numerici: accentuano la competizione tra utenti e la voglia di proseguire di livello. Non devono
essere rimarcati i livelli inferiori, ma solo le eccellenze. Quando la community cresce, individuare dei “livelli
speciali”, zone o feature accessibili solo ai “top”.
- Premi: I premi dati, dal sito o dagli altri membri della community, conferiscono status e incentivano
comportamenti positivi. Inoltre, essi stimolano atteggiamenti “compulsivi” di accumulo, che il meccanismo
delle etichette non supporta. I premi possono essere dati anche per incentivare l’uso o la prova di certi servizi
o prodotti, quindi come leva di marketing. I premi devono rispettare il criterio di “esclusività” e di
“temporalità”.
- Punti: L’attribuzione di un punteggio agli utenti per le loro attività è consigliata solo in contesti molto
competitivi, come i giochi o i fantasy. I punti devono essere indicatori di performance, più che di attività,
un’eccezione per i punti acquisiti con i Primi step (es. Hai completato il tuo profilo. Complimenti hai
ricevuto 20 punti). I punti non vanno attribuiti per attività non competitive, come il commentare o scrivere
ricette. Si rischia di sminuire il valore di queste interazioni. Considerare i punti come un supplemento di altre
visualizzazioni di Reputazione, come le etichette (sei a quota 20 del livello “Folletto”, per passare al livello
“Orco” devi raggiungere quota 40).
- Il podio: da usare solo in contesti fortemente competitivi, dove può essere di interesse sapere chi sono i
“Migliori in assoluto” del sito. Tuttavia può risultare monotono, perché focalizza l’attenzione solo
sull’ordine di reputazione, dando molto risalto a questo aspetto. Da non attribuire a comportamenti
“quantitativi”: permanenza nel sito, quantità di partite, ma possibilmente, a comportamenti “qualitativi”.

Lezione 9 4/11
Le interfacce non sono neutre, infatti dietro ad esse ci sono dei ragionamenti.
Analisi dei prodotti digitali: il walk through method, camminare attraverso l’interfaccia
Metodo che viene molto utilizzato nel mondo della comunicazione e chiamato anche analisi desk, ovvero un
metodo basato sugli utenti. Viene fatta un’analisi a tavolino, si tanta di desumere da una serie di elementi
quale sia poi il comportamento modello del sistema. Metodo molto utilizzato nei settori del design di
interfacce e nella user experience.
Questo metodo si fonda sul mix di diversi approcci e teorie:
-gli studi di user experience e usabilità in relazione al design e efficienza dell’interfacce
-i cultural studies in relazione ai processi di appropriazione e domestication da parte del pubblico
-i Socio-technical-Studies e l’Action Network Theory per evidenziare il rapporto tra gli attori (umani e
artificiali) nel definire l’esperienza di uso -gli studi relativi alla platform society per evidenziare il rapporto
tra produzione, consumo e ideologie (sociali e economiche) in essi veicolate.

In questo metodo vengono analizzati e presi in considerazione diversi elementi:


Interfaccia. Come l’interfaccia guida gli utenti attraverso pulsanti e menu. Per esempio alcuni bottoni come
Report o Share possono essere più grandi o piccoli di altri o posizionati in punti meno visibili. Gli elementi
dell’interfaccia possono suggerire una gerarchia e il grado di importanza e di uso che il designer vuole
ottenere.
Funzionalità. Gruppi di azioni richieste dal sistema e che il sistema propone (es. la compilazione di alcuni
dati, l’attivazione di alcune sfide ecc.);
Contenuto testuale e tono. I testi contenuti nelle istruzioni ma anche nei menu, per esempio anche l’ordine
di categorizzazione nei menu a tendina o la stessa tipologia di categorizzazione (per esempio in relazione al
genere ecc.)
Aspetti simbolici. Un approccio semiotico per analizzare l’aspetto dell’app e le associazioni culturali con
l’utente immaginato e lo scenario d’uso ideale. Può riguardare quindi anche gli aspetti simbolici e culturali
racchiusi nella grafica, nella scelta delle immagini, i colori, i font.
Ogni scelta grafica, visiva e di struttura è una scelta comunicativa e culturale che si propone agli utenti.

Un metodo fra auto-etnografia e desk analysis


Camminare attraverso l’interfaccia richiede al ricercatore di assumere la posizione dell'utente mentre applica
un occhio analitico al processo di acquisizione dell'app, registrazione, accesso alle funzionalità e funzionalità
e interruzione dell'utilizzo. Il ricercatore adotta un approccio STS per individuare sistematicamente gli attori
chiave, come icone e pulsanti di acquisto, producendo una collezione di dati e generando note di campo e
registrazioni dettagliate, quali: screenshot, registrazioni video dello schermo del telefono e registrazioni
audio dei propri pensieri durante la conduzione del walk through. Questo comporta l'attenzione alla
materialità della app, comprese le azioni che richiede e guida gli utenti a condotta, e l'imaging come gli
utenti percepirebbero questi come costi o vincoli. Esso comporta anche il ricorso a capacità di ricerca
culturale nell'analisi testuale e semiotica, riconoscimento degli indicatori dei discorsi culturali incorporati.
Nell’usare questo strumento bisogna includere il punto di vista dell’utente e mettere in campo anche la
propria abilità etnografica immaginandosi come l’utente vedrà e vivrà l’interfaccia nella sua complessità.

Per analizzare un prodotto è necessario suddividere l’analisi in determinate fasi:


1. Login: analizzare il processo che viene usato per entrare nell’app. Durante la registrazione è
possibile comprendere diversi aspetti del modello di uso suggerito dall’interfaccia, in base, per
esempio, ai dati richiesti, alla connessione o meno con altri network esistenti (es. gli amici in
Facebook), alla costruzione di un profilo più o meno anonimo, alla presentazione e richiesta di
adesione a delle norme, condizioni d’uso, che esplicitano la visione e l’etica del sistema. In tutto
questo apparato comunicativo c’è la normatività che l’interfaccia vuole suggerirci, l’uso ideale e
l’etica che il sistema vuole proporre.
2. Uso quotidiano: Per comprendere a pieno le dinamiche dell’interfaccia, sarebbe opportuno
utilizzarla per un periodo continuativo, creando anche diversi profili e modalità di accesso, in modo
da osservare cosa e come cambiano le affordances e constrains a seconda dei diversi tipi di pubblico.
Bisogna analizzare sia il tipo di azioni consentite dal sistema, sia l’ordine con le quali sono
presentate e quindi qual è il flusso di azione previsto e una “gerarchia” di priorità.
3. Abbandono o chiusura: Anche le modalità con le quali è possibile lasciare una app sono importanti:
alcuni sistemi permettono la cancellazione facile del profilo e l’abbandono della app, altri invece
suggeriscono di tenerlo in quiescenza, senza cancellare i dati, altri ancora invitano alla creazione di
profili multipli come scorciatoia per cambiare identità velocemente. Questi approcci mostrano
differenti visioni dell’effimerità del sistema e del rapporto con la permanenza, visibilità e identità dei
soggetti al suo interno

Analisi delle strategie di uso alternativo: È interessante analizzare, come propongono gli autori, anche gli
usi “devianti” e alternativi che sono stati fatti, eventualmente, dell’applicazione. Questi includono lo
sviluppo e l'utilizzo di applicazioni di terze parti per estendere funzionalità, social media per sviluppare e
criticare le pratiche di utilizzo normative e il codice per incidere e distorcere le funzionalità di
un'applicazione.
Es. usi alternativi di Tinder: l'uso inaspettato di Tinder ha coinvolto lo sviluppo di applicazioni di terze parti
riorganizzando la propria interfaccia, progetti artistici che criticano gli utenti per il trattamento di altri come
pezzi di carne (Maureira, 2014), installazione d’arte che rappresenta un pezzo di carne che fa lo swipe fra i
diversi profili che gli si presentano. Interpretazione provocatoria e che vuole evidenziare l’aspetto cinico di
quest’app però ci dice che non c’è solo la lettura istituzionale, da parte dei design, ma che ci possono essere
anche altri tipi di contro interpretazioni.
Un esempio di contro interpretazione è anche dato dagli atti di appropriazione della tecnologia che può
spostare il potere dai progettisti agli utenti (Eglash, 2004), questi usi inattesi possono riassegnare un certo
controllo dell'applicazione e dell’esperienza per gli utenti, la creazione di nuovi scopi per le applicazioni,
contrastare le strategie di lucro e aggirare le tattiche di governance. Ad esempio, Bonfire sostituisce la
funzionalità swipe-to-match di Tinder con un'interfaccia a griglia (simile a Squirt) consentendo agli utenti di
vedere molti profili in una sola volta.

Primo esempio di interfaccia analizzata con questo metodo: TikTok, come costruisce la sua dinamica
memetica e invoglia gli utenti a creare contenuti. Analisi tratta dall’articolo Zulli D. & Zulli D. J.
TikTok è stato lanciato nel 2016 in Cina con il nome di Douyin e a livello internazionale con il nome di Tik
Tok nel 2017, nel 2018 diviene accessibile in USA, acquisendo Musical-ly; nel 2020 Tik Tok è diventata la
10 piattaforma più usata, raggiungendo circa 800 milioni di utenti mensili nel mondo.
Cosa si intende per struttura memetica? Un internet meme è un'unità di informazione (idea, concetto o
convinzione), che viene replicata su Internet (e-mail, chat, forum, social network, ecc.) nella forma di un
link, video, immagine o frase. Può essere trasmesso come copia esatta o come qualcosa di mutato. La
mutazione sulla replicazione può essere per significato, mantenendo il struttura del meme o viceversa. La
mutazione avviene attraverso modello casuale, accumulazione (lo stesso concetto viene amplificato di meme
in meme) o attraverso la parodia.
Le affordances socio-tecniche di Tik Tok come dispositivo memetico:
Login e registrazione: Selezione di gusti preferiti al centro del
processo di creazione identitaria, del proprio profilo. Quello
che viene chiesto sono i propri gusti per essere associati ad
utenti con gusti simili. Scarsa rilevanza della costruzione del
proprio profilo. Scarsa attenzione alla ricostruzione della
propria rete di amici (sistema friend-driven), questo perché il
collegamento che si vuole creare non è tra utenti ma tra
contenuti. La biografia può occupare 80 caratteri, l’aspetto di
unicità degli tenti è molto poco considerato in quanto ci si può
esprimere con pochi caratteri. Dispositivo biografico debole
che viene sorpassato dalle affordance che spingono l‘utente a
condividere subito e a creare contenuti. Idea di condivisione
messa al centro della pagina.

Fruizione: Contenuti suggeriti nella sezione Per Te.


Quando interagisci molto con un contenuto, la
freccia bianca diviene un’icona di invio messaggio.
Il mutamento dell’interfaccia, un aspetto molto
particolare e delicato, evidenzia la possibilità e la
affordance di condividere quel contenuto. Se si
condivide spesso con la stessa app (es. WhatsApp)
l’icona de condividi prende la forma dell’app più
usata abitualmente per condividere i contenuti.
Segnale forte che attrae l’attenzione dell’utente,
segnale di invito all’uso. Meccanismo forte che
mostra come l’obiettivo dell’app sia soprattutto far
condividere contenuti. Condivisione espansa su
tutti i social, anche via mail, senza limiti.
Creazione: Quando guardi un contenuto, è possibile
risalire alla musica di sottofondo tramite 2 dispositivi
di interfaccia: l’icona del riproduttore audio, con note
in movimento, e il nome della canzone che scorre in
basso. Questi elementi sono gli unici in movimento e
pertanto hanno grande visibilità: sono affordance che
invitano a cliccare. Cliccando su di esse si vedono
tutti i contenuti che adottano la stessa base musicale,
facilitando il dispositivo memetico.
Tik Tok, inoltre, contiene centinaia di effetti, tuttavia
essi sono categorizzati in maniera molto vaga, che
scoraggia l’idea di guardarli tutti o cercare un
determinato effetto in maniera originale.
L’interfaccia invece incoraggia l’approccio
memetico: quando guardi un video, vedi quali effetto è
stato usato. Cliccando sull’effetto puoi vedere tutti i video che lo hanno usato e sei così invitato a usarlo per
aggregarti alla catena di creazione.

La struttura di accesso ai template musicali e ai template di effetti visivi è centrale nella creazione della
dinamica memetica di Tik Tok. I meme così creati, inoltre, non si basano su particolari condivisioni
identitarie e valoriali, come nella struttura memetica standard, quanto invece sulla condivisione di effetti
formali (musica ed effetti), questo slega il processo di produzione da particolari aspettative di
rappresentazione identitaria.
Dal punto di vista dei contenuti, si nota come centrali nel panorama di Tik Tok siano le challenge: anche in
questo caso, la challenge rappresenta un format memetico (riprodurre per superare) incentivato dalla stessa
interfaccia: la possibilità di editare in maniera molto rapida e semplice i video dà ai contenuti un carattere di
liveness, di esperienza non costruita e semi-spontanea. Rispetto all’interfaccia di Instagram, o del defunto
Vine, Tik Tok promuove la pubblicazione di contenuti più live, dove il carattere della sfida e del gioco hanno
quindi maggiore significato rispetto a quello della rappresentazione identitaria e sociale.

Interfacce per i creator: L’evoluzione del prosumer. Dalla fase in cui i prosumers hanno strumenti per
interagire e creare online in modo facile (Jenkins, 2006; 2008), alla fase di evoluzione del web 2.0, in cui essi
sono dotati anche di strumenti facili e potenti per l’analisi dei risultati e dei feedback dei loro prodotti.
Questo approccio porta i producers verso un professionalismo diffuso

Caso Patreon. Il framework narrativo: libertà, onestà, relazione, ribellione al sistema. Piattaforma per
creator, si propone come modello diverso e alternativo alla logica standardizzata che è presente su YouTube
e Instagram.

Modello di business totalmente affidato all’idea degli


abbonamenti, si monetizza non sulla base del singolo
video ma su una relazione costruita con gli utenti e per
la quale gli utenti sono disposti a dare una quota
periodica. Interfaccia come framework di supporto,
modello supportivo che permette due tipi di template
diversi:
 uno mette in evidenza il tipo di contenuti, se il
fan da 1 euro avrà determinate cose…template
he si basa molto su cosa si dà in funzione di
quanto si paga
 un altro crea un approccio più metaforico es. si
può fare parte della crew con un tot di soldi…
Template che danno delle idee strutturate su come gli
utenti possono supportare i creator, sia in funzione di
ruolo che di contenuti.

Modelli di ricompensa (quelli che vengono dati al creator per instaurare la relazione con l’utente) si
dividono in tre grandi asset:
 Ricompense che riguardano i contenuti premium: es. Offri un tour del tuo studio. Fatti un video
mentre crei un nuovo pezzo. Registra un commento in cui racconti qualcosa sui tuoi contenuti
recenti. Condividi i metodi che usi per produrre i tuoi contenuti. Offri l’accesso al materiale in
versione integrale o a scene eliminate. Intervista il tuo staff o i tuoi collaboratori.
 Ricompense che riguardano la community: non contributi extra ma sessioni di Q/A, sondaggi per
scegliere gli argomenti di conversazione e chat con gruppi o con singoli fan, incontri dal vivo.
Pacchetto di possibili interazioni che vengono suggerite al creator per creare una comunità attorno a
lui.
 Ricompense che riguardano i gadget e il merchandising: creazione di oggetti digitali o fisici che
possono essere dati ai fan es. avatar personalizzato, possibilità di apparire dentro un video…

L’interfaccia da già un’architettura al creator per la costruzione dei propri contenuti e della propria rete di
fan. Sistema basato su gerarchie a livelli. I contenuti sono organizzati anche in base al livello dei sostenitori a
cui sono indirizzati.
Interfaccia per diventare un creator: L’interfaccia modella le tipologie di relazione attraverso alcune
affordances:
 la struttura a “livelli di supporto” suggerisce di creare una gamma modulare di possibili interazioni.
Fornire un’anteprima contenuti potrebbe valere meno, per esempio, di chattare. Un insieme di
“valori” e pesi vengono attribuiti dall’interfaccia ai singoli modelli di interazione. L’interfaccia
spinge a creare un gradiente di livelli di interazione ben codificato.
 la possibilità di personalizzare nel dettaglio i livelli (cover, titoli, label…) suggerisce, in maniera
complementare, l’idea che ogni tipologia di interazione sia specifica e propria del singolo creator.
Bilanciamento fra standardizzazione dei modelli di interazione e personalizzazione dei contenuti
dell’interazione.
Relazione come attributo dei contenuti creativi: Patreon propone un modello alternativo di valutazione e
gestione dei contenuti creativi web 2.0, basato su una segmentazione top down del proprio target. Invece di
“far decidere gli algoritmi” e avere un alto tasso di incertezza su quali saranno i contenuti più preziosi e con
maggiore conversione, il sistema propone che siano i creators a pianificare il valore dei contenuti. Il modello,
però, non lascia i creators soli a decidere in maniera arbitraria, ma propone una visione specifica del “valore”
delle interazioni e dei contenuti. Le interazioni sincrone, uno a uno, esclusive, sono più pregiate delle altre.
Per quanto riguarda i contenuti, anche in questo caso, propone di dare un valore aggiunto ad attributi quali la
novità, l’esclusività, la descrizione processuale del prodotto creativo, piuttosto che “il semplice” prodotto
creativo finale.

Lezione 10 5/11
Verso le audience attive
Gli studi sui media, a partire dagli Anni Ottanta e gli approcci dei cultural studies, evidenziano sempre di più
un approccio orientato alle audience come soggetti attivi e co-partecipi dei processi culturali. Una
ricostruzione della storia della audience research che traccia questa parabola dell’«attivazione» delle
audience viene fornita da Nick Abercrombie e Brian Longhurst (1998) attraverso una periodizzazione che
vede:
→ prima l’affermarsi di un «paradigma comportamentista», connotato dall’oscillazione tra ricerche
sugli effetti dei media e quelle su usi e gratificazioni
→ poi l’approccio alla ricezione mediale definito dai due autori attraverso il «paradigma
incorporation/resistance» (incorporazione/resistenza) e identificato con i lavori basati sull’approccio
encoding/decoding di Stuart Hall
→ per poi arrivare al «paradigma spectacle/performance», che definisce ad esempio i lavori di
Silverstone così come i loro

Spettatori/performer: Cercando di superare l’idea di un necessario rapporto o di assimilazione o di


resistenza ai media, il paradigma spettacolo/performance evidenzia il lato performativo degli individui nelle
loro pratiche mediali. In questo paradigma:
 il mondo viene visto come spettacolo di cui siamo costantemente pubblico
 gli individui si pongono come soggetti narcisistici in cerca di un pubblico. La performance mediale
diviene esperienza continua e diffusa, dove i ruoli di audience e performers si scambiano
continuamente.

L’ibridazione consumo e produzione: Abercrombie e Longhurst definiscono in tal senso un «continuum


del pubblico» costituito dalle seguenti categorie:
1. consumatori, il cui uso dei media è relativamente generalizzato e non focalizzato, la cui attività
produttiva si limita ai discorsi quotidiani con gli amici sui testi mediali;
2. fan, che sono utenti particolarmente assidui dei media e che mostrano un particolare interesse per
certi generi, contenuti e personaggi mediali ma senza che questo li porti a organizzarsi con altri fan o
ad attività di produzione che non siano le conversazioni quotidiane;
3. adepti, che sviluppano una competenza specializzata per certi generi e testi mediali e che
costruiscono reti informali di comunicazione costante con altri fan. Si tratta di pubblici che
all’interno di queste comunità consumano, producono e mettono in circolazione prodotti di fan;
4. appassionati, che consumano, producono e condividono, in reti organizzate di fan molto coinvolti,
dei prodotti mediali amatoriali che includono disegni, poesie, critiche o fiction basati su personaggi o
ambientazioni dei contenuti di culto per i fan; 5. piccoli produttori, il cui entusiasmo va al di là della
dimensione amatoriale per orientarsi alle forme semiprofessionali.

Concetto di prosumer: Negli anni Duemila, si afferma progressivamente il paradigma dei prosumers e del
ruolo delle audience come co-produttori dei progetti mediali. L’ibridazione di pratiche di consumo con
pratiche di produzione viene definita in letteratura “prosumers” dalla crasi di producer+consumer. Il concetto
deriva dalle analisi di Ritzer (2010), basate a loro volta sugli studi di Toffler (1980) nel suo famoso libro The
Third Wave. Con il web 2.0, gli utenti diventano produttori in vari modi: producendo attivamente contenuti,
selezionando e optando per contenuti (in tal modo contribuendo ai modelli di distribuzione).
Anni duemila di entusiasmo e ottimismo per il nuovo ruolo che porta alla nascita di forme economiche e
produttive nuove, definite dai teorici entusiasti del web 2.0 come wikinomics: economia basata sulla
collaborazione degli utenti, sistemi in cui i tradizionali intermediari e centri di potere produttivo vengono
sostituiti dalle reti di utenti che hanno la possibilità di co-costruire il panorama culturale e non solo più
commentarlo.
Le forme di prosuming innovano anche i modelli economici legati alle pratiche culturali, basandosi sul libero
scambio, la condivisione e il lavoro volontario, guidato dai propri interessi e passioni

2007 – prima riflessione dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OECD) sugli
User Generated Contents (UGC) o User Created Content che definisce come: i contenuti resi pubblici in
Internet che riflettono un certo sforzo creativo, e che sono creati fuori dalle routine professionali.

Modello distributivo dei prodotti culturali mainstream grafico slide 11


Artisti e amatori che producono ma immediatamente ci sono degli editori che selezionano e che creano un
modo per selezionare i contenuti. Gli editori già prima decidono cosa pubblicare dei contenuti creati. Poi ci
sono i processi di distribuzione.

Modello distributivo dei prodotti culturali “UCG” grafico slide 12


Nel mondo degli user generated content non ci sono più i cancelli degli editori e dei distributori di contenuti
ma ci sono degli altri filtri. Da una parte quello della tecnologia, possono produrre contenuti solo quelli che
hanno la rete o device tecnologici mentre prima ognuno poteva gestirsi con i mezzi che aveva. Poi ci sono i
provider di connessione che è il primo limite per poter distribuire il proprio contenuto, poi ci sono le
piattaforme che creano un altro filtro: quello algoritmico. Infine poi si arriva al consumatore che attraverso
reti di raccomandazione può contribuire a cambiare il prodotto creativo.

I due processi cambiano e cambiano anche le modalità di accesso ai prodotti culturali e alla loro produzione

User generated contents: principali modelli di business sviluppati in relazione al web 2.0
 donazione
 pagamento per item
 sottoscrizione o abbonamento
 vendita di servizi paralleli/features aggiuntive agli utenti
 vendita o licenza dei propri contenuti o servizi a terzi (es. compagnie di mobile)
 pubblicità sulla piattaforma

Nuovo approccio: dare agli utenti la possibilità di vendere e distribuire loro tessi, le piattaforme vengono
messe in secondo piano es. decido io a chi voglio mostrare un contenuto, quando e perché. Scavalcano l’idea
dell’intermediazione tecnologica e danno l’idea che anche l’utente dal basso può creare e gestire i propri
contenuti gestendo in maniera semiprofessionale i rapporti con il suo pubblico.
Su questa base si innestano gli studi di H. Jenkins, che attraverso un approccio da aca-fan (academic fan)
lavora in maniera etnografica e auto etnografica a osservare le pratiche partecipative e co-creative delle
comunità di fan intorno ai prodotti mediali, pratiche.
Jenkins analizza come gli utenti e le comunità di fandom lavorano continuamente per rinegoziare il valore e i
contenuti dei prodotti di consumo, rivendicando un ruolo attivo nella definizione dei prodotti. Anche il
concetto di proprietà e copyright è in movimento: secondo Jenkins, nella cultura convergente (dove
convergono media mainstream e bottom up) c’è una continua negoziazione tra le società mediali mainstream
che tendono a chiudere e difendere l’integrità dei prodotti originali, e i pubblici che rivendicano la possibilità
e la libertà di rielaborare e remixare i contenuti mainstream generando nuovi contenuti.
Infine, egli evidenzia che questo passaggio non è privo di insidie e criticità, sottolineando la necessità di
nuove competenze digitali, non solo tecnologiche, ma anche culturali, motivazionali e sociali, che sono
necessarie perché le culture partecipative si sviluppino in modo sano e equo.

Una parte molto importante del lavoro di Jenkins è il contributo che lui da nel lavorare in maniera tecnica a
alle pratiche di partecipazione transmediale. Pratiche partecipative che hanno una capacità di transitare e
ibridare, non c’è più una partecipazione dei pubblici in maniera segmentata es. solo pubblico tv o cinema, ma
la partecipazione dei pubblici si crea intensificando in territori mediali ciò che al pubblico piace. Idea che gli
utenti non si dividono più in settori ma prendono spunto da ogni media.
Queste pratiche di co-creazione assumono forma e dinamica grazie ai processi transmediali abilitati dai
nuovi universi mediali. Henry Jenkins, nel suo testo del 2006 Cultura convergente, definisce la transmediali
come una forma narrativa in cui l’utente è chiamato a ricostruire il significato complessivo di un'opera
integrando vari media. Ogni medium, veicolando nuove e distinte informazioni, contribuisce allo sviluppo
della storia e alla comprensione del mondo narrato. Jenkins individua due fattori prominenti che guidano la
crescita della comunicazione transmediale:
 il primo è la proliferazione dei nuovi media come i video games, internet e le piattaforme mobili con
le loro applicazioni.
 Il secondo è l'incentivo economico per i creatori di media, che, condividendo gli assets, possono
abbassare i costi di produzione

La transmedialità può essere vista come un “sistema testuale” che, piuttosto che adattare lo stesso
messaggio su diversi media, costruisce un’architettura polifonica. In un prodotto transmediale ciascun media
sviluppa diversi filoni del tema principale e va a integrarsi con gli altri in un gioco di rimandi, anticipazioni,
completamenti, approfondimenti.

Tentpole es. Il film Star Wars che crea l’universo all’interno del quale si snoderanno le narrazioni dei giochi,
fumetti, action figures etc…crea una base di fan che si muove attraverso diversi media per esplorare l’intero
universo narrativo.
Il Tentpole può crearsi attraverso due modalità
 Modalità retroattiva: A seguito del successo di un potenziale Tentpole (solitamente un libro, un film
o uno show televisivo –mass media?-) si progettano follow up che esplorano l’universo creato dalla
prima opera (che ne identifica i vincoli e i limiti). Es. Harry Potter.
 Modalità proattiva: Il progetto di comunicazione si basa sulla co-creazione. I diversi reparti creativi
contribuiscono a creare fin dal principio il mondo che ospiterà le narrazioni esplorabili attraverso
molteplici media. Es. Matrix

Jenkins individua sette caratteristiche specifiche della partecipazione transmediale:


1. Diffondibiltà (spreadability) vs profondità (drillability): La dimensione della spreadability fa
riferimento alla capacità di un contenuto di diffondersi attraverso le reti digitali, aumentando il proprio
capitale simbolico ed economico. La drillability è invece la capacità un contenuto mediale di invogliare il
pubblico ad approfondire la storia scavando nella sua complessità. Se la spreadability agisce orizzontalmente
consentendo di aumentare rapidamente il numero di visualizzazioni senza necessariamente aumentare il
coinvolgimento dello spettatore, la drillability agisce invece su un vettore della profondità che si pone in un
certo senso trasversalmente rispetto al primo
2. Continuità vs molteplicità: La continuità fa riferimento a un concetto chiave del racconto transmediale,
l’“esperienza unificata” attraverso diverse piattaforme mediali, basata sulla coerenza e la plausibilità del
mondo finzionale. Pensando ai fumetti, gli universi dei supereroi della Marvel rappresentano perfettamente
questo principio. Viceversa, ed è il caso della Molteplicità, i progetti transmediali possono giocare sulla
creazione di storie alternative e mondi narrativi paralleli – come nei What If… della Marvel –, all’interno
delle quali i personaggi e gli eventi vengono visti in prospettive nuove e inusuali
3. Immersione vs estraibilità: Il consumatore può immergersi in un mondo narrativo – esperienza tipica dei
videogiochi, ma in realtà comune a tutti i modi di narrazione, a partire dal romanzo e dal cinema – o,
viceversa, può selezionare ed estrarre alcuni elementi all’interno di una specifica narrazione per riportarli e
riutilizzarli negli spazi della vita quotidiana, come nel caso del cosplay o del merchandising.
4. Worldbuilding: Le narrazioni transmediali si basano proprio sull’esistenza di mondi che non si
esauriscono in un singolo testo o media, ma danno origine a una pluralità di storie realizzate su piattaforme
mediali diverse, ognuna delle quali contribuisce ad arricchire la complessità dell’universo diegetico; ogni
media/piattaforma racconta dunque un aspetto diverso di un più vasto mondo narrativo.
5. Serialità: Secondo Jenkins, le narrazioni transmediali rinnovano la tradizione seriale del secolo XIX (es.
Sherlock Holmes), amplificandola: frammenti di storia non si organizzano in una sequenza lineare
monomediale ma si disperdono in un’ampia trama attraverso media diversi.
6. Soggettività: Una storia può essere raccontata da diversi punti di vista. Le narrazioni transmediali si
caratterizzano per la presenza di diverse soggettività, a ognuna delle quali corrispondono punti di vista, voci,
sguardi diversi, spesso associati a media diversi.
7. Performance: Jenkins distingue fra cultural attractors (elementi condivisi intorno ai quali si crea la
comunità di fan) e cultural activators (elementi che danno alla comunità qualcosa da fare). Un esempio di
cultural activator è la mappa che apparve brevemente in alcune puntate della seconda stagione di Lost
attivando la creatività dei fan che hanno provato a ridisegnare questa mappa alla ricerca di indizi sullo
sviluppo della storia. A volte questi attivatori culturali sono posizionati strategicamente dagli autori, ma
anche in mancanza di una strategia esplicita i fan tenderanno comunque ad interpretare performativamente
alcuni aspetti della storia.

Critiche all’idea di cultura partecipativa


Diversi studiosi hanno criticato l’approccio di Jenkins e dei teorici delle produsage e delle participatory
cultures. Van Dijk in diversi articoli come “Users like you. Theorizing agency in user-generated content”
(2008) evidenzia alcune criticità:
 una schematica opposizione tra utenti passivi , legati agli old media, e utenti attivi, non riconoscendo
che forme di attivismo e partecipazione esistono da sempre anche con i mass media
 la sopravvalutazione quantitativa degli utenti produttori di contenuti , lui mostra che c’è una
distribuzione degli utenti: il 52% degli utenti è inattivo; il 33% sono spettatori; il 19% sono i joiners
che si connettono ad altri nelle altre reti con un comportamento più attivo; il 15% collettctions che
sono quelli che selezionano e si fanno le loro librerie di contenuti, all’interno del consumo mediale,
si fanno delle loro liste che filtrano già i contenuti; il 19% sono i critics che nel web commentano e
fanno review; infine ci sono i creators che creano realmente contenuti, questi creators sono soltanto
il 13% di tutto il pubblico web.
 il far coincidere le comunità di gusti e interessi sui social , con vere comunità che condividono scopi
sociali e civili.
 il sottovalutare il ruolo degli algoritmi nel creare e modellare le pratiche comunitarie (per esempio
associando interessi e utenti)

Altre critiche riguardano gli aspetti economici legati alle piattaforme. Van Dijk sottolinea come enfatizzare il
ruolo degli utenti come fornitori di contenuti e la loro importanza come attori partecipativi nella produzione
culturale in qualche modo sminuisce il loro ruolo di fornitori di dati, che è invece il reale business degli
UGC.

→ Studiosi di stampo neo Marxista hanno fatto osservare come dietro il concetto di culture partecipative ci
sia spesso la “glamourizzazione” del dominio digitale e la pretesa di presentare il lavoro immateriale come
frutto di passione, impegno e senso civile quando in molti casi è invece frutto e oggetto di pratiche di
sfruttamento capitalistico. Si rende glamour e cool una cosa che in realtà è lavorare gratis.
→ In Spreadable media, Jenkins riprende queste critiche, offrendo spunti per controbattere e/o
problematizzare meglio questi temi. Egli osserva che:
 le pratiche partecipative non si riducono ai soli “creators” , anche curare, selezionare, votare sono
pratiche partecipative che contribuiscono a fornire agency agli utenti nel definire il panorama
culturale.
 le aziende possono ricavare informazione dai dati quantitativi degli analytics , ma le pratiche di
rielaborazione critica e creativa delle comunità fandom forniscono informazioni molto più complesse
riguardo le interpretazioni e rielaborazioni culturali, non riducibili ai data analytics
 è vero che la partecipazione online non è equamente distribuita per classe , regioni del mondo,
categorie sociali, non bisogna perciò sottovalutare le nuove diseguaglianze, ma le piattaforme UGC
stanno contribuendo a creare un sistema di partecipazione certo non perfetto, ma sicuramente più
orizzontale e dinamico rispetto ai precedenti
Lezione 11 11/11
“It’s complicated”: Il metodo di dana boyd: studiare le pratiche giovanili “dal di dentro”, attraverso
l’osservazione etnografica di lungo periodo nei reali luoghi di vita e aggregazione giovanile.
Danah Boyd opera nel periodo dei primi anni 2000-2007. Fece un’analisi etnografica delle pratiche reali dei
giovani legate ai media. Analisi etnografica sta nell’osservazione delle dinamiche, non nel porre domande
(tecnica del “fly on the wall” – mosca su un muro). Danah Boyd osservò le pratiche dei ragazzi nell’uso del
digitale. Il suo approccio è esplorativo: non ha degli obiettivi precisi, assorbe ciò che capita. A questo
affianca delle interviste dirette ai ragazzi: questo la coinvolse da un lato emotivo, e colse meglio le
dinamiche sociali senza pregiudizio.

La prima analisi colloca le pratiche dei ragazzi online nel contesto della sociologia dell’infanzia e
dell’adolescenza: come è cambiato l’essere giovani nella società. Danah Boyd descrive la società americana
che è 80-90% costituita da paesini separati l’uno dall’altra; perciò, i ragazzi abitano lontani gli uni dagli altri.
In qualche modo i ragazzi d’oggi sono stati depauperati dalla loro autonomia: in passato la maggioranza dei
ragazzi andavano a scuola a piedi/in bici, ora la maggioranza si fa accompagnare anche fino alle superiori.
Anche i luoghi di aggregazione si sono rarefatti, e gli adulti pianificano i pomeriggi dei loro figli con attività
extrascolastiche (sportive, musicali, etc.).
I social come spazi agency: I giovani praticano gli spazi digitali in rete soprattutto per ricostruire spazi di
agency e relazione indipendenti dal mondo degli adulti. Un tempo esistevano le piazze, i giardini, i locali
dove i ragazzi potevano passare del tempo fuori dallo sguardo adulto. Negli ultimi decenni gli adulti hanno
progressivamente organizzato, pianificato e controllato ogni spazio dei ragazzi, ecco che allora essi “si
ritirano” negli unici spazi dove possono essere fuori dal controllo degli adulti.

La seconda analisi riguarda ila crescita del controllo degli adulti sui ragazzi: con esso è quindi diminuita la
possibilità dei ragazzi di sperimentare in autonomia la loro individualità e personalità. Ciò è frutto di un
cambiamento sociale in cui i genitori sono molto più attenti a ciò che fanno i figli, e investono molte
aspettative. I giovani essendo sempre osservati e controllati quindi evadono nella dimensione online in cui
possono sperimentare ed esistere senza il controllo degli adulti. Man mano che gli adulti si registrano, i
ragazzi si spostano in una piattaforma diversa in cui sfuggono.
Crescere con una libertà limitata: “Gli adolescenti hanno il forte desiderio di raggiungere i pieni diritti
dell’età adulta, pur non comprendendone la responsabilità. Sono bloccati in un sistema in cui gli adulti
limitano, proteggono e fanno pressioni perché raggiungano il successo, secondo parametri definiti dagli
adulti stessi. (…) Nel percorso verso l’età adulta, agli adolescenti serve imparare come vivere alcuni aspetti
fondamentali nella maturazione: presentazione di sé, gestione delle relazioni sociali e sviluppo di una propria
visione del mondo che li circonda. (…) i social media forniscono una piattaforma e uno spazio in cui
compensare ciò che hanno perso” (pg.127-128).

Spazi pubblici e privacy. Per i giovani, gli spazi digitali sono “pubblici”, nel senso che permettono di avere
una vita pubblica, ma questo non vuol dire che sono esenti dalle regole della privacy. Come, quando sediamo
in una piazza, siamo in uno spazio pubblico ma non per questo autorizziamo gli altri a introdursi nella nostra
vita, così, per i ragazzi, essere in spazi pubblici online non significa voler rinunciare alla propria privacy.
Quando però gli adulti iniziano a spiare gli spazi digitali dei giovani, questi ricorrono alla steganografia
sociale: ossia usano un codice di linguaggio che riconoscono solo loro, ad esempio due ragazze che nella
stessa macchina accompagnate dal papà chattano su WhatsApp invece di parlare a voce, per non far origliare
le conversazioni a lui. Uso di profili fake per evadere dagli adulti.
“La steganografia sociale usa innumerevoli strumenti culturali e linguistici - usando i testi di una canzone,
battute comprensibili solo da un gruppo e riferimenti culturali specifici- per cifrare messaggi funzionalmente
accessibili ma al tempo stesso senza significato”. Al centro delle pratiche sociali dei ragazzi online ci sono
delle pratiche performative: spesso questo performarsi è connotato da un atteggiamento/colore drammatico,
di flame, rissa, contrapposizione.
I social come spazi di differenziazione generazionale: Per proteggere la propria vita privata, i ragazzi
quindi si rifugiano in piattaforme meno accessibili e frequentate dagli adulti, costruiscono profili multipli o
usano linguaggi gergali o cifrati per poter comunicare pubblicamente selezionando i target a cui vogliono
indirizzarsi.
Drama e bullismo: Al centro delle pratiche on line ci sono spesso aspetti performativi, quali quelli del
“drama”. Boyd definisce il “drama” come “un conflitto performativo e interpersonale che ha luogo di fronte
a un pubblico coinvolto e attivo, spesso sui social media”. Rispetto al concetto di bullismo, nel drama le parti
hanno possibilità di controbattere e quindi una simile agency, questo rende il drama percepito come meno
grave del bullismo e parte delle negoziazioni sociali. Contrapposizione dialettica che si ritrova nel mondo
online, quello che ha di interessante questa pratica è che viene preformata davanti agli altri, gli altri possono
prendere una posizione nel drama. Il drama diventa possibilità per gli altri di esprimere la loro posizione
anche per definire la propria identità nel dibattito.
Dinamica dialettica però deve essere distinta dal bullismo perché nel bullismo non c’è una reale simmetria
tra le parti e la possibilità di rispondere. In un drama ci si scontra da pari, negli atti di bullismo, invece, c’è
qualcuno che parte da una posizione svantaggiata.

Alone together: Sherry Turkle, negli anni Novanta una delle studiose più accese nel valorizzare le
potenzialità delle relazioni digitali, ha poi rivisto la sua posizione negli ultimi decenni. Attraverso studi,
anch’essi di tipo etnografico soprattutto sui giovani, ha osservato come le pratiche digitali portano a una
dinamica di continuo flusso relazionale, che tuttavia fornisce una sensazione solo superficiale di
soddisfazione emotiva. Dietro l’affannarsi relazionale nei network digitali i giovani si sentono sempre più
soli, le relazioni familiari trovano minori spazi di dialogo, i contenuti comunicativi sono appiattiti.
Osserva come nella nostra vita quotidiana ci si interfacci sempre di più con oggetti intelligenti e ci
appoggiamo a loro come attori dell’interazione sociale. Stabiliamo su questo rapporto anche i rapporti umani
(se possiamo bloccare/spegnere il pc, possiamo anche bloccare/spegnere il rapporto con una per
sona con un click). Lo stile della Turkle è molto narrativo/visivo.

Quali sono le competenze digitali?


L’Unione Europea per diversi anni si è spesa molto per mettere in luce quelle che sono le competenze
digitali, cercando di costruire delle linee guida e delle impalcature culturali per i cittadini per capire come
dirigere l‘educazione verso una migliore competenza digitale. Uno strumento, un framework che è stato
creato e il DigComp. Questo documento individua diversi livelli di competenza in diverse aree del digitale e
tenta di creare una sorta di mappa di tutte le competenze digitali che i cittadini dovrebbero avere per il
futuro. Il documento fornisce, inoltre, degli esempi di come queste competenze possono essere espresse per
capire e avere una panoramica come strumento di lavoro.
Esempi strutturati su otto livelli e su due domini che sono quello del lavoro e quello dell’apprendimento.

Anche il word economic forum ha creato un framework che individua le competenze socio-emozionali che
bisognerebbe avere per essere al passo nel mondo lavorativo del domani.

Fattori che influenzano le competenze digitali:


- Restrizioni e controllo dei genitori: è stato osservato come un controllo sull’uso che i ragazzi fanno
dei dispositivi tecnologici da parte dei loro genitori, non fa altro che ridurre e competenze digitali. In
questo modo i ragazzi non acquisiscono ulteriori competenze digitali come quelle relazionali.
- Apporto propositivo dei genitori: in questo caso è stato notato come un apporto positivo da parte
dei genitori verso i ragazzi sull’uso di internet, fa aumentare la creazione di idee del mondo digitale
creando così un effetto positivo, influenza dei ragazzi attraverso l’uso elle tecnologie
- POSI: tendenza a vivere soltanto online, idee discordanti: stare molto online impoverisce altre
capacità sociali e emozionali da un lato e differenziazione molto alta di attività con possibile
miglioramento delle competenze digitali dall’altro.
- Varietà di attività online: le persone che fanno diversi tipi di attività online porta ad u
miglioramento delle competenze digitali.
- Self efficacy: idea che si ritrova nel modo in cui le persone si sentono in grado e adeguate a fare le
cattività online. Questo ha un effetto positivo sulle competenze. Effetto San Matteo, ossia “se tu
credi di essere capace (anche se non lo sei), di conseguenza otterrai e saprai fare di più.
Metodi delle pratiche digitali:
Metodi top down: definizione degli indicatori, rilevazione sugli utenti, analisi (ricerca su competenze
digitali studenti)
Metodi bottom up user: rilevazione sugli utenti, analisi, definizione di indicatori (ricerca Transmedia
Literacy)
Metodi bottom up data centered: rilevazione sugli analytics, analisi, definizione di indicatori (cultural
analytics)

Ricerca indire su competenze digitali degli studenti italiani – ricerca quantitativa su 6126 studenti italiani.
Stili digitali degli studenti e loro bisogni formativi: sono stati analizzati gli stili d’uso del digitale dei ragazzi
attraverso analisi fattoriale e cluster analysis. Dalle analisi emergono 4 diverse dimensioni di utilizzo che
possono essere riferite ad altrettanti stili di utilizzo del digitale da parte degli studenti, nella loro vita
extrascolastica:
I digitali funzionali (22% del campione) - Sono contraddistinti da diverse variabili quali: leggere libri
online; leggere notizie online; usare dizionari online; usare il cellulare per cercare info sui posti in cui ci si
trovano, cercare informazioni pratiche online (orari, prenotazioni ecc.)
Il 22% del campione è un digitale funzionale. Sono in maggioranza ragazze (67%), non sono correlati a
specifici background familiari, provengono in maggioranza dai Licei (52%), rispetto a Istituti Tecnici (41%)
e professionali (26%). Sono distribuiti in maggioranza nella fascia degli studenti con un rendimento
scolastico medio (49% degli studenti digitali.
I gamers (27%) – sono contraddistinti da due variabili: » giocare da solo e giocare online. I gamers sono il
27% campione. Sono prevalentemente maschi (72%), non presentano particolari differenze di background
familiare, alle superiori frequentano principalmente gli istituti tecnici (41% dei gamers frequenta gli istituti
tecnici e in maniera minore licei (33%) e professionali (26%). Appartengono a una fascia media di
rendimento scolastico: il 54% dei gamers ha un rendimento di 6-7 in media.
Gli svagati (32%) – sono contraddistinti dai seguenti comportamenti: chattare; navigare online senza uno
scopo preciso; guardare video online. Gli svagati sono una fascia ampia del campione (32%), e sono una
categoria molto eterogenea, senza significative differenze di genere, né di status dei genitori. Sono in
maggioranza nei Licei (46%), poi negli Istituti Tecnici (31%) e nei professionali (23%). Appartengono a una
fascia media di rendimento (47% degli svagati ha una media del 6-7)
Gli a-digitali (19%) – sono un gruppo contraddistinto da una bassa frequenza in tutte le precedenti
dimensioni di uso del digitale. Gli a-digitali sono il 19% del campione, sono distribuiti abbastanza
equamente in base al background scolastico dei genitori e al genere. La maggioranza degli a-digitali è nella
fascia di età dai 6 ai 10 anni. Si distinguono, tuttavia, dalle altre categorie, perché hanno un rendimento
scolastico più alto: infatti il 58% degli a-digitali ha una media dell’8 e superiore. Tuttavia questo è dovuto
tendenzialmente alle diverse scale di valutazione che si usano alla primaria, scuola principale di questo
target.

Gli stili digitali e l’età: Gli stili digitali cambiano con l’età. Gli a-digitali tendono a diminuire drasticamente
con l’età, mentre al contrario la quota dei funzionali aumenta.
Bisogni formativi comuni: Tutti gli studenti, sebbene con intensità diversa in relazione al loro «stile
digitale», riconoscono come prioritari due bisogni di miglioramento:
→ Utilizzare il computer per studiare in modo più efficace e/o divertente
→ Essere in grado di riconoscere contenuti utili, veri, importanti senza perdersi nella navigazione.
Si rileva che sono i «gamers» la tipologia di studenti che più intensamente degli altri coltiva obiettivi di
miglioramento digitale

Bisogni formativi peculiari dei diversi tipi di studente


Al terzo posto, nella scala dei bisogni formativi sul digitale:
 i «funzionali» e i «gamers» individuano la produzione di contenuti digitali;
 gli «svagati» e gli «a-digitali» la capacità di comunicare di più e meglio attraverso il digital
Il progetto Transmedia Literacy ha indagato le nuove competenze informali dei ragazzi, sviluppate tramite
l’uso del digitale dentro e fuori dalla scuola, secondo l’approccio del connected learning. Il kit metodologico
del progetto si è basato su un approccio multi metodo, che è partito dalla creazione di workshop partecipativi
che mettono in azione le pratiche dei ragazzi, osservandole attraverso strumenti etnografici
Cosa si è scoperto?
→ L’uso dei videogiochi nel nostro campione diminuisce molto con il passaggio alle scuole superiori.
→ Aumentano invece con l’età le pratiche di fan fiction
→ Tutti i ragazzi manifestano un atteggiamento di consapevolezza e distanza dal digitale (frutto di
desiderabilità sociale o reale?)
→ Media come palestre emotive e sociali
→ Strategie informali di apprendimento: imitazione, insegnare agli altri, auto-ironia, challenge

Competenze bottom-up, queste competenze, in Italia, includono:


Uso dell’ironia e autoironia online come chiave culturale e relazionale nella produzione di contenuti e
nell’esposizione del sé sociale. L’ironia è il registro chiave dei linguaggi digitali giovanili. I ragazzi
imparano a usare l’ironia e autoironia nelle strategie di interazione per gestire la paura del fallimento,
l’inserimento e l’interazione nei gruppi, la rielaborazione dei contenuti in chiave appetibile per il target.
Capacità di fare peer-reviewing in maniera fair, attraverso le piattaforme digitali. I ragazzi danno valutazioni,
commentano, danno suggerimenti gestiscono le loro capacità autoriali e creative in maniera relazionale. Per
esempio, abbiamo individuato molte studentesse, nella fascia 11-16 anni, che usano la piattaforma di social
reading e writing Wattpadd come palestra di scrittura in chiave identitaria, sviluppando abilità informali di
meta riflessione, gestione del sé e competenze di self-branding online.
Imitazione come informal learning strategy principale nei ragazzi: produzione e uso di tutorial come nuovi
strumenti di apprendimento informale, ruolo degli influencers (es. youtubers, instagrammers) come
mediatori culturali, in grado di veicolare conoscenze, stili e modelli di vita

Competenze «bottom up»: come collegarle al mondo della scuola. Il Teacher’s Kit
Il progetto Transmedia Literacy ha creato, tra gli output, anche una mappa interattiva online, dedicata a
fornire ai docenti strumenti concreti per:
 riconoscere le skill digitali dei loro studenti
 Trasferire queste skill in classe, a supporto della didattica disciplinare e per competenze
 Rafforzare alcune skill digitali utili sul piano scolastico e di capitale sociale.

Una mappa interattiva permette di cercare attività didattiche in base alle competenze digitali informali
individuate nei ragazzi, o che si vogliono potenziare.
Il kit contiene oltre cento attività a disposizione dei docenti, per lavorare sulle competenze digitali
transmediali e integrarle con le competenze curricolari.

Nel sistema delle competenze digitali si osservano però anche quelli che sono i gap e i divari digitali. Ci
sono competenze nuove che non sono di tutti, ci sono nuove differenze di potere che si costruiscono anche
attraverso il digitale. Anche in questo caso si ha l’effetto San Matteo. All’inizio l’idea era che con il digitale
e con l’informazione online il gap tra le persone che avevano un capitale sociale alto e basso si riducesse ma
non è stato così perché ci sono ancora tante differenze sull’accesso al digitale.

L’appropriazione culturale delle tecnologie secondo Jenkins


Il modello di competenze proposto da Jenkins nel 2006 comprende 11 competenze di base:
 gioco (play): inteso come capacità di saper rivestire un ruolo e adottare strategie di problem solving;
 simulazione (simulation): l’abilità di interpretare e costruire modelli dinamici dei processi che
avvengono nel mondo reale;
 performance: capacità di impersonare identità alternative;
 appropriazione (appropriation): l’abilità di valutare, riutilizzare, miscelare (remix) contenuti digitali;
 multitasking: l’abilità di scansionare l’ambiente e prestare, di volta in volta, attenzione ai dettagli
salienti;
 familiarità con media diversi (transmedia navigation) : la capacità di seguire un flusso di storie e
informazioni attraverso una molteplicità di media;
 conoscenza distribuita (distributed cognition) : l’abilità di interagire in maniera significativa con
strumenti che espandono le capacità mentali;
 intelligenza collettiva (collective intelligence) : l’abilità di mettere insieme conoscenza e confrontare
opinioni con altri in vista di un obiettivo comune;
 valutazione (judgement): l’abilità di valutare l’affidabilità e la credibilità delle diverse fonti di
informazione;
 networking: l’abilità di cercare, sintetizzare e disseminare informazione;
 negoziazione (negotiation): l’abilità di muoversi tra diverse comunità, riconoscendo e rispettando la
molteplicità di prospettive e comprendendo e seguendo regole diverse

Nuovi gap partecipativi:


Per Jenkins innanzitutto è necessario agire su 3 diversi tipi di problemi:
1. il “gap partecipativo” che è dovuto a un insieme di diversi fattori: non solo il divario nell’accesso alla
tecnologia e nel possesso di competenze tecniche, ma anche i divari più profondi legati al livello culturale; 2.
l’opacità, ovvero l’assenza di trasparenza dei media: le modalità con cui influiscono sulla nostra visione del
mondo modellandola con modalità che risultano opache;
3. il problema etico: gli aspetti sociali dell’interazione in Rete, in particolare la difficoltà a sviluppare una
responsabilizzazione dei soggetti quando interagiscono online e una chiara percezione etica di fenomeni
come il cyberbullismo

Analisi degli influencer di noi studenti:


- body positivity: la chiave è essere spontanei, genuini, ma anche belli.
- apprendimento informale: checcaflo, travellers, etc.
- impegno civico: molti influencer legati al discorso delle tematiche di genere, razzismo e ambientali.
- metalinguaggio: l’autenticità è un’autocostruzione, fa parte del linguaggio.
- metariflessività: Khaby Lame demitizza i life hacks con ironia.
- “uno/a di noi”: la mia vita non è poi così sfigata. Gli influencer che più sono amati sono quelli che non si
prendono sul serio.
- self help: “in questo brutto periodo mi ha aiutato a non rimanere solo”.
L’asset della genuinità c’è ma nella forma bella delle piattaforme: nonostante gli influencer siano “genuini e
spontanei” devono comunque postare contenuti molto belli, a livello professionale, per restare al passo con le
aspettative dei social.

Cultural analytics - analisi realizzate da Lev Manovich nel libro Cultural analytics
L’industria culturale del Novecento si concentrava nel produrre, distribuire e promuovere prodotti, come
film, canzoni, libri, fumetti. L’industria culturale di oggi si concentra sull’organizzare, presentare e
raccomandare contenuti, e sull’analizzare i feedback degli utenti.
La scala di grandezza della produzione culturale negli ultimi anni, a causa degli UGC, è aumentata
esponenzialmente. Oggi vengono prodotti miliardi di contenuti culturali ogni giorno (video, testi, foto,
immagini, canzoni…). L’approccio tradizionale al mondo culturale individua pochi esperti (i critici, i
curatori dei musei, gli editori…) in grado di selezionare “il meglio”. È un approccio da superare, per vari
motivi: -rischia di essere affidato a criteri arbitrari e casuali -considera “cultura” solo i prodotti alti, lasciando
totalmente inesplorata la produzione culturale bottom up -non è inclusivo, sovrastimando la produzione di
alcune parti del mondo o alcune categorie sociali sovraesposte.
35 milioni di artisti condividono i loro lavori su Deviant art 113 milioni di accademici condividono i loro
lavori su Academia o altri social simili. Il mondo, quindi, è popolato non più solo da produttori professionali,
ma anche da free riders. Interfacciarsi con la quantità e la varietà di tutti questi attori, professionali e non,
richiede necessariamente il supporto dei metodi computazionali.
L’uso di algoritmi in grado di analizzare grandi quantità di contenuti modifica anche l’approccio e il modello
di analisi dei contenuti culturali: l’uso di dati numerici e rappresentazioni analitiche offre un nuovo
linguaggio e nuovi strumenti epistemologici per affacciarsi ai prodotti culturali. Se per secoli l’analisi dei
prodotti culturali si è basata su strumenti qualitativi, oggi è possibile lavorare con strumenti quantitativi che,
attraverso rappresentazioni numeriche, ci forniscono una visione graduale e continua tra i diversi prodotti,
per esempio le progressive variazioni nel tempo di un certo stile. Inoltre oggi è avvenuto anche un radicale
passaggio da approcci deterministici alla produzione culturale (secondo regole fisse e prestabilite, codificate
per esempio nei generi) a approcci non deterministici (basati su regole + algoritmi per la randomizzazione
dei risultati, in grado di generare risultati diversi e originali per ciascun fruitore).

Manovich è cosciente del fatto che un’opera d’arte o un prodotto culturale non possono essere “ridotti” a una
serie di parametri misurabili, il giudizio estetico infatti si compone di elementi umani non riproducibili dagli
algoritmi. Tuttavia le interfacce degli analytics ci possono fornire nuovi punti di vista e chiavi di lettura,
complementari a quelle qualitative create dagli uomini.

Approccio classico deduttivo: si individuano delle caratteristiche (es. temi letterari, generi artistici) e si
analizzano i prodotti in base a queste.
Approccio dei cultural analytics: non ci sono categorie di analisi a priori, ma esse vengono estratte in
maniera induttiva dall’analisi di bilioni di contenuti e dalla rilevazione bottom up delle similitudini. Gli
approcci analytics procedono per riduzione e sintesi (si categorizzano contenuti in classi simili). Si tratta di
un approccio opportuno quando si parla di prodotti culturali? Anche i curatori di mostre, i critici letterari…
creano categorie sintetiche (es. un genere) nelle quali inseriscono un prodotto. Gli algoritmi forniscono nuovi
strumenti per comprendere i canoni (le similitudini) e le originalità delle opere

Quali sono i prodotti culturali quindi analizzabili? Eventi, azioni, contenuti, mostre ma anche il loro impatto
sul pubblico, in termini di ingressi, visualizzazioni, like, commenti.
Spesso gli studi culturali si sono concentrati su specifiche aree geografiche del mondo, categorie sociali, o
correnti. Limiti operativi, non solo bias culturali, impedivano di allargare il campione dei contenuti analizzati
a porzioni più ampie di produzione. Gli approcci computazionali eliminano questi limiti.
Tendenzialmente, attraverso i sistemi computazionali, si possono porre all’attenzione bilioni di prodotti
culturali, coprendo aree geografiche inesplorate solitamente e individuando tendenze, generi, forme culturali
normalmente non visibili.
Esempio: elsewhere – il progetto Elsewhere analizza oltre 80.000 prodotti caricati sul sito Behance da
creativi nell’ambito della fotografia, moda e altre decine di settori. L’analisi geografica dei luoghi da cui
provengono i prodotti caricati mostra come il panorama delle capitali culturali, tarato sul piano ideologico in
maniera occidentocentrica, è molto cambiato.

Ovviamente esistono altri bias: questi metodi funzionano solo per prodotti digitali o digitalizzati. Tutta la
produzione culturale “analogica” sfugge a questa lente. Tuttavia, l’analisi computazionale dei contenuti
digitali, oggi, costituisce un affaccio nuovo e complementare per gli studi culturali, che allarga
immensamente lo sguardo.

Potrebbero piacerti anche