Sei sulla pagina 1di 61

Chiara Pauletto

SOCIOLOGIA DELLA COMUNICAZIONE:


LEZIONE 1 DEL 24/02:
lavoreremo anche su una parte empirica sui social.

“Se gli uomini definiscono le situazioni come reali, esse saranno comunque reali nelle
loro conseguenze” (Merton, 1948)
Questa è una citazione di uno studioso di psicologia sociale. È presente l’idea che la comunicazione
non serve soltanto a descrivere qualcosa che esiste, può anche creare il presente, atto che non
solo comunica la realtà ma che la crea, la trasforma.

COS’È L’INFORMAZIONE?
La comunicazione è la trasmissione di informazioni, ma cos’è l’informazione?
Si ha un’informazione quando percepiamo una differenza delle cose che conoscevamo
precedentemente. Classico esempio albero che cade nella foresta non è un’informazione perché la
nostra idea di foresta non cambia

L’informazione può essere contenuta all’interno di un oggetto di un messaggio, di un atto


comunicativo. Non sempre riusciamo a decifrarla, possiamo percepirla ma non capirne il
contenuto. Es. stele di rosetta, era chiaro a tutti che i simboli avessero un significato ma il
significato non era chiaro, non erano in grado di capirlo.
Dobbiamo avere i codici per decifrare il contenuto. Questo linguaggio è stato comparato ad altri
codici per arrivare poi alla traduzione. Per codificare i messaggi è necessario creare sistemi di
ridondanza, l’informazione viene ripetuta in diverse forme in modo tale che il messaggio possa
essere facilmente comparato e capito, permette di confrontare il codice con altri codici.
Nel caso della stele di rosetta ridondanza presente nel fatto che scritta con tre codici.
Altro esempio è quello delle interfacce digitali, come in word in cui noi abbiamo diversi modi per
fare un’azione come la stampa, di solito tre modi.
Questo serve a far si che il messaggio sia accessibile a tutti, che sia più chiaro.

L’informazione ha tantissimi livelli di complessità e lettura, casi in cui è più semplice e casi in cui lo
è meno. Anche i livelli di codifica sono molto diversi.
Nel caso della moneta ha due livelli di lettura, un dado 6.

TEORIE DELL’INFORMAZIONE DI SHANNON E WEAVER:


Rappresenta la base delle strutture informative, elementi chiave del processo comunicativo.
2

Rappresenta la base delle strutture informative elaborata in modo ingegneristico negli anni 40 e
mostrava gli elementi base di un processo comunicativo cioè: un emittente che codifica un
messaggio lo fa passare attraverso un canale, nel canale il messaggio passa alla decodifica e poi
arriva al ricevente. Poi ci sono elementi aggiuntivi rispetto questo modello come il feedback.

Il modello di Shannon e Weaver non considerava l’importanza del ruolo dell’emittente nel sistema
se non come un passivo ricettore di contenuti di messaggi, nelle teorie seguenti vengono
sottolineati altri fattori importanti come il contesto culturale, ma anche il ruolo stesso degli
emittenti.

Questo modello era un modello di tipo ingegneristico, applicato soprattutto agli strumenti di
comunicazione come al telefono. Affinché il messaggio sia efficace bisogna considerare alcuni
fattori come:
- La larghezza di banda
- Un codice condiviso e robusto
- Un messaggio di tipo ridondante
Questi fattori riducono la complessità della comunicazione sul piano sintattico ma ignorano
completamente i problemi semantici.

Non si preoccupa di come viene interpretato dal ricevente. Si rischiano incomprensioni.

Sempre negli anni 40 distinte diverse modalità di connessione del messaggio


- Sintassi: studio dei singoli elementi di un codice e delle loro combinazioni. Es come i colori
del semaforo possono essere composti
- Semantica: che è lo studio delle relazioni tra il codice e gli oggetti che indica, collegamento
tra le combinazioni dei segni e il loro significato
- Pragmatica: studio delle relazioni tra codice e coloro che lo usano, comportamento
conseguente al loro uso.
Anche un elemento molto semplice come un semaforo ha la sua sintassi, la sua semantica e la sua
pragmatica. Infatti, notiamo differenze tra i paesi.

LA CIBERNETICA E IL CONCETTO DI FEEDBACK (O RETROAZIONE):


Con la nascita della cibernetica (Wiener 1948) emerge chiaramente una visione più complessa e
olistica del rapporto tra gli attori della comunicazione.
In particolare, viene inserito il concetto di feedback, (o anche retroazione) che evidenzia come il
destinatario risponda alla comunicazione e in molti casi questa risposta ha conseguenze
sull’emittente e sullo stesso processo di comunicazione.
Idea che il destinatario fornisca delle sue reazioni al messaggio che saranno disponibili al mittente.

Concetto di feedback importante quando andremo a trattare le interfacce digitali che vivono di
feedback. Anche la comunicazione uno a molti, come sui social.
Per esempio, i newsfeed e le pagine iniziali dei social network o dei portali di intrattenimento sono
continuamente modificati in base alla elaborazione algoritmica, che tiene in considerazione i
feedback degli utenti, per esempio precedenti click, like, commenti ecc.
L’interfaccia, quindi, non è un elemento statico e precostituito ma si costruisce e trasforma
continuamente in base ai feedback, individuali e sociali, degli utenti.
3

LA SEMIOTICA:
La semiotica si è molto concentrata sul tema dell’interpretazione nella comunicazione.
Eco le definiva comunicazioni aberranti. Eco e Fabbri fanno una sistematizzazione dei tipi di
decodifiche aberranti che possono avvenire: la decodifica aberrante avviene quando non si hanno
gli stessi codici traduttivi (murales).
Oppure può avvenire per una disparità di codici, abbiamo lo stesso linguaggio ma lo conosciamo a
livello asimmetrico (io parlo lo spagnolo come seconda lingua e parlo con te madrelingua, alcune
parole non le capisco).
O possono essere inferenze circostanziali, cerchiamo di interpretare il messaggio in base a quello
che vogliamo sentire, manipoliamo quello che vogliamo capire del messaggio.
O rifiuto del messaggio per delegittimazione dell’emittente, l’idea che tutto funziona che il
messaggio è chiaro ma io ho talmente sfiducia nei confronti dell’emittente che lo rifiuterò.

INTENZIONALITÀ O NON INTENZIONALITÀ:


Un altro tema centrale e discusso della comunicazione è il discorso dell’intenzionalità.
Secondo la scuola di Palo Alto la comunicazione avviene sempre in ogni gesto anche non
intenzionalmente comunicativo.
Watzlawick et al. (1967) affermano che “è impossibile non comunicare”. Tutti i tipi di
comunicazione sono anche non intenzionalmente comunicazione. Es risposta non risposta su
WhatsApp. Noi non comunichiamo praticamente mai, comunichiamo sempre, anche la non
risposta è una risposta.

Da un altro punto di vista, E. Goffman (1959) intende la comunicazione in senso stretto solo come
l’espressione volontaria che si lascia trasparire, come in ascensore fingiamo fi guardare il muro
(disattenzione civile, atto comunicativo civile).
Non è interessante quello che lui definisce il retroscena, ovvero tutto ciò che circonda una
determinata cosa, come la lezione.
Es di retroscena The Truman Show, lui vive il suo retroscena senza pensare si star comunicando,
invece il suo retroscena è un’enorme ribalta per tutto il mondo. Lui non ha intenzionalità nel
comunicare.

Quindi per la scuola di Palo Alto possiamo quindi definire la comunicazione come un processo di
costruzione collettiva e condivisa del significato, dotato di livelli diversi di formalizzazione,
consapevolezza e intenzionalità.
Noi abbiamo bisogno di inserire le situazioni sociali in dei frame costruiti da noi, solo a questo
punto sapremo come muoverci in base allo script di quel frame, ci comportiamo di conseguenza in
base al frame nel quale è inquadrata quella determinata situazione sociale. Quindi i frame ci
permettono di interpretare la realtà e di sentire comfort nelle situazioni.
I bambini solitamente non seguono i frame, sono imprevedibili.

LA COMUNICAZIONE NEGLI ANIMALI:


La comunicazione nel mondo animale è un utile punto di vista per allargare l'orizzonte.
Gli approcci allo studio della comunicazione animale sono stati di due tipi: antropocentrico e
antropomorfo.
Una differenza fondamentale tra la comunicazione animale e quella umana è che la
comunicazione umana è prevalentemente referenziale mentre la comunicazione animale è
prevalentemente relazionale.
4

La maggior parte degli animali usa la comunicazione per stabilire una gerarchia, per ribadire il suo
ruolo all’interno del branco. La comunicazione si incentra sulla relazione tra i due soggetti.
Nel mondo umano invece noi diamo importanza al fattore referenziale, anche se è importante
anche quella relazionale, usiamo entrambi i sistemi.

ASPETTI METALINGUISTICI:
La Scuola di Palo Alto ha individuato per prima gli importanti aspetti di connessione tra aspetti
comunicativi e relazionali, individuando degli assiomi teorici.
Uno degli assiomi dice:
“Ogni comunicazione ha un aspetto di contenuto e un aspetto di relazione, di modo che il secondo
classifica il primo ed è quindi meta-comunicazione”
Nella meta-comunicazione in alcuni casi è il messaggio che dà forma al contenuto in maniera
molto centrale.

COMUNICAZIONE NON VERBALE:


La comunicazione non verbale presenta diversi aspetti:
- il sistema paralinguistico: la voce, il modo in cui intono un messaggio, tono, volume, le
pause che uso nel discorso. Questi fattori ci permettono anche di capire le gerarchie di
potere. Anche il silenzio fa parte del sistema paralinguistico (può indicare
contemporaneamente interesse e disinteresse), può essere un silenzio pieno o un silenzio
vuoto, anche il silenzio va gestito in maniera comunicativa. Si applica anche nella
comunicazione verbale, declina il linguaggio verbale ma è anche fisico.

- il sistema cinesico: movimento del corpo, parliamo di comunicazione faccia a faccia. Anche
il contatto oculare fa parte del sistema cinesico.
§ Ekman e Friesen (1978) hanno individuato una sorta di inventario delle possibili unità
cinesiche, individuando 44 unità di azione primarie (es. alzare la fronte, il sopracciglio, il
labbro, ecc) che possono dar vita a infinite combinazioni di mimica facciale.
§ Gli studiosi hanno poi tentato di trovare degli universali comunicativi, che tuttavia,
come essi stessi evidenziano, risentono fortemente di variazioni interculturali.
§ Comprende anche movimenti del volto, occhi e della postura.
§ Anche tema della dissimulazione, quando si simulano le emozioni si attiva solo
l’emisfero razionale e nota che manca simmetria nel volto perché si attiva solo un
emisfero.

- la prossemica: riguarda la distanza, il rapporto tra i corpi. Vengono individuate 4 zone


principali:
§ La zona intima a circa 50 cm di distanza da noi
§ la zona personale da 50 cm a un metro di distanza
§ la zona sociale da 1 a 3-4 metri di distanza
§ la zona pubblica oltre i 4 metri
la prossemica durante la pandemia è stata rimodellata, la gestione degli spazi è cambiata
radicalmente.

- l’aptica: riguarda i messaggi comunicati attraverso il contatto tra i corpi, per esempio la
stretta di mano, l’abbraccio, il contatto sulla spalla ecc.
5

Anche il sistema di comunicazione aptico è fortemente condizionato dalla cultura di


appartenenza e anche dal contesto socio-culturale. Il capo può dare una pacca sulla
schiena al dipendente, non il contrario.

ALTRI ASPETTI METALINGUISTICI:


Un altro degli assiomi della Scuola di Palo Alto recita:
“la natura di una comunicazione dipende dalla punteggiatura delle sequenze di comunicazione tra
i comunicanti”.
Bisogna capire cosa è causa e cosa effetto, es. una coppia in crisi: il marito dice al terapeuta che
sua moglie lo critica sempre e lui si chiude in sé stesso, questa è la punteggiatura vista da lui. Vista
da lei la situazione cambia e dice che il marito è chiuso in sé stesso e lei glielo dice e si arrabbia. La
relazione è un continuo di episodi, è un ciclo continuo di avvenimenti, in base a dove mettiamo la
punteggiatura cambia il significato della dinamica. La complicazione della comunicazione è che le
cose vengono lette e interpretate diversamente.

LEZIONE 2 DEL 25/02/2022

LE FORME DELLA SOCIALITÀ:


All’inizio avevamo solo media di MASSA: Moltitudine di persone politicamente passive, in
posizione di oggettiva dipendenza dalle istituzioni portanti di una società (politiche, economiche,
militari) e quindi fortemente influenzabili da esse.
Sono incapaci di organizzarsi e di esprimere una propria volontà.
Nel corso del ‘900, a partire dall’analisi di Tocqueville (1835) l’idea di massa prende una
connotazione attiva.
Emerge così una dialettica tra visioni positive e progressiste della massa (Marx, Gramsci) e visioni
negative (potere dei mediocri, potere delle folle irrazionali, potere delle moltitudini anonime (le
bon, Canetti, Ortega y Gasset).

Ciò che ha iniziato a prendere forma è l’idea di una progressiva e inarrestabile atomizzazione della
società. A fronte dell’indispensabile specializzazione delle funzioni, legata all’industrializzazione, si
colloca il rischio di una perdita insostituibile di una rete di relazioni sociali significative per gli
individui, rappresentati sempre più come soli e isolati.

Georg Simmel (1917) sostiene che la massa si fonda sull’esaltazione delle parti che accomunano gli
individui piuttosto che di quelle che li differenziano. Inoltre, le azioni della massa «puntano diritto
allo scopo e cercano di raggiungerlo per la via più breve: questo fa sì che a dominarle sia sempre
una sola idea, la più semplice possibile.
“Capita assai di rado che, nelle loro coscienze, i membri di una grande massa abbiano un vasto
campionario di idee in comune con gli altri” (ivi, p. 68). Ancora una volta, dunque, vengono
sottolineati i tratti dell’irrazionalità, della disorganizzazione, della difficoltà a trovare tratti
identitari comuni e dell’isolamento nel quale versano gli individui che abitano la società di massa.

Idea diversa dell’aggregazione e quella di COMUNITA’ E SOCIETA’: Tonnies, in un’opera centrale


per la sociologia moderna (1887), distingue fra comunità e società. Mentre la prima è dominata da
legami e solidarietà spontanei, da una scarsa individualizzazione, dall’appartenenza forte a un
comune credo morale e religioso. Nella società, emergente con l’epoca industriale, domina la
volontà individuale, l’azione dei singoli è influenzata da legami contrattuali, la solidarietà è di tipo
razionale.
6

Non esistono società o comunità pure, in entrambe sono presenti elementi che vengono recepiti
per dovere e contemporaneamente anche nelle comunità più alienate esistono dei valori
identitari, delle spinte etiche che in qualche modo accomunano i soggetti e li fanno sentire parte
di un sentire comune.
Nel concetto di comunità rientra anche il mondo del digitale, le comunità virtuali che permettono
a diversi individui di costruire relazioni basate su idee in comune pur essendo in luoghi
geograficamente diversi.

Altro concetto importante è quello di FOLLA: Lo studio di Le Bon psicologia delle folle (1895)
associa al concetto di massa quello di folla, intesa come moltitudine di individui radunati in un
certo luogo e tra loro interagenti sulla base di pulsioni e credenze condivise, ancorché elementari.
Nella folla emergono i peggiori lati dell’individuo, forme arcaiche di irresponsabilità e violenza, che
ciascun singolo, preso a sé, respingerebbe con sdegno. (come in Piazza San Carlo)
La folla porta all’emergere dell’istinto animale.

COMUNITÀ: Una collettività in cui i membri agiscono reciprocamente e nei confronti di altri, non
appartenenti alla collettività, anteponendo i valori, le norme, i costumi e gli interessi della
collettività, considerata come un tutt’uno, a quelli personali.

Un’idea di comunità, legata a comunanza di interessi, valori, progetti, viene ripresa, in epoca
successiva, nelle prime teorie legate a internet.
Centrali a riguardo sono i primi lavori di sherry Turkle (la vita sullo schermo, 1992) e Howard
Rheingold (comunità virtuali. Parlare, incontrarsi, vivere nel ciberspazio, 1994) sulle comunità
virtuali: Gruppi di individui che, al contrario che nei sistemi di massa, possono esprimere, tramite
la rete, la loro identità, le loro passioni, e trovare persone con cui condividerle.
La rete, quindi, permettendo a soggetti simili di incontrarsi, fuori dai vincoli di spazio e tempo della
realtà fisica, dà luogo secondo questi autori, a nuove forme comunitarie.

(SMART) MOBS: L’interpretazione contemporanea del termine folla, (mob), data da Howard
Rheingold (2003) risulta quindi positiva. Sono le “masse intelligenti”, masse dotate di smartphone
che possono coordinare gli incontri.
Per l’autore, “profeta” della cyber-società a partire dagli anni ’90, le tecnologie mobili di
connessione permettono, oggi, alle folle di organizzarsi, muoversi e agire in modo organico e
strutturale, anche pianificato, dando luogo a un’intelligenza “a sciame”, dove l’insieme possiede
più conoscenze delle singole parti.
Pensare alla primavera araba, proteste che sono state alla fine effimere, twitter ha aiutato però.

“SCIAMI PENSANTI”: Kevin Kelly (out of control, 1996), a partire dalle teorie dei sistemi emergenti
in natura, traccia un parallelo tra alcuni sistemi viventi, come le colonie di formiche, e le nuove
intelligenze collettive, definite “super-organismi”.
In questi sistemi si verifica la capacità del gruppo di svolgere compiti che nessuno individualmente
sarebbe capace di svolgere.
Gli esempi vanno dalle jazz session, alle colonie di formiche, ai sistemi di collaborative filtering di
un sito come Amazon.
Le modalità di aggregazione delle persone sono strettamente legate agli strumenti di
comunicazione che nell’epoca prevalgono, emergono e co-modellano anche le forme sociali.
7

Le idee di sciami pensanti e di smart mobs trattano lo stesso argomento da parte di due autori
diversi. Però R. fa uno studio più etnografico, racconta diversi episodi di comunicazione collettiva
dal Giappone a varie altre realtà che lui analizza.
K. fa un discorso più legato alla psicologia cognitiva, al mondo animale e all’analisi dei fenomeni
percettivi- cognitivi, si muove su un livello più astratto e legato ad una retorica ottimista dello
studio del digitale.
R. invece analizza situazioni reali e mette in evidenza dinamiche più concrete (più storico-sociale la
sua visione).

Altro termine importante per lo studio della società è il concetto di TRIBÙ: nell’interpretazione
postmoderna di Michelle Maffesolì (il tempo delle tribù. Il declino dell'individualismo nelle società
postmoderne, 2004), l’immagine della tribù contamina e sostituisce progressivamente quelle di
società e di comunità.
Le tribù, secondo l’autore, sono agglomerati allo stesso tempo locali e globali, guidati dall’affetto e
dalle emozioni, più che da valori stabili.
A differenza delle comunità, le tribù sono per definizione “nomadi”, instabili ed effimere: esse
sono il nuovo modello di socializzazione soprattutto nelle giovani generazioni metropolitane.
Modo di aggregazione che porta con sé molta irrazionalità.

Quindi le tribù sono composte da individui legati tra di loro non più da valori stabili e profondi,
radicati dal punto di vista antropologico come era nel concetto di comunità ma si collegano
sempre di più da valori passeggeri ed effimeri (come le mode).

NETWORK: il concetto di network progressivamente sostituisce e contamina nel discorso


scientifico quello di community. Il concetto non nasce con il digitale.
Il termine network society viene coniato da j. Van Dijk (1991) e utilizzato da Castells (1996) per
identificare forme di società in cui reti sociali fisiche e reti virtuali, basate sullo scambio di
informazioni, modellano i comportamenti sociali.
Barry Walkman contribuisce notevolmente a definire la natura delle nuove reti sociali abilitate da
internet: la moltiplicazione di legami deboli (weak ties) e del networked individualism
(individualismo connesso), è, per l’autore, il nodo centrale della riconfigurazione delle relazioni
sociali.
Noi abbiamo due tipi fondamentali di legami:
- LEGAMI DEBOLI: legami che non hanno una forte intensità relazionale. Legami eterofili,
sono più diversi rispetto a noi, come colleghi, compagni di uni, amici delle vacanze.
- LEGAMI FORTI: persone con le quali condividiamo un’estrema intimità, fiducia, le persone
sulle quali possiamo contare.
Le persone hanno bisogno di entrambi i tipi di legami. Le persone che vanno più avanti a livello di
carriera sono quelle che hanno tanti legami deboli perché entrano in contatto con tanti ambienti
diversi.
Legami deboli sono legami a “basso consumo”, come un like o un commento sui social.

LE TEORIE COMUNICATIVE SULLA SOCIETÀ DI MASSA: L’AGO IPODERMICO


L’emergere del concetto di massa è legato ad alcune specifiche teorie sugli effetti della
comunicazione, come la teoria dell’ago ipodermico, o bullet theory (teoria del proiettile magico).
Questa teoria fa riferimento a un modello comunicativo che si caratterizza per una relazione
diretta e univoca che lega lo stimolo alla risposta.
I media producono un effetto diretto e generalizzato sugli individui.
8

Con la teoria ipodermica, il potere dei media sembra non avere ostacoli nel conseguimento
dell’obiettivo di imporre la volontà di chi governa agli individui della massa.
L’audience è passiva di fronte al messaggio e nessun fattore di mediazione, individuale o sociale,
contribuisce differenziare gli effetti dei media sui diversi soggetti.

IL CASO DELLA GUERRA DEI MONDI:


Il 30 ottobre del 1938 andò in onda il radiodramma di Orson Welles dal titolo La guerra dei mondi,
ovvero il dramma che si trasformò «in uno dei più rilevanti eventi mediali di tutti i tempi» (Lowery,
DeFleur, 1995, p. 45). Simulazione in tempo reale di un attacco alieno, molte persone credettero al
messaggio e iniziarono a scappare dalle case in preda al panico collettivo, tutto questo scioccò il
pubblico collettivo.
A decretarne la rilevanza fu la quota di circa un milione di radioascoltatori – su un totale di sei –
che credette che gli Stati Uniti fossero stati invasi dai marziani e, quindi, mise in atto
comportamenti dettati dal panico.

EFFETTI LIMITATI DEI MEDIA LEGATI ALLE AUDIENCES:


Studi dedicati al caso (Cantril, 1940) mostrarono che alcune variabili relative ai soggetti esposti,
come il livello di istruzione e di religiosità, erano correlate al livello di credulità e senso critico
nell’interpretazione della notizia.
Le persone più ignoranti erano più facilmente impressionabili e credulone, anche le persone
religiose si erano dimostrate più inclini a credere.

EFFETTI LIMITATI DEI MEDIA LEGATI AL CONTENUTO:


Cantril individuò i fattori di contenuto che, a suo avviso, avevano reso il programma più veritiero di
altri:
§ il tono realistico, ovvero l’alternanza tra la narrazione, le interruzioni giornalistiche a finti
esperti e i sipari musicali contribuirono a dar vita a un prodotto che non si identificava
necessariamente con un prodotto della fantasia; lo stesso svolgimento dei fatti nella fase
iniziale appariva abbastanza realistico (incertezza circa gli eventi, dichiarazioni provenienti
da ambito scientifico e così via).

§ l’affidabilità della radio, ovvero la grande autorevolezza

§ l’uso di esperti vale a dire il grande ricorso a personaggi dell’ambiente accademico e


scientifico, del mondo militare e politico contribuì ad accrescere la credibilità del dramma

§ l’uso di località realmente esistenti

§ la sintonizzazione dall’inizio del programma o a programma già cominciato; i soggetti che,


attraverso lo zapping, si sintonizzarono dopo l’inizio del programma furono più propensi a
credere che stessero ascoltando un news report (63%), al contrario di chi si sintonizzò
dall’inizio (20%). All’inizio lui aveva specificato che era tutto finto, per chi si era collegato
dopo mancava un tassello importante per capire.
9

LE TEORIE COMUNICATIVE SULLA SOCIETÀ DI MASSA: IL MODELLO DI LASSWELL


La teoria dell’ago ipodermico rappresenta un’estrema semplificazione del rapporto media-
pubblico. Negli anni Cinquanta, la ricerca amministrativa americana, in particolare Lasswell,
produce un modello più articolato del flusso di comunicazione in cui individua fattori rilevanti nei
diversi attori del processo.

Il mezzo ha sempre un peso nel modo in cui viene veicolato il messaggio.


Per ricevente parliamo di analisi dell’audience.
Pur inserendo un insieme più complesso di fattori e oggetti di studio nella comunicazione, anche il
modello di Lasswell presenta diversi limiti:
- l’asimmetria della relazione: il processo comunicativo ha origine esclusivamente
dall’emittente, il ricevente entra in gioco solo come termine ultimo con il quale si conclude
il processo;
- l’indipendenza dei ruoli: l’emittente e il destinatario vengono raffigurati come due soggetti
che non entrano mai in contatto diretto né appartengono allo stesso contesto sociale e
culturale;
- l’intenzionalità della comunicazione: i messaggi veicolati dai media si prefiggono sempre un
obiettivo; esso può essere nobile o meno nobile, buono o meno buono: in ogni caso, vi è
sempre un’intenzionalità da parte dell’emittente. Spesso le intenzioni del mittente non
vengono interpretate correttamente.

GLI EFFETTI LIMITATI DEI MEDIA:


Molto usati gli studi di Hovland e il suo gruppo di ricerca a Yale “Program of Research and Attitude
Change”, attraverso oltre 50 ricerche empiriche, approfondirono le modalità di costruzione dei
messaggi persuasori (Communication and Persuasion, 1953).
H. lavorava in maniera sperimentale, prendeva un campione di soggetti da analizzare e li
sottoponeva ai messaggi, successivamente vedeva se inserendo delle variabili diverse l’effetto
cambiava. Con i suoi studi ha verificato che lo stesso messaggio veniva considerato persuasivo,
credibile maggiormente in base alla fonte della notizia (es. notizia che arriva dalla nasa o da un
giornale sovietico, credevano molto di più alla notizia della nasa ovviamente).
Una sintesi dei risultati di studio più importanti ai quali pervennero è articolata in 3 elementi.
La capacità di persuadere è legata a:
- credibilità della fonte;
- ordine e completezza delle argomentazioni (per esempio inserire o meno posizioni
opposte);
- esplicitazione delle conclusioni.

LA TEORIA DELLA COMUNICAZIONE A DUE STADI:


In uno studio del 1948, Lazarsfeld Berelson e Gaudet analizzarono l’influenza dei messaggi mediali
relativi alle elezioni presidenziali del 1940.
10

L’attribuzione da parte degli intervistati di una maggiore capacità persuasoria ad alcune persone
piuttosto che ai mezzi di comunicazione condusse i ricercatori a individuare alcuni soggetti dotati
di influenza, definiti «leader d’opinione».
Questi leader erano rintracciabili all’interno di qualsiasi strato sociale ed economico, tanto da
poterli definire «leader molecolari».
Elaborarono il famoso modello del «flusso a due fasi della comunicazione», presentato dagli stessi
studiosi nei seguenti termini: «le idee sembrano spesso passare dalla radio e dalla stampa ai
leader d’opinione e da questi ai settori meno attivi della popolazione».

I LEADER DI OPINIONE:
In uno studio successivo su 800 donne del Midwest, Lazarsfeld e Katz analizzarono a fondo i tratti
dei leader d’opinione, osservando che questi soggetti erano caratterizzati da una più alta
esposizione ai media, rispetto agli altri. Essi, inoltre, potevano essere distinti in leader orizzontali
(influenza esercitata tra soggetti simili sul piano sociale) o leader verticali (influenza esercitata da
soggetti con un più alto status sociale).
Vengono considerati in molti casi più affidabili poiché sono persone disinteressate, punto di vista
oggettivo e neutrale.
Vennero analizzate alcune leader di opinione che erano delle casalinghe, diventate leader di
opinione in determinati settori come la cucina, sono persone che si sono immerse nella
dimensione mediale.

DAI LEADER DI OPINIONE AGLI INFLUENCER:


In una successiva analisi, sviluppata attraverso modelli statistico-matematici di simulazione,
Duncan J. Watts e Peter Sheridan Dodds (2007) adottano un modello di influence networks che
differisce da quello del flusso a due stadi: se nel modello two-step flow l’influenza era un flusso
che andava unicamente dall’opinion leader ai suoi seguaci, il modello reticolare vede l’influenza
propagarsi per molte vie.
«i processi di influenza non si attuano per opera di alcuni individui altamente influenti che
influenzano tutti gli altri ma piuttosto a causa di una massa critica di individui facilmente
influenzabili che influenzano altre persone facili da influenzare. Nei nostri modelli, gli influenti
hanno una probabilità superiore alla media di innescare questa massa critica, quando esiste, ma
solo leggermente più grande»
Ciò che emerge è che l’influenza è maggiormente guidata dall’interazione tra le persone che
vengono facilmente influenzate piuttosto che dalle persone influenti stesse.
Sono i soggetti influenzabili che fanno da cassa di risonanza di un messaggio e lo rendono virale e
quindi lo rendono più potente. Una nuova varabile prende voce che è quella della viralità, in base
alle visualizzazioni.
Gli influenzabili sono coloro che condividono in maniera tranquilla ma che vengono influenzati dal
messaggio e sono spinti a condividere e diffondere il messaggio.
Gli influencer hanno un ruolo ma hanno un ruolo altrettanto importante le masse che suono gli
influencer e che contribuiscono alla condivisione del messaggio.
11

CRICITA’: non viene considerato il ruolo degli attori come essi stessi produttori di contenuti

COMPITO SU MOODLE SUGLI INFLUENCER.

LE TEORIE DELLA SELETTVITÀ:


Gli studi successivi, intorno agli anni Settanta e Ottanta, portano a ridimensionare fortemente il
ruolo dei media nella formazione delle opinioni, evidenziando soprattutto come le persone
tendano a esporsi solo a informazioni e contenuti già coerenti con la loro posizione.
Le persone tendono a selezionare i messaggi basandosi su fenomeni di:
- esposizione selettiva
- elaborazione selettiva
- memoria selettiva: quello che noi manteniamo nella nostra mente rispetto alla quantità di
messaggi che ci arrivano, teniamo conto solo dei messaggi che ci interessano.

Negli ultimi anni, tuttavia, queste posizioni si sono già ulteriormente modificate in base:
- alla moltiplicazione delle fonti e dei media, che porta a overload informativo e a una
necessaria azione di filtro selettivo da parte degli utenti
- all’esposizione casuale a contenuti e messaggi dalla propria cerchia (che tende tuttavia a
rafforzare le opinioni, eco chambers)
- alla segmentazione dei consumi mediali dovuta alla personalizzazione attuata dai soggetti
e dalle stesse interfacce algoritmiche
- alla eventuale ibridazione di contenuti e messaggi dovuti alle dinamiche trans-mediali
- alle pratiche relazionali sui social dove spesso messaggi provenienti da fonti “dissonanti”
vengono discorsivizzati in nuove forme e in tal modo raggiungono soggetti che non
intendevano essere raggiunti.

Vengono quindi studiate le dinamiche, spesso contraddittorie, dei fenomeni di echo chambers
(nicchie costruite dagli stessi soggetti, ci circondiamo di persone che la pensano come noi) e delle
filter bubbles (nicchie create dagli algoritmi, gli algoritmi calcano la mano selezionando le notizie e
ponendoci in una situazione di confort).
I social lavorano in maniera algoritmica tenendo memoria di quello che clicchiamo e cerchiamo,
costruendo il nostro profilo in base a quello che ci piace. Con queste informazioni il social filtrerà i
messaggi che appariranno sulla nostra bacheca. Gli algoritmi lavorano a favore della nostra
selettività, da una parte assecondano il nostro potere ma dall’altra può creare un’atmosfera
asfittica (spenta) dal punto di vista del dibattito e della possibilità di cambiare idea e di rivedere,
almeno parzialmente, le proprie idee.

LE TEORIE DEGLI USI E GRATIFICAZIONI:


Intorno agli anni Sessanta emerge anche un diverso approccio allo studio dei media.
Per la prima volta, ci si chiede «cosa fanno le persone con i media?» piuttosto che chiedersi «cosa
fanno i media alle persone?». Si suppone che le persone utilizzino i media per scopi personali e
hanno diverse alternative funzionali per adempiere a questi scopi. I media sono strumenti
12

finalizzati per i nostri scopi e si collocano in un contesto in cui abbiamo molte alternative, quindi,
non è detto che useremo quella mediale.
Secondo le teorie funzionaliste, definite degli “Usi e Gratificazioni”:
a) l’audience è attiva;
b) il consumo mediale è orientato a un obiettivo;
c) il consumo mediale consente un ampio ventaglio di gratificazioni;
d) le gratificazioni trovano origine nel contenuto mediale, nell’esposizione e nel contesto
sociale nel quale si colloca la stessa esposizione.

LE FUNZIONI DEI MEDIA:


Le funzioni attribuite ai media da Lasswell (1948) e dai successivi studiosi sono:
- il controllo dell’ambiente, cioè la raccolta e la distribuzione delle informazioni;
- la correlazione tra le varie parti della società e l’interpretazione delle informazioni relative
all’ambiente;
- la trasmissione del patrimonio sociale da una generazione all’altra,
- il rafforzamento delle norme sociali
- il prestigio di chi fruisce
- il divertimento
Negli anni successivi, diversi studi si occupano di sistematizzare e dare rigore metodologico alle
teorie funzionaliste.
McQuail et al. (1972), ad esempio, hanno proposto una tipologia con quattro categorie funzionali:
- evasione (fuga dalla quotidianità, relax),
- relazioni interpersonali (interazione sostitutiva, compagnia),
- identità personale (rinforzo valoriale, esplorazione della realtà)
- controllo (sorveglianza dell’ambiente).

Possono rispondere a diversi bisogni ma ci sono anche molte possibilità di adempiere a questi
bisogni.

La tipologia a cinque classi costruita da Katz et al. (1973) prevede le seguenti classi di bisogni:
- bisogni cognitivi (acquisizione di elementi conoscitivi);
- bisogni affettivo-estetici (rafforzamento dell’esperienza emotiva);
- bisogni integrativi a livello della personalità (rassicurazione, status, incremento della
credibilità);
- bisogni integrativi a livello sociale (rafforzamento dei rapporti con familiari, amici, colleghi);
- bisogni di evasione (allentamento della tensione).

“La presenza di bisogni diversi si correla a mezzi diversi e ciascun mezzo sembra offrire
una combinazione unica di a) contenuti caratteristici (perlomeno percepiti in tal modo); b)
attributi tipici (la stampa vs televisione e radio, la rappresentazione simbolica vs quella iconica); c)
tipiche situazioni di esposizione (a casa vs fuori casa, soli vs con altri, con il controllo degli aspetti
temporali dell’esposizione vs assenza di tale controllo)” (Katz, studioso funzionalista).
Ci sono bisogni che noi non sappiamo di avere come per esempio l’accendere la tv anche solo per
avere compagnia, oppure come rituale, abitudine. Dobbiamo tenere conto anche dei bisogni
irrazionali.
13

GRAFICO PER ANALIZZARE I BISOGNI DELLA NAVIGAZIONE SU INTERNET:

LEZIONE 3 DEL 03/03/2022

EMERGERE DI UN APPROCCIO CRITICO:


Con l’arrivo negli USA di alcuni studiosi tedeschi sfuggiti al nazismo, quali Adorno e Horkheimer, si
fa avanti un punto di vista diverso ed emergono nuove leve problematiche e critiche.
Adorno, Horkheimer e in generale gli studiosi della teoria critica, evidenziano i limiti della ricerca
amministrativa in quanto approccio “mediocentrico”, ricerca americana di tipo funzionalista, che si
concentra sull’analisi dello status quo e dei suoi effetti, con il fine principale di migliorare i prodotti
per un consumo sempre più vasto e redditizio. Approccio americano molto pragmatico e legato
agli obiettivi della cultura capitalista.
Questi studiosi, quindi, denunciano l’intreccio troppo fitto tra ricerca e logiche capitaliste.

Iniziato nell’Istituto per la ricerca sociale o Scuola di Francoforte, l’approccio analitico e teorico
della Teoria Critica che nacque nel 1923 in Germania ad opera di un vasto gruppo di studiosi con
interessi compositi: Herbert Marcuse, che formulerà una critica durissima nei confronti sia del
marxismo sia della società capitalistica americana che lo aveva adottato dopo la fuga dalla
Germania; Erich Fromm, che proseguirà nell’interpretazione di Sigmund Freud e nella teoria critica
della società contemporanea; Walter Benjamin, che assumerà come oggetto di studio l’opera
d’arte; Adorno e Horkheimer, infine, che studieranno la nascita e l’affermazione dell’industria
culturale. L’avvento del nazismo costringe gli studiosi a una diaspora che per alcuni di loro si
concluderà, in un primo momento, negli Stati Uniti.

PUNTI CHIAVE DELLA TEORIA CRITICA:


- Il concetto di industria culturale, invece che di cultura di massa: elaborato dalla scuola di
Francoforte, si pone l’accento sulla massificazione della produzione. Viene analizzata da
Adorno e gli altri soprattutto il settore cinematografico come catena di montaggio di Ford.
- L’appiattimento verso lo stereotipo e il mediocre
- L’effetto genere come modello produttivo, come nell’industria cinematografica che
vengono creati contenitori di genere sempre uguali (dramma, giallo…).
Schemi sempre più appiattiti e logori, poco disponibili alla sperimentazione. Abbassamento
qualitativo del prodotto.
14

- L’easy listening (ascolto facile), il consumo distratto e l’abbassamento della soglia di


capacità critica del pubblico. La standardizzazione fa si che le persone consumino sempre
gli stessi prodotti senza mai uscire dal loro confort zone. Incapacità del pubblico di
richiedere qualcosa di diverso.
La scuola di Francoforte non ha il compito di criticare l’easy listening quanto di osservare
come questo tipo di fruizione atrofizzi la capacità critica delle persone.

L’offerta mediale, punta alla riproduzione:


“di molta mediocrità, di inerzia intellettuale, e di credulità, che sembrano andar bene con i credo
totalitari, anche se l’esplicito messaggio superficiale degli spettatori può essere antitotalitario”
(Adorno 1954)

INTEGRAZIONE DI APPROCCI:
“se si studiano gli effetti della comunicazione, per quanto elaborati siano i metodi impiegati, si
sarà in grado di studiare soltanto gli effetti dei materiali, radiofonici o stampati, attualmente
diffusi. La ricerca critica sarà interessata soprattutto a quel materiale che invece non trova mai
accesso ai canali di comunicazione di massa: quali idee e quali forme espressive sono eliminate
prima di raggiungere il grande pubblico, o perché non sembrano abbastanza interessanti per
l’audience più vasta oppure perché non garantiscono una resa sufficiente rispetto al capitale
investito o perché le tradizionali forme di presentazione non sono adeguate” (Lazarsfeld, 1941)

Nel tentativo di ricomposizione dei 2 approcci, attuato da Lazarsfeld, questi due filoni di ricerca si
occupano di domande complementari:
- la ricerca amministrativa si chiede: chi sono le persone esposte ai diversi media? Quali sono
le loro preferenze specifiche? Quali sono gli effetti dei diversi metodi di presentazione?
- la ricerca critica si domanda: come sono organizzati e controllati questi media? In che
modo, nel loro assetto istituzionale, si manifesta la tendenza alla centralizzazione, alla
standardizzazione e alla pressione promozionale? In che forma, per quanto mascherati,
stanno minacciando i valori umani?

LA TEORIA CRITICA NELL’EPOCA DEL WEB:


La “dittatura del dilettante”(Keen, 2007): “MySpace e Facebook hanno generato una cultura
giovanile fatta di narcisismo digitale; i siti open-source di condivisione della conoscenza come
Wikipedia insidiano l’autorità degli insegnamenti scolastici; la generazione di YouTube sembra più
interessata all’autoespressione che alla conoscenza del mondo esterno; la cacofonia dei blog
anonimi e dei contenuti user-generated rendono la gioventù contemporanea insensibile alle voci
degli esperti veri e dei giornalisti professionisti; i ragazzini di oggi sono così impegnati a divulgare
se stessi sui vari social network che hanno ormai smesso di consumare il lavoro creativo di
musicisti, romanzieri e registi di professione”.

l’emergere degli shocklogs «contenuti sgradevoli e indesiderati [che] servono a testare le


frontiere della cultura politically correct dei media occidentali» (Lovink 2008) --> Estetica dello
sgradevole

Lo sfruttamento economico del prosumer (Terranova 2003) --> dietro alla retorica dello youtuber
ci sono altri milioni di persone che lavorano quotidianamente e gratuitamente, dando dati, lavoro
sommerso che non trova riconoscimento di tipo economico.
15

L’abbassamento della qualità culturale dovuto alla disintermediazione selvaggia; “abbiamo a che
fare con «milioni e milioni di scimmie esuberanti [...] che stanno dando vita a una foresta infinita
di mediocrità” (Keen, 2007)

L’abbassamento della soglia di capacità critica del pubblico, sommerso da overload informativo

Slacktivism, ovvero attivismo da poltrona: in molti casi i media ci permettono di sentirci vivi e attivi
stando a casa a fare nulla. Questo è un modo di agire che crea endorfine e ci accontentiamo di
quella energia senza uscire.

CULTURAL STUDIES:
Nati nel 1964 in Gran Bretagna, presso il Centre for Contemporary Cultural Studies, per opera di
Richard Hoggart e Stuart Hall, i Cultural Studies inquadrano il tema dei media come un oggetto di
studio multidisciplinare, che deve riguardare i fenomeni mediali nel loro contesto specifico,
situato, tenendo quindi conto delle micro-dinamiche sociali.

Elementi centrali di questo approccio sono l’uso di metodi etnografici e, in generale


di tipo qualitativo, per approfondire le pratiche di fruizione mediale nei loro contesti. Esempi in
questo senso sono la ricerca di Lull (1980, 1990) sulla fruizione televisiva di circa 200 famiglie per
oltre 3 anni, che individua 2 funzioni:
- uso strutturale (ambientale, regolativo)
- uso relazionale (comunicazione, appartenenza, apprendimento valori, apprendimento
sociale, dominio)
con il metodo etnografico è necessario che la ricerca duri molto tempo in modo tale che le
persone siano a proprio agio e che siano sé stesse.

MODELLO ENCONDING-DECODING:
Il modello encoding-decoding evidenzia come alla base dei processi comunicativi ci siano processi
di interpretazione (encoding) del messaggio, da parte degli emittenti, che possono essere diversi
dalla effettiva interpretazione degli utenti finali. L’azione di decoding, infatti, può essere:
“preferita”, “negoziale” o “oppositiva”.

Si parla di decodifica “preferita” quando il destinatario riceve il maggio e lo codifica in maniera


conforme a quello che era il desiderio dell’emittente.
16

La decodifica “negoziale” invece avviene quando il destinatario interpreta solo una parte conforme
a quello che era il messaggio iniziale e in altre parte giunge ad un compromesso. Giunge al
messaggio dell’emittente ma lo rifiuta e ne crea uno che va nella sua direzione.

LA SPIRALE DEL SILENZIO:


Un nuovo approccio allo studio degli effetti, che riporta in auge l’idea di effetti forti dei media, è
quello portato avanti da Noelle-Neumann nella teoria della “Spirale del Silenzio” (1980).
Essa si basa sull’osservazione delle caratteristiche della fruizione televisiva come medium di
massa, in cui prevalgono le forme di consonanza e cumulatività dei messaggi.

Gli individui si fanno un’idea dell’opinione prevalente attraverso la rappresentazione omogenea e


cumulativa della TV. I soggetti che percepiscono di non essere in accordo con tali opinioni tendono
a stare in silenzio, accrescendo l’effetto di “maggioritarietà” delle opinioni discordi.
Quando le persone si rendono conto di essere in minoranza si silenziano.
Si crea quindi un effetto a spirale.

LA SPIRALE DEL SILENZIO IN RETE:


Una ricerca del Pew Institute Research ha testato questa teoria sui social network, per vedere se il
web potesse dare spazio a chi ha delle opinioni minoritarie. Sono stati intervistati 1.800
statunitensi e, stando ai risultati, l’86% delle persone è disposto a esprimersi nella vita reale,
mentre solo il 46% esprimerebbe l’opinione su Facebook o Twitter. Sempre secondo lo studio, chi
esprime i propri pensieri sui social non è disposto a discuterne nella vita vera. Secondo i ricercatori
la spirale del silenzio potrebbe propagarsi dai contesti virtuali a quelli reali.

Da questa ricerca emerge che non è vero che online ci sentiamo più liberi di esprimerci ma
sembrerebbe che la spirale del silenzio funzioni meglio online che nella realtà.

AGENDA SETTING:
Secondo questa teoria, i media non hanno effetti nel dire alla gente cosa pensare, ma invece, il
loro effetto prioritario è nel definire su quali temi è importante avere un’opinione. Essi definiscono
l’agenda delle priorità sulle quali è necessario avere un’idea, in tal modo costruendo gerarchie
valoriali, sociali e politiche in base a criteri di notiziabilità (McCombs e Shaw 1972).

I media ci dicono quali sono i “temi” della giornata, settano la nostra agenda (adesso tema
principale guerra Ucraina). Sono i media a decidere quali sono i temi da mettere in primo piano,
decidono su cosa è importante avere delle opinioni. Eventi negativi più notiziabili di quelli positivi.

Ricostruire l’agenda setting degli ultimi 3 giorni, attraverso la raccolta dei titoli principali di un
quotidiano online. Confrontare questa agenda con quella che emerge da Google Trends, che
mostra le parole più ricercate dalle persone, sul motore di ricerca, in un certo periodo. Se
possibile, confrontarla anche con i trending topic di Twitter, nello stesso periodo
Confrontiamoci: le diverse agende sono simili? in cosa differiscono?
17

LEZIONE 4 DEL 4/03

LA TEORIA DELLA COLTIVAZIONE:


Sempre anni 70/80, ricordiamo che in questi anni il mondo della televisione spopolava.
Questa teoria si concentra sugli effetti a lungo termine dell’esposizione televisiva, osservando
come la continua e massiccia esposizione ai contenuti mediali si configuri come un forte agente
socializzante e di costruzione della realtà.
Secondo i teorici di questo approccio (Gerbner e Gross 1976) il pubblico assorbe gradualmente le
concezioni della realtà proposte dalla televisione, finendo per dalle rappresentazioni, spesso
stereotipate, che essa dà del reale più che alla loro stessa esperienza diretta.
Studia per di più le fiction e osservarono che i forti consumatori tendevano ad avere una visione
della vita molto sbilanciata su alcuni stereotipi che erano tipi di questi generi televisivi (come i neri
delinquenti di fasce sociali non elevate).

LA SCUOLA DI TORONTO (M. MCLUHAN, H. INNIS, W.ONG)


McLuhan è stato una personalità brillante, ma anche controversa e ingombrante nel panorama dei
media studies.
Lo stile di McLuhan era decisamente insolito per l’ambiente accademico di allora e anche di oggi.
I suoi testi sono scritti in forma di mosaico, quasi degli ipertesti che possono essere letti da diverse
parti. Molti suoi saggi sono rimasti famosi per alcune frasi famose, come “il medium è il
messaggio” e più tardi “il medium è il massaggio” che appaiono di grande forza evocativa anche se
spesso sono stati accusati di scarso rigore teorico.

Nel 1962, all’interno del testo “La Galassia Gutenberg”, Mc Luhan indicò quattro distinte epoche in
cui si poteva suddividere la storia umana:
- l’età acustica;
- l’età letteraria;
- l’età della stampa;
- l’età elettronica.

L’ETÀ ACUSTICA: Periodo definito anche come età dell’oralità, in quanto il medium per eccellenza
è la parola orale, questo periodo vede un mondo chiuso, dove i sensi sono simultanei e in
equilibrio tra loro, gli uomini vivono in uno spazio essenzialmente acustico, quindi circoscritto sul
piano spaziale dalla possibilità di estensione del suono.
Tali caratteristiche favoriscono un’organizzazione sociale di tipo tribale, caratterizzata dalla
partecipazione intensa alla vita comunitaria.

L’ETÀ DELLA SCRITTURA (letteraria): In questo periodo, a seguito dell’avvento della scrittura
fonetica, viene rotto l’equilibrio sensoriale delle società tribali.
Con la scrittura, infatti, si afferma il predominio della vista e uno spostamento da una percezione
acustica a una visiva.
La scrittura porta a una separazione del corpo dal processo mediatico, noi non possiamo
facilmente isolarci dal suono, mente con la scrittura se chiudiamo gli occhi non possiamo leggere,
siamo isolati. Poi la scrittura porta alla possibilità di una fruizione individuale.
L’alfabeto scioglie il legame fra simbolo e suono e determina un modo di pensare astratto, lineare,
analitico che non richiama più il livello di coinvolgimento riscontrabile in una comunità orale.
18

L’ETÀ DELLA STAMPA: Con l’invenzione della stampa a caratteri mobili, nel 1455, ad opera di
Gutenberg, il percorso verso l’astrazione simbolica, la distinzione tra corpo e pensiero, la
meccanizzazione logica, avviato con la scrittura, diviene sempre più permeante e capillare.
Le caratteristiche di riproducibilità tecnica portate in atto dalla stampa, infatti, creano le premesse
per la creazione di una cultura di massa, ovvero distribuibile in maniera top down nel tempo e
nello spazio.

L’ETÀ ELETTRICA: Secondo lo studioso canadese, le nuove tecnologie, a partire dal telegrafo fino
ad arrivare alla televisione, avrebbero spostato nuovamente l’equilibrio sensoriale verso il senso
dell’udito, determinando una percezione del mondo ancora una volta simultanea ed acustica, ecco
perché si parla di ri-tribalizzazione (idea di villaggio globale).
Ci troveremmo, secondo McLuhan, in una nuova forma di società di tipo comunitario ma dalle
dimensioni allargate, tanto da poter parlare di villaggio globale. Le persone si connettevano nello
stesso tempo ma in spazi diversi, casa=spazio individuale.
L’età elettrica inoltre estende nuovamente la percezione sensoriale degli uomini, riportando verso
esperienze mentali e culturali multisensoriali e in questo modo arricchendo la dimensione
esperienziale.

IL MEDIUM COME AMBIENTE (SEMPRE IDEA DI MCLUHAN)


Per l’autore, i media sono ambienti dinamici che plasmano i contenuti e le relazioni che con i
contenuti si vengono a creare.
I media inoltre sono «forme che danno forma», non semplici contenitori di esperienza, ma
formatori di esperienza.
Si prospetta quindi una prima visione di ecologia dei media che li approccia in maniera sistemica.

IL MEDIUM COME ESTENSIONE DEI SENSI


I media, dunque, secondo McLuhan, sarebbero delle estensioni dei sensi dell’uomo e ciascun
mezzo nel momento in cui estende un senso, comporta un vero e proprio assopimento degli altri,
alterando così l’equilibrio sensoriale.
Secondo Mc Luhan la ruota è estensione dei piedi, i vestiti estensione della pelle, il libro
estensione degli occhi, l’elettricità è estensione del nostro sistema nervoso centrale (Mc Luhan e
Fiore, The medium is the massage, Ny: Bantam 1967)

MEZZI DI COMUNICAZIONE FREDDI E CALDI:

I media freddi sono quelli che richiedono molta partecipazione, molta interattività.
I media caldi invece dal punto di vista percettivo ci portano quasi in una condizione ipnotica nella
quale noi non siamo chiamati ad interagire, siamo passivi.
19

Idea centrale dell’autore è che lo stesso messaggio arriva in maniera diversa in base al medium
attraverso il quale viene diffuso.

IL MEDIUM È IL MESSAGGIO:
Il pensiero di Mc Luhan sull’importanza dei mezzi di comunicazione nel dare forma ai processi
simbolici e materiali delle diverse civiltà, era stato influenzato dai precedenti lavori di Harold Innis.
I due studiosi sono accomunati dall’idea che il medium sia il messaggio: ciò che entrambi
ritenevano importante studiare, non era tanto il contenuto della comunicazione, quanto il mezzo,
la tecnologia, che veicola i messaggi, ritenuta in grado di plasmare il modo di percepire e pensare il
mondo.

HAROLD INNIS:
Mc Luhan era stato allievo di Harold Innis, a Toronto. Innis aveva concentrato le sue analisi su
alcune caratteristiche dei media, quali la temporalità e la spazialità, che innervano
profondamente i modelli di comunicazione e quindi i processi culturali di un’epoca.

Harold Innis (1894-1952), economista canadese, insegnò economia politica all’Università di


Toronto, improntando i suoi studi sul ruolo sociale, economico e politico dei media. Il suo
interesse per i media ha contributo alla nascita della scuola di Toronto e di un nuovo modo di
studiare i media. Tra le sue principali opere:
• Impero e Comunicazione (ed. orig. 1950)
• Le Tendenze della Comunicazione (ed. orig. The Bias of Communication, 1951)

MEDIA TEMPORALI E SPAZIALI:


Secondo Innis, i modi in cui i sistemi di comunicazione influenzano i rapporti spazio-temporali sono
fondamento delle istituzioni.
Secondo l’autore, esistono due tipologie di media: "media legati allo spazio" e "media legati al
tempo”, che esercitano e modellano diverse forme di comunicazione e controllo sociale.
I media basati sullo spazio, come la stampa e i media elettronici, in quanto di facile trasporto, sono
connessi con l’espansione e il controllo del territorio, favorendo il commercio nonché il dominio
(empire).
I media basati sul tempo, come il linguaggio e i manoscritti, più difficili da trasportare, alimentano
la cultura della memoria, il senso storico, le piccole comunità e le forme tradizionali di autorità.
Comportano a una difficile trasportabilità e riproducibilità, si predilige alla diffusione orale di anno
in anno.

WALTER ONG:
Un altro autore e studioso che fu profondamente legato agli studi e alle analisi di McLuhan, per poi
portarli avanti sul piano dell’analisi antropologica e letteraria, fu Walter Ong.
Debitore culturale delle teorie di Mc Luhan, Ong porta avanti, in particolare nel testo «Oralità e
Scrittura», un lavoro a cavallo tra teoria letteraria, antropologia e studio dei media, in cui riflette in
profondità sul ruolo che le tecnologie della parola hanno -dall’oralità, alla scrittura, alla stampa,
fino ad arrivare alle nuove forme di scrittura elettronica- nell’influenzare e co-modellare le
caratteristiche antropologiche e culturali delle diverse civiltà.

Walter Ong (1912-2003) nasce a Kansas City. Lavora dapprima nella stampa e nell’editoria poi nel
1935 entra nell’ordine gesuita e nel 1946 è ordinato prete. Religioso cattolico.
20

Nel 1954 studia ad Harvard e inizia a insegnare all’Università di Saint Louis, Missouri, dove rimarrà
per 30 anni. Tra le sue opere principali:
• Interfacce della parola (ed. orig 1977)
• Oralità e scrittura (ed. orig. 1986)

“Ogni tipo di linguaggio e di pensiero è fino ad un certo punto analitico, perché spezza il denso
continuum dell’esperienza, ossia la grande rumorosa perfetta confusione come la chiamava
William James, in sezioni, in segmenti significativi” (Ong, oralità e scrittura, p. 146 Il Mulino,
Bologna, 1986). Chi usava la cultura orale poi doveva usare la memoria ed è necessario costruire il
messaggio attraverso un processo cumulativo di frasi e non con un processo gerarchico pieno di
subordinate. Ong è lontano dall’idea che questo tipo di culture siano inferiori rispetto a culture
basate sulla scrittura o sulla stampa. Idea della paratassi, l’uso degli epiteti formulari.

ORALITÀ PRIMARIA
Ong parte dall’analisi che già Platone, nel Fedro, realizzava sul tema del rapporto fra oralità e
scrittura.
Platone, infatti, nel Fedro si oppone a una visione ottimistica sulla scrittura (e con essa i numeri, la
geometria e l’astronomia).
Egli fa dire a Socrate che «l’alfabeto ingegnerà oblio nelle anime di chi lo imparerà: essi cesseranno
di esercitarsi la memoria perché fidandosi dello scritto richiameranno le cose alla mente non più
dall’interno di sé stessi, ma dal di fuori, attraverso segni estranei» La diffusione della scrittura crea,
secondo Ong, un mondo artificiale, separato da quello naturale, in cui l’apprendimento era dialogo
diretto tra le persone, disteso nello spazio temporale della vita umana.
Senza la scrittura oggi noi non avremmo né la filosofia né la letteratura.

LE CULTURE A ORALITÀ PRIMARIA: L’IMPORTANZA DELL’ESPERIENZA E DELL’IMITAZIONE


Nei popoli senza scrittura «il suono esiste solo nel momento in cui sta morendo». Il suono, e la
parola con esso, è etereo, strettamente legato al parlante e alla durata del suo atto fonatorio.
Come può allora la conoscenza svilupparsi in una cultura in grado di comunicare soltanto
attraverso le parole/suoni?
E come può questa conoscenza, una volta acquisita, essere mantenuta in assenza di testimoni che
permangano nel tempo quali libri, vocabolari, enciclopedie, manuali?
La risposta è semplice: la parola è suono ma è anche potere manifesto (e magico) sulle cose,
azione immediata. Parlare vuol dire agire, e agire -conoscere- significa sempre operare all’interno
di una precisa situazione, di un determinato contesto d’esperienza.
Si conosce tramite l’esperienza quindi, attraverso l’imitazione (e la costante ripetizione) di ciò che
si ascolta o si vede compiere dai membri della comunità.

L’ORALITÀ E IL PENSIERO FORMULAICON (SLIDE DELLA QUALE NON HA PARLATO)


Pensare, esprimersi, per i membri di una cultura a oralità primaria equivale a produrre oralmente
catene di formule preesistenti, e organizzare tali catene in sequenze di temi noti.
Le formule, i temi ─ appresi a memoria e tramandati di padre in figlio
─ sono moduli mnemonici di facile accesso e conchiudono quei
frammenti di esperienza/saggezza (i miti, i rituali, le regole di procacciamento del cibo e di
protezione della specie) che si mostrano essenziali al perpetuamento culturale e fisico della
comunità.
21

Un esempio di questo pensiero formulaico è quello presente nei poemi omerici: gli epiteti
formulari (es. “l’Aurora dalle dita rosate” “Divo Achille”) sono elementi modulari che aiutavano
l’aedo nella ripetizione, che era anche ricostruzione e rielaborazione orale, performance, dei
poemi davanti al pubblico.

LA SCRITTURA
Secondo Ong con la scrittura l’uomo impara a pensare in modo radicalmente diverso.
Essa, secondo l’autore, favorisce diversi processi interiori di ristrutturazione del pensiero:
- Passaggio da un pensiero ciclico a un pensiero lineare
- Oggettivizzazione del pensiero e idea di controllo
- Fine dell’interazione “in tempo reale” fra emittente e destinatario
- Testo chiuso (non esistono modi diretti di confutare un libro)
- Separazione tra corpo (voce) e mente: possibilità di distanziamento

«La scrittura ha trasformato la mente umana più di qualsiasi altra invenzione. Ha creato un
linguaggio ‘ decontestualizzato’ e ‘autonomo’»

L’ETÀ DELLA STAMPA


Con l’invenzione della stampa a caratteri mobili, si compie definitivamente quello squilibrio
sensoriale iniziato nella fase precedente. Se nell’età orale la percezione era globale e simultanea,
nella fase della stampa essa diventa a tutti gli effetti lineare e sequenziale, l’uomo diventa quello
che McLuhan definisce uomo tipografico, il cui processo di formazione risulta essere
individualistico e razionale. I caratteri dell’età tipografica, ovvero la continuità, la linearità e
l’uniformità, condizionano l’intero mondo mentale e sociale dell’individuo.

LA STAMPA: LA PAROLA-MATERIA: Se la scrittura alfabetica a mano (chirografia) fissa le parole


nello spazio visivo, la stampa (tipografia) accentua ulteriormente questo processo.
Questo accade perché i caratteri alfabetici mobili preesistono alle parole che essi andranno a
formare e suggeriscono, in modo ben più vistoso di quanto poteva accadere in una cultura
chirografica, l’idea che le parole siano cose, unità visive la cui esistenza e posizione sono
accuratamente calcolate e interne allo spazio della pagina.

LA STAMPA E L’ORGANIZZAZIONE SPAZIALE DEL PENSIERO: Nascono quindi nuove organizzazioni


del pensiero, di tipo spaziale, scarsamente usate nel mondo orale e anche chirografico:
- le liste (cataloghi, elenchi) che vengono impiegate per le classificazioni di individui/attività;
gli indici alfabetici, che favoriscono la correlazione (mentale) tra informazioni e ‘luoghi’
(spazi) dei testi a stampa;
- le etichette/insegne non iconiche che servono a identificare titoli di libri, frontespizi, classi
di oggetti;
- i dizionari e le enciclopedie, che integrando i concetti di lista e indice, costruiscono nello
spazio del testo liste ordinate di definizioni/informazioni.

LA STAMPA E L’IDEA DI AUTORIALITÀ: La cultura della stampa privilegia il concetto di opera come
entità chiusa. Pertanto, essa riferisce l’opera alle nozioni di originalità e creatività.
Essa inoltre porta a enfatizzare l’isolamento dell’opera individuale dalle altre, vedendone l’origine
e il significato come indipendenti, almeno idealmente, dalle influenze esterne (Ong, oralità e
scrittura, p. 188 Il Mulino, Bologna, 1986).
22

LA STAMPA E LE NUOVE FORME NARRATIVE


Secondo Ong, si deve pure alla cultura della parola stampata come spazio visivo una forma di
narrativa-specchio del mondo -il romanzo moderno così come noi lo conosciamo - in cui il plot,
l’intreccio si libera dai vincoli imposti dalla necessità di ripetere per conservare il sapere, tipico
delle narrazioni orali, e si incanala lungo le nuove direzioni del pensiero analitico.
Si sviluppa la possibilità di ragionare per pensieri sintattici invece che paratattici, nascono i
romanzi con le trame intricate sul piano temporale e dei punti di vista, nasce il romanzo
introspettivo.

LA STAMPA E IL PENSIERO ASTRATTO SIMBOLICO


Emerge il ragionamento analitico esplicativo: il poter vedere il pensiero incarnato in un supporto
esterno al pensatore, il poter ritornare più volte su di esso, il poter prendere coscienza degli errori
in esso contenuti così da correggerli.
Come sarebbe possibile questo ri-pensare al pensiero affidandosi semplicemente a sequenze di
formule fisse fugacemente espresse nello spazio dei suoni?
La scrittura favorisce il processo di oggettivazione del pensiero fuori da Sé e in tal modo,
permettendo ai soggetti di riguardarsi in un supporto favorisce la strutturazione del pensiero
introspettivo.

L’ERA ELETTRONICA E L’ORALITÀ SECONDARIA


Con il mondo della rete e del digitale questa linearità, autorialità e chiusura vengono di nuovo
messe in discussione.
I testi diventano aperti, plurali, connessi. Si parla di ipertesti. Un testo collegato con altri testi
(come il web, che allora non esisteva ancora), oralità secondaria.

ORALITÀ SECONDARIA: I mezzi di comunicazione di massa, figli della tecnologia elettronica, hanno
condotto la cultura tipografica verso una nuova forma di oralità, quella che Ong definisce
«secondaria». Tale oralità, simile per molti versi a quella primaria nel ri-creare un pensiero quasi-
formulaico e un senso comunitario di appartenenza al gruppo, è però più deliberata e
consapevole, essendo permanentemente basata sull’uso della scrittura e della stampa.
Essa si basa su una nuova forma di spazializzazione della parola

L’EVOLUZIONE DELL’ORALITÀ SECONDARIA NELL’ERA DIGITALE:


MULTIMEDIALITÀ: Le forme di comunicazione online scalzeranno il primato finora detenuto da
una comunicazione (spesso a senso unico) prevalentemente orientata sull’asse acustico-visivo e
favoriranno una comunicazione-interazione tesa a un coinvolgimento dell’intero apparato
sensoriale umano.
INTERATTIVITÀ: Tali strumenti permetteranno di rivitalizzare quel feed-back immediato fra
produttore e ricevente che la parola scritta aveva relegato in second’ordine, separando nel tempo
e nello spazio l’atto della produzione da quello della ricezione.

LE CARATTERISTICHE DEI MEDIA DIGITALI:


- MULTIMEDIALITÀ
- IMMERSIVITÀ
- PARTECIPAZIONE
- INTERATTIVITÀ
- INTERCREATIVITA’
23

MULTIMEDIALITÀ:
Esperienza multisensoriale, integrazione di diverse modalità comunicative in un unico prodotto.
Il multimedia esiste prima e oltre l’utilizzo del digitale e dell’utilizzo del computer.

Wagner, il concetto di Opera d’Arte Totale (1813-1883)


La visione di Wagner comprendeva l’unificazione di tutte le arti (musica, danza, poesia, pittura,
architettura) in una totalità, la Gesamtkunstwerk.
Particolarità nel teatro luci spente, era una novità, lo fece perché secondo lui tutta l’attenzione
doveva essere sullo spettacolo, gli spettatori dovevano essere assorbili dallo spettacolo. Nascose
l’orchestra sotto il palco, per far si che lo spettatore si riesca a immergersi (concetto di immersività
e trasparenza) meglio nel mondo finzionale dello spettacolo.
esempi:
§ l’anello dei Nibelunghi
§ il teatro Festspielhaus

Il Bauhaus (1888-1943)
La visione del teatro di W. Gropius e del Bauhaus era di rompere con risolutezza gli schemi in voga
della separazione spaziale tra palcoscenico e uditorium, per creare un ambiente e un medium
interattivo che “avrebbe reso lo spettatore partecipe del dramma in scena”.
Altro principio base della scuola era la fusione di forma e funzione, di arte e tecnologia, di design
ed estetica.
esempi: Oskar Schlemmer Il balletto della triade.

Morton Heilig Sensorama, 1962


Ispirato da curiosità come il Cinerama e i film 3D, Heilig pensò che un’estensione logica del cinema
avrebbe dovuto essere immergere l’audience in un mondo sintetico che coinvolgesse tutti i sensi.
Egli pensò che espandere il cinema significava coinvolgere non solo vista e udito, ma anche tatto,
olfatto, gusto. Le tradizionali 4 mura del film e del teatro si sarebbero dissolte, trasportando il
pubblico in un mondo virtuale. Egli chiamò quest’esperimento "experience theater," e costruì il
Sensorama, attraverso il quale si poteva attraversare virtualmente le strade di Brooklin ed esperire
diverse avventure.

GRAPHICAL USER INTERFACE: MULTIMEDIALITÀ E MIMESI


Idea di immersività fondamentale nelle interfacce digitali.
Negli anni ‘70 Alan Kay, lavorando per Xerox Palo Alto Research ed ereditando le intuizioni di D.
Engelbart, introduce il concetto di GUI (Graphical User Interface) e con questo rivoluziona il
paradigma di interazione uomo-macchina. Il principio delle interfacce grafiche si basa sul concetto
di “simulazione” per consentire agli utenti di agire sugli oggetti del computer e sui programmi
senza utilizzare la complessa sintassi dei linguaggi di programmazione.
L’utente è in grado di interagire con il computer semplicemente muovendosi all’interno di
ambienti simulati (la scrivania, il foglio di scrittura, una console di comandi simile a quelle
aerospaziali). Metafora del desktop
Il mouse nuovo elemento di interazione con processo analogico, il suo uso porta ad un’idea di
interazione che prende in considerazione il corpo.
24

GRAPHICAL USER INTERFACE


Le interfacce GUI prevedono:
- la manipolazione diretta (agire su menu e icone, invece che impartire comandi scritti)
- la visualizzazione “What You See Is What You Get” (WYSIWIG)
- l’uso della metafora della scrivania, cioè un modello concettuale familiare all'utente.
- la possibilità di diverse opzioni per la visualizzazione degli oggetti e quindi la
personalizzazione
- l’introduzione di comandi universali fissi come copia, sposta, cancella
- un alto grado di consistency, coerenza linguistica tra le applicazioni.
L’interfaccia deve essere talmente semplice che l’utilizzatore non deve trovare difficoltà ad
utilizzarla.

BEN SHNEIDERMAN (1986)


enuncia tre principi base della Direct Manipulation:
1- rappresentazione continua degli oggetti e delle azioni di interesse con metafore visive
significative.
2- uso di azioni fisiche invece di sintassi complessa
3- reversibilità delle operazioni e visibilità immediata dell’effetto delle azioni sull’oggetto.
Questo elemento è fondamentale.

I PRINCIPI DI SHNEIDERMAN
- Consistency. Sequenze coerenti di azioni dovrebbero essere richieste in situazioni simili.
- Consente agli utenti assidui di utilizzare le scorciatoie.
- Offri un feedback informativo su ciascuno stato del sistema
- Le sequenze di azioni dovrebbero essere organizzate in gruppi con un inizio, una parte
centrale e una fine.
- Offri una gestione degli errori semplice. Progetta il sistema in modo che l'utente non possa
commettere un errore grave...
- Consenti una facile inversione delle azioni. Questa funzione allevia l’ansia.
- Supporta il locus of control interno. Gli operatori esperti desiderano fortemente la
sensazione di essere responsabili del sistema
- Progetta il sistema per rendere gli utenti gli iniziatori delle azioni piuttosto che i
rispondenti.
- Riduci il carico di lavoro della memoria a breve termine

GRAPHICAL USER INTERFACE


Shneiderman enuncia anche una serie di benefici e vantaggi della DM:
- i novizi possono imparare le operazioni di base in fretta con una dimostrazione o da soli;
- gli esperti possono rapidamente procedere su diverse opzioni;
- chi usa il sistema non quotidianamente può comunque ricordare facilmente le funzioni;
- i messaggi di errore sono raramente necessari;
- l’utente vede subito se le sue azioni realizzano l’obiettivo e può velocemente cambiare
azione;
- l’esperienza ha un carico inferiore di ansia perché il sistema è comprensibile e le azioni
possono essere invertite facilmente (Undo, annulla);
- l’utente acquista fiducia e capacità.
25

La rivoluzione wysiwyg:
La Direct Manipulation è un’alternativa ad altri sistemi di interazione come i menu, il form filling, il
command language, il natural language.

INTERFACCE ALTERNATIVE ALLE GUI


Anche il form filling, il command language, il natural language. tuttavia, hanno i loro aspetti
positivi e in certi contesti sono più usabili.
Nei casi, ad esempio, in cui non si ha dimestichezza con il sistema, la possibilità di avere il menu
con tutte le opzioni favorisce il processo di decisione e di apprendimento.
- Se devo introdurre dei dati nel sistema, la formula del form filling con chiavi, regole,
opzioni, ecc è più utile.
- Il command language è più complesso da imparare, ma produce un forte senso di controllo
e iniziativa dell’utente nei confronti del sistema.
- Il natural language permette di interagire tenendo libere mani e occhi.
Tutti questi modelli di interazione sono stati integrati nelle interfacce attuali, sia web che mobile.

INTERFACCE BASATE SUL LINGUAGGIO NATURALE E INTERFACCE VOCALI


Le interfacce vocali si basano sul
Natural Processing Language (NPL), a diversi livelli di complessità:
- sistemi di Question Answering
- chatbot generativi
- sistemi conversazionali task-oriented

I sistemi che permettono l’analisi dei messaggi in linguaggio naturale e l’elaborazione di risposte
mirate sono definiti chatbot (applicazioni conversazionali la cui user interface è lo scambio di testi,
tipicamente in applicazioni di messaggistica istantanea su smartphone) o voicebot (applicazioni
conversazionali la cui interfaccia si attua attraverso la voce)

Esempi conosciuti al pubblico consumer di interfacce vocali sono:


- SIRI (sistema di help vocale di IOS)
- Cortana (sistema di help vocale di Android)
- Amazon Echo e Alexa, e il nuovo robot mobile Astro
- Google Home
Con Astro mostrato il lato positivo della sorveglianza.

IMMERSIVITÀ:
Ivan Sutherland scrisse, nel 1965, The Ultimate Display, nel quale faceva le sue prime scoperte in
relazione al rapporto tra computer e design, esplorandone le potenzialità per la costruzione,
navigazione e abitazione di mondi virtuali.
Sutherland preannunciò importanti scoperte che resero successivamente realistica la costruzione
di mondi sintetici virtuali.
Molti anni prima dell’invenzione del personal computer, nel 1970 realizzò un fondamentale passo
avanti verso la realtà virtuale, implementando lo head- mounted display - un elmetto dotato di
visori oculari in grado di proiettare l’utente in un mondo immersivo in 3D.
26

REALTÀ VIRTUALE:
In base alla classificazione di Bettetini- Colombo (1993) possiamo distinguere due tipi di realtà
virtuale. Entrambe basate su concetti di mimesi, esse si distinguono per il livello di trasparenza
dell’interfaccia:
- REALTÀ VIRTUALE EMERSIVA: QTVR, VRML, GOOGLE STREET VIEW, VIDEOGAME. È una
realtà virtuale che può essere 3D ma rimane in uno spazio limitato (google street view)
- REALTÀ VIRTUALE IMMERSIVA: CAVE, DISPOSITIVI DATAGLOVE, HEAD MOUNTED DISPLAY
ECC. come con gli oculus.

REALTÀ VIRTUALE IMMERSIVA.VIEW


Uno dei primi sistemi complessi di realtà virtuale immersiva, dopo l’esperimento di Heilig, è
stato il sistema VIEW (Virtual Environment Workstation). Ideato da Scott Fisher nei tardi anni 90
presso i laboratori della NASA, esso riprendeva l’head mountain display, aggiungendo la visione
stereoscopica, un microfono per audio 3D, sistemi di riconoscimento vocale e dataglove, guanti
per l’interazione manuale con la realtà virtuale.

REALTÀ VIRTUALE EMERSIVA


Rappresentazione del sistema CAVE, ideato da Daniel Sandin e Thomas Defanti nel 1992. A
differenza dei sistemi immersivi esso mira a creare un’interazione tra mondo fisico e virtuale,
conservando la consapevolezza del “palcoscenico digitale”

REALTÀ VIRTUALE: GOOGLE STREET VIEW E GOOGLE STREET ART


Google, dopo aver lanciato Street view, sistema di navigazione geografica a 360, ha avviato altri
territori, come l’arte e la performance fruibili con immagini e video navigabili a 360 gradi.
Si possono “visitare” grandi musei da casa.

I NUOVI ORIZZONTI: IL METAVERSO


Google, dopo aver lanciato Street view, sistema di navigazione geografica a 360, ha avviato altri
territori, come l’arte e la performance fruibili con immagini e video navigabili a 360 gradi.

Verso l’utopia dell’Internet Totale.


Il termine “metaverso” trae origine da “Snow Crash”, un libro di fantascienza pubblicato nel 1992
da Neal Stephenson, il quale proponeva un viaggio esplorativo tra diverse innovazioni
tecnologiche. Il concetto di “metaverse“, faceva riferimento a un’esperienza virtuale altamente
immersiva.

I MUD
I MUD (Multi-User Dungeon, Multi-User Dimension y Multi-User Domain), nati negli anni Ottanta
erano giochi multigiocatore, generalmente di tipo testuale, che combinavano elementi di
videogioco, fiction interattiva e chat.
Come Second Life, nel quale si poteva fare veramente di tutto.

CARATTERISTICHE DEL METAVERSO


Anche se per alcuni il metaverso non è altro che un tentativo di rebranding delle tecnologie di
realtà virtuale, come Second Life, esistenti dagli anni Novanta, società tecnologiche e esperti
tentano di sottolineare le differenze e gli upgrade:
27

- non spazi virtuali separati, ma interoperabili, in modo da garantire continuità di esperienze


(es. comprare, visitare, ballare, giocare, ecc)
- dalla condivisione bidimensionale alla partecipazione live
- embodiment come paradigma di immersività e interattività

Cambiamento dei modelli di interazione, da quelli incentrati sulla lettura e scrittura a quelli basati
sul gesto. Verso una de-alfabetizzazione delle interfacce?
Corpi reali o corpi immaginati? Il complesso rapporto tra rappresentazione simbolica e identità.
Una nuova materialità e un nuovo materialismo. Quale sarà l’economia dei corpi e degli oggetti
virtuali?

Dalla produzione di contenuti, alla produzione di esperienze


L’interazione con il prodotto, prima che il prodotto, al centro
L’importanza del sensorial design.

UNA NUOVA ECONOMIA CULTURALE:


Il range di possibilità di produzione user generated si amplifica enormemente, inserendo, per
esempio, la possibilità di condividere non solo contenuti, ma ambientazioni, situazioni, relazioni,
esperienze.
Un ampliamento che apre enormi scenari di business: criptovalute, NFT e block chain sono le
tecnologie di finanza digitale che permetteranno a questo mondo di acquisire un solido modello di
business.

Video di Zuckerberg il virtuale che entra nel reale e viceversa. Importante la narrazione con la
quale viene sponsorizzato il tutto.

Sperimentazioni sul metaverso anche nella moda come il giardino di Gucci (ispirato a Roblox). Idea
di spazi nuovi da esplorare e nei quali possiamo provare vestiti e accessori nuovi.
Creazione di nuovi bisogni per la nostra immagine virtuale.

Es: BMW
Nvidia ha concluso una partnership con la casa automobilistica BMW per la creazione di un
«gemello digitale virtuale di una fabbrica situata in Germania»: questa creazione permette di
«pianificare virtualmente nuovi flussi di lavoro prima di applicare i cambiamenti in tempo reale
alla fabbrica fisica» di BMW.

Es: concerto di Trevis Scott su Fortnite, ripreso il concetto del qui e ora, l’importanza della diretta.

LEZIONE 5 DEL 11/03/2022

REALTÀ AUMENTATA:
Più recentemente rispetto alle applicazioni di realtà virtuale, sono nati i sistemi di realtà
aumentata, che prevedono la sovrapposizione di informazioni, testuali e/o iconiche alla realtà
fisica, tramite l’uso di appositi occhiali (es. Google glasses) o con l’utilizzo dello smartphone o di un
tablet.
Attualmente una delle applicazioni più riuscite di realtà aumentata è stata legata a un gioco:
Pokemon Go. Ispirandosi a questa case history di successo sono nati diversi urban game, ARG
(Alternate Reality Game).
28

WEARABLE COMPUTER
L’indossabilità dell’interfaccia, iniziata con gli head mounted display, prosegue oggi con i wearable
computer e con gli ubiquitous computer, che rendono l’interazione totalmente trasparente e
immersiva.

+ interfacce neurali.

ESOSCHELETRI:
L'esoscheletro è un apparecchio cibernetico esterno in grado di potenziare le capacità fisiche
(forza, agilità, velocità, potenza, ecc.) dell'utilizzatore che ne viene rivestito e che costituisce una
sorta di "muscolatura artificiale”. Il futuro vede l’interfaccia neurale del cervello sempre più
connessa al corpo e alle sue estensioni cibernetiche.

L’ UBIQUITOUS COMPUTING
L’ubiquitous computing è un paradigma di Human-Computer Interaction che prevede
che i sistemi di calcolo siano integrati in modo invisibile ovunque nel mondo intorno all’uomo e
accessibili tramite interfacce intelligenti, per cui possono essere utilizzati in modo naturale, quasi
inconsapevolmente. Il termine fu coniato intorno al 1988 da Mark Weiser.
OGGI QUESTO PARADIGMA è DEFINITO PIU’ SPESSO INTERNET OF THINGS (IOT).

INTERNET OF THINGS
I sistemi IOT, in particolare attraverso tecnologie come NFC (Near Field Communication),
Bluetooth, Wi-fi, e l’emergente 5G, permettono ai sistemi artificiali di:
- recepire informazioni geolocalizzate;
- ascoltare;
- parlare;
- vedere;
- tracciare cose.
La comunicazione umano-umano è così oggi integrata da comunicazione:
- umano-macchina;
- macchina-umano;
- macchina-macchina.

NUI
Le natural user interfaces (NUI) o anche dette TUI (Tangible User Interfaces) sono sistemi
generalmente multi-touch e multi-user, che permettono un’interazione naturale, diretta, fisica con
lo spazio dell’informazione, a differenza delle comuni GUI che prevedono una relazione indiretta,
tramite dispositivi come tastiera e mouse ed una risposta prevalentemente grafica. Le NUI sono
dunque contraddistinte dalla manipolazione diretta da un alto livello di immersività, da
un’associazione emotiva che ricorda il gioco, dall’adattabilità ai compiti collaborativi e sociali.

Uno dei pionieri nell’ambito delle NUI è Hiroshi Ishii, Professore al MIT Media Laboratory a capo
del Media Group.
29

INTERATTIVITÀ
JOHN CAGE (1912-1992) HAPPENING TEATRALE
Teatro dove arte e vita si interscambiano. Spazio per l’interazione casuale. Fruizione come fatto
puramente percettivo e non narrativo.
Esempio: Variation V

ALLAN KAPROW (1950):


Allan Kaprow coniò il termine “Happening” nel 1950, iniziando un genere di grande popolarità
negli anni ‘60. Gli Happenings sono difficili da descrivere, in quanto ogni volta definiti dall’azione
con il pubblico. Happenings, come Household, del 1964, erano tenuti in spazi fisici e connettevano
persone, oggetti, eventi giustapponendoli in modo sorprendente l’uno con l’altro. Kaprow vede
l’arte come veicolo per espandere la nostra capacità di promuovere eventi e interazioni
inaspettati. Egli incoraggiava il pubblico a fare le proprie associazioni e collegamenti tra idee e
eventi. Queste strategie narrative riportano a non lineari modalità di comunicazione e all’uso
dell’indeterminatezza come propulsore estetico. La decentralizzazione dell’autorialità, unita
all’immaginazione e alla partecipazione degli spettatori anticiperà lo sconfinamento dello spazio e
tempo attuato attraverso i nuovi media.

Brenda Laurel (Computer as theatre, 1993), esperta di videogiochi e teorica della Human
Computer Interaction, individua questi 3 fattori di successo per un sistema interattivo
computerizzato:
- Frequenza: ogni quanto è possibile interagire
- Campo di variabilità: quante sono le scelte disponibili
- Rilievo: fino a che punto le scelte influiscono effettivamente sui problemi
Per lei quindi il teatro, e in particolare l’happening teatrale, costituiscono il massimo livello di
interattività che il computer può prendere a modello.

INTERCREATIVITÀ
Esempi di intercreatività sono ambienti digitali che permettono la rielaborazione collettiva a
partire da modelli precostituiti dal sistema oppure da altri utenti.
Es. pagine Wikipedia, Meme generator. Minecraft.

SOCIALITA’ E COMUNICAZIONE MEDIATA DAL COMPUTER (CMC).LA PRIMA FASE DI STUDI.


Gli studi sulla comunicazione mediata dal computer iniziano dagli anni ’80, rivolti soprattutto ai
contesti aziendali e organizzativi.
Temi chiave:
- leadership
- decisioni di gruppo
- efficacia ed efficienza organizzativa
Approccio reduced social cues (kiesler 1984) mostra, attraverso esperimenti empirici di confronto
tra gruppi on line e faccia a faccia, gli effetti della riduzione degli indicatori sociali veicolati dalla
CMC. Secondo questo approccio di ricerca la CMC produce minore coordinamento decisionale,
rissosità (flame) e incapacità di normare le comunicazioni on line.

Con il tempo, invece che considerare le reduced social cues una variabile indipendente in grado di
influenzare in toto la comunicazione sociale, sono state considerate diverse caratteristiche mediali
in grado di produrre effetti sulla socialità:
30

- le problematiche spazio- temporali


- i partecipanti
- la natura (prevalentemente) scritta della comunicazione mediata.

CMC SPAZIO E TEMPO


Per quanto riguarda l’aspetto spazio- temporale, la CMC ha comportato una drastica riduzione del
ruolo della prossimità spaziale e temporale nelle relazioni.
Non era più necessario essere qui, e ora, per intessere uno scambio comunicativo. Questo ha
comportato un aumento del potenziale di socialità e di impegno interpersonale agibile dal singolo
individuo.

La possibilità di rileggere, riscrivere, editare la propria comunicazione interpersonale prima di


inviare un messaggio, quindi disporla in maniera analitica nello spazio e nel tempo, attraverso la
scrittura, comporta l’aggiunta di un livello meta-riflessivo alla comunicazione interpersonale (Ong
1992), lo spazio della relazione si ibrida con lo spazio della scrittura, e con le sue regole.

Da una parte la de- spazializzazione delle relazioni ha portato a interpretare la comunicazione on


line come la realizzazione compiuta del villaggio globale di McLuhan, dall’altra, posizioni più
pessimiste hanno sostenuto l’emergere di fenomeni di isolamento e di chiusura culturale, legati
alla possibilità di ghettizzarsi in comunità di interessi on line blindate.
Il cosiddetto bubble effect.

FILTER BUBBLE EFFECT E ECHO CHAMBER:


Secondo Hogan (2010) le persone tendono a censurare i propri post verso il “lowest common
denominator” di tutti i propri amici del proprio specifico account piuttosto che considerare una
distinzione pubblico e privato o piuttosto che costruire liste.
All’aumentare della lista di amici, la discussione su topic sensibili è sempre più difficile. Questo
crea uno spazio egemonico, mainstream, “medio”, dove si autocensurano le posizioni personali
alternative perché si percepisce il rischio di poter urtare qualcun altro.
Si auto applica un “filter bubble effect” (pariser 2011) dove facebook mostra solo ciò che le
persone vogliono vedere.
Gli utenti tendono a omogeneizzare le proprie strategie di condivisione dei contenuti,
condividendo solo opinioni giudicate socialmente gradite (echo chamber).
Contenuti e i propri comportamenti online sulla base della percezione della loro «imagined
audience» (litt, 2012).

CMC E PARTECIPANTI
Il secondo aspetto riguarda la scarsità delle informazioni relative ai partecipanti e il loro effetto
sull’identità e sulle relazioni.
Superato l’approccio deterministico della fase reduced social cues, si indagano aspetti complessi,
quali:
- definizione di identità multiple;
- web come spazio di moratorium e ridotto rischio sociale;
- definizione di pubblici invisibili
31

IDENTITA’ AUTENTICHE
Anonimity is part of the magic (myers 1987; haraway, 1991; stone 1995; turkle 1996).
Per altri, invece, l’anonimato incentiva e favorisce, nelle persone, la capacità di dire la verità e di
essere più oneste, bypassando i rischi che correrebbero off line. (mc-kenna e bargh, 2000).
Spesso, infine, le identità online, invece che essere sganciate dai contesti, sono un patchwork
fortemente contestualizzato alle molteplici realtà sociali off-line. L’identità on line, in questi casi,
ad esempio quella costruita tramite le pagine personali, è quindi luogo di ricomposizione dei
molteplici e spesso frammentari sé vissuti nel quotidiano (gofmann 1966).

IDENTITA’ MULTIPLE
Autrici come turkle (1996), e stone (1995) evidenziano l’emergere dello spazio virtuale come una
risorsa innovativa per la ri- definizione del concetto di identità, non più legata fortemente al sé
corporeo e/o a fattori contestuali (il luogo dove si vive, il proprio lavoro), ma costruibile in
relazione all’universo simbolico di desideri e proiezioni degli individui.
Tali identità simboliche non vengono considerate dei “falsi”, delle bugie, ma piuttosto delle
finestre molteplici dalle quali guardare agli individui con minori limitazioni.

CMC E MORATORIUM
Si parla di nuovo luogo di moratorium: spazio, paragonabile al ruolo che nelle società premoderne
aveva il carnevale, dove è possibile in un contesto limitato temporalmente trascendere le regole
del vivere civile, trasgredire: la trasgressione controllata è infatti funzionale al sistema civile.

IL DISINCANTO DELLA TECNOCRAZIA


M. Weber, nel saggio “L’etica protestante e lo spirito del capitalismo” (1904) analizza come, con
l’emergere della modernità, avviene una razionalizzazione generalizzata dell’esistenza. La vita
sociale viene igienizzata dalla “violenza totalitaria” della tecnocrazia razionale.
La marcia forzata verso il progresso dovrà fare a meno di molti bagagli “inutili”: l’onirico, il giocoso,
il festivo.

IL NUOVO REINCANTO
Secondo Maffesoli, con l’emergere delle tecnologie digitali e degli spazi di aggregazione online, dai
forum, ai videogiochi, ai social, avviene un nuovo reincanto del mondo, dove la “surrealtà” si
appropria della realtà. Le pratiche su Facebook, Instagram, Twitter sottolineano l’inestimabilità
dell’inutile, reintroducendo il ludico nel quotidiano, e soprattutto mettono al centro il
“riconsolidamento del legame sociale” nelle forme di nuove tribù che, attraverso le cyberculture,
più che esprimere contenuti esprimono il desiderio di stare insieme.

LA CMC È “FREDDA” O “CALDA”?


A fronte dei primi studi che volevano la CMC povera di indicatori sociali e quindi di strumenti di
empatia, diversi studi successivi (meyers 1987) hanno mostrato come il gioco, la convivialità e il
desiderio di calore e spontaneità sono molto frequenti nella CMC, soprattutto a causa della
“effimerità’, velocità, interattività e libertà dalla tirannia dei materiali”.

CMC E PUBBLICI INVISIBILI


Nella CMC cambia anche il modo in cui gli individui si relazionano al loro pubblico durante la
comunicazione. Mentre nella comunicazione faccia a faccia è sempre chiaro e inequivocabile il
32

proprio destinatario, nella CMC non sempre è possibile sapere a priori chi e quanti saranno i propri
destinatari.
Thompson (1998) studia l’effetto della comunicazione mediata già nella tv, definendo le
interazioni che avvengono tra emittenti e destinatari tv come: quasi-interazioni mediate.
Sul web il panorama si complica. Insieme alle quasi-interazioni mediate, avvengono anche
interazioni mediate in modo sincrono.

LA CMC E LE NUOVE RELAZIONI


La CMC, basando la creazione di nuove relazioni non su indicatori fisici, ma culturali (il modo di
scrivere, di presentarsi, cosa si dice e come), mette in discussione le classiche teorie
dell’interazione sociale, come il modello della penetrazione sociale (lea e spars 1995), suddiviso in
fasi, dove la prima è veicolata soprattutto dall’aspetto fisico.
In ogni caso anche le relazioni avviate tramite CMC, seguono un andamento prevedibile mirato,
progressivamente, a ridurre l’incertezza e ad aumentare l’affinità: si passa ad esempio dalla
discussione pubblica, a quella privata a- sincrona (mail) a quella sincrona e infine al faccia a faccia.

Diversi studi evidenziano, in maniera contraddittoria, gli effetti della comunicazione online sulle
relazioni esistenti.
A fronte di alcuni studi (wolak et al. 2003) che mostrano gli adolescenti on line più insicuri e
conflittuali dei loro coetanei off line, soprattutto con i genitori, diversi altri studi evidenziano che i
forti comunicatori on line di solito usano di più anche telefono e comunicazione faccia a faccia, e
che oggi molte delle relazioni, anche parentali (es. Tra fratelli) vengono gestite in maniera
massiccia (circa il 10% delle comunicazioni) attraverso strumenti on line, in primis la mail.

CMC E CONCETTO DI COMMUNITY


Van Dijk (1998) crea una tassonomia per descrivere le principali caratteristiche delle comunità on
line, rispetto a quelle off line, che definisce “organiche”.

INTERNET E LA DISCUSSIONE PUBBLICA


Schneider (1997) ha studiato l’influenza di tali comunità nel modellare la sfera pubblica,
analizzando un forum sull’aborto e raccogliendo una base empirica di oltre 46.000 messaggi.
Per interpretare il ruolo di questi forum nel costruire e modificare la sfera pubblica, Schneider ha
analizzato le 4 dimensioni di Habermas (1989) relative alla sfera pubblica:
- uguaglianza nell’accesso all’arena del dibattito
- diversità di opinioni e argomentazioni irrilevanti
- reciprocità o grado di interazione tra i partecipanti
33

- qualità delle informazioni

I NETWORKS
A partire dagli anni 90 si passa, progressivamente, dal concetto di community a quello di network.
Un modello nuovo di socialità, basato, secondo Wellman, sull’emergere di legami deboli, i
cosiddetti weak ties. (LEGAMI DEBOLI)

NETWORKED INDIVIDUALISM:
Lee Rainie e Barry Wellman, nel lavoro Networked: The New Social Operating System (2012),
attraverso l’analisi combinata di una rilevante mole di dati qualitativi e quantitativi, raccolti lungo
dodici anni di ricerche, esplorano la natura della società in rete mettendo in relazione lo sviluppo
delle tecnologie dell’informazione e della comunicazione con quella delle reti sociali delle persone.
La pietra angolare di questo studio è il concetto di networked individualism, già sviluppato nelle
ricerche di Wellman (2002), che mette in luce come, attraverso le tecnologie di comunicazione e
internet in mobilità, si sia passati dalla connettività tra i luoghi a quella tra le persone.
Gli individui sono sempre meno vincolati a reti parentali, di vicinato e piccolo gruppo e sempre più
orientati verso network personali più allargati, molto diversificati e caratterizzati da minor
coesione sociale: «gli individui networked sono caratterizzati da forme di appartenenza parziale a
molteplici network e fanno meno affidamento su forme di appartenenza permanente a gruppi
stabili» (Rainie, Wellman, 2012, p. 33).

LE NUOVE LOGICHE RELAZIONALI: Si moltiplicano i WEAK TIES e diminuiscono gli STRONG TIES

COMUNITÀ VS. NETWORKED INDIVIDUALISM


Questa forma di connettività estesa e flessibile, caratterizzata da barriere sufficientemente
permeabili e dalla possibilità di passare quasi senza soluzione di continuità da un network a un
34

altro, contraddistingue la società contemporanea e segnala la prevalenza dell’appropriazione


personale delle dinamiche di relazione sociale.

“Piuttosto che essere organizzati in gruppi chiusi e discreti – a casa, nella comunità, al lavoro,
all’interno delle organizzazioni – le persone sono in perenne movimento come singole individualità
tra diversi network separati da confini sfumati (fuzzily- bounded networks)” (Wellman 2012)

NETWORKED INDIVIDUALISM
Ogni persona è simile ad un «quadro comandi» che gestisce legami e network. Le persone
rimangono connesse ma in quanto individualità autonome, non sulla base del fatto che hanno i
piedi ben piantati nella ‘casa base’ del contesto familiare e di lavoro. Ogni persona attiva in modo
selettivo i propri network per ottenere informazione, collaborazione, direttive, supporto, senso di
socialità e di appartenenza” (Wellman 2012)

LA NETWORK SOCIETY: MANUEL CASTELLS


Manuel Castells, che comincia a delinearne i contorni a partire dalla trilogia The Information Age –
The Rise of the Network Society (1996), The Power of Identity (1997) e The End of Millennium
(1998). Castells rintraccia le radici della trasformazione tra la fine degli anni Sessanta e la metà
degli anni Settanta a partire da tre fattori indipendenti:
1) l’affermarsi delle tecnologie dell’informazione;
2) la crisi dei modelli socioeconomici capitalisti e statalisti e una loro ristrutturazione;
3) l’affermarsi di alcuni movimenti culturali per la difesa dei diritti umani, l’ambientalismo e il
femminismo. L’intreccio fra questi fattori ha dato vita a «una nuova struttura sociale
dominante, la società in rete; una nuova economia, l’economia informazionale/globale; e
una nuova cultura, la cultura della virtualità reale» (Castells, 1998; trad. it., 2003, p. 404).

Alcuni punti chiave della riflessione sulla Network Society:


1. SEGMENTAZIONE. I pubblici si segmentano in modi sempre più complessi sotto la spinta di
una duplice tensione, quella del marketing editoriale attraverso forme di targettizzazione
sempre più raffinate e quella delle persone che sfruttano le possibilità interattive e di
selezione per approcciare contenuti diversificati;
2. STRATIFICAZIONE. Una stratificazione sociale prodotta da un divario conoscitivo e da
diseguaglianze non solo sulle competenze, l’accesso e l’uso, ma relative anche alle ricadute
tra inclusi ed esclusi dai meccanismi di partecipazione attraverso i media;
3. INTEGRAZIONE CROSSMEDIALE. Forme di comunicazione diverse che vengono fruite dagli
stessi ambienti mediali tenderanno a miscelare i loro codici producendo forme ibride,
come l’infotainment o il processo di gamification applicato a diversi ambiti di contenuto; o
finendo per confondere i codici simbolici, come nel caso di siti che producono false news
che finiscono per circolare come contenuti informativi. Trattandosi poi di ambienti
interattivi, quelli che sono i pubblici finiscono per partecipare al processo anche sul
versante della produzione (e circolazione)
4. IBRIDAZIONE DI ESPRESSIONI CULTURALI ALTE E BASSE. La differenza fra cultura alta e
bassa viene annullata nel flusso comunicativo di contenuti. In pratica «ogni espressione
culturale, dalla peggiore alla migliore, dalla più elitaria alla più popolare, sfocia in questo
universo digitale che collega in un gigantesco ipertesto astorico le manifestazioni passate,
presenti e future della mente comunicativa».
35

MASS-SELF COMMUNICATION
Castells (2007) definisce come mass self-communication la forma di comunicazione basata su
internet nei seguenti termini:
1. resta di massa, poiché può raggiungere un’audience globale;
2. è multimodale, perché la natura digitale dei contenuti e la disponibilità, spesso
gratuita, di social software permettono di dare forme nuove ai contenuti e
distribuirli online;
3. è autogenerata per quanto riguarda i contenuti, autodiretta per quanto riguarda i
meccanismi di emissione ed è autoselezionata per quanto attiene la ricezione, il
tutto all’interno di reti molti-a-molti.
Pur avendo quindi la possibilità di diffusione di massa, questo tipo di comunicazione
introduce una condizione diversa della «posizione comunicativa» del soggetto che
vi partecipa.
Gli individui percepiscono, anche ideologicamente, di non essere più semplice «oggetto» – in
quanto pubblico, consumatori, elettori – di una forma di comunicazione di massa prodotta
attraverso i media dall’intrattenimento, dalla politica o dal marketing. L’intera esperienza della
comunicazione cambia grazie alla consapevolezza che gli individui hanno di sé stessi come
potenziali «soggetti» di comunicazione.

AUTO-RIFLESSIONE
Strong e weak ties, che media usiamo?
Individuare la rete di strong ties e analizzare brevemente quali sono i canali di comunicazione
usati. Passare poi a quantificare la rete di weak ties. Quali media e social usiamo con loro?
Ci sono stati casi di “passaggio progressivo” da canali mediali diversi nel caso di un
intensificarsi delle relazioni? Riportate le vostre riflessioni su questo foglio Google

LEZIONE 6
Fare ricerca serve per comprendere bisogni e aspettative del target (siano studenti, docenti o altri
soggetti del mondo della scuola); atteggiamenti; comportamenti; contesti e pratiche.
La ricerca sugli utenti serve a far capire COSA serve, COME procedere nella soluzione del problema
o nel miglioramento di una situazione di partenza e QUALI sono i fattori che migliorano, quali sono
fattori che non hanno alcun impatto, e quali eventualmente fattori di ostacolo.

L’APPROCCIO DEL DESIGN THINKING:


36

LE PRINCIPALI METODOLOGIE:

LA SURVEY
è un questionario composto da domande brevi, uguali per tutti gli intervistati, per ciascuna delle
quali sono predefinite ed elencate le modalità di risposta.
Alcuni tra i principali player del settore, soprattutto per il web: AUDIWEB/NIELSEN NET RATINGS;
EURISKO; ONETONE; COMSCORE MEDIA; METRIX.
Le modalità di somministrazione della survey sono diverse e offrono tutte differenti vantaggi e
svantaggi:
- SOMMINISTRAZIONE DIRETTA
- CATI (Computer Assisted Telephone Interview)
- CAWI (Computer Assisted Web Interview)
- QUESTIONARIO E-MAIL

Le survey si effettuano su un campione di utenti specifico. Il campionamento permette di isolare,


rispetto all’intera popolazione, un numero ridotto di casi che vengono considerati rappresentativi
dell’intera popolazione.
Mentre lo studio sull’intera popolazione porta al valore esatto del parametro studiato (es. il
censimento), il campionamento porta a una stima di esso, un valore approssimato.
A differenza che nei dati ricavati dalla rete, es. dal datamining sulla navigazione degli utenti web,
attraverso le survey è possibile decidere a priori chi risponderà alle domande, ottenendo quindi in
maniera diretta risposte dal target giudicato rilevante.
Il campionamento (ovvero la scelta degli utenti che risponderanno alla survey) può essere
rappresentativo della popolazione, o non rappresentativo della popolazione di partenza.

Ambiti indagati:
-Proprietà sociodemografiche
-Atteggiamenti
-Comportamenti
-Relazioni tra i dati (es. tra un comportamento e un altro)
37

Errore di campionamento: L’ampiezza del campione n è determinabile così:


n = (zs)2/e
L’ampiezza del campione è pertanto direttamente proporzionale al livello di fiducia desiderato per
la stima (z), ed alla variabilità del fenomeno studiato (s), ed inversamente proporzionale all’errore
che il ricercatore è disposto ad accettare (e). Se z ed e sono decise dal ricercatore (che stabilisce
l’affidabilità e la precisione che vuole per le sue stime), s non è noto. In quanto la varianza non è
disponibile a priori, pertanto deve essere stabilita in base a stime o ricerche precedenti.
Ogni survey parte dall’idea di verificare una o più teorie. Ad esempio, una teoria può essere che i
giovani siano più influenzati dalla pubblicità virale. Non sempre però le teorie sono stabilite a
priori, in molti casi, scopo delle survey è proprio individuare le teorie stesse sottostanti i dati: ad
esempio: chi sono gli utenti più sensibili alla pubblicità virale? Si cercano correlazioni tra i dati (es.
una correlazione tra età e tasso di click through sui banner) e, in tal modo, si verifica la teoria
sottostante.

MA COS’È UNA TEORIA?


Una teoria è un insieme di proposizioni organicamente connesse, che si pongono a un elevato
livello di astrazione rispetto alla realtà empirica, che sono derivate da regolarità empiriche e dalle
quali possono essere derivate delle previsioni empiriche.
Un’ipotesi è una proposizione che implica una relazione fra due o più concetti, ma con un minore
livello di astrazione e generalizzabilità di una teoria.

Una prima analisi è basata sulle singole variabili:


- distribuzione percentuale di ogni singola modalità di risposta
- tendenze centrali della modalità di risposta più frequente (es. media)

Le analisi successive riguardano le relazioni tra variabili:


- tabelle di contingenza
- indicatori di correlazione tra variabili (es. Chi quadro, phi, ecc)

FASI DELLA RICERCA


1. Precisazione dei bisogni conoscitivi ed eventuale ricognizione della letteratura esistente
2. Definizione delle ipotesi
3. Operativizzazione (traduzione dei concetti in variabili) e costruzione degli strumenti di
rilevazione
4. Scelta del campione
5. Reperimento e rilevazione sul campo
6. Codifica e Analisi dei dati
7. Interpretazione secondo le ipotesi iniziali o nuove ipotesi emerse durante il processo

VANTAGGI DELLA SURVEY:


- Standardizzazione delle informazioni in dati
- Replicabilità nel tempo
- Estensione dei risultati a partire da un campione rappresentativo
- Possibilità di suddividere il lavoro
38

SVANTAGGI DELLA SURVEY:


- Costosità della rilevazione per un campione rappresentativo;
- Rigidità delle ipotesi (si trova solo quello che si stava cercando, no nuove dimensioni di
indagine);
- Dati meno ricchi rispetto ai metodi qualitativi;
- Rischio di automatismi e reattività nelle risposte;

INTERVISTA IN PROFONDITÀ
Traccia di intervista che prevede risposte aperte, con diversi livelli di strutturazione (strutturata-
libera) sia per quanto riguarda il tipo e la quantità di domande, sia per l’ordine delle stesse.
Tipicamente le interviste in profondità durano a lungo e riguardano un campione ristretto (<50
utenti); non sono rappresentative della popolazione.

Rispetto alle survey, le interviste in profondità presentano pro e contro.


Svantaggi:
- Difficoltà di analisi per la vastità dei materiali
- Scarsa attitudine alla generalizzazione

Vantaggi:
- Informazione ricca
- Problematizzazione

Come condurre una buona intervista


- Chiedi perché
- Incentiva il racconto di storie e aneddoti che fanno visualizzare le idee, fai uscire
l’intervistato dall’astratto
- Fai attenzione ai segnali non verbali e sfruttali per dirigere la conversazione
- Non avere paura del silenzio, segui il ritmo
- Non suggerire risposte, anche nel modo di porre le tue domande
- Non fare domande binarie
- Sii certo di essere ricettivo verso il nuovo

Agli intervistati si chiedono informazioni fattuali o valutazioni su fenomeni di cui sono osservatori
naturali (es. insegnanti oppure operatori di casting per una ricerca sulle giovani modelle,
moderatori di community per descrivere gli utenti, ecc).

ANALISI DESK:
Si studiano gli utenti attraverso i loro prodotti, e non direttamente. Ad esempio, analizzando le
loro pagine personali nel web.
Per l’analisi si usano tecniche e griglie di analisi del contenuto.
Applicazioni più “estrose”: analisi dei consumi attraverso l’esame dei rifiuti della popolazione
americana.

L’analisi desk ha il vantaggio di non essere intrusiva, in quanto gli utenti non sanno di essere
osservati e quindi si argina il fenomeno della desiderabilità sociale legata alle risposte.
D’altra parte, l’analisi desk è “muta”, in quanto ci dice cosa gli utenti hanno fatto, ma non, per
esempio, perché, come, con quale soddisfazione ecc...
39

FOCUS GROUP
Intervista condotta non con un rapporto diadico intervistato-intervistatore, ma con un gruppo
(solitamente 8-10 persone), per rilevare, più che gli atteggiamenti singoli, le dinamiche tra
atteggiamenti e la formazione delle opinioni.

Per la sua praticità, il focus group è tra le tecniche più utilizzate nel marketing: è
necessario però saper condurre bene il gruppo e fare attenzione:
- che tutti i partecipanti turnino nel parlare e non ci siano “sopraffattori”;
- che le domande stimolino il dibattito senza però uscire fuori tema;
- che la discussione venga adeguatamente stimolata con nuovi quesiti, se langue.

PARTICIPATORY DESIGN:
Il participatory design è un insieme di tecniche mirate a coinvolgere gli utenti finali nelle diverse
fasi di progettazione di un prodotto/ servizio. Invece che chiedere agli utenti cosa vogliono
(survey), oppure fargli testare un prodotto/ servizio (testing), l’approccio del participatory design
chiede agli utenti di progettare da sé il loro servizio, guidandoli attraverso l’uso di tecniche di
brainstorming, prototipazione, creazione di scenari d’uso.

ANALISI ETNOGRAFICA:
Le tecniche di osservazione prevedono, solitamente, la presenza fisica del ricercatore nel luogo in
cui sono presenti i fenomeni che si indagano, e la sua rilevazione diretta dei processi.
L’osservazione dura periodi relativamente lunghi, per riuscire a cogliere il fenomeno nella sua
naturalità. Molto spesso l’osservazione è nascosta o resa meno invadente possibile (fly on the
wall). Spesso all’osservazione si uniscono, in successione, delle interviste. Le interviste vanno però
condotte alla fine dell’osservazione, per ridurre al minimo la reattività del campione.

TECNICHE DI OSSERVAZIONE ETNOGRAFICA


Secondo Malinowski (1922) queste tecniche sono le uniche in grado di farci osservare “gli
imponderabili della vita reale”:
Cose quali la routine della giornata lavorativa, i dettagli della cura del corpo, del modo di prendere
il cibo e di prepararlo, il tono che assume la vita sociale quando si conversa intorno al fuoco
(...)l’esistenza di forti amicizie o di ostilità e di passeggere simpatie e antipatie tra la gente,
l’elusivo ma inequivocabile modo in cui le vanità personali e le ambizioni si riflettono nel
comportamento dell’individuo e nelle reazioni emotive di coloro che lo circondano (...)

Dell Hymes (1964) individua queste componenti analitiche:


- Componenti degli eventi comunicativi (codici, messaggi, canali, emittenti);
- Relazioni tra componenti;
- Capacità e stato dei componenti;
- Sistema generale.

Lo strumento utilizzato per analizzare la realtà osservata sono le note etnografiche, appunti
testuali, visivi, sonori, che andrebbero rivisti e organizzati periodicamente distinguendo in:
- Fatti osservati;
- Interpretazioni date dall’osservatore;
40

- Interpretazioni date da altri;

PROBLEMI DELL’OSSERVAZIONE ETNOGRAFICA


- Intrusività dell’osservatore
- Lunghi tempi
- Assenza di obiettivi standard predefiniti

OSSERVAZIONE ETNOGRAFICA ONLINE:


L’etnografia online è partita con lo studio delle prime community digitali, osservando
l’interazione tra gli utenti nei Bullettin Boards, nei MUD e nei forum negli anni Ottanta: questi
ambienti venivano trattati come veri e propri spazi sociali dove le persone definivano ruoli,
identità, relazioni.

GRIGLIA ANALISI DELLE INTERVISTE: ESPLORAZIONE PER DIMENSIONI RICORRENTI


Ad esempio: la dimensione 1 è il tipo di socialità (categorie possibili: socialità funzionale; socialità
emozionale...).
Si esplorano le categorie più ricorrenti per quella dimensione.
Il lavoro di analisi è sulle colonne: casi x variabili

GRIGLIA ANALISI: ESPLORAZIONE PER “TIPI” RICORRENTI


Ad esempio: si esplorano i casi in base a cluster ricorrenti di categorie.
Si creano dei “tipi ideali”, in base a questi casi.
Gli intervistati 2 e 3, per esempio, potrebbero far parte di uno stesso “tipo” (utente “butterfly”, in
base al fatto che usano molti sns (dimensione2) in modo superficiale (dimensione 3).
Il lavoro di analisi è di confronto sulle righe.
41

SOCIAL NETWORK ANALYSIS: LA SOCIOMETRIA DI MORENO


La sociometria nasce con Jacob Levi Moreno, psicologo sociale e ufficiale medico, nel 1916.
Disciplina che studia la struttura psicosociale dei gruppi informali, ovvero le relazioni non evidenti
e ufficiali, ma comunque vive, reali e dinamiche.
La tecnica non osserva direttamente i comportamenti manifesti, ma si avvale di un questionario
per scoprire le relazioni interpersonali tra i componenti di un gruppo. Il fine del questionario è
quello di evidenziare la struttura psicosociale dei gruppi e trascriverla in maniera oggettiva.
Il questionario consiste nel chiedere a tutti i membri di indicare in ordine decrescente di
preferenza i compagni con i quali vorrebbero svolgere un'attività specifica (prima domanda) e al
contrario con chi non vorrebbero assolutamente associarsi (seconda domanda). Nel questionario
sono inoltre contenute anche due item di carattere percettivo, in cui ai soggetti viene chiesto di
esprimere da quali degli altri soggetti pensano di essere stati selezionati e da quali no (terza e
quarta domanda).

INDICE SOCIOMETRICO INDIVIDUALE

SOCIAL NETWORK ANALYSIS: SOCIOGRAMMA A BERSAGLIO


Il sociogramma a bersaglio visualizza la rete di relazioni tra i nodi: nel cerchio interno sono
riportati i soggetti popolari, l’anello esterno racchiude gli isolati, mentre nell’anello centrale ci
sono le persone che hanno ottenuto un numero di scelte di scarso rilievo
42

SOCIAL NETWORK ANALYSIS


Dalla sociometria nasce la social network analysis: un metodo diagnostico che collezionando e
analizzando le relazioni sociali (nodi e link) e la struttura della rete all’interno delle organizzazioni,
o delle reti sul web, rende evidente la struttura e il flusso informativo e come ciò si relaziona ai
risultati del gruppo o dell’organizzazione.
Nei contesti organizzativi, la sna viene usata per individuare alcune variabili importanti
dell’interazione sociale:
• Colli di bottiglia (nodi centrali che rappresentano l’unica connessione tra elementi della
rete
• Numerosità delle connessioni (indegree e outdegree)
• Distanza media (grado di separazione tra i nodi di un gruppo)
• Isolamento
• Esperti
• Sottogruppi

Vengono analizzate diverse tipologie e modalità di relazione:

LE RETI DEI SISTEMI COMPLESSI


Una particolare branca della sns si indirizza ai cosiddetti “sistemi complessi”: reti di migliaia o
milioni di nodi.
Granovetter (1973) individua diversi modelli di reti:
• Reti regular
• Reti small world
• Reti random
43

Le reti regular sono caratterizzate da strong ties, e assumono la forma di agglomerati diadici o
clique (cricche): tipicamente sono le reti amicali.
Se io sono amica di Mario e Pietro, molto probabilmente anche Mario e Pietro saranno amici tra
loro.
Le reti regular sono caratterizzate da grande robustezza e relativa lentezza: perdendo l’accesso a
un nodo posso sempre accedere alla rete da altri nodi.

Le reti “small world” sono caratterizzate da weak ties, spesso creati in modo casuale.
Per esempio, i legami deboli con persone molto lontane dal nostro contesto socio-culturale. (per
esempio: conosco una persona a Stoccolma che si occupa di musica elettronica).
Le reti small world sono responsabili dei fenomeni virali: come le mode, le dicerie, le virulenze ed
epidemie, ma anche la ricorrenza degli stessi amministratori delegati nei consigli di
amministrazione, le reti criminali, ecc.

Le reti “small world” sono caratterizzate anche da:


• invarianza di scala (scale-free)
• presenza di hub (nodi di grande dimensione); esse rispondono anche al fenomeno “effetto
Matteo”
(ad esempio: chi apre un nuovo sito preferisce collegarlo a siti che hanno già un alto numero di
connessioni.
Si definisce come effetto Matteo, riferendosi al passo nel vangelo (Matteo, 25:29) nel quale si
afferma “così a chi ha sarà dato e sarà nell’abbondanza”.)

LEZIONE 7

IL CAMBIAMENTO DEL PANORAMA CULTURALE


• esplosione quantitativa della produzione culturale bottom up
• ridimensionamento degli intermediari tradizionali
• ingresso degli algoritmi
• nuovi parametri di rilevanza culturale

NECESSITÀ DI UN RIPENSAMENTO METODOLOGICO


• nuovi approcci per la selezione e il campionamento dei contenuti
• nuovi strumenti epistemologici per “maneggiare” cognitivamente il salto di scala
quantitativo
• necessità di tenere in considerazione la volatilità e dinamicità del dato
• problemi etici e di privacy
• policies delle piattaforme che detengono i contenuti

DIGITAL METHODS
• Metodi digitali basati sull’analisi degli hashtag o delle keywords
• Metodi digitali basati sull’analisi di profili
• Metodi digitali basati sull’analisi dei network
• Comparazioni di contenuti nel tempo e nello spazio
44

ESEMPI DIGITAL METHODS: COMPARAZIONI NEL TEMPO E NELLO SPAZIO


Il lavoro di ricerca Google and the Politics of Tabs’ (Rogers and Govcom.org, 2008) è un’Analisi dei
mutamenti di interfaccia di Google attraverso la raccolta di “the Wayback Machine”). Esaminando
le modifiche nel tempo ai servizi di ricerca privilegiati (oltre che relegati) da google.com sulla sua
interfaccia, si racconta la scomparsa degli editori umani del web (attraverso l’area Directory).
L’ascesa dell'algoritmo e il back-end subentrano ai bibliotecari.

Allo stesso modo si possono analizzare le pagine di Wikipedia su uno stesso tema, per comparare
diversi punti di vista nazionali, o i cambiamenti dei contenuti nel tempo.
Rogers definisce questo tipo di analisi “politiche della memoria” attuate dalle interfacce

Sui social:
- Analisi degli higlights: Analisi della variazione degli hashtag più usati.
- Analisi delle parole chiave più usate (google trends)

Per quanto riguarda l’analisi dei social network, dal 2015 una serie di restrizioni nelle API
(INTERFACCIA PROGRAMMAZIONE APPLICAZIONI) che si interfacciano con i social non permettono
più l’estrazione di dati da parte dei ricercatori.
Facebook e Instagram risultano totalmente chiusi mentre Twitter rimane l’unica piattaforma
ancora esplorabile, attraverso API, nei suoi contenuti.
Non è quindi più possibile condurre in maniera automatizzata estrazione dei dati, ma solo in
maniera manuale. Questo limita notevolmente le possibilità di ricerca nel campo di tipo
quantitativo.

Un altro approccio consiste nell’analizzare un hashtag in diverse piattaforme, ad esempio


Facebook, Instagram e Twitter.
Sebbene l’uso dei tag sia diverso, a livello quantitativo e quailitativo, questo metodo consente
un’analisi medium centrica che mette in luce i codici culturali retrostanti l’uso dei diversi social
media.

CULTURAL ANALYTICS: MANOVICH


• Analisi induttiva
• Approcci basati sull’intelligenza artificiale e learning machine
• Importanza degli aspetti visuali come strumenti non solo di info visualization ma di
interpretazione.

OPPORTUNITA’
• analisi dei trend
• analisi dei contenuti
• analisi degli attori culturali
• analisi delle relazioni tra contenuti o tra utenti
• analisi macro di proprietà visuali
• analisi delle trasformazioni di un contenuto nel tempo
• analisi dei punti di vista e delle discosivizzazioni (es. interculturali) su un contenuto
45

DUBBI
• affidabilità del dato
• “povertà” del dato (es. i dati visuali basati su palette di colore, variazione pattern, sono
sufficienti a individuare le estetiche?)
• i dati ci parlano dei comportamenti, ma niente ci dicono dei vissuti e dei contesti (es. i
selfie prodotti). I prodotti culturali sono reificati, privati delle loro soggettività
• siamo pronti per un “pensiero visivo”?
• vediamo solo quello che le affordances delle piattaforme decidono essere rilevante (es. API
Google)
• quali domande vogliamo fare ai dati?

INCROCIO FRA APPROCCI QUALITATIVI E QUANTITATIVI: IL CASO DI AYLAN KURDI NELLA


RICERCA ICONIC IMAGE ON SOCIAL MEDIA
- Analisi della diffusione della notizia e dei nodi informativi
- Analisi della diffusione della notizia nel tempo
- Analisi dei principali influencer
- Analisi delle discorsivizzazioni tramite le parole chiave di ricerca
- Analisi delle discorsivizzazioni tramite le domande di ricerca

Esempio di analisi del tipo di immagini diffuse:


• immagini di Aylan morto solo
• immagini di Aylan tra le braccia del poliziotto
• immagini di Aylan vivo
• immagini rielaborate
• infografiche con dati sulla migrazione ecc

Analisi delle rielaborazioni artistiche ospitate su Buzzfeed e su BoredPanda.

LEZIONE 8 DEL 24/03/2022


Comunicazione post-pandemia. Cos’è cambiato e cosa continuerà a cambiare. (lavoro di gruppo)

Il report deve essere costituito dall’introduzione con domande che ci siamo posti all’inizio della
ricerca, le nostre aspettative con ipotesi (se ne abbiamo), metodo utilizzato dove si spiega anche il
target, analisi dei risultati (con survey si hanno i grafici).
Conclusioni con riflessioni personali.
Il report finale va fatto con PP.

Parte metodologica dei digital methods: analisi degli hashtag o delle keywords, analisi dei profili,
analisi dei networks e comparazioni e contenuti del tempo e nello spazio.
Analisi visuali: guardando l’insieme visivo recepiamo informazioni che senza guardare l’insieme
non riusciremo a vedere.

La cosa migliore è incrociare questi metodi per avere un’analisi più approfondita e dettagliata.

Caso Aylan Kurdi-->bambino morto, prima ricerca sulla diffusione della notizia, la viralità si è
scatenata grazie a giornalisti (in particolare una giornalista)
Possibile vedere sempre con lo stesso programma analisi della diffusione della notizia nel tempo.
Usato anche Google trends per vedere come sono cambiate le domande nell’arco del tempo.
46

Rielaborazione artistica della tragedia.

Ricerca della prof su YouTube sull’ubriacarsi:

Ricerca tramite parole chiave, vedere se i soggetti rappresentati erano consapevoli o


inconsapevoli, chi aveva pubblicato il video e che titolo aveva assegnato al video, analisi sui
commenti. Scindendo i tre livelli ha notato una forte differenza di genere, sulle donne molti insulti
mentre sugli uomini visto come atto goliardico, divertente.

LEZIONE 9

ANALISI DEI PRODOTTI DIGITALI: IL WALKTHROUGH METHOD


Questo metodo, che si basa sull’analisi desk dell’interfaccia di un prodotto e del suo apparato
comunicativo (linee guida, promo, termini di servizio ecc.), si fonda sul mix di diversi approcci e
teorie:
- gli studi di user experience e usabilità in relazione al design e efficienza dell’interfacce
- i cultural studies in relazione ai processi di appropriazione e domestication da parte del
pubblico
- i Socio-technical-Studies e l’Action Network Theory per evidenziare il rapporto tra gli attori
(umani e artificiali) nel definire l’esperienza di uso
- gli studi relativi alla platform society per evidenziare il rapporto tra produzione, consumo e
ideologie (sociali e economiche) in essi veicolate

IL METODO DEL WALK THROUGH


Alcuni Elementi presi in considerazione:
- Interfaccia. Come l’interfaccia guida gli utenti attraverso pulsanti e menu. Per esempio,
alcuni bottoni come Report o Share possono essere più grandi o piccoli di altri o posizionati
in punti meno visibili
- Funzionalità. Gruppi di azioni richieste dal sistema (es. la compilazione di alcuni dati,
l’attivazione di alcune sfide ecc);
- Textual content and tone. I testi contenuti nelle istruzioni ma anche nei menu, per
esempio anche l’ordine di categorizzazione nei menu a tendina o la stessa tipologia di
categorizzazione (per esempio in relazione al genere ecc)
- Symbolic representation. Un approccio semiotico per analizzare l’aspetto della app e le
associazioni culturali con l’utente immaginato e lo scenario d’uso ideale. Può riguardare
quindi anche gli aspetti simbolici e culturali racchiusi nella grafica, nella scelta delle
immagini, i colori, i font ecc
47

UN METODO FRA AUTO- ETNOGRAFIA E DESK ANALYSIS


Il metodo viene articolato in tre fasi: registrazione, uso giornaliero e uscita.

Durante la registrazione è possibile comprendere diversi aspetti del modello di uso suggerito
dall'interfaccia, in base, per esempio, ai dati richiesti, alla connessione o meno con altri network
esistenti, alla costruzione di un profilo più o meno anonimo, alla presentazione e richiesta di
adesione a delle norme, condizioni d'uso, che esplicitano la vision e l'etica del sistema.

Uso quotidiano: per comprendere al meglio le dinamiche dell'interfaccia sarebbe opportuno


utilizzarla per un periodo continuativo, creando anche diversi profili e modalità di accesso, in
modo tale da osservare cosa e come cambiano le affordances e constrains a seconda dei diversi
tipi di pubblico. Bisogna analizzare sia il tipo di azioni consentite dal sistema, sia l'ordine con le
quali sono presentate e quindi qual è il flusso di azione previsto e una gerarchia di priorità.

Abbandono o chiusura account: anche le modalità con le quali è possibile lasciare un'app sono
importanti. alcuni sistemi permettono la cancellazione facile del profilo e l'abbandono della app,
mentre altri suggeriscono di tenerlo in quiescenza, senza cancellare i dati, altri ancora invitano la
creazione di profili multipli come scorciatoia per cambiare identità velocemente. questi approcci
mostrano differenti visioni del modo effimero del sistema e del rapporto con la permanenza,
visibilità e identità dei soggetti al suo interno.

IL FENOMENO TIK TOK


Lanciato nel 2016 in Cina con il nome di Douyin e a livello internazionale con il nome di Tik Tok nel
2017, nel 2018 diviene accessibile in USA, acquisendo Musical-ly; nel 2020 Tik Tok è diventata la
10 piattaforma più usata, raggiungendo circa 800 milioni di utenti mensili nel mondo.

LE AFFORDANCES SOCIO-TECNICHE DI TIK TOK COME DISPOSITIVO MEMETICO


Log-in e registrazione:
- Selezione di gusti preferiti al centro del processo di creazione identitaria.
- Scarsa rilevanza della costruzione del proprio profilo
- Scarsa attenzione alla ricostruzione della propria rete di amici (sistema friend-driven)
Fruizione:
Contenuti suggeriti nella sezione Per Te.
Quando interagisci molto con un contenuto, la freccia bianca diviene un’icona di invio messaggio.
Il mutamento dell’interfaccia, un aspetto molto particolare e delicato, evidenzia la possibilità e la
affordance di condividere quel contenuto
Condivisione espansa su tutti i social, anche via mail, senza limiti.

Creazione:
Quando guardi un contenuto, è possibile risalire alla musica di sottofondo tramite 2 dispositivi di
interfaccia: l’icona del riproduttore audio, con note in movimento, e il nome della canzone che
scorre in basso.
Questi elementi sono gli unici in movimento e pertanto hanno grande visibilità: sono affordance
che invitano a cliccare. Cliccando su di esse si vedono tutti i contenuti che adottano la stessa base
musicale, facilitando il dispositivo memetico.
Tik Tok contiene centinaia di effetti, tuttavia essi sono categorizzati in maniera molto vaga, che
scoraggia l’idea di guardarli tutti o cercare un determinato effetto in maniera originale.
L’interfaccia invece incoraggia l’approccio memetico: quando guardi un video, vedi quale effetto è
48

stato usato. Cliccando sull’effetto puoi vedere tutti i video che lo hanno usato e sei così invitato a
usarlo per aggregarti alla catena di creazione.

La struttura di accesso ai template musicali e ai template di effetti visivi è centrale nella creazione
della dinamica memetica di Tik Tok.
I meme così creati, inoltre, non si basano su particolari condivisioni identitarie e valoriali, come
nella struttura memetica standard, quanto invece sulla condivisione di effetti formali (musica ed
effetti), questo slega il processo di produzione da particolari aspettative di rappresentazione
identitaria.

Dal punto di vista dei contenuti, si nota come centrali nel panorama di Tik Tok siano le challenge:
anche in questo caso, la challenge rappresenta un format memetico (riprodurre per superare)
incentivato dalla stessa interfaccia: la possibilità di editare in maniera molto rapida e semplice i
video dà ai contenuti un carattere di liveness, di esperienza non costruita e semi-spontanea.
Rispetto all’interfaccia di Instagram, o del defunto Vine, Tik Tok promuove la pubblicazione di
contenuti più live, dove il carattere della sfida e del gioco hanno quindi maggiore significato
rispetto a quello della rappresentazione identitaria e sociale.

INTERFACCE PER I CREATORS


L’evoluzione del prosumer. Dalla fase in cui i prosumers hanno strumenti per interagire e creare
online in modo facile (Jenkins, 2006; 2008), alla fase di evoluzione del web 2.0, in cui essi sono
dotati anche di strumenti facili e potenti per l’analisi dei risultati e dei feedback dei loro prodotti.
Questo approccio porta i producers verso un professionalismo diffuso (Manovich,2020)

RICOMPENSE PER I SUPPORTER


- Accesso riservato alla community
- Lezioni individuali
- Riconoscimento dei fan
- Contenuti bonus – contenuti Premium
- Extra digitali – file grezzi
- Diretta Streaming
- Merchandising tangibile
- Accesso anticipato

CONTENUTI PREMIUM
• Offri un tour del tuo studio.
• Fatti un video mentre crei un nuovo pezzo.
• Registra un commento in cui racconti qualcosa sui tuoi contenuti recenti.
• Condividi i metodi che usi per produrre i tuoi contenuti.
• Offri l’accesso al materiale in versione integrale o a scene eliminate.
• Intervista il tuo staff o i tuoi collaboratori.

COMMUNITY
• Sessioni di Q/A
• Sondaggi per scegliere gli argomenti di conversazione
• Chat con gruppi o con singoli fan
• Incontri
49

INTERFACCIA PER DIVENTARE UN CREATOR


I contenuti sono organizzati anche in base al livello dei sostenitori a cui sono indirizzati.

L’interfaccia modella le tipologie di relazione attraverso alcune affordances:


- la struttura a “livelli di supporto” suggerisce di creare una gamma modulare di possibili
interazioni. Fornire un’anteprima contenuti potrebbe valere meno, per esempio, di
chattare con i fan. Un insieme di “valori” e pesi vengono attribuiti dall’interfaccia ai singoli
modelli di interazione. L’interfaccia spinge a creare un gradiente di livelli di interazione ben
codificato.
- la possibilità di personalizzare nel dettaglio i livelli (cover, titoli, label ecc) suggerisce, in
maniera complementare, l’idea che ogni tipologia di interazione sia specifica e propria del
singolo creator.
BILANCIAMENTO FRA STANDARDIZZAZIONE DEI MODELLI DI INTERAZIONE E PERSONALIZZAZIONE
DEI CONTENUTI DELL’INTERAZIONE

A CIASCUNO IL SUO: LA RELAZIONE COME ATTRIBUTO DEI CONTENUTI CREATIVI


Patreon propone un modello alternativo di valutazione e gestione dei contenuti creativi web 2.0,
basato su una segmentazione top down del proprio target.
Invece di “far decidere gli algoritmi” e avere un alto tasso di incertezza su quali saranno i contenuti
più preziosi e con maggiore conversione, il sistema propone che siano i creators a pianificare il
valore dei contenuti.
Il modello, però, non lascia i creators soli a decidere in maniera arbitraria, ma propone una visione
specifica del “valore” delle interazioni e dei contenuti.
Le interazioni sincrone, uno a uno, esclusive, sono più pregiate delle altre.
Per quanto riguarda i contenuti, anche in questo caso, propone di dare un valore aggiunto ad
attributi quali la novità, l’esclusività, la descrizione processuale del prodotto creativo, piuttosto
che “il semplice” prodotto creativo finale.

LEZIONE 10:

COSA SONO LE PIATTAFORME


Una piattaforma è una architettura programmabile progettata per organizzare le interazioni tra gli
utenti.
Una piattaforma è alimentata da dati automatizzata attraverso algoritmi visualizzata attraverso
interfacce, formalizzata attraverso modelli di business e termini di utilizzo.
Secondo gli autori le logiche delle piattaforme non si limitano a semplificare le operazioni di
interazione ma modellano il modo in cui viviamo e in cui la società è organizzata.
A ogni click del mouse e movimento del cursore i dati degli utenti sono generati, immagazzinati,
analizzati e processati, enormi quantità di dati sono inoltre raccolte grazie ai Social Buttons e ai
pixel sui siti (i pixel sono funzioni che registrano le attività degli utenti renderizzati da siti esterni a
una piattaforma social).

SCAMBIO DI DATI
Tramite le API (Application Programming Interfaces) le piattaforme offrono a terze parti
accesso limitato ai propri dati, fornendo informazioni dettagliate su comportamenti e metriche di
interazione, utili per progettare nuovi servizi o vendite. Le prime API sono nate nel 2000 con eBay,
oggi hanno trasformato il web in un ecosistema di piattaforme data driven.
50

ALGORITMI
Gli algoritmi rappresentano un altro ingrediente significativo delle piattaforme, sono istruzioni
automatizzate per trasformare dati di input in output.
Per esempio, gli algoritmi di Google Page Rank calcolano la rilevanza di una pagina web in
base a una serie di parametri tra i quali il numero e la qualità dei link che rimandano a essa.
Gli algoritmi sono complessi e le loro regole di funzionamento sono poco trasparenti, anche per
motivi di protezione brevettuale.

MODELLI DI BUSINESS
Un altro elemento centrale delle piattaforme è il modello di business. Molte delle piattaforme
principali sono partite dagli Stati Uniti ma si definiscono globali.
La differente configurazione proprietaria può produrre diversi esiti sulle transazioni finanziarie.
I modelli di business si basano su diversi tipi di valore: il denaro, l’attenzione, i dati, la valutazione
degli utenti sono strumenti di monetizzazione.

ORGANISMI DINAMICI
Sebbene ogni piattaforma abbia un particolare modo di utilizzo che indirizza gli utenti attraverso
interfacce, algoritmi e protocolli, le piattaforme sperimentano costantemente nuove
soluzioni in base ai feedback degli utenti.

PIATTAFORME DI INFRASTRUTTURA E DI SERVIZIO


Le piattaforme possono essere divise in due grandi sistemi:
- Piattaforme infrastrutturali (5 Big Five, Alphabet Google Facebook Apple Amazon
Microsoft).
- Piattaforme di settore (o servizio) che invece si dedicano a servizi specifici, appoggiandosi
alle piattaforme infrastrutturali per agire (es. Airbnb, Blablacar, Netflix, Justeat ecc).

Queste piattaforme costituiscono dei gatekeepers on-line dal momento che gestiscono dati servizi
base a cui tutte le altre piattaforme normalmente fanno affidamento.
I servizi offerti dalle infrastrutture delle piattaforme Big Five sono, per esempio: servizi di ricerca e
browsing, data server, cloud computing, email, messaggistica instantanea, social networking,
advertising sistemi di pagamento, servizi di identificazione, data analisi, Analytics, video hosting,
geolocalizzazione e eccetera.

I SERVIZI DI INFRASTRUTTURA
Insieme, Google e Facebook controllano il 60% della pubblicità on-line e una quota sostanziale dei
servizi di identificazione on-line, punto di accesso per molti altri servizi.
Tutte le piattaforme fanno affidamento ai Big Five per i principali servizi di identificazione,
geolocalizzazione, pagamento, networking.
Per esempio:
- Airbnb utilizza il sistema di geolocalizzazione di Google Maps e incorpora i sistemi di
identificazione di Facebook e Google per le identità degli Host.
- I servizi di Spotify e Netflix dipendono da Google Cloud e Amazon web Services.
- Vari settori di videogiochi dipendono interamente dagli store di applicazioni di Google e
Apple per la loro distribuzione.
51

PIATTAFORME DI INFRASTRUTTURA E MONDO FISICO


Inoltre, le Big Five acquistano anche piattaforme specifiche attraverso startup, finanziamenti di
partnership e collaborazioni.
Alcune piattaforme come Amazon si sono lanciate nel campo della produzione di beni tradizionali.
Amazon ha creato degli studi televisivi e di Game. Amazon Retail sta pianificando di acquisire
negozi fisici. Facebook ha aperto un proprio servizio televisivo, Watch, che ospiterà contenuti
professionali come reality e contenuti Premium.

IL BINOMIO PUBBLICO/PRIVATO
Nel mondo tradizionale, storicamente le infrastrutture (es. ferrovie, autostrade sistemi di controllo
del traffico, anche internet) erano gestite da un mix pubblico privato.
Oggi governi, istituzioni e ONG possono ovviamente aprire loro piattaforme proprietarie, ma è
molto difficile entrare in questo mercato.
Le piattaforme non connesse alle 5 piattaforme Infrastruttura dell'ecosistema non godranno di
specifiche funzionalità: connettività globale, accessibilità ubiqua e effetti di rete.
Per esempio, le piattaforme pubbliche o non profit devono usare i servizi di login di Facebook o
Google per avere visibilità nei risultati di ricerca, accesso a informazioni e raggiungere consistenti
fasce di utenti.

MULTISIDED MARKETS
Accanto alle piattaforme di struttura troviamo le piattaforme di settore, che offrono servizi in
settori specifici come sanità, vendita al dettaglio, trasporti, ecc.
Quasi sempre le piattaforme di settore non posseggono beni materiali e non impiegano personale
specializzato, sono dei connettori tra singoli utenti e singoli fornitori, degli intermediari.
Per esempio, Airbnb non possiede immobili o dipendenti per ospitalità, sostiene quindi di non
offrire un servizio assimilabile a un pernottamento in un hotel, ma una forma di accordo tra utenti.
Le piattaforme di settore creano multisided markets (mercati multi-versante) che mettono in
relazione diversi attori finali.

UN EQUILIBRIO DIFFICILE
Airbnb, per esempio, si definisce una Tech Company che fornisce solo un servizio di connettività
agli utenti, e non un servizio di ospitalità.
Facebook fino al 2017 si è rifiutato di definirsi una media company sostenendo di non produrre
alcuna news (anche se oltre il 40% degli americani si informa attraverso il feed del social).
Uber rifiuta la definizione con compagnia di taxi, sfuggendo alla relativa regolamentazione.
Tuttavia, l'offerta di trasporti dipende dall'esistenza di autostrade, ferrovie sistemi di controllo del
traffico, la sicurezza nei luoghi di soggiorno turistico è garantito dagli attori pubblici, i corsi sui
MOOC (piattaforme didattiche) non potrebbero esistere senza l'esistenza di docenti stipendiati
dai governi.

MECCANISMI DELLE PIATTAFORME


I tre meccanismi principali delle piatteforme sono: datificazione, mercificazione e selezione.
DATIFICAZIONE:
Qualsiasi informazione e azione dell'utente può essere raccolta sotto forma di dati: valutazioni,
pagamenti, registrazioni, visualizzazioni appuntamenti e ricerche, richieste di amicizia, follow, post
retweet like commenti ecc.
52

I dati forniscono alle piattaforme contenuti per svolgere analisi predittiva in tempo reale
funzionale a pubblicità e servizi personalizzati.
Le piattaforme condividono i dati attraverso le API, le distribuiscono attraverso le metriche e ad
altri servizi e le visualizzano per gli utenti finali in forma di interfaccia.
Per esempio, quando mettiamo un like su Facebook questa attività viene mostrata sul newsfeed
dell’utente, rendendo l'oggetto che ha ottenuto il like disponibile a nuove interazioni; i dati delle
metriche associate all'oggetto vengono processati attraverso Facebook Insights, il webmaster e gli
amministratori delle pagine Facebook ricevono dati aggregati che comprendono il numero dei like,
condivisioni e utenti unici, caratteristiche sociodemografiche della loro base utenti.
Anche Facebook riutilizza questi dati per costruire i trending topics.

CIRCOLAZIONE:
I dati sono costantemente condivisi rispetto a molti servizi on-line attraverso le API. Terze parti
possono realizzare e trasformare i dati in nuove applicazioni e programmi: per esempio i dati di
Google Maps sono utilizzati da moltissime terze parti per creare servizi geolocalizzati. I dati
vengono fatti circolare anche per gli utenti: si possono vedere valutazioni user-generated di
prodotti o servizi.
La circolazione dei dati ha anche un valore affettivo e induce gli utenti ad agire: essa favorisce
l'idea di una co-presenza in ambiente virtuale, per esempio, nel giornalismo questo si definisce
ambient journalism.
Anche le istituzioni private utilizzano i dati delle piattaforme: per esempio i giornali possono
produrre la loro agenda in base ai trending topic, i programmi didattici possono essere configurati
in base ai dati dei monitoraggi di apprendimento delle piattaforme le amministrazioni locali
possono configurare le opzioni d iSmartcity (pianificazione urbanistica, trasporti, servizi ai
cittadini) in base a dati sul traffico provenienti da Uber, google maps o altre piattaforme.

MERCIFICAZIONE:
La mercificazione avviene attraverso diversi modelli di business. Essa include la vendita di dati
diretta delle piattaforme, il loro utilizzo diretto, sia la vendita nell'ecosistema di piattaforme che si
affidano ad esse. Agli utenti vengono forniti accesso gratuito a servizi e contenuti, mentre ai
fornitori di servizi e inserzionisti sono proposti strumenti di targhettizzazione a basso costo.
I meccanismi di mercificazione hanno un doppio ruolo: permettono da un lato che i singoli utenti
mettano in commercio beni e servizi on-line accedendo alla valutazione pubblica dall'altra possono
portare allo sfruttamento del lavoro degli utenti e a un’ulteriore precarizzazione dei lavoratori on
demand.

SELEZIONE:
Le piattaforme si occupano anche di una selezione o curatela di temi, attori, oggetti, offerte servizi
più rilevanti. Tradizionalmente la selezione avveniva attraverso curatela da parte di professionisti
ed esperti in base a norme strutturate a livello sociale.
Le piattaforme invece sostituiscono la soluzione basata sulle competenze degli esperti con una
selezione guidata dagli utenti e dagli algoritmi, attraverso i processi di ricerca, condivisione,
following aggiunta a preferiti, eccetera.
Apparentemente questo tipo di selezione è più democratica. Tuttavia, essa non è modellata
esclusivamente dalle pratiche degli utenti ma si costruisce anche attraverso le strategie tecno
commerciali e opache degli algoritmi.
53

PERSONALIZZAZIONE:
Un approccio specifico alla selezione è quello della personalizzazione, basata sulle preferenze e i
profili degli utenti.
I contenuti delle piattaforme non sono mai però totalmente privati e personalizzati, ma
costituiscono sempre un compromesso tra personalizzazione e popolarità, un peso ha anche la
novità.
Secondo gli autori delle Filter Bubbles come Pariser (2011), la personalizzazione può condurre a
frammentazione sociale.

REPUTAZIONE:
Un altro meccanismo di selezione è basato sulla reputazione e Trend.
Le piattaforme hanno un ruolo centrale anche nel costruire la reputazione degli utenti, e in questo
modo configurano quali sono i criteri per le relazioni di fiducia tra le persone. In alcuni casi le
logiche della reputazione non influenzano solo le dinamiche di interazione nella piattaforma, ma
orientano le attività pubbliche degli utenti, permettendo per esempio ad alcuni utenti di
accrescere il loro business e negando invece ad altri l’accesso ai nuovi mercati.
Infine, non bisogna sottovalutare che le metriche di piattaforma vengono spesso “hackerate” da
utenti, servizi ad hoc o bot costruiti apposta per riorientare l'attenzione.

MODERAZIONE
Infine, tutte le piattaforme moderano attivamente i contenuti.
Questo meccanismo genera polemiche: si ritiene spesso che le piattaforme moderino troppo
oppure troppo poco.
La moderazione avviene sia da parte di algoritmi che di migliaia di operatori umani, in alcuni casi
sono gli stessi utenti a fare da moderatori attraverso le segnalazioni.

ESEMPI DI PLATFORMIZATION: IL SISTEMA DELL’INFORMAZIONE


Il sistema di informazione delle piattaforme è spesso oggetto di attacchi contraddittori.
Nel 2016 Facebook è stato accusato di aver inserito dei redattori umani per indirizzare in senso
progressista le informazioni.
Nello stesso anno è stato accusato di aver esercitato troppo poco controllo editoriale alla vigilia
delle elezioni presidenziali statunitensi.
Paradossale è il fatto che Facebook è oggi una delle piattaforme di maggiore circolazione delle
informazioni ma d'altra parte non possiede lavoratori professionisti in campo giornalistico,
essendo il suo obiettivo primario quello di favorire le relazioni tra gli utenti e non quello di media
company.
A seguito di queste critiche Facebook nel gennaio 2017 ha lanciato il Facebook Journalism Project,
costruendo un sistema di supporto alle agenzie giornalistiche e agli attori di fact checking.

LEZIONE 11:

ESEMPI DI PLATFORMIZATION: IL SISTEMA DELL’INFORMAZIONE


Il giornalismo ha subìto una prima trasformazione nei tardi anni ’90, con lo sviluppo di piattaforme
on-line e di sistemi di distribuzione delle notizie disaggregati rispetto ai giornali tradizionali.
Piattaforme e software lavoravano per disaggregare e successivamente riaggregare le Notizie
giornalistiche in favore di diversi pubblici.
54

Un altro impatto importante, sempre negli anni 90 è legato alla nascita di siti di piccoli annunci
commerciali, come eBay, gli inserti di annunci avevano a lungo rappresentato una fonte di
guadagno per i quotidiani tradizionali.
Un impatto dirompente lo hanno avuto anche i motori di ricerca che disaggregano le notizie
permettendo agli utenti la ricerca di una singola storia, come un prodotto separato che sta sul
mercato in base a criteri propri ed è slegato dalla logica editoriale del giornale.

Questa logica ha indebolito molto il ruolo di giornali come organi di informazione completi e
indipendenti.
Il processo si è accentuato ulteriormente con la nascita degli aggregatori di notizie quali Google
News, Apple News, Yahoo News, ma anche con i Feed Readers come Flipboard, Digg che
permettono agli utenti di aggregare feed.rss da diverse testate.
L'aggregatore di notizie, piuttosto che il giornale originale, diventa il gateway al quale gli utenti
accedono.

L'ultimo cambiamento radicale avviene con i social. Mentre gli aggregatori di notizie tradizionali
impiegano professionisti nei blog o algoritmi nei Feed per selezionare i contenuti, sui social media
chiunque può diventare un aggregatore di notizie, provenienti da fonti estremamente diverse.
Questo processo ha portato i giornali a trasferire i propri contenuti sulle piattaforme dove
possono essere consumati in maniera individuale e abbinati alla pubblicità.
Il sistema dei social network, quindi, favorisce la disaggregazione delle notizie e dei contenuti.

Il meccanismo di monitoraggio del successo dei contenuti in base alle metriche di engagement
degli utenti produce un conflitto con il principio di indipendenza del giornalismo e l'idea che abbia
una copertura esaustiva delle notizie.

Oggi i sistemi di audience come Nielsen net ratings e Comscore installano software di
tracciamento sui computer di un campione di utenti internet selezionato.
Altri sistemi si basano sugli Analytics raccolti nel web: sistemi come Google Analytics, Hit wise,
Quantcast tracciano le audience attraverso dati che provengono dal web server dei fornitori di
servizi internet.
Infine, i social media tracciano i dati attraverso i tool di monitoraggio degli engagement, per
esempio, gli Analytics di Twitter o gli insight di Facebook.

Negli ultimi anni questi approcci di misurazione delle audience sono stati integrati nei processi di
decision making editoriale dei giornali, attraverso strumenti quali Chartbeat, News whip, pase.ly,
Outbrain engage, Crowd tangle.

Giornali nati on-line come aggregatori di notizie quali Huffpost e Buzzfeed usano una datificazione
molto intensa, configurando in maniera dinamica titoli, contenuti, immagini in base alle metriche
degli utenti.
Buzzfeed testa contenuti alternativi con l'obiettivo di predire quando e perché le sue storie
diventano virali e ottimizzare la loro visibilità.
Il modello si sposta dal principio dell'Autonomia editoriale a quello degli interessi e attività di
utenti datificati.
Anche le testate giornalistiche tradizionali come il New York Times e il Guardian hanno subito una
trasformazione editoriale dovuta alla datificazione, anche se più lentamente.
55

Il NewYorkTimes ha creato una squadra che si occupa del rapporto con le audience.
La squadra osserva il traffico sui social e sui motori di ricerca, le tendenze e propone parole chiave
per ottimizzare le news sui motori di ricerca; crea account particolari per sezioni e ambiti
relazionali, come l'account Pinterest per la sezione cucina.

LA DIRETTIVA UE 790 DEL 2019 SUL COPYRIGHT


Una svolta epocale avviene con l’approvazione da parte del Parlamento Europeo della direttiva
790 sul copyright, che riconosce agli Stati membri la possibilità di regolamentare il diritto di autore
degli editori e fornitori di contenuti sulle piattaforme. In Italia la direttiva aggiorna la legge italiana
sul diritto d’autore (numero 633 del 1941).

YouTube, Vimeo, SoundCloud, Facebook e altri, dove gli utenti possono caricare musica e filmati
protetti dal copyright, devono ottenere da Universal, Sony, Warner, Netflix, Disney e affini una
licenza d’uso per i loro contenuti e una sorta di database delle loro opere, che servirà per fare il
confronto in tempo reale ogni volta che un utente vorrà caricare uno di quei contenuti online. In
pratica è quello che succede già da anni con la tecnologia content id di Google su
YouTube. Se un video viola il copyright viene eliminato oppure, per scelta dell’editore, la sua
monetizzazione sarà indirizzata dal canale dell’utente direttamente all’editore.

ESEMPI DI PLATFORMIZATION: IL SISTEMA DELL’INFORMAZIONE


Le piattaforme hanno integrato sempre maggiormente i contenuti giornalistici nella loro
infrastruttura, per esempio gli Instant articles di Facebook ma anche le news Google, i Twitter
Moments, o Snapchat Discover.
Gli Instant articles, lanciati nel 2015, permettono agli editori di news di distribuire articoli veloci e
interattivi ai loro lettori attraverso le app mobile di Facebook e Messenger. Essi consentono agli
editori di estendere l'impatto delle campagne pubblicitarie acquisite, inserendo slot pubblicitari
attraverso Facebook condividendo un 30% del ricavo.

In questo modo si contrappone una strategia di Network a una strategia nativa.


La strategia di network è incentrata sulla circolazione di link, contenuti, titoli, anteprime on-line
per re-indirizzare le audience al sito web del giornale dove sono inserite le inserzioni o i modelli di
abbonamento e donazione.
Le strategie native come Facebook Instant articles prevedono di ospitare direttamente sulle
piattaforme gli articoli, in connessione con la pubblicità.
Huffpost, Buzzfeed, Washington Post hanno una strategia prevalentemente nativa mentre New
York Times and Guardian Effect hanno principalmente strategie di networking.

Altro meccanismo di revenue è basato sui contenuti sponsorizzati, detti anche native advertising o
branded content.
Attraverso di esso gli editori trasformano la pubblicità in qualcosa di consumato in quanto
contenuto.
Si sfuma ulteriormente la distinzione tra contenuti indipendenti e contenuti pubblicitari che
vengono percepiti in maniera simile dagli utenti.

Molti giornali, consapevoli dei rischi legati alla piattaformizzazione della loro Indipendenza, hanno
iniziato strategie di business indipendenti dalla piattaforma e dalla pubblicità: forme di pagamento
di tipo hard & metered.
56

Nella variante hard i lettori accedono gratuitamente ad alcuni contenuti mentre devono pagare
per altri Premium.
Nella variante Metered i lettori possono vedere un certo numero di articoli gratuiti prima di
richiedere la sottoscrizione di un abbonamento.
Questo metodo ha consentito a NewYorkTimes,Wall Street Journal,Washington Post di
incrementare con successo la base di abbonati on-line e di costruire una relazione più diretta con
le loro audience, di cui hanno di nuovo il controllo sui dati la presentazione dei contenuti senza
poterti affidare a un'eco pubblicitarie.
Tuttavia, questo sistema funziona soltanto per testate che hanno già una reputazione forte è
identificabile, per le quali le persone sono disposte a paga.

CURATELA
Le piattaforme si stanno occupando anche di definire standard globali riguardo ai contenuti, che
possono essere condivise dalle testate giornalistiche.
I criteri di selezione tendono a rispettare i valori occidentali americani e quindi proibire contenuti
che includono nudità, violenza, spam, virus incitano all'odio o minacce.
Queste regole lasciano largo spazio interpretativo.
Nel 2017 sono stati fatti trapelare dei manuali di addestramento Facebook
per moderare i contenuti: dalle linee-guida emerge il tentativo di mediazione tra due istanze:
rimuovere contenuti che possano turbare da offendere e lasciare contenuti di rilievo.

Tuttavia, le pratiche di moderazione sono estremamente time-consuming e esose per le


piattaforme.
Per questo motivo si combinano anche:
- segnalazione degli utenti
- rilevamento automatico di immagine e parole.

LA PIATTAFORMIZZAZIONE DEL SETTORE DEI TRASPORTI


Un altro settore in cui avviene una massiccia ibridazione tra logiche di servizio pubblico e
piattaforme è quello dei trasporti, negli ultimi anni rinnovato dall’ingresso di piattaforme di
servizio come Uber, Bla bla car, e altri servizi di intermediazione che permettono agli utenti
(produttori e consumatori di servizi) di interfacciarsi e negoziare dei servizi.

Sebbene negli anni, per esempio, Uber si sia sottratto all’idea di essere un fornitore di trasporti,
cercando di configurarsi come semplice servizio di connective platform tra domanda e offerta,
diversi sono gli interrogativi che riguardano il suo ruolo nel modificare alcuni valori chiave del
servizio pubblico:
- accessibilità ai trasporti equa e inclusiva
- qualità del trasporto
- diritti dei lavoratori
Nel 2017 l’Unione Europea ha dichiarato che Uber deve essere considerato, in Europa, un
fornitore di trasporto, e quindi adeguarsi alle regole degli altri attori in merito (es. taxi)

L'introduzione di sistemi di condivisione di auto biciclette e corse, nonché le app per prenotare
taxi o programmare percorsi tramite trasporto pubblico e privato, hanno allargato enormemente
le possibilità di trasporto dei cittadini e semplificato la navigazione in un labirinto di servizi di
trasporto urbano differente e spesso non integrato.
57

Un ruolo incisivo lo hanno le app come Uber e Lyft che mettono in connessione conducenti e
passeggeri attraverso una app.
Tali aziende non possiedono alcuna infrastruttura nel settore e non assumono gli autisti, che si
comportano come aziende complementari.
I trasportatori possono essere tassisti professionisti, ma anche, attraverso il servizio Uberpop,
privati cittadini.

Accanto a queste compagnie ci sono quelle di carpooling come BlaBlaCar, Waze Carepool,
Snappcar, Get Around. Anche le compagnie tradizionali hanno creato piattaforme per rendere
accessibili i propri servizi, pianificare percorsi, acquistare biglietti.
Si è così creato un ecosistema per proposte integrate di pianificazione dei viaggi, con combinazioni
di trasporto pubblico, bike sharing, e servizi di trasporto come Uber.
Ne sono esempi app come Citymapper, Moovel, Transloc.

Tali servizi sono considerati attraenti per la facilità di utilizzo, combinata a prezzi competitivi
rispetto alle aziende tradizionali, anche dovuti alla noncuranza rispetto a regolamenti e
disposizioni di settore che permette di applicare tariffe più basse.
Queste piattaforme di servizio dipendono dalle piattaforme infrastruttura per strumenti generali
come la mappatura dei territori e geolocalizzazione, l'identificazione il pagamento l'elaborazione
delle informazioni sul traffico.

Google Maps possiede una quota di Uber e ha sviluppato un formato dati, che è attualmente lo
standard per i dati sui trasporti.
In questo ecosistema le piattaforme giocano un ruolo anche nella costruzione di automobili
intelligenti e di software di navigazione per i mezzi di trasporto.

Attraverso la raccolta di dati si aggiornano le condizioni del traffico, la domanda di


trasporto, i profili degli utilizzatori. Le attività datificazione permettono di ridurre i
costi di transazione come quelli necessari per trovare passeggeri o noleggiatori per un'automobile
e capire se sono affidabili, questo semplifica notevolmente il settore.

I dati provengono non solo dalle piattaforme, ma anche da sensori nell' infrastruttura stradale o
nei veicoli. In alcuni casi provengono dagli stessi utenti che segnalano cantieri o problematiche
sulla tratta.
Uber utilizza l'accelerometro dei telefoni dei passeggeri per rilevare cambiamenti nella velocità e
fluidità del traffico, la condizione della strada e presenza di buche.

La differenza tra sistemi di trasporto pubblici e privati tende a sfumare, Uber per esempio inizia a
fornire servizi di trasporto collettivi come Uber Pool. In alcuni casi, inoltre, le aziende di trasporto
pubblico vengono integrate con i dati Uber per completare tragitti non coperti dal servizio
pubblico o di transito tra una stazione e l'altra.
I dati generati dal sistema integrato delle piattaforme e dei servizi di trasporto sono di estremo
interesse per le amministrazioni e per la pianificazione delle Infrastrutture future.
Fino ad ora, tuttavia, le società piattaforme si dimostrano abbastanza restie a condividere tali dati
in un'ottica di valore pubblico.
58

LA PIATTAFORMIZZAZIONE DEL SETTORE DEI TRASPORTI: MERCATO


Sul piano del mercato Uber stabilisce le tariffe per le diverse città, trattenendo una percentuale
per la transazione tra il 25 e il 30%.
In alcuni casi la tariffa è decisa da algoritmi di Machine Learning che determinano quanto una
persona in una data situazione sarebbe disposta a pagare una corsa (per esempio quando ha la
batteria scarica).
Potrebbe significare che una corsa della stessa distanza che impiega la stessa quantità di tempo
potrebbe essere più costosa quando parte da un quartiere con elevato reddito o di affari.

Tuttavia, questo meccanismo può portare anche a distorsioni, come prezzi altissimi durante una
tempesta di neve, o tempi di attesa maggiori per passeggeri con più basso potere di acquisto.
Non c'è trasparenza sul meccanismo di formazione dei prezzi, nessuno sa se può andare a
vantaggio delle piattaforme, dei singoli autisti, dei clienti premium a scapito degli altri.

LA PIATTAFORMIZZAZIONE DEL SETTORE DEI TRASPORTI: COMPETITIVITÀ


Potendo sottrarsi alle regolamentazioni sul trasporto pubblico, Uber cerca di evitare che gli autisti
si attengano alle disposizioni che si applicano a taxi, come test di conoscenza del territorio, targhe
aziendali, qualificazioni specifiche, auto.
A NewYork, per esempio, i tassisti regolari contribuiscono con 30 cent al Taxi Improvement Fund,
fondo usato per garantire taxi a prezzi accessibili. Fino ad ora Uber si è rifiutato di applicare questa
Imposta.
Inoltre, il sistema può dimostrarsi meno inclusivo del servizio pubblico: i passeggeri hanno bisogno
di smartphone e carte di credito per usufruire del servizio, e non ci sono disposizioni per
passeggeri con disabilità.
Trasferire il trasporto urbano pubblico alle piattaforme significa anche progressivamente
diminuire la forza lavoro pubblica, a favore di forme di lavoro flessibile organizzate dalle
piattaforme stesse.

A lungo termine quello che può sembrare un modello di efficientizzazione potrebbe trasformare il
trasporto pubblico in “dinosauri del trasporto di Massa” indebolendo gli investimenti su
metropolitane e alternative pubbliche.
Questo espone a rischio futuro di un monopolio da parte delle piattaforme dei trasporti pubblici, e
il conseguente rischio di un aumento dei costi per questi servizi.

LA PIATTAFORMIZZAZIONE DEL SETTORE DEI TRASPORTI: LAVORATORI


Uber offre diversi servizi datificati che aiutano gli automobilisti a diventare autisti esperti, per
esempio fornisce Analytics che informano sui periodi della settimana in cui è prevista una
maggiore domanda.
Inoltre, ha creato una rete di aziende partner per noleggiare auto.
Gli autisti Uber hanno una certa libertà di stabilire il proprio orario lavorativo, e possono muoversi
in un’ideologia di libero mercato.
Anche le aziende traggono vantaggio perché possono attingere a lavoratori On Demand. Questo
vantaggio pare riverberarsi anche sui consumatori, che accedono a servizi più economici.

Tuttavia, la libertà di determinazione del lavoro è molto indirizzata dai dati e dalle piattaforme che
forniscono forti incentivi a pianificare il lavoro secondo i propri algoritmi, creando una “economia
59

comportamentale”: i suggerimenti della piattaforma appaiono molto prescrittivi, in quanto


provengono dal sistema che organizza il mercato e decide su domanda/offerta.
I suggerimenti possono costituire un vero e proprio apparato normativo: gli autisti ricevono
messaggi con i comportamenti desiderabili di guida, il loro punteggio settimanale e il confronto
con la media degli altri autisti.
Gli autisti, inquadrati come imprenditori, non beneficiano dei diritti comunemente riconosciuti ai
dipendenti, né si possono organizzare in forme di contrattazione collettiva.
Questo pare indebolire le tutele sociali dei lavoratori.

LA PIATTAFORMIZZAZIONE DEL SETTORE DEI TRASPORTI: CORRETTIVI


In diversi posti del mondo come San Paolo, si stanno sperimentando forme di sperimentazione
pubblica nel campo delle piattaforme di trasporto, tuttavia la competizione con i grandi player
globali risulta complessa.
Più fattibile appare l'interazione tra attori pubblici e piattaforme private, per esempio nel costruire
dati utili al miglioramento del sistema, monitorando per esempio le zone meno coperte dai
trasporti e attivando azioni correttive.
Informazioni potrebbero riguardare la correttezza delle aziende di intermediazione, permettendo
agli utenti di scegliere servizi in cui i diritti dei Lavoratori sono tutelati, c’è attenzione all'ambiente,
all'etica e alla sostenibilità, ecc.

Gregory Beteson - informazione come differenza

Shannon & Weaver - (1949) modello pacco postale o teoria matematica dell’informazione (
sorgente, apparato di trasmissione, canale o mezzo, fonte di rumore , apparato ricevente,
destinatario)

Wiener- cibernetica, aggiunge il feedback

Eco- modelli semiotici, ruolo attivo del destinatario

Ervin Goffman - definizione della situazione, facciata personale e metafora drammaturgica,


espressioni assunte (comunicazione in senso stretto) e lasciate trasparire

Anolli- comunicazione solo se c’è intenzionalità se no è solo scambio di informazioni

Sapir-Worf- teoria della relatività linguistica ( rapporto causale tra linguaggio e conoscenza, il 1
determina 2)

Austin - (anni 60/70) atto di parola diviso in atti locutori, perlocutori e illocutori

Ekman e Friesen (1978) - unità cinesiche 44

Hall - (1973) modello encoding decoding, (1966) Quattro zone della prossimità , cultural studies ( +
Hoggart)

Simmel- massa si fonda su parti che accomunano


60

Barry Wellman - nuove reti sociali weak ties e networked individualism

Harold Lasswell- modello 5w, (1948) funzioni dei media

Hovland - modalità di costruzione dei messaggi persuasori ( credibilità fonte, ordine e completezza
, conclusioni anche punto di vista), modello S-IV-R ( vediamo in oltre microtargeting e selettività
destinatari)

Lazarsfeld- (1948) ( con Barelson e Gaudet) teoria del flusso di comunicazione a due fasi,
esposizione selettiva ( con Barelson e McPhee), (con Katz) leader d’opinione orizzontali e verticali

Morton - leader d’oponione locali o cosmopoliti

Katz- (1973) 5 classi di bisogni a cui i mezzi rispondono

Noelle-Newman - (1980) spirale del silenzio

Gerbner-Gross - (1976) teoria della coltivazione

Marshall McLuhan - (1962) galassia Gutenberg ( eta acustica, della scrittura , stampa e elettrica) ,
medium come ambiente, medium freddi e caldi, medium come estensione dei sensi

Harold Innis - temporalità e spazialità

Walter Ong - analisi antropologica su passaggio oralità a scrittura

McCombs e Shaw -(1972) teoria della agenda setting

Boyd- (2014) media evidenziano peculiarità comun. Online che rendono difficile la reputazione (
persistenza, condivisibilita, ricercabilita, visibilità)

Milgram- teoria dei sei gradi di separazione

Mark Granovetter- i legami deboli sono più utili

Pariser- (2011) filter bubble

CARATTERISTICHE DEI MEDIA DIGITALI : multimedialità, immersivita, partecipazione , interattività


e intercreativita

LEGAMI DEBOLI E FORTI: stabiliti in base a quantità di tempo, intensità emotiva, intimità,
dedizione reciproca.

CAPIRALE SOCIALE: bridging ( legami deboli) e bonding ( legami forti)


61

Potrebbero piacerti anche