Fake News - Riassunto Aba Roma
Fake News - Riassunto Aba Roma
FAKE NEWS
PREMESSA
“Fake news” termine entrato nel diba5to poli7co e culturale che indica “no7zie false, con par7colare
riferimento a quelle di@use mediante la Rete”. Viene usato per descrivere le no7zie che circolano nei social
media o come arma con cui accusare i rivali, da sfoderare quando non si sa come uscire viDoriosi da un
diba5to. Le fake news sono diventate un elemento che caraDerizza la nostra esperienza quo7diana sui
social media. Almeno 90 si7 in Italia hanno l’obie5vo di creare delle fake news (la maggior parte di queste
non è totalmente falsa, ma presenta i fa5 in modo distorto e cerca di generare odio nel leDore). Essi
producono 600 fake news al giorno, ciascuna delle quali è condivisa una media di 350 volte (esempio di
“[Link]”). I mo7vi per creare le fake news sono due: guadagnare soldi o generare consenso. I si7
puntano alla prima scelta perché le fake news sono delle “esche da click” (clickbait) che arricchiscono i
creatori aDraverso i proven7 della pubblicità. Esse possono anche essere usate per orientare in maniera
signiXca7va lo scontro poli7co e le scelte eleDorali (Donald Trump). Lo studio di queste però non è ancora
oggeDo della ricerca scien7Xca e gli studiosi considerano il fenomeno solo marginalmente (senza la
comprensione delle moderne fake news e dei legami con i processi di comunicazione, costruzione sociale,
persuasione e interazione è di[cile capire i cambiamen7 che ques7 processi comportano e come
combaDere le fake news). Per comprendere caraDeris7che ed e@e5 delle fake news è giusto fare
riferimento a due ambi7 di ricerca: la “ scienza delle ret”, che vuole comprendere le proprietà delle
aggregazioni sociali e le modalità con cui queste si trasformano, e la “ciberpsicologia”, nuova area della
psicologia che vuole analizzare i processi di cambiamento a5va7 dai nuovi media.
Il termine “fake news” è solo un nuovo modo per deXnire i processi di disinformazione che da sempre sono
presen7 nella loDa poli7ca? No, perché esse sono il risultato di un lavoro di ingegneria comunica7va e
sociale totalmente nuovo rispeDo al passato e per questo sono in grado di induenzare i sogge5 e i gruppi
sociali con una velocità e un coinvolgimento mai vis7 prima nella storia della disinformazione: modiXcano la
percezione della realtà del soggeDo, ma sono anche in grado di induenzarlo Xno al punto da spingerlo a
condividerle in maniera spontanea e partecipata.
Fake news, che cosa sono – Il termine fake news nasce alla Xne del XIX secolo, negli Sta7 Uni7, per
descrivere una storia inventata, di solito in ambito poli7co, u7lizzata per danneggiare una persona o
un’is7tuzione. È solo a par7re dal 2015 che esso viene u7lizzato con il suo signiXcato aDuale per indicare
“informazioni false, spesso sensazionalis7che, di@use con la forma di una no7zia giornalis7ca” (termine
diventa popolare nel 2016 con le elezioni americane). Per alcuni leDori però è solo un nuovo modo per
deXnire i processi di disinformazione che sono presen7 nella loDa poli7ca (esempi: leDera falsa dello
spartano Pausania al re dei persiani Serse; Cicerone usa la disinformazione per evitare un accordo tra
Antonio e Bruto portando alla guerra civile; Stalin manipola il testamento di Lenin; le “pasquinate” mo5
sa7rici sui protagonis7 della vita poli7ca romana sulla statua di nome Pasquino; no7zia radiofonica del 1938
che annuncia l’arrivo dei marziani).
Di@erenze tra aDuali fake news e disinformazione:
Capacità di toccare la dimensione emo7va profonda del leDore, del popolo anomalo che vive sulla
rete;
La storia delle moderne fake news è legata alla tecnologia dei social media (sondaggio 50% delle
persone ha considerato come vera almeno una no7zia su Internet, poi rivelatasi falsa; 23% ha
condiviso una fake news). Le fake news hanno u7lizzato la proprietà di questa tecnologia per
modiXcare la percezione della realtà del soggeDo e per induenzarlo Xno al punto da spingerlo a
condividerle. Non abbiamo però ancora le idee chiare sui meccanismi che regolano le fake news.
La storia delle fake news moderne – Secondo mol7 esse nascono tra la Xne del 2015 e l’inizio del 2016
all’interno del diba5to poli7co legato alle elezioni presidenziali americane. Nonostante Hilary Clinton abbia
ricevuto mol7 più vo7 rispeDo a Trump, quest’ul7mo è diventato presidente (nessuno avrebbe previsto
questo risultato dai sondaggi e@eDua7 a metà del 2016). Cause della sconXDa della Clinton:
Eccessiva copertura delle sue mail;
Tardivo intervento del direDore dell’FBI;
SoXs7cata campagna di disinformazione del Cremlino;
Valanga di no7zie false.
Per quanto riguarda il punto 3, il KGB (Comitato per la sicurezza dello Stato), la principale agenzia di
sicurezza dell’Unione Sovie7ca, ha dedicato una parte delle proprie a5vità alla disinformazione. Esempi:
svas7che disegnate sui muri dagli agen7 del KGB in un villaggio sovie7co hanno risvegliato l’an7semi7smo
latente, ispirando alcune persone a nuovi a5 contro gli ebrei (secondo le ricerche la disinformazione
funziona meglio quando al suo interno c’è un evento reale, legato a un malessere socialmente percepito); a
causa di ar7coli sovie7ci, si è di@usa la no7zia che l’AIDS fosse il risultato di un esperimento di laboratorio
mal riuscito dagli americani (questo ha contribuito alla crescita del sen7mento an7americano). Le fake
news, presen7 anche negli Sta7 Uni7, si sono però sviluppate in Russia con l’arrivo al potere di Pu7n, che
sapendo di non poter contrastare gli Sta7 Uni7 a livello economico e militare, vede nella manipolazione
dell’informazione uno strumento e[cace per restaurare l’autorevolezza del suo paese (“guerra psicologica-
informa7va” con la sua e[cacia ha superato il potere delle armi). La disinformazione russa ha l’obie5vo
di indebolire il sistema americano, meDendo in evidenza le sue contraddizioni: sorveglianza dei ciDadini,
ceto poli7co che non si preoccupa degli interessi generali e un sistema poli7co condizionato dagli interessi
economici. Il principale strumento per raggiungere l’obie5vo è l’occupazione massiccia dello spazio
informa7vo aDraverso numerosi canali comunica7vi (Russia Today canale televisivo anche molto popolare
online, racconta l’interpretazione russa della realtà in salsa occidentale). Il secondo strumento comunica7vo
a disposizione del governo russo è Sputnik, un’agenzia di informazione che realizza no7ziari informa7vi, si7,
pagine sui social, applicazioni per le piaDaforme mobili, radio ecc. con l’obie5vo di promuovere la visione
russa del mondo. Ci sono altri strumen7 come Yandex (motore di ricerca), Facebook russo e Alice (Siri
sovie7ca). Diverse rivoluzioni della Russia, che hanno segnato il punto più basso dell’induenza sovie7ca,
sono state ricondoDe alla capacità del governo americano di u7lizzare i media per rendere visibili casi di
corruzione e far emergere il malcontento popolare. Il governo russo elabora una doppia strategia
d’intervento: la creazione di tecnologie per una guerra informa7ca e l’elaborazione di una guerra
informa7va per induenzare le opinioni e i comportamen7 delle popolazioni nemiche (dal 2007 la Russia ha
e@eDuato mol7 aDacchi di guerra informa7va o informa7ca). La parte più innova7va della strategia del
governo russo è quella che riguarda l’uso dei social media. Le a5vità di disinformazione che riguardano i
social sono coordinate dall’Internet Research Agency (IRA), i cui dipenden7 creano ogni giorno mol7
contenu7 digitali (esempio: blog soDo falso nome). Viene chiamata “fabbrica dei troll” sogge5 aggressivi
che intervengono sui social e nelle chat con commen7 provocatori e radicali fa5 appos7 per generare
condiDo e divisione. In questa Agenzia nascono le moderne fake news, che si dis7nguono da quelle
preceden7 grazie alla capacità dell’agenzia di u7lizzare i social per imporle come “fa5 sociali” all’interno di
un gruppo di riferimento, al punto da spingerlo a condividerle in maniera spontanea e partecipata (sono
invisibili e sconosciute al pubblico). Novità dell’Agenzia sono due:
1. Tu5 sapevano dell’esistenza dell’Agenzia, ma nessuno si è preoccupato di capire meglio l’impaDo
reale di quello che faceva (i governi stranieri hanno u7lizzato Facebook per induenzare l’esito delle
elezioni, senza che nessuno se ne accorgesse);
2. Livello di impaDo generato in proporzione al budget u7lizzato (con meno di 100 mila euro, l’Agenzia
ha raggiunto più di 150 milioni di eleDori americani con fake news e falsi proXli).
L’elemento che caraDerizza le fake news moderne è la capacità di impaDare sui sogge5 e sui gruppi sociali
con una velocità e un coinvolgimento mai vis7 prima nella storia della disinformazione (su TwiDer le fake
news si di@ondono 6 volte più rapidamente rispeDo alle no7zie vere e hanno il 70% in più di probabilità di
essere ritwiDate).
Fake news e social media – In meno di 30 anni, i media hanno cambiato le nostre pra7che comunica7ve. Se
analizziamo cosa fanno gli uten7 su Internet ci accorgiamo che la maggior parte del tempo è trascorsa sui
social. La crescente importanza dei social è un processo di trasformazione sociale con un impaDo direDo sui
meccanismi di costruzione e condivisione della realtà sociale e della nostra iden7tà sociale, che ha posto le
basi per la nascita e di@usione delle fake news moderne.
I social non sono soltanto luoghi virtuali d’incontro e di condivisione, ma secondo sue ricercatrici americane
sono caraDerizza7 da 3 elemen7:
1. Presenza di uno “spazio virtuale” in cui l’utente può costruire ed esibire un proprio proXlo che deve
essere accessibile a tu5 gli uten7 dello spazio;
2. Possibilità di creare una lista di altri uten7 (rete) con cui è possibile entrare in contaDo e
comunicare;
3. Possibilità di analizzare alcune caraDeris7che della propria rete (messaggi trasmessi o connessioni
degli altri uten7).
Questa deXnizione non chiarisce l’impaDo psicologico dei social network.
Social network piaDaforma digitale che permeDe all’utente di ges7re sia la propria rete sociale
(organizzazioni, estensione, esplorazione e confronto), sia la propria iden7tà sociale (descrizione e
deXnizione). Questa deXnizione introduce il conceDo di “iden7tà sociale” e di “rete sociale”, che fanno da
ponte tra il soggeDo e i social, permeDendoci di spiegarne la relazione e l’importanza per le fake news. La
costruzione della propria iden7tà è il risultato di un progressivo adaDamento all’ambiente Xsico e sociale. La
nostra sogge5vità si sviluppa aDraverso la consapevolezza e l’integrazione di ciò che vediamo di noi da
dentro (iden7tà personale) e di ciò che vediamo di noi da fuori (iden7tà sociale).
Rete sociale insieme di persone a cui ciascuno di noi è collegato da una forma qualsiasi di relazione
sociale (membri della famiglia, compagni di classe ecc.). A caraDerizzare una rete sociale non è il 7po di
relazione (ciò che dis7ngue i diversi gruppi sociali presen7 all’interno della propria rete colleghi e non
colleghi), ma la presenza di una relazione.
Iden7tà sociale consapevolezza dell’insieme delle caraDeris7che delle diverse “posizioni” assunte dal
soggeDo all’interno dei gruppi sociali che compongono la sua rete sociale (esempio: “posizione” di “docente
universitario” all’interno del gruppo sociale “università” quando faccio lezione ai miei studen7, mentre la
“posizione” di “marito” quando sono nel gruppo sociale “famiglia”).
La consapevolezza della propria posizione all’interno di un gruppo sociale è caraDerizzata da 3 dimensioni:
1. Seman7ca consente di riconoscere in noi stessi le caraDeris7che che ci iden7Xcano come membri
di una speciXca posizione (sono “marito”, non “Xdanzato” perché ho sposato mia moglie);
2. Comportamentale/norma7va deXnisce una serie di azioni/regole che caraDerizzano una speciXca
posizione in cui il soggeDo si iden7Xca (se sono “studente” devo andare a lezione) o si vuole
iden7Xcare (se voglio diventare “marito” devo sposarmi);
3. Valoriale genera un inves7mento emozionale noi confron7 della posizione in cui ci si iden7Xca e
porta alla creazione di un sistema valoriale organizzato intorno a tale appartenenza (come “7foso
della Juve” sono pronto a sostenere la mia squadra e a considerare rivali i 7fosi del Napoli).
Il risultato è una gerarchia di numerose appartenenze (posizioni), in cui il soggeDo si iden7Xca a seconda
della situazione in cui si trova e che deXnisce il modo in cui si comporterà e le scelte che farà (esempio:
sono un “docente universitario” quando faccio lezione ai miei studen7, ma torno ad essere “padre” se mia
moglie mi chiama dicendo che nostra Xglia non sta bene).
Fino alla nascita dei social network, le re7 sociali che caraDerizzavano la nostra vita quo7diana e quelle del
mondo digitale erano dis7nte. Con la nascita dei social questa separazione cade generando un nuovo spazio
sociale, che porta a una connessione direDa tra mondo Xsico e mondo digitale. Oggi i nostri comportamen7
all’interno dei social sono subito visibili sia dagli “amici” e “follower”, sia dai social che li raccolgono e li
studiano per poi venderli ai propri inserzionis7. Ogni comportamento agito nei social meDe direDamente in
relazione la nostra sogge5vità con quella degli altri membri della rete e con i contenu7 mediali da essi
prodo5 (oggi non siamo più “oggeDo” di comunicazione, ma “soggeDo” di questa). Quello che faccio nel
mondo digitale ha un’induenza direDa sul mondo Xsico e viceversa, indipendentemente dal faDo che io lo
voglia o meno. Per esempio cambiare lo status in un social da “impegnato” a “single” produce e@e5 anche
nella nostra vita quo7diana (richiesta di spiegazioni da un amico che ha appena scoperto il cambiamento).
Interrealtà nuovo spazio sociale ibrido che mescola il mondo digitale con quello Xsico. E@e5 di questo
cambiamento:
Trasformazione dei nostri comportamen7 sui social in un processo implicito o esplicito di confronto
e costruzione sociale;
Rendere i social delle tecnologie di comunità che possono potenziare, contrapporsi e sos7tuire le
comunità Xsiche.
La creazione di nuove comunità digitali produce “fa5 sociali” con un potere coerci7vo sulle iden7tà sociali
dei membri della rete (trasformazione fake news in “fa5 sociali” forza e impaDo).
Il potere dei fa: sociali – Il potere coerci7vo dei fa5 sociali nasce dall’importanza che per ciascuno di noi
ha il sen7rsi parte di un gruppo.
Iden7tà sociale parte fondamentale della nostra iden7tà che nasce aDraverso la consapevolezza delle
diverse “posizioni” che abbiamo all’interno del gruppo a cui apparteniamo (nel momento in cui acce5amo
di avere quella posizione, acce5amo anche le opportunità e i vincoli che essa prevede). È il soggeDo che
consapevolmente acceDa oneri e onori della propria iden7tà sociale.
A spingere il soggeDo ad adeguarsi alla decisione del gruppo sono altri due faDori:
Cascata informa7va sogge5 prendono le proprie decisioni Xdandosi delle scelte faDe dagli altri,
senza rideDere sulle proprie informazioni o sviluppare una propria opinione;
Cascata reputazionale i sogge5, pur essendo convin7 della verità delle proprie opinioni, si
uniformano al potere del gruppo per non perderne la s7ma.
4 faDori in grado di deXnire il potere coerci7vo di ques7 fenomeni:
Rilevanza del gruppo per l’iden7tà sociale del soggeDo quando un soggeDo incarna un’iden7tà
sociale, ne acceDa anche le opportunità e i vincoli. Maggiore è l’importanza dell’iden7tà sociale per
la sua sogge5vità, maggiore sarà l’induenza che essa eserciterà su decisioni e comportamen7;
Importanza e rilevanza dell’argomento per il soggeDo il processo decisionale può seguire 2 diversi
canali: “centrale” (il soggeDo prende una decisione dopo un’analisi accurata che richiede
aDenzione, comprensione e valutazione dei contenu7 disponibili) e “periferico” (il soggeDo prende
una decisione dopo un’analisi superXciale che si basa su elemen7 di sfondo di 7po indireDo come le
caraDeris7che della fonte, la piacevolezza o l’autorevolezza del messaggio). A spingere il soggeDo
verso uno o l’altro percorso decisionale sono sia la rilevanza dell’argomento per il soggeDo, sia il
tempo a disposizione per la decisione;
Numerosità del gruppo che supporta una scelta più è elevato il numero di persone che a@ermano
l’evidenza del faDo sociale, maggiore è il suo livello di coercizione sul soggeDo.
Riprova sociale l’evidenza diventa massima quando le scelte del soggeDo, in quanto membro di
un gruppo molto ampio, smeDono di essere riconoscibili individualmente (“deindividuazione”). Il
soggeDo deindividualizzato è pronto a seguire le indicazioni del faDo sociale ciecamente, anche se
possono portare a comportamen7 radicali o estremi;
Mancanza di condi5 all’interno del gruppo l’evidenza del faDo sociale diminuisce dras7camente
se esistono altri sogge5, anche uno solo, che a@ermano una posizione contraria a quella del
gruppo.
Fake news e[caci trasformarle in fa5 sociali, supporta7 dal numero più elevato possibile di sogge5 della
rete. Se una fake news diventa un faDo sociale sono possibili tre conseguenze:
Se il soggeDo la interiorizza, diventerà lui stesso un sincero sostenitore della sua verità;
Se non la interiorizza ma teme il giudizio sociale, eviterà di contraddirla per paura di e@e5 nega7vi;
Solo chi non teme il giudizio sociale, o si sente supportato nella cri7ca, sarà pronto a intervenire per
contestarne i contenu7.
Si possono u7lizzare le fake news per indebolire i fa5 sociali già esisten7, aDraverso la messa in discussione
esplicita dei loro contenu7 (esempio precedente dell’Unione Sovie7ca indebolire l’autorità poli7ca e
morale degli Sta7 Uni7 meDendo in evidenza le contraddizioni del sistema americano).
Chatbot bot che ha il compito di simulare una conversazione con un utente umano. Sono più
soXs7ca7 dei bot perché al loro interno ci sono sia un sistema di riconoscimento del linguaggio
naturale, sia un sistema di intelligenza ar7Xciale in grado di comprendere il senso del discorso e di
rispondere adeguatamente (Siri russo 7po di chatbot vocale in grado di rispondere a domande
che viene usato come strumento di disinformazione fornendo risposte sulla storia russa in linea con
la visione del governo). La stessa intelligenza ar7Xciale può essere associata a falsi proXli social per
comunicare con altri uten7 e trasformare le fake news in fa5 sociali condivisi.
I chatbot sono sempre più u7lizza7 dalle aziende in sos7tuzione dei call center in ambito
commerciale e nel supporto ai clien7 (esempio: Messenger di Facebook).
Le comunità di pratca
Pra7ca modo di procedere abituale (abitudine) appresa con l’esperienza, che ci guida in maniera intui7va
e inconsapevole ogni volta che ci troviamo in una situazione simile a quella appresa. La psicologia cogni7va
ha dimostrato che ciascuno di noi, aDraverso i processi di azione e di interpretazione, tende a sviluppare in
maniera automa7ca sempre nuove pra7che che successivamente guideranno la rilevazione e l’aDuazione
delle nostre intenzione nell’ambiente. Le pra7che non riguardano solo il singolo individuo, ma anche i
membri di un gruppo che, mediante l’esperienza comune, arrivano a condividere una cultura, un proprio
linguaggio e un modo di esprimersi che può essere deXnito appunto “comunità di pra7ca” (è all’interno
dell’insieme di queste pra7che condivise che ciascun membro del gruppo impara ciò che va faDo nelle
diverse situazioni: la conoscenza comune di 7po pra7co media culturalmente l’azione dei suoi appartenen7
in modo tale da rendere prevedibili, integrabili e comprensibili i contribu7 di tu5).
A rendere una rete sociale una comunità di pra7ca sono 3 caraDeris7che: impegno reciproco, impresa
comune e repertorio condiviso di risorse interpreta7ve generano un common ground (insieme di
credenze, obie5vi e conoscenze comuni), fruDo di un apprendimento implicito, narra7vo e situato a essere
e ad agire come membro della rete. Questo apprendimento è caraDerizzato da 2 funzioni complementari e
convergen7:
Partecipazione coinvolgimento a5vo e iden7Xcazione con la rete di appartenenza;
ReiXcazione cristallizzazione del common ground in norme esplicito e artefa5, aDorno ai quali
vengono organizza7 la rinegoziazione di nuovi signiXca7 e il coordinamento delle azioni future
(nell’esempio sopra l’artefaDo potrebbe essere la lista delle domande faDe dal professore e dagli
assisten7 agli esami e i vo7 oDenu7 dagli studen7).
Questo patrimonio colle5vo viene con7nuamente aggiornato dalla rete u7lizzando un processo di
condivisione consapevole di conoscenze (grounding) riferite agli obie5vi comuni dei sogge5 della rete
stessa (esempio sopra se alcuni studen7 avessero notato che i vo7 da7 da Stefano nelle ul7me sessioni
erano molto più bassi rispeDo a quelli di Andrea, la rete non avrebbe avuto problemi ad adaDare il faDo
sociale alla nuova situazione: è Stefano e non Andrea l’assistente più ca5vo).
L’esempio mostra come una di@erenza importante tra fa5 sociali situa7 e fa5 sociali is7tuzionali sia legata
al diverso grado del loro potere coerci7vo: i primi hanno un potere coerci7vo limitato ai membri della rete e
Xnalizzato al solo raggiungimento dell’obie5vo comune; i secondi si impongono al membro della rete
indipendentemente dall’obie5vo del soggeDo e hanno il compito di permeDere alla rete sociale di regolare
e perpetuare la propria esistenza (il faDo is7tuzionale “esame di Stato in psicologia” consente di regolare
l’accesso all’albo professionale e di legi5marne l’esistenza).
La di@erenza tra fa5 is7tuzionali e fa5 situa7 è parallela a quella tra is7tuzioni e movimen7. I movimen7 si
caraDerizzano per la presenza di un obie5vo comune che la rete cerca di raggiungere in maniera
collabora7va (la volontà di raggiungere l’obie5vo è più importante della struDura e della sopravvivenza
della rete); le is7tuzioni hanno invece l’obie5vo di conservare e aDuare norme o a5vità sociali e giuridiche
deXnite in precedenza all’interno della rete (all’interno delle is7tuzioni ci sono sogge5 che hanno uno
status superiore gius7Xcato dalla conoscenza o dalla fedeltà alle norme e/o a5vità che si vogliono
conservare e aDuare).
Fake news trasformazione in fa5 sociali. Ma di quali fa5 sociali s7amo parlando?
Trasformare le fake news in fa5 is7tuzionali è possibile (Germania nazista superiorità razza ariana
imposta come faDo sociale is7tuzionale), ma molto complesso e avviene solo all’interno di diDature o Sta7
totalitari. Richiede un supporto esplicito delle is7tuzioni della rete (in Germania trasformare la superiorità
della razza ariana era il compito is7tuzionale del ministero della Propaganda) e la capacità di queste di
controllare i mezzi di comunicazione per eliminare le eventuali fon7 di dissenso.
Fake news si propongono come fa5 sociali situa7. Nel mondo o{ine un approccio del genere sarebbe
impossibile perché bisognerebbe iden7Xcare tra i milioni di gruppi disponibili quelli caraDerizza7 dalla
comunità di pra7ca; poi bisognerebbe avere migliaia di agen7 da inserire nei gruppi iden7Xca7; gli agen7
dovrebbero comprendere la psicologia dei sogge5 della rete e le mo7vazioni che li spingono a voler
raggiungere gli obie5vi del gruppo; inXne, u7lizzando tali informazioni, gli agen7 dovrebbero riuscire a
inserirsi nelle interazioni della rete e proporre le fake news come fa5 situa7 direDamente rilevan7 per gli
obie5vi del gruppo e coeren7 con la psicologia dei diversi membri. I social hanno invece reso possibile
aDuare nel mondo digitale questo 7po di strategia, anche se l’hanno compresa in pochi: IRA; l’azienda
inglese SCL (Strategic Communica7on Laboratories) Group aDraverso Cambridge Analy7ca di cui il
responsabile della campagna presidenziale di Trump, era uno dei fondatori; la società Webegg e Casaleggio
per la nascita e la crescita del M5S.
A facilitare questa strategia è stato l’u7lizzo di “cyber-truppe” i cui solda7 sono i “troll”, i “bot” e i “chatbot”.
I troll sono uten7 dei social media che hanno l’obie5vo di intervenire sui social e nelle chat generando
condiDo e divisione; i bot e i chat bot sono invece falsi proXli social controlla7 da programmi di intelligenza
ar7Xciale che hanno il compito di condividere (bot) o commentare (chatbot) le fake news.
Come i social media hanno cambiato le comunità di pra7ca trasformandole in smart mobs (folle
intelligen7)?
Smart mob comunità di pra7ca che usa i media digitali per realizzare meglio e più velocemente le proprie
imprese comuni (Howard Rheingold). Due proprietà (che non hanno le comunità di pra7ca o{ine):
Dimensione può raggiungere milioni di uten7;
Disintermediazione permeDe di creare fa5 sociali situa7 con un potere coerci7vo elevato, al
punto di meDere in discussione i fa5 sociali is7tuzionali presen7 nelle re7 di cui essi fanno parte.
I primi a meDere in aDo questo potenziali sono sta7 i protagonis7 della sharing economy che hanno
permesso ai loro membri di oDenere delle iden7tà professionali (driver e host) senza dover passare
aDraverso un’is7tuzione e i vincoli che questa impone (le stesse proprietà che hanno permesso la sharing
economy nascita della Xgura del social induencer e di@usione fake news).
Smart mobs: le comunità di pratca digitali – Le re7 sociali e l’interrealtà (fusione del mondo digitale con il
mondo Xsico) hanno trasformato in maniera radicale le comunità di pra7ca digitali.
Insieme dei modelli imprenditoriali in cui le a5vità sono facilitate da piaDaforme di collaborazione
che creano un mercato aperto per l’uso temporaneo di beni o servizi spesso forni7 da priva7
(rapporto della Commissione europea);
Valore derivante dal rendere risorse soDou7lizzate accessibili online ad una comunità, riducendo la
necessità di possedere tali risorse da parte degli individui (Mario Maggioni).
Il valore generato dalla sharing economy non riguarda solo i proprietari delle piaDaforme collabora7ve che
consentono l’accesso alle risorse condivise. È importante la possibilità delle smart mobs di u7lizzare
l’interrealtà per produrre fa5 sociali situa7 in grado di generare cambiamen7 di status nel mondo o{ine.
L’assunzione di uno status all’interno di un gruppo è un processo sociale risultato dell’interazione e della
negoziazione con gli altri membri della rete di cui facciamo parte. Data la cri7cità del processo di
aDribuzione dei diversi status, per i vantaggi che possono portare, in mol7 gruppi vengono create delle
is7tuzioni (sistema scolas7co) che aDraverso una serie di re7 (professori) hanno il compito di controllarne
l’accesso e la distribuzione ai diversi membri. La comunità di pra7ca ci consente di oDenere il servizio che
cerchiamo direDamente all’interno della rete, disintermediando l’is7tuzione “taxi” che prima consen7va di
oDenerlo in esclusiva (online diventa possibile o@rire o trovare un passaggio, facendo dimen7care che
esistano i tassis7).
Mario Maggioni all’interno delle re7 sociali esistono molte risorse soDou7lizzate. Le comunità di pra7ca
digitali, quando sono su[cientemente grandi, sono in grado di sfruDare queste risorse, generando un
valore economico elevato che società come Uber e Airbnb hanno imparato a raccogliere. Le re7 sociali
digitali, grazie all’interrealtà, sono in grado di trasformare una classica a5vità 7pica dell’economia informale
in un’a5vità economica a tu5 gli e@e5.
Identtà sociale e cambiamento di “status” – C’è una possibilità di creare di@erenze di status alterna7ve a
quelle prodoDe dalle is7tuzioni. Ogni comunità di pra7ca aDribuisce ai propri membri una “posizione”, uno
status di 7po pragma7co e informale (viaggiatore) proprio per il faDo di u7lizzare la rete per raggiungere
uno speciXco obie5vo. L’assunzione di questa “posizione”, che Xnisce per integrarsi nell’iden7tà sociale del
soggeDo, è sempre un processo condiviso, che nasce dall’interazione con gli altri membri della comunità di
cui facciamo parte. ADraverso questa interazione negoziamo chi siamo e cosa facciamo in vista dell’obie5vo
comune (esempio: se gioco a fare la cuoca con Ka7a e lei acceDa che io lo sia e io acceDo che lei sia una
cameriera in vista dell’obie5vo comune “diver7rsi” io divento una cuoca e lei una cameriera). Questa
“posizione” ha valore solo all’interno della comunità di cui sono membro (quando Xnisce il gioco io non
sono più cuoca, Ka7a non è più cameriera). Nelle re7 sociali Xsiche, che sono limitate da vincoli spazio-
temporali, non ci sono problemi (se io voglio fare la cuoca e Ka7a lo acceDa non è un problema per
nessuno). Ma con le re7 sociali digitali, le comunità di pra7ca hanno milioni di membri (se io riesco a
convincerli che sono una cuoca divento a tu5 gli e@e5 una cuoca, senza l’acquisto di una licenza). Essere
considera7 una cuoca dagli altri membri della rete è un faDo sociale situato, risultato della condivisione di
un common ground e di un obie5vo comune tra i membri della comunità.
A@ermare che io sia una cuoca è una fake news? Dipende per i membri della comunità di no, per chi ne è
al di fuori sì. La comunità di pra7ca farà di tuDo per sostenere al proprio esterno la verità dell’a@ermazione.
Per l’obie5vo comune la verità del faDo sociale situato è essenziale (se Tizio non è un’au7sta io non posso
avere il passaggio). La messa in discussione del faDo sociale situato meDe in discussione anche l’iden7tà
sociale e il “capitale sociale” generato dagli aspe5 psicologici, razionali e struDurali dell’essere membro
della comunità (se solo i tassis7 possono spostare le persone la mia comunità smeDe di esistere). La
comunità farà di tuDo per contrastare chi meDe in discussione tale verità e in maniera correlata anche la
sua stessa iden7tà sociale e la propria esistenza come comunità.
Processo di creazione delle fake news prima iden7Xco una comunità di pra7ca, una rete che sia legata da
una serie di conoscenze e valori simili, oltre che da un obie5vo comune. Poi creo le fake news in modo che
descrivano dei fa5 sociali situa7 direDamente lega7 al raggiungimento o al mancato raggiungimento
dell’obie5vo comune (esempio: dico che Tizio, e/o il gruppo/par7to, con il suo comportamento ha messo in
discussione i valori o l’obie5vo comune che ci lega e che deXnisce la mia iden7tà sociale all’interno della
comunità. Se ci riesco sarà la comunità stessa a supportare e a difendere le verità delle fake news).
Le fake news si di@ondono 6 volte più rapidamente rispeDo alle no7zie vere perché meDono maggiormente
in discussione l’iden7tà sociale del membro della rete. Se le storie vere ispirano partecipazione, tristezza,
gioia e Xducia, le fake news ispirano paura, disgusto e sorpresa. Le fake news più veloci sono quelle che
riguardano la poli7ca rispeDo a quelle rela7ve a terrorismo, disastri naturali, scienza, leggende
metropolitane o informazioni Xnanziari: le fake news poli7che sono quelle che normalmente hanno un
collegamento maggiore con l’obie5vo comune della rete.
I primi ad accorgersene sono sta7 i protagonis7 della sharing economy, come Uber o Airbnb se voglio
essere un tassista e un gruppo di persone all’interno di una rete acceDa di considerarmi come tale, io per
loro divento un au7sta a tu5 gli e@e5. Per mol7, il potere delle re7 sociali di cambiare lo status sociale,
indipendentemente da meccanismi di 7po ogge5vo e anche in contrasto con quanto a@ermato dalle
is7tuzioni esisten7, è la cosa più di[cile da acceDare o da credere (aDeggiarsi come esper7 di moda in un
blog ci può trasformare in esper7 di moda). Con la disintermediazione non c’è più alcuna is7tuzione a
veriXcare la presenza di una serie di requisi7 minimi che facciano da barriera d’entrata (se non so scrivere,
ma quello che scrivo piace ai leDori, allora posso diventare uno scriDore o un blogger).
Basta avere una rete sociale su[cientemente grande (re7 digitali aiutano molto) che sia disposta a
sostenermi. Oggi crearsi una rete sociale digitale è diventato il sistema più veloce di mobilità sociale. Se si è
in grado di costruire una grande rete sociale digitale e questa rete sociale è disposta ad aDribuirmi uno
status (blogger), allora si o5ene lo status indipendentemente da qualunque altro faDore, compresa la
competenza. Il conceDo di post-verità rimanda a questa nuova caraDeris7ca delle re7 sociali. Post-verità
(secondo Treccani) “argomentazione” caraDerizzata da un forte appello all’emo7vità, che basandosi su
credenze di@use e non su fa5 veriXca7 tende a essere acceData come veri7era, induenzando l’opinione
pubblica. Grazie all’interrealtà non solo le re7 o{ine ma anche quelle digitali sono in grado di produrre fa5
sociali. Ques7 nuovi fa5 sociali (fa5 sociali situa7) si impongono come veri all’individuo anche davan7 a
un’evidenza ogge5va contraria (uno degli ambi7 in cui questa nuova possibilità è stata maggiormente
u7lizzata è la poli7ca).
La nascita dei social inGuencer – ADraverso il processo di acquisizione di uno status mediante la creazione di
una rete sociale digitale è nata una delle Xgure proto7piche del mondo social degli ul7mi anni: il social
induencer.
In>uencer personaggio popolare sui social network in grado di esercitare un indusso sulle scelte di
seDori dell’opinione pubblica (ci sono personaggi popolari sui social come i calciatori per mo7vi non
direDamente collega7 alla loro presenza in rete). I social induencer invece devono la loro popolarità proprio
alla capacità di costruire intorno a sé una rete digitale di persone che li riconosce come tali. Dietro al
fenomeno dei social induencer si nasconde una vera e propria a5vità che dal punto di vista economico non
ha niente da invidiare alle professioni più desiderate (medico, ingegnere).
Il punto di partenza per gli induencer italiani è il sito Audisocial che aDraverso una serie di parametri
ogge5vi (numero di follower, di interazioni, quan7tà di contenu7 prodo5) elabora la classiXca dei primi
100 social induencer. Tranne i primi nomi della lista (Gianluca Vacchi e Chiara Ferragni) la maggior parte
degli altri social induencer è sconosciuta al di fuori della propria rete di riferimento. Fare il social induencer
è una professione reddi7zia. Per postare contenu7 concorda7 con uno sponsor, l’induencer viene pagato a
seconda della dimensione della propria rete (con 100 mila follower 500 euro a contenuto; 500 mila
follower da 500 a 5000 euro; oltre un milione di follower da 2500 a 10000 euro).
Chiara Ferragni, una delle principali social induencer italiane, con l’insieme di tuDe le sue a5vità è in grado
di produrre ogni anni un faDurato tra i 10 e i 20 milioni di euro, come una media impresa commerciale. Il
numero di post genera7 dai social induencer è in con7nuo aumento: solo su Instagram erano oltre 12
milioni nel 2017 e hanno generato un faDurato di un miliardo e mezzo di euro.
Ma i post sponsorizza7 dei social induencer sono delle fake news? Secondo l’Autorità garante della
concorrenza e del mercato sì.
Scrive l’Autorità:
Per questo la maggior parte degli induencer ora segnala i propri post sponsorizza7 con i tag #ad e #sponsor.
Può bastare l’hashtag #ad per far capire agli uten7 che se il loro beniamino gli consiglia una borsa lo fa per
lavoro e non per hobby? E agli uten7 interessa? La risposta è no, alla maggior parte degli uten7 non
interessa. Lo spiega la psicologia della persuasione il principio della riprova sociale dice che per decidere
la condoDa giusta ci basiamo su come si sono comporta7 gli altri, ma sopraDuDo se sono simili a noi (se io
ritengo Tizia una induencer e lei usa la borsa ricevuta dallo sponsor, per me il faDo che la usi è più
importante del perché la usi). Quindi il comportamento dell’induencer, in quanto elemento centrale della
rete, è comunque un faDo sociale situato, in grado di produrre emulazione indipendentemente dal perché
viene faDo. Anche uno strumento pubblicitario u7lizzato ben prima della nascita dei social (l’uso di
tes7monial) si basa sullo stesso meccanismo. Di@erenza gli aDori o spor7vi famosi sono pochi mentre è
possibile creare un induencer semplicemente costruendogli intorno una rete sociale digitale. Anzi è
possibile creare la rete sociale digitale proprio per raggiungere esaDamente in target che vogliamo.
La produzione di fake news come fa5 sociali situa7, direDamente lega7 al raggiungimento o al mancato
raggiungimento dell’obie5vo comune di una comunità di pra7ca digitale, posso convincere i membri della
comunità stessa a supportare e a difendere la verità delle fake news. Questo meccanismo funziona solo se:
Le fake news sono costruite in modo da rideDere gli obie5vi, gli interessi e le personalità dei
membri della comunità;
Le fake news sono viste da un numero su[cientemente elevato di membri della comunità;
I membri della comunità non si accorgono che le no7zie sono false;
Le altre no7zie presen7 nella comunità non sono su[cientemente in contrasto con i contenu7 delle
fake news;
Un numero basso di membri della comunità si informa al di fuori di essa.
Sembrano condizioni di[cili da aDuare, ma le caraDeris7che dei social media facilitano il raggiungimento di
tu5 ques7 elemen7.
Usare i social network per comprendere la personalità degli utent – Come facciamo a costruire delle fake
news che oDengano il supporto della comunità in cui vogliamo di@onderle?
L’ar7colo di Sandra Matz, in7tolato Il targetng psicologico come approccio eKcace alla persuasione digitale
di massa, recita:
È quindi possibile, conoscendo gli interessi dei membri di una rete, comprenderne le caraDeris7che di
personalità e generare dei messaggi persuasivi personalizza7 in grado di induenzarne i comportamento.
Barack Obama primo poli7co a capire l’importanza della creazione di messaggi personalizza7 a scopo di
persuasione poli7ca (u7lizza7 dalla campagna presidenziale del 2008). Il direDore del team sta7s7co di
Obama decise infa5 di spostare la strategia di comunicazione della campagna dai gruppi al singolo
individuo:
Nel 2008 il team di Obama ha raccolto decine di migliaia di interviste a eleDori potenziali negli Sta7 chiave
con cui ha poi costruito cen7naia di proXli di riferimento per i quali venivano formula7 speciXci messaggi a
scopo persuasivo u7lizza7 negli incontri con gli eleDori. Nel 2012 il team decise di spostare questo
approccio sui media digitali, testando i diversi messaggi persuasivi con telefonate, SMS ed e-mail invia7 ai
potenziali eleDori. La strategia descriDa da Matz richiede anche un altro elemento: oltre agli interessi
bisogna conoscere anche la personalità degli eleDori. E bisogna farlo aDraverso dei test di personalità.
Test di personalità = strumento psicologico che usa le risposte del soggeDo a un insieme di s7moli
standardizza7 (domande o immagini) per arrivare a deXnirne un proXlo di personalità. Il più u7lizzato è il Big
Five Ques7onaire (BFQ 2). Quest’ul7mo u7lizza le risposte date a 134 domande per descrivere e valutare la
personalità di un soggeDo in base a cinque dimensioni fondamentali:
Energia presenza o meno di un orientamento Xducioso ed entusiasta nei confron7 delle varie
circostanze della vita, la maggior parte delle quali è interpersonale;
Amicalità presenza in posi7vo di caraDeris7che come l’altruismo, il prendersi cura, il dare
supporto emo7vo e, in nega7vo, di caraDeris7che quali l’os7lità, l’indi@erenza verso gli altri e
l’egoismo;
Coscienziosità presenza o meno di caraDeris7che come la precisione e l’accuratezza, l’a[dabilità,
la responsabilità, la volontà di avere successo e la perseveranza;
Stabilità emo7va presenza in nega7vo di caraDeris7che collegate all’ansietà e a problemi di 7po
emo7vo, quali la depressione, l’instabilità di umore, l’irritabilità;
Apertura mentale presenza o meno di caraDeris7che come l’apertura verso nuove idee, verso i
valori degli altri e verso i propri sen7men7.
Per ognuna delle 5 dimensioni sono state individuate due soDodimensioni, ciascuna delle quali fa
riferimento ad aspe5 diversi della stessa dimensione: dinamismo e dominanza per l’energia; coopera7vità e
cordialità per l’amicalità; scrupolosità e perseveranza per la coscienziosità; controllo dell’emozione e
controllo degli impulsi per la stabilità emo7va; apertura alla cultura e apertura all’esperienza per l’apertura
mentale.
Per la sua e[cacia nell’iden7Xcare la personalità dei sogge5, il BFQ 2 è u7lizzato in diversi ambi7
professionali: nella valutazione del potenziale, nell’orientamento scolas7co/professionale, nell’assessment
clinico e individuale o nella selezione del personale. L’uso di questo strumento per analizzare la personalità
di tu5 i membri di una rete sociale si scontra con 2 problemi:
Ogni membro della rete dovrebbe voler rispondere a 134 domande e condividere i risulta7 con noi;
Qualora succedesse, il costo di valutazione di ogni ques7onario sarebbe di 50 euro (rete di un
milione di persone 50 milioni di euro).
Soluzione a ques7 due problemi ricercatore polacco Michal Kosinski dell’Università di Stanford che ha
iniziato il proprio doDorato di ricerca nel 2008 nel Centro di psicometria di Cambridge, analizzando le
correlazioni tra i test di personalità e i proXli Facebook. Grazie alla creazione di un’App per Fb
(MyPersonality), che consen7va di analizzare gratuitamente la propria personalità rispondendo a una serie
di ques7onari, Kosinski è stato in grado di raccogliere i da7 di personalità di oltre sei milioni di uten7
Facebook, che poteva confrontare con i da7 presen7 nel proXlo del social network. Analizzando i da7
raccol7, Kosinski si è accorto che aDraverso le informazioni presen7 nei social (i “mi piace”, le immagini, i
post condivisi, l’età, il sesso e la residenza) era possibile prevedere con elevata precisione i risulta7 dei
ques7onari di personalità. Dopo la tesi, Kosinski ha cercato di elaborare un modello previsionale basato sui
“mi piace” che permeDesse di prevedere la personalità di ogni utente dei social. I risulta7 sono
sorprenden7 nel 2013 il modello era in grado di prevedere, conoscendo almeno 70 contenu7 digitali e a
cui il soggeDo avesse aDribuito un “mi piace”, la razza (precisione del 95%), l’orientamento sessuale (88%) e
l’orientamento poli7co (85%) dei diversi sogge5. Due anni più tardi il modello era in grado di prevedere la
personalità con una precisione crescente, superiore a quella dei test di personalità tradizionali e
direDamente confrontabile con le predizioni degli altri membri della rete (sapere a cosa il soggeDo ha
aDribuito 10 “mi piace” permeDe di oDenere un proXlo di personalità paragonabile a quello elaborato da un
collega di lavoro, 70 a quello elaborato da un amico streDo o un convivente, 150 da un familiare, 300 da un
coniuge). Quanto è di[cile per un soggeDo terzo conoscere i nostri “mi piace”?
Instagram se non c’è l’”account privato”, ogni follower può raccogliere direDamente ques7 da7 entrando
sul nostro proXlo; Facebook gli amici non possono vedere direDamente i nostri “mi piace”. Per
visualizzarli basta poco: mol7 dei sondaggi o dei giochi che si condividono quo7dianamente su Fb per poter
essere u7lizza7 chiedono preliminarmente all’utente la possibilità di accedere ai suoi da7 personali. Appena
l’autorizzazione viene concessa, il creatore del gioco può accedere direDamente ai nostri “mi piace” (è
possibile modiXcare tale autorizzazione per tuDe le App a cui l’abbiamo concessa). È stato proprio questo lo
strumento u7lizzato da un altro docente di origine russa, Kogan, che ha poi venduto i da7 e il metodo di
analisi della personalità basato sui “mi piace” all’azienda inglese SCL Group che lo ha replicato negli USA. È
importante soDolineare due aspe5: Kogan, oltre a lavorare a Cambridge, è un professore associato
all’Università di San Pietroburgo, la stessa ciDà in cui ha sede l’IRA, presso la quale ha ricevuto dei
Xnanziamen7 direDamente dal governo russo per una ricerca dal 7tolo Stress, salute e benessere
psicologico sui social network; SCL Group è la stessa azienda che, con Cambridge Analy7ca di cui è
fondatore Steve Bannon, ha avuto un ruolo centrale nella campagna di Trump.
Cambridge Analy7ca ha u7lizzato questo approccio per oDenere un proXlo di personalità basato sulle 5
dimensioni del Big Five di milioni di adul7 americani, che poi ha u7lizzato secondo le indicazioni di Matz per
proporre contenu7 persuasivi personalizza7.
Fb ha ammesso che le tecniche u7lizzate da Kogan per raccogliere i da7 erano perfeDamente legali e
conformi alle linee guida della società. Fb ha sistema7camente fornito Xno al 2018 le stesse informazioni
raccolte da Cambridge Analy7ca a oltre 60 società che producono telefoni cellulari (senza esplicita
autorizzazione dell’utente e nonostante Fb avesse dichiarato il contrario qualche mese prima).
Anche Beppe Grillo alla domanda “Che cosa pensa delle fake news e di Cambridge Analy7ca” ha risposto:
“Non vedo lo scandalo a meno che non ci compor7amo come bambini. è così ovvio che siamo
costantemente monitora7 e manipola7 sia nella pubblicità che nella poli7ca”. Quest’approccio, noto nel
mondo dell’adver7sing come Advanced User Pro@ling (proXlazione avanzata dell’utente), in forme meno
soXs7cate è u7lizzato quo7dianamente da cen7naia di aziende commerciali per vendere i loro prodo5. A
trasformarlo nel principale strumento per la di@usione delle fake news è stata la presenza contemporanea
di una serie di altri faDori, che caraDerizzano l’aDuale esperienza dei social network.
Le modalità di presentazione delle notzie sui social network: la selezione basata sulla popolarità e i silos
sociali – All’interno di Fb, un ruolo centrale è giocato dalla sezione No7zie. Inizialmente pensata per
facilitare il monitoraggio dell’a5vità della propria rete sociale, si è progressivamente allargata arrivando a
includere tu5 i post a cui i nostri amici aggiungono un commento o meDono “mi piace”, inclusi quelli di
persone che non fanno parte della nostra rete sociale o di gruppi pubblici a cui non siamo iscri5 (se un
nostro amici meDe “mi piace” a una fake news, noi la vediamo). Nella sezione “No7zie” è presente la lista
“Popolari”, che raccoglie le no7zie più popolari raggruppate in 5 categorie: Tendenze principali, Poli7ca,
Scienza e tecnologia, Sport e IntraDenimento. Come vengono selezionate da Fb le no7zie popolari?
Fino all’agosto 2016 (a pochi mesi dalle elezioni poli7che americane), la selezione veniva e@eDuata
direDamente da un gruppo di 20 giornalis7. Dopo un’inchiesta che aveva rivelato come alcuni di ques7
giornalis7 tendessero a escludere le no7zie più vicine al mondo dei conservatori, Fb decise di eliminare la
mediazione umana e di scegliere le no7zie esclusivamente u7lizzando gli algoritmi basa7 sull’intelligenza
ar7Xciale. Un ar7colo della rivista “Science” ha però dimostrato che applicare l’apprendimento automa7co
al linguaggio umano ordinario produce pregiudizi seman7ci simili a quelli umani. Se il corpus di da7
presenta7 al sistema di intelligenza ar7Xciale è caraDerizzato dai bias (distorsione), il risultato Xnale
manterrà i bias presen7 inizialmente. Come compreso dall’IRA quindi, a[nché il sistema colga le fake news,
basta che la maggior parte delle no7zie sia in qualche modo collegata alle fake news.
Oggi i post popolari vengono seleziona7 automa7camente in base a una combinazione di faDori, tra cui
l’interazione con l’ar7colo su Fb, l’interazione con l’editore nel complesso e il faDo che altri ar7coli
contengano link allo stesso argomento. Nella sua prima versione, l’intelligenza ar7Xciale di Fb u7lizzava un
algoritmo meno complesso però, basato sul numero di “mi piace” e condivisioni della no7zia. Bastava
quindi un numero su[ciente di “cyber-truppe” per far apparire le fake news tra le no7zie popolari (dopo
solo due giorni dall’u7lizzo dell’intelligenza ar7Xciale appare nell’elenco delle no7zie più popolari di Fb la
prima falsa no7zia prodoDa con questo approccio).
Questo meccanismo è in grado di generare fa5 sociali capaci di imporsi sull’individuo per la forza della
“riprova sociale” che li sos7ene. Ma basta che qualcuno ne meDa in discussione il contenuto per ridurne la
forza coerci7va. A limitare questa possibilità però entra in gioco un’altra caraDeris7ca dei social: i “silos
sociali”. Tim Berners-Lee:
Come i silos Xsici sono dei contenitori sigilla7 des7na7 a conservare derrate alimentari come grano o
foraggi, i silos sociali crea7 da Fb sono contenitori di uten7 dota7 di caraDeris7che sociali simili da vendere
agli inserzionis7. Un elemento cri7co dei silos è la conservazione vengono crea7 per fare in modo che gli
uten7 conservino le loro idee, minimizzando il confronto con visioni alterna7ve che le possano contaminare.
Eli Pariser, a5vista di Internet, ha così spiegato il meccanismo:
La capacità dei social di comprendere gli uten7 porta a meccanismi invisibili di selezione dei contenu7 che
tendono a escludere ciò che non corrisponde esaDamente ai nostri gus7 (ciò impedisce il confronto e lo
spirito cri7co). Se le fake news vengono costruite esaDamente in base al proXlo del silo sociale di
riferimento, nessuno le meDerà mai in discussione, facilitandone la di@usione e trasformandole in veri e
propri fa5 sociali. Il risultato sono vere e proprie “casse di risonanza” ( echo chambers) in cui gli uten7 di
scambiano informazioni simili facendosi eco l’un l’altro.
Studio di QuaDrociocchi meDere in discussione le fake news all’interno dei silos sociali non solo non
funziona, ma ha anche l’e@eDo paradossale di renderle più visibili.
Fb ha cercato di dimostrare che sono i comportamen7 dei membri della nostra rete sociale, anziché il
meccanismo interno di selezione dei contenu7, a escludere le no7zie che sono meno vicine ai nostri gus7. Il
risultato non cambia: più a lungo rimango all’interno del silo sociale creato dal social, meno sarà possibile
cambiare le mie idee. A rendere più forte l’impaDo dei silos sociali è l’indebolimento progressivo delle
comunità o{ine e del capitale sociale da esse generato. Negli ul7mi 30 anni si è assis7to ad una riduzione
dell’induenza dei gruppi o{ine, sia a livello di is7tuzione (il livello di orientamento civico ossia l’interesse
nei problemi sociali, la partecipazione poli7ca, la Xducia nelle is7tuzioni ha subito un declino che ha
raggiunto un punto massimo con la rivoluzione dei Millenials), sia a livello di comunità (è crollato il numero
di interazioni signiXca7ve meno amici veri).
Le modalità di fruizione dei social network: super@cialità e bassa aNenzione – Ci sono altri due faDori che
riducono la capacità cri7ca degli uten7 dei social: la bassa aDenzione dedicata ai contenu7 presen7 in
bacheca e una conseguente analisi superXciale dei contenu7. Esistono 3 7pi di aDenzione:
ADenzione sostenuta capacità di mantenere un livello aDen7vo adeguato per tuDo il tempo
necessario all’esecuzione di un compito;
ADenzione sele5va capacità di selezionare solo gli s7moli importan7 per un determinato
compito, ignorando quelli distraes7;
ADenzione divisa capacità di eseguire più compi7 in parallelo spostando le proprie risorse
aDen7ve da un compito all’altro.
Uno studio del Canada ha veriXcato l’impaDo della tecnologia (in par7colare dei social) sul livello di
aDenzione chi ha imparato ad u7lizzare la tecnologia da giovane o chi la usa molto tende ad avere una
capacità di aDenzione sostenuta inferiore rispeDo a quella delle generazioni preceden7. La perdita
dell’aDenzione sostenuta è compensata da un aumento della capacità di aDenzione divisa e dalla capacità di
lavorare in multtasking. Questa generazione è capace di “esplosioni” di aDenzione, con cui riesce a capace
a quale compito è meglio dedicarsi. La bassa aDenzione e la capacità di mul7tasking hanno un e@eDo
combinato sull’aDenzione sele5va: quando lo s7molo è uno, i più giovani o i più tecnologici hanno un
comportamento simile a quello delle generazioni preceden7; le cose cambiano durante il mul7tasking, in
par7colare quello tecnologico (rispondere a un messaggio mentre si guarda la TV riduce molto la capacità di
selezionare solo gli s7moli importan7).
Dato Xnale in 15 anni l’aDenzione media durante la fruizione dei contenu7 digitali è diminuita del 50%,
passando da 12 a 8 secondi per contenuto. Cosa implica questa riduzione dell’aDenzione sostenuta per le
fake news? Lo spiega un ricercatore cinese:
Dato il livello di aDenzione e di analisi aDualmente dedicato ai contenu7 dei social, la rete non è in grado di
discriminare e[cacemente tra contenu7 di alta e bassa qualità, fornendo il contesto ideale per la di@usione
delle fake news. Quando il soggeDo non dedica abbastanza tempo alle proprie scelte, u7lizza un percorso
decisionale “periferico” che si basa su elemen7 di sfondo di 7po indireDo come le caraDeris7che della
fonte, la piacevolezza o l’autorevolezza del messaggio. Sulla rete, le decisioni periferiche portano a far
prevalere due faDori: la resistenza al cambiamento e la polarizzazione. Per quanto riguarda il primo: davan7
a una scelta crescente, la scarsa aDenzione a nostra disposizione spinge il soggeDo a scegliere no7zie e
contenu7 che non entrino in condiDo con la propria visione del mondo; se ho poco tempo per scegliere
vado sul sicuro. Questo fenomeno induenza anche le scelte di gruppo (quando i membri di una rete si
incontrano in modalità anonima e condividono un’iden7tà di gruppo tendono nelle scelte a dare più peso
alla propria conoscenza iniziale rispeDo alle nuove informazioni che possono emergere dalla discussione. Le
scelte della rete tendono a polarizzarsi verso le posizioni estreme, che garan7scono il consenso del gruppo.
Chiarisce Sunstein:
La dipendenza comportamentale dei social media – All’interno delle re7 sociali tu5 gli elemen7 che
abbiamo visto limitano lo sviluppo di un su[ciente spirito cri7co in grado di difenderci dalla fake news
quindi la soluzione migliore è quella di uscirne o di limitarne l’uso. È possibile?
L’uso dei social con7nua ad aumentare: nel mondo gli uten7 social hanno superato i 3 miliardi (42%
popolazione mondiale), mentre in Italia hanno raggiunto i 34 milioni (57% popolazione italiana). Ciascuno
degli uten7 italiani passa sui social in media un’ora e 53 minu7 al giorno (l’88% di questo tempo dal
cellulare). Più di un italiano su due quindi sta in media quasi 2 ore al giorno sui social. La tendenza è quello
di un ulteriore aumento: il tempo passato sui social è cresciuto del 10% nell’ul7mo anno e del 50% negli
ul7mi 4. Questo perché rimanere fuori dai social è sempre più di[cile. Da una parte l’uso dei social ha
ormai assunto un ruolo centrale nella costruzione della nostra iden7tà sociale; dall’altra la parola giusta è
proprio “condiziona7”. I social sono sta7 costrui7 per approXDare delle vulnerabilità della psicologia umana
con un meccanismo che crea dipendenza come una droga (abbiamo bisogno di una scarica di dopamina
provocata dal “mi piace”, è un “feedback loop” di validazione sociale). L’ex vicepresidente di Fb ha però
a@ermato che il “feedback loop” che hanno creato sta distruggendo il modo in cui la società lavora; nel
dialogo non ci sono più argomentazioni civili, ma solo disinformazione e falsità e non è solo un problema
americano, ma una ques7one globale. Ma cos’è questo “feedback loop” di dopamina?
Dopamina = neurotrasme5tore che controlla sia il coordinamento del comportamento motorio, sia la
regolazione dei comportamen7 adaDa7vi (mangiare, bere) e delle emozioni correlate. Ha un ruolo centrale
nel determinare dal punto di vista emo7vo il livello di piacere aDribuito a un’esperienza: maggiore è il livello
di dopamina, maggiore è il piacere aDribuito all’esperienza. Ha un ruolo fondamentale anche nell’induzione
di dipendenza patologiche.
Parkin spiega:
Questo avviene a causa di un feedback loop, ossia un ciclo di retroazione = meccanismo mediante il quale
un sistema dinamico è in grado di rinviare al punto di inizio di un processo un’informazione sul processo
stesso che possa essere u7lizzata per correggerne l’andamento (nel caso delle dipendenza, l’informazione
riguarda il livello di dopamina in grado di produrre piacere. Mano a mano che il soggeDo si abitua alla
presenza di dopamina, sono necessari livelli più eleva7 per mantenere il grado di piacere iniziale. Il soggeDo
aumenta le dosi e la frequenza d’uso).
Fb ha studiato i meccanismi lega7 alla dipendenza e li ha u7lizza7 nella creazione della propria esperienza
d’uso con l’obie5vo di mantenere gli uten7 il più possibile all’interno della sua piaDaforma. La dipendenza
comportamentale nei confron7 della tecnologia è il risultato dell’interazione tra 5 componen7:
Feedback posi7vi irresis7bili e imprevedibili (elemento legato direDamente alla dopamina);
For7 connessioni sociali;
Tensioni che esigono soluzione;
Obie5vi interessan7 appena fuori della portata;
Percezione di compiere un progresso e un miglioramento incrementali.
Spingere alla dipendenza comportamentale è molto semplice: basta creare delle esperienze tecnologiche in
grado di a5vare negli uten7 la maggior parte di ques7 elemen7.
Dopamine Labs una delle società americane che si occupano di ques7 meccanismi (dopo le dichiarazioni
degli ex dirigen7 di Fb ha cambiato nome in Boundless Mind). Per questa azienda entrate e viralità
dipendono da coinvolgimento e dalla Xdelizzazione (diventare l’abitudine di un utente è necessario per la
sopravvivenza di un’App). La società cerca di generare un ciclo di retroazione in grado di aumentare il livello
di dopamina del soggeDo durante l’esperienza tecnologica.
Meccanismo la società iden7Xca l’elemento dell’esperienza tecnologica in grado di generare un aumento
del livello di dopamina (di solito sono i meccanismi di ricompensa a produrre dopamina, come ricevere un
“mi piace”); poi cerca di a5vare dei meccanismi che associno in maniera casuale la ricompensa
all’esperienza (meno l’oDenimento della ricompensa può essere previsto a priori, maggiore sarà il livello di
dopamina da esso generato dalla ricompensa); inXne cerca di aDribuire alla ricompensa un valore sociale
che possa assegnare al soggeDo uno status di@erente da quello degli altri uten7 (utente principiante, poi
esperto, inXne super). TuDo questo è supportato dall’u7lizzo di tecniche di neuroimaging come la
tomograXa a emissione di positroni (PET) che consente di veriXcare le e@e5ve variazioni del livello di
dopamina nel cervello dell’utente. Questo processo genera un meccanismo di retroazione che spingerà
l’utente ad aumentare la frequenza e la durata di u7lizzo dei social per riuscire a mantenere il livello di
piacere generato dalle prime esperienze.
Conseguenze per Fb gli uten7 tenderanno a u7lizzarlo sempre di più (se qualcuno dovesse andarsene, la
mancanza di dopamina che deriva dal non ricevere un “mi piace” potrebbe spingerlo a ritornare);
conseguenze per gli uten7 solo Dio sa che cosa sta succedendo al cervello dei nostri piccoli (risposta
dell’ex presidente di Fb).
Fb sa bene cosa sta succedendo e lo ha spiegato Ginsberg in un ar7colo. L’u7lizzo passivo di Fb, in cui
l’utente si limita a leggere e commentare i post senza interagire con le persone, fa star male (depressione,
ansia sociale e senso di solitudine). Il capo del sistema sanitario inglese ha evidenziato l’emergere di una
epidemia di mala5e mentali negli adolescen7 generate dai social e ha chiesto a Fb, Instagram e Snapchat di
condividere il peso e i cos7 dell’intervento con il sistema sanitario.
Il post è vero? La verità ogge:va dei contenut digitali – I fa5 sono even7 immediatamente eviden7 e la
loro evidenza nasce dall’osservazione direDa del mondo Xsico che ci circonda (esperienza). Ma l’evidenza
come esperienza direDa è un criterio di verità anche nel mondo digitale? No. Per comprendere il perché
dobbiamo parlare della di@erenza tra rappresentazione “analogica” e “digitale”.
Rappresentazione analogica = procedimento che rappresenta un fenomeno con con7nuità (orologio
automa7co: il movimento con7nuo della lanceDa dei secondi segna il trascorrere del tempo).
Rappresentazione digitale = procedimento che rappresenta un fenomeno in maniera discon7nua (orologio
a cristalli liquidi: il display segna il passare del tempo aDraverso una successione di sca5).
I microprocessori (il cuore dei media digitali) sono in grado di elaborare informazioni solo di 7po binario,
vale a dire con valore compreso tra 0 e 1.
Ogni informazione quindi, per poter essere trasmessa all’interno dei social deve essere digitalizzata (resa
discreta mediante un processo d’elaborazione). Grazie a questo processo la parola “ciao” viene tradoDa in
una sequenza di 0 e 1.
Conseguenza l’informazione digitale può essere modiXcata più facilmente: tradurre delle informazioni in
numeri consente di poterle copiare e modiXcare semplicemente u7lizzando delle formule matema7che (è
possibile un controllo totale sul processo e sulla produzione di contenu7 che a prima vista sembrano delle
rappresentazioni realis7che del mondo Xsico). Tu5 conosciamo l’impaDo di Photoshop sul mondo della
moda e della fotograXa (usando gli strumen7 di fotoritocco posso trasformare una persona normale in una
dea, alterando anche altezza, tra5 del volto, rughe di espressione).
Instagram è infa5 un’App nata per migliorare gli sca5 e i sel@e fa5 con lo smartphone. A caraDerizzare
questo social è la presenza di numerosi Xltri graXci che possono essere facilmente u7lizzabili sulle foto per
renderle comunica7vamente più acca5van7 e per migliorare colore, contrasto ed esposizione della foto.
Ma una foto ritoccata da Photoshop o Instagram e poi postata su un social è “vera”? Se u7lizziamo il criterio
dell’evidenza, apparentemente sì (gli uten7 che vedono la foto non hanno dubbi: stanno guardando una
bella ragazza). Se il criterio è il rapporto con il mondo Xsico, la risposta è no: non ci sono ragazze del mondo
Xsico che corrispondo all’immagine che s7amo guardando (ce n’è una che le assomiglia, ma non è
esaDamente lei).
Per le fake news la possibilità di cambiare facilmente e in maniera convincere dei contenu7 digitali è una
grande opportunità. Il contenuto digitale falso è infa5 molto persuasivo e spinge migliaia di persone a
condividerlo in modo spontaneo e partecipato. Uno degli sforzi delle fake news è quello di modiXcare i
propri contenu7 in modo che sembrino veri. Fino a ora sono state le immagini il cuore delle fake news, per
la facilità con cui potevano essere manipolate. Ma la tecnologia sta cambiando le cose: per esempio di
sistema di intelligenza ar7Xciale implementato dal programma FakeApp consente di cambiare i vol7 ai
personaggi di un video. RispeDo alle tecniche disponibili in precedenza il risultato è sorprendente: senza
sapere che è un’elaborazione al computer è facile scambiare un video manipolato per uno vero (il
programma ora è u7lizzato per sovrapporre i vol7 di personaggi famosi a quelli di aDori di Xlm pornograXci,
ma potrebbe essere u7lizzato per creare video di poli7ci in situazioni dubbie o compromeDen7).
Un dato evidente indipendentemente dalla capacità dei persuasori di capire chi siamo e di creare fake
news personalizzate, noi manteniamo comunque la possibilità di u7lizzare il nostro spirito cri7co e di
decidere liberamente. Ma che cosa serve per riuscire a esercitare lo spirito cri7co all’interno dell’esperienza
quo7diana dei social media? Per rispondere alla domanda 3 livelli di analisi:
Is7tuzioni con norma7ve ad hoc possono regolare le modalità di accesso e di u7lizzo dei nostri
da7 personali;
Rete aDraverso Xgure dedicate (fact-checker) può aiutare sia Fb che l’utente dei social media a
riconoscere le fake news;
Singolo utente riducendo la dipendenza comportamentale e aDraverso una maggiore aDenzione
e formazione, può imparare a iden7Xcare quei segnali che permeDeranno di riconoscere le fake
news.
Come sopravvivere alle fake news: il ruolo delle isttuzioni – Quali sono le premesse che permeDono
l’u7lizzo dello spirito cri7co all’interno dell’esperienza quo7diana dei social? Quando le idee sono in grado
di circolare liberamente la verità prevale (John Milton).
La libera circolazione delle idee supporta lo spirito in presenza di due faDori: la diversità delle idee e la
capacità del sistema di discriminare quelle migliori. Problema il mondo dei social da una parte fa di tuDo
per chiuderci all’interno di silos sociali che eliminano ogni voce potenziale di diversità; dall’altra premia non
tanto le idee migliori ma anche quelle più popolari, consentendo anche, aDraverso l’u7lizzo di falsi proXli, di
truccare il risultato.
Facebook in seguito ai risulta7 delle elezioni americane, ha iniziato a punire le pagine che condividevano
ripetutamente no7zie false riducendone la visibilità o rimuovendole; dopo lo scandalo seguito alla scoperta
dell’uso a scopi persuasivi da parte di Cambridge Analy7ca di milioni di da7 personali di uten7 Fb,
Zuckerberg ha dichiarato che limiterà l’accesso da parte degli sviluppatori ai da7 personali dei propri uten7
oltre a permeDere una più facile comprensione di quali dei nostri da7 sono disponibili, a chi e perché.
TuDavia, sebbene ques7 cambiamen7 segnalino la presa di coscienza di una situazione cri7ca, non ne sono
una soluzione. Un primo passo deve essere compiuto dalle is7tuzioni aDraverso la regolamentazione dei
meccanismi che permeDono ai social di chiuderci in gabbia dopo aver passato al persuasore di turno i nostri
da7. Ma chi ha l’accesso ai da7 personali? Come pensa di u7lizzarli? Può farlo a scopi poli7ci e persuasivi?
Un ruolo importante lo può svolgere il Regolamento europeo in materia di protezione dei dat personali,
entrato in vigore il 25 maggio 2018. Una delle sue innovazioni è il conceDo di “ambito territoriale” che
obbliga al rispeDo del Regolamento le aziende residen7 in paesi terzi (come Fb) che o@rono beni e servizi a
persone residen7 nell’Unione. Un altro elemento innova7vo è quello della “limitazione delle Xnalità”, citato
all’ar7colo 5 i da7 personali sono raccol7 per Xnalità determinate, esplicite e legi5me, e
successivamente traDa7 in modo che non sia incompa7bile con tali Xnalità; un ulteriore traDamento dei
da7 personali a Xni di archiviazione nel pubblico interesse, di ricerca scien7Xca o storica o a Xni sta7s7ci
non è considerato incompa7bile con le Xnalità iniziali (ha impedito a Cambridge Analy7ca di u7lizzare i da7
raccol7 a Xni di persuasione poli7ca). Il Regolamento prevede che per la raccolta di da7 sensibili il consenso
deve essere sempre esplicito (ar7colo 9); lo stesso vale per il consenso a decisioni basate su traDamen7
automa7zza7, compresa la proXlazione (ar7colo 22). In Italia primo passo è stato faDo con la creazione
(novembre 2017), di un tavolo tecnico per la garanzia del pluralismo e della correDezza dell’informazione
sulle piaDaforme digitali. Obie5vi del tavolo scambio di da7 e informazioni e il consolidamento di buone
pra7che in relazione ai seguen7 tre ambi7:
Metodologie di rilevazione, strategie di prevenzione e gli strumen7 di blocco o rimozione dei
contenu7 online qualiXcabili come lesivi della correDezza, dell’imparzialità e del pluralismo
dell’informazione;
Monitoraggio dei dussi economici, da fon7 nazionali ed estere, vol7 al Xnanziamento dei contenu7
lesivi;
DeXnizione delle tecniche di contrasto alle strategie di disinformazione online, con par7colare
riferimento a quelle alimentate da account falsi o inesisten7 e lega7 a dussi economici, anche esteri,
associa7 all’inserzionismo online.
Il passaggio successivo trasformare queste pra7che in norma7ve in grado di impedire la di@usione di fake
news. In teoria le fake news sono assimilabili al reato di di@amazione a mezzo stampa, pubblicità, o aDo
pubblico, disciplinato dall’ar7colo 595 del codice civile penale, che prevede la reclusione da sei mesi a tre
anni o una multa non inferiore a 516 euro. Di@amazione o@endere la reputazione “comunicando con più
persone” nel momento in cui il soggeDo o@eso è assente.
Per segnalare la di@amazione occorre che il soggeDo o@eso presen7 una querela (scriDa o orale) alla polizia
giudiziaria o in un u[cio consolare se si risiede all’estero. Il reato si prescrive dopo tre mesi dal momento in
cui si viene a sapere dell’o@esa subita. Riuscire a punire chi crea fake news e le di@onde volontariamente è
molto più complesso:
Il reato di di@amazione è personale, per cui bisogna essere in grado di indicare il nome del
di@amatore; nelle fake news sono spesso u7lizza7 proXli falsi (trovare l’autore richiede l’accesso a
strumen7 al di fuori della portata dei singoli utente);
Luogo dove è stata generata la no7zia se le fake news sono state create in Italia, aDraverso un
server situato nel territorio italiano, non ci sono problemi. Spesso però molte fake news sono
prodoDe e di@use dall’estero. La strada più e[cace è quella di individuare regole comuni a tu5 i
paesi dell’Unione Europea, in modo da evitare disparità di traDamento.
Governo Gen7loni del 2018 ha a5vato il servizio Red BuNon che consente la segnalazione di fake news
direDamente sul sito della polizia postale. Le segnalazioni vengono poi analizzate, con tecniche e so~ware
speciXci, da un team dedicato di esper7 del centro nazionale an7crimine informa7co per la protezione delle
infrastruDure cri7che (CNAIPIC).
A seconda dell’esito delle veriXche sulla segnalazione la polizia contaDerà il gestore della piaDaforma online
per l’eventuale oscuramento del contenuto, smentendo u[cialmente la no7zia o l’argomento veriXca7
come falsi tramite il sito web e i canali sociali is7tuzionali, e inviando gli a5 all’autorità giudiziaria nel caso
emergano aspe5 di rilevanza penale.
Senza norme speciXche che regolino in maniera chiara il processo di analisi e di riconoscimento delle fake
news, il rischio è quello di creare delle forme di censura che possono limitare la libertà d’espressione.
Come sopravvivere alle fake news: il ruolo della rete – Le di[coltà esisten7 nell’u7lizzo della legge per
fermare le fake news hanno spinto numerosi gruppi di persone ad a5varsi per iden7Xcare e contrastare le
no7zie false che girano in rete creando una nuova Xgura fact-cheeker o veriXcatore di no7zie.
Fact-cheeker individuo o un’organizzazione che si occupa di veriXcare se le no7zie presen7 nei social
sono vere o meno. Secondo l’ul7mo rapporto del Duke Reporters Lab (centro di ricerca americano
specializzato nell’analisi delle fake news) ci sono 149 sogge5 o gruppi distribui7 in 53 paesi. Nel nostro
paese il rapporto ne iden7Xca tre:
Pagella Poli7ca sito di fact-checking che analizza in par7colare le dichiarazioni dei poli7ci italiani.
Fa anche parte dell’Interna7onal Fact-Cheecking Network;
La Voce rivista indipendente che fornisce analisi cri7che e approfondite sui principali temi
economici, poli7ci e sociali del paese;
AGI (Agenzia giornalis7ca Italiana) agenzia di stampa che realizza quo7dianamente no7ziari per i
mezzi d’informazione e per le aziende.
Interna7onal Fact-Cheecking Network rete mondiale di fact-checker, ospitata dal Poynter Is7tute for
media studies, con base negli Sta7 Uni7. La rete (nata nel 2015), raccoglie tu5 i fact-checker che sono
dispos7 a condividere un codice e7co di comportamento comune. L’Interna7onal Fact-Cheecking Network
viene anche u7lizzato da Fb e da Google News. Fb le no7zie considerate false da almeno un fact-cheeker
della rete vengono visualizzate più in basso nella sezione “no7zie” (riducendo la visibilità); se i fact-cheeker
della rete scrivono ar7coli con maggiori informazioni sulla no7zia, tali ar7coli vengono inseri7 soDo la
no7zia originale. InXne viene inviata una no7Xca a chi prova a condividere o ha già condiviso una no7zia
considerata falsa. Google News inserisce subito soDo la no7zia falsa l’e7cheDa “fact-cheek” che rimanda
al testo di analisi realizzato dal fact-cheeher.
Esistono altri si7 italiani che o@rono un servizio di fact-checking BUTAC (bufale un tanto al chilo),
[Link], bufalopedia ecc. In più, stanno nascendo diverse applicazioni per browser che u7lizzano sistemi
di intelligenza ar7Xciale per iden7Xcare automa7camente le no7zie false.
Come sopravvivere alle fake news: il ruolo dell’individuo - Il singolo individuo, aDraverso l’u7lizzo del proprio
spirito cri7co, discrimina ciò che è vero da ciò che non lo è.
Problemi (sono 3, nel secondo punto ho unito gli ul7mi due perché sono collega7):
Come fare? Un primo passo consiste nel capire quanto e@e5vamente usiamo il nostro cellulare e
paradossalmente la tecnologia ci può aiutare: per Apple scaricare Moment;
Per Android Phone Usage. Entrambe le App permeDono di veriXcare quanto tempo passiamo usando il
nostro telefono e facendo cosa (se per una se5mana il tempo medio giornaliero supera le tre ore,
dobbiamo cercare di ridurlo). Altra App Forest si spargono dei semi che con il passare del tempo
crescono e diventano alberi, se durante il periodo di tempo si esce dall’applicazione per fare altro, la pianta
appassisce e muore. L’App aiuta ad acquisire la capacità metacogni7va che serve per diventare consapevoli
del proprio comportamento.
Come dimostrato dallo studio dell’Happiness Research Ins7tute uscire dai social per una sola se5mana
migliora la qualità della vita e perXno la quan7tà di relazioni sociali.
Sono necessari una maggiore aDenzione a quanto troviamo sui social + un adeguato livello di
formazione che permeDa di iden7Xcare quei segnali che caraDerizzano le fake news. Il problema lo
segnalano i risulta7 di due diverse ricerche hanno cercato di esplorare il rapporto con le fake
news nel nostro paese; in entrambi i casi almeno il 50% degli intervista7 ha considerato come vera
almeno una no7zia leDa su internet e sui social che poi si è rivelata falsa. Perché? da una parte
dedichiamo sempre meno tempo all’analisi dei post (in media 8 secondi); dall’altra rimaniamo chiusi
all’interno dei silos sociali crea7 dai social. Il risultato Xnale è quello descriDo da due ricercatori
belgi (Jonas De Keersmaeeker e Arne Roets), che hanno veriXcato come non basta meDere in
discussione le fake news per annullare il cambiamento che hanno generato sugli aDeggiamen7 dei
leDori: l’esperimento ha esaminato come le persone adeguano il loro giudizio dopo aver appreso
che le informazioni cruciali su cui si basava la loro valutazione iniziale non sono correDe. I risulta7
hanno mostrato che le persone generalmente adeguano i loro aDeggiamen7, ma il grado in cui
correggono la loro valutazione dipende dalle loro capacità cogni7ve. L’induenza iniziale di
informazioni errate non può essere semplicemente annullata soDolineando che questa
informazione non era correDa, specialmente nelle persone con capacità cogni7ve rela7vamente
inferiori.
Questo è par7colarmente vero per i più giovani ricerca di ASSIRM, l’élite dei giovani disinformat,
ha esplorato le abitudini di fruizione media7ca di un campione di giovani studen7 universitari
italiani: il 65% iden7Xca il mondo digitale (social, news online e portali) come il luogo di riferimento
per informarsi, seguito dal 31% che si informa tramite la televisione; il 2% u7lizza i giornali mentre i
social sono lo strumento più u7lizzato (41%). Ricerca realizzata su studen7 universitari di Stanford
senza un’adeguata formazione gli studen7 non sono in grado di dis7nguere una no7zia vera da una
falsa.
La consapevolezza di questa situazione ha spinto diverse is7tuzioni a elaborare una serie di regole di base,
da u7lizzare per la creazione di una cultura della comunicazione online costruita e condivisa, in grado di
favorire l’integrazione e la di@usione di idee. Un primo elenco di regole è quello promosso da Facebook e
realizzato in collaborazione con la Fondazione mondo digitale:
1. Non t @dare dei ttoli urlat le no7zie false spesso hanno 7toli al7sonan7 scri5 tu5 in maiuscolo
e con un ampio uso di pun7 esclama7vi. Se le a@ermazioni contenute in un 7tolo 7 sembrano
esagerate, probabilmente sono false;
2. Controlla bene l’indirizzo del sito un indirizzo fasullo o molto simile a quello di una fonte
aDendibile potrebbe indicare che la no7zia è falsa. Mol7 si7 di no7zie false si Xngono si7 auten7ci
e@eDuando cambiamen7 minimi agli indirizzi di ques7 ul7mi. Puoi accedere al sito per confrontare
l’indirizzo con quello della fonte aDendibile;
3. Fai ricerche su chi ha scriNo la notzia assicura7 che la no7zia sia scriDa da una fonte di cui 7 Xdi e
che ha la reputazione di essere aDendibile. Se la no7zia proviene da un’organizzazione che non
conosci, controlla la sezione “informazioni” della sua pagina per scoprirne di più;
4. Fai aNenzione alla formaNazione su mol7 si7 di no7zie false, l’impaginazione è strana o il testo
con7ene errori di ba5tura, leggi la no7zia con prudenza;
5. Fai aNenzione ai contenut digitali le no7zie false spesso contengono immagini e video ritocca7. A
volte, le immagini potrebbero essere auten7che, ma perese fuori contesto. Puoi fare una ricerca
dell’immagine per veriXcarne l’origine;
6. Controlla le date le date degli avvenimen7 contenu7 nelle no7zie false potrebbero essere errate
e la loro cronologia potrebbe non avere senso;
7. Veri@ca le testmonianze controlla le fon7 dell’autore per assicurar7 che siano aDendibili. La
mancanza di prove o il riferimento a esper7 di cui non viene faDo il nome potrebbero indicare che
la no7zia è falsa;
8. Controlla se le font hanno riportato la stessa notzia se gli stessi avvenimen7 non vengono
riporta7 da nessun’altra fonte, la no7zia potrebbe essere falsa (se viene riportata da fon7 che ri7eni
aDendibili, è più probabile che sia vera);
9. La notzia potrebbe essere uno scherzo può essere di[cile dis7nguere le no7zie false da quelle
sa7riche o scriDe per diver7re. Controlla se la fonte è nota per le sue parodie e se i deDagli e il tono
della no7zia ne rivelano lo scopo umoris7co;
10. Alcune notzie sono intenzionalmente false usa le tue capacità cri7che quando leggi le no7zie
online e condividile solo se non hai dubbi sulla loro veridicità.
Un secondo elenco di regole, è quello elaborato dal progeDo #bastabufale della Camera dei deputa7/MIUR
e accompagnato da una scheda di approfondimento pensata per l’u7lizzo a scuola da parte degli insegnan7.
Un terzo elenco di regole (non solo per fake news ma in generale per la comunicazione online), è stato
sviluppato da Parole O_S7li, progeDo sociale di sensibilizzazione contro la violenza nelle parole; l’analisi di
Parole O_S7li è la stessa proposta da MaDeo Grandile fake news sono il prodoDo di un contesto culturale
che ha reso i social media il luogo in cui sfogare, senza alcuna regola, l’odio e le proprie emozioni nega7ve.
Parole O_S7li ha sviluppato e condiviso un manifesto della comunicazione non ostle composto da 10
principi (il manifesto è il risultato di oltre 250 proposte della rete, poi riformulate in 23 principi di s7le e
soDoposte a votazione online sul sito dell’organizzazione. I primi 6 principi sono il risultato di questo
processo, gli altri 4 sono sta7 sviluppa7 da 100 induencer che hanno sostenuto il progeDo dalle fasi iniziali):
1. Virtuale è reale dico o scrivo in rete solo cose che ho il coraggio di dire di persona;
2. Si è ciò che si comunica le parole che scelgo raccontano la persona che sono, mi rappresentano;
3. Le parole danno forma al pensiero mi prendo tuDo il tempo necessario per dare forma al
pensiero;
4. Prima di parlare bisogna ascoltare nessuno ha sempre ragione, neanche io. Ascolto con onestà e
apertura;
5. Le parole sono un potere scelgo le parole per comprendere, farmi capire, avvicinarmi agli altri;
6. Le parole hanno conseguenze so che ogni mia parola può avere conseguenze, piccole o grandi;
7. Condividere è una responsabilità condivido tes7 e immagini solo dopo averli le5, valuta7 e
compresi;
8. Le idee si possono discutere. Le persone si devono rispeNare non trasformo chi sos7ene opinioni
che non condivido in un nemico da annientare;
9. Gli insult non sono argoment non acceDo insul7 e aggressività, nemmeno a favore della mia tesi;
10. Anche il silenzio comunica quando la scelta migliore è tacere, taccio.
A par7re dai 10 principi, Parole O_S7li ha realizzato diverse schede di lavoro pensate per gli insegan7 delle
scuole medie e superiori. Obie5vo u7lizzarle con gli studen7 per migliorarne la capacità di comunicare
online, compresa quella di conoscere le fake news.
CONCLUSIONE
Il termine fake news è entrato con forza sia nel diba5to poli7co e culturale sia nella nostra esperienza
quo7diana sui social (lo studio di questo fenomeno però non è ancora un oggeDo privilegiato della ricerca
scien7Xca quindi non abbiamo ancora le idee chiare sugli e@e5 e sui meccanismi che regolano le fake
news). Le ridessioni proposte in questo libro nascono dalle ricerche prodoDe da 2 diversi ambi7: la scienza
delle re7 e la “ciberpsicologia”. Il nuovo 7po di guerra creata dalle fake news (guerra psico-informa7va)
mescola le teorie delle scienze della comunicazione con quelle psicologiche per raggiungere quello che è
sempre stato l’obie5vo della disinformazione: la di@usione intenzionale di no7zie o informazioni inesaDe o
distorte allo scopo di induenzare le azioni e le scelte di qualcuno. Le fake news si caraDerizzano per le
seguen7 dimensioni:
Sono o5mizzate per generare una forte risposta emo7va capace di spingere il leDore alla
mobilitazione;
Sono personalizzate vengono create in base alle caraDeris7che psicologiche e sociali del gruppo
a cui sono rivolte, associando il contenuto falso sia a even7 o fa5 realmente accadu7 rilevan7 per il
soggeDo, sia alle speciXche rivendicazioni o bisogni reali del gruppo di riferimento;
Sono automa7zzate u7lizzano migliaia di bot per riuscire ad apparire tra le no7zie più popolari;
Sono create, in termini di forma mul7mediale e contenuto, per facilitarne la di@usione e la fruizione
sui social sono prevalentemente visive;
Sono create, in termini di forma mul7mediale e contenuto, per sembrare vere vengono realizzate
copiando nel nome e nello s7le graXco giornali online e si7 web autorevoli.
Come fare a difenderci dalle fake news? Lo psicologo Stephan Lewandoswsky ha suggerito una soluzione
che deXnisce “tecnocognizione” da una parte riprogeDare le architeDure di informazione u7lizzando
principi come il “nudging” (spintarella), mutua7 dalla ricerca in economia, per spingere le no7zie vere e
ridurre le fake news; dall’altra u7lizzare un programma di ispirazione cogni7va per educare il pubblico e
migliorare le pra7che giornalis7che.