Sei sulla pagina 1di 35

Il Mulino - Rivisteweb

Sergio Scamuzzi, Marinella Belluati, Mia Caielli, Cristopher Ceper-


nich, Viviana Patti, Stefania Stecca, Giuseppe Tipaldo
Fake news e hate speech. I nodi per un’azione di
policy efficace
(doi: 10.1445/100129)

Problemi dell’informazione (ISSN 0390-5195)


Fascicolo 1, aprile 2021

Ente di afferenza:
Università la Sapienza di Roma (Uniroma1)

Copyright c by Società editrice il Mulino, Bologna. Tutti i diritti sono riservati.


Per altre informazioni si veda https://www.rivisteweb.it

Licenza d’uso
L’articolo è messo a disposizione dell’utente in licenza per uso esclusivamente privato e personale, senza scopo
di lucro e senza fini direttamente o indirettamente commerciali. Salvo quanto espressamente previsto dalla
licenza d’uso Rivisteweb, è fatto divieto di riprodurre, trasmettere, distribuire o altrimenti utilizzare l’articolo,
per qualsiasi scopo o fine. Tutti i diritti sono riservati.
SAGGI

Fake news e hate speech


I nodi per un’azione di policy efficace
Sergio Scamuzzi, Marinella Belluati, Mia Caielli,
Cristopher Cepernich, Viviana Patti, Stefania Stecca,
Giuseppe Tipaldo

Fake News and Hate Speech. The Keys to Effective Policy Action

The article discusses the relationship between hate speech and fake news,
often presented as a separate but interrelated dimension to regulatory action.
The theoretical framework is the information disorder and the bias in the
public debate where the borders between true and false, offensive or ironic
contents and personal threats are damaging the quality of democratic debate.
The article is the outcome of a policy brief involving a multidisciplinary group
of academics. Sociological, juridical and informatics expertise interacted
with the practitioners, in a policy making process. The first results confirm
that fake news and hate speech belong to a common semantic and regulatory
space that policy action must take into account. In addition, it emphasizes
that an effective problem solving must follow a multilevel framework, as the
European institutions are requesting. Finally, regulatory action and coun-
teractions must involve a stakeholder network, including public and private
sectors, civil society, social scientist and research field, media companies and
platforms, and public communication and journalism practitioners.

Keywords: Hate speech, Fake news, Information disorder, Multilevel gover-


nance, Policy making

1. Introduzione

Una prima stagione di ottimismo sulla comunicazione via rete vedeva nella
sua capacità di accesso e di penetrazione universale una premessa di pari
opportunità per ogni informazione e per ogni soggetto e di autocorrezione,

PROBLEMI DELL’INFORMAZIONE – ANNO XLVI, N. 1, APRILE 2021


S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

con l’unico limite di un digital divide superabile. Da alcuni anni è subentrata


una stagione critica che comincia a offrire risposte a una delle questioni emer-
genti dalla possibilità di diffusione nella politica di messaggi falsi e di odio,
comunicazioni, altrimenti marginali e delegittimate nella precedente società
«senza rete», di contenuti razzisti, antiscientifici, falsi, denigratori e di offese
e minacce conseguenti a chi non li condivide. Si tratta di una moltiplicazione
che da quantità fà qualità per società globalizzate, profondamente innervate
e dipendenti dalla diffusione della conoscenza, non solo nelle emergenze
pandemiche, percorse da sfide che richiedono elevati impegni di tolleranza e
verità per essere risolte e non coltivate come ragione di conflitto distruttivo.
Questo articolo è il primo risultato di un lavoro istruttorio
sollecitato a livello parlamentare per un policy brief in cui è stato coinvolto
un gruppo di studiosi e studiose di più discipline – sociologia, diritto, infor-
matica, comunicazione1. Il testo è finalizzato a fornire un supporto critico al
policy-making, esplorando, con approccio multidisciplinare, le conoscenze
disponibili sui temi dell’hate speech (d’ora in avanti HS) e delle fake news
(FN), due fenomeni distinti, ma purtroppo spesso anche collegati, e inter-
nazionali quanto la rete che li ha resi possibili, ormai largamente percepiti
come preoccupanti. Basti ricordare i dati del monitoraggio internazionale
CIGI-IPSOS del 20192 secondo cui l’86% di un campione di 25.000 utenti di
Internet distribuiti su tutti i continenti denuncia di essere stato sviato da FN e
una loro larga maggioranza condivide una critica verso le piattaforme anche
per questo. Un osservatorio italiano del fenomeno ha analizzato nel primo
anno di monitoraggio dal 1 ottobre 2018 al 30 settembre 2019 7,9 milioni di
testi di tweet italiani che parlano di tre categorie vulnerabili (migranti, rom e
minoranze religiose) registrando con tecniche di classificazione automatica
che il 17,6% di questi testi contiene HS3. Il tema è ormai da qualche anno in
agenda delle istituzioni europee, in particolare della Commissione, di Parla-
menti nazionali, tra cui quello italiano4, di corti, nazionali e sovranazionali,
e del sistema dell’informazione.

1
L’articolo è la sintesi di un policy brief con gli on.li Flavia Piccoli Nardelli e Paolo Lattanzio, per
l’istituzione di una Commissione Parlamentare d’inchiesta sulla diffusione massiva di notizie false. Il
testo integrale è reperibile al link https://www.academia.edu/44878785/SUGGERIMENTI_DEI_
DOCENTI_E_RICERCATORI_DELL_UNIVERSITA’_DI_TORINO. Alla scrittura hanno preso parte
Marinella Belluati (par. 3), Mia Caielli (par. 4), Cristopher Cepernich, (par. 7), Viviana Patti (par. 5),
Sergio Scamuzzi (parr.1 e 8), Stefania Stecca (par. 6), Giuseppe Tipaldo (par. 2).
2
https://www.cigionline.org/Internet-survey-2019, accesso 1 settembre 2020.
3
https://controlodio.it/blog, accesso 1 settembre 2020.
4
Camera dei deputati, XVII Legislatura, Commissione ‘Jo Cox’ sull’intolleranza, il razzismo, e
i fenomeni di odio. Relazione finale, 2017; Senato della Repubblica. XVIII Legislatura, Dossier

50
Fake news e hate speech

A partire da una riflessione convergente sugli stessi problemi


da discipline differenti, arricchita più che ostacolata dalle diversità di lin-
guaggio e approccio in un contesto policy-oriented, si è cercato di cogliere
la complessità e gli aspetti critici del fenomeno, con l’intento di produrre
conoscenze utili e prospettare modalità di intervento delle istituzioni, della
pubblica amministrazione e della ricerca scientifica, per una governance
multilivello e multi-actor del fenomeno, azione complessa, ma ineludibile,
per costruire nella società civile un’opinione pubblica matura e non restare
testimoni passivi, vittime o addirittura complici non del tutto consapevoli.

2. Information disorder: distinzione e contiguità dei


fenomeni di FN ed HS

La nascita della riflessione critica e la ricerca scientifica su HS e FN prece-


dono, e non di poco, l’approdo dei media digitali nel panorama della comu-
nicazione di massa e la diffusione su larga scala dei social network. Eppure,
nonostante il patrimonio conoscitivo piuttosto ampio, molti nodi rimangono
tuttora insoluti, a cominciare da quelli – basilari e scivolosissimi – relativi
alla definizione dei due oggetti e al modo in cui essi sono tra loro legati.
Benché possano sembrare intercambiabili, le parole usate per etichettare
di volta in volta l’HS e le FN conducono a visioni diverse in merito a come
l’informazione si diffonde e che tipo di pubblico ne è investito. Tali assunti
influenzano le soluzioni e gli interventi politici a riguardo, agendo sulla loro
desiderabilità sociale e sul grado di appropriatezza percepito dai diversi attori
in campo (Jack 2017).
Tentando una sistematizzazione dei principali riferimenti in
letteratura, e cominciando dal termine HS, ci sembra di poter ordinare le
definizioni all’interno di tre classi principali, in funzione della variabile co-
municativa discussa con maggiore enfasi: definizioni basate sul contenuto
dei messaggi; definizioni che mettono a tema soprattutto gli effetti sui/l
destinatari(o); definizioni che rendono conto del contesto, assumendo una
prospettiva macroscopica e diacronica.
Tra le prime definizioni dell’era troviamo quella elaborata dalla
Corte suprema del Minnesota e contenuta nella sentenza Chaplinsky v. New

del servizio studi, Istituzione di una commissione d’inchiesta sulla diffusione massiva di notizie
false, 2020, n. 292.

51
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

Hampshire, dove si riporta che l’odio espresso sotto forma di violenza verbale
(fighting words) consiste «in condotte in grado di per sé di arrecare un danno
o in espressioni il cui contenuto rappresenta un’imminente minaccia» (Eberle
1994, 1142). Pochi anni dopo, tale prospettiva viene ripresa e approfondita
dai giudici della Corte europea dei diritti dell’uomo, la cui formula è stata
adottata dal Comitato dei Ministri del Consiglio d’Europa: l’HS – si legge
nella versione finale della raccomandazione del Consiglio – identifica «tutte
le forme di espressione che diffondono, incitano, promuovono o giustifica-
no l’odio razziale, la xenofobia, l’antisemitismo o altre forme di odio basate
sull’intolleranza, compresa l’intolleranza espressa dal nazionalismo aggres-
sivo e dall’etnocentrismo, la discriminazione e l’ostilità verso le minoranze, i
migranti e le persone di origine immigrata» (Council of Europe 1997). Oltre
un decennio dopo questo primo tentativo di definizione, il Consiglio torna
sulla materia, estendendo il concetto di HS all’omofobia e alla transfobia,
ossia alle nuove forme d’odio in rapida diffusione nelle interazioni online.
Sono, pertanto, accluse all’HS «tutte le forme di espressione, anche nei media
e su Internet, che possono essere ragionevolmente intese come suscettibili
di produrre l’effetto di incitamento, diffusione o promozione dell’odio o altre
forme di discriminazione nei confronti di persone lesbiche, gay, bisessuali e
transgender» (Council of Europe 2010). Più di recente, è tornata a ribadire la
centralità del contenuto dei messaggi anche Google, che nelle linee guida per
la propria community attiva su YouTube descrive l’HS nei termini di qualsiasi
«contenuto che promuove la violenza o l’odio contro individui o gruppi in
base a determinati tratti distintivi, come: razza o origine etnica, religione,
disabilità, sesso, età, stato di veterano o orientamento/identità sessuale»5.
Per quanto eterogenee rispetto all’ambito disciplinare da cui
provengono, le definizioni ascrivibili alla seconda classe hanno tutte in
comune la scelta di definire l’HS attraverso la descrizione dei suoi possibili
effetti sui destinatari (si tratti di singoli o di intere categorie sociali), nei
termini di aggressione alla dignità umana, riconosciuta quale premessa
ineludibile all’autodeterminazione di ogni individuo (Massey 1992, 156,
nota 131; Knechtle 2005, 551). Tra gli esempi più eloquenti, ci sembra utile
riportare qui la posizione del Comitato internazionale delle Nazioni Unite per
l’eliminazione della discriminazione razziale, il quale interpreta l’HS come
«una forma di discorso etero-diretto che rifiuta i principi fondamentali dei
diritti umani della dignità umana e dell’uguaglianza e cerca di degradare la

5
Cfr. Google-Inc, (2019) HS Policy: YouTube Community Guidelines, Available at: https://www.
youtube.com/watch?v=45suVEYFCyc&feature=emb_logo.

52
Fake news e hate speech

posizione sociale di singoli individui o gruppi» (CERD-UN 2013, par. 7).


Dello stesso tenore, il lavoro di Matsuda et al. (2018), all’interno del quale
la locuzione HS – talvolta alternata all’etichetta «linguaggio aggressivo» (as-
saultive speech) – è definita come un insieme di «parole usate a mo’ di armi
per tendere imboscate, terrorizzare, ferire, svilire e umiliare». D’altro canto,
già Yong (2011) aveva posto l’accento sul fatto che l’HS scateni nelle vittime
reazioni traumatiche severe a livello emotivo e psichico, tra cui angoscia,
rabbia, ansia e, nei casi più gravi, violenza o autolesionismo.
Gli studi che appartengono alla terza e ultima classe tra quelle
individuate sopra spostano l’analisi degli effetti dal livello micro (intrapsi-
chico) e di breve periodo a quello macro (storico e socioculturale), di lungo
o lunghissimo periodo, in grado – si sostiene – di intaccare i processi di
costruzione dell’identità di particolari gruppi sociali, come le minoranze
etniche o religiose (si veda, su tutti, Calvert 1997). I messaggi d’odio sono
considerati oggetti persistenti, capaci «di perdurare al di fuori del contesto
originale, dell’esplicita volontà e della capacità di controllo di emittenti e
destinatari direttamente coinvolti nel processo comunicativo» (Tipaldo 2019,
24). In altre parole, con il consolidamento dei media digitali sta diventan-
do alquanto comune osservare che dati sensibili, false credenze, revisioni
storiche inaccettabili, teorie del complotto e notizie senza fondamento (ci
ritorneremo a breve), sepolte in archivi online, blog o pagine e profili pubblici
sui social network tornano a circolare a distanza di tempo, riscuotendo non
di rado una popolarità maggiore che alla prima comparsa. D’altro canto,
che i messaggi mediali possano ravvivare in qualsiasi momento «focolai
infettivi» d’odio è una questione nota da ben prima dell’affermazione delle
recenti tecnologie di comunicazione (a partire da Bandura 1973).
In buona sostanza, chi osserva il fenomeno da questa prospettiva
ritiene l’HS una minaccia subdola e persistente, in grado di minare la tenuta
delle democrazie contemporanee (Tsesis 2009, 514), lacerando il tessuto so-
ciale a causa della tensione tra la tutela della libertà d’espressione – compresa
quella che concerne i sentimenti negativi – e la necessità di reprimere alcune
forme dell’espressione, a tutela di determinate categorie bersaglio dell’odio
(Mihajlova et al. 2013; Yong 2011; Banks 2010; Calvert 1997).
Muovendo da premesse che mostrano non pochi punti in comu-
ne con quella appena sintetizzata, il Consiglio d’Europa ha contestualizzato
l’HS nel più esteso ambito dell’information disorder (Wardle and Derakhshan
2017), offrendo probabilmente il primo tentativo sistematico di integrazione
– sia sul piano terminologico sia su quello del policy-making – tra i discorsi

53
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

d’odio e la disinformazione. Anche volendo prescindere dagli usi più strumen-


tali, è stato dimostrato che negli ultimi quindici anni la locuzione FN è stata
usata per descrivere un’ampia collezione di fenomeni comunicativi che poco
hanno in comune sul piano analitico, tra i quali la satira politica, la parodia su
fatti di attualità, montature, manipolazioni, pubblicità e propaganda (Tandoc
et al. 2018). Il dominio semantico di FN e HS (termini che giurisprudenza e
senso comune continuano ad utilizzare in modo distinto per le ragioni argo-
mentate nei paragrafi successivi) è, in buona sostanza, troppo vago e ambiguo
e abbraccia ogni cosa, il falso equilibrio (false balance), la propaganda, la
disinformazione e la controinformazione (Zuckerman 2017). Nel documento
del Consiglio d’Europa, peraltro, l’espressione FN non solo non è definita,
ma viene giudicata come «tristemente inadeguata a descrivere i complessi
fenomeni della disinformazione e della controinformazione». Tale posizione,
in sintonia con quella di altri autorevoli ricercatori (boyd 2017; Jack 2017),
è motivata dal fatto che il termine viene ormai di frequente abusato a fini
politici, per screditare avversari o fonti informative con cui si è in disaccordo
(ivi, 16 e segg.), indipendentemente dall’attendibilità dei contenuti diffusi.
Ampliando lo spunto offerto dal rapporto del Consiglio d’Euro-
pa, la definizione operativa del concetto di «disturbo informativo» di Wardle
and Derakhshan (2017, 5) contribuisce a superare l’impasse lessicale e, al
contempo, può offrire una cornice generale all’interno della quale collocare
il secondo dei due nodi critici sollevati, quello cioè del legame tra HS e FN.
A questo proposito, con il nostro contributo assumiamo che l’information
disorder è qualsiasi fenomeno comunicativo dal quale si produca un conte-
nuto falso e/o lesivo della dignità umana – non più «solo» della reputazione
di qualcuno – e, nei casi più gravi, dannoso per la tenuta del tessuto sociale
democratico, secondo i criteri discussi sopra. In un ipotetico continuum
semantico, a seconda del tratto predominante tra propensione a mentire
o a nuocere, si ottengono così tre distinte manifestazioni idealtipiche dei
disturbi informativi.

MISINFORMAZIONE DISINFORMAZIONE MALAINFORMAZIONE


Mentire Mentire Nuocere
senza la volontà di nuocere con la volontà di nuocere senza bisogno di mentire
Min. di odio Tra min e max. Max. di odio
Max. inattendibilità Tra max. e min. Min. di inattendibilità

54
Fake news e hate speech

La «misinformazione», si caratterizza di norma per un elevato


grado di inattendibilità dei contenuti – i quali, dunque, sono indiscuti-
bilmente falsi – e, al contempo, per l’assenza dell’intenzione di nuocere al
destinatario. Rientrano in questa classe: le esche (click baits), i contenuti
ingannevoli (false promesse/scoperte/scoop); le connessioni forzate (false
connections), ad esempio i titoli o i virgolettati provocatori che non rispec-
chiano l’articolo o il servizio video, l’accostamento di informazioni tra loro
solo apparentemente o accidentalmente collegate; gran parte delle burle,
bufale, catene di S. Antonio che circolano in rete; la satira e la parodia, anche
nella forma ora particolarmente in voga dei meme. Il potenziale distorsivo di
questo materiale – rispetto all’oggetto del nostro contributo – è tutto sommato
basso e limitato a due tipi di ricadute: da una parte, il «disincanto del credu-
lone», così almeno ci pare di poter definire l’eventuale senso di frustrazione
provato in seguito al disvelamento dell’inganno, da parte di chi l’ha subìto;
dall’altra, l’omologazione delle fonti informative, qualora – come in parte già
si osserva – in un buon numero valutassero di appiattire il proprio registro
comunicativo su un linguaggio ammiccante, ambiguo, emotivo-suggestivo
o allarmistico, allo scopo di incrementare le conversioni (prevalentemente
impressions, visualizzazioni e reactions).
La disinformazione, ossia il fenomeno generato dalla produzio-
ne di contenuti falsi deliberatamente progettati per colpire singoli, gruppi
sociali, organizzazioni, istituzioni o interi stati tra le manifestazioni mag-
giormente evidenti, comprende in questa categoria: le contestualizzazioni
inappropriate (false context), cioè l’infiltrazione di elementi di contorno falsi
o tendenziosi in contenuti veri, compreso il false balance (o par condicio),
ovvero la rappresentazione mediatica di temi complessi o particolarmente
dibattuti in un preciso momento storico-culturale «in forma fittiziamente
polarizzata», di modo che questi appaiano attraversati «da visioni concorrenti
ma tutte ugualmente legittime, dotate di argomentazioni empiricamente
robuste e accettate» (Tipaldo 2019, 75); le falsificazioni (imposter content),
che si verificano quando una fonte inattendibile costruisce i propri contenuti
replicando i tratti formali di una fonte originale; le manipolazioni (manipu-
lated content) di informazioni genuine, alterate con la volontà di ingannare
e/o recare danno; contenuti fabbricati ad arte (fabricated content).
L’autenticità dei messaggi non è di norma oggetto di disputa
nella «malainformazione», la terza e ultima manifestazione empirica dei
disturbi dell’informazione. È l’atto medesimo o la diffusione di determi-
nati contenuti sensibili, in questo caso, a costituire di per sé un fattore di

55
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

pregiudizio o rischio e/o a cagionare un danno a carico del destinatario.


Fanno parte di questa fattispecie: le fughe di notizie (leaks) e la diffusione
di materiale riservato senza consenso, compreso il revenge porn; le molestie
(harassments); e, appunto, l’HS.

3. Le istituzioni europee e le piattaforme: efficacia e


problemi di una ineludibile governance multilivello

Sui temi specifici, le istituzioni europee hanno avviato da tempo azioni


di approfondimento e iniziato un cammino regolativo vasto e complesso.
L’approccio multilevel (Volkmer 2014), tipico delle policies europee, sta
cercando di costruire un policy-network che diventi ombrello regolativo
per i governi nazionali. Il poter disporre di una cornice normativa comune
mostra vantaggi e svantaggi. Il vantaggio è rappresentato dal fatto che la
forza delle istituzioni europee nella concertazione può essere maggiore di
quella dei singoli stati, come dimostra l’accordo raggiunto con le principali
piattaforme social e l’avvio di centri di fact-checking e di monitoraggio di-
slocati nel territorio dell’UE. Lo svantaggio sta nella scelta adottata, per ora
unica possibile per la delicata architettura istituzionale europea, di Codici
di Condotta, uno strumento giuridicamente vincolante, che si fonda però
su un impegno volontario dei soggetti che lo sottoscrivono. La violazione
del Codice non determina alcuna sanzione, trattandosi di una dichiarazione
di buone pratiche sempre rescindibile. Finora lo strumento ha funzionato,
costringendo le piattaforme ad entrare in un campo di trattative6. Resta
problematica la collaborazione con gli Stati i quali continuano a percepire
le direttive europee come non vincolanti e spesso ingerenti nella propria
«sovranità». L’azione regolativa europea, pur puntuale ed innovativa, resta
poco presente all’interno del dibattito e della progettazione pubblici. Il di-
battito è aperto e la sintesi non così immediata, ma per trovare un punto di
equilibrio è importante ripercorrere gli estremi dell’azione di policy europea.
All’interno del piano strategico 2016-2020, la Commissione Eu-
ropea nel gennaio 2018 ha istituito l’High Level Expert Group (HLEG7) per

6
Ad esempio, durante l’emergenza Covid-19 le istituzioni europee hanno chiesto ed ottenuto da
WhatsApp la limitazione dell’opzione di condivisione a molti dei messaggi per attenuare la viralità
di alcuni contenuti fake.
7
Per l’Italia hanno partecipato all’HLEG in qualità di esperti Oreste Pollicino, Federico Fubini e
Gianni Riotta.

56
Fake news e hate speech

fornire consulenza sulle iniziative politiche comunitarie volte a contrastare


le FN e la disinformazione online. Il lavoro della Commissione europea e del
gruppo di esperti ha avuto quattro grandi principi ispiratori: la trasparenza
sul modo in cui l’informazione viene prodotta o sponsorizzata; la difesa del
pluralismo dell’informazione; la credibilità dell’informazione e il coinvolgi-
mento della società civile. Ha avviato un ampio processo di consultazione
pubblica8 e audizioni mirate a soggetti strategici. A suo seguito è stato messo
a punto un piano d’azione per contrastare la disinformazione con quattro
linee di intervento prioritarie: migliorare gli strumenti di analisi dei flussi
e delle modalità di propagazione della disinformazione online; migliorare
la cooperazione interna all’Unione Europea per dare risposte comuni alle
minacce; perfezionare la collaborazione con le piattaforme online e la do-
tazione di strumenti informatici; sensibilizzare e migliorare le competenze
educative nel riconoscimento e nel contrasto delle FN. Il principale risultato
dell’ HLEG è stato un rapporto9 di best practices con raccomandazioni per
interventi a breve e lungo termine e per la costruzione di un network di
soggetti attivi da coinvolgere nei processi.
È stato così realizzato un Codice di condotta sulla disinforma-
zione , il primo siglato a livello internazionale, che contiene al suo interno
10

norme di autoregolamentazione per combattere la disinformazione fuori e


dentro lo spazio europeo, firmato volontariamente, pur con qualche rilut-
tanza, dalle piattaforme, dai principali social network, dagli inserzionisti
e dall’industria pubblicitaria11 che hanno inoltre accettato di sottoscrivere
un piano di azione composto da cinque aree di intervento: interrompere le
entrate pubblicitarie di account e siti web che diffondono la disinformazio-
ne; migliorare la trasparenza delle policies pubblicitarie sul web; affrontare
la questione dei profili falsi e dei chat bot online; dare ai consumatori la
possibilità di segnalare contenuti non attendibili accedendo a diverse fonti
web e migliorando, al tempo stesso, la visibilità e la reperibilità di contenuti

8
La consultazione pubblica si è svolta tra il 13 novembre 2017 e il 23 febbraio 2018 con l’obiettivo di
valutare l’efficacia delle azioni in corso. Sono stati somministrati due questionari: uno per i cittadini
e uno per il settore dell’informazione. Il numero di risposte è stato di 2.986 risposte: 2.784 di cittadini
e 202 del settore dei media.
9
Cfr. report http://ec.europa.eu/newsroom/dae/document.cfm?doc_id=50271, accesso 1 settembre
2020.
10
Cfr. https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation, accesso
28 luglio 2020.
11
Il codice è stato sottoscritto da Facebook, Google e Twitter, Mozilla, dagli inserzionisti e dall’industria
pubblicitaria nell’ottobre 2018 e i firmatari hanno presentato le loro timetable per l’attuazione. Microsoft
ha aderito nel maggio 2019, mentre TikTok ha firmato il Codice nel giugno 2020.

57
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

verificati; responsabilizzare la comunità di ricerca a monitorare la disinfor-


mazione online attraverso l’accesso ai dati delle piattaforme nel rispetto della
privacy. Questo è stato il primo passaggio di un processo che nel 2020 si è
concretizzato con il finanziamento di misure in quattro ambiti: potenziare
strumenti di monitoraggio sia a livello comunitario che negli stati membri;
rendere vincolante l’accordo quadro europeo a livello centrale e locale con
le piattaforme; costruire una rete di fact-checkers in Europa composta da
giornalisti accreditati e ricercatori qualificati in diversi settori; potenziare le
competenze dei settori intermedi (giornalismo, attori politici, attori pubblici,
insegnanti) e iniziative di sensibilizzazione della società civile attraverso
campagne d’informazione e forme di coinvolgimento attivo.
Sul fronte dell’HS, invece, nel maggio 2016 la Commissione
Europea ha ottenuto che Facebook, Microsoft, Twitter e YouTube siglassero
un Codice di condotta per contrastare i discorsi di odio online a cui nel 2018
hanno aderito anche Instagram, Google+, Snapchat, Dailymotion e nel 2019
Jeuxvideo.com. La sua attuazione si basa su un regolare monitoraggio in col-
laborazione con una rete di organizzazioni situate nei diversi paesi dell’UE.
Utilizzando una metodologia concordata, queste organizzazioni controllano
il modo in cui le piattaforme stanno attuando gli impegni del Codice. Il
Codice di condotta ha individuato alcuni ambiti di intervento prioritari:
migliorare la risposta delle piattaforme ai discorsi di odio a seguito delle no-
tifiche degli utenti e degli attori preposti alle segnalazioni e ottenere dati più
analitici sulle rimozioni; perfezionare le metriche di valutazione dei contenuti
illegali dei discorsi di odio tenendo conto dei contesti linguistico-culturali;
migliorare le pratiche di trasparenza e di feedback agli utenti e promuovere
il pluralismo attraverso narrazioni positive e buone pratiche. A più di due
anni dalla sua adozione, si registrano alcuni progressi; un primo è proprio
il fatto che le piattaforme, dopo le riluttanze iniziali, pur di non perdere il
mercato europeo hanno deciso di collaborare rimuovendo (abbastanza)
rapidamente contenuti razzisti e xenofobi segnalati.
A partire dal 2016, sempre le piattaforme, in risposta alle di-
sposizioni europee sulla trasparenza nei confronti del pubblico sancite dal
Trattato di Lisbona, hanno accettato di rendere disponibili alle società di
controllo più informazioni sulle iniziative di rimozione, mentre sono ancora
restie a fornire informazioni sull’identità degli haters adducendo motivazioni
di giurisdizione territoriale, poiché, in mancanza di una normativa europea,
prevale la legislazione dei Paesi dove le multinazionali hanno sede legale.

58
Fake news e hate speech

Uno studio recente12 mostra che, pur in maniera lenta, le iniziative della
Commissione Europa stanno comunque raggiungendo risultati. Un dato
contenuto nel rapporto conferma che le aziende interessate sono arrivate nel
2018 a valutare l’89% dei contenuti segnalati entro 24 ore e che il 72% dei
contenuti ritenuti illegali sono stati eliminati. Nonostante il dato positivo, gli
interrogativi aperti restano molti. Per prima cosa, rimane la questione della
valutazione dei contenuti d’odio, sia rispetto alla dimensione linguistica e
culturale entro cui avviene sia rispetto al framework giuridico di riferimento.
Il tema appare delicato e costituisce il cuore della questione,
ma se si vogliono tutelare i dati e la privacy dei cittadini e metterli al riparo
dagli usi degenerativi e discriminatori, lo spettro di azione deve diventare
ampio e concertato.

4. Diritto legislativo e giurisprudenziale, statale e


sovranazionale: quale equilibrio tra libertà di
espressione e tutela da discorsi d’odio e fake news?

Ai fini di un inquadramento giuridico della questione relativa alla lotta


delle FN pare inevitabile partire dalla tutela costituzionale della libertà di
espressione. L’art. 21 della Costituzione italiana prevede che «Tutti hanno
diritto di manifestare liberamente il proprio pensiero con la parola, lo scritto
e ogni altro mezzo di diffusione» e previsioni analoghe, di matrice liberale,
caratterizzano i Bills of Rights europei. Tale diritto fondamentale ben può
subire limitazioni che trovano fondamento nell’esigenza di tutelare altri beni
costituzionalmente protetti già previste esplicitamente o implicitamente agli
albori dello stato liberale, quando tale libertà andava affermandosi.
Ora, tali limiti alla libertà di pensiero includono quelli posti per
contrastare le notizie false? La dottrina italiana non è unanime al riguardo:
senza dubbio, una certa influenza hanno avuto il pensiero e la giurisprudenza
statunitense in materia di free speech che, salvo poche eccezioni, tendono a
concepire anche Internet come un luogo in cui può realizzarsi al massimo
il c.d. «libero mercato delle idee». Riguardo il fenomeno delle FN online si
rileva in dottrina una seppur minima differenza di approcci, ma non può es-

12
Per approfondimenti cfr. Factsheet - 4th monitoring round of the Code of Conduct 30 January
2019, https://ec.europa.eu/info/sites/info/files/code_of_conduct_factsheet_7_web.pdf, accesso 14
luglio 2020.

59
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

sere taciuta la pronuncia della Corte Suprema US v. Alvarez del 2012 con cui
si è ribadito che «the remedy for speech that is false is speech that is true»13.
Eppure, pare arduo non rilevare il fallimento di tale mercato, «asimmetrico e
chiuso, sia in relazione alla tipologia delle fonti sia in relazione alla tipologia
delle informazioni» (Pisaneschi 2020, 2), considerata la evidente difficoltà
della distinzione tra fonti affidabili e fonti non affidabili e tra informazione
veritiera e informazione falsa.
Ciò che in questa sede maggiormente rileva è la dimensione
passiva della libertà di informazione, libertà, quest’ultima, inclusa nella tu-
tela offerta dall’art. 21. La Costituzione italiana tutelerebbe, infatti, il diritto
a essere informati e la Corte costituzionale, con la pronuncia n. 112/1993,
ha avuto occasione di chiarire che tale diritto può ritenersi garantito solo
se è «qualificato e caratterizzato dal pluralismo delle fonti da cui attingere
conoscenze e notizie»: tale lettura – è bene precisare – non si discosta da
quella prevalente nelle altre democrazie costituzionali europee, né dall’in-
terpretazione dell’art. 11 della Carta europea dei diritti fondamentali dell’UE
che esplicita la correlazione tra libertà di espressione e «libertà di ricevere
o di comunicare informazioni». Esiste dunque un diritto all’informazione,
ma non è stato mai espressamente riconosciuto un diritto costituzionale alla
verità. Molteplici sono le ragioni di tale apparente lacuna: tra tutte, pare di
assoluto rilievo il problema che solleva l’accertamento della verità. A chi
spetta? Cosa si intende per verità? V’è, innanzitutto, una differenza di non
poco conto tra falso «oggettivo» e falso «soggettivo»: come dovrebbe essere
disciplinata l’ipotesi di una notizia oggettivamente falsa ma soggettivamente
vera, ovvero ritenuta tale in buona fede da colui che la diffonde? I dubbi su
un intervento repressivo che incide sulle forme proprie della democrazia
pluralista sono fondati quando si tratta di diffusione di informazioni false ma
ritenute vere da chi le diffonde: si può davvero imporre che chiunque prima
di manifestare il proprio pensiero debba fare ricerche sulla veridicità di ciò
che trasmette? Ovvero, è conforme al principio costituzionale della libertà di
espressione? Non rimane appannaggio dei colti e degli istruiti? Condivisibile
pare, invece, la tesi della più autorevole dottrina in materia che, già in epoca
pre-Internet, aveva sostenuto che l’art. 21 non proteggesse le notizie false
oggettivamente e soggettivamente, data la rilevanza dell’aggettivo «proprio»
anteposto al sostantivo «pensiero» (Esposito 1958).

13
Corte Suprema USA, United States v. Alvarez, 567 U.S. 709 (2012).

60
Fake news e hate speech

Si può quindi ritenere che il contrasto per via legislativa della


diffusione di notizie false non rappresenti una limitazione incostituzionale
della libertà di manifestazione del pensiero, tanto più che la letteratura e la
giurisprudenza dello scorso secolo debbono ritenersi parzialmente superate
quando si riflette sulla possibilità di limitare la circolazione di notizie sogget-
tivamente e oggettivamente false, oppure rappresentate in maniera fuorviante
in rete. Ciò, essenzialmente, perché la differenza tra media tradizionali e
social media è enorme: basti riflettere sulla velocità di propagazione e sulla
difficoltà di controllo delle informazioni online, circostanza che richiede di
affrontare il problema del diritto all’informazione con nuove categorie per
risolvere la questione che viene spesso efficacemente riassunta come una
«frattura tra la democrazia dell’informazione e l’aristocrazia della conoscen-
za» (Fumo 2018, 84). Spiega, infatti, Sunstein (2010, 11) che «I rumors, le
dicerie, sono vecchi quanto la storia dell’uomo. Ma con la nascita di Internet
sono diventati onnipresenti. Ne siamo sommersi. Le voci false e infondate
sono particolarmente moleste, provocano un danno morale a individui e
istituzioni e spesso sono refrattarie alle correzioni. Possono minacciare car-
riere, programmi politici, funzionari pubblici e a volte la democrazia stessa».
La classica contrapposizione costituzionalistica tra democrazia
militante e democrazia tollerante perde un po’ del suo significato e della sua
portata in ragione della diversa natura e del diverso obiettivo che la restrizio-
ne di alcune libertà individuali mira a raggiungere. Internet è sicuramente
un luogo in cui lo scambio di idee può essere proficuo, ma è tutt’altro che
libero: si pensi alle posizioni di monopolio o oligopolio di alcuni gestori di
motori di ricerca e al ruolo degli algoritmi da questi creati, oppure alla nota
questione delle cosiddette filter bubbles. Dovrebbero quindi entrare in gioco
i principi non solo dello stato liberale, ma dello stato liberal-democratico
instaurato dalla Costituzione repubblicana che mira a perseguire la giusti-
zia sociale di cui l’accesso alla conoscenza, non solo all’informazione, pare
elemento fondante, insieme con la tutela dei soggetti più vulnerabili.
Si tratta però di riflettere su quali possano essere le soluzioni
normative più efficaci, oltre quelle UE ricordate al par. 2. Un eventuale in-
tervento normativo penalistico o civilistico è questione delicata. La Corte
europea dei diritti umani (d’ora in poi CEDU), è vero, ha riconosciuto con
la sentenza Delfi v. Estonia del 2015 che, data la natura peculiare di Inter-
net, i «doveri e le responsabilità» che accompagnano l’esercizio della libertà
di espressione (ex art. 10.1 CEDU) nel caso di un portale di news online,
possono differire da quelle di un tradizionale editore della stampa, ma la

61
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

giurisprudenza al riguardo è tutt’altro che univoca e lascia aperte diverse


questioni14. In particolare, non viene imposto agli Stati membri nessun ob-
bligo di prevedere la responsabilità degli Internet service providers (d’ora
in poi ISP) per i contenuti illeciti: analogamente, dieci anni prima, con la
decisione Salov v. Ucraina i giudici di Strasburgo avevano negato che gli
Stati membri fossero obbligati dalla CEDU a proibire la diffusione di false
notizie15, così limitandosi ad ammettere, ma non a imporre, ai legislatori
nazionali di intervenire per contrastare il fenomeno delle FN online.
Le normative finora adottate negli ordinamenti europei sono
solo due. In Germania, la legge n. 536 del 30 giugno 2017 ha previsto pe-
santi sanzioni economiche per i social networks con almeno due milioni di
iscritti che non predispongano misure finalizzate a consentire agli utenti
la trasmissione delle segnalazioni, alla rendicontazione sulla gestione delle
segnalazioni e alla rimozione dei «contenuti manifestamente illegali» nel
termine di ventiquattro ore16. In Francia, invece, la Legge n. 2018-1202 del
22 dicembre 2018 «relative à la lutte contre la manipulation de l’information»
ha introdotto misure contro le FN che si applicano però solo nel periodo
elettorale ed esclusivamente agli operatori che hanno superato un certo
numero di connessioni. La portata di tale disciplina è pertanto assai ridotta,
ma di particolare interesse pare la definizione che vi si fornisce di “notizie
false”: «descrizioni imprecise o fuorvianti di un fatto con la caratteristica di
alterare la regolarità dell’elezione, diffuse in modo deliberato, artificiale o au-
tomatizzato e massivo, da un servizio di comunicazione online al pubblico».
A chi dovrebbe spettare infatti l’accertamento della verità e, di
conseguenza, la richiesta di rimozione della notizia falsa? Al riguardo pare
condivisibile quanto stabilito nella Dichiarazione di Vienna del 3 marzo 2017
«su libertà d’informazione, FN, disinformazione e propaganda», firmata dal
Relatore Speciale per la libertà di opinione ed espressione delle Nazioni Unite,
dal Rappresentante OSCE sulla libertà dei media, dai Relatori speciali per
la libertà d’espressione degli Stati americani e dalla Commissione africana
per i diritti umani e dei popoli che ha ribadito il divieto di riconoscere agli

14
CEDU, Delfi v. Estonia, ricorso n. 64569/09, 16 giugno 2015: la pronuncia ha ritenuto legittimo
per uno Stato considerare il portale di news online responsabile per commenti degli utenti ritenuti
offensivi e incitanti all’odio e/o alla violenza nei confronti di soggetti terzi. Su tale pronuncia e sui
tentativi di dialogo in materia di responsabilità degli ISP tra CEDU e Corte di Giustizia dell’UE cfr.
Pollicino (2017).
15
CEDU, Salov v. Ukraine, ricorso n. 65518/01, 6 dicembre 2005.
16
Sul Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG) si vedano
Bassini e Vigevani (2017) e Abbondante (2017).

62
Fake news e hate speech

ISP poteri di sorveglianza ed azione sugli user generated content, a meno che
non intervenga direttamente l’autorità giudiziaria. Pertanto il controllo sulla
veridicità delle notizie diffuse non dovrebbe essere affidato agli operatori
della rete, ma a un’autorità di diritto pubblico, terza e indipendente, che operi
come fact-checker, direzione verso cui si sta muovendo l’Unione europea.
Auspicabile è del resto tale intervento normativo a livello europeo, come
si è già evidenziato nei paragrafi precedenti, intervento che può ritenersi
agevolato se si considera che i Paesi UE tendono a condividere un comune
consensus in materia di libertà di informazione chiaramente contrapposto
all’impostazione statunitense che stenta ad accettare la possibilità di imporre
limiti al free speech che non risulti idoneo, ex post, a provocare un pericolo
di danno concreto e immediato (Pollicino 2017).
Con riferimento, invece, all’HS, vale la pena rilevare che nella
quasi totalità dei Paesi europei sono da tempo in vigore norme del Codice
penale che qualificano come reati forme diverse di diffusione di propagan-
da, incitamento o istigazione alla violenza e alla discriminazione sulla base
di molteplici fattori quali razza/etnia, religione, nazionalità e, sempre più
spesso, anche sesso, orientamento sessuale, identità di genere e disabilità:
tali previsioni normative, però sono raramente costruite per la repressione
del discorso d’odio online. La legge tedesca interviene in tal senso, ma «solo»
per imporre ai social network di attivarsi per attuare le esistenti norme penali
in materia di discorso d’odio, non essendo applicabile alle notizie false che
non integrino forme di odio: si tratta quindi a tutti gli effetti di una legge
contro l’HS e non contro le FN, ben più difficili da reprimere in quanto –
semplificando notevolmente la questione – più difficili da individuare.
Rispetto alle soluzioni normative per la lotta all’odio online, il
modello tedesco è interessante. In Italia, invece, dati gli artt. 604 bis e ter del
Codice penale, in materia di HS non sarebbe necessario introdurre nuove
fattispecie di reato, ma, come già evidenziato a più riprese in dottrina, oc-
correrebbe legiferare ampliando la portata del d.lgs. n. 70/2003 attuativo
della Direttiva 2000/31/CE «relativa a taluni aspetti giuridici dei servizi della
società dell’informazione nel mercato interno, con particolare riferimento
al commercio elettronico», al fine di garantire che le piattaforme rimuova-
no tempestivamente i contenuti illeciti che ospitano e intervenire sui punti
deboli della normativa vigente in Germania per ridurre al minimo i rischi
di errori e di over-removal, nonché per garantire trasparenza nei metodi di
valutazione, nelle segnalazioni dagli utenti e nelle procedure seguite per
l’eliminazione.

63
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

5. Strumenti informatici per il monitoraggio e il


contrasto alla diffusione di messaggi di incitamento
all’odio e FN

La rapida evoluzione delle tecniche di intelligenza artificiale relative al


trattamento automatico del linguaggio umano e all’analisi delle reti sociali,
di pari passo con la disponibilità di grandi quantità di dati generati dagli
utenti sui social media e di strumenti computazionali più sofisticati basati
su reti neurali e algoritmi di apprendimento profondo, rende possibile la
progettazione di nuovi strumenti di monitoraggio. La ricerca più recente
in quest’ambito mette a disposizione competenze e strumenti per rilevare
automaticamente su larga scala, dai contenuti generati dagli utenti dei so-
cial media, informazioni sul contenuto soggettivo e non fattuale, offrendo
l’opportunità di osservare in diretta e «in the wild» sentimenti espressi in
modo spontaneo e reazioni di odio rispetto a molti diversi soggetti e cate-
gorie, spesso ricorrendo anche all’uso di linguaggio figurato e di espressioni
ironiche e sarcastiche (Sulis et al. 2016; Karoui et al. 2017). Consente inoltre
di studiare la diffusione di questi contenuti emozionalmente carichi e spesso
polarizzanti, analizzando il dato linguistico insieme a elementi contestuali,
come le reti sociali sottese, le comunità e i legami fra gli utenti (Lai et al.
2019), fondamentali per ricostruire il contesto delle campagne d’odio e di
disinformazione. Le potenzialità degli strumenti computazionali in questo
contesto sono state messe in luce anche da numerosi progetti di ricerca
recenti, portati avanti in ambito europeo, e in Italia, che avevano il monito-
raggio e il contrasto dell’incitamento all’odio e della disinformazione come
comune obiettivo. Tali progetti si sono concentrati su diversi target di HS,
monitorando vari paesi e territori, differenziandosi per la granularità della
rilevazione, l’arco temporale preso in considerazione e la possibilità di offrire
un monitoraggio quotidiano o un’analisi ex post. Infine, per ispezionare i
risultati del monitoraggio e quantificare il fenomeno, si sono sviluppate
tecniche di visualizzazione quali mappe statiche o dinamiche e interattive.
Alcuni progetti che hanno incluso la realtà italiana come caso di studio, sono
il progetto CREEP sul monitoraggio del cyberbullismo online; HateMeter con
un focus sull’odio anti-musulmano online in diversi paesi europei, ACCEPT
con focus su HS online di matrice omotransfobica; il progetto MANDOLA
che fornisce un’infrastruttura per la segnalazione di discorsi di odio illegali;
il «Barometro dell’odio» coordinato da Amnesty International; e infine la
piattaforma «Contro l’odio», finanziata dal Ministero italiano del lavoro e

64
Fake news e hate speech

delle politiche sociali, che nasce con obiettivi espliciti di monitoraggio affini
a quelli qui auspicati e estende i risultati della ricerca emersa dal progetto
«Mappa dell’intolleranza» (Capozzi et al. 2019)17.
Queste competenze e strumenti possono venire utilmente im-
piegati nella rilevazione di contenuti razzisti (Capozzi et al. 2019), misogini
(Pamungkas et al. 2020), omofobi veicolati dalla rete, e giocare un ruolo
sempre più importante per potenziare diverse funzioni di monitoraggio:
da un lato, a supporto della decisione politica, del legislatore; dall’altro, a
supporto della cittadinanza, in una prospettiva non solo di prevenzione,
ma anche di educazione all’uso critico dei media, e di intervento avanzato
soprattutto nel contrasto dell’odio.
Come emerge dall’analisi del framework europeo (par. 3 e 4),
normative esistenti a vari livelli per arrestare la diffusione dei messaggi di
incitamento all’odio di qualsivoglia natura sui social media si sono scontra-
te con una notevole probabilità di errore e confusione nelle operazioni di
rimozione o blocco, dovuta in parte alle difficoltà tecniche di realizzare un
monitoraggio tempestivo o efficace, in parte alla vaghezza di espressioni
come «HS illegale», o «hateful conduct». In una prospettiva normativa è
necessario poter distinguere le due forme da espressioni di «odio generi-
co», genericamente offensive, o aggressive o violente, dove non emerge per
la vittima l’appartenenza a una categoria riconosciuta come vulnerabile e
per cui eventualmente si configurano altre categorie di reato diverse dal-
l’HS. In questo contesto, piattaforme web per monitorare i discorsi di odio
e visualizzarne la diffusione tramite mappe possono essere di supporto ai
policy-makers, al legislatore e agli operatori pubblici e dell’informazione,
per individuare le categorie vulnerabili, o a rischio, nel contesto nazionale,
estendendo la definizione del Consiglio d’Europa richiamata nel paragrafo
2 per includere anche per esempio forme di HS contro le donne18 o contro
ricercatori e scienziati (par. 6).
Per ricostruire il contesto delle campagne d’odio, risulta fon-
damentale abbinare all’analisi dei contenuti l’analisi delle reti sociali degli
utenti dei social media. L’analisi automatica delle reti sociali consente di

17
Per i progetti citati vedi: http://hatemeter.eu/; https://www.arcigay.it/accept/it/; https://www.amnesty.
it/barometro-odio/; http://www.voxdiritti.it/. Il progetto Mappa dell’intolleranza combina: strumenti
di rilevazione di messaggi di incitamento all’odio contro gli immigrati e la sua evoluzione nel tempo
e nello spazio, basati sulla linguistica computazionale; strumenti di analisi delle reti sociali e tecniche
avanzate di visualizzazione basate su mappe. È stata usata anche a scopo educativo (https://mappa.
controlodio.it/).
18
https://www.amnesty.it/hate-speech-contro-le-donne-al-via-il-nuovo-monitoraggio/.

65
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

avere evidenza dei collegamenti e del network di connessioni tra utenti, che
rinforza e contribuisce al rapido montare dell’onda di odio. Strumenti di
questo tipo possono essere usati per assumere una prospettiva sistemica sui
discorsi di incitamento all’odio. Infatti in un’ottica di monitoraggio e inter-
vento istituzionale, approfondita nel paragrafo 6, sorge l’esigenza di andare
oltre la valutazione di singoli post, a cui si riducono spesso gli interventi
di moderazione dei contenuti portati avanti anche dalle piattaforme stesse,
ricorrendo alla modalità della segnalazione, e di valutare il fenomeno nel
suo insieme, non essendo spesso il singolo post ad essere un pericolo, ma lo
sviluppo di un’azione massiva di messaggi che si rinforzano reciprocamente e
vanno a delineare il fenomeno di HS nei confronti di qualcuno (Binny et al.
2019). Le tecnologie informatiche di monitoraggio e analisi delle reti sociali
degli utenti dei social consentono di rilevare i collegamenti e il network di
connessioni che rinforza l’onda di odio e possono essere usate per ricostruire
il contesto della campagna d’odio, individuare i profili più influenti o fare
luce su campagne d’odio create ad arte da bot o troll. Infatti, l’individuazione
di gruppi sociali specifici e di individui vulnerabili può essere sfruttata per
rendere virale un messaggio esplicitamente o implicitamente violento nei
confronti di quei gruppi (siano essi i migranti, i politici, gli omosessuali, le
donne o talvolta gli scienziati) o per soffiare sul fuoco della polarizzazione19.
L’educazione all’uso critico dei media è un’attività preventiva di
ovvia rilevanza dal lato degli utenti, cui il monitoraggio può fornire supporto
nel contrasto e nell’intervento, in specifico con l’analisi della relazione fra
FN ed HS, grazie all’estrazione di conoscenza data-driven utile a studiosi,
educatori e attivisti della società civile per lavorare sulla decostruzione
degli stereotipi. Il potenziamento del contrasto alle FN connesso all’HS
può avvenire anche mediante la generazione di contro-narrative efficaci,
narrazioni positive e buone pratiche. Infatti, da un lato, come sperimentato
nell’ambito di progetti pilota, gli strumenti di monitoraggio permettono di
analizzare in una prospettiva multidisciplinare le caratteristiche dei discorsi
d’odio, quantificare e identificare i target dell’odio, studiare le reti sociali e le
influenze intorno alle FN ai discorsi di incitamento all’odio, i fenomeni virali
di contagio e il ruolo delle emozioni nella circolazione di FN e HS, e, infine,
i fenomeni di polarizzazione collegati. D’altro canto, questa comprensione
fornisce elementi fondamentali per l’elaborazione di protocolli di risposta
linguistica e la generazione di contro narrative efficaci, creative e contagiose,

19
Per ovvie ragioni tecniche prima che legali ed etiche il monitoraggio non individua singoli soggetti
produttori di discorso.

66
Fake news e hate speech

utili a supportare il lavoro di educatori o organizzazioni non governative


(Chung et al. 2019; Faloppa 2020).

6. Le strategie per rispondere all’odio e alla disinforma-


zione: il dilemma della comunicazione pubblica in
situazioni di crisi

La comunicazione delle istituzioni pubbliche, è sempre più spesso coinvolta


in campagne di «disinformazione» e di odio contro i vertici e funzionari delle
stesse, contro docenti e ricercatori o rappresentanti di specifiche comunità
scientifiche o professionali. Un caso particolare riguarda la comunicazione
di crisi ed emergenza di contenuti riconducibili alla scienza da parte dei ri-
cercatori e degli esperti, che mette in evidenza alcuni limiti alle possibilità di
reale e fattivo contrasto da parte dell’istituzione pubblica, quando chiamate
ad arginare il diffondersi di contestualizzazioni inappropriate, falsificazioni,
manipolazioni “alterate con la volontà di ingannare e/o recare danno” (par.
2 e Tipaldo 2019). Si pone, prima di tutto, un problema di linguaggio che la
comunicazione pubblica, nelle sue funzioni classiche di rapporto coi media,
pubblico servizio o di terza missione universitaria, non può adottare né dif-
fondere. A livello linguistico, un’affermazione di odio si può presentare come
una verità assoluta, spesso fondata su premesse o dati errati che pretende di
essere assunta come tale. In questo suo tratto, è una affermazione che non
apre varchi di interlocuzione perché non lascia spazio ad argomentazioni
alternative. In altri casi si propone in forme più sottili, quando cioè sceglie
frasi ironiche o allusive, l’odio emerge come stemperato in soluzioni mimeti-
che che, scegliendo la cifra della ridicolizzazione, della denigrazione o della
banalizzazione, appaiono atti «che al massimo ‘irritano’ qualche sensibilità,
ma che nessun tribunale giudicherebbe in maniera incontrovertibile come
espressioni d’odio» (Belluati 2018, 375). Entrambe queste prospettive inne-
scano un erroneo presupposto di superiorità tacitamente attribuito da chi
pronuncia l’offesa a scapito della «persona o gruppo presi di mira» a cui le
istituzioni non possono rispondere sullo stesso piano (ECRI, Raccomanda-
zione di politica generale, n. 15, p. 3)20. Il corredo di dichiarazioni di odio
online si compone tipicamente di gravi, pesanti e ripetuti epiteti, spesso

20
Cfr. https://rm.coe.int/ecri-general-policy-recommendation-no-15-on-combating-hate-speech-
ital/16808b5b04, accesso 1 settembre 2020.

67
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

accompagnati da minacce, unite alla più facile possibilità di diffondere dati


personali (come quelli anagrafici e le immagini), adottando cioè compor-
tamenti che nel mondo materiale sarebbero socialmente o giuridicamente
sanzionabili e configurandosi, in alcuni casi, come reato.
Date queste premesse, l’interrogativo è quali siano gli spazi per
un’azione comunicativa pubblica e istituzionale nel caso in cui a essere og-
getto di campagne di disinformazione e di «attacco d’odio» sia un’istituzione
pubblica e quali siano – in uno scenario di discorso violento e ostile – gli
argini normativi e le pratiche sociali a cui appellarsi. In merito alla prima
questione, occorre mettere a fuoco se questi spazi debbano comprendere
quelli in cui si sta sviluppando il discorso di odio, correndo il rischio di
stimolare l’innalzamento delle ostilità sulla specifica piattaforma; come
questi vadano organizzati, se con soluzioni uni o bi-direzionali, e quale sia
il fine: perseguire la massima visibilità per stimolare il dibattito pubblico o
garantire la sola disponibilità di fonti solide e quanto più possibile complete.
Un’istituzione pubblica può orientare la sua comunicazione a semplificare
e rendere più chiaro il proprio modo di esprimersi, ma l’esigenza di perse-
guire autorevolezza, rafforzata dal richiamo della Costituzione (art.54) ad
esercitare le funzioni pubbliche “con disciplina e onore”, impone l’adesione
a stili di comunicazione socialmente esemplari o quanto meno positivi,
cioè orientati a favorire la pacatezza, l’apertura al dialogo e al confronto tra
le posizioni e le idee. Per un’università inoltre – come luogo di nascita del
sapere – a questo si aggiunge anche il tratto della multidisciplinarietà, quale
caratteristica ulteriore dell’eventuale spazio di dialogo. Poiché le affermazioni
di odio sono caratterizzate da una «temperatura» emotiva piuttosto alta, in
cui convergono rabbia e frustrazione, più crescono rabbia e frustrazione,
tanto più alta sarà la probabilità di innalzamento del tono.
A fronte di un “attacco di odio” o a una campagna di disinfor-
mazione, una istituzione deve inizialmente decidere se comunicare o no: se
cioè – in un clima ostile – sia meglio tacere o rispondere. In entrambi i casi vi
sono vantaggi e svantaggi, ma val la pena tenere presenti alcune specificità.
Tacere. Il silenzio è per sua natura polisemico, si presta all’interpretazione
individuale dell’altro – di ogni «altro» – e tipicamente il silenzio – in un clima
di odio e sfiducia – è letto in chiave negativa: «tace perché ha torto»; «tace
perché non sa cosa dire». Il silenzio è facilmente assimilabile al torto, alla
reticenza colpevole e in una contesa dialettica il silenzio è percepito come
atto di debolezza. Rispondere. Possiamo declinare la risposta sulla base delle
tre possibili posizioni relazionali, richiamandoci al modello transazionale di

68
Fake news e hate speech

Berne (Berne 1961, Stewart e Joines 2000): attacco, difesa, informazione. Una
risposta che possiamo definire di «attacco» è spesso aggressiva, incalza l’altro
con espressioni giudicanti e irriflessive, fondate su stereotipi e una visione
pregiudiziale della questione che – anche se posta con toni controllati – di
fatto va a «rintuzzare» la rabbia dell’altro, stimolandolo a reiterare il suo
comportamento inappropriato sul piano dialogico e sanzionabile sul piano
giuridico. Una risposta che possiamo definire «difensiva» ricerca giustifi-
cazioni e legittimazioni in argomenti secondari o irrilevanti, è una risposta
percepita come debole. Una risposta più forte invece si focalizza su contenuti
oggettivi, di tipo informativo, che stimola lo stato dell’Io “Adulto” dell’altro,
la parte razionale, quella che ragiona. In concreto si tratta di agire mettendo
a disposizioni contenuti e informazioni espressi nella forma più oggettiva
possibile per stimolare una reazione dell’altro sullo stesso piano relazionale.
Sebbene quest’ultimo tipo di risposta sia la soluzione più favo-
revole a stimolare l’apertura di un dialogo, la sua praticabilità è condizionata
dalla scelta del canale e dalla disponibilità al confronto dell’interlocutore: la
scelta del canale – tipicamente lo stesso social network in cui si sta sviluppan-
do il discorso di odio – determina prevedibilmente una situazione di forte
sbilanciamento nella popolarità del contenuto; in merito alla disponibilità
dell’interlocutore, il fomentatore di HS è di solito indisponibile all’ascolto
– di conseguenza al dialogo - e all’accettazione di argomentazione diverse
dalle proprie.
Per ragioni di responsabilità pubblica tuttavia una istituzione
non dovrebbe né sfuggire al confronto né agire alimentando le ostilità: un
quadro che ne riduce gli spazi di azione e prefigura la scelta di tacere nei
luoghi del dialogo violento, per stimolare – altrove – la nascita di spazi di
contro-narrazione dove possano trovare asilo contenuti corretti, il con-
fronto e forme di dialogo auspicabilmente più pacate. La scelta di tacere nei
luoghi in cui si sta sviluppando il discorso di odio è dettata dalla volontà
di non favorire o stimolare il reiterare di comportamenti violenti, pur non
rinunciando a perseguire giuridicamente quelli sanzionabili, se lo si ritie-
ne; accompagnata dalla scelta di argomentare su canali propri e pubblici,
mettendo a disposizione del pubblico e del sistema dei media contenuti,
informazioni, conoscenza specifica sulla questione oggetto di attacco; infine
stimolare la nascita di spazi di dialogo qualificato, tipicamente attraverso
l’organizzazione di approfondimenti che favoriscano il confronto e l’interesse
giornalistico. Questa prospettiva ha però il grande limite di lasciare spazio
libero agli «odiatori» sui canali/piattaforme in cui si esprime il discorso di

69
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

odio: se lì, l’istituzione sceglie di tacere anche per non stimolare le ostilità,
la sua voce sarà assente. Al contrario, la scelta di argomentare, mettendo a
disposizione contenuti, informazioni e opinioni a sostegno, stimolerà più
probabilmente la nascita di polarizzazioni e protagonismi, che non un vero
confronto tra le parti.
L’opzione di tacere nei luoghi del dialogo violento, per stimolare
la nascita di altri spazi di contro-narrazione ha tuttavia alcuni non trascu-
rabili vantaggi, in particolare quelli di favorire l’emersione e la diffusione
di un sapere specifico, la conoscenza di elementi sotto attacco, la nascita di
una narrazione alternativa, a partire dalle attività di fact-checking, e infine
lo sviluppo di un dibattito pubblico informato, soprattutto se raccolto dal
mondo giornalistico mainstream.
Tutti questi aspetti aprono spazi di legittimazione alla comunica-
zione pubblica quando è chiamata a supportare la gestione della situazione
di crisi, mettendo a disposizione un sapere qualificato e professionale che
deve essere perseguito sul piano formativo e organizzativo21.
Esperienze vissute di HS e di disinformazione in ambito scienti-
fico – ne sono un esempio gli attacchi a ricerche che prevedono la sperimen-
tazione animale, l’uso di cellule staminali, i vaccini e così via, verificatesi in
Italia22 – dimostrano tuttavia che vi sono pochi e deboli argini, sia sul piano
operativo, i cui strumenti disponibili sono inefficaci per azioni di reale con-
trasto, sia rispetto agli ambiti di tutela normativa. Facebook, il luogo in cui,
nello specifico, spesso avvengono violenti attacchi, non agisce né reagisce
subito, quando lo fa non lo fa in modo sistemico né sistematico ma puntuale
(post per post), risultando pesantemente inefficace. È vero che un discorso si
sviluppa dalla somma delle singole prese di posizione che ciascuno esprime
singolarmente. Tuttavia, finché si chiede di sottoporre a valutazione ogni
singolo post o commento, finché la sua valutazione è decontestualizzata e si
fonda sulla legislazione in cui è basato il server (tipicamente Canada e Irlan-
da) e non sulla legislazione del Paese in cui avviene l’attacco di odio, finché
non si consente una segnalazione/identificazione «sistemica» dell’attacco
– direttamente attraverso la piattaforma e ricorrendo alla Polizia postale,

21
A tal fine sviluppando competenze e funzioni della comunicazione pubblica (ex L.150/2000 art.
4, b e art. 5, d e art.8,c.2 a b) e della università (Linee guida Anvur per la definizione e valutazione
della terza missione) https://www.anvur.it/wp-content/uploads/2018/11/SUA-TM_Lineeguida.pdf.
Il tema è all’attenzione delle associazioni professionali (www.compubblica.it) e dei Ministeri com-
petenti (Sommo 2019).
22
Su episodi recenti Cfr. Documento Crui per affermare la centralità della ricerca e della sperimen-
tazione animale del 22.11.2020 in crui.it.

70
Fake news e hate speech

dotandola di canali diretti o prioritari per agire, più adeguati degli attuali,
o ad altri organi deputati –, chi è colpito da un attacco di odio si troverà
sempre in una posizione sbilanciata: senza efficaci strumenti a disposizione
per agire, né verso l’autorità preposta a fermare l’onda di odio e identificare i
sobillatori (sui social non c’è certezza dell’identità della persona, non essen-
do il profilo immediatamente riconducibile alla persona fisica, aspetto che
complica ulteriormente la possibilità di sanzionare l’atto), né direttamente
attraverso il canale/piattaforma.
Introdurre una prospettiva sistemica in grado di dare responsi
sistematici e in tempi rapidi diventa importante e possibile, per diverse
ragioni. Ragioni di tipo quantitativo, perché l’odio assume la dimensione
dell’HS in virtù di una forte mobilitazione caratterizzata dalla reiterazione
degli attacchi che si rinforzano reciprocamente per colpire un bersaglio (oltre
tutto in un clima di presunta impunità, quali sono oggi i social network):
la tecnologia consente di identificare la messa in atto di azioni massive di
messaggi, perché non sfruttarla anche a questo fine? Ragioni di natura con-
testuale, perché presi singolarmente i contenuti oggetto dei singoli post o
commenti possono anche non avere i connotati di una affermazione di odio,
ma si configurano come tali nel momento in cui si collocano all’interno di
quel preciso discorso, andando a rinforzarlo e a sostenerlo, e determinandone
il successo, in termini di visibilità, coinvolgimento, diffusione.
Il contrasto della disinformazione è multidisciplinare e multi-
partecipativo, e può essere perseguito sviluppando un approccio olistico,
sistematico e proattivo, e con una serie di pratiche, tra le quali la possibilità
di disporre di un quadro normativo o di co-regolamentazione e dei mezzi
necessari per una verifica indipendente, sia da parte delle autorità di regola-
mentazione che della società civile, in particolare in termini di accesso ai dati.
In alcuni casi, il solo appartenere a una precisa comunità
scientifica, pur operando nel rispetto di tutti i principi che la governano,
può determinare il rischio di divenire oggetto di attacchi d’odio come di-
mostrato dall’esperienza vissuta da alcune università, unitamente ad altri
fatti di cronaca di analogo tenore avvenuti in altre istituzioni scientifiche e
con altri soggetti, inclusi i blog di noti scienziati impegnati nella divulga-
zione. In uno di questi casi, ad esempio, l’attacco, mosso da accuse false, a
partire dall’enfatizzazione e distorsione di fatti e dati oggettivi, è avvenuto
contro i promotori di una ricerca valutata e approvata da tutti gli organismi
indipendenti deputati: complessivamente 6, Europei e Nazionali, e circa 40
esperti indipendenti previsti per legge alla valutazione del progetto. Ma, se

71
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

il sostegno a specifiche cause presso l’opinione pubblica è più che legittimo,


è altrettanto importante che ciò debba poter avvenire esclusivamente ricor-
rendo ad argomenti di carattere generale, rendendo sanzionabili e cancellabili
dalla rete ogni attacco individuale e azione di personalizzazione violenta.
L’attacco al singolo configura una vulnerabilità dell’essere appar-
tenenti alle categorie già previste dalle istituzioni in materia di HS: genere,
LGBT, minoranza etnica, ecc. – ma dovrebbe poter contemplare anche
l’analoga vulnerabilità di chi si trova – più in generale – nella condizione
di «fare» qualcosa che – in un dato momento storico o clima sociale – può
diventare oggetto di discorsi d’odio, nonostante l’attività oggetto di attacco
sia normata e disciplinata, dunque pienamente legittima, ed esercitata nel
pieno rispetto di tali norme. Con la conseguente sanzionabilità dell’attacco.

7. Il possibile ruolo di contrasto al disordine informativo


di un giornalismo rinnovato

La propagazione delle FN produce i suoi effetti allargati all’interno del più


ampio ecosistema digitale dei media, aumentando il rischio da parte dei media
mainstream di amplificare – involontariamente, ma non senza responsabi-
lità – contenuti falsi e non verificati (Tsfati et al. 2020) che possono anche
alimentare onde d’odio.
Come ormai testimonia un consolidato corpus letterario, in
conseguenza del processo di digitalizzazione del sistema dei media, l’at-
tuale ecosistema informativo si caratterizza per tre tendenze fondamen-
tali: l’ibridazione dei canali e delle logiche informative (Chadwick 2013);
l’intermediazione algoritmica della diffusione dei contenuti informativi,
come conseguenza della centralità assunta dai social network nei consumi
informativi degli individui (Christin 2020); la strutturazione di un’interdi-
pendenza ambivalente tra la produzione di informazione verificata. Tanto la
prima, quanto le altre possono essere, a seconda del contesto, fattori anche
congiunti di polarizzazione ideologica e di radicalizzazione delle opinioni,
rendendo possibile l’innesco di campagne d’odio online che prendono forma
soprattutto nel sistema mediatico contemporaneo digitale, ibrido e radical-
mente polarizzato nelle piattaforme dominanti di social networking e nelle
relative logiche algoritmiche di distribuzione informativa.
Il controllo dei comportamenti inopportuni o illeciti, o di
repressione dei reati (par. 4), nonché la necessità di definire strategie di

72
Fake news e hate speech

media education, nelle pratiche di informazione rendono più difficili alcu-


ne distinzioni teoriche e pratiche: come la dicotomia, non più effettiva, tra
media analogici e digitali, e quella mai esistita tra la dimensione «virtuale»
e «reale» dei fenomeni sociali mediati dalla rete. Sul piano della operatività
definitoria, ciò apre ampi margini alla critica al concetto di FN, già discusso
nel paragrafo 2.
Un approccio olistico al problema così definito implica che qual-
sivoglia strategia di prevenzione e di contrasto sia il risultato di un complesso
di azioni volte ad arginare il fenomeno primariamente attraverso politiche
di sviluppo, supporto e promozione dell’informazione corretta, in linea
con standard professionali di qualità. In altri termini, lo scenario attuale fa
avvertire la mancanza di politiche per potenziare, rilegittimandola, la pro-
duzione dei contenuti editati dal sistema professionale dell’informazione.
Se l’information disorder (Bracciale e Grisolia 2020) può essere contrastato
anche sul piano dell’agire individuale, mediante specifiche norme di legge –
pur con tutte le note cautele del caso legate alla salvaguardia della logica di
condivisione delle piattaforme digitali – e mediante il potenziamento delle
politiche per l’educazione ai media, è su un piano più organico e sistemico
che il disordine trova un governo. Si rende, dunque, sempre più necessario
un supporto sostantivo e sostanziale al settore dell’informazione professio-
nale, per porlo nelle condizioni di affrontare la sua perdurante crisi siste-
mica. In questo senso, la capacità di offendere del disordine informativo è
inversamente proporzionale alla capacità di adattamento dell’informazione
giornalistica professionale ai nuovi ambienti. Detto altrimenti: l’informazione
accessibile di qualità è il più efficace degli antidoti al disordine informativo.
Non rinunciabile è, da questo punto di vista, la predisposizione di un pro-
getto funzionale di formazione per gli aspiranti addetti all’informazione e,
contestualmente, un piano di riqualificazione professionale dei giornalisti
«analogici» ancora in organico agli editori dal livello locale a salire. Un passo
determinante verso l’innovazione e la rivitalizzazione del settore sarebbe
la riforma delle Scuole di giornalismo, dei master universitari che oggi co-
stituiscono il principale – ma praticamente l’unico – canale di accesso alla
professione.
Prima di tutto, come già osservato nel par. 4, la frammentarietà
delle soluzioni legislative costituisce un solido presupposto al fallimento.
L’efficacia delle azioni legislative di contrasto al disordine informativo pas-
sa anche inevitabilmente per una «legge quadro» di riordino del sistema
dell’editoria e dell’informazione. al passo con l’evoluzione tecnologica e

73
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

culturale imposta dal digitale, che possa mettere gli editori nelle condizioni
di affrontare le trasformazioni in corso nel mercato editoriale. All’interno
di un sistema dell’informazione che torni ad essere sostenibile, l’utilità della
conoscenza tenderebbe ad arginare la disinformazione; la cultura digitale
contribuirebbe a limitare la condivisione inconsapevole dei contenuti falsi;
una maggiore consapevolezza del valore dell’informazione favorirebbe la
sterilizzazione della mistificazione del senso e stempererebbe le ambiguità
testuali. Ecco perché sarebbe un investimento pubblico auspicabile il suppor-
to dello Stato alla nascita e crescita di forme innovative di attività editoriale
basate sull’imprenditoria diffusa altamente specializzata e tecnologicamente
avanzata: supportati non solo da programmi di ricerca e di formazione, ma
anche – appunto – da adeguate linee di finanziamento pubblico non assisten-
ziale. La direzione è nota da tempo a livello internazionale: restano validi, a
distanza di quasi un decennio, i punti di fuga individuati da Anderson, Bell
e Shirky (2012) nell’analisi del passaggio dal giornalismo di tipo fordista a
quello post-industriale negli Stati Uniti.
Secondariamente, legato a questo più generale stato di sistema, c’è
da osservare che l’attenzione degli utenti del web ai contenuti non verificati
dalle news organisation tende a diminuire, se l’informazione autorevolmente
prodotta è più accessibile. Nei Paesi a più avanzato processo di digitalizza-
zione, la fiducia che l’utente della rete ripone nei contenuti presenti sulle
piattaforme è tendenzialmente minore di quella che ripone nei contenuti
prodotti e diffusi dai legacy media (Reuters Institute 2020). Ciò si è dimostra-
to ancor più vero nelle condizioni di crisi e di emergenza, come per esempio
con l’attuale pandemia da Covid-19. L’elevata percezione di serio rischio
tangibile per sé, infatti, ha comportato il ritorno di fiducia verso le fonti di in-
formazione verificata in tutte le società a mediatizzazione avanzata (AgCom
2020). I media mainstream sono ancora l’agenzia di certificazione in grado
di assicurare l’autorevolezza necessaria. Inoltre, come ha dimostrato l’esplo-
sione degli ascolti dei notiziari tv regionali del servizio pubblico durante il
periodo più acuto della pandemia, la prossimità della fonte informativa all’in-
dividuo si conferma un fattore primario di legittimazione (Shearer 2020).
Infine, è parte integrante di una efficace strategia di prevenzione e
di contrasto al fenomeno del disordine informativo la costituzione di network
professionali nazionali e internazionali, come il processo di policy europeo
ispira (par. 3), in grado di progettare e trasferire l’innovazione – prima cul-
turale e sociale che tecnologica – alle pratiche del giornalismo e agli attuali
modelli di sostenibilità economica. Tali network esterni ed indipendenti

74
Fake news e hate speech

per l’elaborazione di conoscenze avanzate, se messi in condizione di fare


sistema con il mondo dell’editoria, costituirebbero un motore di sviluppo
importante per un settore tradizionalmente autoreferenziale e indotto a
politiche editoriali «difensive» dalla grave crisi che ne mina lo sviluppo. Una
risposta efficace al disordine informativo non può che arrivare da strategie
che coinvolgano tutti gli attori che giocano un ruolo nell’economia della
professione: Ordine dei giornalisti, Autorità per le Garanzie nelle Comuni-
cazioni, Università e Istituti di ricerca, Scuole di giornalismo, associazioni
di categoria, rappresentanze sindacali degli operatori di settore e, non certo
per ultimi, i «consumatori» di informazione.
La costruzione di questi network e la nascita di start-up innova-
tive, anche nel campo dell’editoria, che possano spingere un settore ormai
inerte alla ristrutturazione e al rilancio prefigura una riforma a questo
finalizzata delle Scuole di giornalismo. È da tempo oggetto di attenzione
negli organi deputati, infatti, una riflessione sulle modalità di accesso alla
professione, sulla struttura, la didattica e il praticantato delle Scuole di gior-
nalismo e sull’Esame di Stato. Ognuno di questi momenti rappresenta oggi un
punto debole del sistema editoriale. Lì emerge, infatti, l’inadeguatezza delle
attuali pratiche professionali a fronte della “piattaformizzazione” crescente
del giornalismo contemporaneo.

8. Conclusioni

La riflessione pluridisciplinare qui proposta converge sull’idea che un pia-


no strategico di contrasto a FN e HS, per essere efficace, deve seguire un
approccio multidimensionale, inclusivo e capace di connettere prospettive
diverse: regolative, tecnologiche, sociali, mediali e educative. In primo luogo
deve essere chiamato in causa il piano istituzionale, essere in grado di tenere
insieme i livelli top-down e bottom-up e agire in un orizzonte integrato che
coinvolga le piattaforme e i professionisti dell’informazione, il settore pub-
blico e privato, il mondo della ricerca e la società civile. In secondo luogo, è
necessario adottare un intervento a più livelli, in grado di integrare i diversi
ambiti territoriali (internazionale, sovranazionale, nazionale e locale), as-
secondando la prospettiva più glocal (Robertson 2014) che è propria della
propagazione del disordine informativo.
Sulla base di questa riflessione, la proposta regolativa e policy-
oriented dovrebbe muoversi in più direzioni attivando un sistema di norme

75
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

e di pratiche comuni capaci di incidere su network professionali. Nell’ordine,


ma non di importanza, le misure da adottare dovrebbero sinergicamente
intervenire sui seguenti punti.
1) Il potenziamento di un intervento regolativo mirato, coordi-
nato multilivello (sovranazionale, europeo e nazionale) rivolto a responsa-
bilizzare le piattaforme sui contenuti comunicati e gli emittenti sui possibili
effetti di discorsi d’odio, specie quando diventano sistematici e orchestrati,
e quando possono istigare reati contro persone, che rischiano di divenire
oggetto di attacchi per il fatto di appartenere a categorie vulnerabili o parti-
colarmente esposte nel dibattito pubblico, quali sono oggi membri di comu-
nità scientifiche, ma altri possono diventarlo, laddove venga meno il libero
confronto democratico; un intervento rivolto anche a rendere più efficaci le
forme di controllo e investigazione a difesa delle categorie rese vulnerabili.
2) Un’efficace azione di monitoraggio affidata a osservatori presso
università pubbliche, a istituti di ricerca certificati d’intesa con le agenzie
di controllo (come l’AgCom) che rappresentino, grazie alla competenza
scientifica e terzietà, una garanzia e svolgano un’azione preventiva, nelle due
direzioni complementari dell’informazione e del contrasto. I dati prodotti
possono essere utilizzati dagli istituti scientifici e universitari per la ricerca,
dalla scuola per la formazione di una media literacy, dall’Istat per l’inte-
grazione con altre fonti statistiche, dagli uffici di comunicazione pubblica,
della polizia e della magistratura per orientare le strategie di contrasto, e
infine dai media per alimentare l’opinione pubblica e la coscienza civile con
informazioni elaborate e interpretate attendibilmente.
3) Un solido impianto normativo e deontologico e professionalità
specifiche a difesa della ricerca e dei ricercatori che legittimi fonti terze, at-
tendibili (dalle Università pubbliche agli Istituti di ricerca accreditati dalle
authority) e titolate in base alla loro ‘competenza’ quali fonti attendibili di
contenuti di conoscenza, a disposizione degli organi di informazione, della
pubblica amministrazione, della opinione pubblica e del sistema educativo.
Per rendere ciò possibile è necessario dotarsi di strumenti normativi e di
tutele in caso di attacchi, e di soluzioni tecniche opportune (come quelle
presentate nel saggio) per creare una rete integrata che coinvolga istituzioni,
media company e società civile organizzata e solleciti interventi di autorità
competenti (come la Polizia postale e la magistratura) e, insieme, pratiche
professionali dedicate anche a questo scopo.
4) La promozione di innovazione e professionalità nel campo
del giornalismo. Ciò può avvenire attraverso il sostegno pubblico alle im-

76
Fake news e hate speech

prese editoriali di nuova generazione, nazionali e locali. nuove iniziative


d’imprenditoria editoriale e giornalistica indipendenti, partecipazione. a
reti internazionali di collaborazione nel giornalismo d’inchiesta, nel data
journalism, nel community journalism e nel multiplatform journalism. Pur
in una prospettiva sovranazionale, occorrono un piano nazionale di ricon-
versione, una riprogettazione conseguente del modello didattico attualmente
previsto dall’Ordine Nazionale dei Giornalisti per le Scuole di giornalismo
e per i master universitari in convenzione con l’Ordine, una riforma della
formazione professionale e delle modalità di accesso alla professione giorna-
listica e di qualificato aggiornamento professionale permanente, che ancora
fanno riferimento alla Legge 115/1965, basata sul giornalismo analogico e
fordista e non digitale e postfordista.

Sergio Scamuzzi
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
sergio.scamuzzi@unito.it

Marinella Belluati
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
marinella.belluati@unito.it

Mia Caielli
Dipartimento di Giurisprudenza
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
mia.caielli@unito.it

Cristopher Cepernich
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
cristopher.cepernich@unito.it

77
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

Viviana Patti
Dipartimento di Informatica
Università degli Studi di Torino
Via Pessinetto 12
I-10149 Torino
viviana.patti@unito.it

Stefania Stecca
Direzione Generale -Unità di Progetto
Comunicazione istituzionale e organizzativa
Università degli Studi di Torino
via Verdi 8
I-10124 Torino
stefania.stecca@unito.it

Giuseppe Tipaldo
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
giuseppe.tipaldo@unito.it

Riferimenti bibliografici

Abbondante, F. (2017), Il ruolo dei social network nella lotta all’hate speech:
un’analisi comparata fra l’esperienza statunitense e quella europea, in «Infor-
matica e diritto», 26(1-2), pp. 41-68.
Anderson, C.W., Bell, E., Shirky, C. (2012), I giornalisti nel giornalismo post
industriale. Il Rapporto del Tow Research Center for Digital Journalism della
Columbia Journalism School, in «Problemi dell’informazione», 3, pp. 222-252.
Bandura, A. (1973), Aggression: A social learning analysis, Englewood Cliffs,
NJ, Prentice Hall.
Banks, J. (2010), Regulating HS online, in «International Review of Law,
Computers & Technology», 24(3), pp. 233-239.
Bassini, M., Vigevani, G.E. (2017), Primi appunti su fake news e dintorni, in
«Media Laws», 1, pp. 11-22.
Belluati, M. (2018), Hate or Hateful? L’uso del linguaggio d’offesa nelle discus-
sioni politiche, in «Comunicazione politica», 19(3), pp. 373-392.
Berne, E. (1961), Transactional Analysis: A Systematic Individual and Social
Psychiatry, New York, Grove Press.

78
Fake news e hate speech

Binny, M., Ritam, D., Pawan, G. A. Mukherjee (2019), Spread of Hate Speech
in Online Social Media. In Proceedings of the 10th ACM Conference on Web
Science, New York, Association for Computing Machinery, pp. 173-182.
boyd, D. (2017), Google and Facebook can’t just make fake news disappear, in
«Wired.» https://www.wired. com/2017/03/google-and-facebook-cant-just-
make-fake-news-disappear.
Bracciale, R., Grisolia, F. (2020), Information disorder: acceleratori tecnologici
e dinamiche sociali, in «Federalismi.it. Rivista di diritto pubblico italiano,
comparato, europeo», 11, pp. 58-72.
Calvert, C. (1997), HS and its harms: A communication theory perspective, in
«Journal of Communication», 47(1), pp. 4-19.
Conference on Computational Linguistics (CLiC-it 2019)», CEUR-WS.org,
vol. 2481.
CERD-UN (2013) General Recommendation No. 35 on combatting racist hate
speech, CERD/C/GC/35.
Chadwick, A. (2013), The Hybrid Media System. Politics and Power, Oxford-
New York, Oxford University Press.
Christin, A. (2020), Metrics at work. Journalism and the contested meaning
of algorithms, Princeton-Oxford, Princeton University Press.
Chung, Y., Kuzmenko, E., Tekiroglu, S.S., Guerini, M. (2019), CONAN –
Counter Narratives through Nichesourcing: a Multilingual Dataset of Responses
to Fight Online hate speech, in «Proc. of the 57th Annual Meeting of the As-
sociation for Computational Linguistics 2019», pp 2819-2829.
Council of Europe Committee of Ministers, (1997) Recommendation No.
R(97)20 of the Committee of Ministers to member states on «HS», R(97)20.
Council of Europe Committee of Ministers, (2010), Recommendation CM/
Rec(2010)5 of the Committee of Ministers to member states on measures to
combat discrimination on grounds of sexual orientation or gender identity,
R(2010)5.
Eberle, E.J. (1994) Hate speech, Offensive Speech, and Public Discourse in
America, in «Wake Forest L. Rev», 29, pp. 1135-1213.
Esposito, C. (1958), La libertà di manifestazione del pensiero nell’ordinamento
italiano, Milano, Giuffrè.
Faloppa, F. (2020), Odio. Manuale di resistenza alla violenza delle parole,
Novara-Milano, UTET.
Fumo, M. (2018), Bufale elettroniche, repressione penale e democrazia, in
«Media Laws. Rivista di diritto dei media», 1, pp. 83-91.
Jack, C. (2017), Lexicon of lies: Terms for problematic information, in «Data
& Society», 3, pp15-22.

79
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo

Karoui, J., Benamara, F., Moriceau, V., Patti, V. Bosco, C. (2017), Exploring
the Impact of Pragmatic Phenomena on Irony Detection in Tweets: A Multi-
lingual Corpus Study, in «Proc. of the European Chapter of the Association
of Computational Linguistics (EACL 2017)», pp. 62-272.
Knechtle, J.C. (2005), When to Regulate Hate speech, in «Penn St. L. Rev»,
110, pp. 539-578.
Lai, M., Tambuscio, M., Patti, V., Ruffo, G. and Rosso, P. (2019), Stance po-
larity in political debates: A diachronic perspective of network homophily and
conversations on Twitter, in «Data Knowledge Engineering», 124.
Massey, CR (1992), HS, cultural diversity, and the foundational paradigms of
free expression, in «UCLA L. Rev», 40, pp. 103-135.
Matsuda, M.J., Lawrence III, C.R., Delgado, R., Crenshaw, K.W. (2018), Words
that wound: Critical race theory, assaultive speech, and the first amendment,
London, Routledge.
Mihajlova, E., Bacovska, J. Shekerdjiev, T. (2013), Freedom of expression and
Hate speech, OSCE, Mission to Skopje.
Pamungkas, E.W., Basile, V. Patti, V. (2020). Misogyny Detection in Twitter:
A Multilingual and Cross-Domain Study, in «Information Processing and
Management».
Pisaneschi, A. (2020) Reti sociali ed elezioni: il fallimento del mercato e il qua-
dro regolatorio europeo, in «Consulta Online», 2020 disponibile http://www.
giurcost.org/LIBERAMICORUM/pisaneschi_scrittiCostanzo.pdf.
Pollicino, O. (2017), La prospettiva costituzionale sulla libertà di espressione
nell’era di Internet, in Pitruzzella G., Pollicino O., Quintarelli S., Parole e
potere: libertà d’espressione, hate speech e fake news, Milano, Egea, pp. 12-31.
Reuters Institute for the Study of Journalism, (2020), Digital News Report
2020, University of Oxford: https://reutersinstitute.politics.ox.ac.uk/sites/
default/files/2020-06/DNR_2020_FINAL.pdf.
Robertson, R. (Ed.) (2014), European Glocalization in Global Context, Lon-
don, Palgrave Macmillan.
Shearer, E. (2020), Local news is playing an important role for Americans
during Covid outbreak, Tew Research Center: https://www.pewresearch.
org/fact-tank/2020/07/02/local-news-is-playing-an-important-role-for-
americans-during-covid-19-outbreak/.
Sommo, P. (2019), Comunicatore pubblico: un profilo professionale finalmente
riconosciuto dallo Stato, in Vaccaro S., Rizzuto F., Brancato G. (a cura di), La
comunicazione alla sfida della (dis)informazione, Roma, Aracne.
Stewart, I., Joines, V. (2000), L’analisi transazionale. Guida alla psicologia dei
rapporti umani, Milano, Garzanti.

80
Fake news e hate speech

Sulis, E., Hernández Farías, D.I., Rosso, P., Patti, V., Ruffo, G. (2016), Figura-
tive messages and affect in Twitter: Differences between #irony, #sarcasm and
#not, in «Knowledge-Based Systems», 108, pp. 132-143.
Sunstein, C. (2010), Voci, gossip e false dicerie. Come si diffondono, perché ci
crediamo, come possiamo difenderci, Milano, Feltrinelli.
Tandoc, E.C., Lim, Z.W., Ling, R. (2018), Defining «Fake news», in «Digital
Journalism», 6(2), pp.137-153.
Tipaldo, G. (2019), La società della pseudoscienza. Orientarsi tra buone e
cattive spiegazioni, Bologna, Il Mulino.
Tsesis, A. (2009), Dignity and speech: The regulation of HS in a democracy, in
«Wake Forest L. Rev», 44, pp. 497-521.
Tsfati, Y., Boomgaarden, H.G., Strömbäck, J., Vliegenthart, R., Damstra, A.,
Lindgren, E. (2020), Causes and consequences of mainstream media dissemi-
nation of FN: literature review and synthesis, in «Annals of the International
Communication Association», 44(2), pp. 157-173.
Volkmer, I. (2014), The Global Public Sphere. Public Communication in the
Age of Reflective Interdependence, Cambridge, Polity Press.
Wardle, C and Derakhshan, H. (2017), Information disorder: Toward an in-
terdisciplinary framework for research and policy making, Council of Europe
report 27 https://rm.coe.int/information-disorder-toward-an-interdisciplin-
ary-framework-for-researc/168076277c.
Yong, C. (2011), Does freedom of speech include HS?, in «Res Publica»,17(4),
pp. 385-403.
Zuckerman, E. (2017) Stop Saying Fake News, It’s Not Helping, My Heart’s,
in Accra, Available at http://www.ethanzuckerman.com/blog/2017/01/30/
stop-saying-fake-news-its-not-helping/.

81

Potrebbero piacerti anche