Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Fake News e Hate Speech. I Nodi Per Un'azione Di Policy Efficace
Fake News e Hate Speech. I Nodi Per Un'azione Di Policy Efficace
Ente di afferenza:
Università la Sapienza di Roma (Uniroma1)
Licenza d’uso
L’articolo è messo a disposizione dell’utente in licenza per uso esclusivamente privato e personale, senza scopo
di lucro e senza fini direttamente o indirettamente commerciali. Salvo quanto espressamente previsto dalla
licenza d’uso Rivisteweb, è fatto divieto di riprodurre, trasmettere, distribuire o altrimenti utilizzare l’articolo,
per qualsiasi scopo o fine. Tutti i diritti sono riservati.
SAGGI
Fake News and Hate Speech. The Keys to Effective Policy Action
The article discusses the relationship between hate speech and fake news,
often presented as a separate but interrelated dimension to regulatory action.
The theoretical framework is the information disorder and the bias in the
public debate where the borders between true and false, offensive or ironic
contents and personal threats are damaging the quality of democratic debate.
The article is the outcome of a policy brief involving a multidisciplinary group
of academics. Sociological, juridical and informatics expertise interacted
with the practitioners, in a policy making process. The first results confirm
that fake news and hate speech belong to a common semantic and regulatory
space that policy action must take into account. In addition, it emphasizes
that an effective problem solving must follow a multilevel framework, as the
European institutions are requesting. Finally, regulatory action and coun-
teractions must involve a stakeholder network, including public and private
sectors, civil society, social scientist and research field, media companies and
platforms, and public communication and journalism practitioners.
1. Introduzione
Una prima stagione di ottimismo sulla comunicazione via rete vedeva nella
sua capacità di accesso e di penetrazione universale una premessa di pari
opportunità per ogni informazione e per ogni soggetto e di autocorrezione,
1
L’articolo è la sintesi di un policy brief con gli on.li Flavia Piccoli Nardelli e Paolo Lattanzio, per
l’istituzione di una Commissione Parlamentare d’inchiesta sulla diffusione massiva di notizie false. Il
testo integrale è reperibile al link https://www.academia.edu/44878785/SUGGERIMENTI_DEI_
DOCENTI_E_RICERCATORI_DELL_UNIVERSITA’_DI_TORINO. Alla scrittura hanno preso parte
Marinella Belluati (par. 3), Mia Caielli (par. 4), Cristopher Cepernich, (par. 7), Viviana Patti (par. 5),
Sergio Scamuzzi (parr.1 e 8), Stefania Stecca (par. 6), Giuseppe Tipaldo (par. 2).
2
https://www.cigionline.org/Internet-survey-2019, accesso 1 settembre 2020.
3
https://controlodio.it/blog, accesso 1 settembre 2020.
4
Camera dei deputati, XVII Legislatura, Commissione ‘Jo Cox’ sull’intolleranza, il razzismo, e
i fenomeni di odio. Relazione finale, 2017; Senato della Repubblica. XVIII Legislatura, Dossier
50
Fake news e hate speech
del servizio studi, Istituzione di una commissione d’inchiesta sulla diffusione massiva di notizie
false, 2020, n. 292.
51
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
Hampshire, dove si riporta che l’odio espresso sotto forma di violenza verbale
(fighting words) consiste «in condotte in grado di per sé di arrecare un danno
o in espressioni il cui contenuto rappresenta un’imminente minaccia» (Eberle
1994, 1142). Pochi anni dopo, tale prospettiva viene ripresa e approfondita
dai giudici della Corte europea dei diritti dell’uomo, la cui formula è stata
adottata dal Comitato dei Ministri del Consiglio d’Europa: l’HS – si legge
nella versione finale della raccomandazione del Consiglio – identifica «tutte
le forme di espressione che diffondono, incitano, promuovono o giustifica-
no l’odio razziale, la xenofobia, l’antisemitismo o altre forme di odio basate
sull’intolleranza, compresa l’intolleranza espressa dal nazionalismo aggres-
sivo e dall’etnocentrismo, la discriminazione e l’ostilità verso le minoranze, i
migranti e le persone di origine immigrata» (Council of Europe 1997). Oltre
un decennio dopo questo primo tentativo di definizione, il Consiglio torna
sulla materia, estendendo il concetto di HS all’omofobia e alla transfobia,
ossia alle nuove forme d’odio in rapida diffusione nelle interazioni online.
Sono, pertanto, accluse all’HS «tutte le forme di espressione, anche nei media
e su Internet, che possono essere ragionevolmente intese come suscettibili
di produrre l’effetto di incitamento, diffusione o promozione dell’odio o altre
forme di discriminazione nei confronti di persone lesbiche, gay, bisessuali e
transgender» (Council of Europe 2010). Più di recente, è tornata a ribadire la
centralità del contenuto dei messaggi anche Google, che nelle linee guida per
la propria community attiva su YouTube descrive l’HS nei termini di qualsiasi
«contenuto che promuove la violenza o l’odio contro individui o gruppi in
base a determinati tratti distintivi, come: razza o origine etnica, religione,
disabilità, sesso, età, stato di veterano o orientamento/identità sessuale»5.
Per quanto eterogenee rispetto all’ambito disciplinare da cui
provengono, le definizioni ascrivibili alla seconda classe hanno tutte in
comune la scelta di definire l’HS attraverso la descrizione dei suoi possibili
effetti sui destinatari (si tratti di singoli o di intere categorie sociali), nei
termini di aggressione alla dignità umana, riconosciuta quale premessa
ineludibile all’autodeterminazione di ogni individuo (Massey 1992, 156,
nota 131; Knechtle 2005, 551). Tra gli esempi più eloquenti, ci sembra utile
riportare qui la posizione del Comitato internazionale delle Nazioni Unite per
l’eliminazione della discriminazione razziale, il quale interpreta l’HS come
«una forma di discorso etero-diretto che rifiuta i principi fondamentali dei
diritti umani della dignità umana e dell’uguaglianza e cerca di degradare la
5
Cfr. Google-Inc, (2019) HS Policy: YouTube Community Guidelines, Available at: https://www.
youtube.com/watch?v=45suVEYFCyc&feature=emb_logo.
52
Fake news e hate speech
53
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
54
Fake news e hate speech
55
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
6
Ad esempio, durante l’emergenza Covid-19 le istituzioni europee hanno chiesto ed ottenuto da
WhatsApp la limitazione dell’opzione di condivisione a molti dei messaggi per attenuare la viralità
di alcuni contenuti fake.
7
Per l’Italia hanno partecipato all’HLEG in qualità di esperti Oreste Pollicino, Federico Fubini e
Gianni Riotta.
56
Fake news e hate speech
8
La consultazione pubblica si è svolta tra il 13 novembre 2017 e il 23 febbraio 2018 con l’obiettivo di
valutare l’efficacia delle azioni in corso. Sono stati somministrati due questionari: uno per i cittadini
e uno per il settore dell’informazione. Il numero di risposte è stato di 2.986 risposte: 2.784 di cittadini
e 202 del settore dei media.
9
Cfr. report http://ec.europa.eu/newsroom/dae/document.cfm?doc_id=50271, accesso 1 settembre
2020.
10
Cfr. https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation, accesso
28 luglio 2020.
11
Il codice è stato sottoscritto da Facebook, Google e Twitter, Mozilla, dagli inserzionisti e dall’industria
pubblicitaria nell’ottobre 2018 e i firmatari hanno presentato le loro timetable per l’attuazione. Microsoft
ha aderito nel maggio 2019, mentre TikTok ha firmato il Codice nel giugno 2020.
57
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
58
Fake news e hate speech
Uno studio recente12 mostra che, pur in maniera lenta, le iniziative della
Commissione Europa stanno comunque raggiungendo risultati. Un dato
contenuto nel rapporto conferma che le aziende interessate sono arrivate nel
2018 a valutare l’89% dei contenuti segnalati entro 24 ore e che il 72% dei
contenuti ritenuti illegali sono stati eliminati. Nonostante il dato positivo, gli
interrogativi aperti restano molti. Per prima cosa, rimane la questione della
valutazione dei contenuti d’odio, sia rispetto alla dimensione linguistica e
culturale entro cui avviene sia rispetto al framework giuridico di riferimento.
Il tema appare delicato e costituisce il cuore della questione,
ma se si vogliono tutelare i dati e la privacy dei cittadini e metterli al riparo
dagli usi degenerativi e discriminatori, lo spettro di azione deve diventare
ampio e concertato.
12
Per approfondimenti cfr. Factsheet - 4th monitoring round of the Code of Conduct 30 January
2019, https://ec.europa.eu/info/sites/info/files/code_of_conduct_factsheet_7_web.pdf, accesso 14
luglio 2020.
59
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
sere taciuta la pronuncia della Corte Suprema US v. Alvarez del 2012 con cui
si è ribadito che «the remedy for speech that is false is speech that is true»13.
Eppure, pare arduo non rilevare il fallimento di tale mercato, «asimmetrico e
chiuso, sia in relazione alla tipologia delle fonti sia in relazione alla tipologia
delle informazioni» (Pisaneschi 2020, 2), considerata la evidente difficoltà
della distinzione tra fonti affidabili e fonti non affidabili e tra informazione
veritiera e informazione falsa.
Ciò che in questa sede maggiormente rileva è la dimensione
passiva della libertà di informazione, libertà, quest’ultima, inclusa nella tu-
tela offerta dall’art. 21. La Costituzione italiana tutelerebbe, infatti, il diritto
a essere informati e la Corte costituzionale, con la pronuncia n. 112/1993,
ha avuto occasione di chiarire che tale diritto può ritenersi garantito solo
se è «qualificato e caratterizzato dal pluralismo delle fonti da cui attingere
conoscenze e notizie»: tale lettura – è bene precisare – non si discosta da
quella prevalente nelle altre democrazie costituzionali europee, né dall’in-
terpretazione dell’art. 11 della Carta europea dei diritti fondamentali dell’UE
che esplicita la correlazione tra libertà di espressione e «libertà di ricevere
o di comunicare informazioni». Esiste dunque un diritto all’informazione,
ma non è stato mai espressamente riconosciuto un diritto costituzionale alla
verità. Molteplici sono le ragioni di tale apparente lacuna: tra tutte, pare di
assoluto rilievo il problema che solleva l’accertamento della verità. A chi
spetta? Cosa si intende per verità? V’è, innanzitutto, una differenza di non
poco conto tra falso «oggettivo» e falso «soggettivo»: come dovrebbe essere
disciplinata l’ipotesi di una notizia oggettivamente falsa ma soggettivamente
vera, ovvero ritenuta tale in buona fede da colui che la diffonde? I dubbi su
un intervento repressivo che incide sulle forme proprie della democrazia
pluralista sono fondati quando si tratta di diffusione di informazioni false ma
ritenute vere da chi le diffonde: si può davvero imporre che chiunque prima
di manifestare il proprio pensiero debba fare ricerche sulla veridicità di ciò
che trasmette? Ovvero, è conforme al principio costituzionale della libertà di
espressione? Non rimane appannaggio dei colti e degli istruiti? Condivisibile
pare, invece, la tesi della più autorevole dottrina in materia che, già in epoca
pre-Internet, aveva sostenuto che l’art. 21 non proteggesse le notizie false
oggettivamente e soggettivamente, data la rilevanza dell’aggettivo «proprio»
anteposto al sostantivo «pensiero» (Esposito 1958).
13
Corte Suprema USA, United States v. Alvarez, 567 U.S. 709 (2012).
60
Fake news e hate speech
61
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
14
CEDU, Delfi v. Estonia, ricorso n. 64569/09, 16 giugno 2015: la pronuncia ha ritenuto legittimo
per uno Stato considerare il portale di news online responsabile per commenti degli utenti ritenuti
offensivi e incitanti all’odio e/o alla violenza nei confronti di soggetti terzi. Su tale pronuncia e sui
tentativi di dialogo in materia di responsabilità degli ISP tra CEDU e Corte di Giustizia dell’UE cfr.
Pollicino (2017).
15
CEDU, Salov v. Ukraine, ricorso n. 65518/01, 6 dicembre 2005.
16
Sul Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG) si vedano
Bassini e Vigevani (2017) e Abbondante (2017).
62
Fake news e hate speech
ISP poteri di sorveglianza ed azione sugli user generated content, a meno che
non intervenga direttamente l’autorità giudiziaria. Pertanto il controllo sulla
veridicità delle notizie diffuse non dovrebbe essere affidato agli operatori
della rete, ma a un’autorità di diritto pubblico, terza e indipendente, che operi
come fact-checker, direzione verso cui si sta muovendo l’Unione europea.
Auspicabile è del resto tale intervento normativo a livello europeo, come
si è già evidenziato nei paragrafi precedenti, intervento che può ritenersi
agevolato se si considera che i Paesi UE tendono a condividere un comune
consensus in materia di libertà di informazione chiaramente contrapposto
all’impostazione statunitense che stenta ad accettare la possibilità di imporre
limiti al free speech che non risulti idoneo, ex post, a provocare un pericolo
di danno concreto e immediato (Pollicino 2017).
Con riferimento, invece, all’HS, vale la pena rilevare che nella
quasi totalità dei Paesi europei sono da tempo in vigore norme del Codice
penale che qualificano come reati forme diverse di diffusione di propagan-
da, incitamento o istigazione alla violenza e alla discriminazione sulla base
di molteplici fattori quali razza/etnia, religione, nazionalità e, sempre più
spesso, anche sesso, orientamento sessuale, identità di genere e disabilità:
tali previsioni normative, però sono raramente costruite per la repressione
del discorso d’odio online. La legge tedesca interviene in tal senso, ma «solo»
per imporre ai social network di attivarsi per attuare le esistenti norme penali
in materia di discorso d’odio, non essendo applicabile alle notizie false che
non integrino forme di odio: si tratta quindi a tutti gli effetti di una legge
contro l’HS e non contro le FN, ben più difficili da reprimere in quanto –
semplificando notevolmente la questione – più difficili da individuare.
Rispetto alle soluzioni normative per la lotta all’odio online, il
modello tedesco è interessante. In Italia, invece, dati gli artt. 604 bis e ter del
Codice penale, in materia di HS non sarebbe necessario introdurre nuove
fattispecie di reato, ma, come già evidenziato a più riprese in dottrina, oc-
correrebbe legiferare ampliando la portata del d.lgs. n. 70/2003 attuativo
della Direttiva 2000/31/CE «relativa a taluni aspetti giuridici dei servizi della
società dell’informazione nel mercato interno, con particolare riferimento
al commercio elettronico», al fine di garantire che le piattaforme rimuova-
no tempestivamente i contenuti illeciti che ospitano e intervenire sui punti
deboli della normativa vigente in Germania per ridurre al minimo i rischi
di errori e di over-removal, nonché per garantire trasparenza nei metodi di
valutazione, nelle segnalazioni dagli utenti e nelle procedure seguite per
l’eliminazione.
63
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
64
Fake news e hate speech
delle politiche sociali, che nasce con obiettivi espliciti di monitoraggio affini
a quelli qui auspicati e estende i risultati della ricerca emersa dal progetto
«Mappa dell’intolleranza» (Capozzi et al. 2019)17.
Queste competenze e strumenti possono venire utilmente im-
piegati nella rilevazione di contenuti razzisti (Capozzi et al. 2019), misogini
(Pamungkas et al. 2020), omofobi veicolati dalla rete, e giocare un ruolo
sempre più importante per potenziare diverse funzioni di monitoraggio:
da un lato, a supporto della decisione politica, del legislatore; dall’altro, a
supporto della cittadinanza, in una prospettiva non solo di prevenzione,
ma anche di educazione all’uso critico dei media, e di intervento avanzato
soprattutto nel contrasto dell’odio.
Come emerge dall’analisi del framework europeo (par. 3 e 4),
normative esistenti a vari livelli per arrestare la diffusione dei messaggi di
incitamento all’odio di qualsivoglia natura sui social media si sono scontra-
te con una notevole probabilità di errore e confusione nelle operazioni di
rimozione o blocco, dovuta in parte alle difficoltà tecniche di realizzare un
monitoraggio tempestivo o efficace, in parte alla vaghezza di espressioni
come «HS illegale», o «hateful conduct». In una prospettiva normativa è
necessario poter distinguere le due forme da espressioni di «odio generi-
co», genericamente offensive, o aggressive o violente, dove non emerge per
la vittima l’appartenenza a una categoria riconosciuta come vulnerabile e
per cui eventualmente si configurano altre categorie di reato diverse dal-
l’HS. In questo contesto, piattaforme web per monitorare i discorsi di odio
e visualizzarne la diffusione tramite mappe possono essere di supporto ai
policy-makers, al legislatore e agli operatori pubblici e dell’informazione,
per individuare le categorie vulnerabili, o a rischio, nel contesto nazionale,
estendendo la definizione del Consiglio d’Europa richiamata nel paragrafo
2 per includere anche per esempio forme di HS contro le donne18 o contro
ricercatori e scienziati (par. 6).
Per ricostruire il contesto delle campagne d’odio, risulta fon-
damentale abbinare all’analisi dei contenuti l’analisi delle reti sociali degli
utenti dei social media. L’analisi automatica delle reti sociali consente di
17
Per i progetti citati vedi: http://hatemeter.eu/; https://www.arcigay.it/accept/it/; https://www.amnesty.
it/barometro-odio/; http://www.voxdiritti.it/. Il progetto Mappa dell’intolleranza combina: strumenti
di rilevazione di messaggi di incitamento all’odio contro gli immigrati e la sua evoluzione nel tempo
e nello spazio, basati sulla linguistica computazionale; strumenti di analisi delle reti sociali e tecniche
avanzate di visualizzazione basate su mappe. È stata usata anche a scopo educativo (https://mappa.
controlodio.it/).
18
https://www.amnesty.it/hate-speech-contro-le-donne-al-via-il-nuovo-monitoraggio/.
65
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
avere evidenza dei collegamenti e del network di connessioni tra utenti, che
rinforza e contribuisce al rapido montare dell’onda di odio. Strumenti di
questo tipo possono essere usati per assumere una prospettiva sistemica sui
discorsi di incitamento all’odio. Infatti in un’ottica di monitoraggio e inter-
vento istituzionale, approfondita nel paragrafo 6, sorge l’esigenza di andare
oltre la valutazione di singoli post, a cui si riducono spesso gli interventi
di moderazione dei contenuti portati avanti anche dalle piattaforme stesse,
ricorrendo alla modalità della segnalazione, e di valutare il fenomeno nel
suo insieme, non essendo spesso il singolo post ad essere un pericolo, ma lo
sviluppo di un’azione massiva di messaggi che si rinforzano reciprocamente e
vanno a delineare il fenomeno di HS nei confronti di qualcuno (Binny et al.
2019). Le tecnologie informatiche di monitoraggio e analisi delle reti sociali
degli utenti dei social consentono di rilevare i collegamenti e il network di
connessioni che rinforza l’onda di odio e possono essere usate per ricostruire
il contesto della campagna d’odio, individuare i profili più influenti o fare
luce su campagne d’odio create ad arte da bot o troll. Infatti, l’individuazione
di gruppi sociali specifici e di individui vulnerabili può essere sfruttata per
rendere virale un messaggio esplicitamente o implicitamente violento nei
confronti di quei gruppi (siano essi i migranti, i politici, gli omosessuali, le
donne o talvolta gli scienziati) o per soffiare sul fuoco della polarizzazione19.
L’educazione all’uso critico dei media è un’attività preventiva di
ovvia rilevanza dal lato degli utenti, cui il monitoraggio può fornire supporto
nel contrasto e nell’intervento, in specifico con l’analisi della relazione fra
FN ed HS, grazie all’estrazione di conoscenza data-driven utile a studiosi,
educatori e attivisti della società civile per lavorare sulla decostruzione
degli stereotipi. Il potenziamento del contrasto alle FN connesso all’HS
può avvenire anche mediante la generazione di contro-narrative efficaci,
narrazioni positive e buone pratiche. Infatti, da un lato, come sperimentato
nell’ambito di progetti pilota, gli strumenti di monitoraggio permettono di
analizzare in una prospettiva multidisciplinare le caratteristiche dei discorsi
d’odio, quantificare e identificare i target dell’odio, studiare le reti sociali e le
influenze intorno alle FN ai discorsi di incitamento all’odio, i fenomeni virali
di contagio e il ruolo delle emozioni nella circolazione di FN e HS, e, infine,
i fenomeni di polarizzazione collegati. D’altro canto, questa comprensione
fornisce elementi fondamentali per l’elaborazione di protocolli di risposta
linguistica e la generazione di contro narrative efficaci, creative e contagiose,
19
Per ovvie ragioni tecniche prima che legali ed etiche il monitoraggio non individua singoli soggetti
produttori di discorso.
66
Fake news e hate speech
20
Cfr. https://rm.coe.int/ecri-general-policy-recommendation-no-15-on-combating-hate-speech-
ital/16808b5b04, accesso 1 settembre 2020.
67
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
68
Fake news e hate speech
Berne (Berne 1961, Stewart e Joines 2000): attacco, difesa, informazione. Una
risposta che possiamo definire di «attacco» è spesso aggressiva, incalza l’altro
con espressioni giudicanti e irriflessive, fondate su stereotipi e una visione
pregiudiziale della questione che – anche se posta con toni controllati – di
fatto va a «rintuzzare» la rabbia dell’altro, stimolandolo a reiterare il suo
comportamento inappropriato sul piano dialogico e sanzionabile sul piano
giuridico. Una risposta che possiamo definire «difensiva» ricerca giustifi-
cazioni e legittimazioni in argomenti secondari o irrilevanti, è una risposta
percepita come debole. Una risposta più forte invece si focalizza su contenuti
oggettivi, di tipo informativo, che stimola lo stato dell’Io “Adulto” dell’altro,
la parte razionale, quella che ragiona. In concreto si tratta di agire mettendo
a disposizioni contenuti e informazioni espressi nella forma più oggettiva
possibile per stimolare una reazione dell’altro sullo stesso piano relazionale.
Sebbene quest’ultimo tipo di risposta sia la soluzione più favo-
revole a stimolare l’apertura di un dialogo, la sua praticabilità è condizionata
dalla scelta del canale e dalla disponibilità al confronto dell’interlocutore: la
scelta del canale – tipicamente lo stesso social network in cui si sta sviluppan-
do il discorso di odio – determina prevedibilmente una situazione di forte
sbilanciamento nella popolarità del contenuto; in merito alla disponibilità
dell’interlocutore, il fomentatore di HS è di solito indisponibile all’ascolto
– di conseguenza al dialogo - e all’accettazione di argomentazione diverse
dalle proprie.
Per ragioni di responsabilità pubblica tuttavia una istituzione
non dovrebbe né sfuggire al confronto né agire alimentando le ostilità: un
quadro che ne riduce gli spazi di azione e prefigura la scelta di tacere nei
luoghi del dialogo violento, per stimolare – altrove – la nascita di spazi di
contro-narrazione dove possano trovare asilo contenuti corretti, il con-
fronto e forme di dialogo auspicabilmente più pacate. La scelta di tacere nei
luoghi in cui si sta sviluppando il discorso di odio è dettata dalla volontà
di non favorire o stimolare il reiterare di comportamenti violenti, pur non
rinunciando a perseguire giuridicamente quelli sanzionabili, se lo si ritie-
ne; accompagnata dalla scelta di argomentare su canali propri e pubblici,
mettendo a disposizione del pubblico e del sistema dei media contenuti,
informazioni, conoscenza specifica sulla questione oggetto di attacco; infine
stimolare la nascita di spazi di dialogo qualificato, tipicamente attraverso
l’organizzazione di approfondimenti che favoriscano il confronto e l’interesse
giornalistico. Questa prospettiva ha però il grande limite di lasciare spazio
libero agli «odiatori» sui canali/piattaforme in cui si esprime il discorso di
69
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
odio: se lì, l’istituzione sceglie di tacere anche per non stimolare le ostilità,
la sua voce sarà assente. Al contrario, la scelta di argomentare, mettendo a
disposizione contenuti, informazioni e opinioni a sostegno, stimolerà più
probabilmente la nascita di polarizzazioni e protagonismi, che non un vero
confronto tra le parti.
L’opzione di tacere nei luoghi del dialogo violento, per stimolare
la nascita di altri spazi di contro-narrazione ha tuttavia alcuni non trascu-
rabili vantaggi, in particolare quelli di favorire l’emersione e la diffusione
di un sapere specifico, la conoscenza di elementi sotto attacco, la nascita di
una narrazione alternativa, a partire dalle attività di fact-checking, e infine
lo sviluppo di un dibattito pubblico informato, soprattutto se raccolto dal
mondo giornalistico mainstream.
Tutti questi aspetti aprono spazi di legittimazione alla comunica-
zione pubblica quando è chiamata a supportare la gestione della situazione
di crisi, mettendo a disposizione un sapere qualificato e professionale che
deve essere perseguito sul piano formativo e organizzativo21.
Esperienze vissute di HS e di disinformazione in ambito scienti-
fico – ne sono un esempio gli attacchi a ricerche che prevedono la sperimen-
tazione animale, l’uso di cellule staminali, i vaccini e così via, verificatesi in
Italia22 – dimostrano tuttavia che vi sono pochi e deboli argini, sia sul piano
operativo, i cui strumenti disponibili sono inefficaci per azioni di reale con-
trasto, sia rispetto agli ambiti di tutela normativa. Facebook, il luogo in cui,
nello specifico, spesso avvengono violenti attacchi, non agisce né reagisce
subito, quando lo fa non lo fa in modo sistemico né sistematico ma puntuale
(post per post), risultando pesantemente inefficace. È vero che un discorso si
sviluppa dalla somma delle singole prese di posizione che ciascuno esprime
singolarmente. Tuttavia, finché si chiede di sottoporre a valutazione ogni
singolo post o commento, finché la sua valutazione è decontestualizzata e si
fonda sulla legislazione in cui è basato il server (tipicamente Canada e Irlan-
da) e non sulla legislazione del Paese in cui avviene l’attacco di odio, finché
non si consente una segnalazione/identificazione «sistemica» dell’attacco
– direttamente attraverso la piattaforma e ricorrendo alla Polizia postale,
21
A tal fine sviluppando competenze e funzioni della comunicazione pubblica (ex L.150/2000 art.
4, b e art. 5, d e art.8,c.2 a b) e della università (Linee guida Anvur per la definizione e valutazione
della terza missione) https://www.anvur.it/wp-content/uploads/2018/11/SUA-TM_Lineeguida.pdf.
Il tema è all’attenzione delle associazioni professionali (www.compubblica.it) e dei Ministeri com-
petenti (Sommo 2019).
22
Su episodi recenti Cfr. Documento Crui per affermare la centralità della ricerca e della sperimen-
tazione animale del 22.11.2020 in crui.it.
70
Fake news e hate speech
dotandola di canali diretti o prioritari per agire, più adeguati degli attuali,
o ad altri organi deputati –, chi è colpito da un attacco di odio si troverà
sempre in una posizione sbilanciata: senza efficaci strumenti a disposizione
per agire, né verso l’autorità preposta a fermare l’onda di odio e identificare i
sobillatori (sui social non c’è certezza dell’identità della persona, non essen-
do il profilo immediatamente riconducibile alla persona fisica, aspetto che
complica ulteriormente la possibilità di sanzionare l’atto), né direttamente
attraverso il canale/piattaforma.
Introdurre una prospettiva sistemica in grado di dare responsi
sistematici e in tempi rapidi diventa importante e possibile, per diverse
ragioni. Ragioni di tipo quantitativo, perché l’odio assume la dimensione
dell’HS in virtù di una forte mobilitazione caratterizzata dalla reiterazione
degli attacchi che si rinforzano reciprocamente per colpire un bersaglio (oltre
tutto in un clima di presunta impunità, quali sono oggi i social network):
la tecnologia consente di identificare la messa in atto di azioni massive di
messaggi, perché non sfruttarla anche a questo fine? Ragioni di natura con-
testuale, perché presi singolarmente i contenuti oggetto dei singoli post o
commenti possono anche non avere i connotati di una affermazione di odio,
ma si configurano come tali nel momento in cui si collocano all’interno di
quel preciso discorso, andando a rinforzarlo e a sostenerlo, e determinandone
il successo, in termini di visibilità, coinvolgimento, diffusione.
Il contrasto della disinformazione è multidisciplinare e multi-
partecipativo, e può essere perseguito sviluppando un approccio olistico,
sistematico e proattivo, e con una serie di pratiche, tra le quali la possibilità
di disporre di un quadro normativo o di co-regolamentazione e dei mezzi
necessari per una verifica indipendente, sia da parte delle autorità di regola-
mentazione che della società civile, in particolare in termini di accesso ai dati.
In alcuni casi, il solo appartenere a una precisa comunità
scientifica, pur operando nel rispetto di tutti i principi che la governano,
può determinare il rischio di divenire oggetto di attacchi d’odio come di-
mostrato dall’esperienza vissuta da alcune università, unitamente ad altri
fatti di cronaca di analogo tenore avvenuti in altre istituzioni scientifiche e
con altri soggetti, inclusi i blog di noti scienziati impegnati nella divulga-
zione. In uno di questi casi, ad esempio, l’attacco, mosso da accuse false, a
partire dall’enfatizzazione e distorsione di fatti e dati oggettivi, è avvenuto
contro i promotori di una ricerca valutata e approvata da tutti gli organismi
indipendenti deputati: complessivamente 6, Europei e Nazionali, e circa 40
esperti indipendenti previsti per legge alla valutazione del progetto. Ma, se
71
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
72
Fake news e hate speech
73
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
culturale imposta dal digitale, che possa mettere gli editori nelle condizioni
di affrontare le trasformazioni in corso nel mercato editoriale. All’interno
di un sistema dell’informazione che torni ad essere sostenibile, l’utilità della
conoscenza tenderebbe ad arginare la disinformazione; la cultura digitale
contribuirebbe a limitare la condivisione inconsapevole dei contenuti falsi;
una maggiore consapevolezza del valore dell’informazione favorirebbe la
sterilizzazione della mistificazione del senso e stempererebbe le ambiguità
testuali. Ecco perché sarebbe un investimento pubblico auspicabile il suppor-
to dello Stato alla nascita e crescita di forme innovative di attività editoriale
basate sull’imprenditoria diffusa altamente specializzata e tecnologicamente
avanzata: supportati non solo da programmi di ricerca e di formazione, ma
anche – appunto – da adeguate linee di finanziamento pubblico non assisten-
ziale. La direzione è nota da tempo a livello internazionale: restano validi, a
distanza di quasi un decennio, i punti di fuga individuati da Anderson, Bell
e Shirky (2012) nell’analisi del passaggio dal giornalismo di tipo fordista a
quello post-industriale negli Stati Uniti.
Secondariamente, legato a questo più generale stato di sistema, c’è
da osservare che l’attenzione degli utenti del web ai contenuti non verificati
dalle news organisation tende a diminuire, se l’informazione autorevolmente
prodotta è più accessibile. Nei Paesi a più avanzato processo di digitalizza-
zione, la fiducia che l’utente della rete ripone nei contenuti presenti sulle
piattaforme è tendenzialmente minore di quella che ripone nei contenuti
prodotti e diffusi dai legacy media (Reuters Institute 2020). Ciò si è dimostra-
to ancor più vero nelle condizioni di crisi e di emergenza, come per esempio
con l’attuale pandemia da Covid-19. L’elevata percezione di serio rischio
tangibile per sé, infatti, ha comportato il ritorno di fiducia verso le fonti di in-
formazione verificata in tutte le società a mediatizzazione avanzata (AgCom
2020). I media mainstream sono ancora l’agenzia di certificazione in grado
di assicurare l’autorevolezza necessaria. Inoltre, come ha dimostrato l’esplo-
sione degli ascolti dei notiziari tv regionali del servizio pubblico durante il
periodo più acuto della pandemia, la prossimità della fonte informativa all’in-
dividuo si conferma un fattore primario di legittimazione (Shearer 2020).
Infine, è parte integrante di una efficace strategia di prevenzione e
di contrasto al fenomeno del disordine informativo la costituzione di network
professionali nazionali e internazionali, come il processo di policy europeo
ispira (par. 3), in grado di progettare e trasferire l’innovazione – prima cul-
turale e sociale che tecnologica – alle pratiche del giornalismo e agli attuali
modelli di sostenibilità economica. Tali network esterni ed indipendenti
74
Fake news e hate speech
8. Conclusioni
75
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
76
Fake news e hate speech
Sergio Scamuzzi
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
sergio.scamuzzi@unito.it
Marinella Belluati
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
marinella.belluati@unito.it
Mia Caielli
Dipartimento di Giurisprudenza
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
mia.caielli@unito.it
Cristopher Cepernich
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
cristopher.cepernich@unito.it
77
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
Viviana Patti
Dipartimento di Informatica
Università degli Studi di Torino
Via Pessinetto 12
I-10149 Torino
viviana.patti@unito.it
Stefania Stecca
Direzione Generale -Unità di Progetto
Comunicazione istituzionale e organizzativa
Università degli Studi di Torino
via Verdi 8
I-10124 Torino
stefania.stecca@unito.it
Giuseppe Tipaldo
Dipartimento di Culture, politica e società
Università degli Studi di Torino
Lungo Dora Siena 100
I-10153 Torino
giuseppe.tipaldo@unito.it
Riferimenti bibliografici
Abbondante, F. (2017), Il ruolo dei social network nella lotta all’hate speech:
un’analisi comparata fra l’esperienza statunitense e quella europea, in «Infor-
matica e diritto», 26(1-2), pp. 41-68.
Anderson, C.W., Bell, E., Shirky, C. (2012), I giornalisti nel giornalismo post
industriale. Il Rapporto del Tow Research Center for Digital Journalism della
Columbia Journalism School, in «Problemi dell’informazione», 3, pp. 222-252.
Bandura, A. (1973), Aggression: A social learning analysis, Englewood Cliffs,
NJ, Prentice Hall.
Banks, J. (2010), Regulating HS online, in «International Review of Law,
Computers & Technology», 24(3), pp. 233-239.
Bassini, M., Vigevani, G.E. (2017), Primi appunti su fake news e dintorni, in
«Media Laws», 1, pp. 11-22.
Belluati, M. (2018), Hate or Hateful? L’uso del linguaggio d’offesa nelle discus-
sioni politiche, in «Comunicazione politica», 19(3), pp. 373-392.
Berne, E. (1961), Transactional Analysis: A Systematic Individual and Social
Psychiatry, New York, Grove Press.
78
Fake news e hate speech
Binny, M., Ritam, D., Pawan, G. A. Mukherjee (2019), Spread of Hate Speech
in Online Social Media. In Proceedings of the 10th ACM Conference on Web
Science, New York, Association for Computing Machinery, pp. 173-182.
boyd, D. (2017), Google and Facebook can’t just make fake news disappear, in
«Wired.» https://www.wired. com/2017/03/google-and-facebook-cant-just-
make-fake-news-disappear.
Bracciale, R., Grisolia, F. (2020), Information disorder: acceleratori tecnologici
e dinamiche sociali, in «Federalismi.it. Rivista di diritto pubblico italiano,
comparato, europeo», 11, pp. 58-72.
Calvert, C. (1997), HS and its harms: A communication theory perspective, in
«Journal of Communication», 47(1), pp. 4-19.
Conference on Computational Linguistics (CLiC-it 2019)», CEUR-WS.org,
vol. 2481.
CERD-UN (2013) General Recommendation No. 35 on combatting racist hate
speech, CERD/C/GC/35.
Chadwick, A. (2013), The Hybrid Media System. Politics and Power, Oxford-
New York, Oxford University Press.
Christin, A. (2020), Metrics at work. Journalism and the contested meaning
of algorithms, Princeton-Oxford, Princeton University Press.
Chung, Y., Kuzmenko, E., Tekiroglu, S.S., Guerini, M. (2019), CONAN –
Counter Narratives through Nichesourcing: a Multilingual Dataset of Responses
to Fight Online hate speech, in «Proc. of the 57th Annual Meeting of the As-
sociation for Computational Linguistics 2019», pp 2819-2829.
Council of Europe Committee of Ministers, (1997) Recommendation No.
R(97)20 of the Committee of Ministers to member states on «HS», R(97)20.
Council of Europe Committee of Ministers, (2010), Recommendation CM/
Rec(2010)5 of the Committee of Ministers to member states on measures to
combat discrimination on grounds of sexual orientation or gender identity,
R(2010)5.
Eberle, E.J. (1994) Hate speech, Offensive Speech, and Public Discourse in
America, in «Wake Forest L. Rev», 29, pp. 1135-1213.
Esposito, C. (1958), La libertà di manifestazione del pensiero nell’ordinamento
italiano, Milano, Giuffrè.
Faloppa, F. (2020), Odio. Manuale di resistenza alla violenza delle parole,
Novara-Milano, UTET.
Fumo, M. (2018), Bufale elettroniche, repressione penale e democrazia, in
«Media Laws. Rivista di diritto dei media», 1, pp. 83-91.
Jack, C. (2017), Lexicon of lies: Terms for problematic information, in «Data
& Society», 3, pp15-22.
79
S. Scamuzzi, M. Belluati, M. Caielli, C. Cepernich, V. Patti, S. Stecca, G. Tipaldo
Karoui, J., Benamara, F., Moriceau, V., Patti, V. Bosco, C. (2017), Exploring
the Impact of Pragmatic Phenomena on Irony Detection in Tweets: A Multi-
lingual Corpus Study, in «Proc. of the European Chapter of the Association
of Computational Linguistics (EACL 2017)», pp. 62-272.
Knechtle, J.C. (2005), When to Regulate Hate speech, in «Penn St. L. Rev»,
110, pp. 539-578.
Lai, M., Tambuscio, M., Patti, V., Ruffo, G. and Rosso, P. (2019), Stance po-
larity in political debates: A diachronic perspective of network homophily and
conversations on Twitter, in «Data Knowledge Engineering», 124.
Massey, CR (1992), HS, cultural diversity, and the foundational paradigms of
free expression, in «UCLA L. Rev», 40, pp. 103-135.
Matsuda, M.J., Lawrence III, C.R., Delgado, R., Crenshaw, K.W. (2018), Words
that wound: Critical race theory, assaultive speech, and the first amendment,
London, Routledge.
Mihajlova, E., Bacovska, J. Shekerdjiev, T. (2013), Freedom of expression and
Hate speech, OSCE, Mission to Skopje.
Pamungkas, E.W., Basile, V. Patti, V. (2020). Misogyny Detection in Twitter:
A Multilingual and Cross-Domain Study, in «Information Processing and
Management».
Pisaneschi, A. (2020) Reti sociali ed elezioni: il fallimento del mercato e il qua-
dro regolatorio europeo, in «Consulta Online», 2020 disponibile http://www.
giurcost.org/LIBERAMICORUM/pisaneschi_scrittiCostanzo.pdf.
Pollicino, O. (2017), La prospettiva costituzionale sulla libertà di espressione
nell’era di Internet, in Pitruzzella G., Pollicino O., Quintarelli S., Parole e
potere: libertà d’espressione, hate speech e fake news, Milano, Egea, pp. 12-31.
Reuters Institute for the Study of Journalism, (2020), Digital News Report
2020, University of Oxford: https://reutersinstitute.politics.ox.ac.uk/sites/
default/files/2020-06/DNR_2020_FINAL.pdf.
Robertson, R. (Ed.) (2014), European Glocalization in Global Context, Lon-
don, Palgrave Macmillan.
Shearer, E. (2020), Local news is playing an important role for Americans
during Covid outbreak, Tew Research Center: https://www.pewresearch.
org/fact-tank/2020/07/02/local-news-is-playing-an-important-role-for-
americans-during-covid-19-outbreak/.
Sommo, P. (2019), Comunicatore pubblico: un profilo professionale finalmente
riconosciuto dallo Stato, in Vaccaro S., Rizzuto F., Brancato G. (a cura di), La
comunicazione alla sfida della (dis)informazione, Roma, Aracne.
Stewart, I., Joines, V. (2000), L’analisi transazionale. Guida alla psicologia dei
rapporti umani, Milano, Garzanti.
80
Fake news e hate speech
Sulis, E., Hernández Farías, D.I., Rosso, P., Patti, V., Ruffo, G. (2016), Figura-
tive messages and affect in Twitter: Differences between #irony, #sarcasm and
#not, in «Knowledge-Based Systems», 108, pp. 132-143.
Sunstein, C. (2010), Voci, gossip e false dicerie. Come si diffondono, perché ci
crediamo, come possiamo difenderci, Milano, Feltrinelli.
Tandoc, E.C., Lim, Z.W., Ling, R. (2018), Defining «Fake news», in «Digital
Journalism», 6(2), pp.137-153.
Tipaldo, G. (2019), La società della pseudoscienza. Orientarsi tra buone e
cattive spiegazioni, Bologna, Il Mulino.
Tsesis, A. (2009), Dignity and speech: The regulation of HS in a democracy, in
«Wake Forest L. Rev», 44, pp. 497-521.
Tsfati, Y., Boomgaarden, H.G., Strömbäck, J., Vliegenthart, R., Damstra, A.,
Lindgren, E. (2020), Causes and consequences of mainstream media dissemi-
nation of FN: literature review and synthesis, in «Annals of the International
Communication Association», 44(2), pp. 157-173.
Volkmer, I. (2014), The Global Public Sphere. Public Communication in the
Age of Reflective Interdependence, Cambridge, Polity Press.
Wardle, C and Derakhshan, H. (2017), Information disorder: Toward an in-
terdisciplinary framework for research and policy making, Council of Europe
report 27 https://rm.coe.int/information-disorder-toward-an-interdisciplin-
ary-framework-for-researc/168076277c.
Yong, C. (2011), Does freedom of speech include HS?, in «Res Publica»,17(4),
pp. 385-403.
Zuckerman, E. (2017) Stop Saying Fake News, It’s Not Helping, My Heart’s,
in Accra, Available at http://www.ethanzuckerman.com/blog/2017/01/30/
stop-saying-fake-news-its-not-helping/.
81