Sei sulla pagina 1di 32

L’allarme per gli effetti dei media: i Payne Fund Studies

Payne Fund Studies rappresentano la prima ricerca empirica realizzata sugli effetti dei media, in
risposta al clima di allarme sociale diffuso negli Stati Uniti negli anni Trenta a seguito del grande
successo del cinema.

In questi anni si andavano sviluppando accurati metodi di ricerca empirica: ad esempio i lavori di Bogardus sulla
costruzione di una scala di distanza sociale in grado di misurare i pregiudizi razziali e quelli di Thurstone,
finalizzati a costruire una scala di intervalli uguali utile a misurare qualsiasi tipo di atteggiamento.

Per quanto riguarda il cinema invece, i dati riportati da Dale (1935) sulle dimensioni della platea
cinematografica parlano, nel 1922, di 40 milioni di biglietti venduti ogni settimana, mentre nel 1929 si
stimavano in 40 milioni i minori presenti tra gli spettatori cinematografici. Alla base di tale successo va
collocata, innanzitutto, la relativa economicità del consumo, accessibile a intere famigliole con redditi
medio-bassi, in più ci troviamo in un periodo di grande incertezza economica quale quello creatosi con
la crisi del 1929 per cui il cinema costituiva un mezzo di evasione e riposo grazie alle grandi storie
prodotte da Hollywood. Queste storie, però , talvolta raccontavano vicende non proprio edificanti o
mostravano condotte ritenute da alcuni riprovevoli. I dati dell’intera offerta, infatti, mostrano come
addirittura il 75% dei film analizzati vada a cadere nei generi crimine, sesso, amore. Venivano ritratti
individui che consumavano tabacco e alcool (allora proibito nel paese). La preoccupazione per le
giovani generazioni – per i loro valori, atteggiamenti e comportamenti – esposte a tali messaggi portò
alla nascita dei Payne Fund Studies, che finanziarono ben 13 ricerche relative al contenuto dei film e
agli effetti esercitati sulle giovani generazioni nell’arco temporale dal 1929 al 1932

Il filone della ricerca sugli effetti può essere articolato in due grandi aree di interesse:
a) lo studio degli effetti del cinema sugli atteggiamenti degli individui;
b) lo studio degli effetti del cinema sul comportamento quotidiano degli individui.
La ricerca più significativa in relazione alla prima area è senza dubbio quella di Peterson e Thurstone
(1933). I due ricercatori analizzarono l’orientamento dei bambini nei confronti di alcuni gruppi etnici,
di soggetti di nazionalità diversa, di alcune questioni sociali come la pena di morte e così via.
L’atteggiamento del bambino venne misurato, una prima volta, in procinto di vedere dei film, e una
seconda volta al termine della proiezione. I risultati ai quali pervennero i ricercatori sottolinearono
l’effettiva influenza esercitata dai film sugli atteggiamenti dei bambini, in particolare di quelli più
piccoli. Inoltre, essi evidenziarono come la visione di più film relativi a una medesima tematica
favorisse con maggiore frequenza un mutamento di atteggiamento.
Un interesse per gli effetti attivati dal cinema sui giochi, sui sogni, sugli stili di vita, in breve, sulla vita
quotidiana è alla base della ricerca condotta da Blumer (1933) su 1800 relazioni stilate da uomini,
donne, adolescenti e bambini. Le aree di indagine individuate sono: influenza sui giochi infantili,
imitazione di stili di vita, proiezioni e fantasie, coinvolgimento emotivo. Il cinema influenza la vita dei
bambini quando propone soggetti nei quali identificarsi e quando suggerisce nuove scene, situazioni e
dinamiche di comportamento da adottare nei giochi con i compagni. Ogni generazione ha avuto i suoi
eroi dell’infanzia con i quali si è identificata e ai quali ha donato un’altra vita ambientata nella
creatività del gioco quotidiano. Al crescere dell’età, il cinema offre altro: consente l’acquisizione di un
linguaggio e di uno stile. Diviene per molti una «scuola di etichetta» da frequentare e alla quale
rivolgersi: al cinema si può apprendere lo stile femme fatale, si possono avere suggerimenti per
condurre un corteggiamento, si può imparare come vestirsi. Riguardo al coinvolgimento emotivo, esso
rimanda alla capacità da parte dei film di suscitare forti emozioni negli spettatori: una studentessa di
college partecipante alla ricerca sostenne nella sua relazione che «tutti i film in cui vi è pathos mi
costringono a un largo uso del fazzoletto». Egli, quindi, sostiene che «le immagini dei film propongono
tipi di vita estranei a molti individui e, conseguentemente, modellano la loro concezione di tali modelli
di vita». L’incredibile portata innovativa presente nelle riflessioni di Blumer sugli effetti di un consumo
prolungato di film è tuttora apprezzata, sì da far considerare la ricerca The Movies and Conduct come la
più rappresentativa tra quelle prodotte nell’ambito dei Payne Fund Studies, una pietra miliare degli
studi sui mass media.

Cap. 2
Società & Media Digitali: Network, Connective e Platform Society
L’avvento del digitale sviluppa un’utopia cibernetica di tipo automatizzato, cioè diffonde la tecnologia
computazionale in ogni ambito del quotidiano, sia del lavoro che del tempo libero. Questa fase di
utopia tecnologica si correla a un clima culturale e teorico che segna l’era della globalizzazione e del
capitalismo post-industriale. L’utopia cibernetica nella sua visione cyberconnettiva produce una
narrazione fatta di comunità virtuali, di accesso permanente e condiviso del sapere, di tecno-
democrazia sospinta da un egualitarismo digitale.
I processi di digitalizzazione prodotti dalle tecnologie dell’informazione prima e dopo l’avvento di
internet vanno però contestualizzati all’interno dei processi sociali che li accompagnano. Dunque,
quale forma assume la società contemporanea sollecitata dalla trasformazione tecnologica e
comunicativa del digitale? E in tale società , come cambia il rapporto degli individui con la
comunicazione? I momenti che proponiamo sono quelli relativi agli approcci della network society,
della connective society e della platform society.

Verso una «network society».

A partire dagli anni Ottanta, si assiste a una decentralizzazione, diversificazione e personalizzazione


sospinte dai nuovi media che cominciano a mutare l’esperienza audiovisiva del pubblico di massa e
che hanno la capacità di adattarsi per soddisfare le esigenze e desideri dei singoli. L’offerta mediale si
pluralizza e diversifica attorno alla moltiplicazione di canali televisivi supportata dallo sviluppo della
tv via cavo e da quella satellitare. La personalizzazione si muove attorno alla diffusione di tecnologie
come il walkman, che permette di fare della musica una propria colonna sonora in mobilita nella vita
quotidiana, o il videoregistratore, che consente una scelta familiare e personale dell’intrattenimento
svincolato e alternativo all’offerta televisiva, anche in abbinamento alla videocamera, che consente alle
persone di produrre contenuti propri legati alla vita quotidiana (vacanze, compleanni, matrimoni, ecc.)
e tradurli in esperienze da (ri)vivere sullo schermo. La moltiplicazione delle possibilità di scelta e la
pluralizzazione delle esperienze mediali cominciano a produrre un declino dell’idea del pubblico come
massa, infatti i nuovi media spingono in direzione di una crescente segmentazione delle audience, una
loro differenziazione sempre più accentuata, valorizzabile anche in termini di marketing e pubblicità.
Questa direzione, pero, assumerà pieno compimento solo nel momento in cui sarà possibile una reale
alternativa all’unidirezionalità della comunicazione, aprendo a prospettive interattive dei pubblici. Il
senso dello schermo per i pubblici evolve cosi da una prospettiva ≪catodica≫ di fascinazione delle
masse a una realtà in cui informazione, comunicazione e intrattenimento possono passare da schermi
sempre più portatili e personali; schermi che si possono miniaturizzare sempre più , che ci connettono
gli uni agli altri e con cui interagiamo non solo con lo sguardo ma anche tattilmente, come quelli
prodotti nel percorso che in pochi decenni ha portato alla diffusione dello smartphone.

Questa trasformazione è supportata da un mutamento che precede lo sviluppo dei media digitali e che
riconfigura la morfologia sociale in una network society, definizione del sociologo catalano Manuel
Castell. Egli rintraccia le radici della trasformazione a partire da: le tecnologie dell’informazione; la
messa in crisi dei modelli socioeconomici capitalisti e statalisti e una loro ristrutturazione; l’affermarsi
di alcuni movimenti culturali portatori di valori sociali come la difesa dei diritti umani,
l’ambientalismo e il femminismo. L’intreccio fra questi fattori ha dato vita a ≪una nuova struttura
sociale dominante, la società in rete; una nuova economia, l’economia informazionale/globale; e una
nuova cultura, la cultura della virtualità reale≫.
5 elementi:
1. la centralità dell’informazione come infrastruttura della nuova società ;
2. la diffusione pervasiva degli effetti delle tecnologie che agiscono in profondità sulle dinamiche
di esistenza individuali e collettive;
3. lo sviluppo di una logica di rete (network logic) di ogni sistema o insieme relazionale che
utilizza le tecnologie informazionali;
4. la flessibilità del paradigma informazionale, che implica la capacità di riconfigurazione che
supporta un bisogno di cambiamento costante della società ;
5. la convergenza delle tecnologie in un unico sistema integrato.

Siamo di fronte ad un rovesciamento di senso rispetto alle evoluzioni tecnologiche precedenti che
vedevano l’informazione agire sulle tecnologie e non il contrario. ≪La peculiarità della rivoluzione
tecnologica attuale consiste nell’applicazione della conoscenza e dell’informazione a dispositivi per la
generazione della conoscenza e per l’elaborazione/comunicazione dell’informazione, in un ciclo di
feedback cumulativo tra innovazione e usi dell’innovazione≫.

L’integrazione tra mass media, globalizzati e personalizzati e comunicazione mediata dal computer è
caratterizzata da un’estensione della comunicazione elettronica a tutti gli ambiti della vita.
Questo, secondo Castells, da vita a uno specifico modello socio-culturale, caratterizzato da:
1. una differenziazione sociale e culturale diffusa: i pubblici si segmentano in modi sempre più
complessi sotto la spinta di una duplice tensione, quella del marketing editoriale e di mercato
che tratta gli spettatori-utenti-consumatori attraverso forme di targettizzazione sempre più
raffinate e quella delle persone che sfruttano le possibilità interattive e di selezione per
approcciare contenuti diversificati;
2. una stratificazione sociale degli utenti che oggi è prodotta da un divario conoscitivo e da
diseguaglianze non solo sulle competenze, l’accesso e l’uso, ma relative anche alle ricadute tra
inclusi ed esclusi dai meccanismi di partecipazione attraverso i media;
3. l’integrazione dei messaggi in uno schema cognitivo comune: forme di comunicazione diverse
che vengono fruite dagli stessi ambienti mediali tenderanno a miscelare i loro codici
producendo forme ibride, come l’infotainment o il processo di gamification applicato a diversi
ambiti di contenuto; o finendo per confondere i codici simbolici, come nel caso di siti che
producono false news che finiscono per circolare come contenuti informativi. Trattandosi poi
di ambienti interattivi, quelli che sono i pubblici finiscono per partecipare al processo anche
sul versante della produzione (e circolazione), complessificando il contesto semantico in cui
operiamo;
4. l’assorbimento all’interno del sistema dei media digitalizzato di tutte le espressioni culturali e
delle loro distinzioni: cosi la differenza fra cultura alta e cultura bassa viene annullata
semplicemente nel flusso comunicativo di contenuti che si susseguono tra diverse possibilità ;
la differenza fra informare e persuadere assume confini sempre più sfumati. È questa quella
che Castells chiama ≪cultura della virtualita reale≫.

≪Connective society≫: la diffusione di una cultura della connessione

La Connective Society i interroga circa il nesso fra dimensione sociale e media prodotto nel momento
in cui la propensione all’essere online networked tende a diventare una condizione diffusa e a essere
vissuta come uno stato di normalità e non come un’eccezione. L’interrogativo al quale si tenta di dare
una risposta riguarda quale cultura della connessione si stia strutturando nella continuità fra online e
offline sviluppatasi in particolare con una penetrazione dei social media nella vita delle persone.

Lee Rainie e Barry Wellman, nel lavoro Networked: The New Social Operating System (2012),
attraverso l’analisi combinata di una rilevante mole di dati qualitativa e quantitativa raccolta lungo
dodici anni di ricerche, esplorano la natura della società in rete mettendo in relazione lo sviluppo delle
tecnologie dell’informazione e della comunicazione con quella delle reti sociali delle persone.
La pietra angolare di questo studio è il concetto di networked individualism che mette in luce come,
attraverso le tecnologie di comunicazione e internet in mobilità , gli individui sono sempre meno
vincolati a reti parentali, di vicinato e piccolo gruppo e sempre più orientati verso network personali
più allargati, molto diversificati e caratterizzati da minor coesione sociale: «gli individui networked
sono caratterizzati da forme di appartenenza parziale a molteplici network e fanno meno affidamento
su forme di appartenenza permanente a gruppi stabili».
Alla base di questo ≪nuovo sistema operativo sociale≫ vi e una triplice trasformazione:
 la Social Network Revolution, che ha portato gli individui a gestire i legami sociali in forme
più complesse che tengono conto della possibilità di fare affidamento sulla connessione anche
con rapporti ≪deboli≫, che possono intensificarsi quando vengono attivati attraverso
interessi e passioni comuni;
 l’Internet Revolution, che ha consentito agli individui di assumere maggiore potere
comunicativo e maggiore capacita di reperimento delle informazioni. Inoltre, ha introdotto
nuovi modi di relazionarsi e di produrre e distribuire autonomamente i contenuti;
 la Mobile Revolution, che ha reso la tecnologia pervasiva e portatile. In questo senso la
possibilità di essere in relazione con le proprie reti sociali diventa mobile nei luoghi e
costantemente a portata di mano.

Castells (2007) definisce come mass self-communication la forma di comunicazione basata su internet
e su altre reti digitali di comunicazione orizzontale e che si caratterizza nei seguenti termini:
1. resta di massa, poiché può raggiungere un’audience globale;
2. è multimodale, perche la natura digitale dei contenuti e la disponibilità, spesso gratuita, di
social software permettono di dare forme nuove ai contenuti e distribuirli online;
3. è autogenerata per quanto riguarda i contenuti, autodiretta per quanto riguarda i meccanismi
di emissione ed e autoselezionata per quanto attiene la ricezione, il tutto all’interno di reti
molti-a-molti.

Gli individui percepiscono, anche ideologicamente, di non essere più semplice ≪oggetto≫ – in quanto
pubblico, consumatori, elettori – di una forma di comunicazione di massa prodotta attraverso i media
dall’intrattenimento, dalla politica o dal marketing. L’intera esperienza della comunicazione cambia
grazie alla consapevolezza che gli individui hanno di se stessi come potenziali ≪soggetti≫ di
comunicazione: si tratta di un passaggio cruciale dall’idea di pubblico come audience a quello dei
pubblici connessi. Questa propensione al protagonismo comunicativo e data dalla diffusione e
accumulazione di pratiche che consentono di raccontarsi ed autorappresentarsi e di essere esposti ai
commenti di queste narrazioni prodotte. Alla base di questa condizione troviamo l’attitudine al ≪farsi
media≫ attraverso:
a) le forme di appropriazione degli strumenti mediali e quindi la corrispondente possibilità di
≪fare media≫;
b) l’appropriazione di codici e linguaggi dei media, delle estetiche e delle retoriche, declinati in
una propensione a ≪diventare media≫.
A dire il vero, non si tratta di una novità data dalle possibilità di produzione e diffusione della rete
internet e di strumenti di connessione sempre disponibili (come ad esempio gli smartphone) ma era
già presente, solo per fare qualche esempio, nelle esperienze delle ≪radio libere≫ in cui i ragazzi da
radioascoltatori hanno cominciato a fare programmazione o in quelle delle ≪tv di quartiere≫ e, in
generale, in tutte quelle forme nelle quali persone appartenenti ai pubblici si appropriano dei mezzi di
comunicazione, producendo e diffondendo contenuti che rispecchiano logiche e linguaggi broadcast.
Nella moltiplicazione e diffusione di queste nuove esperienze delle forme di comunicazione personale
di massa sono mutati:
a) il ≪senso della posizione≫ nella comunicazione da parte dei pubblici, cioè la percezione che
hanno del loro ruolo comunicativo nella società . Tale cambiamento si traduce, in modo anche
ideologico, nella presa di parola online su ogni fatto tematizzabile, sfruttando la bidirezionalità
del mezzo per commentare e fare domande a soggetti istituzionali e professionisti della
comunicazione (giornalisti, politici, attori, cantanti, ecc.), partecipando in modo visibile a
forme di protesta – ad esempio attorno ad uno specifico hashtag – o celebrando determinati
eventi come singoli in connessione – pensiamo a come si e trasformata l’idea di lutto pubblico
nell’epoca dei social media;
b) i modi in cui i pubblici ascoltano, guardano e/o elaborano ciò che accade nel quotidiano. Non
esiste ambito sociale che non sia comunicabile in modo istantaneo nelle reti di comunicazione,
al punto che i vissuti quotidiani tendono ad essere tematizzabili come fatti pubblici. Ne sono un
esempio le storie su Instagram prodotte a scuola o negli ambienti di lavoro, la condivisione di
immagini di cio che si mangia, i selfie ai funerali e cosi via.

Siamo di fronte a una pluralità di occasioni in cui gli individui ≪giocano≫ e si mettono in gioco con
forme di autorappresentazione, grazie: a) alla diffusione delle tecnologie di produzione nella vita
quotidiana (dalle fotocamere digitali agli smartphone ai software di editing) che consentono alle
persone di dare vita a forme mediali simili a quelle che troviamo nei media mainstream; b) alla
crescita di sistemi di disintermediazione (o alla rimozione di intermediari) e di condivisione dei
contenuti, come testimonia la realtà delle piattaforme; c) alla consapevolezza diffusa di una logica della
costruzione di contenuti e linguaggi che sono molto simili a quelli dei mass media ma usati in un
ambiente in cui gli individui sono collegati tra loro.

Le persone sono più o meno consapevoli di esporre la propria individualità al pubblico generale e
trasformare la propria esperienza vissuta in un’opportunità di comunicazione con altre persone, le cui
vite saranno collegate alle loro da quel momento in poi. Questo spostamento percettivo che sta
avvenendo nelle comunicazioni quotidiane e chiaramente visibile anche in ambienti che sembrano
distanti tra loro – notiamo, per fare un esempio, che i luoghi di conversazione sulla rete sono diventati
sempre più importanti soprattutto per le imprese, perche sono luoghi in cui le opinioni di altri
consumatori orientano e guidano acquisti, gusti, ecc.

≪Platform society≫: le piattaforme sono i nuovi custodi di internet

Le piattaforme sono i nuovi ≪custodi di internet≫ poiché hanno saturato l’intero orizzonte socio-
tecnico del web in cui si muovono attori istituzionali, editori e utenti, svolgendo una funzione di
intermediazione centrale e inedita che struttura il flusso informativo attraverso la logica degli
algoritmi di visualizzazione (una logica spesso inavvertita sul piano esperienziale e non trasparente a
tutti i soggetti). Secondo un’accezione di tipo tecnico-informatico, le piattaforme sono infrastrutture
sulle quali costruire applicazioni. Tuttavia, le imprese del web 2.0 hanno esteso il significato del
termine “piattaforma” al di fuori di questa accezione per connetterlo ad altri significati ricchi di
diverse sfumature: significato computazionale, cioè sono sempre un luogo da cui partire per costruire
e innovare; politico, un luogo da cui parlare ed essere ascoltati; figurativo, in quanto la possibilità è una
promessa tanto astratta quanto concreta; e architetturale, nel senso che YouTube è concepito come un
luogo accogliente, che facilita un’espressione egualitaria e non come un gatekeeper elitario con
restrizioni normative e tecniche. È quindi uno spazio pubblico di comunicazione in cui avviene una
condivisione di norme. Le piattaforme intervengono infatti sulle relazioni sociali, sui modi e sui
significati dello stare assieme, modificando i modelli comportamentali che caratterizzavano gli spazi
fisici offline di tipo tradizionale della socialità ≪mixandoli in modo crescente con norme sociali e
socio-tecniche create negli ambienti online e che aprono a nuove dimensioni≫. Ad esempio,
l’abitudine di condividere contenuti appartenenti alla sfera privata in pubblico si e sviluppata lungo
l’evoluzione delle piattaforme in un intreccio tra possibilità date dalle affordances (insieme delle
proprietà che ha un oggetto e che suggeriscono un utilizzo) e pratiche sviluppate dagli utenti, in un
modo tale che il senso della privacy e mutato significativamente nell’ultimo decennio. E la diffusione
delle norme di comportamento produce effetti differenti ad esempio sul versante generazionale. Come
mostrano diverse ricerche, i più giovani vivono il senso della connessione in modo diverso dai loro
genitori e le pratiche di socialità assumono significati differenti.

La socialità che si sviluppa nelle piattaforme non e quindi semplicemente la traslazione in nuovi spazi
tecnologici di meccanismi consolidati ma viene modellata dalle architetture delle piattaforme stesse,
che modificano i modi che le persone hanno per interagire, relazionarsi, produrre e condividere i
contenuti. Ad esempio, le piattaforme, agevolando la traduzione dei comportamenti sociali in dati che
possono utilizzare a fini di mercato, modellano le pratiche di socialità attorno a specifici ≪bottoni≫ e
strumenti secondo un modello di ≪datificazione≫. Pensiamo a come Facebook abbia nel tempo
modulato le reazioni ai post introducendo accanto al ≪Like≫ le variabili ≪Love≫, ≪Haha≫,
≪Wow≫, ≪Sad≫ e ≪Angry≫ in modo da misurare meglio le emozioni degli utenti e poterle profilare.
O a come favoriscono la traduzione delle forme di relazione tra gli utenti in comportamenti
tecnicamente codificati, come il ≪follow≫, lo ≪share≫, il ≪tag≫, il ≪retweet≫, ecc.
Occorre poi tenere conto che le piattaforme sono ambienti in cui le affordances mutano nel tempo e
tale mutamento va concepito in una prospettiva ecologica in connessione con le altre piattaforme che
favoriscono processi di standardizzazione sugli utenti. Ad esempio, la sostituzione della ≪stella≫ con
il ≪cuore≫ che Twitter ha operato nel 2015 va nella direzione dell’accettazione di una ≪logica del
like≫ come proposta da Facebook, cioè di una logica di standardizzazione che risponde a dinamiche di
raccolta del dato e di familiarità dei significati d’uso da parte degli utenti che va oltre i confini della
singola piattaforma. Standardizzazione e personalizzazione sono perciò dinamiche compresenti ma su
strati differenti: l’interfaccia può essere personalizzata ad un livello micro e tendente alla
standardizzazione in un’ottica di macroprocesso.

Se da un lato esiste una forma di empowerment degli utenti, dall’altra dobbiamo considerare che gli
utenti dei social media sono essi stessi ≪un prodotto della direzione data dall’algoritmo, spinti verso
contenuti particolari e venduti agli inserzionisti≫. Dietro la promessa di fornire un servizio di
connessione fra utenti, le piattaforme si configurano, quindi, come imprese incentrate sull’estrazione e
sull’uso di quella che e la nuova materia prima di questo secolo, ossia, i dati, secondo un modello di
≪platform capitalism≫che viene interiorizzato dagli individui, spesso in modo inconsapevole e
acritico.

Il concetto di neoliberismo non viene utilizzato per identificare la dottrina di politica economica che
esalta il libero mercato ma, piuttosto, per definire il principio di socializzazione che ne deriva e che
orienta le forme del comportamento socio-culturale verso una gestione manageriale del se, finalizzata
alla massimizzazione del profitto, visto che i social media:
1. consente di presentare il proprio se come una collezione di gusti (musicali, letterari,
cinematografici, ecc.), coerentemente con la riduzione del cittadino a consumatore propria
della logica neoliberista (io sono le pagine che dichiaro di seguire, i post ai quali reagisco
positivamente o negativamente, le immagini che mi piacciono e condivido, ecc.);
2. offre una rete di contatti (la rete di friendship, followship, ecc.) con cui tessere alleanze
finalizzate a ottenere vantaggi relazionali e simbolici in termini di visibilità , popolarità e
autopromozione;
3. offre, proprio come il mercato, un’informazione ampia (talvolta eccessiva), ma mai completa,
mai scevra da ambiguità , zone di ambivalenza, possibilità di fraintendimento. Se il prodotto che
vendiamo sulle piattaforme siamo noi stessi, la strategia neoliberista di promozione del se
consiste nell’esaltare le nostre qualità , senza mai fornire i dettagli che non vogliamo rendere
noti. Il profilo deve essere costantemente aggiornato, gestito, talvolta ripulito a posteriori
cancellando vecchi contenuti che non ci rappresentano più o che ci creano imbarazzo,
rimodellando le nostre reti sociali attraverso eliminazioni di vecchi contatti o accettazione di
nuove amicizie.

Per concludere, platform society è un termine che enfatizza l’inestricabile relazione tra le piattaforme
online e le strutture sociali. Le piattaforme non riflettono il sociale: producono le strutture sociali nelle
quali viviamo. Ci portano a sviluppare reazioni sintetiche, come cuoricini e like; portano ad
oggettificare i comportamenti degli utenti cosi da tradurli in elementi quantitativi di valore, come ad
esempio contare i friends o i like a un post; i diritti del lavoro sono messi da parte a favore della
flessibilità – pensiamo all’assenza di tutele dei riders di ≪Foodora≫ e in cui i ≪mezzi di produzione≫
deve metterli chi lavora, come per gli autisti di Uber.

Le piattaforme non costituiscono, quindi, un semplice canale di distribuzione di contenuti informativi


e di intrattenimento: aziende come Google, YouTube, Facebook, Twitter, Instagram, Snapchat, ecc.
fanno convergere interessi di attori diversi – programmatori, inserzionisti, utenti – i quali dovrebbero
giovarsi reciprocamente degli effetti di networking prodotti dalla partecipazione delle altre parti. Pur
non svolgendo principalmente la funzione di produttori di contenuti, come i mass media, mediano
editorialmente i contenuti degli iscritti (semplici individui, stakeholder, organizzazioni/imprese, ecc.),
li conservano ed organizzano e promuovono la loro circolazione verso gli altri utenti attraverso
algoritmi.

Questo nuovo spazio pubblico ha permesso di sviluppare pratiche di visibilità delle istanze ≪dal
basso≫ che hanno la capacita di influenzare le dinamiche della politica e i mass media, ad esempio
attraverso gli hashtag e pratiche come l’hashtag activism, che hanno introdotto nuove modalità di
espressione da parte dell’opinione pubblica. Gli attivisti hanno sviluppato forme di appropriazione dei
social media per mobilitare all’azione sia online sia offline, per coordinare azioni dirette e auto
mediare forme di resistenza. Ci troviamo cosi di fronte a realtà che miscelano nuovi leader carismatici
capaci di influenzare – come le microcelebrity. Realtà che incoraggiano i più giovani ad autoprodurre
contenuti (selfie, meme, gif, ecc.) da far circolare attraverso i media personali e le proprie reti sociali,
creando un reframing del messaggio all’interno del gruppo di pari.

Cap. 3
Dalla manipolazione alla comunicazione persuasoria

Dopo avere a lungo ipotizzato e rappresentato i media come dotati di un potere manipolatorio nei
confronti degli individui, i risultati di ricerca provenienti dagli ambiti più disparati contribuirono a far
emergere letture alternative, più aderenti ai reali comportamenti degli individui nei confronti
dell’offerta mediale. Molti assunti del modello di Lasswell vennero mantenuti senza essere
minimamente messi in discussione: tra questi, vi era l’intenzionalità della comunicazione da parte
dell’emittente, vale a dire la volontà di perseguire un obiettivo. Anzi, proprio in virtù di tale assunto,
oggetto di studio privilegiato della mass communication research divennero le ≪campagne≫ volte a
conseguire specifici obiettivi – ≪influenzare gli elettori, vendere sapone, ridurre pregiudizi≫.La
focalizzazione dell’attenzione sulla ≪campagna≫ come oggetto di studio si presentava come
un’ottima risposta a esigenze provenienti sia da studiosi che da ambiti commerciali, interessati a
ottenere dati circa l’efficacia di campagne pubblicitarie. In breve, l’attenzione si concentrò su un unico
tipo di effetto, quello relativo al cambiamento di opinioni e atteggiamenti nel periodo immediatamente
successivo all’esposizione al messaggio. Tuttavia si trovò difficoltà a trovare dati empirici univoci in
merito alla presenza di effetti a breve termine sul pubblico. Se alcune ricerche suffragavano una certa
ipotesi, altre la smentivano. Lo stesso caso di La guerra dei mondi pur avendo fatto registrare reazioni
di panico in circa un milione di persone, aveva contribuito a far emergere differenti modalità di
comportamento da parte di quegli utenti che avevano ascoltato il radiodramma di Orson Welles. In
breve, esistevano numerosi indicatori che sostenevano la necessità di introdurre fattori di mediazione
tra i messaggi dei media e il pubblico, per risolvere le numerose contraddizioni emerse dai dati.
Inizialmente, i ricercatori distinsero i possibili effetti secondo caratteristiche sociali e psicologiche.
ipotizzarono, cioè, l’esistenza di fattori di mediazione connessi a tali ambiti, queste caratteristiche
presero il nome di ≪variabili intervenienti≫, così chiamate da i ricercatori Elihu Katz e Paul
Lazarsfeld i quali dichiararono che esse ≪contribuiscono, in certe condizioni, a facilitare il flusso delle
comunicazioni tra media e masse e, in altre condizioni, a bloccare il flusso delle comunicazioni. In
questo senso, le definiamo“intervenienti≫.

Una prima occasione per riflettere sulla complessita di tale rapporto venne offerta dal lavoro di
Hadley Cantril (1940), volto ad analizzare le reazioni di panico derivanti dall’ascolto del
radiodramma La guerra dei mondi. Cantril prende una netta distanza dall’approccio secondo cui i
messaggi veicolati dai media sono ricevuti da tutti nello stesso modo. Al contrario, lo stesso messaggio
può essere interpretato in modo diverso dai destinatari a seconda dell’intervento di alcuni fattori di
mediazione.

Seguendo la strada indicata da Joseph Klapper (1960; trad. it., 1964), i fattori di mediazione possono
essere individuati in relazione al pubblico e al messaggio. Con fattori di mediazione rispetto al
pubblico si fa riferimento a quell’insieme di variabili intervenienti che favoriscono ovvero ostacolano
l’esposizione a determinati messaggi. Per la prima volta, si affaccia la lettura secondo la quale i membri
dell’audience possono, in alcuni casi, sottrarsi ai messaggi dei media o, qualora questo sia impossibile,
stravolgerli fino al punto da eliminare qualsiasi possibilità di ≪dissonanza cognitiva≫. I fattori di
mediazione rispetto al messaggio, invece, fanno riferimento al contenuto e alle modalità di
presentazione di quest’ultimo. Gli studi condotti da Carl Hovland, Arthur Lumsdaine e Fred Sheffield
(1949) sull’efficacia dell’esposizione a messaggi filmati diretti ai soldati americani durante la seconda
guerra mondiale bene esemplificano questo approccio e i principali risultati conseguiti.

Le acquisizioni conoscitive derivanti da una lettura che pone il destinatario dei messaggi mediali nella
condizione di sottrarsi alla comunicazione ovvero di cancellarla, costituiscono le basi per
l’elaborazione del cosiddetto “paradigma degli effetti limitati dei media”, quell’orizzonte teorico e di
ricerca basato sul ridimensionamento degli effetti dei media.

Reazioni di panico per molti, ma non per tutti. Il caso di «La guerra dei mondi»

Come ogni domenica, il 30 ottobre del 1938, l’emittente americana CBS aveva in scaletta il programma
Mercury Theatre on the Air che prevedeva, per quella serata, la messa in onda del radiodramma di
Orson Welles dal titolo La guerra dei mondi, ovvero il dramma che si trasformo in uno dei più rilevanti
eventi mediali di tutti i tempi. A decretarne la rilevanza fu la quota di circa un milione di
radioascoltatori – su un totale di sei – che credette che gli Stati Uniti fossero stati invasi dai marziani e,
quindi, mise in atto comportamenti dettati dal panico. Paradossalmente, i responsabili del programma
radiofonico avevano valutato il dramma come molto debole, per nulla interessante e poco credibile per
il pubblico americano.

Contesto all’interno del quale collocare l’evento: innanzitutto, si deve partire dalla grande popolarità
della radio tra i cittadini americani di quell’epoca. Il presidente degli Stati Uniti Roosevelt, proprio in
quegli anni, utilizzava la radio per diffondere quelle che venivano chiamate fireside chats, ovvero le
famose “chiacchierate da caminetto”. Egli entrava, cosi, in ogni casa e spiegava con parole semplici e
comprensibili ai più cosa stava accadendo negli Stati Uniti e nel mondo. Dava anche voce ad autorevoli
personaggi politici europei impegnati a spiegare le conseguenze di alcuni eventi apparentemente
lontani (l’ascesa del nazismo in Germania, per esempio). La radio portava nelle case seguitissime soap
operas, cronache sportive, concerti di musica classica e performance musicali; portava, insomma,
informazione, divertimento e intrattenimento a costi contenuti e accessibili a tutti. Sul fronte delle
condizioni economiche, sociali e politiche nelle quali versavano gli Stati Uniti e il mondo nel suo
complesso, vanno ricordati il clima di incertezza che ancora si respirava a seguito della “grande
depressione”, da un lato, e le preoccupazioni circa l’inarrestabile ascesa del nazismo, dall’altro. Un
clima, quindi, di ansia e paura per un futuro che sembrava sfuggire a quelle certezze che avevano da
sempre caratterizzato l’American Dream.

In un contesto cosi segnato, la domenica del 30 ottobre alle ore 20 venne mandato in onda il
radiodramma La guerra dei mondi. Le dimensioni complessive della platea radiofonica vengono
stimate dallo stesso Cantril in circa 32 milioni di ascoltatori; sul totale, circa 6 milioni si sintonizzarono
sulla lunghezza d’onda della CBS. L’illustrazione di alcuni passaggi della scaletta aiuta a comprendere
meglio le conclusioni alle quali giunse la ricerca empirica:
Dopo aver mandato in onda la sigla della CBS, l’annunciatore presento ≪Orson Welles e The Mercury
Theatre On the Air in La guerra dei mondi di H.G. Wells≫. Pochi minuti dopo l’introduzione di Welles,
un annunciatore prese la parola per fornire le previsioni meteorologiche. Al termine, prese di nuovo la
parola Welles che, pero, fu interrotto di nuovo dalla lettura di un comunicato speciale del giornale
radio che annunciava diverse esplosioni di gas incandescente sul pianeta Marte, segnalate
dall’Osservatorio di Princeton. Pochi minuti più tardi, l’esplosione veniva confermata dall’Osservatorio
della Mac Millian University e un comunicato annunciava la caduta di un oggetto fiammeggiante nei
pressi di Trenton, New Jersey. L’introduzione del riferimento spaziale degli eventi contribuì ad
accrescere il carattere di verosimiglianza di quanto si stava raccontando. Con l’obiettivo di far salire la
tensione, vennero trasmessi gli interventi di alcuni testimoni che raccontavano in modo concitato lo
sfaldamento dell’estremità dell’oggetto precipitato e la sua apertura sotto gli occhi attoniti dei presenti
da cui uscì qualcosa o qualcuno. Decisamente sul versante della verosimiglianza si collocano anche gli
interventi del comandante della Guardia nazionale di Trenton, che annunciava l’applicazione della
legge marziale in alcune contee, e del ministro degli Interni, che voleva rassicurare i cittadini circa le
azioni militari già intraprese per contenere l’avanzata del nemico. Pur in presenza di eccezionali
misure, tuttavia, il dramma proseguiva descrivendo l’arrivo dei marziani a New York, fino a Times
Square, con la scia di distruzione e spaesamento seminata nel paese.

Vale la pena di ricordare però che, nel corso del programma, vennero trasmessi ben quattro annunci
che ricordavano che stava andando in onda il consueto radiodramma domenicale e lo stesso Welles
concluse rassicurando i radioascoltatori. Alla luce della situazione creatasi, la CBS trasmise altri
annunci nel corso della serata (22.30, 23.30 e 24.00) per ribadire che ≪sebbene siano stati usati i
nomi di alcune città americane, come in tutti i romanzi, l’intera vicenda e tutti gli avvenimenti in essa
contenuti erano totalmente immaginari≫. Nonostante questi annunci, si verificarono assalti alle
stazioni degli autobus, telefonate ai giornali locali e alle stazioni di polizia, interminabili code di
automobili sulle autostrade. I disagi e i danni creati a seguito del radiodramma furono portati a
sostegno della richiesta di risarcimento avanzata nei confronti della CBS e costituirono l’argomento di
numerose lettere inviate dai radioascoltatori.

Le lettere inviate all’emittente radiofonica, la copertura giornalistica dell’evento, le interviste in


profondità (oltre 100) e i dati di due sondaggi nazionali condotti a ridosso dell’evento costituiscono il
materiale di analisi sul quale lavoro Cantril per individuare le condizioni psicologiche e le circostanze
che avevano indotto alcuni ascoltatori a credere che il dramma fosse reale. In primo luogo, Cantril
individuo i fattori che, a suo avviso, avevano reso il programma più veritiero di altri e, quindi,
maggiormente adatto a un’interpretazione distorta:

a) il tono realistico, ovvero l’alternanza tra la narrazione, le interruzioni giornalistiche e i sipari


musicali contribuirono a dar vita a un prodotto che non si identificava necessariamente con un
prodotto della fantasia; lo stesso svolgimento dei fatti nella fase iniziale appariva abbastanza
realistico (incertezza circa gli eventi, dichiarazioni provenienti da ambito scientifico e cosi via);
b) l’affidabilità della radio, ovvero la grande autorevolezza attribuita dai cittadini americani al
mezzo radiofonico per diffondere notizie importanti e annunci rivolti alla popolazione;
c) l’uso di esperti, vale a dire il grande ricorso a personaggi dell’ambiente accademico e
scientifico, del mondo militare e politico contribuì ad accrescere la credibilità del dramma;
d) l’uso di località realmente esistenti, nel senso che la collocazione del radiodramma tra il New
Jersey e Manhattan, lungo le autostrade e Times Square, contribuì a trasformare un frutto della
fantasia in un evento che si stava verificando in un luogo a tutti noto e da molti frequentato;
non a caso, una intervistata dichiaro che ≪quando dissero “Signore e Signori, non usate la
strada numero 23”, non ebbi più dubbi≫;
e) la sintonizzazione dall’inizio del programma o a programma già cominciato; i soggetti che,
attraverso lo zapping, si sintonizzarono dopo l’inizio del programma furono più propensi a
credere che stessero ascoltando un news report (63%), al contrario di chi si sintonizzo
dall’inizio (20%).

Se la sintonizzazione dopo l’inizio del radiodramma può aver contribuito a far nascere l’equivoco sulla
natura del programma da parte di alcuni soggetti, essa, tuttavia, non e sufficiente a dar conto delle
ragioni per le quali altri, nella stessa condizione, non furono tratti in inganno. Per spiegare questa
diversità di comportamento, Cantril costruì quattro categorie di radioascoltatori.
1) La prima categoria comprendeva quei soggetti che erano stati in grado di controllare la
coerenza interna del programma: troppo simile alla fantascienza per poter essere preso sul
serio.
2) La seconda categoria comprendeva i radioascoltatori che avevano proceduto a controlli
esterni: ad esempio, con la programmazione radiofonica riportata dai giornali.
3) La terza categoria comprendeva, invece, quei soggetti che, pur avendo tentato la strada dei
controlli esterni, si convinsero che era effettivamente caduto un meteorite: ≪Guardai fuori
dalla finestra e vidi Wyoming Avenue piena di macchine; immaginai che le persone stessero
scappando [...] Nessuna macchina veniva giù per la mia strada; pensai che il traffico fosse
scomparso per la paura che le vie di comunicazione potessero essere distrutte≫.
4) La quarta categoria, infine, comprendeva quei soggetti che non effettuarono nessun tipo di
controllo, perche ritennero il programma un vero e proprio notiziario giornalistico. Alcuni di
questi interruppero addirittura l’ascolto per scappare via.

I radioascoltatori classificati nella prima e seconda categoria, coloro cioè che effettuarono controlli
interni ed esterni al programma, mostrarono di possedere quella che Cantril defini ≪abilita critica≫,
vale a dire ≪la capacita di valutare uno stimolo in modo tale da essere in grado di coglierne le
caratteristiche essenziali, valutarle e reagire appropriatamente≫. Mediante tale abilita, i soggetti
furono in grado di confrontare ciò che veniva narrato con la conoscenza del mondo che avevano
costruito nel corso del tempo. Il concetto di abilita critica si correla, innanzitutto, con il livello di
istruzione dei soggetti. Il 28% degli individui intervistati che aveva frequentato il college credette che
si trattasse di informazione giornalistica contro il 36% che aveva frequentato la high school e il 46%
che non era andato oltre la scuola elementare. Anche la variabile religiosa si correla, sia pure in
negativo, con il concetto di abilita critica, allorché porto a un’interpretazione degli eventi come frutto
della volontà divina di fronte alla quale l’uomo può ben poco. In ultimo, anche alcuni fattori di
personalità (come l’insicurezza emotiva, la mancanza di fiducia in se stessi, ecc.) si dimostrarono utili
per spiegare la difficoltà a ricorrere al concetto di abilita critica da parte di un segmento della platea
radiofonica.

Cantril e stato uno dei primi studiosi a presentare dati che raffiguravano non uno ma molti profili di
destinatari dei messaggi mediali, individuati grazie al ricorso ad alcune variabili intervenienti.

I fattori di mediazione rispetto al pubblico

L’interesse degli studiosi per gli effetti di campagna non poteva fa emergere la relativa inefficacia dei
messaggi comunicativi veicolati. Ci si domandava perché spesso le campagne volte a persuadere gli
individui a modificare determinati comportamenti – come le campagne sui pericoli legati al vizio del
fumo o quelle sull’assunzione di alcol prima di mettersi al volante di un’automobile – non raggiungono
gli obiettivi prefissati. Grazie all’analisi dei risultati di ricerca empirica disponibili, Klapper offrì una
risposta a tale interrogativo sostenendo che ≪la comunicazione persuasoria di massa agisce assai più
frequentemente come causa di rafforzamento che non di modificazione≫. Ne consegue che gli
individui tenderanno a sottrarsi a quei messaggi che appaiono in contraddizione con le opinioni
preesistenti, frapponendo una barriera nei confronti dei messaggi persuasori.

Secondo Katz e Lazarsfeld l’esposizione o la mancata esposizione possono essere frutto di numerosi
fattori di natura tecnologica, politica ed economica a cui si aggiungono anche i fattori volontari, vale a
dire la scelta di esporsi o meno all’ascolto. I soggetti raggiunti dai messaggi persuasori si identificano
spesso con coloro che già condividono il punto di vista che si vorrebbe diffondere, mentre i soggetti
che si vorrebbe persuadere non vengono raggiunti dai messaggi. Inoltre, è necessario che vi sia una
qualche forma di interesse ad acquisire informazioni sull’argomento trattato.

Questo interesse all’acquisizione di notizie da parte degli individui emerse con grande chiarezza nella
ricerca condotta da Paul Lazarsfeld, Bernard Berelson e Hazel Gaudet (1948) in occasione della
campagna presidenziale del 1940. In tale occasione, infatti, i ricercatori scoprirono che un interesse
diversificato per le elezioni si correlava con l’esposizione alle occasioni comunicative della campagna.
Suddividendo i soggetti membri del panel di studio in tre gruppi – a seconda di un elevato, medio e
nullo interesse per la campagna – i ricercatori scoprirono che i membri appartenenti al primo gruppo
“a) avevano opinioni precise sui temi della campagna; b) partecipavano frequentemente agli eventi
elettorali; c) si esponevano più spesso degli altri all’offerta di comunicazione politica”. In breve, i
soggetti interessati alla campagna mettevano in atto un comportamento tale da collocarli
naturalmente tra coloro che consumavano maggiormente l’offerta comunicativa predisposta in
occasione del voto.

Il secondo step che può bloccare il flusso comunicativo si rintraccia nel primo dei meccanismi della
selettività : l’≪esposizione selettiva≫. Ancora una volta, i dati forniti da Lazarsfeld, Berelson e
Gaudet aiutano a individuare il meccanismo in atto: gli studiosi, infatti, scoprirono che gli individui che
dichiaravano di aver partecipato alle occasioni di incontro con i candidati alla presidenza degli Stati
Uniti, Willkie e Roosevelt, erano già sostenitori del Partito repubblicano i primi e del Partito
democratico i secondi. Anche Cartwright (1949), nell’analizzare l’efficacia di una campagna promossa
dal ministero delle Finanze per diffondere il favore dei cittadini verso alcune prestazioni civiche, come
l’acquisto dei titoli di Stato, confermò l’esistenza di una sorta di selettività da parte dei soggetti. Nella
cittadina di Bridgeport, dove venne organizzata una proiezione pubblica gratuita per sensibilizzare i
cittadini sulla questione, la popolazione presente era già a conoscenza dell’iniziativa e coinvolta in
essa.

Per comprendere appieno i meccanismi della selettività , può essere utile fare riferimento al concetto
di ≪dissonanza cognitiva≫ sviluppato da Leon Festinger. Secondo lo studioso, gli individui sono
maggiormente propensi a esporsi a quei messaggi che riducono la discrepanza tra l’effettivo
comportamento e ciò in cui essi stessi credono. Cosi, in via ipotetica, si può prevedere che un accanito
fumatore tenderà a esporsi a messaggi tesi a sostenere che il fumo di per se provoca danni relativi,
piuttosto che a messaggi costruiti sull’enfatizzazione della pericolosità mortale del tabacco.

Se per caso il soggetto non dovesse riuscire a innalzare reti protettive intorno alle opinioni
preesistenti, può intervenire il meccanismo della ≪percezione selettiva≫: un meccanismo, cioè, che
porta a una distorsione del significato del messaggio fino al punto da renderlo coerente e integrato
all’interno del proprio sistema valoriale e di credenze. Gordon Allport e Leo Postman (1945),
analizzando la metamorfosi delle dicerie, scoprirono che, nel processo di diffusione sociale, alcuni
messaggi venivano via via trasformati. Uno di questi casi fu quello del litigio tra un bianco e un nero
all’interno di un treno. Nelle immagini mostrate ai soggetti, il bianco aveva un coltello in mano con il
quale minacciava il nero. I soggetti coinvolti nella ricerca furono invitati a raccontare le immagini viste
ad altre persone: il racconto che lentamente si costruì capovolse completamente il gioco delle parti e
fece passare incredibilmente il coltello dalle mani del bianco a quelle del nero. Un analogo
stravolgimento di significato venne rilevato da Cooper e Jahoda (1947) e da Kendall e Wolf (1946)
nello studio del pregiudizio razziale. Utilizzando vignette satiriche che ridicolizzavano il pregiudizio
razziale e religioso, i ricercatori scoprirono che gli individui che condividevano tali pregiudizi
fornivano una lettura distorta del materiale mostrato, individuando un messaggio teso a sottolineare
la superiorità del popolo americano. In termini di frequenza, la distorsione era presente in misura
maggiore (addirittura due volte e mezzo in più ) tra i soggetti con pregiudizi razziali.

L’ultima barriera ancora disponibile a colui che per caso fosse stato esposto a un messaggio dissonante
e quella della ≪memorizzazione selettiva≫, ovvero la costruzione di un ricordo ≪depurato≫ dalla
presenza di eventuali fonti di disturbo. In realtà, è estremamente difficile individuare la linea di
demarcazione tra la percezione e la memorizzazione selettiva. È difficile determinare se il contenuto e
stato percepito selettivamente; se e stato percepito correttamente ma non conservato, o se i due
processi sono stati vicendevolmente complementari.

I fattori di mediazione rispetto al messaggio

Non è possibile sintetizzare i fattori di mediazione rispetto al messaggio in modo semplice, poiché
sono troppo numerose le variabili intervenienti: un messaggio costruito in un certo modo può essere
efficace per alcuni soggetti ma non per altri.

Una delle analisi degli elementi che possono giocare un ruolo rilevante nel facilitare oppure ostacolare
l’efficacia dei messaggi persuasori fu condotta da Carl Hovland e dal suo gruppo di ricerca.
Nell’obiettivo di costruire una “teoria sistematica della persuasione”, Hovland e i suoi collaboratori
diedero vita a oltre cinquanta esperimenti, presentati sinteticamente nel volume Communication and
Persuasion. Una sintesi dei risultati di studio più importanti ai quali pervennero Hovland e il suo
gruppo di ricerca può essere articolata a partire dagli elementi relativi alla credibilità della fonte,
all’ordine e alla completezza delle argomentazioni e all’esplicitazione delle conclusioni.

1. Credibilità della fonte  l’efficacia di una comunicazione dipende dal comunicatore. Di


questo è stata consideratala la dimensione della competenza – intesa in riferimento
all’autorevolezza e alla reputazione – e in quella della fiducia – intesa come attribuzione o
meno di un intento persuasorio da parte del comunicatore. Adottando il classico disegno di
ricerca dell’esperimento, Hovland e i suoi collaboratori sottoposero a un gruppo di soggetti
quattro dichiarazioni relative ad argomenti diversi, ospitati ora da una fonte con alta
credibilità, ora da una fonte con bassa credibilità. Tra le varie dichiarazioni figurava quella che
si poneva come interrogativo la possibilità di costruire sottomarini atomici (≪è possibile, oggi,
la costruzione di un sottomarino atomico?≫) attribuita ad una fonte credibile e autorevole, e al
quotidiano sovietico ≪Pravda≫, fonte dotata di scarsa credibilità in merito all’argomento
citato. I risultati presentati mostravano chiaramente come l’attribuzione di scarsa credibilità a
una fonte influiva sulla valutazione dell’argomentazione offerta. Si è portati a dare maggiore
credito a quelle fonti che si presentano estranee a intenti persuasori e portatrici di competenze
specifiche (nell’esempio citato, es. un famoso fisico nucleare). La credibilità della fonte, in
realtà , agisce anche quando la scelta della testimonial di prodotti di bellezza ricade su donne
bellissime e affascinanti: decisamente credibili nel fornire un presunto attestato di efficacia ai
prodotti pubblicizzati. Ancora, la credibilità della fonte, declinata, in questo caso, come fiducia
e reputazione, gioca un ruolo rilevante nei siti di vendita online come eBay, nei quali l’apertura
di credito che si da al venditore si basa sugli esiti del processo reputazionale, che produce voti
e commenti visibili a tutti gli interessati. Oppure come accade per social network come Home
for Exchange o GuesttoGuest, in cui la principale garanzia alla formulazione di un accordo tra i
proprietari interessati a scambiare gli appartamenti e rappresentata dalle recensioni e
valutazioni attribuite da ospiti precedenti. Infine, la credibilità o l’autorevolezza della fonte
entra in gioco, anche, paradossalmente, al fine di veicolare messaggi poco credibili. Si pensi,
per esempio, al fenomeno delle fake news che, talvolta, utilizza il riferimento leggermente
modificato di una testata giornalistica nota per far circolare informazioni inesatte e infondate:
≪Il Corriere della Notte≫ (≪il Corriere della Sera≫), ≪Ilmessaggio.it≫ (≪Il Messaggero≫),
≪Il Fatto Quotidaino≫ (≪Il Fatto Quotidiano≫).

2. Modalità di costruzione del messaggio (l’ordine)  Gli studi furono condotti nell’ambito
del progetto The American Soldier. Gli scienziati sociali furono chiamati dalle autorità militari
statunitensi a condurre ricerche sulle centinaia di migliaia di soldati in partenza per la seconda
guerra mondiale. Lo studio riguardava un complesso piano di comunicazione persuasoria che
vide coinvolto anche il famoso regista Frank Capra nella supervisione di una serie di film dal
titolo Why We Fight (1942-1945). Hovland organizzò numerosi esperimenti per valutare
l’efficacia dei film trasmessi ai soldati nei vari centri di reclutamento e addestramento. Tra i
tanti esperimenti riguardava l’esposizione al film diretto da Capra, The Battle of Britain, che
aveva l’obiettivo di convincere i soldati americani della resistenza eroica che si stava
opponendo in Europa all’avanzata dei tedeschi. A distanza di una settimana dall’esposizione al
film, ai soldati venne sottoposto un questionario organizzato su domande relative a
informazioni specifiche e a opinioni più generali. I risultati mostrarono che:
a) vi era stato un incremento di informazioni specifiche;
b) vi era stata una modifica delle opinioni dei soldati solo in relazione a particolari
interpretazioni (era opinione condivisa che la RAF stesse facendo un ottimo lavoro);
c) vi erano stati effetti quasi inesistenti sulle opinioni relative a questioni generali (come
quella, ad esempio, del reale impegno a vincere la guerra da parte dell’Inghilterra);
d) nessun effetto era stato registrato in merito all’incremento delle motivazioni a combattere
da parte dei soldati.
Per individuare le differenze nell’elaborazione dei messaggi proposti, particolare attenzione
venne prestata alle modalità di costruzione dei messaggi stessi. Si indago, ad esempio, sulla
rilevanza da attribuire all’ordine delle argomentazioni all’interno di un messaggio: è preferibile
collocare in testa o in coda la posizione che si vuole sostenere? Tuttavia, l’interesse per
l’argomento, il livello di istruzione, l’intervallo di tempo trascorso dalla comunicazione sono
tutte variabili che modificano il risultato finale al punto tale che è impossibile pervenire a un
assunto valido per tutti. Così, se un preesistente interesse per l’argomento sembra sostenere la
collocazione in coda della posizione che si vuole diffondere, la non conoscenza dell’argomento
sembrerebbe suggerire di invertire nettamente questo posizionamento.

3. Completezza della argomentazioni  Hovland, Lumsdaine e Sheffield affrontarono il tema


in relazione allo studio dei messaggi tesi a preparare i soldati a una lunga guerra. In
collaborazione con l’Armed Forces Radio Service, furono costruite due trasmissioni
radiofoniche diverse: una, della durata di 15 minuti, presentava un solo aspetto della questione
in esame (one side), l’altra, della durata di 19 minuti, presentava i diversi aspetti della
questione (both sides). L’obiettivo dei ricercatori era quello di valutare l’efficacia dei due tipi di
programmi nel preparare i soldati a un impegno lungo e gravoso. Anche in questo caso, i
risultati emersi furono contraddittori: infatti, sembrava che non vi fosse alcuna differenza tra
le due modalità di presentazione. Tuttavia, un elevato livello di istruzione dei soggetti,
congiuntamente alla presenza di un’opinione sull’argomento che precedeva l’esposizione,
faceva propendere per un messaggio costruito sulla presentazione di both sides del problema.
4. esplicitazione delle conclusioni  sfugge, come le precedenti, a ogni intento definitorio. In
questo stesso caso, infatti, se i soggetti con un elevato livello di istruzione preferivano che le
conclusioni non venissero esplicitate, esattamente il contrario avveniva tra i soggetti con un
livello basso. Ancora, un interesse preesistente per l’argomento trattato si correlava a una
scelta per le conclusioni non esplicitate, mentre la mancanza di conoscenza sembrava far
optare per una esplicitazione delle conclusioni.

In conclusione, non si può affermare ci siano degli elementi chiari per cui possiamo affermare la
capacità persuasoria dei messaggi poiché questi variano in relazione a fattori individuali (istruzione,
interesse preesistente ecc.) i quali sono poi quegli elementi che guidano le pratiche di targettizzazione
della comunicazione che si sono diffuse a seguito dell’affermazione dei media digitali.

L’influenza personale: i leader d’opinione e il «flusso a due fasi della comunicazione»

Fra le variabili intervenienti nel processo comunicativo troviamo anche l’influenza personale.
L’interesse degli studiosi per tale ruolo si manifesto per la prima volta nell’ambito della ricerca
condotta da Lazarsfeld sulla campagna presidenziale del 1940. Nel trarre le conclusioni della ricerca,
gli studiosi dichiararono che gli intervistati ricordavano maggiormente le discussioni politiche rispetto
alle comunicazioni indirette della radio e della stampa. Non solo la comunicazione personale era più
citata di quella mediale ma, allorché invitati a segnalare cosa avesse contribuito alla loro decisione di
voto, gli stessi intervistati indicavano i contatti personali.

La maggiore efficacia dei contatti personali vs la comunicazione mediale deriva, a loro avviso, da
alcune caratteristiche dei contatti face to face, ovvero la casualità e non intenzionalità della
comunicazione, la flessibilità degli stessi messaggi, la gratificazione personale dei soggetti coinvolti e
l’attribuzione di prestigio e autorevolezza ad alcuni soggetti. I ricercatori sostengono che ≪l’influenza
personale è più pervasiva e meno auto selettiva di quanto lo siano i media≫. I contatti personali si
caratterizzano, poi, per l’elemento della flessibilità, che può aiutare, in determinate situazioni, a
evitare effetti boomerang. Nel corso di una conversazione, infatti, si può intervenire minimizzando
alcuni aspetti, se percepiti come sgraditi all’interlocutore, ovvero enfatizzarne altri, se ritenuti più
vicini agli interessi del soggetto. In terzo luogo, i contatti personali offrono una ricompensa
immediata a seguito della condivisione di un’opinione, mentre nel caso ciò non accada, possono dare
vita a forme di emarginazione. Ad esempio, dissentire dall’opinione di un vicino di casa, può far si che
si mettano in atto forme di punizione nei nostri confronti come mostrarsi irritati o amareggiati,
sottrarsi alla conversazione e farci avvertire una sensazione di isolamento. In ultimo, nelle interazioni
personali gioca un ruolo rilevante l’elemento della fiducia e del prestigio. A questo proposito,
Lazarsfeld, Berelson e Gaudet citano il caso di una vecchia signora che dichiarò di aver deciso quale
candidato votare dopo una conversazione con un suo amico, di professione “uomo d’affari”: in questo
caso, le parole del conoscente vennero considerate dall’anziana signora come più veritiere di quelle
diffuse dai media tradizionali, al punto da convincerla a votare per il candidato del Partito
repubblicano.

Ciò condusse i ricercatori a individuare alcuni soggetti dotati di influenza, per la prima volta definiti
“leader d’opinione”. Sin dall’inizio, emerse che questi soggetti non si identificavano con quelli ai quali
normalmente si attribuiscono influenza e prestigio all’interno di una società . Piuttosto, tali leader
erano rintracciabili all’interno di qualsiasi strato sociale ed economico, tanto da poterli definire
“leader molecolari”.
Individuata la rilevanza dell’influenza personale, era necessario indagare il rapporto intrattenuto dai
leader d’opinione con i mezzi di comunicazione di massa. I dati raccolti andavano nella direzione di
tratteggiare un profilo del leader d’opinione caratterizzato da un elevato e frequente uso dei media per
l’acquisizione di informazioni di natura politica. Per interpretare i dati raccolti e dare conto, quindi, del
diverso rapporto con i media, Lazarsfeld, Berelson e Gaudet elaborarono il famoso modello del
flusso a due fasi della comunicazione, secondo il quale non esiste un flusso costante di informazioni
che va dai media ai destinatari finali. All'opposto, esso procederebbe dai media ai cosiddetti opinion
leader (gli individui più sensibili verso certe informazioni, e più influenti all'interno di un certo gruppo
sociale), per poi essere da questi veicolato presso il gruppo sociale di appartenenza o di riferimento.

Gli assunti del flusso a due fasi della comunicazione rintracciabili nel lavoro del 1948 verranno ripresi,
in seguito, da Katz e Lazarsfeld (1955) nella classica ricerca sull’influenza personale. La ricerca, che si
svolse coinvolgendo 800 donne di Decatur – una cittadina di circa 60.000 abitanti del Middle West –,
focalizzo l’attenzione sulla figura del leader d’opinione, sui suoi rappo rti con gli altri soggetti e sul suo
consumo mediale. La ricerca pervenne a interessanti risultati circa la caratterizzazione dei soggetti
designati come influenti e al loro rapporto con i media. Al riguardo, Katz e Lazarsfeld sono abbastanza
netti, sostenendo che ≪in definitiva, si può tranquillamente affermare che le leader d’opinione in ogni
singolo campo tendono ad essere più esposte ai mass media≫. Un diverso consumo mediale si pone,
dunque, come il primo elemento di differenziazione tra le leader d’opinione e i soggetti influenzati. Nel
modello del flusso a due fasi della comunicazione assunto a riferimento, i leader d’opinione si
espongono di più ai media e, riguardo agli individui che si rivolgono loro per avere consigli, assolvono
la funzione di sbarramento rispetto ad alcune comunicazioni e di apertura rispetto ad altre.

Prendendo le mosse dalla definizione di leader molecolare elaborata in occasione del lavoro del 1948, i
due studiosi introdussero una differenziazione tra tipi di leadership. Quando si parla di una
≪leadership orizzontale d’opinione≫, si fa riferimento a un’influenza che si esercita tra simili e che può
essere intercambiabile; il leader nel campo del cinema può dismettere tali panni per indossare quelli
del gregario nel campo degli affari pubblici. Per ≪leadership verticale d’opinione≫, invece, si intende
un’influenza esercitata da soggetti collocati a un livello superiore nella scala sociale, ai quali viene
attribuita una maggiore competenza su certe questioni.

Un’ulteriore differenziazione tra i leader e stata introdotta da Merton, che distingue tra ≪leader
d’opinione locale≫ e ≪leader d’opinione cosmopolita≫. Il primo è un soggetto che ha sempre vissuto
all’interno della comunità , aderisce alle organizzazioni formali, ha una elevata conoscenza personale di
molti individui, non esibisce competenze specifiche ma è profondamente addentro alla vita
complessiva della collettività . Nella sua dieta mediale non trovano spazio pubblicazioni di impegno
elevato e dei prodotti comunicativi consumati tende a enfatizzare quegli aspetti legati alla vita
quotidiana e personale degli individui. In virtù di questo, il leader locale può esercitare un’influenza su
aree diverse, tanto da poter essere considerato un leader ≪polimorfico≫. Il leader cosmopolita, per
converso, non viene percepito come un membro della comunità, spesso vi e arrivato da fuori,
intrattiene poche e selezionate relazioni interpersonali, consuma media di qualità elevata e
specialistici. A questo soggetto, tuttavia, vengono riconosciute competenze specifiche tali da
consentirgli di esercitare influenza in relazione a un ambito circoscritto e, per questa ragione, si parla
di un leader ≪monomorfico≫.

Questo studio ebbe molta rilevanza nell’ambito della communication research. I processi comunicativi
furono, per la prima volta, posti in un contesto all’interno del quale i destinatari esibivano
appartenenze a reti sociali e relazioni interpersonali in grado di mediare rispetto ai messaggi veicolati.
L’inefficacia delle campagne trovava, in questo modo, una giustificazione e una indicazione di
comportamento: arrivare a comunicare con i leader d’opinione. Un approccio del genere, però ,
presuppone un ambiente mediale estremamente semplice, quale quello esistente negli Stati Uniti sul
finire degli anni Quaranta. Diversa cosa accade in un contesto comunicativo come quello attuale, dove i
cittadini dispongono di centinaia di canali informativi 24 ore su 24 nonché del grande mare di internet.

Dal leader d’opinione all’influencer

Tra i diversi studi che hanno ripreso l’analisi di Katz e Lazarsfeld sul flusso a due fasi, molti hanno
ipotizzato che le informazioni tendono a diffondersi secondo processi di flusso a più fasi, con molte
direzioni e interazioni di flusso diverse. Duncan J. Watts e Peter Sheridan Dodds (2007) invece
adottano un modello di influence networks che differisce da quello del flusso a due fasi: se nel modello
two-step flow l’influenza era un flusso che andava unicamente dall’opinion leader ai suoi seguaci, il
modello reticolare vede l’influenza propagarsi per molte vie (non solo due) e il flusso andare in ogni
direzione del reticolo. Tale modello di multistep flow sembra anche spiegare meglio in che modo
avviene la diffusione.

Nella loro analisi, ciò che emerge è che l’influenza è maggiormente guidata dall’interazione tra le
persone che vengono facilmente influenzate piuttosto che dalle persone influenti stesse. Chi riceve
l’informazione la scambia in modo convincente con gli altri pari, andando a costituire delle vere e
proprie cascate di informazioni, che a loro volta attivano sequenze di interazioni. Questo non significa
non considerare la rilevanza degli opinion leader come nodi in una rete ma valutare anche il ruolo di
altri nodi nello svolgere un meccanismo di influenza grazie alla capacita di attivare a loro volta reti o di
propagare l’informazione in più sensi, mediante, ad esempio, la semplice condivisione.

Questo è in particolare il modello che caratterizza internet e i social media come ambienti in cui il
meccanismo di influenza è parte della logica che caratterizza le catene di following e followers. Gli
utenti del web possono raccogliere e ridistribuire le informazioni da molte fonti diverse, inclusi siti
web delle organizzazioni, ricerche pubbliche e contenuti di altri utenti dei social media.

Oltre ad una rete di influenze, però nei i social media esiste anche una caratterizzazione diretta del
messaggio da una fonte a pubblici ipertargettizzati, senza bisogno di intermediazione. Hardware e
software permettono di raggiungere un gran numero di individui (generalmente targettizzati come
cluster demografici) direttamente con messaggi che fanno appello alle loro emozioni personali e alla
loro stessa identità. Il loro uso produce un’interazione, non in modo generico tra membri di gruppi di
pari, ma in modo diretto tra la tecnologia e il membro individuale dell’audience. In tal senso possiamo
fare riferimento ai processi di disintermediazione tecnologica consentiti, nelle forme più estreme, dal
digitale che permette alle organizzazioni comunicative di rivolgersi ai pubblici, ai cittadini e ai
consumatori attraverso campagne di microtargeting come quelle, ad esempio, rese possibili dal
sistema pubblicitario di Facebook.
I modelli multiflusso e a un flusso rappresentano quindi, gli estremi teorici del modello di influenza –
in cui possiamo collocare anche il modello a due fasi – che possono convivere nel mondo mediale.

L’influencer dei social media «lavora per generare un autentico “personal brand” attraverso i social
network, che può essere successivamente utilizzato dalle aziende e dagli inserzionisti per la
promozione ai consumatori» (Hearn, Schoenhoff, 2016). Si tratta di una figura che si impegna
attivamente nell’acquisire una propria reputazione e una centralità nelle reti di cui fa parte, sfruttando
le possibilità tecnologiche dei diversi social media e venendo riconosciuta anche formalmente
attraverso sistemi di social scoring che monitorano gli utenti nel web e la loro capacità di essere
rilevanti per reti di persone. Sono utenti che dedicano il proprio tempo online a produrre e curare
contenuti gratuitamente ma al fine di un riconoscimento reputazionale. Le logiche dei social media e
l’economia politica del web e delle piattaforme hanno stimolato e intensificato le pratiche di
microcelebrity e di self-branding, istituzionalizzando e generalizzando, di fatto, un modello emerso e
promosso dalla reality television, che negli anni tra il 1990 e il 2000 ha veicolato un modello di massa
di ricerca della celebrità all’interno delle proprie audience – con un progressivo slittamento dal
modello di consumo mediale a quello partecipativo.
Possiamo pensare alla microcelebrity come a un insieme di tecniche che hanno a che fare a) con la
crescita di popolarità online utilizzando diverse pratiche che riguardano la produzione di video, la
gestione di blog o i contenuti che si producono e distribuiscono nei siti di social network e b) con la
gestione dei propri followers e friends come proprie audience. Non si tratta quindi di qualche qualità
personale ma di un modo di trattare il proprio sé influenzato da una quotidianizzazione del concetto di
celebrità e dalla retorica del brand portata all’interno della vita di tutti i giorni. Lo scopo non è
necessariamente quello di ottenere una fama diffusa, piuttosto è uno status che si acquisisce
all’interno di una specifica comunità o su una particolare piattaforma o spazio online. Quindi, quando
parliamo di microcelebrity ci riferiamo semplicemente a un set di pratiche e non a un giudizio di
valore. Allo stesso modo in cui le microcelebrity si sono appropriate delle pratiche delle celebrità , le
celebrità mediali hanno cominciato a utilizzare le pratiche da microcelebrity. Attori, cantanti e politici
curano i propri canali Facebook, Twitter, YouTube e Instagram diffondendo contenuti in cui traspare
la loro quotidianità , taggandosi a vicenda, commentando i propri followers e scatenando risse verbali
con i propri haters, partecipando agli hashtag e mostrandosi con i propri fan attraverso selfie.

Negli ambienti digitali vediamo quindi coesistere diversi «leader molecolari»: a) sia leader d’opinione
capaci di influenzare la propria rete personale, pensiamo a soggetti, non necessariamente
professionisti, che siano autorevoli su specifici temi; b) sia influencer che utilizzano la propria
visibilità e centralità nei network per garantire una larga propagazione del messaggio – pensiamo ai
leader politici e alla relazione con i propri elettori così come a uno youtuber nei confronti della rete di
adolescenti che lo segue. Mentre i primi occupano ruoli centrali nelle comunità a cui parlano, i secondi
sono centrali nella produzione di cascate informative.

Cap.4
Le teorie della selettività

Gli «up and down» degli effetti limitati dei media

Riesaminiamo, per grandi linee, gli assunti di base degli effetti limitati dei media nonché le ragioni che
ne hanno decretato prima il successo, poi l’archiviazione e ora la riscoperta.

Klepper nel 1964 giunse alla conclusione secondo cui «la comunicazione persuasoria di massa tende,
di norma, ad agire più in direzione del rafforzamento e della modificazione di lieve entità ». A sostegno
di tale affermazione, lo studioso portava una ricca e articolata rassegna sulle principali ricerche
condotte nell’arco di un ventennio sugli effetti delle comunicazioni di massa. La rassegna prendeva le
mosse dalla ricerca di Lazarsfeld condotta sulla campagna elettorale del 1940 nella contea di Erie,
Stato dell’Ohio. In tale occasione, era emerso che rispetto al totale dei 600 soggetti intervistati nel
mese di maggio e successivamente e poi in ottobre – cioè al termine della campagna e a ridosso del
voto – il 53% aveva confermato le intenzioni di voto espresse a maggio, il 26% era passato da una
condizione di adesione a un partito a una condizione di incertezza e viceversa, mentre solo il 5% degli
intervistati aveva cambiato decisamente idea, facendo rintracciare quella che i ricercatori definirono
propriamente una «conversione». In base a dati simili, non si poteva che prendere atto del fatto che i
media erano maggiormente in grado di attivare un effetto di rafforzamento piuttosto che di
conversione. Lo stesso studio venne condotto da Berelson nel 1954 sulla campagna elettorale del
1949 nella cittadina di Elmira (New York). Anche in questo caso, i ricercatori cercarono di individuare
le trasformazioni avvenute e in cui la conversione da un partito all’altro scese al 3%.
Per evitare di prestare il fianco all’accusa di aver selezionato esclusivamente le occasioni comunicative
delle campagne elettorali, Klapper prese in esame anche altri risultati di ricerca giungendo, tuttavia, a
conclusioni analoghe, che vennero spiegate mediante il riferimento ai meccanismi della selettività e
alla rilevanza dei contatti personali.

La pubblicazione nel 1960 del volume di Klapper negli Stati Uniti mise fine alle preoccupazioni circa gli
effetti manipolatori dei media nei confronti degli individui. Ci si rasserenò che le comunicazioni di
massa non fossero poi così potenti da riuscire ad aggirare i meccanismi della selettività e a superare le
barriere rappresentate dalle relazioni personali. Inoltre, che i media producessero effetti di
rafforzamento di opinioni o atteggiamenti preesistenti veniva considerato un dato positivo, del tutto
coerente con una visione della società fortemente integrata, che non veniva minacciata nella sua
stabilità . L’affermarsi di approcci e teorie riconducibili al powerful media scompari così quasi del tutto
nel corso degli anni Settanta e Ottanta.

La sua riscoperta oggi è da attribuirsi alle profonde trasformazioni dell’ecosistema mediale,


sintetizzabili nella proliferazione dei canali, nell’overload informativo e nella frammentazione
dell’audience. A partire da questi elementi, Bennet e Iyengar nel 2008, formularono la loro
provocatoria domanda su un ritorno a una nuova era degli effetti limitati: Questo nuovo ambiente
prefigura il ritorno al tempo degli effetti limitati? Se stiamo cercando una nuova era degli effetti limitati, come
possiamo distinguerli da quelli del periodo precedente?
Questo saggio e altri dedicati alla questione, nonché la disponibilità di nuovi dati provenienti dalla
ricerca empirica, sono alla base di un dibattito sulle teorie dell’esposizione selettiva che tuttora
coinvolge gli studiosi. Insomma, siamo di fronte a una riscoperta che attualizza un approccio di studio
consolidato e lo arricchisce con tutte le acquisizioni della ricerca che si sono accumulate negli ultimi
cinquant’anni, ovvero quando l’esposizione selettiva era stata archiviata.

Riattualizzazione del concetto di esposizione selettiva nel nuovo ecosistema mediale

Le trasformazioni tecnologiche intervenute sono alla base del ripensamento necessario circa la natura
delle audience, dei messaggi e delle delivery technologies. Nel dettaglio, le aree tematiche di riflessione
individuate sono:

a) l’aumento dell’offerta informativa;


b) la frammentazione dell’audience;
c) la fine dell’esposizione casuale;
d) la partigianeria dell’esposizione da parte dei soggetti.

Il primo elemento segnalato da Bennett e Iyengar rimanda all’oggettivo mutamento dell’offerta: basti
pensare, per esempio, alla moltiplicazione di quella televisiva nel nostro paese, passata dal monopolio
della Rai al duopolio con Mediaset fino all’attuale situazione che vede decine e decine di canali sul
digitale terrestre e addirittura centinaia sulle varie piattaforme. Se all’offerta televisiva aggiungiamo
quella presente in rete comprendiamo subito come, a ragione, si possa parlare oggi di un’era
dell’abbondanza comunicativa. Un’abbondanza che porta con sé la questione dell’overload
informativo, tratto che caratterizza l’attuale ecosistema mediale e tale da produrre un’inevitabile
attività di selezione – operata in prima persona o affidata a soggetti terzi – dell’offerta.

La frammentazione dell’audience costituisce a sua volta la seconda area tematica. Oltre a frammentarsi
in relazione alla fonte (i giovani prevalentemente su internet, le persone più anziane tramite la tv), le
audience si frammentano riguardo ai contenuti, diversificati in misura significativa grazie
all’incremento dell’offerta. È così possibile che l’interesse dei soggetti per alcuni temi o argomenti
porti a una selezione delle fonti mentre ne escluda completamente altre: per esempio, i soggetti
interessati allo sport hanno oggi a disposizione numerosi canali che trattano esclusivamente questo
argomento, ignorando completamente altri temi. Secondo Bennett e Iyengar (2008), questo sta
portando a una sorta di information stratamentation (stratificazione e frammentazione allo stesso
tempo). Evidentemente, ciò non vuol dire che i media mainstream sono fuori gioco nel sistema mediale
complessivo, significa, piuttosto, che le opzioni a disposizione degli individui per costruirsi un’offerta
personalizzata sono aumentate e praticate di continuo.

Se l’aumento dell’offerta e la frammentazione delle audience sono fenomeni sotto gli occhi di tutti e sui
quali vi è largo consenso tra gli studiosi, la fine dell’esposizione casuale costituisce, invece, argomento
di discussione. Certo, è innegabile che oggi si sia entrati in quella che Prior ha definito postbroadcast
democracy, alla luce del fatto che gli individui disinteressati alla cosa pubblica hanno sempre più
occasioni per evitare informazioni al riguardo. Questo meccanismo, però , non può essere equiparato
alla reale possibilità di sottrarsi a un’esposizione casuale. Così, un soggetto può anche essere
intenzionato a evitare di ascoltare il tradizionale discorso di fine anno del presidente della Repubblica
ma incapparvi ugualmente leggendo il post di un amico su Facebook che lo ha condiviso oppure
trovare nella propria timeline su Twitter riferimenti a passi del discorso. Sebbene alcune pratiche
possano consentire di sottrarsi a un’esposizione casuale è altrettanto indubbio che ve ne sono altre
che reintroducono tale possibilità. Dello stesso avviso è anche Holberti quali evidenzia che la tesi di
una fine dell’esposizione casuale sia un po’ affrettata e che non tenga conto dell’ibridazione tra generi
come l’informazione e i talk show, i programmi satirici o animated sitcom come I Simpson o South
Park. In breve, anche nel nuovo ecosistema mediale può capitare di esporsi casualmente a un prodotto
comunicativo che non è il frutto di una specifica scelta.

Per quanto riguarda la partigianeria del soggetto, essa è alla base della formulazione dei tradizionali
meccanismi della selettività e si basa sul desiderio di evitare forme di dissonanza cognitiva ovvero di
cercare informazioni coerenti con le attitudini preesistenti, sottraendosi a quelle discrepanti.
L’interesse e l’attualità di questo tipo di esposizione si rintracciano nella diffusione del fenomeno delle
echo chambers e nella conseguente polarizzazione del dibattito pubblico.

Ragioni e tipi di esposizione selettiva

L’esposizione selettiva può essere presentata come la preferenza individuale per contenuti coerenti
con le proprie attitudini. Nel corso del tempo, tuttavia, soprattutto negli anni successivi alla sua
riscoperta, l’esposizione selettiva si è arricchita di numerose sfumature. Le ragioni alla base della
manifestazione del fenomeno possono essere di diversa natura, anche se è possibile individuarne
almeno cinque riconducibili all’intervento degli individui:

1. la riduzione della dissonanza cognitiva;


2. la ricerca del sostegno informativo;
3. la riduzione del costo dell’elaborazione delle informazioni;
4. l’attribuzione di un giudizio di qualità ad alcuni media outlet;
5. la ricerca di una consonanza con l’audience.

La riduzione della dissonanza cognitiva risale all’ipotesi ispirata dagli studi di Festinger (1957)
secondo la quale gli individui, in presenza di messaggi non coerenti con le preesistenti attitudini,
possono sottrarsi ad essi. Vale la pena sottolineare che, i soggetti mettono in atto una forma di
selettività che punta a «sottrarsi» a un messaggio piuttosto che a «scegliere» un messaggio, una
distinzione fondamentale che è stata del tutto assente nella fase iniziale degli studi, ma che ha
velocemente guadagnato terreno negli anni più recenti in virtù delle numerose sfumature di
comportamento degli individui.

La ricerca del sostegno informativo è stata analizzata da William Hart e i suoi colleghi (2009) i quali
distinsero le ragioni all’esposizione in difesa e accuratezza, intendendo con la prima il desiderio di
difendere le proprie posizioni e con la seconda il desiderio di pervenire a un’idea più articolata della
questione trattata. I risultati dello studio mostrarono come vi fosse una leggera prevalenza per
l’informazione congeniale rispetto a quella già posseduta dagli individui. Evidenze empiriche simili
sono state ottenute da Young Mie Kim (2007) nel suo studio sulle differenze tra l’obiettivo
dell’accuratezza e quello funzionale all’acquisizione di informazioni.

Per quanto riguarda il minor costo dell’elaborazione delle informazioni, sostiene che il costo più
contenuto connesso all’elaborazione di informazioni coerenti con quelle già possedute sia
particolarmente attraente per gli individui che, così, possono risparmiare energie cognitive.

Giudizio di qualità espresso riguardo ai media outlet seguiti: I media selezionati – ovviamente in
base ai propri pregiudizi – vengono considerati di qualità migliore. Alla base di tale valutazione vi è il
giudizio negativo nei confronti dei media considerati di parte e poco attendibili nella costruzione della
loro offerta informativa. Questi elementi mostrano una loro utilità anche nell’interpretazione della
diffusione di critiche e giudizi di disapprovazione espressi nei confronti del sistema mediale.

Infine, la ricerca di una consonanza con l’audience indica il desiderio di dare vita a una «media
audience homophily», costruita grazie alla scelta di «siti web di media di parte che si rivolgono a un
gruppo di consumatori omogeneo e con le stesse opinioni». Tramite tale scelta, gli individui
costruiscono la loro identità politica e la esibiscono online, aggiungendo un ulteriore tassello alla
composita immagine definita grazie a riferimenti letterari, musicali, sportivi e così via. In breve,
dunque, comportamenti quali la selezione di oggetti, l’adesione a gruppi o la lettura di una testata
giornalistica nell’ambiente online possono essere considerati «identity marker», che segnalano la
nostra identità sociale agli altri.

---------------------------------------------------------------

L’esposizione selettiva può essere anche di diversa natura. Ben quattro tipi di esposizione selettiva
vengono individuati da Stroud (2017):

1. la selezione tra news e intrattenimento;


2. la selezione di messaggi concernenti diversi temi;
3. la selezione di determinati media outlet;
4. la selezione di messaggi coerenti con le proprie posizioni.

Il primo tipo di selezione riguarda i prodotti che gli individui scelgono nel momento in cui hanno la
possibilità di farlo. Questo tipo di selezione si lega strettamente all’aumento dell’offerta grazie alla
pluralità di canali presenti su diverse piattaforme. Un’attenzione particolare è stata posta dagli
studiosi però alla scelta tra news e intrattenimento; Prior (2007) nella sua ricerca sulla selezione
operata dagli individui in un contesto in cui l’offerta viaggia sulla tv via cavo e su internet, mostra
come coloro che preferiscono l’intrattenimento riescono a evitare l’esposizione alle news. Il rischio di
tale selezione è quello di agevolare la costruzione di mondi distanti e non comunicanti.

Il secondo tipo di selezione riguarda, invece, i temi che possono motivare l’esposizione. Interessi
personali o professionali, come emerso nel caso della ricerca sulla campagna per le presidenziali del
2000 negli Stati Uniti possono spingere ad acquisire maggiori informazioni riguardo a determinati
argomenti. Anche l’appartenenza a gruppi o a movimenti politici può giocare un ruolo significativo nel
favorire l’esposizione a certi temi.

Il terzo tipo di selezione è relativo al canale selezionato. Le ricerche condotte al riguardo (Tsfati,
Cappella, 2003) mostrano come gli individui che ritengono il coverage informativo dei mainstream
media non affidabile si rivolgono alla vasta offerta garantita da internet.

Infine, il quarto tipo di selezione ha a che fare con la scelta di informazioni, soprattutto di natura
politica, effettuata in base alla condivisione dell’orientamento dei soggetti. Così come nelle relazioni
interpersonali gli individui privilegiano la discussione con persone con le quali condividono le stesse
posizioni politiche anche nel nuovo ecosistema mediale gli individui scelgono i media outlet ritenuti
più vicini alle loro posizioni politiche. Questa ricerca di sintonia di posizioni viene segnalata anche
riguardo a temi di natura controversa come l’aborto, il possesso delle armi e, in tempi più recenti, i
vaccini e il riscaldamento globale.

------------------------------------------

Le filter bubbles e le echo chambers sono due forme di selettività che, pur se di natura diversa – la
prima determinata da un algoritmo, la seconda da una scelta intenzionale dell’individuo –, forniscono
una risposta chiara e netta all’interrogativo sollevato da Bennett e Iyengar (2008) circa la
discontinuità esistente tra le diverse fasi che hanno segnato le teorie della selettività.

La selettività nel caso delle «echo chambers»

Il fenomeno delle echo chambers si inserisce nel contesto delle conseguenze dell’affermazione del
web e dei social media nella società contemporanea. Tale fenomeno è stato studiato inizialmente nel
contesto dei legacy media – in particolare in quello della galassia della Fox News con i suoi programmi
apertamente schierati con le posizioni più radicali del Partito repubblicano. La notorietà di cui gode
oggi il fenomeno è da ricondursi principalmente ai lavori di Cass Sunstein che lo ha descritto in una
trilogia di volumi (2001, 2007, 2017) nell’intento di individuare gli effetti di internet e delle
comunicazioni digitali sulla democrazia.

Secondo Sunstein, in rete prendono parola un numero molto elevato di soggetti che producono una
diffusione di massa indistinta di informazioni. In tale quantità di informazioni si creano le cosiddette
echo chambers cioè situazioni in cui le nostre idee e credenze vengono amplificate o rafforzate dalla
comunicazione e dalla ripetizione di informazioni, in altre parole portano a convalidare in modo
continuo e ricorsivo lo stesso punto di vista.

Il fenomeno è particolarmente evidente nel caso dei social media e dell'uso che ne fanno politici,
istituzioni e altre organizzazioni con il fine di far circolare i propri messaggi a discapito degli altri. Il
meccanismo si amplifica soprattutto quando la cerchia di amici e conoscenti di un soggetto, come
spesso accade, condivide idee e pensieri simili. In questo modo sulla pagina social compariranno
notizie, articoli e commenti che contribuiranno sempre più ad amplificare una visione univoca ed
acritica su quell'argomento. Un altro meccanismo che genera un fenomeno di camera dell'eco, e quindi
di perdita di visione sui punti di vista differenti, sono gli algoritmi dei social network che tendono a
farci vedere messaggi, notizie e commenti verso i quali abbiamo già in precedenza mostrato interesse,
a discapito di tutto il resto.
Le principali conseguenze della diffusione delle echo chambers possono essere:
1. rischio di estremismo violento : persone che hanno medesime idee possono esaltarsi a vicenda
e promuovere campagne d’odio comunicative – cybercascades – nei confronti di gruppi avversi
che vengono trattati alla stregua di veri e propri nemici;
2. problemi per la governance: la polarizzazione politica (l’appartenenza a schieramenti diversi)
può tradursi nell’autosegregazione dei votanti in gruppi in cui si condividono le stesse idee,
rendendo difficile arrivare a soluzioni politiche ragionevoli;
3. mutazioni nelle forme del consenso : anche se gli elettori online chiusi nelle echo chambers non
rappresentano la maggioranza, l’influenza che hanno nel dibattito pubblico – ad esempio
lanciando campagne d’odio, promuovendo specifici hashtag, commentando in massa le
affermazione dei politici attraverso pratiche di television, ecc. – porta i politici a social
sviluppare modalità specifiche di relazione con queste comunità tramite risposte pubbliche che
possono assumere la forma di dirette video e/o tweet sarcastici nei confronti delle controparti,
ecc.;
4. visibilità ed esaltazione dei meccanismi di partisanship: abbiamo assistito negli anni a una
crescita di partigianeria per la quale le convinzioni politiche incidono sempre di più su alcune
scelte individuali (assunzioni, matrimoni, ecc.).
5. difficoltà a distinguere le notizie vere dalle notizie false : il tema delle fake news si lega alle
camere di risonanza di cui parla Sunstein poiché in queste si producono cascate informative
che portano a propagare online determinati contenuti.

È a partire da tale quadro che Sunstein delinea le camere della risonanza come un ambiente che è ad
alto rischio di propaganda e manipolazione politica e che produce un indebolimento della democrazia.
La soluzione, a suo avviso, consiste nell’introdurre livelli di serendipity che facciano incontrare gli
utenti con informazioni, pensieri e idee diverse e contrastanti con le loro, abituandoli così a una sorta
di sensibilità per le differenze di convinzione.

Mentre queste considerazioni sono condivisibili per quel che riguarda gli utenti fortemente
politicizzati, non disponiamo di particolari evidenze scientifiche per i comportamenti e le esperienze
che riguardano gli utenti comuni nella fruizione quotidiana dei social media. Una ricerca condotta nel
periodo precedente alle elezioni presidenziali americane (Duggan, Smith, 2016) ha mostrato come
solo il 23% degli utenti Facebook e il 17% di quelli Twitter affermano che i loro contatti sulle
piattaforme esprimono punti di vista simili ai loro e che il 20% ha cambiato idea su un problema
politico o sociale a causa delle interazioni che ha avuto sui social media. Allo stesso tempo, il 39% degli
utenti dei social media afferma di aver cambiato le proprie impostazioni per filtrare post politici o
bloccare determinati utenti nella propria rete. Se tale comportamento può essere interpretato, da un
lato, come un’ennesima conferma della volontà degli individui di autocollocarsi in una propria camera
dell’eco, dall’altro, esso può essere letto come l’attivazione di forme di espressione che rendono
inefficaci gli automatismi degli algoritmi.

La stessa piattaforma Facebook è stata analizzata al fine di verificare la condivisione di contenuti dissonanti
rispetto alla sfera ideologica del proprio interlocutore in merito al rispettivo News Feed (Bakshy 2015),
prendendo in considerazione dieci milioni di utenti suddivisi in base al loro orientamento politico (conservatori,
liberali, neutri) nonché la loro esposizione alle social news. I risultati ottenuti descrivono una situazione tale per
cui i contenuti incontrati dagli utenti non dipendono unicamente dalla tipologia dei friends, ma da un complesso
mix di fattori che comprende i tipi di news condivisi e le modalità di interazione individuale degli utenti con il
News Feed di Facebook: «L’ordine con cui gli utenti vedono le storie nel News Feed dipende da molti fattori,
incluso quanto spesso visitino Facebook, quanto interagiscono con certi amici e quanto spesso hanno cliccato in
passato sui link di certi siti presenti nel News Feed» (ivi, p. 1131). La ricerca dimostra come il fattore di influenza
più rilevante sia la propria rete sociale e che le scelte individuali – in termini anche di modalità di fruizione –
giocano un ruolo maggiore della classifica delle notizie organizzata dal News Feed. In pratica l’equilibrio che si
crea tra algoritmo, rete sociale connessa e pratiche quotidiane dipendenti dalla biografia di uso del mezzo genera
un ambiente informativo complesso e inedito che definisce un’agenda quotidiana nella quale l’omofilia
rientrerebbe come una variabile sociale comportamentale, come accade nella vita quotidiana, e non come
elemento determinante. Sempre nella direzione della mitigazione di un automatismo nella selezione dei
contenuti informativi si colloca il contributo di Seth Flaxman (2016). Nel loro studio sul consumo di notizie
online giungono alla seguente conclusione: «Abbiamo dimostrato che gli articoli trovati tramite social media o
motori di ricerca sul web sono effettivamente associati a una segregazione ideologica più alta di quella che un
individuo legge visitando direttamente i siti di notizie. Tuttavia, abbiamo anche trovato, in qualche modo
controintuitivamente, che questi canali sono associati a una maggiore esposizione a prospettive opposte» Si
tratta di dati che ridimensionano fortemente l’interpretazione secondo la quale l’esistenza di echo chambers
impedisce l’esposizione a opinioni contrastanti. Un ulteriore contributo a tale revisione proviene, infine, dalla
ricerca di Jennifer Brundidge (2010), che mitiga il presupposto delle echo chambers a partire dalla formulazione
della “tesi dell’inavvertenza”, secondo la quale l’esposizione selettiva in rete è meno presente rispetto
all’esposizione a un’eterogeneità di opinioni: gli utenti online non scelgono con elevata attenzione con chi
interagire, esponendosi inavvertitamente sia a idee coerenti con le proprie che a idee contrastanti.

Sia sul lato comportamentale che su quello algoritmico la creazione di echo chambers nei social media
non rappresenta una realtà necessaria ma una possibilità legata a particolari tipologie di utenti.
Occorre considerare l’effetto di risonanza online nel più ampio quadro delle abitudini di consumo
culturale, delle preferenze e delle caratteristiche degli utenti che sviluppano il loro engagement
politico con i social media. In conclusione, l’autosegregazione all’interno delle echo chambers deve
essere considerata come una scelta da parte del soggetto.

Quando la selezione è operata da un algoritmo: il caso della «filter bubble»

Il concetto di filter bubble viene utilizzato in letteratura per definire i meccanismi online di
polarizzazione dell’informazione prodotti dalle logiche degli algoritmi nei social media e dai motori di
ricerca come Google. Mentre nel caso delle echo chambers l’attenzione si focalizza sull’accesso costante
a pensieri e idee di persone con credenze simili in conseguenza delle proprietà strutturali della loro
rete di connessioni, nel caso delle filter bubbles l’attenzione si concentra sulle peculiari logiche di
filtraggio introdotte dalle affordance di piattaforme e ambienti digitali regolate principalmente da
algoritmi.

Gli algoritmi sono presenti nei diversi processi che compongono la nostra vita connessa e la nostra
cultura, perché sono al centro del software che utilizziamo per produrre oggetti culturali e prendere
decisioni, per orientarci nella mole informazionale generata da un’interazione continua. Gli algoritmi
di personalizzazione, oggi sempre più utilizzati, modellano, inoltre, i contenuti ai quali accediamo
tramite i nostri browser: dai suggerimenti di Netflix a quelli di Amazon, ai risultati di ricerca di Google,
alle diverse pubblicità che ci inseguono lungo le pagine internet che scorriamo.

Un contributo fondamentale alla comprensione della problematica connessa a una rete regolata da
algoritmi e meccanismi selettivi di accesso all’informazione viene fornito da Eli Pariser (2011) nel
volume dal titolo Bubble: The Filter. Nel volume, Pariser spiega che i filtri di nuova generazione
stabiliscono le cose che ci piacciono – in base a quello che facciamo o che interessa a persone simili a
noi – e poi estrapolano le informazioni. Sono in grado di fare previsioni, di creare e raffinare
continuamente una teoria su chi siamo, che cosa faremo e che cosa vorremo. Nell’insieme, creano un
universo di informazioni specifico per ciascuno di noi, una «bolla dei filtri».

I filter bubble si differenziano dall’esposizione selettiva in base ad alcuni elementi:


1. il processo centrifugo operato dai filtri porta a isolarsi nel perimetro delle proprie selezioni e a
creare un contesto iper-personalizzato;
2. l’invisibilità selettiva che, a differenza delle scelte prodotte nel contesto mediale caratterizzate
da una consapevolezza dell’orientamento di scelta (per esempio, acquistare un giornale di
destra invece che uno di sinistra), non ha criteri trasparenti al punto che l’utente ignora le
ragioni per cui ha trovato alcuni risultati al posto di altri. Va considerato, poi, che l’applicazione
stessa dei criteri resta invisibile alla maggioranza degli utenti, i quali, non essendo quindi
consapevoli della propria inconsapevolezza, ritengono nella maggior parte dei casi che i
risultati ai quali pervengono in una ricerca su Google o vedendo un contenuto su Facebook
siano obiettivi e neutri;
3. l’ingresso passivo nella bolla, poiché ci ritroviamo di fatto all’interno di un contesto che viene
determinato al di là di nostre scelte consapevoli, condizionato da logiche di filtraggio che non
conosciamo e che non sappiamo come e quando vengano applicate

In contrappunto a questa visione di completa automatizzazione algoritmica, troviamo la posizoone di


Clay Shirky (2008), che indica come il filtraggio sia oggi sempre più di natura sociale e da ricondursi
alle persone che selezionano per le persone. Accanto quindi agli algoritmi, troviamo le molte realtà di
social filtering (o collaborative filtering) che rappresentano una forma di selettività prodotta
socialmente. Così come troviamo realtà ibride che miscelano indicazioni volontarie di utenti e
computazioni matematiche automatizzate. Questo approccio introduce iniezioni di agency nella realtà
di filtraggio con quote di consapevolezza degli utenti e di visibilità delle scelte.

È evidente come la logica dei filtri rappresenti un’opportunità utile a decomplessificare un ambiente
online di informazioni che ha moltiplicato in modo esponenziale le possibilità di scelta. Gli algoritmi
rappresentano, in tal senso, il motore di questa azione selettiva rendendo più visibili alcuni contenuti
rispetto ad altri. Il problema diventa chiedersi come vengono disegnati i filtri, quali porzioni di
conoscenza rendono disponibili e in quali modi lo fanno. Ma, soprattutto, vi è da chiedersi quale
influenza ha la personalizzazione rispetto all’esposizione mediale e alle scelte informative. E se
influenza negativamente i consumatori, i lettori e i cittadini.

A queste domande tenta di rispondere la ricerca di Frederik J. Zuiderveen Borgesius e colleghi (2016),
che distinguono tra due tipi di personalizzazione: personalizzazione autoselezionata e
personalizzazione preselezionata. La prima ha a che fare con il concetto di esposizione selettiva ed
evidenzia come le persone tendano a ricercare opinioni coerenti con le proprie evitando quelle che
mettono in discussione il loro punto di vista. Per esempio, scegliendo quale giornale leggere o
frequentando certi siti online o gruppi Facebook in cui si riconoscono. La seconda, invece, è quella che
viene guidata dalle piattaforme, dai motori di ricerca e dai siti web, con le persone che non sempre
scelgono consapevolmente a quali opinioni accedere, come nel caso della filter bubble. Si evidenzia
come la personalizzazione autoselezionata possa introdurre margini di libertà rispetto alle dinamiche
di scelta dei contenuti. La personalizzazione preselezionata può essere utilizzata per aiutare gli utenti
a fare scelte più diversificate rispetto all’offerta decisa dal palinsesto di un canale trasmissivo. In
sintesi, lo studio, raccogliendo diverse ricerche, spiega come non vi siano controprove empiriche
relative al fatto che la personalizzazione produca un effetto di chiusura del tipo filter bubble e che le
due forme di personalizzazione tendano ad agire contemporaneamente producendo
controbilanciamenti tra esposizioni a pensieri diversi e orientamenti a opinioni congruenti con le
proprie.

Infine, un recente studio di Axel Bruns (2017), che analizza 255.000 account Twitter australiani tra
loro fortemente connessi, evidenzia empiricamente come all’interno di cluster coesi di utenti vi sia una
rilevante permeabilità dei contenuti: se i gruppi sociali più ristretti tendono a indirizzare le
@mentions a utenti molto connessi con loro, la circolazione di retweet è invece significativamente più
aperta e mostra volumi significativi di contenuti esterni al cluster. Come spiega l’autore, ciò non
impedisce ai singoli utenti di costruirsi una propria filter bubble.

A livello collettivo, possiamo osservare come si sovrappongano cerchie differenziate di personal


publics. Queste cerchie sono caratterizzate da «un insieme di informazioni selezionate secondo criteri
di rilevanza personale, condivise con un’audience (immaginata) di legami sociali articolati secondo
una modalità conversazionale». L’accumulo e il sovrapporsi di tali personal publics nella formazione di
cluster contrasta piuttosto che amplificare le tendenze di filtraggio della bolla.

Le conseguenze della selettività tra frammentazione, «misinformation» e polarizzazione

Potremmo sostenere che l’esposizione selettiva si associa a una riconfigurazione del potere dei media
grazie alla logica degli algoritmi. Contemporaneamente, però , essa si collega anche a una dispersione
del potere dei media a seguito all’incremento del potere di scelta dei soggetti. Conclusioni: gusti e
idiosincrasie personali guidano le scelte di esposizione e portano alla costruzione di palinsesti
personalizzati, che si diversificano quanto a generi, piattaforme, tempi e modalità di consumo. Se da un
lato, questo segnala un rischio reale per il funzionamento del sistema democratico, dall’altro, c’è
comunque l’eventualità di un consumo casuale, cioè noi possiamo essere anche intenzionati a evitare
le news, ma non possiamo essere certi che un nostro amico su Facebook non condivida una notizia
tratta da una testata giornalistica che invece noi non seguiamo. Insomma, il fenomeno della
frammentazione deve essere, a nostro avviso, affrontato in un’ottica più ampia di quella
dell’esposizione selettiva o, comunque, deve tenere conto della dimensione della crossmedialità e
dell’esposizione casuale.

Di maggiore gravità è, a nostro avviso, il rischio che si entri in contatto con le cosiddette fake news, che
esse siano considerate coerenti con le attitudini e le credenze del soggetto. L’analisi della diffusione di
false informazioni costituisce un oggetto di studio significativo tra i ricercatori. Ad esempio, nel caso
del voto per il referendum che ha portato all’uscita del Regno Unito dall’Europa (la cosiddetta Brexit),
è emerso come vi fosse una rete di oltre 13.000 account sospetti (una vera e propria botnet) impegnati
a twittare messaggi pro Brexit, contenenti misinformation. Questa ricerca ha mostrato come la velocità
e la penetrazione di specifici contenuti online finiscono per amplificare il portato valoriale di
determinate idee. Altri studi, invece, hanno rilevato un calo di fiducia nei confronti dei media e degli
intermediari dell’informazione.

Pag. 103

Cap. 5
Gli usi e le gratificazioni: il passaggio dall’audience passiva all’audience attiva

Alle origini dell’approccio: il contributo del funzionalismo


L’approccio degli usi e delle gratificazioni è stato spesso messo sotto accusa a causa della scarsa
chiarezza dei suoi riferimenti teorici. Tuttavia, non si può negare che esso continua a essere
fruttuosamente utilizzato per indagare il rapporto degli individui con i media e la loro offerta.

I punti principali dell’approccio sono:


a) l’audience è attiva;
b) il consumo mediale è orientato a un obiettivo;
c) il consumo mediale consente un ampio ventaglio di gratificazioni
d) le gratificazioni trovano origine nel contenuto mediale, nell’esposizione e nel contesto sociale
nel quale si colloca la stessa esposizione.

L’articolazione di questi punti prende spunto dal funzionalismo. Per la prima volta, l’audience veniva
considerata attiva, ponendosi l’interrogativo: “cosa fanno le persone con i media?” piuttosto che “cosa
fanno i media alle persone?”. Secondo questa prospettiva, gli individui, in base a determinati bisogni
che hanno luogo nell’interazione sociale, si rivolgono ai media per trovare una gratificazione e così
facendo rovesciano il tradizionale approccio che assegnava ai soggetti una posizione di passività
rispetto al sistema mediale. Ciò si traduce in un’analisi della comunicazione non in relazione agli effetti
prodotti ma alle funzioni e alle disfunzioni che vengono attivate.
La prima rilevante conseguenza di questo rovesciamento di prospettiva riguarda l’abbandono di una
chiave di lettura che assumeva come punto di partenza quello dell’intenzionalità della comunicazione
dell’emittente, nella costante ricerca di effetti ora di manipolazione, ora di persuasione. La seconda
conseguenza fa riferimento ad una nuova strategia di analisi che assume la normalità della presenza
dei media all’interno della società.

FUNZIONI
Ricordiamo le funzioni dei media attribuite da Lasswell (1948):
a) il controllo dell’ambiente, cioè la raccolta e la distribuzione delle informazioni;
b) la correlazione tra le varie parti della società nel rispondere alle sollecitazioni provenienti
dall’ambiente stesso, ovvero l’interpretazione delle informazioni relative all’ambiente;
c) la trasmissione del patrimonio sociale da una generazione all’altra, vale a dire la veicolazione
di norme e valori sociali tra gli anziani e i giovani nonché tra i membri della collettività e i
nuovi soggetti che vogliono farvi parte.

A queste se ne aggiungono altre:

Charles R. Wright (1975) aggiunge: il divertimento, che «include quegli atti comunicativi intesi
principalmente a divertire, indipendentemente da qualsiasi effetto strumentale che possano
produrre».

Una funzione di «sorveglianza» viene assolta allorché tramite la diffusione di notizie è possibile
esercitare una sorta di controllo sull’ambiente circostante. A questo proposito, molte ricerche sono
state condotte nel corso degli anni. Partendo dal secondo dopoguerra, un gruppo di studiosi ebbe
modo di analizzare le reazioni degli individui a seguito di uno sciopero dei giornali nella città di New
York (Berelson, 1949). Dai dati emerse la percezione da parte dei soggetti di una perdita di uno
strumento importante per la vita quotidiana. In tempi più recenti, in coincidenza di eventi naturali
come i terremoti (Hughes, Palen, 2009) o attacchi terroristici (Bruns, Hanusch, 2017), i social media
(in particolare Twitter) hanno contribuito in misura significativa a coordinare le operazioni delle forze
dell’ordine e di pronto intervento, creare una rete di solidarietà tra gli individui coinvolti, diffondere in
tempo reale appelli ai cittadini, rassicurare parenti e familiari e consentire ai giornalisti di seguire e
raccontare gli avvenimenti in corso. Anche in tempi recentissimi, basti pensare alla diffusione delle
informazioni riguardante il COVID sui social media. In breve, hanno contribuito ad assolvere la
tradizionale funzione di sorveglianza sull’ambiente.

Un’altra funzione esercitata dai media nei confronti degli individui consiste nell’attribuzione di
prestigio a coloro che «fanno ogni sforzo per tenersi aggiornati» (Wright, 1960, p. 27). Questa
attribuzione di prestigio deriva dal fatto che essere un cittadino informato è ritenuto un elemento
importante e positivo all’interno della società . I mezzi di comunicazione di massa possono, inoltre,
esercitare una generica funzione di «attribuzione di status e prestigio» che deriva dall’essere oggetto
di attenzione da parte dei media stessi. Lazarsfeld e Merton (1948) hanno colto con grande acume
l’esistenza di quel meccanismo in base al quale molti individui desiderano ricevere l’attenzione dei
media – in particolare del mezzo televisivo – per poter esibire uno status diverso rispetto ad altri. Poco
importa la situazione o la circostanza che portano i media a occuparsi di certi individui (dichiarazioni
relative alla propria vita intima in un talk show, partecipazione a programmi-verità, ecc.): conta solo
apparire all’interno dello schermo televisivo.

Su tutt’altro versante si colloca la funzione di «rafforzamento delle norme sociali», segnalata


anch’essa da Lazarsfeld e Merton. In questo caso, infatti, si è di fronte a un’operazione di
moralizzazione tesa a rafforzare il controllo sociale sugli individui, mediante la segnalazione pubblica
dei comportamenti devianti. Se un tempo il controllo sociale veniva esercitato per lo più dagli stessi
individui che appartenevano alla comunità, oggi esso passa attraverso i mezzi di comunicazione,
chiamati a segnalare e a condannare i comportamenti ritenuti difformi dalle norme condivise.

DISFUNZIONI

Eccesso di informazione. A fronte di un’elevata circolazione di informazione sugli argomenti più


svariati, i soggetti possono reagire con una sorta di isolamento. Il sovraccarico di notizie che
quotidianamente si riversa sugli individui può attivare così un ripiegamento nella vita privata,
percepita come più tranquillizzante e facilmente controllabile. Inoltre, questo eccesso informativo può
dare vita a quella che Lazarsfeld e Merton hanno definito «disfunzione narcotizzante», vale a dire che
la facilità di accesso alle informazioni può provocare un falso senso di dominio sull’ambiente. Così, il
cittadino che consuma molta informazione, senza tuttavia partecipare agli eventi sui quali si informa,
rischia di confondere la condizione di cittadino bene informato con quella di cittadino attivo. La
complessità e la ricchezza dell’offerta informativa disponibile oggi offline e online possono accentuare
ancora di più questo elemento di «narcosi», trasformando e riducendo la partecipazione alla vita
sociale alla sola acquisizione di elementi informativi ovvero alla pubblicazione di un like. Nell’ambito
degli studi sulla partecipazione politica, questo equivoco tra l’essere informati e il partecipare in forma
light come mettere un like a un post o firmare una petizione online viene etichettato come «attivismo
da poltrona».

spinta al conformismo. Si tratta di una disfunzione sui generis, una conseguenza quasi naturale di un
approccio che si fonda sull’integrazione piuttosto che sul mutamento. D’altro canto, se tutti sono
impegnati a mantenere l’equilibrio esistente, ne discende inevitabilmente una spinta a conformarsi
alle norme consolidate piuttosto che a innovarle.

Le origini dello studio delle gratificazioni

Blumler e Katz (1974) individuano la fase iniziale a cavallo degli anni Quaranta e la definiscono come
quella dell’«infanzia». In quella fase, si collocano i primi tentativi di pervenire a una «descrizione
penetrante degli orientamenti dei sottogruppi dell’audience nei riguardi di selezionati contenuti
mediali». L’individuazione degli atteggiamenti degli individui nei confronti dei media, costituì
l’obiettivo di ricerca degli scienziati. In questa prima fase, l’interesse degli studiosi si concentrò
pressoché esclusivamente sulle content gratifications, ovvero sull’individuazione del nesso tra le
gratificazioni tratte dagli individui e il contenuto dei media.

Le possibili gratificazioni tratte dall’esperienza del consumo e della fruizione dei diversi mezzi di
comunicazione, diverranno invece oggetto di studio privilegiato nella cosiddetta fase della «maturità »
(Blumler, Katz, 1974) o, per usare la definizione di McQuail e Windhal (1993), nel periodo «moderno»,
quando l’attenzione si concentrerà sulle process gratifications.

In una prima tipologia costruita da Klapper (1960), il consumo dei media da parte degli individui
veniva ricondotto a due categorie di funzioni: le «funzioni semplici» e le «funzioni complesse».
Tra le prime, figurano:
 l’offerta di relax,
 la stimolazione dell’immaginazione,
 l’interazione sostitutiva,
 la creazione di un terreno comune per i contatti social;
Tra le seconde, vi sono:
 la distensione emotiva
 la scuola di vita.

FUNZIONI SEMPLICI
L’offerta di relax rimanda alla capacità da parte dei media di offrire occasioni di riposo ed evasione.
Herzog individua una sorta di sollievo connesso all’esposizione segnalato da molte intervistate. Nella
stessa direzione si collocano i risultati presentati da Robert McPhee e Joel Meyersohn (1955) relativi al
consumo del mezzo radiofonico dopo l’avvento della televisione: una fonte di divertimento di sfondo
che può accompagnarsi ad altre attività.
Con la stimolazione dell’immaginazione si fa riferimento al contributo offerto dai media alla
costruzione di giochi, fantasie, proiezioni e quant’altro possa essere associato a uno stimolo
proveniente dai media. Questa funzione rimanda alla capacità dei membri dell’audience di interpretare
e rielaborare i contenuti dei media a seconda dei bisogni individuali ed era già presente tra i dati
raccolti da Blumer (1933) sul consumo cinematografico delle giovani generazioni, allorché aveva
individuato l’esistenza di una forma di influenza sui giochi infantili e sulla costruzione di storie e
fantasie da parte dei ragazzi più grandi.

funzione di interazione sostitutiva: bene esemplificata da Klapper (1960) con la citazione di una
conversazione avvenuta tra un conduttore radiofonico e una casalinga in merito alle ragioni del suo
ascolto delle soap operas. Invitata a illustrare i motivi dell’ascolto, la donna rispose che con la sua radio
riusciva a sintonizzarsi solo con quel programma che, peraltro, neanche apprezzava particolarmente.
Incalzata dal conduttore che le chiedeva perché non spegnesse la radio, la casalinga rispondeva:
«perché è una voce in casa». D’altro canto, che i programmi radiofonici o televisivi implicanti
un’interazione sociale – ad esempio i talk show – esercitino una maggiore presa sulle persone sole
emerge anche da altre ricerche condotte in quegli anni. Più recentemente, uno studio condotto sulle
motivazioni degli ascoltatori che intervengono telefonicamente nei talk show dedicati alla politica ha
rilevato come ben il 27% dei soggetti telefoni semplicemente per «essere coinvolto nella
conversazione».

Oltre a consentire di essere tra gli altri quando si è soli, i media offrono un terreno comune per i
contatti sociali tramite l’offerta di argomenti di conversazione. La ricerca portata a sostegno della
presenza di questa funzione è quella condotta da Leo Bogart sul ruolo svolto dai fumetti nella vita di
un piccolo campione di uomini adulti con un basso livello socio-culturale. Ben il 65% degli intervistati
leggeva fumetti e ne discuteva con altre persone: i personaggi dei fumetti e le loro vicende offrivano
materiale utile per descrivere determinati comportamenti o stili e venivano assunti a riferimento per
descrivere o interpretare la vita reale. Nella stessa direzione si collocano i risultati dell’indagine
condotta da Herta Herzog (1944) sulle gratificazioni alla base dell’esposizione ai quiz radiofonici e alle
soap operas. Sia che si tratti di commentare le domande e/o i concorrenti che partecipano a un quiz, sia
che si tratti di prevedere sviluppi e reazioni di complicate vicende sentimentali, familiari o di affari, si è
comunque in presenza di una forma di interazione fondata sulla condivisione del consumo di un
prodotto mediale. I risultati ottenuti tanto da Bogart quanto dalla Herzog anticipavano
l’individuazione di quella che verrà definita da James Lull (1990) la «dimensione relazionale» dei
media e consentono, oggi, di interpretare fenomeni come quello del second screen, ovvero l’attività
congiunta del guardare la tv e commentare sui social media.

FUNZIONI COMPLESSE

quella della distensione emotiva coglie il bisogno che molti individui hanno di ottenere un
alleggerimento delle emozioni: «A loro piace la “possibilità di piangere” che le trasmissioni a puntate
offrono». Secondo Klapper, la distensione emotiva si realizza in molti modi diversi, «indicando
all’ascoltatrice che non è sola nei suoi dispiaceri, e fornendole un modo più comodo di percepirli;
facendola sognare di quel che avrebbe potuto essere».

La «scuola di vita» è l’ultima funzione complessa attribuita al sistema dei media in questa fase della
ricerca. Nella ormai classica ricerca di Blumer (1933) sul consumo cinematografico dei giovani
emergeva chiaramente la capacità da parte dei film di offrire modelli, stili di vita e di comportamento
ai quali potersi adeguare: in breve, si configurava come una scuola di etichetta. Come si ricorderà , i
giovani intervistati dichiaravano di avere tratto indicazioni utili in merito agli stili di abbigliamento e
di capigliatura, alle modalità di corteggiamento e di interazione con l’altro sesso, declinate nel
machismo o nella femme fatale. Questo ruolo educativo attribuito ai media è una costante che si ritrova
in contesti diversi e che, in Italia, si rintraccia nel riconoscimento del ruolo centrale esercitato dalla
televisione intorno agli anni Cinquanta nella diffusione della lingua italiana in un paese dai mille
dialetti e con una identità in via di ricostruzione.

Classi di bisogni e consumi mediali

Katz (1974) ha individuato i seguenti tratti e punti di debolezza nelle ricerche nella fase dell’ “infanzia”
delle teoria degli usi e delle gratificazioni:
a) un approccio metodologico fondato su domande aperte per registrare le dichiarazioni degli
intervistati in merito alle funzioni dei media;
b) un approccio esclusivamente qualitativo tale da ignorare qualsiasi riferimento alla
distribuzione di frequenza delle classi di gratificazione nella popolazione;
c) nessuna attenzione ai nessi tra le gratificazioni cercate e le origini sociali e psicologiche del
bisogno che deve essere soddisfatto;
d) nessun tentativo di individuare la complessa rete di relazioni tra le funzioni dei diversi media
all’origine della struttura latente delle gratificazioni offerte dal complessivo sistema mediale.
Queste possono essere le ragioni principali che hanno impedito l’individuazione di elementi costitutivi
dell’approccio. Oltre a tali ragioni, deve aggiungersi anche un interesse prevalentemente orientato a
studiare il rapporto tra il contenuto mediale e le gratificazioni degli individui. In breve, finché i
ricercatori si sono concentrati sull’analisi settoriale dei bisogni soddisfatti dai singoli prodotti mediali
(soap operas, quiz ecc.), si sono votati, nei fatti, all’impossibilità di pervenire alla costruzione di un
modello di lettura più ampio, in grado di ricomprendere al suo interno il prodotto comunicativo, gli
attributi del mezzo, l’esperienza dell’esposizione, gli effetti legati a certe gratificazioni.

Tentativi di costruzione di classi di bisogni che spingono gli individui a consumare i prodotti dei
media:
McQuail et al. (1972), ad esempio, hanno proposto una tipologia con quattro categorie: evasione (fuga
dalla quotidianità, relax), relazioni interpersonali (interazione sostitutiva, compagnia), identità
personale (rinforzo valoriale, esplorazione della realtà ) e controllo (sorveglianza dell’ambiente).

Di più semplice operativizzazione risulta la tipologia a cinque classi costruita da Katz et al. (1973). A
loro avviso, i media possono soddisfare le seguenti classi di bisogni:
a) bisogni cognitivi (acquisizione di elementi conoscitivi);
b) bisogni affettivo-estetici (rafforzamento dell’esperienza emotiva);
c) bisogni integrativi a livello della personalità (rassicurazione, status, incremento della
credibilità );
d) bisogni integrativi a livello sociale (rafforzamento dei rapporti con familiari, amici, colleghi);
e) bisogni di evasione (allentamento della tensione).

La consapevolezza della diversità dei vari media è alla base dell’individuazione di una sorta di
«divisione del lavoro» nella gratificazione dei bisogni dei consumatori dei prodotti mediali. In una
ricerca condotta negli anni Settanta in Israele durante la guerra del Kippur (Katz et al., 1973) emerse
con grande chiarezza come fosse all’opera una divisione del lavoro tra i diversi media: i libri e il
cinema erano utilizzati per soddisfare bisogni legati all’autogratificazione degli individui, mentre i
quotidiani, la televisione e la radio soddisfacevano il bisogno di collegare l’individuo alla società ,
offrendogli elementi informativi su ciò che stava accadendo.
Rubin (1984), in questo senso, ha introdotto la distinzione tra esposizione al mezzo televisivo dinatura
ritualistica e strumentale: la prima avviene quando accendiamo la televisione semplicemente per
guardarla, a prescindere da ciò che viene trasmesso; la seconda si realizza quando la sintonizzazione
avviene nell’obiettivo di guardare un programma specifico.
Diversi anni dopo, Lee e Lee (1995) – a partire dalla constatazione che l’esposizione televisiva è
sempre più intrecciata con altre attività (consumare i pasti, conversare al telefono, studiare,
partecipare a una chat, scorrere la propria timeline sui social, ecc.) hanno proposto di considerarla non
in modalità binaria ma come un continuum. L’associazione lineare tra bisogni e consumo mediale è
stata perciò messa in discussione in nome di una maggiore aderenza alle reali condizioni di consumo
dei media da parte degli individui.

Un ulteriore elemento di cui è necessario tenere conto è quello relativo alle circostanze ambientali e
sociali che spingono il soggetto a rivolgersi ai media per ottenere una gratificazione. Un tentativo
abbastanza articolato di mettere in relazione i fattori sociali e i bisogni che si cerca di soddisfare
mediante il consumo mediale è stato operato da Katz et al. (1974):
a) la situazione sociale crea tensioni e conflitti che possono allentarsi mediante il consumo
mediale;
b) la situazione sociale crea la consapevolezza circa l’esistenza di problemi riguardo ai quali
possono essere acquisite informazioni tramite i media;
c) la situazione sociale crea rare opportunità di soddisfazione concreta di determinati bisogni,
che si cerca di soddisfare, in modo vicario, tramite i media;
d) la situazione sociale fa emergere determinati valori, la cui affermazione e il cui rinforzo sono
facilitati dal consumo di prodotti mediali;
e) la situazione sociale crea un campo di aspettative e familiarità rispetto a certi materiali
mediali, che devono essere costantemente monitorati dagli individui per sostenere la propria
appartenenza a gruppi sociali di riferimento.

Si tratta di un primo e rilevante passo lungo la strada che porterà a collocare l’esperienza mediale
all’interno di un quadro costruito su coordinate sociali, economiche e culturali. L’ancoraggio delle
gratificazioni offerte dai media al contesto sociale all’interno del quale nasce la spinta all’esposizione si
pone come un elemento caratterizzante la fase «matura» di questo approccio, in stretta relazione con
quello del riconoscimento dell’esistenza di un’audience attiva.

Nuove gratificazioni per nuove tecnologie?

Le profonde trasformazioni del sistema mediale, hanno imposto sulla scena nuove domande circa il
nesso tra motivazioni del consumo mediale e loro soddisfazione. Se in prima battuta i risultati di
analisi condotte sulle motivazioni all’utilizzo di internet possono indurre a ritenere che i nuovi media
non offrano qualcosa di realmente nuovo rispetto a quelli tradizionali, un’analisi più approfondita
conduce in tutt’altra direzione. Questo perché l’approccio di fondo comune agli studi citati si
caratterizzi ancora per una netta prevalenza delle gratificazioni connesse al contenuto mediale,
lasciando sullo sfondo quelle connesse allo stesso processo del consumo. Alla luce della convergenza
che li caratterizza, la situazione cambia decisamente, introducendo elementi di complessità. Per
esempio, la scelta banale di dotarsi di un profilo Facebook può essere associata alla gratificazione di
obiettivi strumentali, quando viene usato ad esempio per cercare informazioni specifiche o per
chiedere consigli sul miglior ristorante in una determinata area e, contemporaneamente, essere
associata a un’esigenza di interazione allorché viene usato per commentare un post o, più
semplicemente, controllare le attività dei propri amici. Nel passato invece, era difficile pensare che la
scelta di guardare una puntata di Friends potesse essere guidata dal desiderio di soddisfare esigenze di
informazione o utilità.

Un contributo nella direzione di individuare eventuali specificità dei nuovi media è stato fornito da
Ruggiero (2000) evidenziando gli attributi di internet che mancano nei media tradizionali:
l’interattività , la demassificazione e l’asincronia. Secondo Ruggiero la combinazione di questi attributi
con la tradizionale tipologia del consumo mediale (sorveglianza, intrattenimento, utilità e interazione
sociale) dovrebbe essere alla base della ricerca ispirata agli usi e alle gratificazioni dei nostri tempi.

Sundar e Limperos (2013) analizzano invece rapporto tra le affordances dei nuovi media e le
gratificazioni ottenute dai soggetti. Le affordances prese in considerazione dagli studiosi sono quelle
della modality (intesa come realismo, coolness, novità , presenza), agency (aumento delle opportunità di
agency, community building, bandwagon, filtraggio e targettizzazione, appropriazione), interactivity
(interazione, attività , controllo dinamico), navigability (browsing, aiuto alla navigazione, divertimento
e gioco). Queste caratteristiche dei nuovi media sono nella condizione di stimolare, a loro avviso,
nuove forme di gratificazione legate a bisogni di natura non più soltanto sociale e psicologica, ma
anche tecnologica.

Attualità e prospettive dell’approccio degli usi e delle gratificazioni

Le dimensioni e la natura dei mutamenti nei media hanno, nei fatti, condannato al fallimento qualsiasi
tentativo di aggiornamento delle vecchie tipologie elaborate nel corso del tempo per rendere conto del
consumo mediale. La nostra esperienza quotidiana di presenza su una piattaforma come Facebook, per
esempio, ci mette immediatamente nella condizione di comprendere come, nei fatti, sia spesso
impossibile distinguere le due dimensioni: ci colleghiamo a Facebook perché vogliamo avere
informazioni su ciò che ha postato qualcuno o perché fa parte della nostra routine quotidiana
curiosare su Facebook. Così, l’uso dell’iPad fatto da un adolescente può collocarsi lungo un continuum
che va dal desiderio di postare un’immagine su Instagram a quello di mostrarsi occupato nella
navigazione in una situazione di potenziale imbarazzo oppure mostrarsi appartenente alla stessa
comunità di fronte a coetanei. In linea generale, i classici obiettivi della sorveglianza, ricerca di
informazioni e compagnia sono divenuti così strettamente interconnessi che è quasi impossibile
separarli e considerarli singolarmente.

Cap. 6
La teoria critica

Teoria critica «vs» ricerca amministrativa: una contrapposizione storica

La ricerca amministrativa è una ricerca che si mette al servizio dei bisogni delle organizzazioni
mediali e dei suoi dirigenti – «lo scopo potrebbe essere quello di vendere beni o elevare gli standard
intellettuali della popolazione o di assicurare una comprensione delle politiche governative»; la
ricerca critica, invece, analizza i media all’interno dei contesti sociali, economici, politici e culturali.

Due studiosi rifugiatisi negli Stati Uniti sfuggendo alla Germania di Hitler, Max Horkheimer e Theodor
Adorno della Scuola di critica sociologica di Francoforte, lamentano nella cultura americana la
presenza di un predominio capitalista e commerciale che è denso di cultura pop e orientato dalla
pubblicità e dal marketing, privo quindi, di una ricerca di stampo critico. In tal senso, la principale
critica mossa alla communication research è di avere come proposito implicito quello di rendere il
capitalismo americano più efficiente e di non occuparsi di esplorare le contraddizioni nei processi
comunicativi. E anche quando la ricerca amministrativa si è sviluppata, in particolare tra gli anni
Ottanta e Novanta, fuori dagli Stati Uniti è stata accusata spesso di vuoto empirismo, cioè di fondarsi
eccessivamente sul valore attribuito ai dati statistici ottenuti da procedure di campionamento e dalle
interviste – dati su cui vengono costruite le ipotesi – e di ignorare problematiche rilevanti che sono
difficili da interpretare partendo da quel tipo di dato.

Tre caratteristiche che differenziano la ricerca critica da quella amministrativa (Halloran, 1981):
1. La comunicazione intesa come processo sociale. Mentre la ricerca amministrativa è
mediacentrica e caratterizzata dall’essere a favore dei media, quella critica analizza le
istituzioni che si collocano dietro i media e quelle che ne subiscono gli effetti. Mentre cioè la
ricerca amministrativa è maggiormente interessata all’efficacia e all’efficienza dei media più
che a riflettere sul cambiamento sociale, la ricerca critica ha una natura sociocentrica che la
porta a concentrarsi su come i media affrontano questioni pubbliche e sociali, ad esempio
come promuovono il processo democratico. Allo stesso tempo è interessata ad analizzare gli
effetti comunicativi dall’altro lato, cioè come i fattori sociali influenzano il processo
comunicativo e mediale.
2. Le istituzioni mediali come parte del più ampio contesto sociale. La ricerca amministrativa si
concentra sull’analisi degli individui e su come finalizzare i media per soddisfare specifici scopi
istituzionali mentre quella critica si occupa dei media come istituzioni sociali, collocando la
ricerca all’interno del più ampio contesto socio-culturale, analizzando temi come la proprietà e
il controllo tecnologico.
3. Struttura, organizzazione, professionalità e partecipazione. La ricerca critica è meno
dipendente dalle organizzazioni mediali e dai loro obiettivi (spesso di natura commerciale),
sposta il punto di vista all’esterno di tali organizzazioni e ha come scopo, piuttosto, quello di
definire policy che le regolino. A differenza di quella amministrativa – finanziata dai media –
non accetta la definizione del problema che viene data dalle istituzioni mediali e non si mette al
servizio dei professionisti dei media e dei quadri dirigenti.