Sei sulla pagina 1di 48

METODOLOGIA DELLA RICERCA SOCIALE

La metodologia, letteralmente discorso sul metodo, è una disciplina che si occupa di


rintracciare le regole, le tecniche e i principi alla base di una ricerca scientifica
e le loro condizioni di applicabilità. Essa è dunque sia descrittiva (quando un
metodologo studia e insegna sulla base di esperienze di ricerca altrui valutandole senza
preconcetti e riportandone quanto appreso sistematicamente) sia prescrittiva (in questo
caso si assume un ruolo attivo all’interno dell’attività di ricerca e quindi si è obbligati a fare
delle scelte sulle tecniche e gli strumenti più opportuni ed efficaci da usare). Si affianca
dunque a quelle discipline quali la gnoseologia, che riflette sulle possibilità, le condizioni e
i limiti della conoscenza in generale; e l’epistemologia (o filosofia della scienza), che riflette
invece sulle possibilità, le condizioni e i limiti della conoscenza scientifica.

• Quando nasce il metodo?


Il metodo nasce con la rivoluzione scientifica condotta dallo studioso Galileo Galilei sulla
fine del Cinquecento. Egli, aderendo alle teorie di Keplero e Copernico, confutò le teorie del
sistema tolemaico-aristotelico dimostrando, tramite le sue ricerche e scoperte, la teoria
eliocentrica del sistema copernicano. Allora non sarà più compito della Chiesa dare un senso
alla realtà circostante e la religione assumerà da questo momento in poi solo un ruolo
salvifico e morale. Nasce la scienza, la disciplina capace di spiegare i fenomeni della natura
tramite un metodo, il metodo sperimentale o scientifico. Questo metodo si basa su due
momenti: il momento risolutivo, in cui un fenomeno viene scomposto nelle sue componenti
misurabili attraverso l’osservazione, l’individuazione e la misura degli elementi costitutivi;
e il momento compositivo, in cui si formula un’ipotesi e si verifica quanto ipotizzato per
giungere alla formulazione di leggi universali in un linguaggio matematico. Questo metodo
è di carattere induttivo perché si fonda sull’esperienza e patendo da affermazioni
particolari arriva ad affermazioni universali.
Col tempo si conferma l’unicità del metodo scientifico come un metodo universale
applicabile a qualsiasi campo della conoscenza. Questo porta a rendere tale metodo anche
cumulativo, in quanto i risultati di successive applicazioni si aggiungono alle precedenti,
delineando un progresso unilineare del sapere.
Su queste caratteristiche si fonda la corrente di pensiero del Positivismo ottocentesco,
erede dell’illuminismo. Il Positivismo si fonda su una cieca fiducia nel progresso e nella
scienza e nella razionalità in ogni cosa, la realtà circostante è indipendente da chi la studia e
oggettivamente conoscibile, il metodo per studiarla è appunto quello scientifico.
In breve tempo il primo Positivismo si estinguerà in nuove ed evolute forme: nasce il
Neopositivismo, positivismo o empirismo logico, nato negli anni ‘20 del 1900 tramite le
critiche alla metafisica condotte dagli studiosi del Circolo di Vienna. Si conferma l’unicità
del metodo scientifico e si afferma il principio di verificazione/criterio di
significanza secondo il quale ogni affermazione è dotata di significato se empiricamente
dimostrata.
Il Neopositivismo subirà le critiche condotte da Karl Popper, uno dei maggiori pensatori
del Novecento. Con Popper sono sottoposti a critica i due concetti fondamentali alla base del
modello classico di conoscenza scientifica: verifica e induzione. Egli nota come le teorie,
in quanto formulazioni di carattere universale, pretendono di valere per tutti i fatti
basandosi però su esperienze di numero limitato. Popper propone dunque un nuovo criterio:
il criterio di falsificabilità: un principio metodologico per cui una teoria può essere
definita scientifica solo se da essa sono estraibili conseguenze confutabili. La metafisica, che
per i neopositivisti non poteva essere definita scienza poiché le sue teorie non erano
verificabili, per Popper dunque non può essere definita scienza non perché le sue teorie non
siano empiricamente verificabili ma perché non possono essere falsificate dall’esperienza
sensibile, essendo una disciplina che non fa riferimento al mondo sensibile.
Il criterio di falsificabilità implica quindi anche il rifiuto del metodo induttivo: risulta
infatti illogico formulare delle leggi di carattere universale sulla base di esperimenti di
numero limitato (teoria del tacchino induttivista).
Per Popper la scienza procede per congetture e confutazioni e la crescita della
conoscenza non deriva da un accumulo delle osservazioni ma si presenta come uno sviluppo
che scaturisce da un problema al quale si cerca di dare una soluzione tramite il vaglio della
critica e la ricerca dell’errore. Per Popper la verità più che essere concepita come un ideale
regolativo deve essere concepita come un continuo traguardo da raggiungere. Noi ci
avviciniamo alla verità proponendo teorie sempre migliori.
In questo contesto l’induzione viene sostituita dalla deduzione, la quale prevede confronti
logici interni ed esterni e la conoscenza scientifica non mira più a leggi universali, ma a leggi
probabilistiche.
Sul criterio di falsificabilità si basano gli studi dello studioso Kuhn (Post-positivismo),
inventore del paradigma. Kuhn afferma che esiste una realtà oggettiva indipendente
dall’osservatore, ma l’osservazione empirica non è una fotografia del reale, perché in realtà
il modo in cui osserviamo il mondo è fortemente influenzato dalla nostra comunità
scientifica di riferimento. La comunità scientifica è un insieme di persone che condividono
tra loro una certa visione del mondo e, in questa visione vanno compresi sia criteri scientifici
sia etici su come osservare la realtà. La comunità scientifica è quindi un insieme di persone
che condivide un paradigma, ovvero una struttura concettuale di riferimento che comprende
i metodi, le procedure, gli strumenti, ma anche una certa visione ontologica del reale. Il
termine paradigma era già stato utilizzato dagli antichi con l’accezione di “esempio, modello”
ma con Kuhn assume il significato moderno di: prospettiva teorica condivisa e
riconosciuta da una comunità scientifica che, essendo socialmente e
storicamente situata, viene influenzata anche da fattori extra scientifici e
subisce delle trasformazioni. Sulle scie di Popper, Kuhn, rifiutando il carattere
cumulativo della scienza, elabora il processo di rivoluzione scientifica, che non consiste
solo in una teoria scientifica ma in una vera e propria concezione del mondo. Per Kuhn come
per Popper il progresso della conoscenza si fonda su una rivalutazione continua dei principi
su cui si fonda. Egli distingue quindi le fasi della scienza: scienza normale e scienza
straordinaria. I tratti dominanti della scienza normale sono quelli di continuità e
cumulatività, poiché la comunità scientifica mira alla sua autoconservazione, fa sì che i
membri si impegnino ad osservare gli stessi metodi e le stesse regole nella ricerca scientifica.
Con la fase di scienza straordinaria il paradigma di riferimento entra in crisi e c’è una
competizione tra paradigmi alternativi che si conclude con una rivoluzione scientifica,
caratterizzata dal predominio di un unico paradigma. (Non sempre la crisi porta
all’instaurarsi di un nuovo paradigma, ma potrebbe anche solo confermare o
contestualizzare degli aspetti di quel paradigma, quindi a “revisionarlo”).
Fase 0: Periodo pre-paradigmatico → Fase 1: Accettazione di un paradigma
dominante → Fase 2: Scienza normale (in questa fase si consolidano le prassi) → Fase
3: Nascita delle anomalie (sorgono nuovi fenomeni che richiedono nuovi metodi per
essere studiati) → Fase 4: Crisi del paradigma → Fase 5: Rivoluzione scientifica
(nuovo paradigma dominante).
Con Lakatos infine troviamo un punto di incontro e sintesi tra le teorie di Popper, di cui
era allievo, e Kuhn. Lakatos introduce il concetto di programma di ricerca che ricorda il
concetto di paradigma di Kuhn. Per Lakatos la ricerca scientifica è un complesso e articolato
rapporto tra teorie successive all’interno di programmi di ricerca scientifici, basati su un
“nucleo” (HARD CORE) considerato inconfutabile, e un insieme di “ipotesi ausiliarie”
sottoposte a falsificazione. Questo ci consente di ammettere l’esistenza di una serie di
programmi di ricerca che quindi, a differenza dei paradigmi, possono coesistere allo stesso
tempo. I programmi di ricerca possono essere:
• progressivi: sono quelli in cui le ipotesi ausiliarie consentono di mantenere intatto
il nucleo;
• regressivi: sono quelli che si limitano ad aggirare le anomalie senza risolverle.
I programmi di ricerca e i paradigmi vengono abbandonati quando diventano
irrimediabilmente regressivi rispetto ad un programma rivale, e quindi quando il numero di
anomalie diventa troppo elevato.

Le caratteristiche epistemologiche della versione avanzata ed evoluta del positivismo


saranno:
• la realtà che si studia è indipendente da chi la studia ma non è oggettivamente
conoscibile se non in maniera probabilistica ed imperfetta,
• è accettata la compresenza di più teorie,
• l’obbiettivo della scienza sarà quello di ricercare i nessi causali dei fenomeni,
• il metodo sarà sperimentale e deduttivo, basato sulla falsificazione dell’ipotesi.

• Ricerca sociale: in cosa consiste, quando nasce e come


si sviluppa?
La ricerca sociale parte da una domanda o da un insieme di domande che riguardano un
aspetto della realtà sociale sul quale si vuole indagare e si pone come obbiettivi quello di
aumentare la conoscenza su un determinato fenomeno e, a seconda dei casi, sfruttare questa
conoscenza per dare indicazioni su come intervenire sulla realtà con l’intento di migliorarla.
Ora, quando nasce la ricerca sociale dunque la sociologia? Diciamo che la possibilità di una
“scienza della società” si definisce in Europa durante il XVI secolo, in un periodo storico di
grandi trasformazioni sociali, economiche e politiche, quali: la rivoluzione industriale, il
processo di urbanizzazione, il processo di secolarizzazione, la specializzazione del lavoro, la
nascita dell’idea di Stato/Nazione e l’avvento dell’Illuminismo. Dunque si fa pian piano
strada l’idea che anche la realtà sociale possa essere studiata attraverso i principi di
razionalità necessari allo studio delle scienze naturali. Questo processo culmina nel
Positivismo ottocentesco con Comte. La scienza della società inizia ad affermarsi come una
scienza a tutti gli effetti e dal punto di vista epistemologico viene profondamente
condizionata dal modello delle scienze naturali e quindi dal metodo scientifico (nato alla
fine del Cinquecento con Galileo Galilei) di cui accetta tutti i presupposti (monismo
metodologico): il procedimento induttivo, l’oggettività del metodo e la formulazione di
leggi universali trascritte in linguaggio matematico.
Con Durkheim, il primo grande esponente della sociologia positivistica, si sistematizzano le
procedure empiriche del metodo sociologico (Le regole del metodo sociologico e Il Suicidio*,
1895/1896). I fatti sociali per Durkheim non sono soggetti alla volontà dell’uomo, bensì
funzionano secondo leggi naturali proprie e possiedono una struttura deterministica: il
compito del sociologo sarà dunque quello di rintracciare i nessi causali di determinati
fenomeni e per via induttiva, tramite l’individuazione di regolarità e ricorrenze, giungere a
delle generalizzazioni e conclusioni attraverso un metodo fondato sulla manipolazione e il
controllo delle variabili e sul distacco fra osservatore e osservato.
Tra la fine del 1800 e l’inizio del 1900 si assiste ad una crisi del pensiero positivista e nasce
una nuova corrente di pensiero: lo Storicismo tedesco (o primo Interpretativismo).
Tale corrente di pensiero nasce dalla necessità di fare una distinzione tra le scienze naturali
e le scienze dello spirito o scienza storico-sociali. Al monismo metodologico positivista si
contrappone il dualismo metodologico che affermava l’esistenza di due metodi
differenti.
Un primo importante contributo alla discussione viene dato dallo studioso Dilthey, il quale
si soffermò su una prima differenza tra scienze naturali e scienze storico-sociali: l’oggetto
(1). Le scienze dello spirito hanno come oggetto l’Erlebnis, l’esperienza vissuta che ogni
soggetto sperimenta nella sua vita quotidiana; questa può essere studiata solo mediante un
procedimento di comprensione, fondato sull’immedesimazione intuitiva (empatia).
Una seconda importante differenziazione avviene tramite lo studio di Windelband che si
focalizza invece sul metodo (2).
Si definisce una prima netta differenziazione tra le scienze nomotetiche (scienze
naturali) che studiano una realtà esterna all’uomo, i dati vengono rivelati tramite
l’osservazione e l’obbiettivo è quello di formulare leggi universali che possano spiegare
determinati fenomeni; e le scienze idiografiche (scienze dello spirito), le quali studiano
il mondo interno all’uomo, i dati derivano in questo caso non solo dall’osservazione vissuta
ma dalla comprensione che l’individuo ha degli altri individui, l’obbiettivo sarà in questo
caso comprendere determinati fenomeni attraverso categorie concettuali (valore,
significato, scopo).
La realtà diviene quindi “natura” se la si considera in riferimento all’universale; diviene
“storia” se la si considera in riguardo al particolare.
Con Rickert questa distinzione viene ripresa e si approfondisce il concetto di
comprensione razionale basato non solo sull’empatia (immedesimazione intuitiva), ma
anche sulla modellizzazione e il riferimento al valore. La realtà sociale viene vista come
un complesso insieme di relazioni che dipendono dalla soggettività umana, che a sua volta
dipende dai contesti storico-sociali. La distinzione tra tipi di conoscenza deriva quindi dai
tipi di concetti assunti come base: concetti scientifici, che mirano alla generalizzazione (e
quindi alla formulazione di leggi), e concetti storici, che si riferiscono agli eventi individuali
in quanto incarnano i valori di una determinata civiltà.
Il riferimento al valore è alla base del grande contributo effettuato dal sociologo Weber
riguardo una terza differenziazione tra le scienze naturali e quelle dello spirito: lo scopo
(3). Max Weber parla di sociologia comprendente: l’obbiettivo delle scienze sociali è
comprendere il significato interno all’azione attraverso una ricostruzione razionale che sarà
sempre parziale perché “non vi è alcun sistema di valori assoluti e trascendentali su cui
fondare l’oggettività della conoscenza e i principi dell’etica, ma i valori variano con il
mutare storico dei diversi contesti culturali”. Si modifica dunque il concetto di oggettività:
non si potranno formulare leggi generali immutabili ma si potranno solo rintracciare
costanti probabilistiche dell’agire sociale che possono essere ordinate in tipi ideali. La
comprensione diviene dunque un processo di interpretazione (non più emotiva ma
avalutativa) e tipizzazione.
Si affermano dunque due concetti base di quella che sarà la corrente dell’interpretativismo:
il carattere probabilistico dell’indagine sociale e il tipo ideale o idealtipo (strumento
conoscitivo per orientarsi nella complessità del reale).
Al positivismo si affianca dunque l’Interpretativismo, una prospettiva relativista (si
ammette quindi la possibilità di realtà multiple) e costruttivista (ogni individuo produce
una sua realtà e solo questa realtà è conoscibile, si nega l’esistenza di una realtà sociale
universale valida per tutti). Questo approccio privilegia la comprensione rispetto alla
spiegazione. Si riconosce un’interdipendenza tra l’osservatore e l’osservato. I procedimenti
sono comunque di tipo induttivo.
Durante il 1900 avviene un’ulteriore crisi della corrente di pensiero positivista grazie alle
scoperte scientifiche della fisica quantistica e all’enunciazione del principio di
indeterminazione di Heisenberg (1958). Il principio stabilisce che non è possibile cogliere
contemporaneamente posizione e velocità di una particella di energia. Cade un altro assioma
del positivismo cioè che i procedimenti osservativi non alterino lo stato degli oggetti studiati.
Da questo momento in poi non sarà più possibile pensare all’osservatore come soggetto
passivo e distaccato in fisica come in sociologia. Heisenberg dimostra che se l’osservatore
sceglie di rilevare la posizione di una particella allora tale particella cesserà di esistere nella
dimensione velocità e viceversa. Questo causa una caduta dell’approccio deterministico e la
trasformazione della spiegazione causale in spiegazione probabilistica. Queste scoperte
ovviamente rivoluzionarono completamente il modo di concepire le scienze naturali (hard)
riducendo di conseguenza le differenze tra queste e le scienze soft come quelle sociali.
Il pensiero costruttivista si fa dunque strada nella metodologia delle scienze nel mondo
contemporaneo: l’oggetto, la realtà, i dati empirici ottenuti da una ricerca risulteranno
dunque essere sempre il risultato di un’interpretazione del soggetto ricercatore, il quale non
può prescindere dagli strumenti concettuali e di rilevazione con cui egli guarda appunto la
realtà.
[soggetto/ricercatore → strumenti/idee → oggetto/realtà]

Questi strumenti comprendono sia l’apparato metodologico e teorico di una determinata


disciplina (o il paradigma in essa dominante) sia i condizionamenti culturali dovuti al
contesto storico, geografico e sociale. Un esempio pratico che possa darci un’idea di ciò che
stiamo dicendo è l’esperimento della stanza di Ames*, condotto dall’americano Ames nel
1946.

• I due tipi di ricerca: qualitativa e quantitativa


Avendo delineato l’evoluzione della sociologia e del dibattito sul metodo, possiamo quindi
definire due tipi principali di metodo per fare ricerca,
Il metodo quantitativo o standard consiste in un’impostazione di ricerca largamente
diffusa e praticata (perciò standard) che si riallaccia alla concezione della scienza di stampo
positivista o meglio neopositivista. Lazarsfeld (1955) conia la definizione di linguaggio
delle variabili per descrivere questo tipo di approccio. Il metodo quantitativo si impegna
nel trovare nessi causali tra concetti tradotti in variabili attraverso un linguaggio statistico,
ciò implica inevitabilmente di mettere in secondo piano il significato che l’attore sociale
attribuisce personalmente al suo agire, quantificando e misurando caratteristiche per loro
natura qualitative come opinioni e atteggiamenti. Le prove empiriche che si raccolgono
devono essere uguali per tutti i nostri casi, in vista di una comparazione e della
generalizzazione dei nostri risultati, cioè della loro estensione a casi non coinvolti
nell’indagine. Questo metodo si può presentare in varie forme: attraverso un’analisi
secondaria di dati già esistenti (dunque sulla base di fonti statistiche ufficiali come l’Istat);
o un’inchiesta campionaria (si rileva un campione rappresentativo che si sottopone ad un
questionario, procedura standardizzata di interrogazione); o ancora un’indagine
sperimentale (si basa sull’esperienza osservativa o provocata, i dati vengono prodotti
inducendo i soggetti a reagire in una situazione artificiale). Le fasi di una ricerca standard
hanno una sequenza lineare, cioè tendono a susseguirsi secondo un ordine prestabilito.

Il metodo qualitativo o non standard, al contrario, sulla scia dell’interpretativismo,


rifiuta il ricorso a tecniche statistiche o all’utilizzo di modelli matematici, spingendosi sul
versante del soggettivismo tanto da mettere in discussione anche possibili
generalizzazioni che vadano oltre il singolo individuo. Si cerca dunque di entrare in un
contatto più profondo coi soggetti studiati tanto che i risultati di ricerche di questo tipo non
saranno rappresentati in una matrice di dati, bensì in delle vere e proprie narrazioni.
L’indagine con intervista discorsiva o una ricerca etnografica (basata sull’osservazione e
l’immedesimazione coi soggetti studiati) sono esempi di questo tipo di indagine. Nella
ricerca non standard vi è una circolarità tra le fasi, il percorso è più flessibile e aperto alle
sollecitazioni provenienti dalle fasi di campo.
• Sociologia come scienza pre-paradigmatica e i Mixed
Methods
Spesso in un’indagine sociologica non è possibile identificare un paradigma scientifico
prevalente. Si parla perciò della sociologia come una scienza << semi-paradigmatica>>.
Attualmente è ancora in corso un dibattito su quale metodo sia più efficace per la ricerca
sociale e sembra prevalere una posizione che sostiene la piena legittimità, dignità e utilità
dei due metodi. Molti autori contemporanei infatti considerano tale distinzione una
questione puramente tecnica auspicando ad un approccio che utilizzi entrambi i metodi in
una stessa ricerca. Nascono dunque i Mixed Methods che rappresentano una specie di
evoluzione rispetto al procedimento della triangolazione, la quale consisteva nell’utilizzare
in maniera autonoma e distinta i due diversi approcci in modo tale che, nel caso in cui si
ottenessero risultati convergenti, si potesse essere ancora più sicuri della loro validità.
I Mixed Methods intendono superare i confini delle ricerche qualitativa e quantitativa
permettendo di giungere ad un modello unitario, sicuramente più complesso, che ambisce a
proporsi come un vero e proprio paradigma delle scienze sociali. Assai rilevante come
dibattito nel contesto anglosassone, non è ancora pienamente formalizzato nell’ambito
accademico italiano. I mixed methods nascono sulla fine degli anni ’50. Si fondano, come la
triangolazione, sull’assunto che punti di vista molteplici consentono maggiore precisione sia
nella spiegazione che nella comprensione. Dunque i mixed methods possono essere la
combinazione di metodi diversi sia solo qualitativi, sia solo quantitativi, sia entrambi.
Lavorare con il metodo mix significa quindi lavorare con dati e interrogativi diversi; si
delinea un disegno della ricerca molto complesso e l’indagine sarà a lungo termine.
Il paradigma che consente di giustificare l’uso di metodi quantitativi e qualitativi insieme è
quello pragmatista assunto dai realisti alle porte del nuovo millennio. Si professa
l’esistenza di un pluralismo metodologico.

• Struttura della ricerca


La ricerca, che sia di tipo quantitativo, qualitativo o misto, si distingue in diverse fasi:
- Disegno della ricerca;
- Rilevazione dei dati (fase di campo);
- Analisi dei dati (fase di campo);
- Comunicazione dei risultati.

• Disegno della ricerca


È la fase preliminare di progettazione in cui vengono gettate le basi per quello che sarà tutto
il lavoro successivo. È la parte più importante e indispensabile. Si definiscono in questa fase:
gli interrogativi e/o le ipotesi della ricerca, il contesto (geografico, temporale ecc.) in cui si
opererà, i concetti chiave su cui si vuole indagare, il modo per rilevarli e il tipo di confronti
e di comparazioni che si intende effettuare tra essi, ancora, si devono selezionare le unità di
analisi, la strutturazione delle situazioni in cui verranno raccolte e analizzate le informazioni
e il ruolo del ricercatore. Ovviamente determinate decisioni cambieranno nel corso della
ricerca, se ne aggiungeranno di altre e così via. Esempi di decisioni sono: dove trovare
informazioni utili alla ricerca, quanti casi prendere in considerazione, come organizzare la
ricerca, quale tecnica di raccolta utilizzare. In questa fase il disegno è una prefigurazione di
ciò che accadrà quando si passerà alla ricerca sul campo, in contatto diretto con l’oggetto
della ricerca. Le decisioni da prendere nella fase progettuale differiscono dal tipo di ricerca
che si vuole svolgere. In una logica di ricerca quantitativa si deve stabilire la numerosità
campionaria, il piano di campionamento e prefigurare l’analisi dei dati. In una logica di
ricerca qualitativa si devono identificare i casi da analizzare ed entrare in contatto diretto
con loro.
Le fasi di un disegno di ricerca sono:
1. Formulazione degli interrogativi di ricerca: si rilevano i concetti su cui si
vuole indagare e la relazione tra essi;
2. Selezione dell’unità di analisi: i concetti divengono proprietà dell’oggetto;
3. Definizione della popolazione di riferimento;
4. Campionamento.

Oggetto, unità di analisi e casi


Il primo passo da compiere sarà quindi individuare l’oggetto della nostra ricerca al quale
le proprietà del concetto considerato e che deve essere studiato afferiscono. L’oggetto sarà
quindi il soggetto sociale della ricerca a cui si riferiscono le proprietà studiate.
L’oggetto di studio della ricerca sociale non è solo necessariamente l’individuo, dovremmo
distinguere dunque i tipi di oggetti: le unità di analisi o osservazione.
L’unità d’analisi è il referente sul quale il ricercatore intende raccogliere le informazioni,
essa è singolare ed astratta. Le unità di analisi possono a loro volta essere di diversi tipi:
abbiamo l’individuo, il soggetto sociale, l’unità elementare delle unità aggregate a cui la
maggior parte delle indagini sociali fa riferimento; l’aggregato, unità scomponibile in unità
più piccole, esistono diversi tipi di aggregati: la famiglia, caratterizzata dalla presenza
dell’elemento individuale, l’entità territoriale o ecologica (es. comune, provincia, regione,
distretto…) e l’ente, quest’ultimo corrisponde ai gruppi quali le associazioni o istituzioni o
ancora aziende ecc.; l’evento sociale, accadimenti periodici o unici (es. elezioni) e infine
abbiamo il prodotto culturale, che diventa un’unità di analisi quando si studia un fenomeno
sociale attraverso l’analisi dei messaggi dei mezzi di comunicazione di massa. Esempi sono
i libri, gli articoli di giornale, i discorsi politici.
Risulta quindi necessario fare un’ulteriore distinzione tra l’unità di analisi. Le unità si
possono distinguere in: unità di analisi o di rilevamento, quando le proprietà rilevate si
riferiscono direttamente all’unità, unità di raccolta o di riferimento, è l’unità sulla quale sono
raccolte le informazioni e unità statistica (caso) che è l’unità elementare su cui si conducono
le analisi statistiche.
Questo significa che siamo ancora sul grado dell’astrazione, è necessario quindi identificare
gli esemplari concreti su cui rilevare i dati: i casi, gli oggetti specifici di cui si occupa una
ricerca scientifica (livello più basso di astrazione).
Proprietà degli oggetti
Quando si parla di proprietà degli oggetti, si fa riferimento alle caratteristiche delle unità. Il
rapporto tra le proprietà degli oggetti e le unità di analisi è molto stretto: si possono
identificare 6 tipi di proprietà a seconda del tipo unità di analisi considerata:
- Proprietà individuali: si ottengono quando l’unità è l’individuo e le informazioni
raccolte (le proprietà) si riferiscono direttamente all’individuo. Es. genere, età,
residenza.
- Proprietà aggregate: si ottengono quando le informazioni raccolte su un’unità
diversa da quella a cui si riferiscono, quindi sono rilevate sulle parti e riferite all’intero
Es. reddito medio degli abitanti.
- Proprietà contestuali individuali: si ottengono quando le informazioni riguardano
l’individuo ma si riferiscono al contesto in cui è inserito. Es. n. dei membri della
famiglia.
- Proprietà comparative: si ottengono quando la proprietà di ciascun caso viene
rilevata comparandola con quella posseduta da un altro caso. Es. posizione del
profitto dell’alunno A rispetto all’alunno B.
- Proprietà relazionali: si ottengono quando la proprietà di ciascun caso viene rilevata
rapportandola con quella posseduta da un altro caso. Es. posizione di una persona
all’interno di una comitiva.
- Proprietà globali: si ottengono quando le caratteristiche esclusive del gruppo non
derivano da proprietà dei membri che lo compongono. Es. tipo di società, settore
industriale.

L’importanza dell’ordine spazio-temporale.


Per individuare i casi su cui rilevare delle informazioni in una ricerca è necessario attuare
una delimitazione spazio temporale ai fenomeni studiati. A tale delimitazione si
aggiunge eventualmente un’ulteriore selezione dei casi, che fungono da rappresentanti di
tutti i potenziali casi (campionamento).
L’ordine spazio temporale aiuta inoltre a determinare quale sia la causa e l’effetto di un
determinato evento. A seconda del modo in cui si tiene conto di tali dimensioni si
distinguono:
- Studi trasversali (one-shot): si rilevano le informazioni nello stesso momento su un
singolo campione della popolazione come se si facesse un’istantanea che fissa un’immagine
della popolazione in un determinato momento nel tempo. Es. sondaggi di opinione.
- Studi longitudinali: ci si propone di studiare un determinato fenomeno in un periodo
di tempo più lungo. Ciò si può ottenere o con disegni a serie temporale (trend) o con disegni
a contatti ripetuti (panel). Nel primo caso vengono contattati campioni equivalenti di
popolazione in differenti momenti di tempo, il che permette di mettere a confronto
istantanee fissate in momenti successivi: è il caso per esempio di molte delle survey condotte
dall’Istat come l’indagine a cadenza annuale sugli Aspetti della Vita Quotidiana. Nel secondo
caso, quello dei disegni a contatti ripetuti, sono gli stessi soggetti a essere intervistati con
cadenza regolare. Questa modalità viene spesso usata negli studi elettorali, per analizzare i
cambiamenti negli orientamenti degli elettori nel corso di una campagna elettorale o nelle
ricerche che studiano i processi di formazione e crescita nei bambini e negli adolescenti.
Quando l’unità d’analisi viene collocata nel tempo e nello spazio otteniamo la popolazione
di riferimento, il collettivo delle unità di analisi di riferimento.

Concetti e indicatori
I concetti individuati nella formulazione degli interrogativi di ricerca vanno riferiti alle unità
che abbiamo individuato (individuo, aggregato, prodotto culturale o evento). Esistono due
tipi di concetti:
• Concetto teorico: indica una proprietà generale, non accessibile all’osservazione
immediata. (Es. inclinazione alla violenza)
• Concetto empirico: una proprietà/caratteristica empiricamente rilevabile tramite
l’osservazione e/o l’interrogazione. (Es. aggressione verbale/fisica)

I concetti possono essere disposti lungo un continuum ideale (scala di generalità) di


concretezza-astrazione.
I concetti di cui si occupa la ricerca sociale sono complessi, dunque è impossibile rilevarli
empiricamente in modo diretto. Quando i concetti sono così complessi e teorici da non
poterne dare una definizione diretta, è necessario ricorrere ad una semplificazione del
concetto stesso (operativizzazione/definizione operativa). Ciò significa che se il
concetto non ha stati empiricamente rilevabili, esso deve essere semanticamente
rappresentato da un altro concetto i cui stati siano rilevabili. Quest’ultimo prende il nome
di indicatore: esso è un concetto che fornisce informazioni (I) specifiche su un altro
concetto più generale (C).
Un indicatore è l’espressione di un legame di rappresentazione semantica fra il concetto
generale e un concetto più specifico di cui possiamo dare una definizione.
Nella vita quotidiana si fa ricorso agli indicatori ogni qualvolta si individua un indizio, un
segnale direttamente osservabile, come segnale di qualcos’altro. Per esempio, se vediamo
qualcuno sorridere, possiamo dedurre che è allegro.
Selezionare gli indicatori che definiscono il concetto significa istituire un rapporto di
indicazione (di rappresentazione semantica) tra un concetto generale (C) e un indicatore
più specifico (I). Questo rapporto è di natura stipulativa. I è un indicatore del concetto C
se il contenuto semantico in comune tra C ed I (la parte indicante) è
sufficientemente esteso. La parte indicante è la parte d’estensione di I che ne fa un
possibile indicatore di C. Più la parte indicante è estesa (quindi la parte estranea è ridotta)
più I sarà un valido indicatore di C.
Le caratteristiche di un indicatore:
• Pluralità verso l’alto: uno stesso indicatore può essere scelto per indicare diversi
concetti generali. (Es. il tasso di aborto può essere indicatore di secolarizzazione o
indicatore di propensione all’obiezione di coscienza).
• Pluralità verso il basso: per operativizzare un concetto occorrono più indicatori.
Ogni indicatore possiede un carattere specifico e non deve essere mai considerato
completamente rappresentativo di un concetto. (Es. libertà politica: liberta di
espressione, libertà di associazione, libertà di movimento ecc.).
• È manifesto, osservabile.
• Può interessare in sé o come indizio di qualcos’altro più latente o non osservabile.
• La sua interpretazione non è necessariamente univoca ma cambia in base al contesto
e all’unità di analisi.

La scelta degli indicatori dipende da:


• Unità di analisi,
• Contesto sociale di riferimento,
• Il ricercatore e la sua esperienza.
Abbiamo gia detto che per ciascun concetto si possono individuare molteplici indicatori.

Gli indicatori a loro volta verranno sintetizzati in indici. Il percorso seguito dal ricercatore
per passare dai concetti agli indici (combinazioni di più indicatori di uno stesso concetto) è
stato descritto da Lazarsfeld in 4 fasi:
1. La rappresentazione figurata del concetto: il ricercatore si rappresenta il concetto
nei suoi aspetti generali.
2. La specificazione dello stesso concetto, articolato secondo diversi aspetti e
dimensioni.
3. La scelta degli indicatori empirici per le dimensioni considerate.
4. La sintesi delle informazioni raccolte in un indice che trova posto nella
matrice dei dati: l’indice rappresenta l’esito della definizione operativa di un concetto. Gli
indici possono derivare da un solo indicatore o essere la combinazione di più indicatori.

Rappresentazione schematica del processo di traduzione empirica di un


concetto:
Concetto/proprietà → dimensioni → indicatori → variabili → indice
(piano teorico → piano empirico)

Validità, attendibilità e fedeltà


È necessario valutare la correttezza dell’intero processo effettuato in termini di validità e di
attendibilità di un indicatore e delle relative variabili. Entrambi i concetti furono elaborati
in ambito psicometrico per valutare la bontà dei test psicologici, vennero sistematizzati negli
anni ’50 in un contesto culturale di impostazione prevalentemente positivista attraverso
l’uso di test statistici.
Per validità si intende il grado con il quale una procedura di traduzione di un concetto in
variabile rileva effettivamente il concetto che si intende rilevare. Essa si riferisce al rapporto
di indicazione tra concetto e indicatore. Indica la capacità dell’indicatore di funzionare
come “traccia” o “indizio” del concetto generale. Esistono diverse procedure di convalida:
• Validità di contenuto: quando l’indicatore scelto rappresenta l’universo di
contenuto indagato. Convalida logica in relazione al giudizio di esperti o il giudizio
informato del ricercatore.
• Validità mediante criterio: quando l’indicatore di cui si deve testare la validità è
confrontato con un altro indicatore già accettato come valido. È concomitante
quando l’associazione avviene nella stessa unità di tempo, è predittiva quando
l’associazione avviene in tempi distinti, è per gruppi noti quando l’associazione
avviene con indicatori di cui è gia noto il comportamento.
• Validità di costrutto: mira a stabilire se c’è associazione tra l’indicatore ed altri
concetti che hanno una forte associazione con il concetto generale.
Su tutte queste procedure di convalida della validità sono state avanzate parecchie
critiche. Essendo la validità una proprietà del rapporto di indicazione tra il concetto
generale e il suo indicatore, come osserva Marradi, l’indicatore è valido se la parte
estranea alla parte indicante è il meno ampia possibile, ma non esiste nessun criterio
oggettivo per misurare a priori la parte indicante e quella estranea. Dunque queste
procedure non possono essere interpretate come misure statisticamente affidabili ma
solo come indicazioni.

Per attendibilità si intende invece la capacità di un certo strumento di rilevazione di


replicare in modo costante i risultati ottenuti. Essa si riferisce al rapporto di indicazione tra
indicatore e variabile. I modi per accertare l’attendibilità sono:
• Test-retest: consiste nel correlare tra loro i punteggi ottenuti in due
somministrazioni successive di un test sugli stessi individui senza tener conto della
reattività del soggetto, come possibili mutamenti di opinione del soggetto.
• Equivalenza: si correlano i risultati ottenuti attraverso test tra loro simili che si
suppone misurino la stessa caratteristica.
• Coerenza interna: calcola la correlazione tra le risposte a ciascuna domanda di una
batteria con le risposte a tutte le altre.

Ma secondo Marradi l’attendibilità non si può misurare perché ogni soggetto ha un modo
personale di reagire alle domande di un test; ogni domanda ha un suo livello di
comprensibilità, accettabilità e gradevolezza; la reazione di ogni soggetto non è stabile nel
tempo e nello spazio. A questo proposito è stato introdotto il concetto di fedeltà di un dato
e di una definizione operativa.
Un singolo dato si dice fedele se rispecchia fedelmente lo stato di un determinato soggetto
sulla proprietà rilevata mentre la definizione operativa risulterà essere attendibile se
produce dei dati fedeli alle aspettative avute. Cause di infedeltà possono essere: risposte non
sincere, incomprensione delle domande, errori di trascrizione nella matrice dei dati. Per
controllare la fedeltà dei dati si devono effettuare dei controlli sui dati, sulla loro plausibilità,
sui codici selvaggi e sulla congruenza delle variabili, nonché stare attenti ai dati mancanti.

Indicatori sociali
Gli indicatori sociali sono il risultato di un movimento specifico nato negli Stati Uniti alla
fine degli anni ’50 con l’obbiettivo di mettere a punto un sistema costante di monitoraggio
degli standard di vita della popolazione. Essendo derivati dall’elaborazione di alcuni dati
statistici, sono come delle serie storiche statistiche che si propongono di monitorare un
sistema sociale attraverso degli strumenti ausiliari che ne identifichino i cambiamenti e
guidino le azioni. Sono classificabili in base all’uso e al tipo di risorse a disposizione. Rispetto
all’uso abbiamo indicatori descrittivi che raccolgono dati che non seguono un principio di
causa-effetto e che non entrano in una prospettiva di distribuzione delle risorse; e indicatori
normativi usati nell’ambito di modelli di relazione o previsione. Rispetto al tipo di risorse
che si valutano abbiamo indicatori oggettivi, utilizzati per valutare la disponibilità di risorse
collettive e il livello di benessere/malessere socio-economico; indicatori soggettivi rilevano
la percezione di benessere degli individui.

Le variabili
Come abbiamo già detto una proprietà (indicatore) può essere operativizzata in modi
differenti a seconda del suo grado di generalità, dell’unità di analisi e del contesto sociale in
cui è inserita.
La definizione operativa è l’insieme di regole e convenzioni che stabiliscono come una
proprietà (indicatore) possa essere rilevata e trasformata in variabile e come la variabile
dovrà essere rappresentata sotto forma di simboli o cifre.
La variabile è la proprietà di un oggetto che è stata sottoposta ad una definizione operativa.
La variabile corrisponde alla forma empirica dell’indicatore teorico.
Gli stati della proprietà vengono operativizzati divenendo categorie, a ciascuna categoria
viene assegnato un valore alfanumerico che comparirà nel vettore colonna della matrice dei
dati.
Un esempio: la nostra unità di analisi è l’individuo e vogliamo studiarne il grado di
scolarizzazione. Indicatore del grado di scolarizzazione sarà il grado di istruzione,
quest’ultimo può essere: licenza elementare, licenza media, diploma, laurea,
specializzazione post laurea, nessun titolo ecc. A ciascuna categoria corrisponderà un
numero, quindi a nessun titolo 0, a licenza elementare 1, a licenza media 2 e così via. Dopo
aver interrogato i casi, questi numeri verranno inseriti nella matrice dei dati e verranno
analizzati attraverso tecniche statistiche che si differenziano sul tipo di variabile.
(Ovviamente questo avviene nel campo di un’indagine di tipo standard, infatti una ricerca
di tipo non standard si limita all’individuazione delle dimensioni di un concetto senza
sottoporre quest’ultimo al processo scompositivo della definizione operativa).
[La matrice dei dati è un insieme di righe (che corrispondono ai casi della ricerca) e di
colonne (che corrispondono alle variabili), tali che all’incrocio tra riga e colonna si trovi il
valore alfanumerico stabilito nella definizione operativa.]
Tuttavia, non tutte le proprietà possono essere trasformate in variabili. Perché sia possibile
ciò una proprietà deve soddisfare almeno due condizioni:
• Deve variare: essa deve poter assumere almeno due stati diversi da caso a caso nello
stesso momento oppure nello stesso caso in tempi differenti; se ciò non accade la
proprietà diverrà una costante. (Es. se dovessimo condurre un’indagine sulla
disoccupazione tra le donne in Italia non potremmo utilizzare la proprietà ‘genere’
come variabile in quanto tutti i casi assumerebbero la stessa proprietà e sarebbe
inutile).
• Deve avere una definizione operativa: si deve stabilire in che modo gli stati
sulla proprietà vengano rilevati e registrati nella matrice dei dati in modo tale da
permettere una successiva analisi statistica.
Un’altra importante questione riguarda il processo di classificazione delle modalità di una
variabile. Una volta rilevati gli stati di una proprietà, per far sì che vengano trasformati nelle
modalità della variabile in questione, è necessario che vengano rispettate tre regole:
1. Il fundamentum divisionis: fa sì che le informazioni non si collochino
contemporaneamente in più categorie di risposta. Se per esempio la proprietà è
“stato civile” le modalità saranno “celibe/nubile”, “sposato/a”, “divorziato/a”,
“separato/a”, “vedovo/a”, in questo caso il fundamentum divisionis fa riferimento
alla Legislazione vigente in Italia. Se fosse stata inclusa la modalità “convivente” i
fundamenta divisionis sarebbero stati due: legislativo, che non considera le coppie
di fatto, e non legislativo, che le include.
2. La mutua esclusività: fa sì che nessun referente possa essere attribuito
contemporaneamente a più modalità di una stessa proprietà. Ad esempio se ci
fosse stato “convivente” tra le opzioni possibili, oltre a non rispettare il
fundamentum divisionis, questa modalità non avrebbe rispettato neanche il
principio di mutua esclusività poiché una persona può essere sia divorziata sia
convivente.
3. L’esaustività: le modalità devono comprendere tutte le sfaccettature della
proprietà in modo tale che il caso possa trovare il suo stato all’interno delle opzioni
proposte.
Nell’ambito della ricerca standard quantitativa, dovendo interpretare i valori presenti in una
matrice dei dati, si possono distinguere vari tipi di variabili a seconda del tipo di proprietà
che le ha suggerite. Abbiamo quindi:
• Proprietà discrete: una proprietà è discreta se può assumere solo un numero finito di
stati che non sono in relazione quantitativa fra loro. (Es. genere, titolo di studio…)

· variabili categoriali non ordinate: i valori numerici attribuiti alle modalità non
hanno alcun valore cardinale, sono semplici simboli utilizzati per distinguere le
singole categorie nella matrice dei dati. L’unico criterio da rispettare è che a ciascuna
modalità venga attribuito un codice numerico differente. La definizione operativa è
quella della classificazione e le operazioni logico-matematiche possibili sono
uguaglianza/differenza. (Es. genere: maschio/femmina/trans).

· variabili categoriali ordinate: i valori numerici attribuiti alle modalità non


hanno alcun valore cardinale, sono semplici simboli utilizzati per distinguere le
singole categorie nella matrice dei dati. L’unico criterio da rispettare è che a ciascuna
modalità venga attribuito un codice numerico differente. I codici che identificano le
modalità rappresentano le relazioni d’ordine, in modo che i numeri siano in relazione
monotonica con le modalità. La differenza è che le modalità di questo tipo di variabile
possono essere classificate secondo un ordinamento e le operazioni logico-
matematiche possibili oltre ad essere uguaglianza/differenza, sono
maggioranza/minoranza. (Es. titolo di studio).

· variabili cardinali enumerate (naturali): in questo caso sono le stesse


modalità della variabile a corrispondere ad un numero, più precisamente ad un
numero naturale intero. I numeri registrati all’interno della matrice assumono pieno
significato. La variabile risulterà essere quindi l’esito di un conteggio e oltre alle
operazioni di uguaglianza/differenza e maggioranza/minoranza, sarà possibile
calcolare anche il quoziente tra gli stati della proprietà. Ovviamente deve essere
individuata l’unità di conto che sarà quella naturale. (Es. totale figli: 1, 2, 3 ecc.).

• Proprietà continue: sono le proprietà degli oggetti che hanno un numero infinito di
stati impercettibilmente diversi l’uno dall’altro, ciascuno dei quali è collocabile lungo
un continuum.

· variabile cardinale (metrica): corrisponde ad un numero naturale ed è l’esito


di una misurazione. Per far sì che la definizione operativa produca una variabile di
questo tipo deve essere individuata un’unità di misura. L’unità di misura, a differenza
dell’unità di conto, non è naturale ma convenzionale, intersoggettiva e replicabile. La
misurazione è un processo per cui si confronta l’ammontare di una proprietà X
posseduta da un oggetto con l’ammontare della stessa proprietà X posseduta dallo
strumento-unità scelto convenzionalmente. Anche in questo caso i codici numerici
ottenuti hanno pieno significato e possono essere sottoposti a tutte e 4 le operazioni
logico-matematiche. (Es. altezza, peso, distanza, lunghezza ecc.).

· variabile categoriale ordinata

· variabile quasi cardinale: In assenza di un’unità di misura (senza la quale la


definizione operativa non può tradurre una proprietà in variabile) si ricorre a tecniche
specifiche di assegnazione di valori, dette Scaling. Tali procedure quantificano gli
atteggiamenti e le opinioni. Ne derivano variabili quasi-cardinali, ovvero variabili
che rappresentano proprietà non effettivamente misurabili, ma che vengono trattate
come cardinali.

L’autonomia semantica è il grado in cui il termine o espressione che etichetta una


modalità assume significato senza dover ricorrere ad un confronto con le etichette che
contraddistinguono le altre modalità di una determinata variabile. Facciamo un esempio
pratico. Se la nostra variabile è “grado occupazionale” tra le varie modalità troveremo
sicuramente “occupato”. La modalità “occupato” si interpreta e assume un significato di
senso compiuto anche senza sapere le altre opzioni (“disoccupato”, “casalingo” ecc.). Si dirà
dunque che la variabile “posizione occupazionale” ha un elevato grado di autonomia
semantica. Cosa che non vale ad esempio per qualsiasi variabile x le cui modalità saranno:
“molto sfavorevole”, “poco sfavorevole”, “indifferente”, “poco favorevole” ecc. Queste ultime
infatti non possono essere interpretate se non in relazione a ciò per cui si è favorevoli o meno,
dunque le variabili che necessitano di modalità del genere si dirà che presentano una ridotta
autonomia semantica. Nel caso in cui le modalità di una variabile corrispondano a dei
numeri come per le variabili cardinali o quasi cardinali, allora il grado di autonomia sarà
nullo poiché le categorie della variabile autonomamente non assumono alcun significato di
senso compiuto.

TIPI DI GRADO DI
VARIABILI AUTONOMIA
Categoriali non Alto
ordinate
Categoriali Ridotto
ordinate
Cardinali/quasi- Assente
cardinali

Infine possiamo fare un’ulteriore classificazione delle variabili in base a diversi fattori
quali:
• Posizione assunta nella relazione causa/effetto: possiamo distinguere variabili
indipendenti e variabili dipendenti, analizzando le relazioni che intercorrono
tra loro tramite l’analisi statistica. In questo modo, attribuendo convenzionalmente il
carattere dipendente e indipendente a determinate variabili, possiamo vedere se una
influenza l’altra o meno.
• Grado di manipolabilità: sono definite manipolabili le variabili che possono essere
modificate dal ricercatore. È quanto accade in un esperimento in cui il ricercatore
studia l’atteggiamento di uno o più casi prima e dopo un determinato stimolo.
• Grado di osservabilità: possiamo distinguere variabili latenti e variabili
osservate. Le variabili osservate sono direttamente correlate con le proprietà a cui
afferiscono (Es. genere, reddito ecc.). Le variabili latenti, al contrario, non sono
direttamente osservabili in quanto afferiscono a dei concetti complessi collocati ad
un elevato grado di astrazione (Es. razzismo, benessere ecc.). In questo caso, tramite
le operazioni di Scaling, è possibile rilevare una variabile latente tramite più variabili
osservate, ovviamente nessuna di queste sarà abbastanza esaustiva da rappresentare
singolarmente la proprietà a cui si riferisce.
• Carattere individuale o collettivo: le variabili individuali sono specifiche
dell’individuo. In questa categoria ricadono le variabili assolute, indipendenti da ogni
altra informazione (genere, età), le comparative, determinate dal confronto di una
singola proprietà assunta da un individuo con la distribuzione della stessa proprietà
all’interno del collettivo di cui fa parte l’individuo (giudizio scolastico), le relazionali,
sulla base delle relazioni che intercorrono tra l’individuo e il collettivo di cui fa parte
(centralità o isolamento di un alunno nel suo gruppo classe), le contestuali o
ecologiche, riferite ad un collettivo ma applicate ai suoi singoli membri (tipo di scuola
frequentata). Le variabili collettive invece sono proprie di un gruppo sociale e di
distinguono in aggregate, la proprietà del collettivo dipende da quella del singolo
(reddito familiare), analitiche, derivate da variabili individuali tramite dei calcoli
(tasso di disoccupazione), strutturali, derivanti dai calcoli effettuati su variabili
individuali relazionali (grado di coesione di una comitiva), globali, indipendenti da
ogni proprietà individuale (densità di popolazione).
Infine abbiamo un’ultima distinzione in variabili naturali e variabili artificiali, le prime
sono immediatamente percepibili, le seconde invece derivano da calcoli o manipolazioni
del ricercatore.

La costruzione degli indici


Dopo aver individuato gli indicatori di un concetto, è necessario operare una sintesi delle
informazioni che permettono di costruire l’unità del concetto. Dalla sintesi delle variabili,
ottenute attraverso l’operativizzazione di un concetto, si ottiene l’indice. L’indice è una
variabile posta ad un livello di generalità più alto delle variabili di partenza. Consente di
operare una sintesi di tutte le informazioni raccolte, attraverso una ricomposizione
logico-matematica delle variabili che sintetizzano i nostri indicatori. In questo modo è
possibile trasformare la proprietà generale in un unico vettore in matrice.
Per costruire un indice è necessario tenere conto dei tipi di variabili che vogliamo
sintetizzare.
Con variabili categoriali ordinate e non ordinate possiamo costruire indici tipologici:
attraverso procedure di logica, il ricercatore tramite l’aggregazione delle categorie
unisce le singole modalità in macro-modalità. È necessario in questo caso considerare il
grado di autonomia semantica delle singole modalità. Lo strumento di sintesi sarà la
tabella di contingenza: è formata da vettori colonna e vettori riga al cui interno sono
sistematizzate le diverse variabili che vogliamo sintetizzare; nelle singole celle in cui i
vettori si incrociano troveremo il tipo che rappresenta la combinazione delle variabili.
Con variabili cardinali o quasi cardinali (scaling) è possibile costruire indici additivi o
sommatori. Per la loro combinazione si utilizzano pertanto strumenti algebrici.
Affinché sia fattibile la sintesi devono essere rispettate tre condizioni: condizione
fattuale, non devono esserci dati mancanti; condizione numerica, tutte le variabili che si
sommano devono avere la stessa scala di estensione numerica; condizione semantica, le
variabili devono essere orientate semanticamente tutte nello stesso verso (es. 1 deve
corrispondere al significato di minima valutazione e 5 deve corrispondere al significato
di massima valutazione in una scala da 1 a 5, per tutte le variabili).
Infine è possibile costruire un indice anche con variabili differenti considerando la
tecnica di costruzione riferita alla variabile presente di meno. Quindi, se almeno una
variabile è categoriale, la tecnica di aggregazione utilizzata sarà quella applicabile a
questo tipo di variabili e l’indice sarà tipologico. Se una variabile è ordinale e l’altra
cardinale si dovrà ridurre a livello ordinale la variabile cardinale e poi trattare i valori di
entrambe come punteggi ordinali.
• Fase di campo

La fase di campo costituisce il processo di rilevazione e costruzione della documentazione


empirica, dunque dei dati e delle informazioni necessarie ai fini dell’indagine che si sta
svolgendo. Ci sono vari fattori che influenzano tale procedura: la natura dei concetti e delle
variabili su cui si vuole lavorare, il grado della strutturazione e della formalizzazione delle
tecniche di raccolta e analisi dei dati, il ruolo del ricercatore, i metodi per rilevare le
informazioni (osservazione, lettura, interrogazione) e il loro grado di intrusività.
Nel caso di una ricerca standard, esperimento o inchiesta campionaria (survey), le procedure
di rilevamento e analisi dei dati sono di un elevato grado di strutturazione e formalizzazione
dato che: le variabili devono essere specificate dall’inizio, il processo di definizione operativa
è piuttosto complesso e l’indagine tende alla generalizzazione dei risultati. La ricerca
dell’oggettività quasi schiaccia non solo le infinite sfaccettature di significato che l’attore
sociale attribuisce alla propria preferenza/azione, ma anche il ruolo del ricercatore, il quale,
dettate e formalizzate le varie tecniche durante il disegno della ricerca, quasi si annulla.
Possiamo notare infatti lo stampo prettamente neopositivista di questo tipo di indagine.
Al contrario, in una ricerca qualitativa o non standard, il grado di strutturazione preliminare
nel processo di raccolta è piuttosto debole, infatti la definizione delle variabili e del materiale
dell’indagine si costruisce nel processo di interazione tra il ricercatore e l’attore sociale. Il
ricercatore in questo caso nell’entrare in contatto diretto con l’attore sociale oggetto di
studio, inizia a far parte attivamente del suo contesto, assumendo un ruolo fondamentale
per la costruzione dei dati. Ci troviamo sulla scia dell’interpretativismo e del soggettivismo.
Le modalità di raccolta sono: l’osservazione, la lettura e l’interrogazione. In base al
grado di intrusività dell’approccio prescelto si possono ottenere diversi feedback, ossia
reazioni, dell’attore sociale oggetto di studio.

Tecniche intrusive Tecniche non intrusive

Interrogare: indagine campionaria con Osservare: osservazione non partecipante


questionario, scale di atteggiamento, e periscopica, tracce fisiche, simulazione.
intervista, storie orali e racconti di vita, focus
group.

Osservare: osservazione partecipante, Leggere: analisi documentaria, fonti


osservazione diretta e delegata. statistiche.

Il binomio intrusività/non intrusività va inteso come un continuum non come una


dicotomia.
Tecniche non intrusive
Il concetto di intrusività nella ricerca sociale viene introdotto nella metà degli anni Sessanta
da quattro ricercatori americani. Questi ritenevano che fosse necessario adottare come
strumenti complementari all’interrogazione tecniche non intrusive per la raccolta dei dati
cosicché le reazioni dell’oggetto di studio non potessero essere influenzate dalla presenza del
ricercatore e risultare quindi poco veritiere o non spontanee. Le tecniche intrusive
prevedono che non ci sia un contatto diretto tra il ricercatore e l’osservato e che quest’ultimo
non abbia consapevolezza del suo essere oggetto di studio di una ricerca. Tra i vantaggi delle
tecniche non intrusive oltre ad esserci la mancata reattività dell’attore sociale, troviamo la
relativa facilità di accesso e i costi contenuti dei dati prodotti. Infatti sia la semplice
osservazione che l’analisi delle tracce non richiedono autorizzazioni o costi elevati. L’unica
cosa che potrebbe causare maggiori problemi poiché è necessario richiederne l’accesso è la
lettura degli archivi. Il principale svantaggio di questo tipo di tecniche risulta invece essere
il rischio, da parte del ricercatore, di cadere in una visione auto-referenziale, dato che tutta
la documentazione dipende dalla soggettiva interpretazione del ricercatore, senza
dimenticare la percentuale di distorsione o incompletezza delle informazioni che si ricavano
da giornali, diari, documenti personali, archivi e quant’altro.
Tra i dati delle tecniche non intrusive troviamo:
- Tracce fisiche (osservazione semplice e lettura): sono i segni che rimangono del
passaggio di una cultura, generati senza che il produttore sappia che verranno
utilizzati successivamente ai fini di una ricerca. Sono erosive se costituiscono beni
che si consumano, consolidate se sono oggetti o segni che resistono nel tempo. Questo
tipo di dati viene raccolto attraverso l’osservazione semplice o periscopica,
dunque passiva, del ricercatore, il quale non interviene minimamente sulla
produzione delle tracce.
- Documenti (lettura e analisi del contenuto): si distinguono in documenti di tipo
segnico, ossia i documenti prodotti con lo scopo esplicito di trasmettere un messaggio
(documenti personali, giornali, appunti, ricevute, fotografie, canzoni, documenti
amministrativi, ecc.), e di tipo non segnico, manufatti creati per finalità diverse dalla
comunicazione (vestiti, accessori, strutture architettoniche, macchinari ecc.).
Secondo questa prospettiva per cui qualsiasi cosa che ci circonda in pratica può essere
concepita come un documento che possa suggerire un’informazione, l’osservazione
semplice diviene essa stessa parte di un processo quale l’analisi del contenuto.
Tra i documenti di tipo segnico possiamo fare un’ulteriore distinzione tra: documenti
personali (autobiografie, lettere, diari, appunti, foto di famiglia, blog personali,
album online, profili social), documenti istituzionali ossia tutti quelli prodotti da un
ente, un’istituzione o un’organizzazione (documenti di identità, sentenze, contratti,
dati amministrativi ecc.) e infine il grande sistema dei mezzi di comunicazione di
massa (radio, cinema, social media, stampa).

• Analisi del contenuto


(Approfondimento) L’enorme mole degli studi condotti negli Stati Uniti nel periodo delle
due guerre sulla propaganda e sulla comunicazione politica contribuì parecchio sulla
sistematizzazione concettuale e metodologica dell’analisi del contenuto, profondamente
influenzata dall’approccio quantitativo della survey o sondaggio. Da questo momento in
poi la tecnica conoscerà una fase di intenso sviluppo iniziando ad essere applicata in
molti campi anche al di fuori della sociologia, come in storia, linguistica, antropologia,
psicologia, nei nuovi studi sulla comunicazione visiva, il linguaggio del corpo, i sogni e il
folklore (miti, racconti, enigmi). A partire dagli anni Sessanta però molte cose sono
cambiate: lo sviluppo degli studi linguistici e semiologici ha richiamato l’attenzione sulla
molteplicità dei linguaggi, sulla complessità degli atti comunicativi e sulla pluralità dei
significati che possono assumere, sull’onda dei nuovi interessi diretti alla prospettiva
interpretativa della sociologia. Con l’avvento della tecnologia (che offre strumenti veloci
e accessibili per il trattamento quantitativo di grandi masse di dati anche testuali)
l’analisi del contenuto ha visto un ulteriore ampliamento dei propri obbiettivi nel corso
degli anni tanto da darne una nuova definizione (quella maggiormente condivisa dalla
comunità sociologica italiana): un insieme di tecniche di ricerca, spesso molto diverse
fra loro se non concorrenti e perfino contraddittorie.
In sintesi potremmo definire l’analisi del contenuto come una tecnica per la
scomposizione di qualunque tipo di messaggio in elementi costitutivi più semplici, di
cui è possibile calcolare la ricorrenza anche in vista di ulteriori elaborazioni. Il messaggio
che deve essere analizzato è chiamato unità comunicativa mentre gli elementi in cui
viene scomposto sono detti unità di classificazione. L’unità di classificazione può
consistere sia in una singola parola sia in testo intero, qualora sia breve come un titolo.
Seguendo la procedura sistematizzata durante la fase di disegno della ricerca, quindi,
scelto il livello di scomposizione e seguite tutte le regole logiche che valgono per qualsiasi
classificazione (esaustività, fundamentum divisionis ecc.), gli elementi individuati
vengono classificati in categorie e trasformati in variabili categoriali o ordinali che è
possibile sottoporre a trattamenti statistici di vario tipo.
Abbiamo già chiarito che parlando di analisi del contenuto e documenti ci muoviamo in
un campo piuttosto variegato e in continua evoluzione. La tecnologia, con gli strumenti
di trattamento automatico dei dati, apre quindi nuove prospettive di analisi. Importante
in questa riflessione è la teoria dell’analisi dinamica dei documenti formalizzata da
Prior (2008), la quale dice che in primo luogo i documenti non devono essere concepiti
solo come contenitori di un contenuto ma anche come oggetti e attori che ricoprono il
ruolo di strutturare un’interazione sociale (un facile esempio può essere il documento
di uno psicologo scolastico che categorizza un bambino come bisognoso di aiuti speciali,
influenzando l’intera carriera scolastica dell’individuo e i rapporti che i professori e i
compagni instaureranno con questo); in secondo luogo la studiosa parla di come si
possano concettualizzare i documenti come degli attori che si legano in network di azione
sociale.

• L’informazione statistica e la survey


Oltre all’osservazione semplice, alla simulazione e all’analisi dei documenti, tra le tecniche
non intrusive troviamo la lettura delle fonti statistiche ufficiali. Facendo riferimento alla
classificazione di Martinotti (1988), che si riferisce alla flessibilità di uso dei dati ai fini della
ricerca, possiamo disporre i dati statistici lungo un continuum alla cui origine avremo i dati
amministrativi (hard) che sono esaustivi, nel senso che rappresentano tutta la
popolazione di riferimento, e sono utilizzati a scopi puramente gestionali. Al centro del
continuum ci saranno invece i censimenti che sono a scopo sia gestionale che conoscitivo;
mentre alla fine del continuum si trovano le survey, le inchieste campionarie, che hanno
unicamente scopi conoscitivi e una maggiore portata di informazioni, soft, che le rende più
adatte agli obiettivi dei ricercatori sociali, queste rappresentano solo una parte della
popolazione di riferimento (il campione).
I dati amministrativi sono quelli presenti nei registri degli enti pubblici e degli enti privati
che erogano servizi alla comunità (Telecom, Camere di Commercio ecc.). I registri più
utilizzati nella ricerca sociale sono le anagrafi le quali registrano nominativamente gli
abitanti sia in qualità di singoli individui che in qualità di componenti di una famiglia. Le
anagrafi segnano anche i saldi positivi e negativi del paese: i nati, gli immigrati, i morti e gli
emigrati. Di ogni individuo si hanno le seguenti informazioni: nome, cognome, età, genere,
stato civile e composizione familiare. I registri delle anagrafi possono essere molto utili ai
fini di studi sulla natalità, la mortalità e la nuzialità ma anche per l’analisi dei bisogni della
popolazione. Se non fosse per i vincoli della privacy le anagrafi sarebbero una grande fonte
di riferimento anche per le liste di campionamento di cui si servono le survey. Gli archivi
di Stato sono gli altri grandi depositi che conservano la memoria storica e amministrativa
del nostro paese. 99 in totale, sono istituiti nei capoluoghi di provincia. Oltre alla funzione
di conservazione del patrimonio documentario, sono molto utilizzati in storia, in
antropologia e nelle scienze politiche. Oltre agli archivi di stato hanno assunto sempre
maggiore importanza nel mondo contemporaneo le banche dati, cioè quei sistemi di
organizzazione dei dati in forma matriciale, conosciuti nel mondo anglosassone come Social
Sciences Data Archives. Il primo di questi archivi nacque in Michigan nel 1947. Nel corso
degli anni diverse nazioni crearono questi archivi per il contenimento dei dati dato che
questo tipo di archivi offre modi di gestione e raccolta molto più semplici e immediati, oltre
a svolgere un’importante funzione per le tecniche di ricerca quantitativa.
Il ricorso ai dati amministrativi tuttavia rimane complicato non solo per la natura dei dati in
sé e per i loro scopi prettamente gestionali, ma per il loro accesso: infatti in Italia permane
ancora l’idea molto forte del dato come proprietà, bene, e non come possibile risorsa.

I censimenti come abbiamo detto sono sia a scopi gestionali che conoscitivi. Tra i principali
censimenti che rappresentano la raccolta pubblica di dati più onerosa e complessa troviamo:
Il censimento della popolazione e delle abitazioni; il censimento dell’agricoltura e il
censimento dell’industria e dei servizi. Grazie ai dati rilevati col censimento è possibile
fornire informazioni ad un elevato dettaglio territoriale sulle principali caratteristiche socio-
demografiche della popolazione e sul patrimonio abitativo. I dati censuari sono
fondamentali sia per le decisioni di governo che per le associazioni e le imprese. Il primo
censimento della popolazione e delle abitazioni in Italia è avvenuto nel 1861 e l’ultimo nel
2011, si svolgono con cadenza decennale. Una caratteristica negativa dei censimenti in Italia
consiste nella poca tempestività dei dati prodotti, i quali spesso vengono rilasciati dopo anni
e quindi non rispecchiano più la realtà contemporanea al momento del rilascio. Questo non
permette l’utilizzo dei censimenti ai fini di studi e indagini su fenomeni dinamici quali ad
esempio l’immigrazione. Tra altri censimenti importanti troviamo ancora quelli sulle
Istituzioni non-profit o sugli interventi e i servizi sociali dei Comuni singoli o sulla spesa
sostenuta dai Comuni per i servizi (le informazioni raccolte riguardano sette aree di utenza
dei servizi: famiglia e minori, disabili, dipendenze, anziani, immigrati, disagio adulti,
multiutenza)
Rientrano tra le tecniche non intrusive anche le Survey realizzate dagli enti pubblici. I dati
raccolti da queste inchieste godono di una sorta di non intrusività di secondo livello. Essendo
dati che si producono tramite l’interrogazione dovrebbe sorgere il dubbio di come sia
possibile far rientrare questa categoria tra le tecniche non intrusive. In realtà non è la tecnica
dell’indagine campionaria a non essere intrusiva, bensì la lettura dei dati che produce. Infatti
un ricercatore, dinanzi a dati provenienti da fonti statistiche ufficiali come l’Istat o
l’Eurostat, non ha effettivamente alcuna possibilità di influenzare il materiale che va
raccogliendo.
L’Istat è la fonte statistica ufficiale di Italia. Essa conduce una serie di indagini con
l’obbiettivo di fornire un quadro il più possibile completo, della situazione sociale e delle
condizioni di vita del Paese. Uno dei principali studi è il Sistema delle indagini Multiscopo
che si articola su sette indagini ricoprendo i più importanti temi di rilevanza sociale: Aspetti
della vita quotidiana (cadenza annuale), Turismo (cadenza trimestrale) e cinque indagini
tematiche che vengono effettuate con rotazione ogni cinque anni (Condizioni di salute e
ricorso ai servizi sanitari; I cittadini e il tempo libero; Sicurezza dei cittadini; Famiglie e
soggetti sociali; Uso del tempo). All’indagine multiscopo si aggiungono altre survey dai
temi molto rilevanti quali: le forze di lavoro (da tale indagine derivano le stime ufficiali di
occupati e disoccupati), la povertà (redditi e consumi delle famiglie, indici di povertà
assoluta e bilanci) e l’istruzione (condotta ogni 3 anni, si compone di 2 rilevazioni: i percorsi
di studio e di lavoro dei diplomati e l’inserimento professionale. Dopo un certo lasso di
tempo è possibile condurre ulteriori indagini sugli esiti occupazionali) promosse sia
dall’Eurostat (Eu-silc: quella sui redditi e le condizioni di vita delle famiglie) che dall’Istat.
A livello internazionale vanno infine menzionati gli Eurobarometri, sondaggi di opinione
condotti dal 1973 per studiare l’evoluzione delle opinioni nel tempo, coordinati dall’Eurostat
ma condotti da agenzie private. Spaziano su vari temi dall’integrazione europea ad
argomenti di natura più sociale. Uno dei difetti di questi studi decisamente originali è che la
piena comparabilità dei dati non è sempre raggiunta poiché la versione originale dei
questionari viene stilata in lingua inglese e successivamente tradotto nelle altre lingue: in
questo modo i concetti tradotti perdono parte del loro valore semantico.
Prima di concludere questo paragrafo sulle survey è importante sottolineare l’elemento
principale che le differenzia dalle altre inchieste campionarie, cioè l’avere come unità di
analisi il territorio e non l’individuo. Il dato prodotto da questo tipo di indagini su scala
nazionale o internazionale è un dato aggregato. Il dato aggregato deriva da un’operazione
di conteggio effettuata sugli individui di un collettivo e che porta ad un totale. L’unità di
rilevamento e l’unità di raccolta non coincidono: l’unità di rilevamento (l’individuo) si trova
ad un livello inferiore rispetto l’unità di raccolta (territorio).
Le survey sono fondamentali per analisi comparativi di fenomeni sia tra ripartizioni
territoriali di un singolo paese sia tra intere nazioni che tra archi temporali diversi.
Tecniche intrusive

Il metodo più intrusivo di fare ricerca è l’interrogazione, infatti per ottenere le informazioni
necessarie al suo lavoro il ricercatore entra in contatto diretto con le persone oggetto di
studio intrudendo la loro quotidianità.

• Inchiesta Campionaria o Survey (approccio standard)


L’inchiesta campionaria o survey corrisponde a una tecnica di tipo quantitativo che si
prefigge lo scopo di costruire delle variabili per risalire, attraverso l’analisi delle loro
relazioni, a possibili generalizzazioni. Si distingue per questo motivo sia dall’intervista
(qualitativa), il cui scopo è quello di comprendere motivazioni dell’agire e interpretazioni
della realtà degli individui, sia dal sondaggio di opinione, il cui scopo è invece esplorare e
descrivere un determinato fenomeno attraverso l’opinione pubblica. La prima forma di
inchiesta campionaria si può far risalire a Marx e ai 25.000 questionari che spedì ai lettori
della Rivista socialista nel 1880. È però a partire dagli anni ’30 negli Stati uniti che si
afferma, conosce e formalizza, l’indagine campionaria. Ai giorni nostri è una delle pratiche
più diffuse, anche grazie l’avvento della tecnologia che ha ulteriormente favorito
l’affermazione di questa tecnica, soprattutto per le ricerche di marketing o per quelle in
campo elettorale (l’Italia è nota anche come Repubblica dei sondaggi).
Possiamo dunque dare una definizione dell’inchiesta come: un modo di rilevare le
informazioni a) interrogando, b) gli stessi individui oggetto della ricerca (l’unita
di raccolta è sempre l’individuo), c) appartenenti ad un campione rappresentativo
d) mediante una struttura standardizzata di interrogazione (questionario o scale
di atteggiamento) e) allo scopo di studiare le relazioni esistenti tra le variabili f)
per giungere a delle generalizzazioni.

Il questionario
Il questionario corrisponde ad una procedura standardizzata di interrogazione, la cui
costruzione dipende strettamente dall’operativizzazione dei concetti rilevanti. Esso consiste
in un elenco di domande prestabilite e preimpostate con rispettive opzioni di risposta
prestabilite e preimpostate.
La formulazione delle domande deve essere fatta in modo da garantire l’invarianza dello
stimolo, per minimizzare o annullare eventuali differenze di interpretazione tra gli
intervistati ed eventuali effetti di condizionamento dovuti all’interazione tra intervistatore e
intervistato. L’invarianza dello stimolo non può mai essere perseguita totalmente poiché
come ben sappiamo essendo l’individuo un essere mutevole, la sua opinione e
interpretazione della realtà può cambiare da un momento all’altro. Un’altra condizione
importante per la formulazione di un questionario è sicuramente l’affidabilità del
comportamento verbale: il ricercatore deve essere sicuro che la domanda venga
interpretata dall’intervistato come lui la intende e che la risposta non si discosti
consapevolmente o meno dal vero stato della proprietà da rilevare. È importante infatti che
la domanda sia articolata con un linguaggio semplice e comprensibile e non fraintendibile;
è assolutamente necessario evitare l’utilizzo di slang, espressioni gergali, doppie negazioni
(l’intervistato potrebbe rispondere esattamente il contrario della risposta che sarebbe stata
data se il quesito fosse stato formulato in positivo), infine sono da escludere termini
discriminatori o con un’accezione negativa (poiché possono influenzare l’opinione
dell’intervistato).
Ora le domande possono essere di vari tipi, abbiamo:
• Domande socio-anagrafiche; raccolgono tutte quelle informazioni che
vengono raccolte in ogni tipo di ricerca indipendentemente dal tema, quindi
età, genere, professione, titolo di studio ecc. Nel caso in cui l’unità di analisi
fosse un’organizzazione o un’istituzione le informazioni saranno: data di
costituzione dell’organizzazione, luogo in cui ha sede quest’ultima ecc.
• Domande chiuse: sono le più frequenti e presentano delle alternative di
risposta prestabilite per cui l’intervistato dovrà semplicemente barrare la
casella che corrisponde allo stato che lo rappresenta. Il vantaggio delle
domande chiuse per il ricercatore consiste nel fatto che l’analisi comparativa
fra gli stati assunti dai casi della ricerca risulta essere più facile anche perché
ogni opzione di risposta può essere rappresentata con un segno alfanumerico.
• Domande aperte o semi aperte: non hanno delle risposte predefinite,
l’intervistato può elaborare liberamente la risposta. Si ricorre a questo tipo di
domande quando non è possibile o non si vuole classificare a monte una serie
di risposte predefinite, quando non si conoscono tutte le possibili alternative
e/o si vogliono cogliere delle sfumature soggettive. Le domande semi-aperte
sono quelle che tra le modalità di risposta presentano una voce come “altro”
chiedendo all’intervistato di specificare oppure “motiva la tua risposta”.
Ci sono varie condizioni, oltre alla comprensibilità della domanda, che possono causare
risposte incoerenti o false.
L’acquiescenza è un comportamento remissivo che a volte l’intervistato può assumere per
stanchezza o disinteresse e consiste nel rispondere sempre in maniera positiva alle
affermazioni che gli vengono sottoposte o nel rispondere in modo incoerente. Un esempio
dell’ultimo caso è quando l’intervistato si trova a rispondere ad una serie di affermazioni
inserite in una batteria di domande. La batteria di domande è una tabella con un elenco di
vari interrogativi o affermazioni che richiedono tutti quanti le stesse modalità di risposta (es.
vero/falso). L’intervistato tende a rispondere in maniera meccanica senza prestare
attenzione al significato della domanda.
L’effetto memoria: l’intervistato può perdere l’attenzione e perdersi qualche passaggio del
quesito; questo succede ad esempio quando i quesiti o le modalità di risposta sono troppo
estesi, soprattutto se è lo stesso intervistatore a formularli oralmente e non l’intervistato a
leggerli. Importante quindi, per non far perdere l’interesse o l’attenzione, è mantenere la
conversazione/l’intervista stimolante sollecitando ad esempio un ricordo oppure fornendo
una copia del questionario all’intervistato nel caso in cui l’interrogazione avvenga oralmente.
La desiderabilità sociale è una delle condizioni più diffuse che genera una serie di risposte
non veritiere da parte dell’intervistato. Si tratta di un atteggiamento che assume
quest’ultimo quando risponde in base alla cultura dominante o ai valori socialmente
condivisi. Questo avviene principalmente perché l’intervistato riconosce l’intervistatore
come un giudice; è compito quindi di un buon intervistatore mettere a proprio agio
l’individuo che ha di fronte per ottenere risposte sincere.
All’atteggiamento della desiderabilità sociale si ricollega poi la questione delle tematiche
sensibili che rispecchiano uno tra i principali problemi legati all’interrogazione in una
ricerca standard. Si tratta di argomenti “delicati” su cui gli attori sociali spesso non si
sbilanciano o non vogliono esprimersi (reddito, abitudini e/o preferenze sessuali, consumo
di alcol e droga ecc.).
Il questionario solitamente, prima di essere somministrato al campione per la rilevazione
dei dati necessari ai fini della ricerca, viene sottoposto ad un pre-test per cui verrà
somministrato ad un sotto-campione con lo scopo di comprendere se si presta
adeguatamente come strumento di rilevazione del fenomeno studiato e se presenta errori o
parti da perfezionare.
Esistono vari modi per somministrare un questionario. Possiamo fare una prima
classificazione in base al ricorso o meno delle tecnologie. Paper and pencil (P&P)
corrisponde all’insieme delle tecniche carta e penna, quindi senza l’uso di strumenti
tecnologici: auto-somministrazione o somministrazione guidata. The Computer assisted
surveyin information collection (C.A.S.I.C.) comprende invece quelle tecniche con
supporto informatico. Vediamo nel dettaglio:
• Somministrazione face to face: è una delle modalità più utilizzate nella
social survey. Può avvenire in home (ambiente familiare, in questo caso va
contattato preventivamente l’intervistato per fissare un appuntamento) o in
hall (posto pubblico). La modalità in home è più vantaggiosa in quanto
l’intervistato trovandosi in un ambiente familiare ha più tempo ed è più
disponibile per dedicarsi al questionario; si usa questa modalità soprattutto
per questionari dai temi sensibili o complessi che richiedono riflessione. La
modalità in hall invece presenta più svantaggi poiché deve essere di breve
durata considerando la fretta e gli impegni che l’intervistato può avere. Di
solito il luogo pubblico viene scelto quando ci sono limiti economici e
temporali da rispettare. In generale il confronto face to face è uno dei preferiti
poiché permette al ricercatore di entrare in contatto visivo con l’intervistato e
apprendere informazioni in più.
• C.A.P.I.: corrisponde alla somministrazione face to face con la differenza che
le risposte vanno direttamente inserite nella matrice dei dati tramite l’uso di
un apparecchio tecnologico. Il vantaggio è la riduzione dei tempi di ricerca.
• Somministrazione telefonica o C.A.T.I.: la somministrazione del
questionario avviene per via telefonica e l’intervistatore nel primo caso riporta
le risposte sul cartaceo, nel secondo caso su un apparecchio digitale. I vantaggi
sono vari: i costi sono limitati, è possibile raggiungere persone anche a grandi
distanze, l’anonimato è garantito e le persone possono essere più disponibili
nel rispondere sinceramente anche su tematiche sensibili non trovandosi
faccia a faccia con l’intervistatore. Anche gli svantaggi tuttavia sono molteplici:
non condividendo lo stesso spazio, l’intervistatore non può cogliere una serie
di indizi che possono aumentare la conoscenza sull’individuo intervistato
(espressioni facciali, gestualità, ambiente); inoltre l’intervistatore non può
servirsi di strumenti che possono facilitare la comprensione degli argomenti
trattati (disegni, tabelle, altro materiale). Inoltre la somministrazione deve
essere breve e coincisa, non ci si può dilungare troppo e non si possono trattare
argomenti complessi o sconosciuti all’intervistato. Infine la somministrazione
telefonica risulta inefficiente dal momento in cui gli attori sociali possono non
rispondere al telefono o non possedere proprio un telefono fisso.
• Auto-somministrazione: in questo caso il questionario viene compilato
direttamente dall’intervistato. Esistono due casi principali di auto-
compilazione: la rilevazione di gruppo (l’operatore distribuisce i questionari e
li ritira alla fine della compilazione) e la rilevazione individuale. Quest’ultima
può essere con restituzione vincolata (in questo caso l’operatore ritirerà il
questionario personalmente in un secondo momento, così avveniva per il
vecchio censimento ISTAT). I vantaggi, soprattutto nella versione tecnologica,
sono i costi contenuti e la possibilità di raggiungere un grande numero di
individui. Gli svantaggi sono molteplici: prima di tutto essendo un’auto-
somministrazione il questionario potrebbe non essere compilato e restituito,
questo determina l’errore di non-risposta che non permette di generalizzare i
risultati. In secondo luogo, data l’assenza dell’intervistatore alcune domande,
non essendo chiare o comprensibili per l’attore sociale, vengono lasciate
incomplete o con una risposta non corrispondente allo stato effettivo
dell’intervistato.
• C.A.S.I. (Computer assisted self-administrated interviewing): la
somministrazione del questionario avviene attraverso il computer. Ne esistono
molte varianti, di cui la più emergente è l’E.M.S. (Email Survey). Quest’ultima
corrisponde alla versione più evoluta dei questionari postali ed è la prima
tecnica che utilizza il Web come strumento di rilevazione dei dati. Le indagini
condotte tramite l’ausilio di internet sono dette Web Based Survey (W.B.S.) e
la procedura che per rilevare i dati prende il nome di Computer assisted web
interviewing (CAWI) o questionario online. Viene utilizzato un sito per
ospitare il questionario e le risposte sono inviate in tempo reale. I principali
svantaggi riguardano il rapporto che l’intervistato ha con la tecnologia, infatti
ancora una larga fascia di popolazione rimane esclusa dall’accesso alle
tecnologie digitali, inoltre è necessario avere a disposizione un computer e una
connessione ad Internet nonché competenze informatiche per compilare
questo tipo di questionari. Un altro problema che si può verificare è che i
soggetti che accedono al questionario non rispecchino le caratteristiche
richieste (in questo caso per gestire la partecipazione si fa ricorso ad una
registrazione online che richieda username e password, ma resta comunque
poco affidabile poiché l’intervistatore non può controllare chi ci sia
effettivamente dietro al computer o smartphone).
Per individuare la modalità di rilevazione più adeguata sicuramente il primo passo è operare
una valutazione dei costi-opportunità e decidere in base agli obbiettivi e alle risorse in
campo. Un elemento che non può essere trascurato è l’elemento tempo in relazione ai costi:
se il ricercatore ad esempio ha tempi ristretti e costi limitati sicuramente tenderà più
facilmente a realizzare delle interviste telefonicamente o auto amministrate piuttosto che
face to face. Un altro elemento fondamentale da considerare è la popolazione di riferimento:
se la popolazione di riferimento comprende anziani o individui provenienti da contesti
sociali disagiati sicuramente è preferibile un contatto diretto con interviste face to face.
Importante infine sarà dunque l’esperienza del ricercatore: un occhio più esperto saprà
infatti individuare le difficoltà e i rischi che prevedono determinate modalità rispetto ad
altre.
Il campionamento
Definiamo la popolazione di una ricerca: l’insieme dei casi che costituiscono l’oggetto
di indagine e che hanno in comune una caratteristica osservabile quindi l’insieme degli
esemplari dell’unità scelta esistenti entro l’ambito di una ricerca. La popolazione
di riferimento dipende totalmente dagli interrogativi di ricerca che sono alla base
dell’indagine. Definire una popolazione significa individuare le caratteristiche interessanti
per la ricerca, delimitando il campo di azione della ricerca stessa. Distinguiamo innanzitutto
tra popolazione teorica e popolazione accessibile. La popolazione teorica comprende tutte
le unità che costituiscono la popolazione oggetto di indagine mentre la popolazione
accessibile è costituita da tutte le unità appartenenti alla popolazione teorica potenzialmente
raggiungibili e viene convenzionalmente indicata con il simbolo N. Quando la popolazione
teorica è accessibile significa che le due popolazioni coincidono: è il caso del censimento,
l’indagine è detta esaustiva. Ogni qualvolta la popolazione di riferimento non è raggiungibile
nella sua totalità (quasi sempre) è necessario individuare un sottoinsieme (campione), è
compito degli scienziati sociali quindi quello di stabilire una procedura di selezione dei casi
(campionamento). Il campione è dunque un sottoinsieme rappresentativo della
popolazione di riferimento; il campionamento è la procedura attraverso la quale da una
popolazione si estrae un numero finito di casi (campione) scelti con criteri tali da consentire
la generalizzazione (inferenza) dei risultati ottenuti. Il disegno di campionamento è
l’insieme dei criteri scelti dal ricercatore per formare un campione: la lista delle unità
appartenenti alla popolazione, la probabilità di selezione, la numerosità campionaria, il
metodo di selezione.
Le procedure probabilistiche di campionamento fanno riferimento alla teoria del
campionamento statistico: a partire dai risultati che si ottengono su un campione è
possibile effettuare una stima delle caratteristiche della popolazione totale. Queste
caratteristiche sono dette parametri. Una stima è un valore approssimato calcolato su un
campione estratto dall’insieme dei casi; un parametro è il valore esatto di una statistica
calcolato sul totale dei casi. Se la rilevazione è esaustiva (censimento) ovviamente i valori
coincidono. Se l’indagine è campionaria i due valori coincidono con una certa probabilità.
È possibile calcolare un grado di bontà della stima, un livello di affidabilità detto intervallo
di fiducia o di confidenza (campo di varianza): se è minimo significa che il valore
individuato dal campione è piuttosto vicino al valore vero della popolazione (la stima sarà
quindi più precisa). L’operazione che consente di fare questa misura si chiama livello di
fiducia. La differenza tra la stima del parametro e il valore vero assunto nella popolazione
dipende principalmente dall’errore di campionamento. Poiché la reale caratteristica della
popolazione è ignota, l’errore di campionamento non può mai essere definito con esattezza.
L’ampiezza del campione è inversamente proporzionale agli errori di rilevazione, quindi
più il campione sarà ampio, più il margine di errore sarà minimo e le stime precise ed
attendibili.
La variabilità di un fenomeno corrisponde al grado di variazioni che presenta una
caratteristica all’interno di una popolazione: se una popolazione è costituita da casi che
presentano quasi tutti lo stesso parametro la variabilità è bassa; al contrario se i casi
differiscono di parametri in grande quantità la variabilità sarà alta.
Ora l’obbiettivo dell’inchiesta campionaria è quello di stimare alcuni parametri della
popolazione sulla base del valore che tali parametri assumono nel campione (è questo che si
intende quando si dice che la survey tende alla generalizzazione dei risultati).
Per stabilire se un campione è rappresentativo è necessario riferirsi a due fattori:
• Casualità: un campione è rappresentativo quando viene estratto
casualmente dalla popolazione di riferimento costituendo un’immagine in
piccolo di quest’ultima. Ovviamente è necessario conoscere la distribuzione
delle unità che ci interessano nella popolazione di riferimento e su questo sono
di grande aiuto le fonti statistiche ufficiali come l’Istat.
• Rappresentatività: fa riferimento alla possibilità del campione di
rappresentare la popolazione, dunque all’esito della procedura. Anche se i casi
vengono selezionati secondo le leggi probabilistiche c’è la possibilità che alcuni
risultino irreperibili o si rifiutino, perciò la rappresentatività non è garantita
ma deve essere sempre e comunque testata sulla popolazione in riferimento
alle proprietà che si stanno studiando. Questo determina che la
rappresentatività sia una proprietà non del campione ma del disegno di
campionamento.

Il campionamento si distingue in due grandi famiglie: il campionamento probabilistico


(1) e il campionamento non probabilistico (2).

1. Un campionamento si dice probabilistico quando, per ciascun caso appartenente alla


popolazione di riferimento, la probabilità di essere estratto è nota e diversa da zero.
Dalla lista completa della popolazione si estraggono casualmente i casi del campione
tramite la tavola dei numeri casuali o uno specifico software.
• Campionamento casuale semplice: se con n indichiamo la dimensione
del campione, con N la dimensione della popolazione, in questo tipo di
campionamento la probabilità che ogni individuo ha di essere scelto è 1/N.
L’estrazione avviene o tramite sorteggio o con la tavola dei numeri casuali o
con un software che produce numeri casuali e può essere a ripetizione o senza
ripetizione. A ripetizione se un’unità dopo essere stata estratta viene reinserita
nella totalità; senza ripetizione se un’unità dopo essere stata estratta non viene
reinserita nella totalità.
• Campionamento sistematico: è una variante del precedente. L’estrazione
avviene ad intervalli regolari in base ad una regola prefissata: ogni K viene
estratto un caso. K corrisponde al rapporto tra N e n, quindi alla totalità della
popolazione fratto il numero dei casi che vogliamo selezionare. In questo modo
si assicura che tutti i casi del campione siano distribuiti uniformemente
all’interno della popolazione.
• Campionamento stratificato random: la popolazione di riferimento
viene suddivisa in un primo momento in strati in base a delle caratteristiche
ritenute rilevanti per la ricerca; in un secondo momento viene scelto un
campione da ogni strato tramite il metodo della randomizzazione semplice o
sistematica. Il campionamento stratificato si utilizza quando si intende
studiare un carattere specifico e determinante della popolazione. Questo
metodo si suddivide a sua volta in due tipi: proporzionale, si riproduce nel
campione la stessa composizione degli strati della popolazione (Es. dividiamo
l’Italia in tre strati Nord, Centro, Sud; consideriamo la percentuale di giovani
in ogni strato, rispettivamente 40%, 10%, 50%; se dovessimo estrarre un
campione di 1000 giovani totali allora ne prenderemo 400 dal Nord, 100 dal
Centro e 500 dal Sud); e non proporzionale, si usa quando si vogliono sovra-
rappresentare gli strati meno numerosi della popolazione (Es. in un’aula
universitaria ci sono 100 alunni di cui il 90% donne, le probabilità di estrarre
un uomo sono molto basse dunque si ricorre a questa modalità di
campionamento stratificato).
I vantaggi di questo campionamento sono la garanzia di rappresentatività nel
momento in cui la popolazione di riferimento è molto estesa e una variabilità
minore da parte dei sottogruppi che sono più omogenei tra loro. Lo svantaggio
è che lo stato di tutte le unità deve essere noto prima della selezione del
campione.
• Campionamento a grappoli: spesso le popolazioni di riferimento della
ricerca sociale sono suddivise naturalmente o artificialmente in sottogruppi di
vario genere. In generale quando non è possibile accedere alla lista completa
della popolazione di riferimento si può disporre delle liste di alcuni gruppi in
cui la popolazione e suddivisa. Questi sottogruppi sono detti grappoli. La
procedura consisterà dunque nello stabilire in un primo momento il numero
di grappoli da considerare e in un secondo momento nel selezionare tramite
uno schema di campionamento probabilistico un campione da ogni grappolo
per formare il campione finale. Erroneamente si potrebbe pensare che strato
e grappolo siano la stessa cosa. In realtà intercorrono varie differenze tra i due
gruppi: non tutti i grappoli saranno estratti quindi mentre gli strati devono
essere omogenei fra loro rispetto ad una caratteristica considerata (per evitare
una perdita di informazioni), i grappoli al contrario devono essere il più
possibile eterogenei tra loro. Il vantaggio principale di questo titpo di
campionamento è che non è necessaria la lista completa della popolazione
poiché basta servirsi della lista dei grappoli.
• Campionamento a stadi: la popolazione viene suddivisa in gruppi
gerarchicamente ordinati, detti stadi (Es. provincia-scuola-classe). Dagli stadi
i casi vengono estratti a imbuto. Quindi c’è prima un’estrazione casuale degli
stadi di primo grado (provincia) poi di secondo (scuola) e così via. Se le unità
di stadio sono due il campionamento sarà a due stati; se le unità di stadio sono
più di due il campionamento è detto a più stadi.
• Campionamento ad aree: è come un campionamento a stadi, lo stadio è
rappresentato da un’area geografica. La sequenza sarà: macroaree-regioni-
province-comuni-quartieri-individui. Se si intende procedere con un
campionamento ad aree ogni provincia dovrà essere suddivisa in tre aree
(comune capoluogo, comuni entro 30km dal capoluogo, altri comuni); si
ottengono così circa 300 aree territoriali. Entro ciascuna di queste aree si
campiona un numero di territori comunali dai quali è possibile poi campionare
le sezioni censuarie dell’Istat per selezionare numeri civici delle abitazioni,
piani delle abitazioni famiglie e infine individui.
2. Un campionamento si dice non probabilistico quando per ciascun caso, appartenente
alla popolazione di riferimento, la probabilità di essere incluso nel campione non è
nota. I criteri alla base di questa procedura sono di comodo e di praticità, gli elementi
da campionare sono più facilmente accessibili e questo riduce notevolmente i costi e
i tempi; tuttavia questo tipo di campionamento è soggetto a così tanti errori che le
informazioni che si rilevano sono spesso poco affidabili. Inoltre il fatto che non si
utilizzi una procedura di tipo probabilistica non permette la generalizzazione dei
risultati. Abbiamo un campionamento non probabilistico di tipo mirato quando i
casi vengono selezionati sulla base di alcune caratteristiche che si ritengono utili ai
fini della ricerca; analogica se il campione è analogo alla popolazione ma solo su
alcune dimensioni.
• Campionamento accidentale (mirato): all’estremo opposto del
campionamento casuale semplice, il ricercatore sceglie a caso le prime persone
che incontra senza alcun criterio predefinito. È possibile anche che i casi si
offrano volontariamente di partecipare all’indagine (campione auto-
selezionato). Il grado di accuratezza del campione risulterà molto ridotto, i
vantaggi invece riguarderanno i tempi e i costi. Questa procedura è molto utile
nella fase esplorativa cioè quando non si conosce a priori l’entità del fenomeno
oggetto di studio.
• Campionamento a scelta ragionata (mirato): in questo caso la selezione
avviene sulla base dei criteri soggettivi del ricercatore che individui gli attori
sociali che ritiene personalmente possano essere maggiormente connessi al
fenomeno oggetto di studio. Questa procedura viene utilizzata soprattutto
quando un fenomeno interessa un’ampia fascia di popolazione ma si concentra
in alcune aree. Un’altra modalità della procedura consiste nella selezione
mirata di “esperti”, figure che ricoprono un ruolo specifico e rilevante nella
comunità (opinion leader) o che pur non ricoprendo un ruolo importante,
possono detenere informazioni utili (testimoni privilegiati).
• Campionamento a valanga (mirato): viene generalmente utilizzato
quando la popolazione di riferimento è raramente contattabile o è una
minoranza (ex tossicodipendenti, immigrati clandestini, minoranze etniche
all’interno di un territorio). Si identifica e si interroga un primo gruppo di
persone, poi viene chiesto loro di indicare altri soggetti con simili
caratteristiche e così via. I rischi sono principalmente l’omogeneità del
campione (dato che gli individui indicheranno sempre soggetti appartenenti
alla loro rete e probabilmente simili in termini di opinioni) e il fatto che ci si
affida molto alle indicazioni dell’intervistato, il quale volendo potrebbe
portarti a sbagliare strada ripetutamente.
• Campionamento per quote (analogico): un po’ come per il
campionamento stratificato, la popolazione viene in un primo momento
suddivisa in strati in base ad una determinata proprietà (variabile, Es. età,
genere, professione ecc); successivamente si definiscono le quote di ogni
strato. L’estrazione da ciascuno strato avviene sempre a discrezione
dell’intervistatore. Si può campionare a quota fissa oppure in proporzione alla
totalità della popolazione.
Proprietà Campioni probabilistici Campioni non probabilistici
Semplicità No Si
Rapidità No Si
Economicità No Si
Rappresentatività Si No
Inferenza Si No

Tecniche di scaling
Lo Scaling è uno strumento e un procedimento per la misurazione dell’atteggiamento.
L’atteggiamento è una predisposizione ad agire <<sulla base di tendenze e sentimenti,
pregiudizi e nozioni preconcette verso un determinato oggetto>> (Thunderstone, 1928).
L’atteggiamento è uno stato interiore che emerge attraverso i comportamenti e le espressioni
verbali che, a loro volta, divengono le manifestazioni empiricamente rilevabili
dell’atteggiamento. Lo studio degli atteggiamenti rappresenta un tema particolarmente
rilevante nell’ambito della ricerca quantitativa e nel dibattito sulla misurazione. L’interesse
delle scienze sociali per gli atteggiamenti si è concretizzato agli inizi del secolo scorso quando
si fece strada l’idea che anche proprietà meramente psichiche potessero essere rilevate e
misurate. La procedura alla base di tutte le tecniche di Scaling assume che sottoponendo un
soggetto a una serie di affermazioni (legati all’atteggiamento che si vuole studiare) e
chiedendogli di esprimere la sua opinione, è possibile attraverso un punteggio stimare la
posizione del soggetto su un continuum, cioè sull’atteggiamento studiato. L’atteggiamento
può essere concepito dunque come un continuum che varia per incrementi infinitesimali sui
quali il soggetto assume una specifica posizione. Tale posizione si identifica in direzione (a
favore o a sfavore di qualcosa) e grado (intensità di favore o sfavore). L’atteggiamento viene
quindi operativizzato, ossia scomposto nelle sue dimensioni; successivamente per ciascuna
dimensione vengono individuati gli indicatori che attraverso la definizione operativa si
trasformano in variabile; ogni variabile costituisce uno stato dell’atteggiamento. Studiando
l’atteggiamento, risulta chiaro che nelle tecniche di Scaling l’unità di analisi sarà sempre il
singolo individuo.
Ora, se si assume che per rilevare un atteggiamento è sufficiente riferirsi ad una sola
dimensione di esso, si parla di Scaling unidimensionale. La gran parte delle tecniche di
Scaling sono unidimensionali. Al contrario, se si assume che per un atteggiamento c’è
bisogno di considerare più dimensioni (che in alcuni casi possono essere ipotizzate a priori,
in altri casi possono emergere dalla stessa elaborazione dei dati), si parla di Scaling
multidimensionale. Il soggetto viene quindi invitato ad esprimere la propria opinione su
più concetti/oggetti cognitivi e, attraverso specifiche tecniche di analisi statistica
multidimensionale, viene appurato il legame tra tutte le dimensioni indagate. Facciamo un
esempio: tra il 1944 e il 1949 un trio di studiosi condusse un’indagine sulla <<Personalità
autoritaria>> ipotizzando che l’atteggiamento antidemocratico fosse correlato a tre
dimensioni latenti, l’etnocentrismo, il conservatorismo politico-economico e
l’antisemitismo. Vennero prima analizzate (attraverso le tecniche unidimensionali) le tre
dimensioni singolarmente per poi controllare successivamente la corrispondenza tra queste
tre dimensioni e l’atteggiamento antidemocratico attraverso una scala unidimensionale. Se
gli autori avessero voluto adottare una tecnica multidimensionale avrebbero dovuto
interrogare i soggetti simultaneamente sul loro grado di etnocentrismo, conservatorismo e
antisemitismo per poi applicare tecniche di analisi statistica multidimensionale.
È possibile distinguere due grandi famiglie di Scaling:
• Quelle che generano variabili categoriali ordinate; in questo caso si
presuppone che la proprietà (ossia l’atteggiamento in riferimento ad una
determinata cosa) sia continua e che i suoi stati siano discreti e ordinabili. La
distanza tra gli stati (categorie) non è quantificabile, le relative modalità di
risposta vengono ordinate gradualmente e l’unica operazione possibile è
stabilire se uno stato è maggiore o minore rispetto ad un altro. Le modalità di
risposta risulteranno essere quindi: molto, abbastanza, poco, per nulla oppure
alto, medio, basso e così via. Di questa famiglia fanno parte: la scala di distanza
sociale di Bogardus, la scala Thurstone, la scala Lickert, la scala Guttman e le
scale grafiche.
• Quelle che generano variabili quasi cardinali; in questo caso l’unità di
misura non viene stabilita dal ricercatore ma dall’intervistato che si
autocolloca sull’ipotetico continuum autovalutando il proprio stato sulla
proprietà indagata. L’autovalutazione viene espressa mediante un processo di
rappresentazione numerica (da 1 a 5, da 1 a 10 ecc.). Queste scale prendono il
nome di scale autoancoranti. Sono preferibili rispetto alla prima famiglia
poiché hanno la capacità di rappresentare in modo più fedele la complessità
del concetto indagato offrendo un range di risposte più ampio. A questa
famiglia appartengono: la scala Cantril, il termometro dei sentimenti, la scala
di autocollocazione su un segmento graduato e le scale autografiche.

La scala di distanza sociale di Borgadus


Il concetto di distanza sociale viene introdotto all’inizio del XX secolo dal sociologo Simmel
ne l’Excursus sullo Straniero (1908). Simmel definisce la distanza sociale come una
risultante algebrica di tendenze opposte- unione e allontanamento- che si generano
dall’interazione tra due soggetti. Borgadus nel 1926 in collaborazione con un allievo di
Simmel pubblica un articolo in cui individua le quattro dimensioni della distanza sociale: la
dimensione normativa, la dimensione interattiva, la dimensione culturale (grado di affinità
dei valori di entrambi le parti che interagiscono) e la dimensione personale (grado di
comprensione/empatia/sensibilità tra i due individui che interagiscono). Su queste basi
viene messo a punto il primo strumento di misurazione della distanza sociale da Borgadus
nel 1928 in uno studio sugli atteggiamenti degli statunitensi in merito alle questioni razziali.
La scala di distanza sociale rientra nella famiglia delle scale relazionali (impegnate negli
studi di stratificazione sociale). L’assunto di base è che i membri di un gruppo intrattengono
rapporti di vario genere (affettivi, lavorativi ecc.) con soggetti che occupano la loro stessa
posizione sociale. La stratificazione sociale può essere studiata anche attraverso le scale
reputazionali che consistono nel chiedere ai soggetti in quale posizione collocherebbero
determinate occupazioni in un continuum, ordinamento.
La scala di Borgadus assume che le relazioni che si istituiscono fra i membri di una società
possono essere collocate lungo un continuum che va dall’unione al rifiuto, passando per
l’indifferenza e l’ostilità. La scala misura il modo e l’intensità con cui le persone accettano o
meno relazioni sociali in determinate situazioni. La procedura si fonda su 7 item,
affermazioni o domande, che vengono poste in un ordine gerarchico nella sezione riga di una
tabella; nella sezione colonna sono riportati i gruppi sociali (secondo etnia o religione). Gli
item sono organizzati in modo crescente o decrescente per grado di distanza sociale. Le
caratteristiche principali di questa scala sono la riproducibilità (a partire dal punteggio
totale si possono individuare le affermazioni a cui il soggetto ha risposto positivamente); e
la cumulatività, per cui ciascuna categoria rappresenta un gradino di scala a difficoltà
crescente (se non si accetta un presupposto di grado maggiore non si potranno accettare
sicuramente tutti i presupposti al di sotto di esso. Es. se non accetto la presenza di un’etnia
musulmana all’interno del mio paese sicuramente non accetterò la presenza di un
musulmano all’interno della mia cerchia di amici).

Scala di Thurstone
La scala di Thurstone (fine anni ‘20) si basa su due assunti: al pari delle proprietà fisiche, gli
atteggiamenti possono essere collocati su un continuum in cui occupano posizioni che vanno
dal minimo al massimo favore; un individuo che ordina stimoli fisici, sulla base dell’intensità
della percezione, è anche in grado di ordinare affermazioni sulla base del favore/sfavore che
ha nei confronti di oggetti/eventi. Dunque è legittimo rilevare le proprietà psichiche con gli
stessi strumenti usati per rilevare proprietà fisiche. Il presupposto di base è: quanto minore
è la differenza tra due oggetti tanto minore è il numero di individui in grado di distinguere
la differenza.
L’atteggiamento viene rappresentato come un continuum diviso in 10 intervalli uguali. Si
selezionano circa 150 item che si ritiene essere indicatori dell’atteggiamento. Le
affermazioni vengono sottoposte in modo casuale a 100 soggetti, i giudici; il compito di
ciascun giudice consiste nel posizionare le 150 affermazioni lungo il continuum secondo le
11 categorie (i picchetti che dividono il continuum in 10 parti uguali) che vanno da un
minimo di favore ad un massimo di sfavore. Gli item selezionati saranno quelli che
presentano una minore variabilità, quindi le affermazioni che hanno ottenuto il maggiore
accordo sulla relativa posizione a cui sono state associate. Successivamente a ciascun item
viene assegnato un codice numerico che va da 1 a 11 a seconda della posizione che assume
nell’ordinamento.
La scala di Thurstone per quanto rappresenti un punto di svolta nelle tecniche di rilevazione
degli atteggiamenti, rimane una procedura poco utilizzata non solo per la sua complessità
ma soprattutto per la sua poca affidabilità: infatti non è detto che cambiando i giudici gli
item finali siano gli stessi così come l’ordine e la distanza delle affermazioni siano percepiti
allo stesso modo dai giudici e dagli intervistati.

Scala di Likert
La scala di Likert ottenne grande successo e consenso dopo la sua pubblicazione nel 1932.
Come le altre scale parte dal presupposto che l’atteggiamento possa essere concepito come
un continuum e che ogni intervistato sia capace di proiettare fedelmente il suo punto di vista
lungo il continuum. Anche in questo caso gli stimoli sono rappresentati da item,
affermazioni. Tuttavia, a differenza delle altre scale precedentemente citate e analizzate, in
questo caso lungo il continuum non vengono posti in ordine dal massimo favore al massimo
sfavore gli item stessi, bensì le modalità di risposta. L’affermazione, lo stimolo, viene
considerato una variabile categoriale ordinata mentre le categorie di risposta
vengono poste lungo il continuum. Inizialmente erano sette, poi sono state ridotte a
cinque: approvo fortemente, approvo, indeciso, disapprovo, disapprovo fortemente.
(Quelle eliminate erano approvo mediamente e disapprovo mediamente).
Affinchè sia garantita l’unidimensionalità della scala, cioè affinché gli item siano indicatori
di una stessa dimensione dell’atteggiamento studiato, gli item non solo devono essere
omogenei ma anche capaci di discriminare atteggiamenti opposti. La scala di Lickert viene
sottoposta quindi ad un pre-test grazie al quale vengono individuati gli item che faranno poi
parte della scala definitiva, cioè quelli con il potere discriminante più significativo.
Ad ogni modalità di risposta viene assegnato poi un numero (da 1 a 5); ogni intervistato
risponde alle varie affermazioni proposte; le risposte dell’intervistato vengono sommate
ottenendo un punteggio totale, score; lo score corrisponderà alla posizione dell’intervistato
lungo il continuum dell’atteggiamento nella sua totalità. Gli item quindi corrispondono
a delle misurazioni parziale dell’atteggiamento a cui si riferiscono. Per questo
motivo la scala Likert è detta Scala additiva o Scala a punteggi sommati.
Nel selezionare gli item è fondamentale rispettare alcune regole al fine di evitare distorsioni
da parte dell’intervistato:
(Prima famiglia di regole; si attiene alla percezione dell’intervistato) in primo luogo gli
item devono essere formulati in una maniera semplice e comprensibile, sono da evitare le
doppie negazioni e soprattutto il fenomeno della curvilinearità. La curvilinearità è la
condizione per cui due intervistati possono trovarsi in disaccordo riguardo a un determinato
item per motivi differenti eppure ottengono lo stesso punteggio. Altre condizioni da valutare
nella formulazione degli item riguardano le caratteristiche dell’intervistato: un soggetto a
cui i temi trattati sono molto familiari può giudicare inaffidabile e inadeguata l’intervista se
le affermazioni non sono trattate e formulate nel modo giusto; allo stesso tempo il livello di
precisione nella definizione di un item può essere controproducente per un individuo che
non ha confidenza con il tema trattato e non sapendo cosa significhino certe cose, può non
sentirsi all’altezza. Dunque è bene considerare anche il livello culturale dell’intervistato nella
ricerca.
(Seconda famiglia di regole; fa riferimento al rapporto che intercorre tra l’atteggiamento
e gli item a esso riferiti): gli item, riferiti alle diverse dimensioni dell’atteggiamento
indagato, vengono proposti all’interno di batterie in modo mescolato così da guadagnare a
parità di tempo maggiori informazioni sul fenomeno, dato che l’intervistato apprendendo
presto il meccanismo di risposta “d’accordo” / “non d’accordo”, risponde più velocemente.
Gli item proposti da Likert erano circa 50, lunghezza tutt’ora adottata in psicologia; in
sociologia e politologi hanno invece ridotto il numero a una decina di item (poiché il
meccanismo di risposta assunto dall’intervistato può provocare maggiore disattenzione
nelle affermazioni affrontate se queste sono numerose). Quando si ottengono una serie di
risposte identiche fornite in modo automatico dall’intervistato, si parla di Response Set.
Oltre che per motivi di disattenzione o disinteresse, la tendenza a dichiararsi sempre in
accordo con le affermazioni proposte può essere causata anche dal fatto che l’intervistato
considera le frasi proposte come espressioni di verità e risponde come crede risponderebbe
l’intervistatore (capita quando il soggetto ha un basso livello di istruzione). Per evitare
questa cosa gli item proposti devono essere formulati in parte con affermazioni contro
l’oggetto di studio, in parte con affermazioni a favore dell’oggetto di studio; così il ricercatore
può accorgersi del Response set.
Per misurare l’attendibilità della scala Likert esistono due metodi:
• Il test-retest reliability: si somministrano due volte gli stessi item per
misurare la stabilità delle risposte date nelle due occasioni;
• Lo split-half: si basa sul principio di equivalenza; si suddivide la scala in due
metà in cui vengono raggruppati rispettivamente i punteggi sugli item pari e i
punteggi sugli item dispari, successivamente si calcola la correlazione tra
questi attraverso lo split-half.

Scala di Guttman
La scala di Guttman rappresenta un’evoluzione della Scala di Bogardus: l’obbiettivo
principale è quello di fornire una soluzione all’unidimensionalità. La scala si basa anch’essa
sul principio di cumulatività e sono gli stessi item ad essere posizionati lungo il continuum
seguendo un ordine crescente. La differenza sostanziale tra la scala sociale di Bogardus e
quella di Guttman consiste semplicemente nel fatto che mentre il continuum degli item nel
caso di Bogardus viene costruito ex ante, quindi prima; nel caso di Guttman viene costruito
ex post, quindi dopo essere stato somministrato al campione. Si assume che l’item più
semplice (maggiore tolleranza) è quello accettato dalla maggior parte degli intervistati
mentre quello più difficile (massima intolleranza) è quello accettato da un numero minore
di intervistati. Il risultato finale è, dunque, un ordinamento interdipendente di risposte e
individui, dove gli individui sono ordinati in base alle risposte e le risposte in base agli
individui. Se gli elementi della scala sono collocati adeguatamente sul continuum la matrice
dei dati risulterà essere divisa in due triangoli e lo scalogramma che ne risulta è uguale a
quello ideale (che l’intervistatore si era prefissato quando aveva effettuato l’ordine degli item
da proporre agli intervistati). Al contrario, se la scala presenta degli errori, ossia risposte che
non si inseriscono nelle sequenze previste, allora tramite il metodo Cornell si conteggiano le
risposte per individuare quelle meno coerenti che devono essere scartate o modificate.

Scale grafica di Cantril (autoancorante)


Le scale grafiche sono quelle scale che consentono di risolvere problemi di distorsione
(rilevanti per le interviste che devono essere formulate in più lingue), o di comprensione ed
espressione (per esempio quando la popolazione di riferimento e costituita da bambini o
soggetti con difficoltà nella lettura per handicap o per livello culturale) tramite l’utilizzo
complementare di immagini semplici e familiari per ogni dimensione del concetto
indagato. Queste scale possono produrre sia variabili categoriali ordinate che variabili quasi
cardinali.
La scala di Cantril corrisponde alla prima tecnica di rilevazione degli atteggiamenti di tipo
autoancorante, per cui la scala viene autodeterminata dall’intervistato. L’intervistatore si
limita a proporre una proprietà, un concetto, e a delimitare il minimo e il massimo della
scala (es. da 1 a 10, variabile quasi cardinale). Sarà poi compito dell’intervistato
autocollocarsi liberamente sul segmento ideale, individuando un punto preciso
corrispondente ad una cifra. È possibile sottoporre a valutazione le dimensioni del concetto
o singolarmente o contemporaneamente. I numeri vengono poi inseriti direttamente nella
matrice dei dati. La media dei punteggi assegnati a ciascuna dimensione del concetto (nel
caso queste venissero valutate singolarmente dall’individuo) consisterà nella posizione
dell’individuo lungo la scala del concetto (atteggiamento) generale.

Il differenziale semantico (autoancorante)


Nell’attribuzione del significato a un concetto, generalmente è possibile distinguere due
dimensioni: quella denotativa/oggettiva, cioè quella uguale per tutti, e quella
connotativa/soggettiva, cioè quella legata alle reazioni emotive e affettive che un
soggetto può avere a livello individuale se sottoposto ad uno stimolo. Ad esempio, la parola
gatto nella sua dimensione denotativa, rimanda all’animale, al felino; nella sua dimensione
connotativa ad alcuni soggetti può rimandare a sensazioni positive (chi ama i gatti o ne ha
uno a casa), ad altri a sensazioni negative (chi detesta, ha paura o è allergico ai gatti).
Alla fine degli anni ’50 si ideò una tecnica di rilevazione dei significati connotativi: il
differenziale semantico. Si ritenne necessario ricorrere alle associazioni che l’intervistato
instaura fra il concetto indagato e altri concetti (proposti in maniera standardizzata a tutti i
soggetti della ricerca), questo perché si credeva che non bastasse chiedere a ciascun
intervistato una descrizione soggettiva e diretta del significato. <<Il differenziale semantico
si configura come una combinazione di associazioni controllate e di procedure di Scaling>>
(autori: Osgood, Suci, Tannebaum, 1957).
Il differenziale semantico è costituito da diverse scale, ogni scala rappresenta una
dimensione del significato connotativo dell’oggetto indagato. Il numero delle dimensioni è
finito ma non individuabile a priori e non maggiore di 5 (per evitare il response set).
Ciascuna scala è pensata come una retta ai cui estremi troviamo degli aggettivi bipolari
(bello-brutto) o monopolari (bello-non bello). Questi aggettivi devono ovviamente essere
attinenti all’oggetto a cui si riferiscono e familiari all’intervistato. Anche il numero delle
coppie di aggettivi non deve esser eccessivo (massimo 20). Gli aggettivi selezionati vengono
posti lungo la scala in modo casuale cioè in modo tale che le polarità negative e le polarità
positive vengano poste sia a sinistra che a destra della retta. Ogni retta è suddivisa in 5 o 7
posizioni. Dato uno stimolo (un’affermazione, un item), l’intervistato ha il compito di
collocarsi autonomamente sulla retta delimitata dagli aggettivi contrapposti. L’intervistato
viene invitato a collocarsi su ciascuna coppia il più velocemente possibile così da ridurre il
controllo razionale. Ogni coppia di aggettivi diventa una variabile nella matrice dei dati.
A ciascun soggetto viene assegnato un punteggio che rappresenta la media dei punteggi
ottenuti su tutte le coppie di aggettivi. Nella fase finale è possibile individuare anche il profilo
di ciascun intervistato attraverso una ricostruzione grafica: il profilo viene delineato unendo
i punti indicati dal soggetto per ogni scala di valutazione. Questo procedimento è
sconsigliabile quando i casi sono molti; viene particolarmente utilizzato nelle indagini di
mercato per definire gli attributi del prodotto/servizio.
Anche il differenziale semantico presenta dei difetti: il rischio di response set; il fatto che
l’interpretazione da parte del soggetto può non sempre esser sotto il controllo del
ricercatore; le coppie di aggettivi possono non risultare appropriate all’oggetto o possono
disorientare l’intervistato.
Il differenziale semantico è una tecnica per lo più adatta a rilevare le rappresentazioni
mentali più che gli atteggiamenti dei soggetti nei loro confronti. Rilevando le reazioni
emotive prodotte da un oggetto cognitivo - suono, colore, forma, parola ecc. – può essere
utile il suo utilizzo, al pari delle scale grafiche, per superare le barriere linguistiche che si
oppongono alla comunicazione che il ricercatore vuole instaurare con l’intervistato, ad
esempio poco istruito, o nel caso della traduzione.

Il termometro dei sentimenti (autoancorante)


Fu utilizzato per la prima volta nel 1964 in Michigan. Consiste nel disegno di un vero e
proprio termometro per la temperatura graduato secondo i gradi Celsius, cioè da 0 a 100
con intervalli di 5 o 10. Il massimo favore corrisponde a 100 gradi, il minimo a favore a 0.
L’intervistato ha il compito di autocollocarsi lungo il termometro in corrispondenza del suo
grado di favore nei confronti dell’oggetto cognitivo indagato. Come per la scala Cantril, si
producono variabili quasi-cardinali che vanno inserite direttamente nella matrice dei dati.
È possibile far valutare gli oggetti singolarmente o contemporaneamente. È preferibile la
valutazione multipla poiché consente agli intervistati di fornire delle valutazioni
comparative tra tutti gli stimoli: i soggetti attribuiscono i punteggi sulla base di quelli già
attribuiti ad altri oggetti e soprattutto in relazione a quelli che hanno collocato agli estremi.
In alternativa, se si intende eseguire una valutazione singola per ogni oggetto
cognitivo/dimensione dell’atteggiamento indagato, si procede dando all’intervistato una
serie di gadget, cartellini, su cui scritto l’oggetto cognitivo in questione, che l’intervistato
appunto dovrà posizionare realmente sul termometro, spostandoli a piacere fino a quando
la disposizione sia soddisfacente. Il termometro dei sentimenti col gadget ha il vantaggio di
utilizzare meno posizioni (poiché lo spazio di un foglio grande è comunque limitato). Questo
consente di limitare le distorsioni causate da un range di valutazione molto ampio.

Scala di autocollocazione politica (autoancorante)


La scala di autocollocazione politica è una scala autoancorante che viene impiegata in
sociologia principalmente nei sondaggi politici e pre-elettorali sulle intenzioni di voto.
L’obbiettivo della scala non è quello di rilevare l’appartenenza politica ma le tendenze degli
intervistati in base al loro orientamento. La procedura di costruzione prevede una scala
perciò parliamo di single item scale. La scala è composta da un segmento diviso in dieci
caselle o posizioni che vanno da destra a sinistra; l’intervistato deve collocarsi lungo il
continuum selezionando una casella che corrisponderà ad un numero, quindi anche in
questo caso si parla di variabili quasi cardinali. La destra e la sinistra rappresentano le due
estreme posizioni politiche con cui si usa comunemente riferirsi riguardo al proprio
orientamento politico.
Alla determinazione della collocazione sulla scala contribuiscono fattori come: la posizione
dell’individuo rispetto a certe tematiche politiche salienti (issue attitude) e ‘affiliazione
partitica dell’individuo (partisanship), come dimostra l’indagine condotta da Huber nel
1989 sulla polarizzazione ideologica in Italia e Gran Bretagna. Alla determinazione della
posizione sulla scala contribuiscono, ovviamente, anche altri fattori come la classe sociale e
la confessione religiosa (se è forte il senso di appartenenza al proprio gruppo
sociale/religioso).
La scala di autocollocazione sull’asse sinistra-destra costituisce non solo uno dei più
importanti predittori delle scelte di voto ma anche un indicatore di partecipazione politica
ed è ancora molto impiegata nelle indagini sulla partecipazione politica giovanile.

Scale autografiche (autoancorante)


Corrispondono ad un’evoluzione delle scale grafiche con la sostanziale differenza che E lo
stesso intervistato a stabilire l’unità di misura, quindi, a collocarsi autonomamente sul
segmento. Si adottano grafici in luogo di numeri. In altre parole si chiede all’intervistato di
tracciare una linea di lunghezza proporzionale al suo gradimento per l’oggetto indagato
(affermazione, atteggiamento ecc.). La lunghezza massima è implicitamente definita dalla
larghezza del foglio. L’esito della rilevazione è un numero decimale prodotto tramite la
misurazione del segmento, parliamo quindi di una variabile quasi cardinale anche questa
volta. Il foglio può essere presentato verticalmente: in questo caso o si traccia un segmento
da destra a sinistra (in cui sinistra corrisponde al valore di gradimento minimo e destra di
massimo) o si traccia un segmento dal centro (o verso sinistra, il minimo, o verso destra, il
massimo; nell’ultimo caso il foglio può essere posto anche orizzontalmente. Può anche
essere l’intervistatore a disegnare il segmento al quale l’intervistato dovrà porre un limite
quantificando la sua posizione.
• Intervista (approccio non standard)
L’intervista è un’interazione tra due soggetti: l’intervistatore, che avvia e guida la
conversazione, è dotato di abilità e competenze specifiche circa i modi e le forme
dell’interrogazione; e l’intervistato, portatore del contenuto, dell’oggetto di studio.
Le finalità sono di tipo conoscitivo: gli obbiettivi dell’intervista vengono posti nella fase
iniziale di progettazione ma sono riformulati anche in corso d’opera, le domande
corrispondono a ciò che il ricercatore intende scoprire e conoscere o riguardo al sistema di
valori e rappresentazioni o riguardo alle dimensioni cognitive ed emotive dell’intervistato.
In ogni caso risulta chiaro che ognuno ha un suo modo di raccontarsi e che ogni narrazione
è unica e irripetibile.
Il termine intervista non viaggia mai da solo, è sempre affiancato da degli attributi. In alcuni
casi la denominazione getta luce sulla prospettiva teorica e interpretativa che il ricercatore
assume a riferimento (intervista comprendente, intervista ermeneutica); in altri casi dà un
indizio su ciò che rilascia l’intervistato in termini di output e contenuto (intervista
discorsiva, intervista focalizzata, racconto di vita, storia di vita); in altri ancora segnala il
grado di strutturazione della traccia (intervista semi strutturata, non strutturata, libera).
• Intervista ermeneutica: secondo questa prospettiva esistere è interpretare e
interpretare vuol dire porsi l’obbiettivo di <<esplorare il mondo della vita
quotidiana mediante tecniche non direttive>> (Montesperelli, 1998);
• Intervista comprendente: è molto simile a quella precedente perché focalizza
l’attenzione sugli individui. Secondo questo approccio le persone sono depositarie
di una conoscenza e portatrici, anche inconsapevolmente, di uno specifico sistema
di valori. L’obbiettivo è quello di coniugare la comprensione dell’individuo con la
spiegazione (spiegazione comprendente del sociale);
• Intervista discorsiva: un discorso pronunciato e consegnato dall’intervistato
al ricercatore dal quale è possibile evincere informazioni, narrazioni, e
argomentazioni;
• Intervista focalizzata: è molto vicina al racconto di vita, essa è circoscritta ad
un tema specifico, la conversazione riguarda un ambito, privato o pubblico, della
vita personale dell’intervistato, indagato al fine di scoprire quali siano i
meccanismi sociali che lo regolano;
• Intervista semi-strutturata: consiste in un elenco di nuclei tematici attorno
ai quali l’intervistato è indotto a produrre un racconto, una narrazione. L’ordine e
il modo con cui sono trattati i temi sono lasciati alla libera valutazione
dell’intervistatore, che, durante il colloquio, potrebbe trovarsi nella posizione di
prendere decisioni sul momento riguardo a come procedere l’intervista (nel
momento in cui, ad esempio, l’intervistatore lo precede su un determinato
argomento su cui il ricercatore aveva intenzione di parlare);
• Intervista non strutturata o libera: l’intervistatore rimane per lo più in una
posizione di ascolto sollecitando la riflessione su questioni e argomenti specifici
dettati dal disegno della ricerca, l’intervistato conduce la direzione del discorso.
Questo tipo di intervista risulta particolarmente adatta a contesti di scoperta ed
esplorazione su temi e mondi sociali poco o per nulla conosciuti.
Abbiamo visto quindi come il grado di strutturazione cambi a differenza delle finalità
cognitive, del contesto di indagine e delle caratteristiche dell’interlocutore. Parliamo di
standardizzazione dell’intervista quando la forma e l’ordine di esposizione delle
domande sono prestabiliti e uniformi. Parliamo di direttività riferendoci ai margini di
movimento concessi all’intervistatore e all’intervistato nel gestire i contenuti del dialogo.
La traccia dell’intervista è per certi versi simile a quella di un racconto: incipit, intreccio,
conclusione. L’intervistatore fondamentalmente conosce solo l’inizio dell’intervista:
l’argomento da cui partire per sviluppare un discorso, un confronto. L’intreccio è costituito
dai fatti narrati dall’intervistato, tra i quali si potranno o meno riconoscere un ordine
cronologico e i nessi causali. L’epilogo consiste nella parte finale del colloquio:
l’intervistatore potrà allora giungere a delle conclusioni su quanto ha appreso nel corso della
conversazione e/o raggiungere una dimensione più intima dell’intervistato.
Fasi di progettazione
Ora, proprio perché non si sa mai che strade prenderà la conversazione con l’intervistato,
l’intervistatore si impone un attento lavoro di prefigurazione del colloquio in cui deve:
• in primo luogo individuare i temi, le dimensioni e i concetti su cui si baserà e
amplierà l’intreccio dell’intervista; distinguiamo le dimensioni teoriche (le pre-
conoscenze sul tema che orientano l’intervistatore nella formulazione dei quesiti)
dalle dimensioni empiriche (fanno riferimento allo spazio sociale di riferimento,
al modo in cui i soggetti intervistati fanno esperienza della realtà, alla sfera
cognitiva dell’intervistato, quindi ciò che pensa e prova) → Prima tappa di
progettazione
• riconoscere per ogni tema, contesto, ambito, argomento, il ruolo che si attribuisce
all’intervistato; il ruolo può essere quello di protagonista, testimone od esperto
→ Seconda tappa di progettazione
• formulare per ogni dimensione domande o stimoli che possano sollecitare la
produzione discorsiva dell’intervistato; a tal fine è necessario formulare dei
quesiti che inducano l’intervistato a parlare di sé come ad un pubblico anonimo.
Ideale per la formulazione è immaginarsi le reazioni dell’ipotetico intervistato, ciò
consente di redigere domande con maggiore precisione. La selezione delle
domande, che saranno incluse nella griglia di guida alla conversazione, è
effettuata sulla base dei criteri di pertinenza e pregnanza. → Redazione della
traccia
• stabilire un ordine gerarchico tra i temi trattati e riconoscere su quale di questi
porre maggiore attenzione; la sequenza degli stimoli deve seguire un ordine
logico, per questa ragione è utile raggrupparli per <<dimensioni organizzative>>,
ossia in aree tematiche e concettuali distinte, e successivamente individuare
quelle dimensioni su cui focalizzarsi di più di altre, le dimensioni per cui il
discorso deve prendere ampio spazio. → Redazione della traccia

La scelta dei casi


A differenza di altre forme di ricerca, come l’inchiesta campionaria, nell’intervista non c’è
un numero prestabilito di soggetti da interrogare poiché non si è vincolati a criteri di
rappresentanza statistica. Solitamente il numero di casi intervistati è inferiore a 100.
L’identificazione del profilo degli intervistati è orientata dagli obbiettivi conoscitivi del
ricercatore e dal suo quadro teorico di riferimento, in relazione all’appartenenza dei casi a
specifici gruppi, eventi e contesti sociali. Si fa ricorso a forme di <<campionamento di
scopo>> che mirino a individuare <<casi tipici>> e/o <<casi estremi, devianti>>. In
generale devono essere garantiti più punti di vista. Le caratteristiche distintive di un buon
informatore riguardano: 1) la disponibilità delle conoscenze e dell’esperienza necessarie per
soddisfare gli obbiettivi conoscitivi del ricercatore; 2) la capacità di auto-riflessione; 3) la
disponibilità a concedere un’intervista e del tempo necessario alla sua realizzazione. I due
criteri guida nella selezione dei casi sono: il criterio della sufficienza, si tratta di assicurarsi
di aver rappresentato la gamma delle posizioni presenti nella popolazione oggetto di studio;
e il criterio di saturazione teorica, ossia di esaurire la molteplicità delle possibili
testimonianze. In pratica la fase di rilevazione si conclude quando le interviste non
apportano più valore aggiunto alla conoscenza del ricercatore.
Il rapporto tra intervistatore e intervistato
Molti autori definiscono l’intervista come un’occasione sociale, un evento a sé stante in cui
intervistatore e intervistati creano la realtà attraverso l’interazione, impegnandosi
reciprocamente nel confronto. L’intervistatore è come un viaggiatore che cerca storie
significative. Il suo ruolo è duplice: deve mostrare interesse e partecipazione nei confronti
dell’intervistato, per stimolarlo e incitarlo al dialogo, e allo stesso tempo, deve svolgere
un’analisi critica via via che le risposte vengono fornite, mettendone in discussione il
significato, se necessario, con un atteggiamento di deliberata ingenuità. L’intervistatore
detta le regole del gioco: formula le domande, decide l’argomento, il ritmo e la rilevanza dei
temi; l’intervistato ha il compito di fornire risposte coerenti, presumibilmente veritiere.
L’abilità di conduzione da parte dell’intervistatore merita un addestramento specifico nei
percorsi universitari; la conoscenza prodotta dipende dalla qualità della relazione tra
intervistatore e intervistato che a sua volta dipende dall’abilità professionale
dell’intervistatore che deve essere capace di sostenere un equilibrio tra gli scopi conoscitivi
che persegue e il rispetto dell’integrità del soggetto. Il soggetto deve sentirsi a proprio agio,
si devono creare le condizioni per cui esso possa esprimersi liberamente senza sentirsi sotto
la lente di un microscopio. Per incoraggiare il soggetto intervistato, l’intervistatore può
utilizzare anche segni non verbali, attraverso un movimento degli occhi o del capo, o ancora
attraverso i cosiddetti continuator come gli “uhm, mmh, ahh”.
Otto semplici regole da rispettare nelle prime fasi di contatto con l’intervistato sono:
• scegliere un setting con pochi elementi di disturbo o distrazione;
• spiegare lo scopo dell’intervista;
• chiarire i margini di riservatezza con i quali saranno trattate le informazioni;
• illustrare il formato dell’intervista;
• indicare il tempo richiesto;
• fornire agli intervistati i propri riferimenti per eventuali contatti successivi;
• chiedere loro se hanno delle domande prima di iniziare;
• chiedere il permesso di registrare la conversazione.
Errori comuni da evitare:
• la tendenza a dominare la conversazione;
• l’incapacità di ascoltare: l’ascolto risulta essere infatti l’abilità primaria per
condurre un’intervista, l’intervistatore deve essere capace di ascoltare attivamente
e attentamente le parole dell’intervistato, tollerandone i silenzi ed evitando di
anticiparne le risposte o darle per scontato.
• l’eccessiva rigidità nello stile di conduzione, frutto dell’incertezza o della paura di
commettere errori, che rischia di inibire la conversazione;
Trascrizione dell’intervista
La trascrizione di un’intervista, così come la registrazione, non possono dare una
riproduzione completamente uguale e veritiera dell’interazione avvenuta tra l’intervistato e
l’intervistatore. Per questo ci sono alcune regole da rispettare durante la fase di trascrizione
di un’intervista:
• le modalità comunicative adottate devono essere riproposte nella loro totalità:
vanno quindi compresi, oltre ai discorsi, anche i silenzi, i sospiri e i segni gestuali
di ciascun individuo;
• vanno ovviamente separate le domande dalle risposte dedicando uno spazio
distinto all’intervistato e all’intervistatore per identificare i turni di
interlocuzione;
• vanno riportati nella trascrizione anche gli elementi contesto che influenzano
l’interazione (come un evento inatteso che ha meritato un commento durante la
conversazione).
La fase di trascrizione può richiedere tempi piuttosto lunghi di esecuzione poiché la
trascrizione è affiancata da altre misure complementari come: il sistema di notazione, un
insieme di simboli grafici atti a esplicitare alcune caratteristiche dello scambio comunicativo
(come il tono), favorisce la leggibilità della trascrizione; il riassunto tematico, riassume il
tema centrale attraverso citazioni più o meno brevi dell’intervista e/o una sintetica
descrizione del ricercato; il record biografico, ordina gli eventi narrati cronologicamente
indicando la data, l’età dell’intervistato e la descrizione di un evento ritenuto significativo.
Le ultime due operazioni, dette forme di miniaturizzazione del materiale empirico, sono
importanti soprattutto per le comparazioni tra i diversi percorsi biografici.
• Focus Group
Il Focus group è una tecnica di indagine collettiva tesa a sollecitare una discussione
approfondita su un determinato argomento, entro un gruppo di dimensioni ristrette, con la
presenza di uno o più moderatori che guidano e gestiscono l’interazione. Il Focus group è un
tipo di indagine che focalizza la propria attenzione non solo sui contenuti della discussione,
su quanto viene detto e appreso in riferimento al tema centrale, ma anche sull’interazione
sociale che avviene tra i membri partecipanti, sugli atteggiamenti, il modo di porsi, le
credenze, gli orientamenti al valore. Dalla discussione non emergono solo argomentazioni
ma anche influenze reciproche, processi di identificazione o differenziazione, alleanze
temporanee, posizioni maggioritarie o minoritarie. Il gruppo può essere considerato come
un’occasione di introspezione reciproca in cui significati e opinioni si formano proprio
attraverso l’interazione. Nel Focus group l’obbiettivo è quello di sollecitare i partecipanti ad
esporsi, motivare, difendere e rivalutare le proprie considerazioni facendo emergere
sfumature e dimensioni del problema originale, ignote o inconsapevoli ai singoli individui.
Il ricercatore deve sollecitare la produzione di discorsi, commenti, giudizi attraverso stimoli
che possono essere di tipo verbale (domande dirette, frasi, narrazioni) e/o visivo (fotografie,
disegni, vignette, filmati).
Una ricerca può servirsi solo della tecnica del Focus Group o affiancarla ad altre tecniche di
tipo qualitativo o quantitativo. Solitamente in una ricerca che si serve del Focus Group si
formano più gruppi ristretti (solitamente un minimo di tre), il cui numero di membri varia
da 5 a 12. In ogni gruppo i partecipanti sono affiancati dalla presenza di alcune figure come
i moderatori o gli osservatori.
Il moderatore è colui che gestisce le dinamiche di gruppo. In un focus autogestito egli si
limita a introdurre il tema di dibattito, attraverso argomenti e posizioni estreme o
provocazioni argomentative finalizzate a stimolare reazioni nel gruppo. Successivamente
illustra le modalità di interazione per poi lasciar proseguire il gruppo autonomamente. In
un focus guidato invece, la modalità di conduzione è più strutturata, con sollecitazioni
puntuali sull’andamento della discussione. In ogni caso è da dire che le due modalità non si
escludono a vicenda e possono essere perfettamente adottate in momenti diversi della nella
stessa sessione. Ovviamente nel caso in cui la discussione rischia di assumere toni
conflittuali ed eccessivamente aggressivi, il moderatore interviene per riportare l’equilibrio
nel confronto. Un altro dei compiti più difficili del moderatore risiede nel facilitare
l’espressione di tutti i partecipanti evitando il predominio di alcuni membri del gruppo e la
passività di altri.
Nella fase di progettazione di un focus solitamente, dopo aver definito le fasi (1.
Autopresentazione dei partecipanti; 2. Sollecitazione del tema; 3. Fase di transizione al tema
cruciale con domande chiave e avvio della discussione; 4. Chiusura della discussione), si
organizza un focus di collaudo detto anche focus pilota teso a riprodurre in maniera
realistica le modalità di impiego della traccia e di conduzione della discussione tramite un
campione di convenienza, costituito da persone facilmente reperibili con un profilo quanto
più possibile simile a quello della popolazione di riferimento dell’indagine. Lo scopo del
collaudo, di questa specie di pre-test, è quello di migliorare la traccia per il futuro.
La composizione dei gruppi varia a differenza degli interessi e degli obbiettivi conoscitivi del
ricercatore. Solitamente si ricreano gruppi omogenei i cui partecipanti presentano un profilo
socio-demografico simile. Tuttavia, anche l’eterogeneità, dunque la diversità all’interno del
gruppo, può essere producente: essa consente l’emersione di suggestioni e criticità, punti di
vista differenti tra loro, cosa che può essere interessante se il ricercatore è determinato ad
esplorare il tema centrale sotto prospettive diverse. Oltre all’omogeneità o all’eterogeneità,
un’altra caratteristica della composizione del gruppo riguarda la natura dei rapporti tra i
partecipanti: questi infatti possono essere estranei (gruppo artificiale) quanto conoscenti
(gruppo naturale); nel secondo caso il fatto che i partecipanti siano legati in relazioni può
sviare l’andamento della discussione soprattutto se il tema ha a che fare con tali relazioni.
In generale mentre i gruppi ristretti mostrano maggiore vulnerabilità, i gruppi numerosi
rendono più ardua la discussione. La presenza di persone dominanti e provocatorie può
creare caos e inibire il confronto. Per questo motivo spesso, il coinvolgimento dei
partecipanti è previsto in maniera ripetuta al fine di creare un livello di familiarità e fiducia
utile ad un approfondimento sereno dei temi di discussione.
La fase della trascrizione (qualunque sia la forma di registrazione, audio o visiva) è una delle
parti più complesse, poiché a differenza dell’intervista che avviene con un singolo, in questo
caso si devono fedelmente riprodurre i discorsi, commenti, toni, gesti, di più persone che
possono anche parlare contemporaneamente (anche per questo è importante il ruolo del
moderatore che deve permettere che non si accavallino le voci durante il dialogo).
Fondamentale è inoltre l’identificazione dei soggetti col parlato: può essere utile a tal fine
chiedere ai membri del gruppo di ripetere il loro nome quando avanzano un commento o un
discorso durante la sessione di focus.
Anche nel caso del focus group è possibile ricorrere a delle forme di miniaturizzazione del
materiale empirico (che restituiscano non solo i contenuti ma anche i modi in cui sono
affrontati e le dinamiche relazionali intercorse tra i partecipanti), molto utili per l’analisi
primaria e secondaria dei dati: 1) riassunti tematici, analoghi a quella dell’intervista ma con
precise notazioni sul clima relazionale e i processi discorsivi prodotti; 2) matrici delle
adiacenze, consistono in delle vere e proprie matrici che rappresentano in modo compatto
gli scambi comunicativi tra i partecipanti, nei vettori riga sono inseriti i mittenti, nei vettori
colonna i destinatari e nella cella il numero di volte che c’è stato uno scambio comunicativo
fra i due.
Quanto all’analisi del materiale empirico, nel caso della tecnica del focus group è di estrema
rilevanza l’analisi comparativa dei gruppi coinvolti. L’analisi deve essere condotta in
maniera sistematica e rigorosa e non si devono escludere temi o suggestioni emersi sul
campo ma non previsti dal ricercatore. Fondamentale è la distinzione tra le opinioni
complementari (costruite e negoziate collettivamente) e quelle oppositive (estreme e meno
verbalizzate).
• Osservazione partecipante
Caratteristiche generali
L’osservazione partecipante è un’altra delle indagini che rientra tra le tecniche non intrusive.
Essa è la principale tecnica di ricerca per lo studio delle interazioni tra soggetti che
condividono lo stesso spazio sociale all’interno di un contesto naturale (un villaggio tribale,
un’azienda, una comunità). Nasce in ambito antropologico, all’interno di un contesto in
cui si riteneva che l’osservazione partecipante non potesse avere durata inferiore a dodici
mesi poiché lo studio di villaggi e comunità rendeva necessaria la permanenza sul campo da
parte del ricercatore. Il principale vantaggio di questa tecnica è che il grado di perturbazione
dell’individuo oggetto di studio è ridotto al minimo (a differenza degli altri tipi di ricerca in
cui, per quanto a proprio agio, l’attore sociale è sempre consapevole di essere osservato).
L’osservazione partecipante si caratterizza per il fatto che è un’indagine a lunga durata e
che va condotta in prima persona: il ricercatore si insinua nell’ambiente instaurando un
rapporto personale con gli attori sociali che fanno parte di quel determinato contesto col fine
di studiarne e apprenderne norme, valori, comportamenti. L’osservazione partecipante
corrisponde ad un esperimento di esperienza: il ricercatore vivendo nell’ambiente
oggetto di studio impara a riconoscerne i meccanismi sociali, le categorie concettuali di chi
ne fa parte, il gergo, i codici comportamentali e così via. Il ricercatore è investigatore e
studente; punto di partenza imprescindibile sarà la capacità di conoscersi e riconoscersi, ma
soprattutto la flessibilità (capacità di adattamento).
Il limite principale di questo tipo di tecnica è l’impossibilità di delegare ad un altro il lavoro:
il ricercatore che inizia il percorso deve per forza concluderlo, non può essere sostituito.
Inoltre il carico del lavoro è tutto sulle sue spalle, poiché per quanto ci sia un’intera equipe
di indagine, questa rimane distaccata ed esterna all’esperienza vissuta in prima persona nel
contesto sociale oggetto di studio.
Nell’indagine etnografica non è possibile riconoscere una successione delle fasi della
ricerca, i livelli del percorso (scrittura, disegno, base empirica, analisi) stanno tra di loro in
un rapporto circolare.
Una prima scelta da compiere è decidere se attuare un’osservazione scoperta (il ricercatore
dichiara apertamente la propria identità e il proprio ruolo ai soggetti che popolano
l’ambiente in cui si inserisce) o coperta (in questo caso il ricercatore non smaschera la sua
identità rendendo consapevoli gli attori sociali della sua attività osservativa). L’osservazione
coperta, per quanto eticamente scorretta, spesso costituisce l’unica posizione possibile, per
esempio nel caso degli studi di subculture devianti o marginali: prostitute, clochard,
tossicodipendenti, funzionari di stato corrotti e così via.
Da un punto di vista metodologico ci sono vantaggi e svantaggi nell’adozione di entrambe le
tecniche (maggiori vantaggi per l’osservazione scoperta):

OSSERVAZIONE OSSERVAZIONE
SCOPERTA COPERTA
Accesso al campo (1) Ricercatore + gatekeeper Ricercatore infiltrato
Perturbazione (2) Osservativa Interattiva
Flessibilità (3) Alta Bassa

1. Nel caso dell’osservazione scoperta il ricercatore deve individuare il “guardiano”


(gatekeeper) che può negare o concedere l’accesso al ricercatore sul “campo” e
stabilire le condizioni di partecipazione alla vita del gruppo.
Se l’osservazione è coperta, il ricercatore è un infiltrato e non ha bisogno di legittimare la
sua presenza. In questo caso ovviamente il ricercatore deve avere delle doti teatrali poiché
nasconde la sua vera identità con gli altri membri del gruppo.
2. Nell’osservazione palese, scoperta, il grado di perturbazione, detta osservativa, può
essere elevato poiché gli attori sociali, consapevoli di essere indagati, possono
modificare i loro atteggiamenti al fine di veicolare un’immagine di sé che non coincide
con la realtà.
Nel caso dell’osservazione coperta la perturbazione è detta interattiva poiché il ricercatore
con la sua presenza altera il tessuto interattivo dell’ambiente circostante.
In ogni caso la perturbazione non deve essere considerata come una distorsione; essa
costituisce infatti oggetto di riflessione e materia di studio.
3. A differenza dell’osservazione coperta, l’osservazione scoperta presenta un vantaggio:
il back talk. Il ricercatore può riflette insieme agli attori sociali appartenenti al
contesto sociale oggetto di studio sulla correttezza delle proprie interpretazioni, può
addirittura scrivere in loro presenza i suoi appunti inserendo i commenti, discorsi e
riflessioni che sono loro stessi a pronunciare.
Fase di campo
La fase di campo è la parte più entusiasmante e allo stesso tempo delicata della ricerca
etnografica. Il ricercatore deve essere capace di negoziare e rinegoziare la propria presenza
all’interno del contesto sociale in cui si insinua: non basta entrare nel gruppo per ottenere
libertà di movimento; non sempre l’accesso è garantito, ma un accesso negato oggi può non
esserlo un domani. Determinante sarà quindi la capacità di adattamento del ricercatore
(anche in termini di vestiario e lessico) per ottenere la fiducia degli attori sociali
dell’ambiente oggetto di studio. Il ricercatore deve mostrarsi curioso ma non troppo
intrusivo per non causare atteggiamenti difensivi e di rifiuto da parte dei membri del gruppo.
È quindi auspicabile che i rapporti si consolidino prima di avanzare richieste su temi e
dimensioni sensibili. Inoltre c’è da aspettarsi da parte del ricercatore di essere il primo
osservato e presumibilmente giudicato; è necessario quindi assumere il ruolo di allievo da
istruire senza risultare troppo autoritario o competente. Compito del ricercatore sarà quello
di mantenere la calma e cogliere le situazioni con furbizia senza perdersi alcun dettaglio che
può essere rilevante nell’ambito della ricerca. Importante sarà quindi instaurare un buon
rapporto col mediatore, individuo interno e noto alla popolazione in studio ma dotato di
caratteri specifici in un certo senso analoghi a quelli del ricercatore. Un buon rapporto con
il mediatore può permettere un accesso più sereno in determinati contesti e situazioni
dell’ambiente di cui si entra a far parte. Il mediatore risulta essere quindi una persona che
gode della stima e della fiducia del gruppo e che allo stesso tempo simpatizza col ricercatore.
Le osservazioni vengono riportate in un diario in cui il ricercatore può appuntare di tutto:
dalle sue considerazioni e interpretazioni personali, dalla descrizione dei luoghi e delle
persone, ai dettagli che nota o alle frasi, parole, discorsi pronunciati dagli individui con cui
interagisce. Il diario è lo strumento fondamentale del ricercatore: rileggerlo è come
osservare ancora, ciò permette di reinterpretare determinate situazioni o a lungo andare
trovare fili logici e nessi causali che completano la cornice del contesto sociale. La redazione
delle note consiste in un lavoro lento e impegnativo che richiede attenzione e memoria. Non
ci sono canovacci da seguire, il ricercatore è libero di segnare come meglio crede e si sente
le proprie osservazioni riguardo più elementi possibili in modo tale da rendere chiaro e
realistico il disegno dell’esperienza vissuta. Sicuramente elementi importanti da annotare
sempre sono: il chi (è coinvolto), il dove (è ambientata la vicenda), il quando (si svolge), il
cosa (accade), il come (si sviluppano gli eventi). In più è consigliabile tracciare l’identikit
della scena osservativa attraverso rappresentazioni grafiche e immagini (integrando
fotografie volendo, quando è possibile) e descrivere i personaggi, le relazioni e i conflitti che
orientano il sistema di rapporti e lo modificano, seguendo ovviamente un ordine cronologico
degli avvenimenti e delle battute.
Materiale empirico e analisi dei dati
Il diario costituirà l’unico materiale empirico su cui svolgere poi un’ulteriore analisi, oltre
quella che conduce già il ricercatore in corso d’opera. È importante quindi che alla fine del
diario il ricercatore faccia un resoconto di quanto avvenuto e sperimentato dando
informazioni circa le condizioni di osservazione e conduzione della ricerca per l’equipe di
indagine che non ne ha fatto esperienza e che sta dietro al progetto.
L’analisi dei dati di un’indagine etnografica, per quanto dipenda strettamente dal contesto e
dagli obbiettivi conoscitivi di ogni singola ricerca, può essere distinta in tre fasi guida:
1. La riduzione dei dati: è necessario procedere in modo selettivo alla scomposizione
delle note attraverso una segmentazione della documentazione in parti omogenee da
sottoporre a confronto;
2. La loro visualizzazione attraverso un’attenta lettura e rilettura delle trascrizioni e
delle note entografiche;
3. La successiva presentazione: il materiale raccolto viene in parte presentato, descritto
e interpretato con argomentazioni che ne difendano la rilevanza e solidità empirica.
Testo finale
La redazione del testo finale è la fase in cui ci si dedica al perfezionamento del modello
teorico e alla messa in forma dei risultati per ottenere una narrazione lineare e rigorosa.
Per l’assemblaggio e la composizione del testo finale si identificano 5 fasi che stanno tra loro
in relazione circolare:
- La lettura comparativa del materiale empirico, che si compone di: una riflessione
sull’oggetto della ricerca, la spiegazione sulla scelta dei casi, la descrizione degli attori
sociali e del loro modo di esporsi agli stimoli e infine un’analisi delle interazioni e dei
discorsi di cui si è fatta esperienza col fine di rintracciare nessi e contraddizioni;
- L’individuazione di ricorrenze e casi negativi: si individuano le espressioni, i
significati e le situazioni ricorrenti per svelare gradualmente specifici meccanismi
sociali (ovviamente tali ricorrenze vanno messe alla prova conducendo una ricerca
sistematica ei casi negativi che le contraddicono. Tali eccezioni possono sia
confermare la logica sociale intravista che negarla);
- La formulazione dell’ipotesi: si procede con la formulazione e/o il consolidamento
delle intuizioni del ricercatore. Quest’ultimo stipula nessi tra concetti formulando
diverse ipotesi che cadranno lasciando spazio ad una di esse, la più solida, che
costituirà il filo conduttore della narrazione;
- La saturazione del modello (pianificazione): i concetti che inizialmente sembravano
essere scollegati cominciano a connettersi. Vengono poi selezionati quelli su cui porre
l’attenzione e di cui fornire un’interpretazione. Il racconto assume una consistenza
sociologica. Ovviamente questo è possibile se si riesce a distaccarsi dai piccoli dettagli
e dai concetti periferici che assumono una posizione di rilevanza minore.
- Presentazione dei risultati: narrata riassuntivamente l’esperienza vissuta e definite le
logiche e le interpretazioni sociologiche alla base di essa, si definiscono le
considerazioni conclusive della ricerca.
Al lettore si propone quindi un vero e proprio excursus della ricerca: partendo dalla
prefigurazione fino alla comprensione, passando attraverso l’esplorazione empirica, la
produzione delle ipotesi e la progressiva costruzione del modello.

Potrebbero piacerti anche