Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Concetti e indicatori
I concetti individuati nella formulazione degli interrogativi di ricerca vanno riferiti alle unità
che abbiamo individuato (individuo, aggregato, prodotto culturale o evento). Esistono due
tipi di concetti:
• Concetto teorico: indica una proprietà generale, non accessibile all’osservazione
immediata. (Es. inclinazione alla violenza)
• Concetto empirico: una proprietà/caratteristica empiricamente rilevabile tramite
l’osservazione e/o l’interrogazione. (Es. aggressione verbale/fisica)
Gli indicatori a loro volta verranno sintetizzati in indici. Il percorso seguito dal ricercatore
per passare dai concetti agli indici (combinazioni di più indicatori di uno stesso concetto) è
stato descritto da Lazarsfeld in 4 fasi:
1. La rappresentazione figurata del concetto: il ricercatore si rappresenta il concetto
nei suoi aspetti generali.
2. La specificazione dello stesso concetto, articolato secondo diversi aspetti e
dimensioni.
3. La scelta degli indicatori empirici per le dimensioni considerate.
4. La sintesi delle informazioni raccolte in un indice che trova posto nella
matrice dei dati: l’indice rappresenta l’esito della definizione operativa di un concetto. Gli
indici possono derivare da un solo indicatore o essere la combinazione di più indicatori.
Ma secondo Marradi l’attendibilità non si può misurare perché ogni soggetto ha un modo
personale di reagire alle domande di un test; ogni domanda ha un suo livello di
comprensibilità, accettabilità e gradevolezza; la reazione di ogni soggetto non è stabile nel
tempo e nello spazio. A questo proposito è stato introdotto il concetto di fedeltà di un dato
e di una definizione operativa.
Un singolo dato si dice fedele se rispecchia fedelmente lo stato di un determinato soggetto
sulla proprietà rilevata mentre la definizione operativa risulterà essere attendibile se
produce dei dati fedeli alle aspettative avute. Cause di infedeltà possono essere: risposte non
sincere, incomprensione delle domande, errori di trascrizione nella matrice dei dati. Per
controllare la fedeltà dei dati si devono effettuare dei controlli sui dati, sulla loro plausibilità,
sui codici selvaggi e sulla congruenza delle variabili, nonché stare attenti ai dati mancanti.
Indicatori sociali
Gli indicatori sociali sono il risultato di un movimento specifico nato negli Stati Uniti alla
fine degli anni ’50 con l’obbiettivo di mettere a punto un sistema costante di monitoraggio
degli standard di vita della popolazione. Essendo derivati dall’elaborazione di alcuni dati
statistici, sono come delle serie storiche statistiche che si propongono di monitorare un
sistema sociale attraverso degli strumenti ausiliari che ne identifichino i cambiamenti e
guidino le azioni. Sono classificabili in base all’uso e al tipo di risorse a disposizione. Rispetto
all’uso abbiamo indicatori descrittivi che raccolgono dati che non seguono un principio di
causa-effetto e che non entrano in una prospettiva di distribuzione delle risorse; e indicatori
normativi usati nell’ambito di modelli di relazione o previsione. Rispetto al tipo di risorse
che si valutano abbiamo indicatori oggettivi, utilizzati per valutare la disponibilità di risorse
collettive e il livello di benessere/malessere socio-economico; indicatori soggettivi rilevano
la percezione di benessere degli individui.
Le variabili
Come abbiamo già detto una proprietà (indicatore) può essere operativizzata in modi
differenti a seconda del suo grado di generalità, dell’unità di analisi e del contesto sociale in
cui è inserita.
La definizione operativa è l’insieme di regole e convenzioni che stabiliscono come una
proprietà (indicatore) possa essere rilevata e trasformata in variabile e come la variabile
dovrà essere rappresentata sotto forma di simboli o cifre.
La variabile è la proprietà di un oggetto che è stata sottoposta ad una definizione operativa.
La variabile corrisponde alla forma empirica dell’indicatore teorico.
Gli stati della proprietà vengono operativizzati divenendo categorie, a ciascuna categoria
viene assegnato un valore alfanumerico che comparirà nel vettore colonna della matrice dei
dati.
Un esempio: la nostra unità di analisi è l’individuo e vogliamo studiarne il grado di
scolarizzazione. Indicatore del grado di scolarizzazione sarà il grado di istruzione,
quest’ultimo può essere: licenza elementare, licenza media, diploma, laurea,
specializzazione post laurea, nessun titolo ecc. A ciascuna categoria corrisponderà un
numero, quindi a nessun titolo 0, a licenza elementare 1, a licenza media 2 e così via. Dopo
aver interrogato i casi, questi numeri verranno inseriti nella matrice dei dati e verranno
analizzati attraverso tecniche statistiche che si differenziano sul tipo di variabile.
(Ovviamente questo avviene nel campo di un’indagine di tipo standard, infatti una ricerca
di tipo non standard si limita all’individuazione delle dimensioni di un concetto senza
sottoporre quest’ultimo al processo scompositivo della definizione operativa).
[La matrice dei dati è un insieme di righe (che corrispondono ai casi della ricerca) e di
colonne (che corrispondono alle variabili), tali che all’incrocio tra riga e colonna si trovi il
valore alfanumerico stabilito nella definizione operativa.]
Tuttavia, non tutte le proprietà possono essere trasformate in variabili. Perché sia possibile
ciò una proprietà deve soddisfare almeno due condizioni:
• Deve variare: essa deve poter assumere almeno due stati diversi da caso a caso nello
stesso momento oppure nello stesso caso in tempi differenti; se ciò non accade la
proprietà diverrà una costante. (Es. se dovessimo condurre un’indagine sulla
disoccupazione tra le donne in Italia non potremmo utilizzare la proprietà ‘genere’
come variabile in quanto tutti i casi assumerebbero la stessa proprietà e sarebbe
inutile).
• Deve avere una definizione operativa: si deve stabilire in che modo gli stati
sulla proprietà vengano rilevati e registrati nella matrice dei dati in modo tale da
permettere una successiva analisi statistica.
Un’altra importante questione riguarda il processo di classificazione delle modalità di una
variabile. Una volta rilevati gli stati di una proprietà, per far sì che vengano trasformati nelle
modalità della variabile in questione, è necessario che vengano rispettate tre regole:
1. Il fundamentum divisionis: fa sì che le informazioni non si collochino
contemporaneamente in più categorie di risposta. Se per esempio la proprietà è
“stato civile” le modalità saranno “celibe/nubile”, “sposato/a”, “divorziato/a”,
“separato/a”, “vedovo/a”, in questo caso il fundamentum divisionis fa riferimento
alla Legislazione vigente in Italia. Se fosse stata inclusa la modalità “convivente” i
fundamenta divisionis sarebbero stati due: legislativo, che non considera le coppie
di fatto, e non legislativo, che le include.
2. La mutua esclusività: fa sì che nessun referente possa essere attribuito
contemporaneamente a più modalità di una stessa proprietà. Ad esempio se ci
fosse stato “convivente” tra le opzioni possibili, oltre a non rispettare il
fundamentum divisionis, questa modalità non avrebbe rispettato neanche il
principio di mutua esclusività poiché una persona può essere sia divorziata sia
convivente.
3. L’esaustività: le modalità devono comprendere tutte le sfaccettature della
proprietà in modo tale che il caso possa trovare il suo stato all’interno delle opzioni
proposte.
Nell’ambito della ricerca standard quantitativa, dovendo interpretare i valori presenti in una
matrice dei dati, si possono distinguere vari tipi di variabili a seconda del tipo di proprietà
che le ha suggerite. Abbiamo quindi:
• Proprietà discrete: una proprietà è discreta se può assumere solo un numero finito di
stati che non sono in relazione quantitativa fra loro. (Es. genere, titolo di studio…)
· variabili categoriali non ordinate: i valori numerici attribuiti alle modalità non
hanno alcun valore cardinale, sono semplici simboli utilizzati per distinguere le
singole categorie nella matrice dei dati. L’unico criterio da rispettare è che a ciascuna
modalità venga attribuito un codice numerico differente. La definizione operativa è
quella della classificazione e le operazioni logico-matematiche possibili sono
uguaglianza/differenza. (Es. genere: maschio/femmina/trans).
• Proprietà continue: sono le proprietà degli oggetti che hanno un numero infinito di
stati impercettibilmente diversi l’uno dall’altro, ciascuno dei quali è collocabile lungo
un continuum.
TIPI DI GRADO DI
VARIABILI AUTONOMIA
Categoriali non Alto
ordinate
Categoriali Ridotto
ordinate
Cardinali/quasi- Assente
cardinali
Infine possiamo fare un’ulteriore classificazione delle variabili in base a diversi fattori
quali:
• Posizione assunta nella relazione causa/effetto: possiamo distinguere variabili
indipendenti e variabili dipendenti, analizzando le relazioni che intercorrono
tra loro tramite l’analisi statistica. In questo modo, attribuendo convenzionalmente il
carattere dipendente e indipendente a determinate variabili, possiamo vedere se una
influenza l’altra o meno.
• Grado di manipolabilità: sono definite manipolabili le variabili che possono essere
modificate dal ricercatore. È quanto accade in un esperimento in cui il ricercatore
studia l’atteggiamento di uno o più casi prima e dopo un determinato stimolo.
• Grado di osservabilità: possiamo distinguere variabili latenti e variabili
osservate. Le variabili osservate sono direttamente correlate con le proprietà a cui
afferiscono (Es. genere, reddito ecc.). Le variabili latenti, al contrario, non sono
direttamente osservabili in quanto afferiscono a dei concetti complessi collocati ad
un elevato grado di astrazione (Es. razzismo, benessere ecc.). In questo caso, tramite
le operazioni di Scaling, è possibile rilevare una variabile latente tramite più variabili
osservate, ovviamente nessuna di queste sarà abbastanza esaustiva da rappresentare
singolarmente la proprietà a cui si riferisce.
• Carattere individuale o collettivo: le variabili individuali sono specifiche
dell’individuo. In questa categoria ricadono le variabili assolute, indipendenti da ogni
altra informazione (genere, età), le comparative, determinate dal confronto di una
singola proprietà assunta da un individuo con la distribuzione della stessa proprietà
all’interno del collettivo di cui fa parte l’individuo (giudizio scolastico), le relazionali,
sulla base delle relazioni che intercorrono tra l’individuo e il collettivo di cui fa parte
(centralità o isolamento di un alunno nel suo gruppo classe), le contestuali o
ecologiche, riferite ad un collettivo ma applicate ai suoi singoli membri (tipo di scuola
frequentata). Le variabili collettive invece sono proprie di un gruppo sociale e di
distinguono in aggregate, la proprietà del collettivo dipende da quella del singolo
(reddito familiare), analitiche, derivate da variabili individuali tramite dei calcoli
(tasso di disoccupazione), strutturali, derivanti dai calcoli effettuati su variabili
individuali relazionali (grado di coesione di una comitiva), globali, indipendenti da
ogni proprietà individuale (densità di popolazione).
Infine abbiamo un’ultima distinzione in variabili naturali e variabili artificiali, le prime
sono immediatamente percepibili, le seconde invece derivano da calcoli o manipolazioni
del ricercatore.
I censimenti come abbiamo detto sono sia a scopi gestionali che conoscitivi. Tra i principali
censimenti che rappresentano la raccolta pubblica di dati più onerosa e complessa troviamo:
Il censimento della popolazione e delle abitazioni; il censimento dell’agricoltura e il
censimento dell’industria e dei servizi. Grazie ai dati rilevati col censimento è possibile
fornire informazioni ad un elevato dettaglio territoriale sulle principali caratteristiche socio-
demografiche della popolazione e sul patrimonio abitativo. I dati censuari sono
fondamentali sia per le decisioni di governo che per le associazioni e le imprese. Il primo
censimento della popolazione e delle abitazioni in Italia è avvenuto nel 1861 e l’ultimo nel
2011, si svolgono con cadenza decennale. Una caratteristica negativa dei censimenti in Italia
consiste nella poca tempestività dei dati prodotti, i quali spesso vengono rilasciati dopo anni
e quindi non rispecchiano più la realtà contemporanea al momento del rilascio. Questo non
permette l’utilizzo dei censimenti ai fini di studi e indagini su fenomeni dinamici quali ad
esempio l’immigrazione. Tra altri censimenti importanti troviamo ancora quelli sulle
Istituzioni non-profit o sugli interventi e i servizi sociali dei Comuni singoli o sulla spesa
sostenuta dai Comuni per i servizi (le informazioni raccolte riguardano sette aree di utenza
dei servizi: famiglia e minori, disabili, dipendenze, anziani, immigrati, disagio adulti,
multiutenza)
Rientrano tra le tecniche non intrusive anche le Survey realizzate dagli enti pubblici. I dati
raccolti da queste inchieste godono di una sorta di non intrusività di secondo livello. Essendo
dati che si producono tramite l’interrogazione dovrebbe sorgere il dubbio di come sia
possibile far rientrare questa categoria tra le tecniche non intrusive. In realtà non è la tecnica
dell’indagine campionaria a non essere intrusiva, bensì la lettura dei dati che produce. Infatti
un ricercatore, dinanzi a dati provenienti da fonti statistiche ufficiali come l’Istat o
l’Eurostat, non ha effettivamente alcuna possibilità di influenzare il materiale che va
raccogliendo.
L’Istat è la fonte statistica ufficiale di Italia. Essa conduce una serie di indagini con
l’obbiettivo di fornire un quadro il più possibile completo, della situazione sociale e delle
condizioni di vita del Paese. Uno dei principali studi è il Sistema delle indagini Multiscopo
che si articola su sette indagini ricoprendo i più importanti temi di rilevanza sociale: Aspetti
della vita quotidiana (cadenza annuale), Turismo (cadenza trimestrale) e cinque indagini
tematiche che vengono effettuate con rotazione ogni cinque anni (Condizioni di salute e
ricorso ai servizi sanitari; I cittadini e il tempo libero; Sicurezza dei cittadini; Famiglie e
soggetti sociali; Uso del tempo). All’indagine multiscopo si aggiungono altre survey dai
temi molto rilevanti quali: le forze di lavoro (da tale indagine derivano le stime ufficiali di
occupati e disoccupati), la povertà (redditi e consumi delle famiglie, indici di povertà
assoluta e bilanci) e l’istruzione (condotta ogni 3 anni, si compone di 2 rilevazioni: i percorsi
di studio e di lavoro dei diplomati e l’inserimento professionale. Dopo un certo lasso di
tempo è possibile condurre ulteriori indagini sugli esiti occupazionali) promosse sia
dall’Eurostat (Eu-silc: quella sui redditi e le condizioni di vita delle famiglie) che dall’Istat.
A livello internazionale vanno infine menzionati gli Eurobarometri, sondaggi di opinione
condotti dal 1973 per studiare l’evoluzione delle opinioni nel tempo, coordinati dall’Eurostat
ma condotti da agenzie private. Spaziano su vari temi dall’integrazione europea ad
argomenti di natura più sociale. Uno dei difetti di questi studi decisamente originali è che la
piena comparabilità dei dati non è sempre raggiunta poiché la versione originale dei
questionari viene stilata in lingua inglese e successivamente tradotto nelle altre lingue: in
questo modo i concetti tradotti perdono parte del loro valore semantico.
Prima di concludere questo paragrafo sulle survey è importante sottolineare l’elemento
principale che le differenzia dalle altre inchieste campionarie, cioè l’avere come unità di
analisi il territorio e non l’individuo. Il dato prodotto da questo tipo di indagini su scala
nazionale o internazionale è un dato aggregato. Il dato aggregato deriva da un’operazione
di conteggio effettuata sugli individui di un collettivo e che porta ad un totale. L’unità di
rilevamento e l’unità di raccolta non coincidono: l’unità di rilevamento (l’individuo) si trova
ad un livello inferiore rispetto l’unità di raccolta (territorio).
Le survey sono fondamentali per analisi comparativi di fenomeni sia tra ripartizioni
territoriali di un singolo paese sia tra intere nazioni che tra archi temporali diversi.
Tecniche intrusive
Il metodo più intrusivo di fare ricerca è l’interrogazione, infatti per ottenere le informazioni
necessarie al suo lavoro il ricercatore entra in contatto diretto con le persone oggetto di
studio intrudendo la loro quotidianità.
Il questionario
Il questionario corrisponde ad una procedura standardizzata di interrogazione, la cui
costruzione dipende strettamente dall’operativizzazione dei concetti rilevanti. Esso consiste
in un elenco di domande prestabilite e preimpostate con rispettive opzioni di risposta
prestabilite e preimpostate.
La formulazione delle domande deve essere fatta in modo da garantire l’invarianza dello
stimolo, per minimizzare o annullare eventuali differenze di interpretazione tra gli
intervistati ed eventuali effetti di condizionamento dovuti all’interazione tra intervistatore e
intervistato. L’invarianza dello stimolo non può mai essere perseguita totalmente poiché
come ben sappiamo essendo l’individuo un essere mutevole, la sua opinione e
interpretazione della realtà può cambiare da un momento all’altro. Un’altra condizione
importante per la formulazione di un questionario è sicuramente l’affidabilità del
comportamento verbale: il ricercatore deve essere sicuro che la domanda venga
interpretata dall’intervistato come lui la intende e che la risposta non si discosti
consapevolmente o meno dal vero stato della proprietà da rilevare. È importante infatti che
la domanda sia articolata con un linguaggio semplice e comprensibile e non fraintendibile;
è assolutamente necessario evitare l’utilizzo di slang, espressioni gergali, doppie negazioni
(l’intervistato potrebbe rispondere esattamente il contrario della risposta che sarebbe stata
data se il quesito fosse stato formulato in positivo), infine sono da escludere termini
discriminatori o con un’accezione negativa (poiché possono influenzare l’opinione
dell’intervistato).
Ora le domande possono essere di vari tipi, abbiamo:
• Domande socio-anagrafiche; raccolgono tutte quelle informazioni che
vengono raccolte in ogni tipo di ricerca indipendentemente dal tema, quindi
età, genere, professione, titolo di studio ecc. Nel caso in cui l’unità di analisi
fosse un’organizzazione o un’istituzione le informazioni saranno: data di
costituzione dell’organizzazione, luogo in cui ha sede quest’ultima ecc.
• Domande chiuse: sono le più frequenti e presentano delle alternative di
risposta prestabilite per cui l’intervistato dovrà semplicemente barrare la
casella che corrisponde allo stato che lo rappresenta. Il vantaggio delle
domande chiuse per il ricercatore consiste nel fatto che l’analisi comparativa
fra gli stati assunti dai casi della ricerca risulta essere più facile anche perché
ogni opzione di risposta può essere rappresentata con un segno alfanumerico.
• Domande aperte o semi aperte: non hanno delle risposte predefinite,
l’intervistato può elaborare liberamente la risposta. Si ricorre a questo tipo di
domande quando non è possibile o non si vuole classificare a monte una serie
di risposte predefinite, quando non si conoscono tutte le possibili alternative
e/o si vogliono cogliere delle sfumature soggettive. Le domande semi-aperte
sono quelle che tra le modalità di risposta presentano una voce come “altro”
chiedendo all’intervistato di specificare oppure “motiva la tua risposta”.
Ci sono varie condizioni, oltre alla comprensibilità della domanda, che possono causare
risposte incoerenti o false.
L’acquiescenza è un comportamento remissivo che a volte l’intervistato può assumere per
stanchezza o disinteresse e consiste nel rispondere sempre in maniera positiva alle
affermazioni che gli vengono sottoposte o nel rispondere in modo incoerente. Un esempio
dell’ultimo caso è quando l’intervistato si trova a rispondere ad una serie di affermazioni
inserite in una batteria di domande. La batteria di domande è una tabella con un elenco di
vari interrogativi o affermazioni che richiedono tutti quanti le stesse modalità di risposta (es.
vero/falso). L’intervistato tende a rispondere in maniera meccanica senza prestare
attenzione al significato della domanda.
L’effetto memoria: l’intervistato può perdere l’attenzione e perdersi qualche passaggio del
quesito; questo succede ad esempio quando i quesiti o le modalità di risposta sono troppo
estesi, soprattutto se è lo stesso intervistatore a formularli oralmente e non l’intervistato a
leggerli. Importante quindi, per non far perdere l’interesse o l’attenzione, è mantenere la
conversazione/l’intervista stimolante sollecitando ad esempio un ricordo oppure fornendo
una copia del questionario all’intervistato nel caso in cui l’interrogazione avvenga oralmente.
La desiderabilità sociale è una delle condizioni più diffuse che genera una serie di risposte
non veritiere da parte dell’intervistato. Si tratta di un atteggiamento che assume
quest’ultimo quando risponde in base alla cultura dominante o ai valori socialmente
condivisi. Questo avviene principalmente perché l’intervistato riconosce l’intervistatore
come un giudice; è compito quindi di un buon intervistatore mettere a proprio agio
l’individuo che ha di fronte per ottenere risposte sincere.
All’atteggiamento della desiderabilità sociale si ricollega poi la questione delle tematiche
sensibili che rispecchiano uno tra i principali problemi legati all’interrogazione in una
ricerca standard. Si tratta di argomenti “delicati” su cui gli attori sociali spesso non si
sbilanciano o non vogliono esprimersi (reddito, abitudini e/o preferenze sessuali, consumo
di alcol e droga ecc.).
Il questionario solitamente, prima di essere somministrato al campione per la rilevazione
dei dati necessari ai fini della ricerca, viene sottoposto ad un pre-test per cui verrà
somministrato ad un sotto-campione con lo scopo di comprendere se si presta
adeguatamente come strumento di rilevazione del fenomeno studiato e se presenta errori o
parti da perfezionare.
Esistono vari modi per somministrare un questionario. Possiamo fare una prima
classificazione in base al ricorso o meno delle tecnologie. Paper and pencil (P&P)
corrisponde all’insieme delle tecniche carta e penna, quindi senza l’uso di strumenti
tecnologici: auto-somministrazione o somministrazione guidata. The Computer assisted
surveyin information collection (C.A.S.I.C.) comprende invece quelle tecniche con
supporto informatico. Vediamo nel dettaglio:
• Somministrazione face to face: è una delle modalità più utilizzate nella
social survey. Può avvenire in home (ambiente familiare, in questo caso va
contattato preventivamente l’intervistato per fissare un appuntamento) o in
hall (posto pubblico). La modalità in home è più vantaggiosa in quanto
l’intervistato trovandosi in un ambiente familiare ha più tempo ed è più
disponibile per dedicarsi al questionario; si usa questa modalità soprattutto
per questionari dai temi sensibili o complessi che richiedono riflessione. La
modalità in hall invece presenta più svantaggi poiché deve essere di breve
durata considerando la fretta e gli impegni che l’intervistato può avere. Di
solito il luogo pubblico viene scelto quando ci sono limiti economici e
temporali da rispettare. In generale il confronto face to face è uno dei preferiti
poiché permette al ricercatore di entrare in contatto visivo con l’intervistato e
apprendere informazioni in più.
• C.A.P.I.: corrisponde alla somministrazione face to face con la differenza che
le risposte vanno direttamente inserite nella matrice dei dati tramite l’uso di
un apparecchio tecnologico. Il vantaggio è la riduzione dei tempi di ricerca.
• Somministrazione telefonica o C.A.T.I.: la somministrazione del
questionario avviene per via telefonica e l’intervistatore nel primo caso riporta
le risposte sul cartaceo, nel secondo caso su un apparecchio digitale. I vantaggi
sono vari: i costi sono limitati, è possibile raggiungere persone anche a grandi
distanze, l’anonimato è garantito e le persone possono essere più disponibili
nel rispondere sinceramente anche su tematiche sensibili non trovandosi
faccia a faccia con l’intervistatore. Anche gli svantaggi tuttavia sono molteplici:
non condividendo lo stesso spazio, l’intervistatore non può cogliere una serie
di indizi che possono aumentare la conoscenza sull’individuo intervistato
(espressioni facciali, gestualità, ambiente); inoltre l’intervistatore non può
servirsi di strumenti che possono facilitare la comprensione degli argomenti
trattati (disegni, tabelle, altro materiale). Inoltre la somministrazione deve
essere breve e coincisa, non ci si può dilungare troppo e non si possono trattare
argomenti complessi o sconosciuti all’intervistato. Infine la somministrazione
telefonica risulta inefficiente dal momento in cui gli attori sociali possono non
rispondere al telefono o non possedere proprio un telefono fisso.
• Auto-somministrazione: in questo caso il questionario viene compilato
direttamente dall’intervistato. Esistono due casi principali di auto-
compilazione: la rilevazione di gruppo (l’operatore distribuisce i questionari e
li ritira alla fine della compilazione) e la rilevazione individuale. Quest’ultima
può essere con restituzione vincolata (in questo caso l’operatore ritirerà il
questionario personalmente in un secondo momento, così avveniva per il
vecchio censimento ISTAT). I vantaggi, soprattutto nella versione tecnologica,
sono i costi contenuti e la possibilità di raggiungere un grande numero di
individui. Gli svantaggi sono molteplici: prima di tutto essendo un’auto-
somministrazione il questionario potrebbe non essere compilato e restituito,
questo determina l’errore di non-risposta che non permette di generalizzare i
risultati. In secondo luogo, data l’assenza dell’intervistatore alcune domande,
non essendo chiare o comprensibili per l’attore sociale, vengono lasciate
incomplete o con una risposta non corrispondente allo stato effettivo
dell’intervistato.
• C.A.S.I. (Computer assisted self-administrated interviewing): la
somministrazione del questionario avviene attraverso il computer. Ne esistono
molte varianti, di cui la più emergente è l’E.M.S. (Email Survey). Quest’ultima
corrisponde alla versione più evoluta dei questionari postali ed è la prima
tecnica che utilizza il Web come strumento di rilevazione dei dati. Le indagini
condotte tramite l’ausilio di internet sono dette Web Based Survey (W.B.S.) e
la procedura che per rilevare i dati prende il nome di Computer assisted web
interviewing (CAWI) o questionario online. Viene utilizzato un sito per
ospitare il questionario e le risposte sono inviate in tempo reale. I principali
svantaggi riguardano il rapporto che l’intervistato ha con la tecnologia, infatti
ancora una larga fascia di popolazione rimane esclusa dall’accesso alle
tecnologie digitali, inoltre è necessario avere a disposizione un computer e una
connessione ad Internet nonché competenze informatiche per compilare
questo tipo di questionari. Un altro problema che si può verificare è che i
soggetti che accedono al questionario non rispecchino le caratteristiche
richieste (in questo caso per gestire la partecipazione si fa ricorso ad una
registrazione online che richieda username e password, ma resta comunque
poco affidabile poiché l’intervistatore non può controllare chi ci sia
effettivamente dietro al computer o smartphone).
Per individuare la modalità di rilevazione più adeguata sicuramente il primo passo è operare
una valutazione dei costi-opportunità e decidere in base agli obbiettivi e alle risorse in
campo. Un elemento che non può essere trascurato è l’elemento tempo in relazione ai costi:
se il ricercatore ad esempio ha tempi ristretti e costi limitati sicuramente tenderà più
facilmente a realizzare delle interviste telefonicamente o auto amministrate piuttosto che
face to face. Un altro elemento fondamentale da considerare è la popolazione di riferimento:
se la popolazione di riferimento comprende anziani o individui provenienti da contesti
sociali disagiati sicuramente è preferibile un contatto diretto con interviste face to face.
Importante infine sarà dunque l’esperienza del ricercatore: un occhio più esperto saprà
infatti individuare le difficoltà e i rischi che prevedono determinate modalità rispetto ad
altre.
Il campionamento
Definiamo la popolazione di una ricerca: l’insieme dei casi che costituiscono l’oggetto
di indagine e che hanno in comune una caratteristica osservabile quindi l’insieme degli
esemplari dell’unità scelta esistenti entro l’ambito di una ricerca. La popolazione
di riferimento dipende totalmente dagli interrogativi di ricerca che sono alla base
dell’indagine. Definire una popolazione significa individuare le caratteristiche interessanti
per la ricerca, delimitando il campo di azione della ricerca stessa. Distinguiamo innanzitutto
tra popolazione teorica e popolazione accessibile. La popolazione teorica comprende tutte
le unità che costituiscono la popolazione oggetto di indagine mentre la popolazione
accessibile è costituita da tutte le unità appartenenti alla popolazione teorica potenzialmente
raggiungibili e viene convenzionalmente indicata con il simbolo N. Quando la popolazione
teorica è accessibile significa che le due popolazioni coincidono: è il caso del censimento,
l’indagine è detta esaustiva. Ogni qualvolta la popolazione di riferimento non è raggiungibile
nella sua totalità (quasi sempre) è necessario individuare un sottoinsieme (campione), è
compito degli scienziati sociali quindi quello di stabilire una procedura di selezione dei casi
(campionamento). Il campione è dunque un sottoinsieme rappresentativo della
popolazione di riferimento; il campionamento è la procedura attraverso la quale da una
popolazione si estrae un numero finito di casi (campione) scelti con criteri tali da consentire
la generalizzazione (inferenza) dei risultati ottenuti. Il disegno di campionamento è
l’insieme dei criteri scelti dal ricercatore per formare un campione: la lista delle unità
appartenenti alla popolazione, la probabilità di selezione, la numerosità campionaria, il
metodo di selezione.
Le procedure probabilistiche di campionamento fanno riferimento alla teoria del
campionamento statistico: a partire dai risultati che si ottengono su un campione è
possibile effettuare una stima delle caratteristiche della popolazione totale. Queste
caratteristiche sono dette parametri. Una stima è un valore approssimato calcolato su un
campione estratto dall’insieme dei casi; un parametro è il valore esatto di una statistica
calcolato sul totale dei casi. Se la rilevazione è esaustiva (censimento) ovviamente i valori
coincidono. Se l’indagine è campionaria i due valori coincidono con una certa probabilità.
È possibile calcolare un grado di bontà della stima, un livello di affidabilità detto intervallo
di fiducia o di confidenza (campo di varianza): se è minimo significa che il valore
individuato dal campione è piuttosto vicino al valore vero della popolazione (la stima sarà
quindi più precisa). L’operazione che consente di fare questa misura si chiama livello di
fiducia. La differenza tra la stima del parametro e il valore vero assunto nella popolazione
dipende principalmente dall’errore di campionamento. Poiché la reale caratteristica della
popolazione è ignota, l’errore di campionamento non può mai essere definito con esattezza.
L’ampiezza del campione è inversamente proporzionale agli errori di rilevazione, quindi
più il campione sarà ampio, più il margine di errore sarà minimo e le stime precise ed
attendibili.
La variabilità di un fenomeno corrisponde al grado di variazioni che presenta una
caratteristica all’interno di una popolazione: se una popolazione è costituita da casi che
presentano quasi tutti lo stesso parametro la variabilità è bassa; al contrario se i casi
differiscono di parametri in grande quantità la variabilità sarà alta.
Ora l’obbiettivo dell’inchiesta campionaria è quello di stimare alcuni parametri della
popolazione sulla base del valore che tali parametri assumono nel campione (è questo che si
intende quando si dice che la survey tende alla generalizzazione dei risultati).
Per stabilire se un campione è rappresentativo è necessario riferirsi a due fattori:
• Casualità: un campione è rappresentativo quando viene estratto
casualmente dalla popolazione di riferimento costituendo un’immagine in
piccolo di quest’ultima. Ovviamente è necessario conoscere la distribuzione
delle unità che ci interessano nella popolazione di riferimento e su questo sono
di grande aiuto le fonti statistiche ufficiali come l’Istat.
• Rappresentatività: fa riferimento alla possibilità del campione di
rappresentare la popolazione, dunque all’esito della procedura. Anche se i casi
vengono selezionati secondo le leggi probabilistiche c’è la possibilità che alcuni
risultino irreperibili o si rifiutino, perciò la rappresentatività non è garantita
ma deve essere sempre e comunque testata sulla popolazione in riferimento
alle proprietà che si stanno studiando. Questo determina che la
rappresentatività sia una proprietà non del campione ma del disegno di
campionamento.
Tecniche di scaling
Lo Scaling è uno strumento e un procedimento per la misurazione dell’atteggiamento.
L’atteggiamento è una predisposizione ad agire <<sulla base di tendenze e sentimenti,
pregiudizi e nozioni preconcette verso un determinato oggetto>> (Thunderstone, 1928).
L’atteggiamento è uno stato interiore che emerge attraverso i comportamenti e le espressioni
verbali che, a loro volta, divengono le manifestazioni empiricamente rilevabili
dell’atteggiamento. Lo studio degli atteggiamenti rappresenta un tema particolarmente
rilevante nell’ambito della ricerca quantitativa e nel dibattito sulla misurazione. L’interesse
delle scienze sociali per gli atteggiamenti si è concretizzato agli inizi del secolo scorso quando
si fece strada l’idea che anche proprietà meramente psichiche potessero essere rilevate e
misurate. La procedura alla base di tutte le tecniche di Scaling assume che sottoponendo un
soggetto a una serie di affermazioni (legati all’atteggiamento che si vuole studiare) e
chiedendogli di esprimere la sua opinione, è possibile attraverso un punteggio stimare la
posizione del soggetto su un continuum, cioè sull’atteggiamento studiato. L’atteggiamento
può essere concepito dunque come un continuum che varia per incrementi infinitesimali sui
quali il soggetto assume una specifica posizione. Tale posizione si identifica in direzione (a
favore o a sfavore di qualcosa) e grado (intensità di favore o sfavore). L’atteggiamento viene
quindi operativizzato, ossia scomposto nelle sue dimensioni; successivamente per ciascuna
dimensione vengono individuati gli indicatori che attraverso la definizione operativa si
trasformano in variabile; ogni variabile costituisce uno stato dell’atteggiamento. Studiando
l’atteggiamento, risulta chiaro che nelle tecniche di Scaling l’unità di analisi sarà sempre il
singolo individuo.
Ora, se si assume che per rilevare un atteggiamento è sufficiente riferirsi ad una sola
dimensione di esso, si parla di Scaling unidimensionale. La gran parte delle tecniche di
Scaling sono unidimensionali. Al contrario, se si assume che per un atteggiamento c’è
bisogno di considerare più dimensioni (che in alcuni casi possono essere ipotizzate a priori,
in altri casi possono emergere dalla stessa elaborazione dei dati), si parla di Scaling
multidimensionale. Il soggetto viene quindi invitato ad esprimere la propria opinione su
più concetti/oggetti cognitivi e, attraverso specifiche tecniche di analisi statistica
multidimensionale, viene appurato il legame tra tutte le dimensioni indagate. Facciamo un
esempio: tra il 1944 e il 1949 un trio di studiosi condusse un’indagine sulla <<Personalità
autoritaria>> ipotizzando che l’atteggiamento antidemocratico fosse correlato a tre
dimensioni latenti, l’etnocentrismo, il conservatorismo politico-economico e
l’antisemitismo. Vennero prima analizzate (attraverso le tecniche unidimensionali) le tre
dimensioni singolarmente per poi controllare successivamente la corrispondenza tra queste
tre dimensioni e l’atteggiamento antidemocratico attraverso una scala unidimensionale. Se
gli autori avessero voluto adottare una tecnica multidimensionale avrebbero dovuto
interrogare i soggetti simultaneamente sul loro grado di etnocentrismo, conservatorismo e
antisemitismo per poi applicare tecniche di analisi statistica multidimensionale.
È possibile distinguere due grandi famiglie di Scaling:
• Quelle che generano variabili categoriali ordinate; in questo caso si
presuppone che la proprietà (ossia l’atteggiamento in riferimento ad una
determinata cosa) sia continua e che i suoi stati siano discreti e ordinabili. La
distanza tra gli stati (categorie) non è quantificabile, le relative modalità di
risposta vengono ordinate gradualmente e l’unica operazione possibile è
stabilire se uno stato è maggiore o minore rispetto ad un altro. Le modalità di
risposta risulteranno essere quindi: molto, abbastanza, poco, per nulla oppure
alto, medio, basso e così via. Di questa famiglia fanno parte: la scala di distanza
sociale di Bogardus, la scala Thurstone, la scala Lickert, la scala Guttman e le
scale grafiche.
• Quelle che generano variabili quasi cardinali; in questo caso l’unità di
misura non viene stabilita dal ricercatore ma dall’intervistato che si
autocolloca sull’ipotetico continuum autovalutando il proprio stato sulla
proprietà indagata. L’autovalutazione viene espressa mediante un processo di
rappresentazione numerica (da 1 a 5, da 1 a 10 ecc.). Queste scale prendono il
nome di scale autoancoranti. Sono preferibili rispetto alla prima famiglia
poiché hanno la capacità di rappresentare in modo più fedele la complessità
del concetto indagato offrendo un range di risposte più ampio. A questa
famiglia appartengono: la scala Cantril, il termometro dei sentimenti, la scala
di autocollocazione su un segmento graduato e le scale autografiche.
Scala di Thurstone
La scala di Thurstone (fine anni ‘20) si basa su due assunti: al pari delle proprietà fisiche, gli
atteggiamenti possono essere collocati su un continuum in cui occupano posizioni che vanno
dal minimo al massimo favore; un individuo che ordina stimoli fisici, sulla base dell’intensità
della percezione, è anche in grado di ordinare affermazioni sulla base del favore/sfavore che
ha nei confronti di oggetti/eventi. Dunque è legittimo rilevare le proprietà psichiche con gli
stessi strumenti usati per rilevare proprietà fisiche. Il presupposto di base è: quanto minore
è la differenza tra due oggetti tanto minore è il numero di individui in grado di distinguere
la differenza.
L’atteggiamento viene rappresentato come un continuum diviso in 10 intervalli uguali. Si
selezionano circa 150 item che si ritiene essere indicatori dell’atteggiamento. Le
affermazioni vengono sottoposte in modo casuale a 100 soggetti, i giudici; il compito di
ciascun giudice consiste nel posizionare le 150 affermazioni lungo il continuum secondo le
11 categorie (i picchetti che dividono il continuum in 10 parti uguali) che vanno da un
minimo di favore ad un massimo di sfavore. Gli item selezionati saranno quelli che
presentano una minore variabilità, quindi le affermazioni che hanno ottenuto il maggiore
accordo sulla relativa posizione a cui sono state associate. Successivamente a ciascun item
viene assegnato un codice numerico che va da 1 a 11 a seconda della posizione che assume
nell’ordinamento.
La scala di Thurstone per quanto rappresenti un punto di svolta nelle tecniche di rilevazione
degli atteggiamenti, rimane una procedura poco utilizzata non solo per la sua complessità
ma soprattutto per la sua poca affidabilità: infatti non è detto che cambiando i giudici gli
item finali siano gli stessi così come l’ordine e la distanza delle affermazioni siano percepiti
allo stesso modo dai giudici e dagli intervistati.
Scala di Likert
La scala di Likert ottenne grande successo e consenso dopo la sua pubblicazione nel 1932.
Come le altre scale parte dal presupposto che l’atteggiamento possa essere concepito come
un continuum e che ogni intervistato sia capace di proiettare fedelmente il suo punto di vista
lungo il continuum. Anche in questo caso gli stimoli sono rappresentati da item,
affermazioni. Tuttavia, a differenza delle altre scale precedentemente citate e analizzate, in
questo caso lungo il continuum non vengono posti in ordine dal massimo favore al massimo
sfavore gli item stessi, bensì le modalità di risposta. L’affermazione, lo stimolo, viene
considerato una variabile categoriale ordinata mentre le categorie di risposta
vengono poste lungo il continuum. Inizialmente erano sette, poi sono state ridotte a
cinque: approvo fortemente, approvo, indeciso, disapprovo, disapprovo fortemente.
(Quelle eliminate erano approvo mediamente e disapprovo mediamente).
Affinchè sia garantita l’unidimensionalità della scala, cioè affinché gli item siano indicatori
di una stessa dimensione dell’atteggiamento studiato, gli item non solo devono essere
omogenei ma anche capaci di discriminare atteggiamenti opposti. La scala di Lickert viene
sottoposta quindi ad un pre-test grazie al quale vengono individuati gli item che faranno poi
parte della scala definitiva, cioè quelli con il potere discriminante più significativo.
Ad ogni modalità di risposta viene assegnato poi un numero (da 1 a 5); ogni intervistato
risponde alle varie affermazioni proposte; le risposte dell’intervistato vengono sommate
ottenendo un punteggio totale, score; lo score corrisponderà alla posizione dell’intervistato
lungo il continuum dell’atteggiamento nella sua totalità. Gli item quindi corrispondono
a delle misurazioni parziale dell’atteggiamento a cui si riferiscono. Per questo
motivo la scala Likert è detta Scala additiva o Scala a punteggi sommati.
Nel selezionare gli item è fondamentale rispettare alcune regole al fine di evitare distorsioni
da parte dell’intervistato:
(Prima famiglia di regole; si attiene alla percezione dell’intervistato) in primo luogo gli
item devono essere formulati in una maniera semplice e comprensibile, sono da evitare le
doppie negazioni e soprattutto il fenomeno della curvilinearità. La curvilinearità è la
condizione per cui due intervistati possono trovarsi in disaccordo riguardo a un determinato
item per motivi differenti eppure ottengono lo stesso punteggio. Altre condizioni da valutare
nella formulazione degli item riguardano le caratteristiche dell’intervistato: un soggetto a
cui i temi trattati sono molto familiari può giudicare inaffidabile e inadeguata l’intervista se
le affermazioni non sono trattate e formulate nel modo giusto; allo stesso tempo il livello di
precisione nella definizione di un item può essere controproducente per un individuo che
non ha confidenza con il tema trattato e non sapendo cosa significhino certe cose, può non
sentirsi all’altezza. Dunque è bene considerare anche il livello culturale dell’intervistato nella
ricerca.
(Seconda famiglia di regole; fa riferimento al rapporto che intercorre tra l’atteggiamento
e gli item a esso riferiti): gli item, riferiti alle diverse dimensioni dell’atteggiamento
indagato, vengono proposti all’interno di batterie in modo mescolato così da guadagnare a
parità di tempo maggiori informazioni sul fenomeno, dato che l’intervistato apprendendo
presto il meccanismo di risposta “d’accordo” / “non d’accordo”, risponde più velocemente.
Gli item proposti da Likert erano circa 50, lunghezza tutt’ora adottata in psicologia; in
sociologia e politologi hanno invece ridotto il numero a una decina di item (poiché il
meccanismo di risposta assunto dall’intervistato può provocare maggiore disattenzione
nelle affermazioni affrontate se queste sono numerose). Quando si ottengono una serie di
risposte identiche fornite in modo automatico dall’intervistato, si parla di Response Set.
Oltre che per motivi di disattenzione o disinteresse, la tendenza a dichiararsi sempre in
accordo con le affermazioni proposte può essere causata anche dal fatto che l’intervistato
considera le frasi proposte come espressioni di verità e risponde come crede risponderebbe
l’intervistatore (capita quando il soggetto ha un basso livello di istruzione). Per evitare
questa cosa gli item proposti devono essere formulati in parte con affermazioni contro
l’oggetto di studio, in parte con affermazioni a favore dell’oggetto di studio; così il ricercatore
può accorgersi del Response set.
Per misurare l’attendibilità della scala Likert esistono due metodi:
• Il test-retest reliability: si somministrano due volte gli stessi item per
misurare la stabilità delle risposte date nelle due occasioni;
• Lo split-half: si basa sul principio di equivalenza; si suddivide la scala in due
metà in cui vengono raggruppati rispettivamente i punteggi sugli item pari e i
punteggi sugli item dispari, successivamente si calcola la correlazione tra
questi attraverso lo split-half.
Scala di Guttman
La scala di Guttman rappresenta un’evoluzione della Scala di Bogardus: l’obbiettivo
principale è quello di fornire una soluzione all’unidimensionalità. La scala si basa anch’essa
sul principio di cumulatività e sono gli stessi item ad essere posizionati lungo il continuum
seguendo un ordine crescente. La differenza sostanziale tra la scala sociale di Bogardus e
quella di Guttman consiste semplicemente nel fatto che mentre il continuum degli item nel
caso di Bogardus viene costruito ex ante, quindi prima; nel caso di Guttman viene costruito
ex post, quindi dopo essere stato somministrato al campione. Si assume che l’item più
semplice (maggiore tolleranza) è quello accettato dalla maggior parte degli intervistati
mentre quello più difficile (massima intolleranza) è quello accettato da un numero minore
di intervistati. Il risultato finale è, dunque, un ordinamento interdipendente di risposte e
individui, dove gli individui sono ordinati in base alle risposte e le risposte in base agli
individui. Se gli elementi della scala sono collocati adeguatamente sul continuum la matrice
dei dati risulterà essere divisa in due triangoli e lo scalogramma che ne risulta è uguale a
quello ideale (che l’intervistatore si era prefissato quando aveva effettuato l’ordine degli item
da proporre agli intervistati). Al contrario, se la scala presenta degli errori, ossia risposte che
non si inseriscono nelle sequenze previste, allora tramite il metodo Cornell si conteggiano le
risposte per individuare quelle meno coerenti che devono essere scartate o modificate.
OSSERVAZIONE OSSERVAZIONE
SCOPERTA COPERTA
Accesso al campo (1) Ricercatore + gatekeeper Ricercatore infiltrato
Perturbazione (2) Osservativa Interattiva
Flessibilità (3) Alta Bassa