Sei sulla pagina 1di 37

METODOLOGIA DELLA RICERCA

Cap. 1 - I paradigmi della ricerca sociale

Kuhn e i paradigmi delle scienze


La nozione di “paradigma” ha un’antica origine nella storia del pensiero filosofico.
Nelle scienze sociali l’uso del termine paradigma è reso confuso da molteplici significati
come “sistema di idee d’ordine, “corrente di pensiero”, “scuola” o sinonimo di “teoria”.
Il concetto di paradigma è stato riproposto dallo studioso Thomas Kuhn, con il suo
celebre saggio “La struttura delle rivoluzioni scientifiche”.
La riflessione di Kuhn ha per oggetto il rifiuto della concezione tradizionale di scienza
intesa come accumulazione progressiva e lineare di nuove acquisizioni: le singole
invenzioni e scoperte si aggiungono al corpo conoscitivo precedente (Scienza normale);
secondo Kuhn invece, esistono anche dei momenti (Scienza rivoluzionaria) nei quali il
rapporto di continuità con il passato si interrompe.
Il passaggio da una visione teorica all’altra ha conseguenze radicali sulla disciplina e, per
questo motivo, Kuhn utilizza il termine “rivoluzionaria”. Si produce un cambiamento dei
problemi da proporre all’indagine scientifica e dei criteri: si realizza così un riorientamento
della disciplina che consiste appunto nella trasformazione della struttura concettuale
attraverso cui gli scienziati guardano il mondo. È proprio questa “struttura concettuale”
che Kuhn definisce come paradigma.

Che cos’è un “paradigma” (secondo Kuhn)? Con il termine “paradigma” si designa una
prospettiva teorica condivisa e riconosciuta dalla comunità di scienziati di una
determinata disciplina, fondata sulle acquisizioni precedenti della disciplina stessa,
che opera indirizzando la ricerca in termini sia di individuazione e scelta dei fatti
rilevanti da studiare, sia di formulazioni di ipotesi entro le quali collocare la
spiegazione del fenomeno osservato.

In sintesi: il paradigma è un sistema di idee, un modello, una struttura concettuale


tramite cui gli scienziati, e gli altri, guardano il mondo; paradigmi diversi indirizzano il
modo di osservare in modi diversi.
Il paradigma disegna un “frame work” tecnico, metodologico, empirico; il paradigma
condiziona: la formulazione delle ipotesi, la scelta dei fatti da indagare, le modalità
di acquisizione dell’evidenza empirica e la scelta delle tecniche da impiegare.

Senza un paradigma, la scienza è priva di orientamenti in quanto i paradigmi stessi


forniscono agli scienziati alcune indicazioni indispensabili per costruirlo.
In questa prospettiva, le scienze sociali, in quanto prive di un unico paradigma
largamente condiviso dalla comunità scientifica, si configurano come scienze
preparadigmatiche: in particolare, sembra difficile individuare un paradigma condiviso
dalla comunità dei sociologi. Tuttavia, vi è un’altra interpretazione del pensiero di Kuhn: si
tratta di una ridefinizione del concetto di “paradigma”, nel quale restano tutti gli elementi
della definizione originaria, tranne il carattere della condivisione da parte della comunità
scientifica. Eliminando il carattere della condivisione, si apre la possibilità di compresenza
di più paradigmi: la sociologia diventa, da preparadigmatica, una disciplina
multiparadigmatica.

Tre questioni di fondo


Si possono individuare quali siano state le fondamentali prospettive dalle quali sono
nate le prime procedure operative e che hanno successivamente guidato lo sviluppo
della ricerca empirica. I paradigmi di riferimento che hanno storicamente orientato la
ricerca sociale sono: Visione Empirista e Visione Umanista.
Si tratta di due visioni fortemente contrapposte della realtà sociale e dei modi di
conoscerla, che hanno generato 2 blocchi fra loro fortemente differenziati di tecniche di
ricerca. Questi paradigmi sono concezioni generali sulla natura della realtà sociale,
sulla natura dell’uomo, sul modo con cui questo può conoscerla.
Lo scontro paradigmatico tra Visione Empirista e Visione Umanista, riconduce a tre
questioni di fondo:
- Questione Ontologica: è la questione del “che cosa”; riguarda la natura della realtà
sociale e la sua forma, chiedendosi di che cosa sono fatti i fenomeni sociali
(l’essenza). Attraverso la questione ontologica ci si interroga se i fenomeni sociali siano
“cose in sé stesse” oppure “rappresentazioni di cose”.
- Questione Epistemologica: è la questione del rapporto tra il “chi” e il “che cosa”,
ovvero pone l’accento sulla relazione tra lo studioso e la realtà studiata. Ovviamente
questa questione dipende dalla risposta data alla questione ontologica.
- Questione Metodologica: è la questione del “come”, ossia del “come la realtà sociale
può essere conosciuta”; riguarda quindi la strumentazione tecnica del processo
conoscitivo. Anche in questa questione, la risposta data e fortemente dipendente dalle
risposte alle altre due questioni.
Capitolo 2. RICERCA QUANTITATIVA E RICERCA QUALITATIVA

Il dibattito tra ricerca quantitativa e ricerca qualitativa ha avuto vicende alterne


lungo tutto il corso del secolo scorso:
- Anni ’20 – ’30  in questi anni entrambi gli approcci fornirono prodotti di elevato valore e
contribuirono notevolmente all’avanzamento della disciplina.
- Anni ’40 – ’60  in questi anni predomina l’approccio quantitativo.
- Anni ’60 – ’70 – ’80  in questi anni vi è internazionalismo delle due prospettive.
- A partire dagli anni ’70  prevale la sociologia analitica con modelli di equazioni
strutturali e si sviluppa successivamente l’“Event History Analysis”.
- Dalla seconda metà degli anni ’80  l’approccio qualitativo ha affermato con forza la
propria presenza sia nel dibattito metodologico sia sul piano della ricerca empirica.

Ricerca quantitativa e ricerca qualitativa: un confronto


In che cosa e quanto si differenziano tra loro i due approcci?

Impostazione della ricerca:


- Relazione tra teoria e ricerca e Funzione della letteratura
Ricerca quantitativa Ricerca qualitativa
Nella ricerca quantitativa il rapporto tra teoria e Nella ricerca qualitativa la relazione tra
ricerca è strutturato in fasi logicamente sequenziali, teoria e ricerca è aperta ed interattiva,
secondo un’impostazione deduttiva (la teoria secondo un’impostazione induttiva (la
precede l’osservazione), che si muove nel contesto teoria emerge dall’osservazione). Il
del sostegno della teoria precedentemente
ricercatore qualitativo spesso respinge
formulata. Assume così un’importanza rilevante la
volutamente la formulazione di teorie
letteratura, fondamentale per la definizione della
prima di cominciare il lavoro sul campo,
teoria e delle ipotesi. È quindi una ricerca interattiva
in quanto considera ciò un
in quanto prevede di osservare ciò che è stato detto
condizionamento che potrebbe portare
sul tale fenomeno prima dell’inizio della ricerca.
all’inibizione della capacità di
comprendere il punto di vista del
soggetto studiato, causando una
chiusura prematura.

- Concetti
Nella ricerca quantitativa, i concetti sono gli Nella ricerca qualitativa, i concetti sono
elementi costitutivi della teoria e sono essi a orientativi, aperti; il ricercatore ma utilizza
permettere alla teoria di essere sottoposta a concetti “orientativi”, che sono ancora da
controllo empirico tramite la loro rifinire non solo in termini operativi ma anche
“operativizzazione”, cioè la loro trasformazione in termini teorici. Questo perché i ricercatori
in variabili empiricamente osservabili; i concetti qualitativi ritengono che la natura stessa del
vanno dunque “operativizzati”, in modo tale che mondo empirico abbia un suo senso distintivo,
siano chiari e privi di incertezza: nell’approccio particolare ed unico e si colloca in un contesto
quantitativo la chiarificazione e la altrettanto specifico.
operativizzazione dei concetti avviene ancora
prima che inizi la ricerca.
- Rapporto con l’ambiente
Nella ricerca quantitativa, il rapporto con Nella ricerca qualitativa, il rapporto con l’ambiente
l’ambiente si basa sull’approccio manipolativo. La
si basa sull’approccio naturalistico: per approccio
reattività dell’oggetto di studio non è considerato
un problema per la ricerca quantitativa: la naturalistico si intende un intervento sulla realtà
reattività non rappresenta un ostacolo, in quanto
l’approccio quantitativo ritiene ammissibile un nella quale il ricercatore si astiene da qualsiasi
certo margine di “manipolazione controllata”. manipolazione o interferenza nei confronti della
Attraverso l’esperimento il ricercatore manipola la
realtà in maniera completa, arrivando a costruire realtà da studiare. L’approccio naturalista si basa
una situazione artificiale. sull’empatia.
Attraverso l’osservazione partecipante il ricercator
si limita ad osservare ciò che accade nella realtà.

Problema della reattività: il solo fatto di indagare sul comportamento umano può
comportare alterazioni del comportamento stesso; se le persone sanno di essere
osservate, è molto probabile che si comportino in maniera non naturale.

L’esperimento e l’osservazione partecipante sono due casi limite, fra i quali esistono
molteplici sfumature. Più in generale, tutti gli strumenti dell’analisi qualitativa diversi
dall’osservazione implicano sempre un intervento sulla realtà; simmetricamente, la ricerca
quantitativa non è sempre manipolativa e presenta molte gradazioni al suo interno.

- Interazione psicologica studioso-studiato

Nella ricerca quantitativa, il ricercatore Nella ricerca qualitativa, il ricercatore si colloca il


assume un punto di osservazione esterno al più possibile internamente al soggetto d’analisi,
soggetto studiato; inoltre, egli studia ciò che nella prospettiva di vedere la realtà sociale con
ritiene sia importante. gli occhi dei soggetti studiati; per fare ciò, il
ricercatore qualitativo instaura una relazione di
immedesimazione empatica.
Questa prospettiva psicologica solleva il
problema dell’oggettività della ricerca qualitativa
in quanto ciò che il ricercatore vede è filtrato dalla
sua prospettiva, dalla propria esperienza di vita,
dalla sua cultura e valori.

- Interazione fisica studioso-studiato


Nella ricerca quantitativa, non è prevista alcuna Nella ricerca qualitativa, è necessario l’incontro e
tipologia di contatto fisico tra studioso e studiato un’interazione profonda tra studioso e studiato per
(esempi: indagine condotta con questionario). la comprensione.

- Ruolo del soggetto studiato

Nella ricerca quantitativa, la concezione della Nella ricerca qualitativa, la concezione della
ricerca come “osservazione” implica un ruolo ricerca come “interazione” implica un ruolo “attivo”
“passivo” degli individui studiati. del soggetto studiato.

Rilevazione
- Disegno della ricerca

Nella ricerca quantitativa, il disegno della Nella ricerca qualitativa, il disegno della ricerca è
ricerca è costruito a tavolino prima dell’inizio
destrutturato, aperto ed idoneo a captare
della rilevazione ed è rigidamente strutturato e
chiuso. l’imprevisto, essendo modellato nel corso della
rilevazione.

- Rappresentatività

Nella ricerca quantitativa, il ricercatore è Nella ricerca qualitativa, il ricercatore mette al


primo posto la comprensione: si concentra su una
preoccupato della generalizzabilità dei risultati
sorta di “rappresentatività sostantiva”, sociologica,
e l’uso del campione statisticamente
da decidersi sul giudizio del ricercatore stesso e
rappresentativo è l’esito più evidente di questa
non sulla base di formule matematiche.
preoccupazione: il ricercatore è più
preoccupato della rappresentatività Si avranno dunque singoli casi non statisticamente
rappresentativi; all’approccio qualitativo non
del campione di società che sta studiando
interessa l’inferenza: non vengono scelti campioni
piuttosto che della sua capacità di
rappresentativi ma ne viene preso uno “a caso”.
comprenderla. Il campione è dunque
statisticamente rappresentativo.

- Strumento di rilevazione
Nella ricerca quantitativa, tutti i soggetti Nella ricerca qualitativa, non si ha l’obiettivo della
ricevono lo stesso trattamento; per questo
standardizzazione, anzi, la disomogeneità delle
gli strumenti sono unici e standardizzati. Lo
strumento di rilevazione è dunque uniforme informazioni è un fatto costitutivo, dato che il
per tutti i casi (per esempio, un
questionario), questo perché l’obiettivo ricercatore assume informazioni diverse a
finale della raccolta di informazioni è la seconda dei casi.
“matrice dei dati”, dove per tutti i casi sono Lo strumento di rilevazione varia dunque a
codificate le stesse informazioni. seconda dell’interesse dei soggetti e non si tende
alla standardizzazione.

- Natura dei dati

Nella ricerca quantitativa, i dati sono Nella ricerca qualitativa, i dati sono ricchi e
affidabili, precisi, rigorosi ed univoci. Il profondi.
termine inglese che viene utilizzato per
Con termine inglese, vengono chiamati dati
definire statisticamente questi attributi è
“soft”.
“hard”.

Analisi dei dati


L’analisi dei dati rappresenta la fase di una ricerca sociale nella quale la diversità tra
approccio quantitativo e qualitativo è più visibile: in particolare, il contrasto è dovuto dalla
strumentazione matematica statistica utilizzata dalla ricerca quantitativa a confronto con
l’analisi qualitativa, in cui manca un apparato statistico-matematico.

- Oggetto dell’analisi

Nella ricerca quantitativa, l’oggetto dell’analisi è Nella ricerca qualitativa, l’oggetto dell’analisi è
la “variabile”.
l’individuo: viene effettuata un’analisi per
L’analisi per dati avverrà sempre per variabili, soggetti.
in maniera impersonale.
L’oggetto dell’analisi non è rappresentato dalla
variabile ma dall’individuo nella sua interezza.
Esseno l’individuo l’oggetto di analisi, la ricerca
qualitativa prevede lo studio di casi cruciali
(“particolari”) con l’analisi di molte variabili,
ovvero molte informazioni riguardanti l’individuo.
- Obiettivo dell’analisi
Nella ricerca quantitativa, l’obiettivo Nella ricerca qualitativa, l’obiettivo dell’analisi è
dell’analisi è quello di spiegare la variazione,
quello di comprendere i soggetti.
ovvero la “varianza”, delle variabili; trovare
cioè le cause che provocano il variare. L’approccio qualitativo critica la ricerca
quantitativa in quanto ritiene che non sia
possibile l’irriducibilità dell’uomo ad una serie di
variabili distinte e separate: in questa
prospettiva si sottolinea come l’individuo sia
qualcosa di più della somma delle sue parti.

- Tecniche matematiche e statistiche

Nella ricerca quantitativa, il linguaggio della Nella ricerca qualitativa, la formalizzazione


viene considerata inutile e anche dannosa in
matematica viene inteso come il linguaggio
quanto riduttiva, e viene perciò ignorata e non
della scienza per cui c’è un uso intenso delle
utilizzata.
tecniche matematiche e statistiche.

Risultati

- Presentazione dati

Nella ricerca quantitativa, i dati sono presentati Nella ricerca qualitativa, i dati sono presentati
in tabelle. Le informazioni che la tabella sotto forma di brani, interviste, testi.
espone sono compatte e concise. Si ha
Si ha prospettiva narrativa.
prospettiva relazionale.

- Generalizzazione

Nella ricerca quantitativa, si hanno modelli Nella ricerca qualitativa, si hanno tipi ideali.
causali.

- Portata dei risultati

Nella ricerca quantitativa, si ha la Nella ricerca qualitativa, si ha specificità.


generalizzabilità,

4. Due diversi modi di conoscere la realtà sociale


È scientificamente più corretto fare ricerca sociale utilizzando la prospettiva quantitativa o
qualitativa? È possibile affermare che uno dei due approcci sia, dal punto di vista
“scientifico”, migliore dell’altro? La comunità scientifica si divide in tre posizioni a proposito
della superiorità della prospettiva quantitativa o qualitativa:
- Alcuni sostengono che l’approccio quantitativo e l’approccio qualitativo
(paradigma neo-positivista e paradigma interpretativo) rappresentino due punti di vista
incompatibili, in quanto sono caratterizzate da impostazioni filosofiche di fondo
totalmente differenti.
- Alcuni sostengono la superiorità scientifica della ricerca quantitativa ma non
negano che un valido contributo possa derivare anche dalle tecniche qualitative;
- Alcuni sostengono la piena legittimità, utilità e pari dignità di entrambi i metodi,
auspicando lo sviluppo di una ricerca sociale che, a seconda delle circostanze e del
fenomeno da studiare, scelga l’uno o l’altro approccio (o entrambi).
Questa posizione è cresciuta negli ultimi anni ed è dovuta dalla constatazione che sia
dalla ricerca quantitativa sia dalla ricerca qualitativa sono derivati contributi preziosi e
fondamentali per la ricerca sociale in generale.
Capitolo 3

Struttura tipo della ricerca quantitativa


La ricerca scientifica è un processo creativo di scoperta che si sviluppa secondo un
itinerario prefissato e secondo procedure prestabilite che si sono consolidate
all’interno della comunità scientifica.
La ricerca empirica deve essere pubblica, controllabile e ripetibile per poter essere
definita scientifica.
Per questo esiste un percorso “tipico” della ricerca sociale che parte dalla teoria,
attraversa le fasi di raccolta e analisi dei dati e ritorna alla teoria. Si possono
individuare cinque fasi che le legano.
La prima fase è quella della teoria, la seconda quella delle ipotesi, legate tra di loro
attraverso il processo della deduzione. La terza fase quella della raccolta dei dati, a cui
si arriva attraverso il processo di operativizzazione, cioè la trasformazione delle
ipotesi in affermazioni empiricamente osservabili. La quarta fase è quella dell’analisi
dei dati. La quinta fase è quella della rappresentazione dei risultati, a cui si arriva
tramite un processo di interpretazione delle analisi statistiche condotte nella fase
precedente.

Dalla teoria alle ipotesi


Per elaborare un’ipotesi si parte da una teoria, cioè un insieme di preposizioni tra
loro organicamente collegate che si pongono a un elevato livello di astrazione e
generalizzazione rispetto alla realtà empirica, le quali sono derivate da regolarità
empiriche e dalle quali possono essere derivate delle previsioni empiriche.
Una teoria deve essere organizzata in ipotesi specifiche. L’ipotesi implica una relazione
tra due o più concetti e ne permette una traduzione in termini empiricamente
controllabili. La validità di una teoria dipende dalla sua traduzione in ipotesi
empiricamente verificabili, perché se una teoria è troppo vaga per dar luogo ad ipotesi,
non può essere verificata nella realtà.

Dai concetti alle variabili


Il termine concetto si riferisce al contenuto semantico dei segni linguistici e delle
immagini mentali.
Essendo l’ipotesi una interconnessione tra concetti, emerge il fatto che i concetti sono i
“mattoni della teoria”, e attraverso la loro operativizzazione si realizza la traduzione
empirica di una teoria. Il concetto è il legame tra la teoria e il mondo empirico
osservabile.
Ma se i concetti formano una teoria, come la si può verificare empiricamente? Bisogna
passare dai concetti astratti alla loro applicazione come proprietà degli specifici oggetti
studiati (chiamati unità di analisi). Una proprietà misurabile di una unità di analisi si
chiama variabile.

Unità di analisi
L’unità di analisi rappresenta l’oggetto sociale al quale afferiscono le proprietà
studiate. L’unità di analisi è singolare ed astratta.

Variabili
Una variabile è un concetto operativizzato, o meglio la proprietà operativizzata di un
oggetto.
Le variabili possono variare tra diverse modalità; il caso limite è quello in cui risulta
invariante nello specifico sottoinsieme degli oggetti studiati, in quel caso prende il nome di
costante. Le variabili possono variare nel tempo, su uno stesso caso oppure fra i casi,
nello stesso tempo. Le variabili possono esser classificate secondo la loro
manipolabilità, la posizione nella relazione causa/effetto, l’osservabilità, il carattere
individuale o collettivo e il trattamento dei loro valori.
La prima distinzione è quella tra variabili manipolabili e non manipolabili. Le variabili
manipolabili sono quelle che possono essere modificate dal ricercatore, viceversa quelle
non manipolabili che non possono essere controllate. La seconda distinzione è quella tra
variabili dipendenti e variabili indipendenti: la variabile indipendente è ciò che influenza
(la causa), mentre la variabile dipendente è ciò che è influenzato (l’effetto). La terza
distinzione è quella tra variabili latenti e variabili osservate. Le prime sono variabili non
direttamente osservabili in quanto rappresentano concetti molto generali o complessi,
mentre le seconde sono facilmente rilevabili. L’ultima distinzione è quella tra variabili
individuali e variabili collettive. Le variabili individuali sono specifiche di ogni individuo,
mentre quelle collettive sono proprie di un gruppo sociale. Le variabili collettive si
suddividono a loro volta in variabili aggregate, dove la proprietà del collettivo deriva dalle
proprietà dei singoli componenti del gruppo, e variabili globali, quando le caratteristiche
esclusive del gruppo non derivano da proprietà dei membri che lo compongono.

Variabili nominali, ordinali e cardinali


Un’altra classificazione molto importante è quella che riguarda le operazioni logico-
matematiche che possono essere effettuate sulle variabili. A questo proposito abbiamo
variabili nominali, ordinali e cardinali.
Le variabili nominali sono tali quando la proprietà da registrare assume stati discreti non
ordinabili, cioè finiti e delimitati che non hanno alcun ordine o gerarchia tra di essi. Gli
stati di una proprietà così descritta si chiamano categorie. La procedura di
operativizzazione che permette di passare dalla proprietà alla variabile è la
classificazione. Nel caso in cui ci siano solo due modalità si parla di variabili
dicotomiche.
Le variabili ordinali sono tali quando la proprietà da registrare assume stati discreti
ordinabili. In questo caso è possibile stabilire non solo relazioni di eguaglianza e
disuguaglianza, ma anche relazioni d’ordine. In questo caso la procedura di
operativizzazione è l’ordinamento, che tiene conto dell’ordinabilità degli stati della
proprietà.
Le variabili possono essere ordinali perché derivano da proprietà originariamente
costituite da stati discreti.
Le variabili cardinali sono tali perché i numeri che ne identificano le modalità hanno un
pieno significato numerico (hanno cioè proprietà sia ordinali che cardinali).
Si possono ottenere variabili cardinali attraverso due processi: la misurazione (quando
la proprietà da misurare è continua e si possiede una unità di misura prestabilita che
permetta di confrontare la grandezza da misurare con una grandezza di riferimento) e il
conteggio (quando la proprietà da registrare è discreta ed esiste una unità di conto).
Le variabili quasi-cardinali sono un sottoinsieme delle variabili cardinali. Le proprietà
più caratteristiche delle scienze sociali possono essere tutte immaginate come proprietà
continue. Un tentativo di superare questo limite è dato dalla tecnica delle scale, che
cerca di avvicinarsi a misurazioni in senso proprio, cioè a variabili in cui la distanza tra
due valori sia nota. Le variabili prodotte da questa tecnica sono dette quasi-cardinali.

Concetti, indicatori e indici


Nelle scienze sociali esistono concetti che hanno un elevato grado di generalità e si
pongono lontani dall’esperienza. Per poterli definire in modo empiricamente controllabile è
necessario darne una definizione operativa (tradurli in termini osservativi) tramite gli
indicatori. Gli indicatori sono concetti più semplici che sono legati ai concetti generali
da un rapporto di indicazione. Gli indicatori sono quindi dei concetti, ma più facilmente
operativizzabili.
Errore di rilevazione
L’errore di rilevazione rappresenta lo scarto tra il concetto teorico e la variabile
empirica. L’errore di rilevazione viene di solito suddiviso in errore sistematico ed errore
accidentale. L’errore sistematico è un errore costante.
L’errore accidentale è invece un errore variabile, che varia da rilevazione a rilevazione,
per cui si tratta di un’oscillazione che, ripetuta su tutti i soggetti, tende a zero.
L’errore nella fase di operativizzazione può esser sia sistematico sia accidentale.
Gli errori di selezione sono quelli dovuti al fatto che si operi solo su un campione di
soggetti e non sull’intera popolazione. Essi sono: l’errore di copertura, l’errore di
campionamento e l’errore di non risposta.
Gli errori di osservazione possono essere addebitati a quattro fonti: errori dovuti
all’intervistatore, errori dovuti all’intervistato, errori dovuti allo strumento ed errori dovuti al
modo di somministrazione.
Gli errori di trattamento dei dati sono errori di codifica, trascrizione, memorizzazione ed
elaborazione.
L’unico errore quantificabile è quello di campionamento.

Attendibilità e validità
L’attendibilità ha a che fare con la riproducibilità del risultato, e segnala il grado con il
quale una certa procedura di traduzione di un concetto in variabile produce gli stessi
risultati in prove ripetute con lo stesso strumento di rilevazione oppure con strumenti
equivalenti.
La validità fa invece riferimento al grado con il quale una certa procedura di traduzione di
un concetto in variabile effettivamente rileva il concetto che si intende rilevare.
In genere si associa l’attendibilità all’errore accidentale e la validità all’errore sistematico.
Capitolo 5 - L’INCHIESTA CAMPIONARIA: PRIMA PARTE
Con inchiesta campionaria intendiamo un modo di rilevare informazioni. Ci sono 2 modi
di raccogliere informazioni: a) OSSERVAZIONE, osservare i comportamenti manifestati;
b) DOMANDARE, rilevare informazioni interrogando.
Gli elementi che compongono la complessa definizione di inchiesta campionaria sono i
seguenti: rilevare informazioni interrogando gli stessi individui oggetto della ricerca
appartenenti a un campione rappresentativo mediante una procedura standardizzata
di interrogazione allo scopo di studiare le relazioni esistenti tra le variabili.

Il campione deve essere rappresentativo. Il campione deve: essere di dimensioni


consistenti, i soggetti devono essere scelti seguendo delle regole ben precise, deve
essere in grado di riprodurre le caratteristiche dell’intera popolazione. L’interrogazione dei
soggetti avviene secondo una procedura standardizzata: a tutti i soggetti vengono poste
le stesse domande nella stessa sequenza. In questo modo si garantisce la possibilità di
analisi statistica e la comparabilità delle risposte.
La standardizzazione è un elemento che troviamo anche nelle risposte, devono essere
organizzate secondo uno schema di classificazione comune a tutti i soggetti facenti parte
del campione. La standardizzazione permette di costruire una matrice dati: casi
(colonna) x variabili (riga).
L’inchiesta campionaria studia la relazione fra variabili.
Inchiesta campionaria si interroga sulle origini di un fenomeno. Il sondaggio è
un’indagine esplorativa volta ad accertare l’esistenza e la consistenza di un fenomeno.
L’inchiesta campionaria utilizza uno strumento di rilevazione rigidamente strutturato:
domande e risposte sono prestabilite (questionario). L’inchiesta campionaria è la
procedura di rivelazione più diffusa e nota della ricerca sociologica.
L’Intervista qualitativa utilizza uno strumento di rilevazione che non è rigidamente
strutturato: sono stabilite le domande ma non le risposte (Intervista strutturata o libera).

Per la STESURA DI UN BUON QUESTIONARIO occorre: l’esperienza del ricercatore,


conoscenza della popolazione alla quale il questionario va somministrato, chiarezza delle
ipotesi di ricerca. La tipologia di domanda si differenzia in: Dati sociografici:
caratteristiche socio demografiche del soggetto; Atteggiamenti: Opinioni, motivazioni,
sentimenti, valutazioni, giudizi; Comportamenti: Si riferiscono alle azioni inequivocabili e
osservabili.
Domande a risposta aperta e domande a risposta chiusa
Le domande a risposta aperta: c’è una spontaneità nelle risposte che implica la codifica
successiva per la matrice dati. Si lascia piena libertà di risposta all’intervistato.
Le domande a risposta chiusa: l’intervistato deve scegliere tra possibili risposte in un
elenco.

DA LEGGERE SOLO: Nella formulazione delle domande bisogna seguire i diversi criteri:
Semplicità di linguaggio; Lunghezza delle domande; Numero delle alternative di risposta;
Definizioni ambigue; Parole dal forte connotato negativo; Domande sintatticamente
complesse; Domande con risposta non univoca; Domande non discriminanti; Domande
tendenziose; Comportamenti presunti; Focalizzazione del tempo; Concretezza/astrazione;
Comportamenti e atteggiamenti; Desiderabilità sociale delle risposte; Domande
imbarazzanti; Mancanza di opinione e non so; Intensità degli atteggiamenti; Distorsione
sistematica nelle risposte; Effetto memoria; Sequenza delle domande.
L’effetto contaminazione si riferisce al fatto che in certi casi la risposta una domanda
può essere influenzata dalle domande che l’hanno preceduta.

Batterie di domande.
Le batteria di domande sono delle domande che vengono formulate allo stesso
modo e vengono presentate all’intervistato in un unico blocco, queste formulazioni
compatte hanno le seguenti caratteristiche: fanno risparmiare spazio e tempo in un
questionario, facilitano la comprensione del meccanismo di risposta, migliorano la validità
della risposta perché l’intervistato tiene conto delle risposte date in precedenza,
permettono al ricercatore di costruire degli indici sintetici che riassumano in un unico
punteggio le diverse domande.
Una stessa domanda può essere posta in termini assoluti o in termini relativi. In
termini assoluti ogni elemento della batteria è un’entità autosufficiente alla quale
l’intervistato può rispondere indipendentemente dalle altre domande. In termini relativi la
risposta nasce da un confronto con le altre possibili risposte.
Capitolo 6 - L’inchiesta campionaria: parte seconda
Fino a non molti anni fa, al ricercatore sociale si presentavano tre modi fondamentali di
somministrare un questionario: l’intervista faccia-a-faccia, l’intervista telefonica e il
questionario auto compilato.
A questi tre modi dobbiamo oggi aggiungere un altro: il questionario telematico.

L’intervista faccia-a-faccia, l’interazione avviene in presenza dell’intervistatore/


intervistatrice. Chi fa l’intervista deve: inibire qualsiasi comportamento che può influenzare
l’intervistato; fare in modo che l’intervistato cooperi positivamente e non ci siano cadute di
attenzione/di interesse; avere un atteggiamento amichevole ma nello stesso tempo
neutrale in grado di trasmettere all’intervistato l’idea che non ci siano risposte giuste o
sbagliate.

Questionario auto compilato, vi è un enorme risparmio economico, vi è la probabilità


però di: errori nelle risposte; impossibilità di campionamento; rischio di mancate risposte;
rischio che rispondano persone diverse da quelle a cui è orientato i questionari.

Questionario postale: consiste nell’inviare per posta il questionario a una lista di


nominativi che rappresentano la popolazione studiata, allegando una lettera di
presentazione alla ricerca, il questionario da compilare e una busta per il ritorno con
affrancatura a carico del mittente.

Intervista telefonica: negli anni ‘90 con la diffusione del telefono si estende l’uso
dell’intervista telefonica. I PRO: rapidità di rilevazione; costi inferiori; minori resistenze alla
concessione dell’intervista e maggiore anonimato; possibilità di raggiungere le periferie;
possibilità di utilizzare direttamente il computer. CONTRO: meno coinvolgimento
dell’intervistato; minore durata dell’intervista e impossibilità di utilizzare il materiale visivo;
impossibilità di raccogliere dati non verbali; alcuni settori sociali non sono raggiungibili;
semplificazione dei quesiti.

Questionario telematico: E-mail surveys, Questionario inviato per e-mail, la cui risposta
viene inoltrata sempre per e-mail. Web surveys è un questionario compilato accedendo ad
un sito.

Panel online: Gruppo di persone che accetta di partecipare tramite la connessione


internet a inchieste telematiche per un certo periodo di tempo. Il panel è: rilevazione
ripetuta delle stesse domande sulle stesse persone in tempi diversi (i temi trattati
possono anche essere diversi); la finalità è quella di offrire al ricercatore un campione di
persone disponibili a essere ripetutamente intervistate; per il panel online esiste il
problema della rappresentatività del campione; diventa cruciale la modalità di
reclutamento delle persone da intervistare. Si possono utilizzare due tipi di
campionamento:
 Campionamento non probabilistico: Non tutte le persone che fanno parte della
popolazione da intervistare hanno la stessa probabilità di far parte del campione. Nel caso
del panel online, le persone possono essere scelte su base volontaria che non garantisce
la rappresentatività del campione.
 Campionamento probabilistico: Tutte le persone che fanno parte della popolazione da
intervistare hanno la stessa probabilità di far parte del campione.

La possibilità di impiegare una rilevazione online dipende del tipo di ricerca che si vuole
fare e alla popolazione che si vuole coinvolgere.

Le inchieste possono essere definite diacroniche (studi che si prolungano nel tempo) o
sincroniche (studi che si effettuano in un preciso momento). Nelle inchieste diacroniche vi
sono:
 studi trasversali: Si mette in atto la stessa ricerca (nel tempo) su campioni diversi.
 studi longitudinali: Si rilevano le stesse informazioni sugli stessi soggetti a distanza di
tempo.
Capitolo 7 - Tecnica delle scale
L’operativizzazione dei concetti complessi
La tecnica delle scale fa parte dell’ambito della psicologia sociale (psicometria). La tecnica
delle scale (scaling) consiste in un insieme di procedure messe a punto per misurare
l’uomo e la società.
L’unico modo per poterli registrare è quello di usare un insieme coerente ed organico di
indicatori. Possiamo quindi dire che una scala è un insieme coerente di elementi che
sono considerati indicatori di un concetto più generale.
La tecnica delle scale è usata soprattutto nella misura degli atteggiamenti, dove l’unità
d’analisi è l’individuo, il concetto generale è un atteggiamento e i concetti specifici
sono le opinioni.
Per mettere in atto la tecnica delle scale occorre sottoporre ai soggetti studiati una serie
di affermazioni circa l’atteggiamento studiato, chiedendo di esprimere la loro opinione in
proposito; combinando opportunamente le risposte si giunge a un punteggio individuale
che stima la posizione del soggetto sull’atteggiamento in questione (variabili quasi
cardinali).

Domanda e risposta graduata: l’autonomia semantica delle risposte


Una scala è costituita da una batteria di domande. Nella costruzione di una scala,
l’elemento fondamentale riguarda le alternative di risposta.
Le modalità di risposta ordinate possono essere:
1. risposta semanticamente autonoma: ciascuna ha un suo significato compiuto e
non necessita di relazione con le altre alternative di risposta (Variabile ordinale);
2. risposta a parziale autonomia semantica: il significato di ogni categoria è solo
parzialmente autonomo dalle altre (molto, abbastanza, poco, per niente) (variabile
quasi cardinale);
3. scale auto ancoranti: le categorie di risposta sono poste in un continuum tra
estremi, in cui il rispondente deve collocare la sua risposta (variabile quasi
cardinale).
Scala di Likert
Il nome di questa tecnica deriva da quello dello psicometrico Rensis Likert.
La Scala di Likert fa parte della categoria delle “scale additive”, ovvero quelle scale nelle
quali il punteggio complessivo deriva dalla somma dei punteggi ai singoli elementi della
scala.
La Scala di Likert è formata da singole domande, ovvero una serie di affermazioni per
ognuna delle quali l’intervistato deve dire se e in che misura è d’accordo.
La costruzione della Scala di Likert avviene in quattro fasi:
1) Formulazione delle domande: Si individuano le dimensioni dell’atteggiamento studiato
per ciascuna delle quali verranno formulate specifiche domande e si formulano delle
affermazioni che coprano i vari aspetti del concetto generale che si vuole rilevare.
2) Somministrazione delle domande: La scala viene sottoposta ad un campione di
intervistati.
3) Selezione delle domande e determinazione del grado di coerenza interna (“Analisi
degli elementi”): Una volta sottoposte le domande della scala agli intervistati si pone il
problema di valutare l’effettiva capacità della scala di conseguire l’obiettivo per il quale è
stata costruita, ovvero verificare la coerenza interna della scala. Per effettuare
l’accertamento riguardo la coerenza interna della scala si fa riferimento a due strumenti:
- La correlazione elemento-scala: serve per individuare gli elementi della scala che non
sono coerenti con gli altri. Si calcola per ogni soggetto il punteggio su tutta la scala e si
calcola il coefficiente di correlazione fra questo punteggio complessivo e il punteggio di
un singolo elemento. Il coefficiente di correlazione indica se il punteggio di ogni singolo
elemento si muove nella stessa direzione del punteggio globale che tiene conto di tutti gli
altri elementi.
- Il coefficiente alfa, Alfa di Cronbach: ad un alto valore di alfa maggiore di alfa
corrisponde una maggiore coerenza interna della scala (0,70 la soglia accettabile).
4) Controllo della validità e dell’unidimensionalità della scala: La scala va applicata in
diverse ricerche e su diversi campioni. Solo così è possibile certificare la validità e
l’affidabilità della scala. Una tecnica molto efficace del controllo di unidimensionalità è
costituita dall’analisi fattoriale.

Criticità della Scala di Likert:


- Uno stesso punteggio può essere ottenuto da molte diverse combinazioni di risposta;
- La mancata riproducibilità della scala, ovvero il fatto che dal punteggio di scala non sia
possibile risalire alle risposte delle singole domande.

Scalogramma di Guttman
Lo scalogramma di Guttman è una scala che si presenta come una “sequenza di
gradini”, ovvero una successione di elementi aventi difficoltà crescente, in modo che
chi ha risposto affermativamente ad una determinata domanda deve aver risposto
affermativamente anche a tutte quelle che la precedono nella scala di difficoltà; da ciò
deriva la definizione di questa scala di “scalogramma” o “scala cumulativa”.
Il fatto che gli elementi di una scala presentino tale carattere di cumulatività (o scalabilità)
viene considerato come una prova dell’esistenza di un continuum sottostante dal quale
gli elementi della scala sono indicatori.

Es. della scala di distanza sociale, per determinare il grado di pregiudizio degli intervistati
nei confronti di determinate minoranze etniche, veniva proposta una sequenza di
domande tipo:
- Lei sarebbe disposto ad accettare un nero come visitatore del suo paese?
- Lei sarebbe disposto ad avere un nero come vicino di casa?
- Lei sarebbe disposto ad avere un nero come amico personale?
- Lei sarebbe disposto a sposare un nero?
È evidente che chi è disposto a sposare un nero probabilmente è disposto anche ad
averlo come amico personale, come vicino di casa, ecc., mentre chi non lo accetterebbe
come amico personale probabilmente non è disposto nemmeno a sposarlo.

4 fasi
1. Formulazione delle domande;
2. Somministrazione;
3. Analisi dei risultati con l’eliminazione degli elementi troppo carichi di errori;
4. Definizione di un indice globale di accettazione della scala

Differenziale semantico
La tecnica del differenziale semantico si propone di rilevare il contenuto soggettivo dei
concetti, cioè quali significati assumono i concetti per l’individuo.
Si basa sulle associazioni che l’intervistato instaura fra il concetto che si vuole indagare e
gli altri concetti proposti in maniera standardizzata a tutti gli intervistati.
Capitolo 8 - Le fonti statistiche ufficiali.
Il termine statistica deriva da stato: inizialmente stava ad indicare la scienza che descrive
degli stati, poi con l’introduzione del calcolo delle probabilità divenne la “scienza del
collettivo” e cioè il metodo scientifico per l’analisi quantitativa dei fenomeni collettivi.
La sociologia empirica in Europa è nata a partire da questo tipo di dati. il termine può
avere due significati:
- scienza che studia con metodi matematici fondati sul calcolo delle probabilità
fenomeni collettivi e di massa; statistica come scienza (scienza statistica).
- raccolta di dati che si proponga di dare una visione d’insieme, anche solo
orientativa, su determinati fatti o fenomeni; statistica come dato (dati statistici).
Una caratteristica del tradizionale dato statistico è costituita dal fatto che esso viene
rilevato sull’intera popolazione. La scelta in questo caso è fra rilevazione esaustiva e
rilevazione campionaria.
Nel concetto le fonti statistiche ufficiali, l’attributo ufficiale sta a ricordare che queste
raccolte di dati vengono effettuate, nelle quasi totalità, dall’amministrazione pubblica.
La classificazione più articolata delle statistiche è quella adottata dall’Istat:
- statistiche demografiche: nascite, decessi, matrimoni
- statistiche sociali: sanità, giustizia, istruzione, consumi
- statistiche economiche: prod. industriale, bilanci imprese, prezzi, commercio
estero…
statistiche ambientali: meteorologia, incendi, concimi, inquinamento.
I tipi di dati estrapolati dall’Istat si differenziano dagli altri per i seguenti aspetti:
 produzione: le statistiche ufficiali sono raccolte di dati effettuate dall’amministrazione
pubblica; si suddividono in:
- dati generati dalla normale attività amministrativa: atti amministrativi che
l’individuo o l’istituzione producono per finalità burocratiche e che lasciano traccia, in
questo caso si parla di rilevazione indiretta del dato;
-dati raccolti a fine conoscitivo: produzione del dato a fine conoscitivo (rilevazione
diretta) censimento; esistono altre forme di rilevazione diretta perché gli atti
amministrativi producono dati raccolti per altri fini si svolgono quindi indagini
campionarie ad hoc su settori specifici, volte a studiare aspetti particolari della
società, indagini su consumi, strutture familiari, rilevazione trimestrale sulla forza
lavoro, sugli sbocchi professionali dei laureati.
 contenuto: riguarda la registrazione di un dato di fatto NON un’interrogazione o
un’osservazione ampiezza della rilevazione. L’Indagine multiscopo sulle famiglie, ad
esempio, si limita all’esplorazione dei comportamenti e dei dati strutturali: non si chiedono
opinioni, motivazioni, orientamenti valoriali.

 unità d’analisi: l’indagine non viene eseguita sull’individuo ma sul territorio, anche se
all’origine le informazioni sono state raccolte su individui (unità di rilevazione), il dato è
disponibile SOLO a livello aggregato (unità d’analisi) come ad esempio sezioni elettorali,
comuni, province, regioni, nazioni. Anche se all’origine l'informazione è stata raccolta su
individui il dato è disponibile e analizzabile solo a livello aggregato, con il termine aggregato
sottolineiamo la distinzione fra il caso in cui l'unità di analisi è un collettivo di individui e quello
in cui essere rappresentato da un singolo individuo (dati individuali). Con “aggregato” si
intende un’operazione di composizione, di somma. Il dato aggregato deriva da un’operazione
di conteggio effettuata sugli individui di un collettivo (territorio). Le informazioni sono raccolte
a livello individuale ma registrate a livello di aggregato territoriale, questo avviene: per motivi
di riservatezza, l’informazione è raccolta a livello individuale; per fini amministrativi
(matrimoni, nascite, morti); per esigenze organizzative (censimento);
Esistono variabili aggregate e variabili globali:
-variabili aggregate: conteggio;
- variabili globali: proprietà afferenti al collettivo (al territorio: partito di appartenenza di un
sindaco, presenza di un commissariato di polizia….);
La variabile aggregata è il risultato di una somma, perciò, si tratta di variabili cardinali e si
possono trattare con tutte le operazioni di statistica.
Si possono effettuare due elaborazioni: andamento nel tempo delle variabili (analisi
diacronica), analisi delle serie temporali e variazioni territoriali.

 Ampiezza della rilevazione: il dato viene rilevato sull’intera popolazione, si tratta di


rilevazione esaustiva o totale: condotta su tutti gli individui. Esiste anche la rilevazione
campionaria (o parziale); i vantaggi di quest’ultima sono i seguenti: riduzione costi di
rilevazione riduzione tempi di raccolta riduzione carico organizzativo possibilità di
approfondimento.

• In ogni paese moderno esiste un organismo al quale è demandato l’incarico di produrre


statistiche d’ interesse generale. In Italia l’istituzione di un ufficio centrale di statistica si
ha dal 1861 con la creazione di una divisione centrale di statistica presso il ministero
dell’Agricoltura (Annuario statistico italiano, Annali di statistica). Nel 1929 venne istituito
l'Istat, posto alle dipendenze stesse della Presidenza del Consiglio dei ministri per
sottolineare il ruolo di coordinamento di tutti i servizi di statistica della pubblica
amministrazione punte. Nel 1989 l’apparato statistico pubblico ha subito una
trasformazione, con l’istituzione del Sistan (Sistema statistico nazionale) con l’obiettivo di
coordinare tutte le competenze e le attività statistiche svolte dai vari organismi centrali e
periferici della pubblica amministrazione.
Le statistiche ufficiali sono a livello territoriale, in Italia abbiamo storicamente tre unità
amministrative territoriali: i comuni, le province e le regioni. Le fonti statistiche ufficiali
rappresentano una straordinaria opportunità per la ricerca sociale, esse forniscono una
massa imponente di dati. Nella struttura della società, nella ripartizione territoriale di un
paese, negli studi comparati fra nazioni, negli studi nel tempo il ricorso alle statistiche
ufficiali appare irrinunciabile per lo scienziato sociale. Il ricorso alle statistiche generali non è
privo di limiti, vi è la probabilità che la natura dei dati non soddisfi le esigenze del
ricercatore, che vi sia un limite alle variabili fattuali e che i dati non siano adatti per l’analisi
dei comportamenti individuali.
Capitolo 9 – Il Campionamento
Popolazione e campione
“Campionare” significa osservare una parte per trarre informazioni sul tutto.
Quando nel linguaggio comune si parla di scegliere qualcuno “a caso” fra una pluralità di
individui si intende un atto assai più prossimo alla scelta “a casaccio” che all’adozione di
una rigorosa procedura che si affida al “caso” inteso in modo probabilistico.
È necessario dunque distinguere: una estrazione casuale da cui deriva un campione
probabilistico; una estrazione “a casaccio” da cui deriva un campione non probabilistico.
DEFINIZIONE di CAMPIONAMENTO: il campionamento è un procedimento attraverso il
quale si estrae da un insieme di unità (popolazione) un numero ridotto di casi (campione)
con criteri da consentire la generalizzazione all’intera popolazione dei risultati ottenuti
studiando il campione.
2. Errore di campionamento
Si definisce:

- Campione: l’insieme di n (ampiezza del campione) unità campionarie (casi)


selezionate tra le N unità che compongono la popolazione allo scopo di rappresentarla
ai fini dello studio.
- Campionamento: la procedura che si segue per scegliere le n unità campionarie dal
complesso delle N unità della popolazione.

La stima della popolazione sarà quindi sempre affetta da un grado di incertezza, un errore,
che viene chiamato errore di campionamento.
L’errore di campionamento si colloca nel quadro degli errori di selezione, che includono:
- L’errore di copertura, dovuto alla mancata disponibilità della lista completa della
popolazione oggetto di studio
- L’errore di non risposta, conseguente al fatto che alcuni soggetti non vengono raggiunti
o si rifiutano di rispondere
- L’errore di campionamento, dovuto al fatto di operare su un particolare sottoinsieme di
popolazione. È un errore accidentale.

Ampiezza di un campione
Non è possibile indicare una regola fissa nel determinare l’ampiezza del campione, a

meno di non conoscere tutti i parametri della popolazione in esame. Assumendo che nelle
concrete condizioni di ricerca tutti i parametri non siano noti, nella determinazione
dell’ampiezza bisogna tener conto di diversi fattori:
1. omogeneità dell’universo di riferimento: unità di analisi simili fra loro possono
essere più facilmente rappresentate da un campione ristretto.
2. approccio metodologico e le tecniche da utilizzare: in un’indagine quantitativa è
molto importante il principio della rappresentatività, poiché si fonda sulla
generalizzabilità dei risultati.
3. disponibilità delle liste di campionamento

Campioni probabilistici: il campione casuale semplice


Un campione si dice “probabilistico” quando ogni unità è estratta con una probabilità
nota e diversa da zero.
All’intero dei campioni probabilistici distinguiamo il caso del campionamento casuale
semplice: un campione casuale semplice si ha quando tutte le unità della popolazione
hanno la stessa probabilità di essere incluse nel campione.
Altri campioni probabilistici
Oltre al campionamento casuale semplice, esistono alti campioni probabilistici; i più diffusi
sono:

- Campionamento sistematico
Con il campionamento sistematico, le unità campionarie non vengono estratte
mediante sorteggio ma si scorre la lista dei soggetti, selezionandone uno ogni dato
intervallo.

- Campionamento stratificato
La procedura del campionamento stratificato consiste in: 1) Suddividere la popolazione in
sottopopolazioni il più possibile omogenee rispetto alla variabile da stimare. 2) Estrarre
mediante un procedimento casuale semplice un campione da ogni strato. L’estrazione può
avvenire in due modi: Stratificazione proporzionale: il peso degli strati del campione
riflette il peso degli strati nella popolazione; Stratificazione non proporzionale: il peso
degli strati del campione non riflette il peso degli strati nella popolazione.
3) Unire i campioni dei singoli strati per ottenere il campione globale.

- Campionamento a stadi
La popolazione viene suddivisa su più livelli gerarchicamente ordinati, i quali
vengono estratti in successione con un procedimento “ad imbuto”.

- Campionamento a grappoli
Il campionamento a grappoli viene utilizzato quando la popolazione risulta
naturalmente suddivisa in gruppi di unità spazialmente contigue. Questi gruppi
vengono appunto chiamati “grappoli”.

- Campionamento per aree


Il campionamento per aree è una soluzione da applicare quando la lista della
popolazione manca del tutto; si definiscono così delle aree territoriali nidificate.

Errori di non risposta, mancati contatti e rifiuti


Quando la procedura di campionamento viene applicata alle scienze sociali, il ricercatore
deve tenere conto del fatto che la popolazione che andrà a studiare è composta da esseri
umani: infatti, quando la popolazione è fatta di esseri umani, una volta estratto il
campione, si pone il problema di realizzare la rilevazione.
Possono quindi realizzarsi quelli che si sono definiti come “errori di non risposta” che
possono avere cause diverse: mancato contatto con i soggetti estratti e rifiuti a rispondere.

Campioni non probabilistici


Quando il disegno probabilistico non può essere impostato si ricorre ai cosiddetti campioni
non probabilistici. I campioni non probabilistici più comuni sono:

- Campionamento per quote


Il campione per quote è il disegno campionario non probabilistico più diffuso. La
popolazione viene divisa in sottogruppi sulla base di alcune variabili delle quali si
conosce la distribuzione; l’intervistatore è libero di scegliere a propria discrezione i
soggetti da intervistare.

- Disegno fattoriale
Il disegno fattoriale prevede l’impiego di variabili categoriali che assumano un
numero non molto elevato di modalità.
Il piano fattoriale prevede dunque di estrarre un numero uguale di casi per ogni
categoria.

- Campionamento a scelta ragionata


Nel campionamento a scelta ragionata le unità campionarie vengono scelte sulla base
di alcune loro caratteristiche e non in maniera probabilistica.

- Campionamento a valanga
Il campionamento a valanga è un disegno campionario particolarmente utile nel caso
di “popolazioni clandestine”, ovvero “elementi rari”, gruppi poco numerosi e
dispersi sul territorio difficilmente identificabili.

Ponderazione
Procedura con la quale modifichiamo artificialmente la composizione del campione per
renderla più prossima alla distribuzione della popolazione. Si realizza attribuendo un
«peso» alle unità campionarie che varia a seconda delle loro caratteristiche.

Bontà di un campione
La bontà di un campione dipende dall’ampiezza del campione e dall’accuratezza della
procedura di campionamento.

Capitolo 11 - L’intervista qualitativa


L’intervista è una relazione asimmetrica in cui l’attenzione è focalizzata su un solo
protagonista con una diversa estensione dei “turni” di parola e una modalità di
autorizzazione della parola.
Possiamo definire l’intervista qualitativa come un’interazione tra un intervistato e un
intervistatore, provocata dall’intervistatore, avente finalità di tipo conoscitivo,
guidata dall’intervistatore sulla base di uno schema di interrogazione e rivolta ad un
numero consistente di soggetti che sono stati scelti sulla base di un piano di
rilevazione.
Quindi, l’intervista è provocata dall’intervistatore, e in questo si differenzia dalla
conversazione occasionale. In secondo luogo, essa è rivolta a soggetti scelti in base a un
piano sistematico di rilevazione, nel senso cioè che non è occasionale nemmeno
l’intervistato: egli viene scelto sulla base delle sue caratteristiche. Tale conversazione è
finalizzata a uno scopo, che è lo scopo conoscitivo dell’intervistatore. Infine, non si
tratta di una normale conversazione, ma di una conversazione guidata.

2. Intervista quantitativa e intervista qualitativa


È possibile interrogare tramite un questionario standardizzato oppure mediante
un’intervista libera.
Le caratteristiche dell’intervista qualitativa sono:
• Assenza di standardizzazione: questa è la differenza fondamentale fra questionario e
intervista. Nel caso del questionario l’obiettivo è collocare l’intervistato entro schemi
prestabiliti dal ricercatore, nel caso dell’intervista l’intento è cogliere le categorie mentali
dell’intervistato, senza partire da idee e concezioni predefinite.
• Comprensione contro documentazione: possiamo parlare dell’interrogazione sia come
strumento di rilevazione di dati, sia come strumento di comprensione della realtà sociale.
Nell’approccio quantitativo – l’interrogazione viene utilizzata per raccogliere informazioni
sulle persone in merito alle loro opinioni, ai loro comportamenti, ai loro tratti sociali. Nel
caso qualitativo, invece, l’intervista viene utilizzata per farle parlare e per capirle dal di
dentro.
• Assenza di campione rappresentativo: la ricerca condotta mediante questionari dà
come punto qualificante il fatto che venga condotta su un campione costituito in modo da
poter essere definito rappresentativo. Nell’intervista qualitativa vi è più l’esigenza di
coprire le varietà delle situazioni sociali.
• Approccio centrato sul soggetto contro approccio centrato sulle variabili:
l’interesse del ricercatore è rivolto alla comprensione dei fatti sociali a partire da una
lettura globale dei fenomeni e dei soggetti studiati. E quindi il punto di partenza è
rappresentato dall’individuo, non dalla variabile.
3. Tipi di intervista
Le interviste si differenziano per il loro grado di standardizzazione, cioè per il diverso
grado di libertà concesso ai due attori, l’intervistatore e l’intervistato. Ci sono 3 tipi base
di interviste: interviste strutturate, semi strutturate e non strutturate.
- Intervista strutturata: a tutti gli intervistati sono poste le stesse domande nella
stessa formulazione e nella stessa sequenza. Essi hanno totale libertà
nell’esprimere la loro risposta.
- Intervista semi strutturata: la traccia si limita a prefissare le domande ma non le
risposte, la parola dell’intervistato è tratta come “fonte” di informazioni.
- Intervista non strutturata: le parole dell’intervistato esprimono il suo punto di vista
sul mondo.

La scelta fra i 3 strumenti dipende dagli obiettivi della ricerca e dalle caratteristiche del
fenomeno studiato.

Casi particolari:
intervista non direttiva e intervista clinica: nell’intervista non direttiva neppure
l’argomento della conversazione è pre-stabilito; l’intervistatore si lascia condurre
dall’intervistato, il quale è libero di portare la conversazione dove meglio crede.

Intervista a osservatori privilegiati: possiamo decidere di intervistare delle persone in


quanto conoscitori esperti di questo fenomeno.

Intervista di gruppo (focus group): in certi casi l’interazione – e in particolare


l’interazione di un gruppo – può essere produttiva di approfondimenti e favorire la
comprensione del ricercatore. Dalla discussione possono uscire motivazioni che non
sarebbero emerse in colloqui individuali; inoltre essa può far emergere l’intensità dei
sentimenti, facilitando i confronti fra diverse posizioni.
Peculiarità del focus group è che gli intervistati devono essere stati coinvolti in una
situazione particolare. Vengono intervistati in gruppo da un intervistatore che ha studiato
preventivamente l’evento in esame e che stimola e dirige la discussione in modo da far
emergere diverse interpretazioni, le reazioni emotive, le valutazioni critiche: si tratta quindi
di un dibattito focalizzato su un tema ben preciso. Il focus group è infatti pianificato in
modo tale da ottenere informazioni solo sull’argomento prestabilito.
Un focus group è in genere costituito da un numero di persone oscillanti fra 6 e 12, in
quantità quindi sufficiente per vedere rappresentate diverse posizioni, ma nello stesso
tempo tale da permettere l’interazione fra tutti i partecipanti. Esistono anche focus group
virtuali, nei quali i componenti del gruppo sono collegati tramite internet.

4. Conduzione dell’intervista
La parte più difficile sta nel “far parlare” l’intervistato, riuscire a provocare un fluido
racconto nel quale l’intervistatore si limiti ad ascoltare e a fare ogni tanto qualche
domanda di chiarimento; sta nel riuscire ad accedere al mondo delle emozioni e dei
sentimenti della persona intervistata. Per ottenere la piena collaborazione del soggetto
l’intervistatore deve riuscire a stabilire con lui un rapporto di fiducia.
Di seguito alcuni suggerimenti:
Spiegazioni preliminari: il problema principale è rappresentato dalla diffidenza iniziale
dell’intervistato e dalla sua insicurezza di fronte a una situazione nuova e sconosciuta. Nel
caso dell’intervista qualitativa questo problema è minore, in quanto in genere si arriva
all’intervista con una maggiore preparazione, in quanto c’è stato prima un processo di
avvicinamento. In questo caso, quindi, il problema da affrontare è quello di far capire
all’intervistato cosa vogliamo da lui. Si tratterà di descrivere lo scopo della ricerca e
spiegargli perché abbiamo scelto lui.
Domande primarie: sono quelle che introducono un nuovo tema oppure aprono un nuovo
interrogativo. Esistono tre tipi di domande primarie: le domande descrittive («Mi può
parlare del suo lavoro?»; «Come si svolge la sua giornata lavorativa?»). Poi abbiamo le
domande strutturali, che hanno lo scopo di scoprire come l’intervistato struttura la sua
conoscenza («Mi può dire che tipi di persone vengono a lavorare da lei?»; «Attraverso
quali vie si può fare la carriera nella sua azienda?»). Infine, ci sono le domande-contrasto
basate su un confronto («In che senso il suo lavoro attuale è migliore del precedente?»).
Domande sonda (probing): sono degli stimoli che hanno la funzione di incoraggiare
l’intervistato ad andare avanti, ad abbassare le sue barriere difensive, ad approfondire
l’argomento. Possiamo distinguere diversi modi per formulare questi stimoli: ripetizione
della domanda, a volte basta ripetere la domanda, formulandola in maniera differente;
ripetizione della risposta, si riprendono le ultime risposte dall’intervistato per invitarlo ad
approfondirle o a chiarirle (es: «Dunque mi ha detto che...», «Ma che cosa lei intende
veramente con...», «ha ancora qualcosa da dire a questo proposito?»; incoraggiamento, in
questo caso l’intervistatore si limita a esprimere interesse, con espressioni verbali o con
cenni del capo nei confronti di quanto l’intervistato sta raccontando, (es: «questo è molto
interessante...», «continui pure...», «capisco...», «davvero?»); pausa, qualche secondo di
silenzio può agevolare la confidenza da parte dell’intervistato; il momento di vago
imbarazzo creato dalla pausa fa sì che l’intervistato si senta obbligato a rompere il silenzio
riprendendo il suo racconto con ulteriori dettagli; infine, la richiesta di approfondimento (es:
«vorrei conoscere meglio il suo pensiero a questo proposito», «non sono sicuro di capire
bene che cosa lei ha in mente»).
Linguaggio: il problema del linguaggio si pone in quanto esso rappresenta lo strumento
fondamentale nello stabilire il clima di empatia e di comunicazione fra intervistatore e
intervistato.
Ruolo dell’intervistatore: l’intervistatore gioca un ruolo determinante, in quanto
determina l’esito della conversazione. Egli è chiamato a svolgere un ruolo attivo di
orientamento dell’intervista, dirigendo la comunicazione verso quelli che sono i propri
obiettivi. Nello stesso tempo deve fare attenzione che questi atteggiamenti di
incoraggiamento e scoraggiamento non si trasformino in alterazioni del pensiero
dell’intervistato. Gli vengono chieste sensibilità, intuizione, capacità di immedesimarsi nella
personalità dell’interlocutore, esperienza nei rapporti umani e, non ultima, profonda
conoscenza del problema oggetto di studio.
Naturalmente, date queste premesse le interviste qualitative possono essere realizzare
solo in un rapporto faccia a faccia, inoltre esse vanno sempre registrate in quanto la
registrazione permette di conservare il racconto dell’intervistato nella sua forma.

5. Analisi del materiale empirico


ANALISI DI TIPO MISTO (quantitativo e qualitativo)
Si utilizza quando in un’intervista si possono rilevare temi comuni dai quali possono
essere estratte informazioni relative a tutti gli intervistati = parte quantitativa che
permette di classificare e codificare informazioni mediante gli strumenti classici della
statistica
Si tratta di una procedura che:
- ha senso solo in presenza di campioni di una certa ampiezza;
- va condotta da un gruppo limitato di persone con criteri di classificazione comuni

Cap 12- L’uso dei documenti.


Per documento si intende materiale informativo su un determinato fenomeno sociale
che esiste indipendentemente dall'azione del ricercatore, viene prodotto dai singoli
individui o dalle istruzioni per finalità diversa da quelle dalla ricerca sociale.
I documenti possono essere di diverso tipo: lettere, articoli di giornali, autobiografie, verbali
di consigli di amministrazioni, atti parlamentari, contratti commerciali, certificati di
matrimonio, ecc. Essi sono informazioni non reattive, ossia non risentono
dell'interazione studiante-studiato e dei possibili effetti distorcenti, e permettono di studiare
anche il passato. Si tratteranno due tipi di documenti: i documenti personali (lettere,
autobiografie e diari) e i documenti istituzionali (discorsi, documenti aziendali, articoli di
giornale, verbali processuali, ecc.).

Documenti personali.
La ricerca sociale attenziona i documenti personali prodotti dalla gente comune al fine di
ricostruire le dinamiche e le relazioni sociali a patire dal vissuto dei protagonisti. Questi
documenti hanno la caratteristica di essere espressioni genuine della personalità dei loro
autori.
Le autobiografie sono il resoconto scritto dell'intera vita di una persona, da lei stessa
compilato in un periodo di tempo piuttosto limitato. Sono opere redate spontaneamente da
persone non selezionate. Sono rare nelle scienze sociali e spesso l'autobiografia è
provocata, ovvero viene richiesto espressamente a soggetti di scriverla. In questi casi il
ricercatore può indirizzare il resoconto ponendo domande o fornendo una scaletta di temi
che vorrebbe fossero toccati. Spesso i racconti autobiografici sono difficilmente
riconducibili alla ricerca sociale e si inquadrano come genere letterario.

I diari sono documenti personali caratterizzati dal fatto che vengono scritti per uso
strettamente personale e simultaneamente agli avvenimenti descritti. Nessuna ricerca
sociale risulta mai essersi basata esclusivamente sui diari. Un caso particolare di diario,
utilizzato nella ricerca sociale, è rappresentato da resoconti giornalieri compilati su
richiesta del ricercatore, utilizzati sia nella ricerca quantitativa sia in quella qualitativa
seguiti da interviste in profondità.

Una delle prime ricerche sociologiche, "Il contadino polacco in Europa e in America" è
basata in buona parte su lettere. Attraverso le lettere gli autori cercarono di mettere a
fuoco degli aspetti soggettivi dei processi sociali, il rapporto che intercorre fra individuo e
società, e in particolare i meccanismi di adattamento degli individui e società in via di
trasformazione. Le lettere sono importanti strumenti di espressione dell’interiorità degli
individui, della loro soggettività e definizione della situazione: da questo punto di vista esse
sono uno strumento puro e indisturbato.

Si è poi sviluppato, nella ricerca sociale, un nuovo approccio alla raccolta di documenti
personali, consistente nel raccogliere testimonianze di vita dalla voce degli individui,
provocando delle "autobiografie orali". Esse hanno notevoli similitudini con la tecnica
delle interviste non strutturate, ma esistono tre importanti elementi di differenziazione:
a) il racconto riguarda l'intera propria vita;
b) il ruolo dell'intervistatore è molto più limitato;
c) il metodo biografico non si preoccupa della numerosità dei casi studiati e si accontenta
anche di uno solo.
Le due forme principali nelle quali questa tecnica si articola sono le "storie di vita" e la
"storia orale", pur essendo categorie dai confini sfumati. Le storie di vita, sono racconti
autobiografici, in genere le ricerche sociologiche si basano su una decina di racconti,
talvolta meno, a volte uno solo. Il materiale autobiografico è stato tratto attraverso tre
approcci: il primo è quello della pura, semplice e quasi prescientifica raccolta di
autobiografie senza commento ed interpretazioni dell'autore, il secondo è quello che
consiste nel presentare un corposo saggio interpretativo, mentre il terzo approccio
consiste nel far interagire sistematicamente materiale empirico e interpretazione
teorica in un confronto continuo. La storia orale, il movimento che la sosteneva aveva
l'obiettivo di contrapporre alla storia delle élite la storia del popolo e della sua vita
materiale.

Documenti istituzionalizzati.
Le società moderne producono ogni giorno un'enorme quantità di documenti dei più
diversi tipi: contratti, domande e offerte di lavoro, orari ferroviari, bollette, programmi
televisivi, banconote, carte d'identità, giornali, ecc. Questi documenti sono il prodotto
della nostra vita istituzionalizzata e riguardano la vita ordinaria della gente comune.

Numerosissime sono le ricerche condotte sui mezzi di comunicazione di massa. La


stampa è una miniera inesauribile di informazioni sulla società a prescindere dalla
"cronaca" che contiene: la pubblicità, gli annunci di lavoro, i necrologi, le lettere dei lettori,
ecc. Altrettando si può dire dei documenti televisivi.

Innanzitutto, la narrativa può rappresentare una straordinaria fonte di conoscenza sociale.

Materiale giudiziario: sentenze, verbali, trascrizioni di interrogatori, denunce, ecc. sono


un'imponente base documentaria per molteplici fenomeni sociali e in particolare per lo
studio della devianza.
Ricchissimo è il materiale documentario che la politica offre al ricercatore sociale: ai
parlamentari, programmi di partito, discorsi pubblici, propaganda elettorale. Essi sono stati
fra i primi documenti ad interessare gli studiosi e le prime ricerche di analisi del contenuto
ebbero infatti oggetto la propaganda politica.

Sono molte le ricerche condotte a partire da documenti aziendali e amministrative, i


bilanci delle amministrazioni pubbliche sono naturalmente un’importante base
documentaria per lo studio delle politiche pubbliche.

Internet è diventato nelle società occidentali uno degli spazi principali in cui i cittadini
interagiscono fra loro e con le istituzioni.

Leggere i documenti personali


Blumer sostiene siano fonte "essenziale di spunto, idee, interrogativi, nuove prospettive
nuove interpretazioni", ma non sufficienti per validare una teoria scientifica. D'altra parte, i
convinti sostenitori dell'approccio interpretativo come Schwartz e Jacobs, sostengono
esista "un mondo oggetto da una parte e l'esperienza individuale dello stesso mondo
dall'altra" e che entrambi i mondi siano degni di interesse per il ricercatore sociale.
Si può dire che se i documenti personali sono certamente inadeguati agli obiettivi di
descrizione e spiegazione dei fenomeni sociali, possono dare comunque contributi
fondamentali ai fini dell'interpretazione.

Leggere i documenti istituzionali


I vantaggi più evidenti dell'utilizzo di documenti ai fini della ricerca sociale sono catalogabili
sotto tre titoli: a) non reattività, b) possibilità di analisi diacronica, c) costi ridotti. Sono
evidenti altresì gli svantaggi: a) incompletezza dell'informazione b) ufficialità della
rappresentazione
Capitolo 13 - L’analisi monovariata
Tipi di variabili e analisi statistica
Le caratteristiche logico-matematiche delle variabili (nominali, ordinali e cardinali)
definiscono le procedure da seguire nella fase di analisi dei dati. Le diverse variabili sono
quindi analizzate in modo diverso sin dai livelli più elementari. La maggior parte delle
tecniche sono state elaborate per le variabili nominali o cardinali, mentre le variabili
ordinali dovrebbero essere trattate come nominali perché non è corretto assegnare loro le
proprietà delle variabili cardinali. Un caso particolare delle variabili nominali è quello delle
cosiddette variabili dicotomiche, che hanno la proprietà di poter essere trattate
statisticamente come variabili
cardinali; per questo talvolta il ricercatore “dicotomizza” variabili a più categorie
(politomiche).

Matrice dei dati


La matrice dei dati consiste in un insieme rettangolare di numeri, dove in riga abbiamo i
casi e in colonna le variabili; in ogni cella derivante dall’incrocio tra una riga e una colonna
abbiamo un dato, cioè il valore assunto da una particolare variabile su un particolare caso.
Per potere essere organizzate in una matrice, le informazioni devono avere due
caratteristiche: l’unità d’analisi deve essere sempre la stessa e su tutti i casi studiati
devono essere rilevate le stesse informazioni.
L’operazione di traduzione del materiale empirico grezzo in matrice viene chiamata
codifica ed avviene con due strumenti, il tracciato record (la posizione di ogni variabile
nella riga della matrice) e il codice (che assegna ad ogni modalità della variabile un valore
numerico).
Ogni riga della matrice corrisponde ad un caso (leggendo ogni riga possiamo ottenere il
profilo di un caso), mentre ogni colonna corrisponde ad una variabile (leggendo una
colonna conosciamo le risposte date a quella domanda da tutti gli intervistati).

Distribuzione di frequenza

Distribuzioni assolute e relative


Per dare una rappresentazione sintetica di una colonna della matrice si una la
distribuzione di frequenza, che è una rappresentazione nella quale ad ogni valore della
variabile viene associata la frequenza con la quale esso si presenta nei dati analizzati. La
distribuzione di frequenza può essere assoluta, quando ci si limita semplicemente a
contare i casi che presentano quel valore, oppure relativa, quando sono rapportate ad un
totale comune. Un modo per operare questa relativizzazione è la proporzione, che
consiste nel dividere ogni
singola frequenza assoluta per il numero totale di casi; più spesso si usa la percentuale,
che si ottiene dalle proporzioni moltiplicandole per 100. Il fatto di relativizzare le frequenze
permette di effettuare dei confronti fra distribuzioni di frequenza della stessa variabile ma
ottenute da popolazioni di diversa numerosità. Una forma particolare di distribuzione di
frequenza è costituita dalla distribuzione cumulativa di frequenza, nella quale in
corrispondenza di ogni valore dalla variabile viene riportata la somma delle frequenze
corrispondenti a quel valore e a tutti quelli inferiori. Se le variabili da sintetizzare sono
ordinali, si tende a raggrupparli in classi di valori adiacenti, perché spesso sono in numero
elevato e altrimenti si otterrebbe una distribuzione troppo dispersa.

La presentazione delle tabelle


Distribuzione di frequenza in forma compatta: il ricercatore deve attenersi al massimo della
parsimoniosità nella presentazione dei dati per non confondere il lettore, per cui si limiterà
a presentare le percentuali e il totale in valore assoluto (base del calcolo delle percentuali)
Cifre decimali: di solito le percentuali si riportano con una cifra decimale oppure senza
decimali se la base delle percentuali è minore di 100; questo perché esiste sempre un
errore che può essere di diversi punti.
Arrotondamenti: se il decimale da eliminare si colloca tra 0 e 4, si arrotonda per difetto, se
si colloca tra 0 e 5 si arrotonda per eccesso.
Il decimale zero: se si decide di riportare i decimali deve essere presente anche lo zero
(es. 22,0%)
Quadratura: a causa degli arrotondamenti può succedere che la somma delle percentuali
sia diversa da 100; in questo caso è opportuno alterare le cifre per avere delle percentuali
la cui somma sia 100.

“Pulizia” dei dati e preparazione del file di lavoro


Controlli di plausibilità: si tratta di controllare che tutti i valori delle variabili siano plausibili,
appartengano cioè al ventaglio di valori previsti dal codice.
Controlli di congruenza: si possono confrontare le distribuzioni di due variabili per far
emergere eventuali incongruenze tra le variabili stesse.
Valori mancanti (missing values): ad un certo caso in una certa variabile viene assegnato
“valore mancante” se quel caso è privo di informazioni su quella variabile. Esistono quattro
casi di valore mancante: “non sa”, “non applicabile”, “non risponde”, “valore implausibile”.
Di solito si tende ad esporre i “non risponde” nell’analisi monovariata e ad escluderli
nell’analisi a più variabili.

Analisi monovariata
L’analisi monovariata è un’analisi puramente descrittiva dei fenomeni studiati, che si limita
ad esporre come ogni variabile è distribuita fra i casi rilevati, senza porsi problemi sulle
relazioni tra le variabili. Essa rappresenta un passaggio inevitabile e necessario di ogni
analisi multivariata, perché solo con questa analisi il ricercatore perviene a quella
conoscenza diretta dei dati che gli permetterà di analizzarli con piena consapevolezza.
Essa inoltre rappresenta una prima descrizione dei fenomeni analizzati e contribuisce alla
comprensione della struttura del campione e della sua rappresentatività.

Misure di tendenza centrale


Le misure di tendenza centrale dicono qual è, in una distribuzione di frequenza, il valore
che meglio di qualsiasi altro esprime la distribuzione quando si decidesse di sintetizzarla in
un unico numero.
Variabili nominali: la moda. Se la variabile è nominale, l’unica misura di tendenza centrale
calcolabile è la moda. La moda è la modalità di una variabile che si presenta nella
distribuzione con maggior frequenza.
Variabili ordinali: la mediana. Nel caso delle variabili ordinali, oltre alla moda si può
calcolare la mediana. La mediana è la modalità del caso che si trova al centro della
distribuzione dei casi che va dal minore al maggiore (distribuzione ordinata dei casi
secondo quella variabile).
Variabili cardinali: la media aritmetica. La media aritmetica è la misura di tendenza più
nota e comune, ed è data dalla somma dei valori assunti dalla variabile su tutti i casi divisa
per il numero dei casi. Se nella distribuzione di frequenza i dati sono raggruppati in classi,
per il calcolo della media si assume il valore centrale della classe.
La media si può calcolare solo se la variabile è cardinale, in quanto richiede operazioni
che possono essere effettuate solo se i valori hanno pieno significato numerico. Tuttavia ci
sono dei casi in cui è preferibile usare la mediana anche nel caso di variabili cardinali,
tipicamente quando si desidera una misura meno sensibile ai casi estremi (come il reddito
medio della popolazione).

Misure di variabilità
Variabili nominali: indici di omogeneità/eterogeneità. Una variabile nominale ha una
distribuzione massimamente omogenea quando tutti i casi si presentano con la stessa
modalità; viceversa è massimamente eterogenea quando i casi sono equidistribuiti tra le
modalità. Il più semplice indice di omogeneità (assoluta) è dato dalla somma dei quadrati
delle proporzioni (cioè delle frequenze relativizzate al totale 1). L’indice di omogeneità
relativa invece neutralizza l’influenza del numero delle modalità.
Variabili ordinali: la differenza interquartile. I quartili sono i valori che segnano i confini tra i
quattro quarti di una distribuzione ordinata divisa in quattro parti di eguale numerosità. La
differenza interquartile è la differenza tra il terzo ed il primo quartile; si usa per eliminare il
25% dei valori più alti e il 25% dei valori più bassi. Questa differenza si usa anche per le
variabili cardinali.
Variabili cardinali: deviazione standard e varianza. La deviazione standard (o scarto
quadratico medio) consiste nella somma degli scarti dei singoli valori dalla media elevati al
quadrato (per annullare il loro segno) sotto radice. Se togliamo la radice otteniamo la
varianza della distribuzione. Essa costituisce l’oggetto primario di tutta l’analisi dei dati.
Se si vogliono confrontare tra di loro le variabilità di distribuzioni aventi medie fortemente
diverse, conviene utilizzare un indice di variabilità che tenga conto del valore della media
(coefficiente di variazione).
La concentrazione. Quando la variabile è cardinale e consiste in quantità possedute dalle
unità d’analisi si può calcolare la concentrazione di questa variabile nelle unità studiate. La
variabile è equidistribuita se il suo ammontare complessivo è distribuito in parti uguali tra
le unità, mentre è concentrata se l’ammontare complessivo è tutto attribuito ad una sola
unità. Tipicamente gli indici di concentrazione sono utilizzati per studiare le disuguaglianze
nella distribuzione della ricchezza.

Indici di distanza e di dissimilarità


Indici di distanza fra casi
Oltre all’analisi della matrice per variabili è possibile condurre delle analisi sulle righe della
matrice, cioè a partire dai casi. La distanza tra i profili di due soggetti (indice di similarità)
misura quanto i due soggetti hanno dato giudizi complessivamente simili o dissimili. La
distanza tra due casi può essere tuttavia calcolata solo su variabili cardinali, oppure su
variabili nominali con opportuni artifizi.
Indici di dissimilarità tra distribuzioni
L’obiettivo degli indici di dissimilarità è quello di sintetizzare attraverso un unico numero la
distanza che esiste tra due distribuzioni di frequenza della stessa variabile. La distanza o
la dissimilarità tra due distribuzioni possono essere calcolate solo se esse presentano le
stesse modalità.

Classificazioni, tipologie e tassonomie


La classificazione è quel processo secondo il quale i casi studiati vengono raggruppati in
sottoinsiemi (classi) sulla base di loro similarità. Le classi devono essere esaustive (tutti i
casi devono trovare collocazione in una classe) e mutualmente esclusive (un caso può
appartenere ad una sola classe).
Classificazione unidimensionale: aggregazione delle modalità in classi
La classificazione più semplice è quella in cui i casi sono classificati per la somiglianza
relativamente ad una sola variabile. In questi termini la determinazione delle classi
corrisponde con quella delle modalità. Tuttavia, nel caso delle variabili nominali, in fase di
analisi dei dati talvolta è necessario aggregare alcune modalità dal significato affine per
poter procedere all’analisi bivariata. Questo processo spesso costringe il ricercatore a
scelte insoddisfacenti e sforzate a causa della difficoltà di aggregare variabili troppo
diverse tra loro; di solito quindi nell’analisi bivariata si tende a scartare le componenti
troppo esigue e non aggregabili.
Nel caso delle variabili cardinali il problema dell’aggregazione è più semplice, basta
raggruppare le modalità in classi di maggiore ampiezza. Esistono tre criteri di
aggregazione: il primo consiste nel raggruppare i valori della variabile in intervalli di uguale
ampiezza; il secondo nel raggruppare i valori assumendo a riferimento il loro significato; il
secondo si basa sulla configurazione della distribuzione di frequenza, prendendo come
soglia di divisione i quantili.
Classificazione multidimensionale: tipologie e tassonomie
Le classificazioni multidimensionale (sulla base di più variabili) si possono dividere in
tassonomie e tipologie. La tassonomia è una classificazione nella quale le variabili che la
definiscono sono considerate in successione, in una struttura gerarchica che procede per
variabili di generalità decrescente.
La tipologia è invece una classificazione nella quale le variabili che la definiscono sono
considerate simultaneamente. Le classi di una tipologia sono dette tipi. Un tipo è un
concetto il cui significato si colloca all’intersezione dei significati delle modalità delle
variabili che costituiscono la tipologia e quindi il suo significato è superiore alla semplice
combinazione dei significati delle due variabili. In questo modo la tipologia ha uno scopo
euristico, cioè non è solo una mera classificazione, ma ha finalità di interpretazione e
spiegazione; è un punto cruciale nel collegamento tra dato empirico e teoria.
Quando ci sono in gioco più variabili, il numero dei tipi risulta molto elevato (perché esso è
dato dal prodotto del numero delle modalità che formano le variabili), quindi è necessario
procedere ad una riduzione del loro numero mediante unificazione di alcuni tipi in un unico
tipo (riduzione dello spazio degli attributi).

Trasformazioni delle variabili


La standardizzazione delle variabili
La standardizzazione delle variabili consiste nella trasformazione del valore originario in
un valore standard che non risenta della unità di misura della variabile e della dispersione
della distribuzione. La standardizzazione consiste nell’ottenere una nuova variabile
sottraendo a quella originaria la media della distribuzione e dividendo questa differenza
per la deviazione standard della distribuzione.
La nuova variabile ha quindi media = 0 e deviazione standard = 1.
In questo modo le variabili standardizzate sono tra loro perfettamente confrontabili avendo
eliminato le differenze di scala e di dispersione. La standardizzazione consente di anche di
confrontare variabili provenienti da diverse distribuzioni.

La costruzione di indici
Un indice è una variabile funzione di altre variabili, che sintetizza le informazioni contenute
nelle singole variabili operativizzando un concetto complesso del quale le singole variabili
sono espressioni parziali. Gli indici si possono costruire in diversi modi, ad esempio
l’indice additivo è quello ottenuto sommando i punteggi delle singole variabili. Esistono
anche altri indici ottenuti attraverso procedure più complesse, con punteggi diversi a
domande diverse e anche con punteggi negativi. Le operazioni attraverso le quali si
costituiscono le nuove variabili (indici) possono essere di tipo algebrico o di tipo logico.
Spesso alle spalle di questa differenza ci sono diversi tipi di variabile: ad esempio sulle
variabili nominali non è possibile effettuare operazioni algebriche.

Dati aggregati
Dati individuali e dati aggregati
Se consideriamo una variabile nominale riferita ad un livello individuale, notiamo che
quando l’unità di analisi è un aggregato di individui questa variabile dà luogo a tante
variabili cardinali quante sono le sue modalità. Quindi quando l’unità di analisi è un
aggregato, la variabile è nella grande maggioranza dei casi cardinale. Naturalmente la
variabile così ottenuta deve essere messa in rapporto con la dimensione della
popolazione.

Rapporti statistici
Quando ci si trova nella situazione di confrontare fenomeni che fanno riferimento a realtà
diverse, nelle quali le quantità assolute dei fenomeni risentono della diversa dimensione
degli aggregati o del diverso ammontare dei fenomeni considerati, si pone la necessità di
relativizzare le quantità assolute alle rispettive basi di riferimento del fenomeno mediante
un rapporto.
Rapporto di composizione: consiste nel rapportare una parte del fenomeno al fenomeno
stesso nella sua totalità.
Rapporto di coesistenza: è il rapporto tra due parti, cioè tra la frequenza di una modalità e
la frequenza di un’altra.
Rapporto di derivazione: è il rapporto tra la misura del fenomeno e quella di un altro che
può essere considerato un suo presupposto necessario.
Rapporti medi: sono diffusissimi e si hanno ogni volta che il fenomeno posto al numeratore
si può associare mediamente ad ogni unità posta al denominatore. Sono una sorta di
categoria residua nella quale si collocano i rapporti che non ricadono nei casi precedenti.
In genere il ricercatore ha ampia possibilità di scegliere cosa mettere al denominatore per
rendere i numeratori confrontabili; per questo deve cercare le scelte più ragionevoli per
non ottenere risultati fuorvianti.
Cap 14 - L’analisi bivariata.
Relazioni tra variabili
Affermare che c’è una relazione tra due o più variabili significa dire che c’è una variazione
concomitante tra i loro valori (una covariazione). Si tratta di relazioni statistiche, ovvero
probabilistiche, ma la statistica non può dire se esiste effettivamente una relazione
causale tra le variabili esaminate (covariazione non significa causazione). Sarà il
ricercatore a conferire a tale relazione il significato di nesso causale, sulla base di una
teoria preesistente che non ha alcun legame con l’analisi statistica. Esamineremo solo
l’analisi bivariata, in cui vengono considerate solo le relazioni tra due variabili, dette
rispettivamente dipendente e indipendente in quanto il ricercatore di solito interpreta le
relazioni in termini di nessi causali. Le tecniche di analisi bivariata dipendono in maniera
determinante del tipo di variabili considerate. Se entrambe le variabili sono nominali, la
tecnica usata sarà quella delle tavole di contingenza; se entrambe le variabili sono
cardinali la tecnica sarà quella della regressione-correlazione; se la variabile indipendente
è nominale e quella dipendente cardinale si userà la tecnica dell’analisi della varianza.
Quando parliamo in linea generale usiamo il termine relazione; quando la relazione è fra
variabili nominali, parliamo di associazione; quando è fra variabili ordinali parliamo di
cograduazione; mentre quando è fra variabili cardinali parliamo di correlazione.

Tavole di contingenza
Direzione delle percentuali (percentuali di riga e percentuali di colonna)
La tavola di contingenza consiste in una tabella a doppia entrata in cui è collocata in riga una variabile
(variabile di riga) e l’altra in colonna (variabile di colonna), mentre nelle celle definite dall’incrocio fra le
righe e le colonne troviamo il numero di casi che presentano le corrispondenti modalità delle due variabili
(frequenza). L’ordine di una tavola di contingenza è il prodotto delle righe per le colonne, mentre la
dimensione è il numero di variabili in essa implicate. L’analisi bivariata tratta quindi solo tabelle
bidimensionali. Dalla tabella con i valori assoluti è possibile ricavare tre diverse tabelle percentuali: le
percentuali di riga (che si ottiene ponendo uguale a 100 la variabile di colonna e registrando quindi i
corrispondenti valori percentuali della variabile di riga), le percentuali di colonna (che si ottiene ponendo
uguale a 100 la variabile di riga e registrando quindi i corrispondenti valori percentuali della variabile di
colonna) e le percentuali sul totale (che si ottengono percentualizzando tutte le frequenze di cella sul totale
generale). Se la tabella è stata costruita per analizzare la relazione tra le due variabili quest’ultima
percentualizzazione è inutile. Lo scopo della percentuale è infatti quello di “pareggiare” basi diverse. È
necessario porre molta attenzione nella scelta delle due percentuali rimanenti perché una è corretta
mentre l’altra è errata; per compiere la scelta giusta bisogna ricordare che si sceglie la percentuale di
colonna quando si vuole analizzare l’influenza che la variabile di colonna ha su quella di riga e viceversa. In
altri termini, si definisce qual è la variabile indipendente e si percentualizza all’interno delle sue modalità.
Talvolta, quando gli obiettivi sono diversi, può essere utile calcolare invece l’altra percentualizzazione
oppure calcolarle entrambe.

Presentazione delle tavole


Gli elementi caratterizzanti di una buona presentazione delle tavole sono cinque.
Parsimoniosità: la tabella deve riportare solo le percentuali che servono all’analisi (es. solo quelle di riga).
Totali: ogni riga o colonna finisce con il totale 100 per far capire immediatamente al lettore in che direzione
sono state calcolate le percentuali.
Basi delle percentuali: deve essere sempre riportata la base percentuale, cioè il numero assoluto di casi sui
quali è stata operata la percentualizzazione.

Cifre decimali, decimale zero, arrotondamenti, quadratura: valgono le considerazioni già sviluppate
riguardo alla presentazione delle distribuzioni di frequenza.
Intestazione: le tabelle devono sempre essere intestate per poter essere auto esplicative.
Somme di percentuali: la somma di percentuali è legittima se i valori sommati appartengono alla stessa
distribuzione, ma è errata se le percentuali sommate appartengono a due diverse distribuzioni.

Interpretazione delle tavole.


Nell’interpretazione e commento delle tabelle è opportuno selezionare le modalità più significative della
variabile dipendente e centrare su queste l’analisi; inoltre è preferibile trascurare differenze percentuali
esigue (inferiori ai 5 punti percentuali). Per fare un commento efficace si prende una modalità significativa
della variabile dipendente e si vede come essa varia al variare della variabile indipendente. La scelta della
modalità da commentare dipende dalla linea argomentativa del ricercatore. Nel caso di variabili ordinali
risulta utile aggregare le modalità estreme e contigue della variabile dipendente per una maggiore
chiarezza. Un sistema spesso utilizzato per interpretare le tabelle consiste nell’indice di differenza
percentuale, cioè nella differenza tra due modalità di risposta o tra le risposte positive e negative; esso
permette di leggere i dati tenendo conto simultaneamente dell’andamento di più modalità della variabile
dipendente.

Presentazione compatta delle tavole.


Spesso, per economizzare lo spazio o per facilitare il confronto tra domande aventi la stessa struttura, si
compattano più tavole semplici a doppia entrata in un’unica tavola, presentando un’unica modalità. Si
possono incrociare diverse variabili dipendenti con la stessa variabile indipendente oppure viceversa.

Tavole di mobilità sociale


Nelle tavole di mobilità sociale su una dimensione si colloca la classe sociale dei soggetti studiati e sull’altra
quella dei loro padri. Essa è di particolare importanza perché offre molteplici linee di lettura. Iniziando dalle
celle, poiché le due variabili (classe sociale padre e classe sociale figlio) hanno le stesse modalità, sulla
diagonale si trovano i soggetti immobili, mentre nel triangolo superiore alla diagonale ci sono i soggetti che
hanno sperimentato un processo di mobilità ascendente e nel triangolo sotto alla diagonale ci sono invece i
soggetti che hanno sperimentato un processo di mobilità discendente. In questo caso inoltre tutte e tre le
forme di percentualizzazione assumono un significato: le percentuali entro le modalità della variabile
indipendente ci dicono qual è l’influenza della classe sociale di partenza su quella di arrivo, le percentuali
per riga ci danno informazioni sull’origine sociale dei ceti attuali e infine la percentualizzazione sul totale ci
dà informazione sul processo generale di mobilità sociale. Lo stesso approccio viene impiegato nelle tavole
di movimento elettorale.
Talvolta è utile rappresentare graficamente le relazioni fra due variabili nominali. Per fare ciò si utilizzano gli
strumenti già visti per distribuzioni di frequenza virgola e cioè sostanzialmente i diagrammi a barre oppure
quelli a linee spezzate che congiungono i punti di interesse.

Significatività della relazione tra due variabili nominali:


Il test del chiquadrato. Il test del chi-quadrato è un criterio oggettivo sulla base del quale è possibile dire
che tra due variabili esiste o meno una relazione. Il test del chi-quadrato si basa sulla falsificazione, cioè si
assume che non esista alcuna relazione tra le due variabili e si cerca di dimostrare che questa affermazione
è falsa. Se la dimostrazione riesce, resta un’unica alternativa disponibile, cioè che tra le due variabili esista
effettivamente una relazione. In particolare, con il test del chi-quadrato si costruisce una tavola ipotetica
che rappresenta le frequenze che ci si aspetterebbe in caso di assenza della relazione. In seguito, si
calcolano le frequenze effettivamente trovate nei dati e si trova la differenza tra le frequenze attese e
quelle osservate. Se la differenza è sufficientemente grande si accetta l’ipotesi di esistenza di una relazione.
Il chi-quadrato è un indice che misura la distanza tra le tabelle delle frequenze osservate e quelle delle
frequenze attese: più grande è il suo valore, maggiore è la differenza. Per convenzione si respinge l’ipotesi
di indipendenza se il valore del chi-quadrato è così grande da avere solo il 5% o meno di possibilità di essere
dovuto al caso, mentre ha il 95% di possibilità di essere causato da una relazione tra le variabili. Se il
campione è costituito da pochi casi, si può respingere l’ipotesi sottoposta a verifica solo se i risultati sono
fortemente indicativi; mentre se il campione è molto ampio, anche piccole differenze possono essere
considerate significative. Questo fatto è evidente nel chi-quadrato: il valore del chi-quadrato dipende
fortemente della numerosità del campione. Il test del chi-quadrato, inoltre, essendo basato sullo scarto tra
frequenze attese e frequenze osservate può risultare significativo anche solo per l’anomalia di un’unica
cella, che presenta valori fortemente devianti rispetto al valore atteso: per questo è necessario sempre
ispezionare attentamente la tabella.

Misure di associazione tra variabili nominali


Le misure di associazione servono a valutare la forza (o intensità) di una relazione fra variabili nominali.
Esse possono essere basate sul chi-quadrato oppure sulla riduzione proporzionale dell’errore. Misure di
associazione basate sul chi-quadrato: si può prendere direttamente come misura della forza di una
relazione il chi-quadrato (maggiore è il chi-quadrato, maggiore è la forza) a condizione che le due tabelle
presentino lo stesso numero di casi. Se le tabelle hanno numeri di casi differenti si utilizza l’indice Φ (phi),
che si ottiene dividendo il chi-quadrato per il numero dei casi. Siccome questo valore non varia da 0 o 1
(non è cioè normalizzato), è stato introdotto l’indice V (V di Cremar) che invece varia da 0 (indipendenza) a
1 (relazione perfetta). Caso particolare della tabella 2x2: in questo caso gli indici Φ e V coincidono, e
coincidono anche con il coefficiente di correlazione r di Pearson, che è l’indice di forza della relazione da
utilizzare quando entrambe le variabili sono cardinali e si può utilizzare anche quando le variabili sono
dicotomiche. Misure di associazione basate sulla riduzione proporzionale dell’errore: queste misure si
basano sulla riduzione di errore che si fa nel predire una variabile conoscendo il valore dell’altra, rispetto
agli errori che isi farebbero se si fosse privi di tale conoscenza. La misura di associazione corrisponde alla
proporzione di riduzione degli errori di previsione nel calcolare per le unità di analisi il valore di Y
conoscendo il valore che esse hanno su X.

Misure di cograduazione tra variabili ordinali


Nel caso delle variabili ordinali diventa importante anche il segno della relazione, vale a dire se a valori alti
di una variabile tendono a corrispondere valori alti anche dell’altra variabile la relazione si dice positiva (o
diretta), mentre se a valori alti dell’una corrispondono valori bassi dell’altra si dice negativa (o inversa). Le
misure di cograduazione (specifiche delle variabili ordinali) si basano sul confronto tra i valori assunti dalle
variabili X e Y su tutte le possibili coppie di casi. Una coppia di casi è detta concordante se su un caso i valori
di X e Y sono entrambi maggiori (o minori) dei valori delle stesse variabili sull’altro caso, mentre è detta
discordante se una variabile assume su un caso un valore maggiore mentre l’altra un valore minore rispetto
ai valori assunti sull’altro caso. Se la maggioranza delle coppie sono concordanti (o discordanti) c’è una
relazione (cograduazione) tra le due variabili (positiva se concordanti, negativa se discordanti); se ci sono
tante coppie concordanti quante discordanti allora non c’è cograduazione.
Conclusioni su misure di associazione e di cograduazione. Le misure di forza delle relazioni tra variabili
nominali e ordinali non sono molto utilizzate per tre motivi. In primo luogo, non esiste un unico indice
standard; secondariamente, la forza della relazione può essere dovuta al comportamento specifico di
alcune modalità; infine, queste misure sono di difficile interpretazione. È quindi molto importante leggere
attentamente la tabella anche per interpretarne la forza.

Rapporti di probabilità
Il rapporto di probabilità (odds) è il rapporto tra la frequenza di una categoria e la frequenza della
categoria alternativa (nel caso delle variabili dicotomiche) e si indica con la lettera ω. Esso è anche definibile
come il rapporto tra la probabilità che un individuo, estratto a caso dell’universo, appartenga ad una
categoria della variabile considerata e la probabilità che non vi appartenga. Il rapporto di probabilità
assume il valore 1 quando le due categorie della variabile hanno lo stesso peso (equivalente alla
proporzione di 0,5 per entrambe); ha come valore minimo 0 e come valore superiore ha +∞. Il rapporto di
probabilità può essere esteso anche al caso di due variabili; in questo caso si usa il rapporto si associazione,
che varia da 0 a +∞, passando per il valore 1 che si verifica nel caso di indipendenza tra le due variabili.
Maggiore è la distanza da 1, maggiore è la forza della relazione. Valori superiori a 1 indicano una
associazione positiva, mentre valori inferiori a 1 una associazione negativa. Il rapporto di associazione non
risente delle dimensioni del campione è cambia se entrambe le frequenze di una riga o di una colonna sono
moltiplicate per una costante. Questa stabilità è utile per poter cogliere la struttura della relazione tra due
variabili senza risentire delle variazioni campionarie.

Analisi della varianza

Principi e calcoli

L’analisi della varianza serve a studiare la relazione tra una variabile nominale e una cardinale. Se abbiamo
la variabile cardinale dipendente, possiamo notare che essa varia tra i casi (varianza). La varianza può
essere suddivisa in due componenti: quella parte dovuta alla variabilità del fenomeno entro i gruppi
(devianza non spiegata o interna) e quella parte dovuta alla variabilità del fenomeno tra i gruppi (devianza
spiegata o esterna). Si dice spiegata perché la spiegazione di quella parte della variabilità della variabile
dipendente che è attribuibile alla variabile indipendente. Il diverso peso relativo di devianza interna ed
esterna può essere utilizzato per valutare la significatività e la forza della relazione.

Regressione e correlazione.

Diagramma di dispersione.

Nella tecnica di regressione la distinzione fra variabile indipendente e dipendente è particolare importante
in quanto, come vedremo, i valori del coefficiente di regressione differiscono a seconda della scelta. La
rappresentazione grafica nel suo complesso si chiama diagramma di dispersione.
Coefficiente di correlazione.

La retta di regressione ci dice qual è la sua forma della relazione fra X e Y; per misurare la forza di una
relazione fra due variabili cardinali si utilizza il coefficiente di correlazione r.

L’introduzione anche di una sola terza variabile nella relazione bivariata può fornire elementi illuminanti
agli effetti di una reale valutazione di quella relazione. La terza variabile Z interviene quindi nel rapporto tra
X e Y: per questo viene chiamata variabile interveniente. In questo caso non si può dire che non esista
relazione casuale fra X e Y. Il caso di relazione condizionata è quello in cui la relazione fra due variabili
cambia a seconda del valore assunto da una terza variabile.

Potrebbero piacerti anche