Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Con questo termine ci si riferiva ad una prospettiva teorica con i seguenti requisiti:
1) Che è condivisa e riconosciuta da tutti gli scienziati di una certa disciplina;
2) Che è fondata sulle acquisizioni precedenti della disciplina stessa;
3) Che indirizza la ricerca individuando i fatti rilevanti da studiare, formulando ipotesi su un
determinato fenomeno e approntando le tecniche di ricerca empirica necessarie.
Senza un paradigma una scienza non ha orientamenti né criteri di scelta, perché tutti i criteri, i problemi
e le tecniche diventano ugualmente rilevanti. Il paradigma è una guida e fornisce agli scienziati un
modello e le indicazioni per costruirlo. Con il paradigma lo scienziato acquisisce contemporaneamente
teorie, metodi e criteri. Il paradigma è qualcosa di più ampio di una teoria, è una visione del
mondo, una finestra mentale, una griglia di lettura che precede l’elaborazione teorica.
La scienza normale corrisponde a quei periodi in cui esiste all’interno di una disciplina un paradigma
condiviso dagli scienziati.
Nella storia della sociologia è difficile individuare un paradigma predominante, condiviso da tutti i
sociologi. Solo tra gli anni ’40 e ’50 ha prevalso il concetto di sistema e la teoria funzionalista di T.
Parsons. Egli rielabora il pensiero degli europei e crea una teoria basata sul sistema e sul consenso. A
questo paradigma viene contrapposto quello di Marx, basato sul conflitto sociale. In questo modo
possiamo parlare di disciplina multiparadigmatica.
Dunque il paradigma è qualcosa di più generale di una teoria e caratterizza le scienze “mature”
(le scienze sociali e la sociologia sarebbero, da questo punto di vista, in una collocazione pre-
paradigmatica).
Secondo un’altra interpretazione del pensiero di Kuhn il requisito della condivisione da parte
della comunità scientifica non sarebbe necessario: la sociologia, come disciplina, diventerebbe
da pre-paradigmatica a multi-paradigmatica.
POSITIVISMO E INTERPRETATIVISMO
I paradigmi “fondativi” della ricerca sociale sono sostanzialmente due: empirista e umanista;
si distinguono tra loro sulla base della risposta data a tre interrogativi fondamentali:
1) esiste la realtà sociale? (questione ontologica)
2) si può conoscere? (questione epistemologica)
3) con quali metodi? (questione metodologica)
Le questioni sono intrecciate tra loro e dipendono l’una dall’altra. La sociologia nasce sotto gli
auspici del pensiero positivista.
Positivismo
Il paradigma positivista (il primo ad essere utilizzato nelle scienze sociali) studia la realtà sociale
utilizzando gli apparati concettuali, le tecniche di osservazione e misurazione, gli strumenti di analisi
matematica e i procedimenti di inferenza delle scienze naturali. Il primo vero sociologo positivista è
Durkheim, la cui teoria impone di trattare i fatti sociali come cose effettivamente esistenti al di fuori
delle coscienze individuali e studiabili oggettivamente.
L’ontologia del positivismo afferma quindi che la realtà sociale ha esistenza effettiva ed è conoscibile, come
se si trattasse di una “cosa”.
Dal punto vista epistemologico, esso si basa sul dualismo tra ricercatore e oggetto di studio (che non si
influenzano a vicenda in nessun modo), presume di ottenere risultati veri e certi, il suo obiettivo è quello di
spiegare e di formulare leggi naturali e generali immutabili.
La metodologia positivista prevede quindi esperimenti e manipolazioni della realtà, con osservazioni e
distacco tra l’osservatore e l’osservato; il suo modo di procedere è prevalentemente induttivo (dal particolare
al generale, cioè dall’osservazione dei dati empirici si cerca di risalire, dopo aver individuato
delle regolarità, alle leggi universali che li governano). Le tecniche utilizzate sono quantitative
(esperimenti, statistica) e si utilizzano le variabili.
Lo studioso e l’oggetto studiato sono considerati entità indipendenti (dualismo); l’oggetto
studiato non influenza lo studioso e viceversa: quindi indipendenza e oggettività.
Neopositivismo
Il neopositivismo nasce per rispondere alle critiche che erano state avanzate al positivismo. Dal punto di
vista ontologico, adotta il realismo critico, per cui afferma che esiste una realtà sociale esterna all’uomo, ma
che essa è conoscibile solo imperfettamente, in modo probabilistico. L’epistemologia del neopositivismo
prevede il riconoscimento del rapporto di interferenza tra studioso e studiato, che deve essere il più possibile
evitato per poter formulare leggi non più assolute, ma limitate nel tempo e soggette alla continua
falsificazione per poter arrivare sempre più vicini alla conoscenza assoluta. La metodologia resta
sostanzialmente quella del positivismo, anche se c’è un’apertura ai metodi qualitativi.
Interpretativismo
L’interpretativismo, che vede in Weber il suo esponente principale, non si propone di spiegare la realtà
bensì di comprenderla; in questo modo si pone all’opposto del positivismo per quanto riguarda i punti
principali del paradigma. Infatti, la sua ontologia prevede il costruttivismo e il relativismo (realtà multiple),
vale a dire che non esiste una realtà oggettiva (ogni individuo produce una sua realtà, e solo questa realtà è
conoscibile); inoltre anche le singole realtà individuali o anche condivise tra i gruppi sociali, variano
comunque tra le diverse culture e quindi non esiste una realtà sociale universale valida per tutti.
L’epistemologia prevede una separazione tra studioso e oggetto dello studio, la ricerca sociale è vista come
una scienza interpretativa alla ricerca di significato piuttosto che una scienza sperimentale in cerca di leggi.
Nel perseguire il suo scopo (che è quello della comprensione del comportamento individuale), la ricerca
sociale può servirsi di astrazioni e generalizzazioni: i tipi ideali e gli enunciati di possibilità. La metodologia
prevede l’interazione tra studioso e studiato, perché solo in questo modo è possibile comprendere il
significato attribuito dal soggetto alla propria azione. Le tecniche sono quindi qualitative e soggettive e il
metodo usato è quello dell’induzione (dal particolare al generale).
Secondo le visioni teoriche che si rifanno alla definizione di “interpretativismo” la realtà non
può essere semplicemente osservata, bensì va interpretata.
Wilhelm Dilthey (filosofo tedesco) distingue tra:
- scienze naturali, il cui oggetto di studio va spiegato;
- scienze sociali, il cui oggetto di studio va compreso.
Max Weber invece:
- vuole salvare l’avalutabilità delle scienze sociali, cioè vuole tenere ben distinti i
fatti empirici dalle considerazioni del ricercatore;
- il metodo che propone è quello del comprendere, dell’immedesimarsi nell’altra
persona per capirla;
- introduce il concetto di tipo ideale, ossia un’astrazione che nasce dalla
rilevazione empirica di uniformità. Non ha un concreto corrispettivo nella realtà
in quanto, privandola della sua complessità e del suo disordine, la riconduce ad
una costruzione chiara, razionale e coerente;
- il ricercatore non persegue le leggi (in senso positivista) ma i c.d. “enunciati di
possibilità” (esempio: se accade A allora il più delle volte si verifica anche B).
Quindi le risposte fornite dall’interpretativismo alle tre questioni fondamentali sono:
1) la realtà sociale non è unica, è molteplice ed è relativa ai significati che ciascun
individuo gli attribuisce;
2) scompare la separazione tra lo studioso e l’oggetto studiato; da scienza sperimentale a
scienza interpretativa; i tipi ideali e gli enunciati di possibilità forniscono astrazioni e
generalizzazioni;
3) la metodologia è quella dell’interazione empatica fra studioso e studiato.
Radicalizzazioni e critiche
Una radicalizzazione del positivismo consiste nel riduzionismo, cioè nel ridurre la ricerca sociale ad una
mera raccolta di dati senza un’elaborazione teorica che li supporti. In questo modo la ricerca sociale diventa
una massa sterminata di dati minuziosamente rilevati, misurati e classificati, ma non coordinati tra loro, privi
di connessioni significative, incapaci di rendere una conoscenza adeguata dell’oggetto cui nominalmente si
riferiscono.
In ogni caso, la critica maggiore mossa al positivismo è quella di separare troppo nettamente le categorie
osservative da quelle teoriche; in altre parole non è possibile sostenere che le forme di conoscenza non
siano storicamente e socialmente determinate e quindi dipendenti dalle teorie utilizzate.
Per quanto riguarda l’interpretativismo, le critiche maggiori sono rivolte ai filoni sviluppatisi dalla teoria
originale di Weber (che pur affermando la centralità dell’intenzione soggettiva, non escludeva la possibilità di
arrivare a delle forme di generalizzazione conoscitiva, i tipi ideali) che si spingevano verso un soggettivismo
estremo. In questo modo si esclude la possibilità dell’esistenza della scienza sociale, perché se tutto è
soggettivo e unico non possono esistere leggi sociali comuni a più individui che hanno assunto autonomia
rispetto ai singoli, come le istituzioni. La seconda critica afferma che se la realtà è una pura costruzione
soggettiva, non è possibile andare oltre alla persona, si nega l’acquisibilità di generalizzazioni sovrapersonali
e quindi si nega l’oggettività della scienza. Se il ricercatore non può trascendere l’oggetto dell’indagine non
può esistere la conoscenza oggettiva.
CAPITOLO 2
RICERCA QUANTITATIVA E RICERCA QUALITATIVA (ok integrato)
Dal paradigma neopositivista e da quello interpretativo sono derivati due diversi approcci alla
ricerca sociologica: quello quantitativo e quello qualitativo. Vediamo le differenze tra i due
approcci:
Per quanto riguarda l’impostazione della ricerca:
1) rapporto tra teoria e ricerca
- approccio quantitativo: l’impostazione è deduttiva; si parte dalla teoria (ipotesi
prese dalla letteratura), che precede l’osservazione, e ci si muove nel contesto
della giustificazione (si ricerca nei dati empirici il sostegno della teoria
formulata);
- approccio qualitativo: teoria e ricerca procedono intrecciate tra loro; spesso il
ricercatore respinge volutamente qualsiasi condizionamento teorico che potrebbe
inibirgli la capacità di comprendere l’oggetto studiato; la letteratura ha minore
importanza.
2) definizione dei concetti (cioè degli elementi costitutivi della teoria e tramite la loro
operativizzazione (= trasformazione in variabili empiricamente osservabili) permettono alla teoria di essere
sottoposta a controllo empirico.)
- approccio quantitativo: Nell’approccio neopositivista la chiarificazione dei concetti e la
loro operativizzazione in variabili avvengono prima ancora di iniziare la ricerca. Questo
metodo, se da un lato offre il vantaggio di poter rilevare empiricamente il concetto, dall’altro
comporta anche lo svantaggio di una forte riduzione e impoverimento del concetto stesso,
con il rischio ulteriore che la variabile sostituisca il concetto (reificazione).);
- approccio qualitativo: non si perviene alla definizione operativa di un concetto;
al massimo si utilizzano dei “concetti sensibilizzatori” che, come dice
l’interazionista Blumer, indicano verso quale direzione guardare ma non che cosa
osservare; Un ricercatore qualitativo avrebbe invece utilizzato il concetto come orientativo
(sensitizing concept), che predispone alla percezione, ancora da definire non solo in termini
operativi, ma anche teorici, nel corso della ricerca stessa. I concetti diventano quindi una
guida di avvicinamento alla realtà empirica, non riduzioni della realtà stessa in variabili
astratte
1) il rapporto con l’ambiente studiato
- approccio quantitativo: il ricercatore non si preoccupa molto della “reattività”
dell’oggetto del suo studio (cioè della tendenza che hanno le persone che sanno
di essere osservate a comportarsi in maniera non naturale) e crede che un certo
grado di manipolazione controllata sia ammissibile;
- approccio qualitativo: approccio naturalistico, il ricercatore cerca di astenersi da
qualsiasi forma di disturbo nei confronti della realtà che sta osservando; I due
modi di fare ricerca trovano illustrazioni tipiche e opposte nelle tecniche dell’esperimento e
dell’osservazione partecipante
4) obbiettivo della ricerca
- approccio quantitativo: validazione empirica delle ipotesi;
- approccio qualitativo: scoperta del punto di vista dell’attore sociale;
5) interazione psicologica studioso-studiato
- approccio quantitativo: punto di osservazione esterno ed atteggiamento neutrale
e distaccato;
- approccio qualitativo: il ricercatore cerca di calarsi quanto più gli è possibile nella
realtà studiata (coinvolgimento, immedesimazione empatica) Ma in questo modo
sorge prepotentemente il problema dell’oggettività della ricerca;
6) interazione fisica studioso-studiato
- approccio quantitativo: distanza/separazione;
- approccio qualitativo: prossimità/contatto;
7) ruolo del soggetto studiato
- approccio quantitativo: passivo;
- approccio qualitativo: attivo.
1) il disegno della ricerca (scelte di carattere operativo per decidere dove e come
raccogliere i dati)
- approccio quantitativo: è fatto al tavolino ed è chiuso e strutturato;
- approccio qualitativo: è destrutturato, aperto, modellato nel corso della ricerca;
2) rappresentatività dei soggetti studiati
- approccio quantitativo: è ricercata la generalizzabilità dei risultati mediante l’uso
di campioni statisticamente rappresentativi;
- approccio qualitativo: il ricercatore non sceglie i casi per la loro
rappresentatività, ma per l’interesse che gli suscitano;
3) lo strumento di rilevazione
- approccio quantitativo: è uniforme per tutti i casi in vista di una
standardizzazione dei risultati ottenuti;
- approccio qualitativo: non è interessato alla standardizzazione dei risultati;
4) natura dei dati raccolti
- approccio quantitativo: HARD, cioè precisi, rigorosi, oggettivi, standardizzati;
- approccio qualitativo: SOFT, cioè ricchi e profondi.
meccanismi causali che stanno alla base dei fenomeni sociali, cerca invece di descriverne le
differenze interpretandole alla luce dei tipi ideali. All’opposto, il fine ultimo della ricerca
quantitativa è proprio quello di individuare il meccanismo causale ;
3) portata dei risultati
- approccio quantitativo: si lavora su un numero cospicuo di casi, ma in maniera
superficiale;
- approccio qualitativo: si lavora su un numero basso di casi, ma si scende molto
in profondità. A questo proposito notiamo che la profondità dell’analisi e l’ampiezza della
ricerca sono inversamente correlate, vale a dire che ad un maggior numero di casi esaminati
corrisponde un minore approfondimento dei singoli casi. Data la maggiore quantità di casi
necessariamente esaminati dalla ricerca quantitativa, risulta indubbiamente una maggiore
generalizzabilità dei risultati rispetto a quelli della ricerca qualitativa.
Questo significa che esiste un atto della scoperta che sfugge alle analisi logiche, ma allo stesso
tempo la ricerca empirica deve essere pubblica, controllabile e ripetibile per poter essere definita
scientifica. Per questo esiste un percorso “tipico” della ricerca sociale che parte dalla teoria,
attraversa le fasi si raccolta e analisi dei dati e ritorna alla teoria. Più precisamente, si possono
individuare cinque fasi e cinque processi che le legano.
IPOTESI: Una teoria deve essere organizzata in ipotesi specifiche. l'ipotesi è una proposizione che
implica una relazione fra due o più concetti, che si colloca ad un livello di astrazione e di
generalizzazione inferiore rispetto alla teoria e che può essere tradotta in termini
empiricamente controllabili (cioè più concreta e più specifica della teoria, ma ipotetica, da
dimostrare con controllo empirico - vedi ancora suicidio di Durkheim).
La validità di una teorizzazione dipende dalla sua trasformabilità in ipotesi empiricamente
controllabili (vedi nota di Popper a pié di pagina 82); Il criterio della controllabilità empirica è il
criterio stesso della scientificità: se non c'è riscontro empirico di una teoria questa rimane nell'ambito pre-
teorico delle supposizioni, nelle scienze sociali questo rischio è alto, ricordiamoci che "è meglio una teoria
sbagliata che una teoria vaga".
È importante la differenza tra generalizzazioni empiriche e teorie (Merton): le prima sono proposizioni
isolate che riassumono uniformità relazionali osservate tra due o più variabili (la letteratura sociologica
abbonda di queste), mentre le seconde nascono quando queste proposizioni sono raccolte e sussunte in un
sistema concettuale che si colloca ad un livello superiore di astrazione - torna di nuovo a Durkheim pag83
(ad esempio, permette di avanzare ipotesi in campi diversi e remoti da quelli originari).
Talvolta la pratica delle ricerca si sviluppa con ordini diversi rispetto a quello canonico: è possibile che le
ipotesi vengano sviluppate dopo aver raccolto i dati, e con questi confrontati a posteriori. Oppure si ricorre
alla teoria dopo aver analizzato i dati, per spiegare un fatto anomalo o un risultato inaspettato. Infine, una
nuova teoria può essere scoperta nel corso della fase empirica. Talora la rilevazione viene prima della delle
ipotesi per ragioni di forza maggiore, nel caso dell’ analisi secondaria, quando cioè si applica una seconda
analisi a dati raccolti da altri ricercatori in tempi precedenti. (esempi sul manuale pagg 85-86)
I concetti possono riferirsi ad astrazioni impossibili da verificare empiricamente (potere, felicità, ecc), oppure
a entità concrete (oggetti, persone, ecc). Ma se i concetti formano una teoria, come si può verificarla
empiricamente? Bisogna passare dai concetti astratti alla loro applicazione come proprietà degli specifici
oggetti studiati (chiamati unità di analisi). Occorre applicare i concetti a oggetti concreti, farli diventar
attributi o proprietà di oggetti, che chiamiamo unità di analisi. Es concetto di potere può essere una
proprietà di unità di analisi quali ruoli politici (funzionario, consigliere, deputato ecc).
Le proprietà assumono, sugli oggetti a cui si riferiscono, stati diversi, cioè variano tra le unità
di analisi (es la classe sociale varia tra i soggetti, la partecipazione elettorale varia tra i
comuni).
Una proprietà misurabile di una unità di analisi si chiama variabile.
Per esempio, il peso è un concetto, ma il peso di un oggetto è la sua proprietà. Il peso dell’oggetto misurato
con la bilancia è una variabile. Oppure, il livello culturale è un concetto astratto, ma se applicato a un
individuo diventa una proprietà, e se è misurabile una variabile.
In definitiva, una variabile è una proprietà di una unità di analisi a cui sono assegnati valori diversi.
La variabile è la proprietà operativizzata; le modalità sono gli stati operativizzati della
proprietà.
Esempio: concetto: livello culturale; proprietà per rilevare il concetto: titolo di studio degli
individui; la proprietà assume stati diversi nei vari soggetti; gli stati vengono registrati con 5
modalità: 0 senza titolo, 1 licenza elementare, 2 licenza media, 3 diploma, 4 laurea. Quello che
si è appena fatto è un esempio di operativizzazione del concetto “livello culturale”.
UNITA' DI ANALISI
L’unità di analisi rappresenta l’oggetto sociale al quale afferiscono, nella ricerca empirica, le proprietà
studiate. Esse devono essere determinate con precisione nel momento in cui si vuole sottoporre a controllo
empirico una teoria mediante una specifica ricerca di tipo quantitativo, in quanto sono un elemento
importante del disegno della ricerca (il programma di lavoro empirico). Le unità di analisi possono essere
concretamente rappresentate dall’individuo (la più comune), dall’aggregato di individui (di solito
basate sulla territorialità - es regioni, comuni), dal gruppo-organizzazione-istituzione (quando
l’unità di rilevamento è rappresentata dal collettivo stesso), dagli eventi sociali (quando gli eventi stessi
sono le unità di analisi) e dalle rappresentazioni simboliche – prodotto culturale (quanto l’unità di
analisi consiste nei messaggi di comunicazione di massa di ogni genere).
L’unità di analisi è singolare ed astratta, mentre chiamiamo casi gli esemplari specifici, concreti di quella data
unità di analisi che vengono studiati, sui quali si rilevano i dati. Essi sono gli oggetti specifici della ricerca
empirica.
VARIABILI
Una variabile è un concetto operativizzato, o meglio la proprietà operativizzata di un oggetto, in quanto il
concetto, per poter essere operativizzato, ha dovuto essere applicato ad un oggetto diventandone proprietà.
Un concetto può essere operativizzato in modi diversi., per es potere può essere proprietà di un individuo,
di un ruolo politico, di una istituzione ecc.La proprietà livello culturale di un individuo puàò essere definita
operativamente mediante titolo di studio, numero di libri letti in un anno, consumo di cinema giornale teatro,
ecc.
Una variabile può:
- essere invariante, quindi essere in realtà una costante -es nazionalità può
variare ma se applicata agli italiani, in questo caso è una costante non una
variabile;
- variare nel tempo (studio longitudinale o diacronico), sullo stesso caso;
- variare nei casi (studio trasversale o sincronico), nello stesso tempo. Nelle
scienze sociali questo secondo metodo è più utilizzato. vedi esempi pag 94
-
Classificazione delle variabili:
manipolabili/non manipolabili (dal ricercatore) sono quelle che possono essere modificate dal
ricercatore, viceversa quelle non manipolabili non possono essere controllate. La maggior parte delle
variabili sociali non sono manipolabili, anche se esistono dei casi in cui il ricercatore può controllarle;
La seconda distinzione è quella tra variabili dipendenti e variabili indipendenti. In una relazione
asimmetrica tra due variabili, quando cioè una variabile influenza un’altra, la variabile indipendente è
ciò che influenza (la causa), mentre la variabile dipendente è ciò che è influenzato (l’effetto). Nel
caso in cui le variabili indipendenti siano più di una abbiamo una relazione multivariata.
L'identificazione della variabile dipendente (explicandum, ciò che vogliamo spiegare) e delle variabili
indipendenti (explicans, i fattori esplicativi) rappresenta una chiarificazione concettuale
fondamentale ai fini dell'analisi di un fenomeno sociale. Però non sempre è facile chiarire quale sia la
variabile dip e quale quella indip, si pensi per es a orientamento politico e comportamento
religioso...
La terza distinzione è quella tra variabili latenti e variabili osservate. La distinzione si basa sulla
osservabilità, ossia sulla possibilità di rilevazione empirica. Le prime sono variabili non direttamente
osservabili in quanto rappresentano concetti molto generali o complessi, mentre le seconde sono
10
facilmente rilevabili. In ogni caso, entrambe possono essere operativizzate, per cui anche nel caso
delle variabili latenti c’è una sostanziale differenza con i concetti.
L’ultima distinzione è quella tra variabili individuali e variabili collettive. Le variabili individuali sono
specifiche di ogni individuo, mentre quelle collettive sono proprie di un gruppo sociale. Le variabili
collettive si suddividono a loro volta in variabili aggregate, dove la proprietà del collettivo deriva
dalle proprietà dei singoli componenti del gruppo, e variabili globali, quando le caratteristiche
esclusive del gruppo non derivano da proprietà dei membri che lo compongono.
Le variabili sono assolutamente fondamentali nella ricerca empirica, anche se a ogni definizione operativa è
lasciata all’arbitrio del ricercatore, che deve solo esplicitare e giustificare le sue scelte. Per questo una
definizione operativa non è mai perfettamente adeguata ed esiste sempre uno scarto tra variabile e
concetto. Un altro pericolo che porta l’operativizzazione è quello della reificazione, cioè di identificare la
definizione operativa di un concetto (necessariamente arbitraria e impoverita) con il concetto stesso. Un
esempio sopra tutti: assimilare l'intelligenza a quella particolare operativizzazione del concetto effettuata
mediante il QI.
Tuttavia, con tutti i suoi limiti, la definizione operativa è necessaria per fondare scientificamente e
oggettivamente la ricerca sociale. La definizione operativa non elimina l'arbitrarietà ma la rende esplicita e
quindi controllabile.
variabili nominali: quando la proprietà assume stati discreti (la proprietà può
assumere solo una serie di Atti finiti es maschio e femmina) non ordinabili (non è
possibile stabilire un ordine, es di nazionalità italiana o cinese) (esempio
maschio/femmina o celibe/coniugato; in entrambi i casi si ha una variabile dicotomica,
cioè a due valori possibili); hanno senso su di esse solo le relazioni di = (uguale) e !=
(diverso); le categorie scaturiscono da un’operazione di classificazione e devono essere
esaustive e mutuamente esclusive.
Gli stati di una proprietà così descritta si chiamano categorie, le categorie operativizzate (cioè gli stati della
variabile) modalità e i simboli assegnati alle modalità valori. La procedura di operativizzazione che permette
di passare dalla proprietà alla variabile è la classificazione. Nel caso in cui ci siano solo due modalità si parla
di variabili dicotomiche (es maschio e femmina). pag 102-103 puoi arricchire.
variabili ordinali: quando la proprietà assume stati discreti ordinabili (esempio titolo
di studio); hanno senso su di esse le relazioni di = (uguale), != (diverso), < (minore),
> (maggiore); le categorie scaturiscono da un’operazione di ordinamento e non è
possibile quantificare l’intervallo tra le varie categorie;
Le variabili ordinali sono tali quando la proprietà da registrare assume stati discreti ordinabili. In questo
caso è possibile stabilire non solo relazioni di eguaglianza e disuguaglianza, ma anche relazioni
d’ordine(laurea maggiore di diploma per es). In questo caso la procedura di operativizzazione è
l’ordinamento, che tiene conto dell’ordinabilità degli stati della proprietà. Quindi l’attribuzione dei valori alle
singole modalità dovrà utilizzare un criterio che presevi l’ordine degli stati. Tipicamente si utilizzano i numeri
naturali, che comunque non godono delle loro proprietà cardinali (cioè la distanza che corre tra le varie
modalità non può essere confrontata con le altre). Le variabili possono essere ordinali perché derivano da
proprietà originariamente costituite da stati discreti (es titolo di studio, ceto sociale) oppure perché derivano
da proprietà continue che sono state registrate su una sequenza solo ordinale perché non si dispone di una
unità di misura.es le risposte a un questionario molto, poco, abbastanza)
variabili cardinali: quando la proprietà assume valori con pieno significato numerico, cioè
cardinali e non solo ordinali (ad esempio età, reddito, il numero di figli); hanno senso le
relazioni di = (uguale), != (diverso), < (minore), > (maggiore), + (somma), - (differenza), *
(moltiplicazione), / (divisione); gli intervalli, cioè le distanze tra due valori, sono calcolabili
perché esiste un’unità di riferimento.
Si può ottenere una variabile cardinale attraverso due processi di operativizzazione, la
misurazione (se la proprietà è continua cioè può assumere infiniti stati intermedi in un
11
Le variabili fondamentali sono date, per es, dalla lunghezza della massa, dal tempo, Le variabili
derivate sono funzioni matematiche di quelle fondamentali. Le caratteristiche dei tre tipi di
variabile appena visti sono cumulabili;
Le variabili cardinali sono tali perché i numeri che ne identificano le modalità non sono delle semplici
etichette, ma hanno un pieno significato numerico (hanno cioè proprietà sia ordinali che cardinali).
Nelle scienze sociali molte variabili cardinali derivano operazioni condotte su altre variabili cardinali.
Le variabili quasi-cardinali sono un sottoinsieme delle variabili cardinali. Le proprietà più caratteristiche delle
scienze sociali possono essere tutte immaginate come proprietà continue, che però non riescono a passare
dalla condizione di proprietà continua a quella di variabile cardinale per la difficoltà di applicare una unità di
misura agli atteggiamenti umani. Un tentativo di superare questo limite è dato dalla tecnica delle scale, che
cerca di avvicinarsi a misurazioni in senso proprio, cioè a variabili in cui la distanza tra due valori sia nota. Le
variabili prodotte da questa tecnica sono dette quasi-cardinali.
La rilevazione empirica di un concetto non direttamente osservabile passa attraverso quattro fasi:
l’articolazione del concetto in dimensioni (i diversi aspetti e significati del concetto, è una pura riflessione
teorica ), la scelta degli indicatori (concetti specifici vicini all'esperienza), la loro operativizzazione ossia
trasformazione in variabili , la formazione degli indici. L’indice è la sintesi globale della pluralità delle
variabili che sono state prodotte dai diversi indicatori es indice di religiosità. l'indice è una combinazione
logica o matematica di indicatori volta a ricostruire il concetto generale. schema pag 111 e 112
Secondo Marrani ogni indicatore ha una parte indicante (che è la parte di contenuto semantico
che l’indicatore ha in comune con il concetto al quale è relativo) ed una parte estranea: la
prima deve essere massimizzata, la seconda minimizzata.
12
Errore di rilevazione
L’errore di rilevazione è lo scarto tra il concetto (teorico) e la variabile (empirica).
L’errore di rilevazione viene di solito suddiviso in errore sistematico ed errore accidentale
Valore osservato = valore “vero” + errore sistematico + errore accidentale, cioè
Errore= valore osservato- valore vero = errore sistematico + errore accidentale
Gli errori possono verificarsi sia nella fase teorica, o di indicazione (in cui si scelgono gli indicatori), che in
quella empirica, o di operativizzazione (in cui si rilevano gli indicatori stessi).
L’errore nella fase di indicazione è sempre sistematico, perché l’indicatore non è del tutto adatto al concetto
e quindi si ha un difetto nel rapporto di indicazione. vedi es pag 114
L’errore nella fase di operativizzazione può esser sia sistematico sia accidentale, in quanto esistono tre fasi
nell’operativizzazione (selezione delle unità studiate, rilevazione dei dati o osservazione e trattamento dei
dati) in ognuna delle quali si possono compiere degli errori.
Gli errori di selezione sono quelli dovuti al fatto che si opera solo su un campione di soggetti e non sull’intera
popolazione. Essi sono: l’errore di copertura (dovuta al fatto che la lista della popolazione da cui si estrae il
campione non è completa vedi es pag 116), l’errore di campionamento (il fatto di condurre la ricerca su
una frazione della popolazione) e l’errore di non risposta (quando i soggetti del campione non possono o
non vogliono rispondere).
Gli errori di osservazione possono essere addebitati a quattro fonti: errori dovuti all’intervistatore, errori
dovuti all’intervistato, errori dovuti allo strumento ed errori dovuti al modo di somministrazione es pag
116.
Gli errori di trattamento dei dati sono errori di codifica, trascrizione, memorizzazione, elaborazione, ecc.
schema degli errori a pag 115..
L’unico errore quantificabile è quello di campionamento, per questo spesso viene riportato come errore
globale della rilevazione. Analizzare le possibilità di errore in questo modo significa adottare
l’approccio dell’”errore globale”, che non è stimabile. L’unico errore misurabile statisticamente è
quello di campionamento, che non è quello più rilevante ed è spesso presentato (erroneamente) nei
risultati finali come indicazione dell’errore complessivo.
Attendibilità e validità
Relativamente alla fase di osservazione, gli psicometrici hanno elaborato due concetti:
l’attendibilità: la procedura con cui si traduce un concetto in variabile deve produrre i
medesimi risultati in prove ripetute (stabilità) o rispetto a strumenti equivalenti (equivalenza).
E’ associata all’errore accidentale; L’attendibilità ha a che fare con la riproducibilità del risultato, e
segnala il grado con il quale una certa procedura di traduzione di un concetto in variabile produce gli stessi
risultati in prove ripetute con lo stesso strumento di rilevazione ( stabilità) oppure con strumenti equivalenti
(equivalenza) vedi esempi pag 117
la validità: capacità di rilevare effettivamente un concetto da parte di una procedura di
traduzione in variabili del concetto stesso. E’associata all’errore sistematico. La validità fa invece
riferimento al grado con il quale una certa procedura di traduzione di un concetto in variabile effettivamente
rileva il concetto che si intende rilevare.
13
In genere si associa l’attendibilità all’errore accidentale e la validità all’errore sistematico, per questo
l'attendibilità si rileva più facilmente della validità: perchè l'errore accidentale si rileva attraverso repliche di
rilevazione sullo stesso soggetto, mentre per la validità l'errore sistematico si ripresenta ocstantemente e
quindi rende lo stato effettivo della proprietà studiata non conoscibile.
L’attendibilità (nel senso di stabilità nel tempo) può essere verificata attraverso la tecnica del
c.d. test-retest (cioè ripetizione della rilevazione e confronto dei risultati), ma nelle scienze
sociali incontra due difficoltà: la reattività del soggetto ed il mutamento del soggetto (pAG
118). Per determinare l’attendibilità si utilizza il concetto di equivalenza, deve l’attendibilità è misurata
attraverso la correlazione tra due procedure diverse ma molto simili tra loro. Questa tecnica è però utile solo
nel caso in cui la procedura di operativizzazione consiste in una batteria di domande.
L’attendibilità in senso di equivalenza può essere verificata attraverso la tecnica della c.d.
suddivisione a metà (split-half, dove l’attendibilità è data dalla correlazione fra le due metà
dello stesso test, es domande pari e domande dispari) e dalla verifica della coerenza
interna - internal consistency (l’attendibilità del test è stimata attraverso la correlazione
delle risposte a ogni domanda con le risposte a tutte le altre domande). Una procedura simile è
quella delle forme equivalenti (pag 118)
Sono tutte tecniche concepite nella psicometria la cui applicazione nelle scienze sociali è per lo
meno difficile.
La problematica della validità è molto più impegnativa: se alle sue spalle c’è un errore
sistematico, magari annidato nel rapporto di indicazione, risulta molto difficile da rilevare e
rischia di pregiudicare l’intera ricerca. In genere l'errore di validità si colloca nel passaggio da
concetto a indicatore e nasce dall'errore di indicazione di cui più sopra, la validità di un
indicatore infatti non è misurabile.
Per determinare la validità di un indicatore si utilizzano sue procedure di convalida: la validità di
contenuto e la validità per criterio
La validità di contenuto può essere verificata soltanto su un piano puramente logico e indica il
fatto che l’indicatore prescelto per un concetto copre effettivamente l’intero dominio di significato del
concetto;
La validità per criterio si fonda sulla corrispondenza fra l’indicatore ed un criterio esterno
esterno che per qualche motivo si ritiene correlato con il concetto; Questo criterio può essere rappresentato
da un altro indicatore già accettato come valido oppure da un fatto oggettivo e può essere:
- predittiva: consiste nel correlare il dato dell’indicatore con un evento successivo
ad esso connesso;
- concomitante: consiste nel correlare il dato dell’indicatore con un evento che
avviene nello stesso momento temporale;
- per gruppi noti: l’indicatore viene applicato a soggetti dei quali sia nota la
posizione sulla proprietà da rilevare.
Esiste infine anche la validità di costrutto, che consiste nella rispondenza di un indicatore alle
attese teoriche in termini di relazioni con altre variabili.
14
E’ opinione condivisa da molti ricercatori che un rapporto di causazione possa essere affermato
solo a livello teorico; sul piano del riscontro empirico infatti il massimo che si può fare è la
ricerca di elementi di corroborazione dell’ipotesi di relazione fra due variabili. A tale scopo è
necessario poter disporre di elementi empirici su tre aspetti:
1) covariazione fra variabile indipendente e dipendente, cioè si deve poter osservare
una variazione della variabile dipendente al mutare della variabile indipendente;
2) la direzione causale, cioè si deve poter verificare che al variare della variabile
indipendente segue una variazione della variabile dipendente, ma che non è vero il
contrario. Si può determinare attraverso:
- la manipolazione della variabile indipendente da parte del ricercatore;
- la successione temporale: X varia prima di Y, nell’ipotesi che Y = f(X) (cioè la
variabile dipendente Y è funzione della variabile indipendente X);
- esclusione della causazione impossibile per la logica;
3) il controllo delle variabili estranee.
E’ da tenere presente, per non giungere a conclusioni affrettate, che può esistere covariazione
senza causazione. Per controllare empiricamente un’affermazione causale gli scienziati
dispongono di due tecniche:
1) l’analisi della covariazione mediante osservazione della situazione nel suo
naturale svolgimento; l’attenzione dovrà essere rivolta in particolar modo a
scongiurare il pericolo di relazioni spurie mediante il controllo delle variabili di disturbo
e la depurazione statistica dell’influenza delle altre variabili;
2) l’esperimento: il ricercatore in questo caso non si limita ad osservare un fenomeno
nel suo naturale svolgimento, bensì produce e gestisce una “situazione controllata” (da
lui) in cui manipola la variabile indipendente e controlla il disturbo causato dalle altre
variabili in gioco.
Nelle scienze sociali, tuttavia, la maggior parte delle variabili risulta NON manipolabile.
L’esperimento nasce e trova la sua sistemazione più opportuna nelle scienze naturali; per
essere applicato alle scienze sociali richiede opportuni adattamenti.
Se Yt indica il comportamento di una persona soggetta ad un certo stimolo e se Yc indica il
comportamento di una persona non soggetta ad un certo stimolo, per avere l’effetto causale
dello stimolo basterebbe fare Yt(u) – Yc(u), cioè il comportamento rilevato sulla stessa persona
ed allo stesso momento (possiamo pensare, per esempio, che lo stimolo sia la propaganda
elettorale e che Yt(u) sia il comportamento elettorale della persona esposta alla propaganda
mentre Yc(u) sia il comportamento elettorale di quella stessa persona non esposta alla
propaganda). Purtroppo è impossibile fare questa rilevazione, non solo per le scienze sociali
ma anche per quelle naturali: un stesso oggetto non può allo stesso momento essere soggetto
e non essere soggetto ad uno stimolo (si parla di insolubile problema fondamentale
dell’inferenza casuale). A questo problema possono essere date soltanto soluzioni parziali:
1) soluzione scientifica (normalmente inapplicabile nelle scienze sociali), se si può
adottare:
a) l’assunto di invarianza, che a sua volta si basa su:
- la stabilità temporale, per cui Yc può essere sostituito da una rilevazione
precedente di Yc;
- la ininfluenza della rilevazione, per cui Yt non risente della rilevazione di Yc;
pertanto Yc può essere rilevato prima di Yt senza condizionarlo;
b) l’assunto di equivalenza, cioè al posto di u posso considerare l’unità z perché è
equivalente ai fini della rilevazione;
2) soluzione statistica: si formano, mediante un processo di randomizzazione, due gruppi
statisticamente equivalenti (cioè differenti solo per aspetti accidentali, quindi piccoli e
dovuti al caso) che saranno denominati “gruppo sperimentale” e “gruppo di controllo”.
Poi:
Effetto Causale Medio T = E(Yt) – E(Yc), dove con E si intende il valor medio.
15
VERI ESPERIMENTI
Descrizione effettuata utilizzando la rappresentazione grafica di Campbell e Stanley.
X1 Y1
/
R effetto causale = Y2 – Y1
\
X2 Y2
Y1 X1 Y2
/
R effetto causale = (Y4 – Y3) – (Y2 – Y1)
\
Y3 X2 Y4
Y1 X1 Y3
/
Y3 X2 Y4
/
R è un mix dei due disegni precedenti
\
X1 Y5
\
X2 Y6
X1 Z1 Y1
/
X1 Z2 Y2
/
R è un mix dei due disegni precedenti
\
X2 Z1 Y3
16
\
X2 Z2 Y4
QUASI ESPERIMENTI
Sparisce la randomizzazione (che peraltro non è sempre praticabile). E’ una grave
menomazione della logica sperimentale perché il ricercatore non potrà mai essere certo del
fatto che le differenze rilevate sui gruppi siano da imputare alla non equivalenza iniziale o
all’effetto dello stimolo.
Y1 X Y2 effetto rilevato = Y2 – Y1
Y1 Y2 Y3 X Y4 Y5 Y6
Y1 X1 Y2
--------------- effetto rilevato = (Y4 – Y3) – (Y2 – Y1)
Y3 X2 Y4
17
18
L’inchiesta campionaria ha origini antiche: venne applicata già da Marx e Weber. Il vero salto
di qualità si è avuto con l’affermarsi delle tecniche statistiche di campionamento e del concetto
di RAPPRESENTATIVITA'. Un ulteriore e rapido sviluppo si è avuto con la diffusione dei
Personal Computer (CON CUI PROCESSARE ampie masse di dati raccolti) e del telefono che ha
fatto abbassare i costi delle interviste dirette. Internet, infine ha aperto la strada anche alle
interviste telematiche, ancora meno costose.
A seconda del grado di libertà previsto per le domande e per le risposte di una interrogazione
si ha:
- un questionario, se sia le domande che le risposte sono standardizzate;
- un’intervista strutturata, quando la domanda è standardizzata e la risposta è
libera;
- un’intervista libera, se la domanda e la risposta sono libere.
I problemi di fondo relativi alla rilevazione tramite interrogazione sono riconducibili alla
contrapposizione fra l’approccio “positivista” e quello “interpretativo”. In particolare due
dilemmi sono rilevanti:
1) contrapposizione tra:
- posizione oggettivista: il dato sociale può essere rilevato oggettivamente;
- posizione costruttivista: il dato sociale deve essere costruito attraverso
l’interazione fra ricercatore e soggetto studiato;
2) contrapposizione tra:
- posizione uniformista: per la quale esistono delle regolarità nei fenomeni e nei
comportamenti;
- posizione individualista: per la quale esistono ineliminabili differenze
interindividuali.
L’inchiesta campionaria si colloca in una prospettiva:
- oggettivista: il rapporto intervistato-intervistatore deve essere impersonale al
massimo; la preoccupazione è quella di non alterare lo stato dell’oggetto
studiato;
- uniformista: infatti lo strumento di rilevazione è standardizzato.
Critiche a questa prospettiva:
1) un ruolo totalmente neutrale per l’intervistatore non è pensabile;
2) l’intervistato vuole fare bella figura nell’intervista, anche a costo di mentire,
3) il questionario standardizzato tratta i soggetti come se fossero tutti uguali.
In secondo luogo, esiste una diatriba tra chi ritiene che esistano uniformità empiriche nei fenomeni sociali,
che quindi possono esser misurati classificati e standardizzati (posizione uniformista) e chi sottolinea la
fondamentale irriducibilità del soggetto umano a qualsiasi forma di generalizzazione e standardizzazione
(posizione individualista): cioè ogni caso, ogni azione sociale è un evento unico. Questa questione riguarda
la standardizzazione dello strumento di informazione e dell’informazione rilevata. l’approccio uniformista
prevede l’uniformità dello strumento della rilevazione-interrogazione (questionario con domande e risposte
prefissate). I limiti di questo approccio e del questionario sono due: non tiene conto della disuguaglianza
sociale e uniforma l’individuo al livello dell’uomo medio. Inoltre lascia fuori la periferia sociale (vecchi,
clandestini, vagabondi, analfabeti ecc).
19
L’obiettivo della posizione oggettivista-uniformista è quindi quello di ottenere la neutralità dello strumento di
rilevazione, cioè ottenere l’invarianza dello stimolo. Ma non è sicuro che all’invarianza dello stimolo
corrisponda l’uniformità dei significati, infatti una stessa domanda o parola possono avere diversi significati
per lo stesso individuo, sia per motivi culturali che per le circostanze stesse in cui si svolge l’intervista.
A questo punto il ricercatore deve scegliere se appoggiarsi ad una tecnica che massimizza la ricerca di
uniformità (questionario) e una che predilige l’individualità del soggetto studiato (intervista strutturata). Se si
sceglie il questionario, bisogna essere consapevoli che studiando solo le uniformità del comportamento delle
persone (ciò che esse hanno in comune) si limita inevitabilmente la piena comprensione dei fatti sociali. Si
sceglie di lavorare sui grandi numeri in superficie piuttosto che in profondità sui piccoli numeri.
20
176 - Le domande aperte sono quelle in cui si lascia piena libertà all’intervistato nella formulazione della
risposta;
si rivolgono di solito ad un campione ridotto. Il vantaggio della domanda aperta è quello di concedere una
maggiore libertà di espressione e spontaneità, ma la risposta deve essere trascritta per intero. Lo svantaggio
consiste nel fatto che la risposta è difficile da classificare successivamente in categorie predeterminate. Si
rende necessaria una postcodifica per permettere i confronti e le analisi
Questo crea dei problemi di codifica, perché le risposte possono essere generiche o imprecise. Solo un buon
intervistatore può sollecitare a precisare meglio il significato delle risposte, ma questo comporta un maggiore
impegno dell’intervistato e quindi un maggior rischio di rifiuti, senza contare l’aggravio dei costi.
177 e seguenti -Le domande chiuse offrono la possibilità di scegliere tra risposte prefissate, quindi la
risposta sarà standard.
Sono il solo tipo di domande che si possono utilizzare con un campione di grandi dimensioni. I vantaggi delle
domande chiuse consistono nella maggiore facilità di codifica, nello stimolo dell’analisi e della riflessione e
nella maggiore economicità (in un campione ampio). La domande sono poste a tutti con lo stesso schema di
risposte e chiariscono all’intervistato qual è il piano di riferimento della ricerca, evitando così risposte vaghe.
Gli svantaggi sono il rischio di non considerare tutte le altre possibili alternative di risposta non previste e di
influenzare la risposta con le alternative proposte. A volte l’intervistato sceglie una delle alternative anche se
non è convinto. Le risposte, inoltre, non hanno significato uguale per tutti, e tutte le alternative possono
essere troppe per essere ricordate.
-
I vantaggi delle domande chiuse sono:
1) offrono a tutti gli intervistati lo stesso quadro di riferimento;
2) facilitano il ricordo;
3) stimolano l’analisi.
Gli svantaggi delle domande chiuse sono:
1) per evitare una sorta di “chiusura prematura dell’orizzonte teorico”, il ricercatore deve
essere abile a prevedere tutte le possibili risposte (escamotage della voce “altro”);
2) le alternative di risposta proposte possono suggerire una risposta anche a chi non ha
un’opinione sul tema;
3) le risposte offerte possono essere intese con significato diverso dagli intervistatori.
La formulazione delle domande è importantissima perché può influenzare pesantemente la risposta; bisogna
quindi porre molta attenzione al linguaggio, alla sintassi e al contenuto stesso delle domande.
Semplicità di linguaggio: il linguaggio del questionario deve essere adatto alle caratteristiche del campione
studiato, il questionario autocompilato deve essere più semplice rispetto a quello con intervistatore e in ogni
caso non bisogna far conto sulle sue spiegazioni, perché di solito gli intervistati si vergognano di ammettere
di non capire le domande.
Lunghezza delle domande: di solito le domande devono essere concise, ma nel caso di tematiche
complesse sono preferibili le domande lunghe perché facilitano il ricordo, danno più tempo per pensare e
agevolano una risposta più articolata.
21
Numero delle alternative di risposta: non devono essere troppo numerose; se presentate a voce non
devono superare il numero di cinque. altrimenti, se il questionario è somministrato oralmente,
usare un cartoncino scritto con le alternative di risposta per facilitare il ricordo delle stesse da
parte dell’intervistato;
da evitare: Espressioni in gergo: è preferibile non utilizzare espressioni gergali perché potrebbero
irritare l’intervistato.
Definizioni ambigue: occorre fare molta attenzione a non utilizzare termini dal significato non ben
definito.
Parole dal forte connotato negativo : è bene evitare anche i termini carichi di significato emotivo,
soprattutto se questo è negativo.
Domande sintatticamente complesse: la domanda deve avere una sintassi chiara e semplice,
evitando ad esempio la doppia negazione.
Domande con risposta non univoca: bisogna evitare le domande esplicitamente multiple (domande
in cui ne sia inclusa un’altra) e quelle dalla problematica non sufficientemente articolata.
Domande non discriminanti: le domande devono esser costruite in modo tale da operare delle
discriminazioni significative nel campione degli intervistati. che non discriminano gli intervistati
(ad esempio il 90% di risposte uguali da parte degli intervistati non è molto significativo
per il ricercatore),
Domande tendenziose (viziate o a risposta pilotata): è necessario presentare le domande in modo
equilibrato, senza orientare l’intervistato verso una possibile risposta.
Comportamenti presunti: è indispensabile evitare di dare per scontati comportamenti che non lo
sono. in cui è dato scontato un certo comportamento che di fatto non lo è (il rischio della
profezia che si auto-adempie);per esempio chiedere per chi hanno votato senza prima
chiedere se sono andati a votare. Domande filtro selezionano un intervistato prima di
porre una domanda che non riguarda tutti, e domande condizionate sono quelle sono
quelle poste se alla domanda filtro si è risposto ad un certo modo. senza questi filtri
potrebbe succedere che l'intervistato dia una risposta anche a una domanda che non lo
riguarda (risposta a caso in base alla desiderabilità sociale)
Focalizzazione nel tempo: occorre sempre definire con precisione l’arco temporale al quale si riferisce la
domanda. Facilita il ricordo e rende più difficile la sovrapposizione del comportamento ideale a quello reale
Concretezza – astrazione: la domanda astratta può dare facilmente luogo a risposte generiche o normative,
mentre la domanda concreta facilita la riflessione e rende più difficile il fraintendimento.
Comportamenti e atteggiamenti: data la difficoltà di determinare gli atteggiamenti (sfumati,ambigui,
esposti a risposte normative - es lei legge libri?), è buona regola, quando possibile, limitarsi ai
comportamenti (quanti libri legge in un anno?) piuttosto che restare nell’ambito dell’opinione.
Desiderabilità sociale delle risposte: per evitare risposte normative bisogna formulare domande il più
possibile concrete. Altre indicazioni sono quelle di giustificare anche la risposta meno accettabile; considerare
normale e diffuso anche il comportamento negativo (es a tutti capita nella vita di sentirsi depresso e di
desiderare la morte..."); equilibrare la desiderabilità delle risposte (“Alcuni dicono che… altri pensano
che…”); attribuire all’intervistato il comportamento condannato, lasciandogli il compito dell’eventuale
smentita (dai manuali , iperbole: "quante volte ha picchiato sua moglie questa settimana?"); formulare le
domande in terza persona; e così via. In ogni caso è impossibile eliminare del tutto gli effetti della
desiderabilità sociale.
per quanto riguarda la desiderabilità sociale delle risposte: formulare la domanda in modo da
rendere accettabile ed ugualmente legittima anche la risposta meno desiderabile; considerare
normale il comportamento negativo o addirittura attribuirlo all’intervistato e vedere se
smentisce; formulare la domanda in terza persona (esempio: “Molti giovani oggi sono dediti
alla droga. Secondo te perché?”);
Domande imbarazzanti: andrebbero studiate attraverso domande aperte e con interviste non-strutturate,
con le quali si può conquistare la fiducia degli intervistati. Altra soluzione, far compilare quella parte di
questionario tramite busta chiusa
Mancanza di opinione e non so: bisogna far presente all’intervistato che “non so” è una risposta legittima
come le altre, per esempio includendola espressamente tra le alternative possibili. Bisogna inoltre evitare di
indirizzarlo, anche in maniera indiretta o inconsapevole. fronteggiare il problema dello “yea-saying”
(risposte affermative) e del “response set” (risposte tutte uguali) alternando la “polarità” delle
risposte
22
Intensità degli atteggiamenti: è importante cogliere anche l’intensità degli atteggiamenti, perché è
quest’ultima che determina i comportamenti. Negli USA risulta dai sondaggi che i 3 quarti della popolazione è
favorevole a un controllo delle armi, ma la legge non riesce a passare, si ritiene che la minoranza contraria al
controllo sia più agguerrita e attiva della maggioranza favorevole. La rilevazione dell’intensità degli
atteggiamenti necessita di solito di domante ulteriori 8cosa che incide su costi e tempi, pertanto spesso la
misurazione dell'intensità viene tenuta da parte). vedi pag 188
Effetto memoria: per ovviare alla inevitabile distorsione causata dalla memoria si possono stabilire limiti
temporali al ricordo (negli ultimi 12 mesi ha fatto...); utilizzare punti di riferimento temporali relativi ad
eventi più salienti rispetto a quello studiato; presentare all’intervistato liste di possibili risposte; utilizzare
diari o strumenti analoghi; ecc. tenere di conto dell’effetto memoria, stabilendo limiti temporali al
ricordo ed ancorando la domanda nel tempo ad eventi molto importanti per l’intervistato
(esempio: la nascita di un figlio, ha i comprato casa prima o dopo la nascita del figlio);
- Sequenza delle domande: prima di tutto cercare di mettere l'intervistato a suo agio, e poi
spiegargli rapidamente il meccanismo dell'intervista; nel disporre le domande all’interno
del questionario occorre considerare: che la durata massima deve essere di 45
minuti (25 se l’intervista è telefonica); la iniziale diffidenza dell’intervistato
(quindi le domande iniziali dovranno essere semplici per poi passare a quelle più
complesse ed infine a quelle più “intime”); l’attenzione dell’intervistato che dal
basso sale e poi ridiscende come in una curva “normale” (“a campana”);
disporre le domande in sequenza logica, dalle generali alle particolari; è meglio
mettere all’inizio domande facili, che abbiano lo scopo di rassicurare l’intervistato e di
metterlo a proprio agio. Le domande imbarazzanti si posizioneranno quindi a metà
questionario, in modo che l’intervistatore abbia avuto un po’ di tempo per conquistare la
fiducia dell’intervistato. Anche le domande impegnative dovranno essere collocate a metà
dell’intervista, in modo tale da assecondare la curva di interesse dell’intervistato. Alla fine si
potranno porre le domande più noiose ma che non richiedono riflessione come quelle
sociometriche. Attenzione alla stanchezza dell'intervistato, lasciare in fondo all'intervista le
domande che non richiedono riflessione.
- Nella sequenza delle domande tenere uno schema a imbuto, da domande geenralia
particoalri
È bene seguire anche il passaggio da domande generali a domande particolari, stringendo progressivamente
sugli aspetti più specifici.
Bisogna tenere conto infine dell’effetto contaminazione, cioè del fatto che in certi casi la risposta ad una
domanda può essere influenzata dalle domande che l’hanno preceduta.
Sarebbe buona norma, nella pubblicazione dei risultati della ricerca, citare anche la fedele
formulazione delle domande.vedi pag 193
Batterie di domande
Le batterie di domande sono domande che essendo, tutte formulate nello stesso modo (stessa domanda
introduttiva e stesse alternative di risposta, varia solo l’oggetto al quale si riferiscono), vengono presentate
all’intervistato in un unico blocco. Le batterie di domande hanno gli obiettivi di risparmiare spazio sul
questionario e tempo dell’intervista, facilitare la comprensione del meccanismo di risposta, migliorare la
validità della risposta e permettere al ricercatore di costruire indici sintetici che riassumono in un unico
punteggio le diverse domande della batteria. Gli svantaggi delle batterie di domande consistono nel pericolo
che le riposte siano date a caso e che le risposte siano meccanicamente tutte uguali tra di loro.
Esempio:
23
Esempio:
24
QUESTIONARI AUTOCOMPILATI
Il vantaggio principale è il risparmio nei costi di rilevazione. Limite: possibilità che la
qualità dei dati raccolti sia scarsa. quindi i questionari devono essere brevi e concisi.
Inoltre il campione che solitamente aderisce a questi questionari (per es all'uscita di
una mostra) è formato da persone più motivate, istruite, o più giovani ecc.
25
Interviste telefoniche
L’intervista telefonica (che a partire dagli anni 90 aveva quasi completametne sostituito la tecnica del faccia
a faccia) presenta numerosi vantaggi: permette una grande velocità di rilevazione; ha costi ridotti; presenta
minori resistenze alla concessione dell’intervista e maggiore garanzia di anonimato; permette di raggiungere
a parità di costo anche gli intervistati della periferia del paese; facilita enormemente il lavoro di preparazione
degli intervistatori e la loro supervisione; consente di utilizzare direttamente il computer in fase di
rilevazione.
I suoi svantaggi sono: il minore coinvolgimento dell’intervistato che porta a una maggiore incidenza di
risposte superficiali; il più rapido logoramento del rapporto con l’intervistato; l’impossibilità di utilizzare
materiale visivo; l’impossibilità di raccogliere dati non verbali come accade nel faccia a faccia; l’impossibilità
di raggiungere tutti gli strati sociali; il fatto che anziani e persone poco istruite risultano sottorappresentate;
il fatto che le domande sono spesso elementari a causa della ristrettezza del tempo a disposizione. I limiti
più gravi sono comunque l’assenza di contatto e la mancanza di tempo, che non rendono adatta l’intervista
telefonica quando si vogliono analizzare tematiche complesse.
Oggi moltissime linee telefoniche fisse sono state chiuse a favore dei telefoni cellulari quindi questo taglia via
una fetta importante della possibile popolazione raggiungibile. Poi tramite il registro delle opposizioni si
possono rifiutare le telefonate commerciali (entrando in un elenmco che le società di sondaggi devono
rispettare). Consideriamo anche il fattore insofferenza verso questo tipo di contatto, che ha prodotto un
tasso di non risposta fino al 90%
INTERVISTE TELEFONICHE
Vantaggi:
1) rapidità di rilevazione e costi ridotti;
2) minori resistenze dell’intervistato;
3) facilita la preparazione e la supervisione degli intervistatori (pensiamo ad un call-center
dove sono concentrati tutti gli intervistatori telefonici);
4) consente il C.A.T.I. (Computer Assisted Telephone Interviewing), ma anche l’intervista
faccia a faccia consente il C.A.P.I. (Computer Assisted Personal Interviewing) (l’altra
modalità di utilizzo dei P.C. è la tele-intervista, con l’intervistato collocato direttamente
davanti al monitor);
Svantaggi:
1) sono più probabili le risposte a caso o superficiali;
2) l’intervista deve durare al massimo 20-25 minuti;
3) non può essere utilizzato materiale “ausiliario” di tipo visivo;
4) non sono rilevabili dati non verbali;
5) non tutti hanno il telefono: quindi si ha una sorta di campione auto-selezionato;
6) anziani e persone sotto istruite che si sottraggono all’intervista (magari passando la
telefonata a qualche altro convivente) e dunque risultano sotto rappresentati;
7) il tempo a disposizione ridotto costringe ad una semplificazione delle domande.
QUESTIONARI TELEMATICI
INCHIESTE VIA WEB (WEB SURVEYS): le email surveys sono inviate via email, con le web
surveys si accede a un sito web e compila il questionario online - le risposte vengono
direttamente scaricate in un dataset, senza la mediazione di una codifica che prenderebbe
tempo e potrebbe comportare errori. Quindi molto efficace a patto che il campione considerato
26
sia dotato di connessione alla rete. Si utilizzano anche tecniche miste (per es lettera inviata per
posta dove si invita a compilare questionario online, chi non risponde viene contattato per
telefono e infine intervistato a domicilio (le interviste pù costose, quelle faccia a faccia, sono
numericamente molto ridotte).
INCHIESTE TRASVERSALI REPLICATE: es come cambia la religiosità degli italiani negli ultimi
vent'anni rifacciamo oggi la stessa rilevazione di vent'anni fa con la stessa popolazione di r
riferimento (es giovani tra i 18 e i 35 anni)
INCHIESTE LONGITUDINALI: in questo tipo di inchiesta le stesse persone vengono intervistate
a distanza di tempo, con le stesse domande. Qui conta un fattore importante che è la mortalità
del campione (decremento di ampiezza del campione che si verifica ad ogni nuova rilevazione)
per rifiuti, trasferimenti, decesso ecc., cosa che richiede ad ogni ondata di inserire nel
campione nuovi soggetti con caratteristiche che neutralizzano le distorsioni dovute alle uscite.
Analisi secondaria
L’analisi secondaria è una ricerca che viene condotta su dati di inchiesta campionaria già precedentemente
raccolti e disponibili nella forma di matrice-dati originale, quindi una "rianalisi" di dati già esistenti. L’analisi
secondaria nasce nell’ambito di un maggiore approfondimento dei dati già raccolti sulla base di successive
scoperte o di nuove teorie avanzate nelle scienze sociali; a questo punto i dati già raccolti possono essere
suscettibili di nuove elaborazioni e approfondimenti. Inoltre, a causa dell’estrema onerosità della fase di
raccolta dei fati, sono nate apposite agenzie che riescono risorse comuni mettendo poi i dati a disposizione
di tutti i ricercatori; ovviamente queste agenzie non raccolgono i dati per un unico tema, ma si rivolgono ad
un ampio spettro di problematiche sociali.
27
I vantaggi di questi sviluppi si possono riassumere in un generale risparmio economico, nella garanzia del
rigore della rilevazione stessa e nella possibilità anche per i ricercatori con poche risorse di effettuare
ricerche di ampio respiro. L'analisi secondaria valorizza il criterio della cumulabilità, nel senso che anche un
piccolo risultato empirico assume valore quando lo si pone in continuità con il corpus complessivo di
conoscenze di quel settore, contribuendo alla crescita cumulativa della conoscenza.
Gli svantaggi sono legati alla qualità dei dati, in quanto i dati raccolti nel passato possono non essere stati
trattati in modo corretto; altri svantaggi sono la limitazione degli interrogativi e il fatto che possano nascere
ricerche a partire dai dati disponibili piuttosto che dalle ipotesi teoriche, e questo può incidere sui risulati che
possono essere scontati.
La meta-analisi si differenzia dall’analisi secondaria perché non riesamina i vecchi dati ma si propone di
“analizzare le analisi”, applicando metodi statistici per giungere a delle sintesi dei risultati delle ricerche
considerate. Partono dai risultati degli studi invece che dai dati, integrandone i risultati.
Si parla di analisi secondaria quando il ricercatore si serve di dati raccolti da altri e disponibili
nella matrice-dati originale. Per molto tempo la ricerca sociale è rimasta fedele allo schema
classico: problema disegno della ricerca raccolta dei dati analisi. Poi si sono iniziate a
manifestare due tendenze:
1) ci si è resi conto che le ricerche condotte in passato offrivano spunti per ulteriori
approfondimenti (a causa del progresso della teoria o della messa a punto di nuove
tecniche statistiche);
2) si sono affermate le c.d. rilevazioni multi-scopo esplicitamente dedicate alle analisi
secondarie.
Vantaggi delle analisi secondarie:
1) risparmio: anche i ricercatori con poche risorse possono effettuare ricerche di ampio
respiro;
2) rigorosità della rilevazione;
Limiti delle analisi secondarie:
1) non è valutabile la qualità dei dati;
2) può causare una limitazione degli interrogativi da porsi per mancanza di dati idonei;
3) può causare ricerche fatte a partire dai dati disponibili invece che dalla teoria e da
ipotesi da verificare.
La meta-analisi non è una ri-analisi dei dati, bensì una integrazione dei risultati.
28
Le variabili prodotte dalla tecnica delle scale non possono essere considerate pienamente cardinali, perché
scaturiscono da dimensioni sottostanti immaginate come proprietà continue non misurabili, anche se la
teoria delle scale tenta di dare una risposta a questo problema. Per questo le variabili della teoria delle scale
vengono chiamate quasi-cardinali, dove il quasi indica l'irraggiungibilità dell'obiettivo di attribuire pieno
significato numerico ai punteggi delle scale.
Le variabili prodotte dalla tecnica delle scale sono quasi cardinali perché, benché la proprietà
studiata sia spesso un continuum, tuttavia non si è capaci di definirne un’unità di misura
convenzionale.
Le variabili prodotte dalla prima situazione sono senza dubbio ordinali (l'intervistato sceglie una risposta per
il contenuto a prescindere dalle posizione nei confronti delle altre§), mentre nella seconda è probabile che
scatti un processo di comparazione quantitativa, soprattutto se le alternative offerte sono numerose.
29
Per quanto riguarda il caso delle risposte auto-ancoranti è ancora più probabile che si metta in moto una
procedura mentale di suddivisione graduata dello spazio tra i due estremi, suddivisione che è però soggettiva
e non valida per tutti. Per questo si parla di variabili quasi-cardinali.
La costruzione della scala avviene in quattro fasi. Nella prima, la formulazione delle domande, si
individuano le dimensioni dell’atteggiamento studiato e si formulano delle affermazioni che coprano i vari
aspetti del concetto generale che si vuole rilevare.
L'esempio più noto di applicazione di questa scale è il testo sullo studio della personalità autoritaria di
Adorno (pagg 260-261): gli autori individuarono partendo da studi precedenti, testi sull'antisemitismo e
fascismo ecc, NOVE DIMENSIONI di articolazione della personalità autoritaria attorno alle quali costruirono le
singole domande-affermazioni della scala. Si suggerisce di seguire un approccio di tipo deduttivo, piuttosto
che induttivo. Si raccomanda inoltre di formulare le domande in modo breve semplice e con linguaggio
comune. Leggi pag 261 262 sul yeasaying e response set di cui anche al capitolo5.
Nella seconda fase, la somministrazione delle domande, la scala viene sottoposta ad un campione limitato
di intervistati (con un certo livello di istruzione -??? non c'è questa frase nel testo)
In seguito, nella terza fase (analisi degli elementi), si selezionano le domande e si valuta il grado di
coerenza interna della scala, cioè se la scala misura effettivamente il concetto in esame (il presupposto della
scala è che tutti gli elementi che la compongo siano correlati con uno stesso concetto sottostante, occorre
valutare se questo requisito della dimensione comune a tutti gli elementi sia riconoscibile anche nella
percezione degli intervistati. È infatti possibile che alcuni elementi non risultino in linea con gli altri e vadano
quindi eliminati. Usando un termine tecnico si fa una valutazione dell’unidimensionalità della scala,
cioè accertamento del fatto che i vari items non sottintendono concetti estranei a quello
studiato.
Gli strumenti utilizzati nella terza fase sono la correlazione elemento-scala e il coefficiente alfa.
Per la correlazione elemento-scala, si calcola per ogni soggetto il punteggio su tutta la scala e si calcola il
coefficiente di correlazione tra questo punteggio e il punteggio di ogni singolo elemento. Il coefficiente di
correlazione è una misura che quantifica il grado di relazione tra due variabili cardinali e indica se il
30
punteggio di ogni singolo elemento si muove nella stessa direzione del punteggio globale che tiene conto di
tutti gli altri elementi. Se ciò non avviene la domanda non è congruente con la scala e va eliminata. esempio
pag 264
Il coefficiente alfa serve invece a valutare la coerenza interna complessiva della scala. Esso si basa sulla
matrice di correlazione tra tutti gli elementi della scala e il loro numero; più alti sono i valori (da 0 a 1)
maggiore è la coerenza interna alla scala.
L’intervento del ricercatore sarà teso ad eliminare gli item con minore correlazione
elemento-scala fintanto che tale eliminazione non causa un incremento dell’alfa di
Cronbach.
I vantaggi della scala Likert consistono nella sua semplicità e applicabilità, mentre i suoi svantaggi
sono il fatto che i suoi elementi vengono trattati come scale cardinali pur essendo ordinali (a parziale
autonomia semantica), la mancata riproducibilità (dal punteggio della scala non è possibile risalire
alle risposte delle singole domande) e il fatto che il punteggio finale non rappresenta una variabile
cardinale.
Se gli elementi sono scalati perfettamente, alcune sequenze di risposta non dovrebbero
verificarsi (non dovrebbe accadere quindi che, facendo riferimento all’esempio precedente, una
persona risponda che sarebbe disposto ad avere una persona di colore come sposo ma non
come vicino di casa); da qui ne consegue una certa riproducibilità delle singole risposte.
31
Anche la scala di Guttman segue tre-quattro fasi nella sua costruzione. La prima è quella della formulazione
delle domande, con considerazioni analoghe a quelle relative alla scala di Likert tranne che le domande
devono essere dicotomiche e disposte secondo un ordine crescente di forza. Anche la seconda fase
(somministrazione) è simile a quella della scala di Likert, con il vantaggio che la forma binaria agevola le
risposte e rende più veloce la compilazione (anche se talvolta la forte semplificazione indotta dal carattere
binario delle scelte può creare problemi all’intervistato: .somministrazione: grazie al carattere binario
delle scelte la compilazione risulta più veloce ma l’intervistato non ha la possibilità di graduare
l’intensità delle proprie posizioni;
Terza fase: la specificità della scala di Guttman sta nell’analisi dei risultati, quando si valuta la scalabilità
degli elementi, si scartano quelli meno coerenti col modello, si stabilisce un indice di scalabilità della scale e
se accettarla o meno. In primo luogo si devono individuare gli errori della scala, cioè le risposte che non si
inseriscono nelle sequenze previste nel modello. Per questo si utilizza un indice ( coefficiente di
riproducibilità) che misura il grado di scostamento della scala osservata dalla scala perfetta. Questo indice
può variare da 0 a 1; per poter essere accettabile, il valore dell’indice deve essere maggiore o uguale a 0,90
(cioè errori pari o inferiori al 10% delle risposte). Esiste anche un altro indice, detto di minima
riproducibilità marginale, che segnala il valore minimo al di sotto del quale il coefficiente di riproducibilità
non può scendere, quali che siano le sequenze delle risposte. Esso deve essere confrontato con il
coefficiente di riproducibilità: solo se il secondo, oltre ad essere maggiore di 0,90, è anche nettamente
superiore al primo, si può affermare che la buona riproducibilità della scala è dovuta ad un’effettiva
scalabilità dei suoi elementi e non alla distribuzione marginale delle risposte.
analisi dei risultati: procedura di individuazione degli errori; riordinando le righe e le
colonne della matrice-dati delle risposte sulla base del punteggio ottenuto e del numero di
risposte affermative ottenute, gli errori sono facilmente individuabili:
1 1 1 1 1
1 1 0 0 0
1 1 1 0 1
1 1 1 0 1
1 0 0 0 1
Per esempio quelli evidenziati nella matrice-dati qui sopra riportata sono
errori.
Suggerimenti:
- evitare elementi poco discriminanti (troppe risposte sì o troppe risposte no);
- numero sufficientemente elevato di elementi;
- ispezionare attentamente le sequenze erronee;
Problemi: la variabile originata dallo scalogramma è ordinale, non cardinale;è difficile
rendere perfettamente scalabile un concetto molto complesso. L’ultima fase è quella di
attribuire i punteggi ai soggetti; per far questo si sommano i punteggi 0/1 ottenuti nelle varie
risposte. I problemi della scala di Guttman consistono nel fatto che il punteggio finale è ancora una
variabile ordinale; si tratta di una tecnica applicabile solo ad atteggiamenti ben definiti e scalabili; il
modello risulta rigidamente deterministico di fronte ad una realtà sociale interpretabile solo
attraverso modelli probabilistici.
32
La tecnica del differenziale semantico supera questi limiti in quanto si basa sulle associazioni che
l’intervistato instaura tra il concetto in esame ed altri concetti proposti in maniera standardizzata a tutti gli
intervistati. (es sofisticato è duro o soffice?, è veloce o lento? - e poi si aggiunge una scala da 1 a 7 per
misurare l'intensità). E’ una tecnica che si propone di rilevare il significato che certi concetti
assumono per gli intervistati basandosi sull’associazione fatta dal soggetto con altri concetti
proposti a tutti in maniera standardizzata. Osgood propone 50 coppie di attributi polari
(esempio: dolce/amaro) e 7 posizioni per graduare l’intensità del giudizio. La lista degli
attributi non deve variare in base all’oggetto di studio; il test risulta facile ed accettato dai
soggetti. Vi sono attributi in grado di far risaltare la valutazione, la potenza e l’attività di un
certo concetto
In concreto si utilizzano una serie di scale auto-ancoranti nelle quali solo le categorie estreme
hanno significato autonomo, mentre il significato graduato delle categorie intermedie viene stabilito a
giudizio dell’intervistato. La lista di questi attributi bipolari non deve avere necessariamente relazione con
l’oggetto valutato (vedi schema pag 279- si chiede all'intervistato di rispondere d'istinto), e quindi deve
essere sempre la stessa. Il numero delle domande di solito va dalle 12 alle 50, in base al disegno della
ricerca.
Il modo più importante di utilizzare il differenziale semantico è rappresentato dall’esplorazione delle
dimensioni dei significati. Si ritiene cioè che attraverso l’analisi fattoriale sia possibile determinare quali sono
le dimensioni fondamentali che stanno dietro ai giudizio di un certo campione di soggetti intervistati. In linea
generale, si possono trovare tre dimensioni fondamentali: la valutazione, la potenza e l’attività, in ordine di
importanza. La valutazione sembra rappresentare l’atteggiamento verso un certo oggetto.
Il contributo più importante della tecnica del differenziale semantico è proprio quello di aver introdotto la
multidimensionalità dei significati nella struttura degli atteggiamenti.
.
- .
L’opera “Il suicidio” di Durkheim costituisce forse la prima ricerca in campo sociologico ed è
stata condotta utilizzando le fonti statistiche ufficiali del tempo, applicando un’analisi
quantitativa ad un problema sino a quel momento dibattuto solo a livello filosofico. Durkheim
ha valutato l’incidenza sul suicidio di alcuni fattori come la confessione religiosa, la famiglia, il
momento politico, ecc.
Statistica Ufficiale: con la parola “statistica” si intendono i dati statistici, con il termine
“ufficiale” si intende che il dato è prodotto dall’amministrazione pubblica attraverso la normale
attività amministrativa (rilevazione indiretta) oppure attraverso indagini mirate a raccogliere
dati (rilevazioni dirette, come ad esempio censimenti o indagini campionarie ad HOC).
Le unità di analisi sono territoriali; il dato, pur essendo raccolto su base individuale, è fornito in
forma aggregata per motivi di riservatezza (ad esempio nel caso delle elezioni politiche), per
motivi organizzativi (ad esempio nei censimento) oppure perché il dato è aggregato sin
dall’inizio. Negli ultimi tempi sono tuttavia disponibili files di record individuali.
I dati delle statistiche ufficiali sono solitamente fattuali, cioè riguardano fatti e non opinioni,
atteggiamenti o motivazioni. I dati sono solitamente raccolti con rilevazioni esaustive, non
campionarie.
Chi produce le statistiche ufficiali?
- In Italia dal 1926 l’ISTAT (affiancata da istituzioni erogatrici di servizi pubblici
anche se non facenti parte della P.A. come Enel, Rai, Aci, Telecom, ecc.).
- In Europa dagli anni ’80 l’EUROSTAT.
In Italia le unità territoriali sono: comuni, province, regioni, aree metropolitane, ecc.
L’ISTAT produce annuari, il Bollettino Mensile di Statistica, rapporti annuali, ecc.
Gli argomenti principali sono: popolazione, sanità, assistenza e previdenza, istruzione e
cultura, lavoro, giustizia, consumi, reddito, benessere, elezioni, indagini multi-scopo.
Si ritiene che il ricercatore non possa fare a meno delle fonti statistiche ufficiali in studi sulla
struttura della società, sulle ripartizioni territoriali di un Paese, in studi comparati fra nazioni ed
in studi che abbracciano un certo lasso di tempo.
Spesso la natura dei dati non soddisfa le esigenze del ricercatore, perché sono limitati a
variabili fattuali e perché non sono adatti per analisi di comportamenti individuali.
33
CAPITOLO 8 – IL CAMPIONAMENTO
Anche se può sembrare strano, la scelta casuale (tipica del campionamento) deve segue ire regole ben
precise. NELLA STATISTICA SI STUDIA LA TEORIA DEI CAMPIONI
E’ il procedimento con il quale si estrae, da un insieme di unità (popolazione)
costituenti l’oggetto dello studio, un ridotto numero di casi (campione) scelti con
criteri tali da poter generalizzare i risultati ottenuti dal campione stesso all’intera
popolazione.
Vantaggi:
- vantaggio: tempi e costi della rilevazione si riducono;vantaggi organizzativi per il
minor numero di rilevatori richiesti
- sono possibili un maggior approfondimenti ed una maggiore accuratezza;
- ci sono casi in cui operare il campionamento non è una scelta ma una necessità
(per es studio sulla durata delle lampadine, si può fare solo su un campione).
vedi esempio storico pag 318 -319
Nei campioni probabilistici l’unità d’analisi è estratta con una probabilità nota e diversa da zero. È necessario
conoscere la popolazione (nell'esempio del libro "LITERARY dIGEST" il campione non era probabilistico
perchè le persone senza tel e senza auto avevano probabilità zero di essere incluse nel campione, chi aveva
entrambe aveva probabilità doppia).
Il caso più semplice del campione probabilistico è quello del campionamento casuale semplice, in cui
ogni individuo della popolazione ha uguali possibilità di essere scelto per il campione.
Si devono estrarre gli individui senza riferimento a caratteristiche individuali; si assegna un numero a
ciascuna persona e si sceglie a caso. Se N sono i componenti dell'intera popolazione si estrae n numeri tra gli
N totali.
L’errore di campionamento del campione casuale semplice è direttamente proporzionale al
livello di fiducia che vogliamo avere nella stima (cioè il grado di certezza) ed alla variabilità del
fenomeno studiato (cioè la dispersione della distribuzione della variabile), mentre è
inversamente proporzionale all’ampiezza del campione.
Questo significa che la dimensione della popolazione non ha grande importanza per determinare l’ampiezza
del campione, infatti ad esempio un campione di 1.000 casi può essere sufficiente per arrivare a stime della
stessa precisione per popolazioni di 10.000 o 100.000 elementi. Al limite, se si desidera avere stime della
precisione di due punti percentuali, sono sufficienti 2.500 casi per qualunque dimensione della popolazione,
anche a livello mondiale.
34
Campionamento stratificato: la popolazione è divisa in strati omogenei rispetto alla variabile da stimare e si
estrae un campione casuale semplice da ciascuno strato; in seguito si uniscono i campioni dei singoli strati
per ottenere il campione finale. Questa procedura richiede che per tutte le unità della popolazione sia nota la
variabile posta alla base della stratificazione. Il campione ottenuto può essere stratificato proporzionale (se
si decide di riprodurre la stessa composizione degli strati nella popolazione) oppure stratificato non
proporzionale (se si decide di sovrarappresentare alcuni strati e sottorappresentare altri).
Campionamento a stadi: la popolazione è suddivisa su più livelli gerarchicamente ordinati, i quali vengono
estratti in successione con un procedimento ad “imbuto”. Se presumiamo di avere due stadi, il
campionamento si effettua in due momenti: prima si estraggono le unità primarie (gruppi di soggetti che
costituiscono le unità di analisi vere e proprie) e successivamente si estrae casualmente un campione di
unità secondarie (le unità di analisi) in ognuna delle unità primarie selezionate dalla prima estrazione.
I vantaggi di questa tecnica consistono nel fatto che non è necessario avere la lista di tutta la popolazione,
ma solo delle unità primarie; inoltre la rilevazione viene concentrata sulle unità estratte, con notevole
riduzione dei costi.
Campionamento per aree: è molto simile al campionamento a stadi e si utilizza quando mancano del tutto i
dati sulla popolazione oppure quando le liste sono incomplete.
Campionamento a grappoli: si usa quando la popolazione risulta naturalmente suddivisa in gruppi di unità
spazialmente contigue (grappoli). Al posto delle unità elementari vengono estratti i grappoli, e poi tutte le
unità elementari appartenenti ai grappoli vengono incluse nel campione. Questa tecnica semplifica di molto
la rilevazione ed è molto utile quando manca la lista delle unità elementari mentre esiste la possibilità di
estrarre con procedura probabilistica i grappoli.
Campioni complessi: sono quelli in cui si utilizzano congiuntamente le tecniche ora presentate.
35
Se consideriamo il caso di una ricerca monovariata (quando si stimano le variabili ad una ad una) la
dimensione del campione può essere adeguata, ma se nella stessa ricerca studiamo le relazioni tra le
variabili (analisi bivariata o multivariata) - esempio voglio vedere la relazione tra due varibili, sel apratica
religiosa varia al variare dell'istruzione - l’errore cresce subito fino a livelli inaccettabili (pag 339).
Diminuendo l'ampiezza del campione l'errore di campionamento aumenta.
Solo raramente la stima di singole variabili esaurisce l'interesse del ricercatore, a lui interessano le relazioni
tra variabili.
La dimensione del campione non può più essere determinata a priori dal ricercatore sulla base delle
distribuzioni delle singole variabili studiate, ma dovrà far riferimento al tipo di analisi che egli intende
utilizzare, a partire dalla considerazione dei frazionamenti ai quali egli sottoporrà il campione per analizzarlo.
La dimensione ideale del campione dipende dalla distribuzione delle variabili studiate e dal tipo
di analisi che si intende fare. In generale l’ampiezza del campione dovrà essere tanto maggiore quanto
più il fenomeno da studiare è minoritario (es. pag 340).
Molto più grave è il problema dei rifiuti a rispondere (diffidenza verso l'intervistatore, l'intervista o parti di
essa), in quanto spesso coloro che non vogliono rispondere sono diversi da quelli che rispondono (anziani,
basso titolo di studio, done, persone sole, persone indaffarate..timore di come venga gestita l'informazione
data se riferita a convinzioni politiche per es)e quindi non rappresentano una selezione casuale del campione
originario.
In questo modo si compromette la validità del campione stesso, che sovra-rappresenterà
alcune categorie di persone a scapito di altre. La percentuale di mancate risposte in Italia varia dal
20% al 50%, a seconda della diversa forma di contatto utilizzata (ad esempio di solito le interviste faccia a
faccia hanno un tasso di risposta superiore a quelle telefoniche).
Una soluzione per rimediare alle mancate risposte può essere quella di sostituire i soggetti con altri scelti a
caso, ma questa tecnica spesso non è efficace perché i sostituti assomigliano più ai rispondenti che non ai
36
non rispondenti.
Per contrastare efficacemente il problema delle mancate risposte ci sono due metodi: il primo è quello di
tornare il più possibile dalla persone che non rispondono per incontrarle o convincerle; il secondo consiste
nella ponderazione, cioè nell’attribuire alle persone non raggiunte dall’intervista le risposte medie date dal
gruppo sociale al quale esse appartengono.
L'errore di non risposta è probabilmente il più imperscrutabile degli errori di rilevazione, il risultato del
comportamento di persone che sono al di fuori del controllo del ricercatore e mette in crisi la proprietà unica
dell'indagine campionaria rispetto ad altri metodi di indagine: l'inferenza statistica dal campione alla
popolazione. Inoltre è in crescita in tutte le società occidentali (per tutela privacy, saturazione verso le
indagini, per diffidenza verso gli estranei ecc).
Conclusione: LA RICERCA SOCIALE NELLA SUA PRATICA APPLICAZIONE PONE DEI LIMITI VERAMENTE
SEVERI ALLA TRADUZIONE IN PRATICA DELLA TEORIA DEL CAMPIONE.
Ponderazione
La ponderazione è quella procedura con la quale modifichiamo artificialmente la composizione del campione
onde renderla più prossima alla distribuzione della popolazione. Essa si realizza attribuendo un “peso” alle
unità campionarie che varia a seconda delle loro caratteristiche.
Le procedure di ponderazione sono essenzialmente tre e si basano sulle probabilità di inclusione delle unità
nel campione, sulle conoscenze che si hanno sulla popolazione e sulle conoscenze che si hanno sulle
non-risposte.
1- Il caso che si basa sulle probabilità di inclusione delle unità nel campione consiste nel campionare negli
strati in modo deliberatamente non proporzionale alla loro presenza nella popolazione per avere un numero
di soggetti sufficiente per l’analisi statistica. In questo caso la probabilità di inclusione non è uguale per tutti i
soggetti, ma è nota; si resta quindi tra i campioni probabilistici.
2- Il caso più comune che si basa sulle conoscenze che si hanno sulla popolazione è detto della
37
post-stratificazione e consiste nel correggere la distribuzione nella popolazione del campione di alcune
variabili in modo da farla corrispondere alla distribuzione della popolazione totale, assegnando a ogni caso
un coefficiente di ponderazione (peso) pari al rapporto quota teorica /quota rilevata della categoria di
appartenenza. Esso copre l’errore di copertura. In questo caso non siamo più in presenza di campioni
probabilistici.
3- Il caso che si basa sulle conoscenze che si hanno sulle non-risposte copre invece l’errore di non-risposta e
consiste nel classificare le persone che si rifiutano di rispondere sulla base di un certo numero di variabili e
quindi le risposte raccolte vengono ponderate attribuendo loro un peso che tiene conto dei rifiuti. Lo scopo
di questa procedura è quello di attribuire ai non rispondenti il comportamento medio delle persone
appartenenti al loro stesso gruppo sociale. Anche in questo caso non si tratta di una tecnica probabilistica.
Un ulteriore intervento, che si usa per attenuare la distorsione prodotta dalla mancata risposta solo a
qualche domanda del questionario, consiste nel procedere ad una stima delle mancate risposte a partire
dalle informazioni che si hanno sugli intervistati parzialmente reticenti.
La ponderazione è una procedura con la quale si modifica artificialmente la composizione del
campione in sede di elaborazione dei dati tramite operazioni matematiche tese a dare un
diverso peso alle unità sulla base delle loro caratteristiche. Ci sono tre possibilità di
ponderazione:
1) a partire dalle probabilità di inclusione dei soggetti nel campione;
2) sulla base della conoscenza che si ha della popolazione;
3) sulla base della conoscenza delle caratteristiche dei non rispondenti.
E’ opportuno che l’artificio della ponderazione venga esplicitamente dichiarato nei risultati della
ricerca
Bontà di un campione
E' praticamente impossibile nelle scienze sociali evitare del tutto errori di copertura e di non risposta, ma si
possono minimizzare cercando di avvicinare la procedura di campionamento al modello del campionamento
probabilistico. Se definiamo con accuratezza della procedura di campionamento la minimizzazione di questi
errori possiamo dire che ampiezza del campione e accuratezza della procedura di campionamento
sono le due caratteristiche che definiscono la bontà di un campione, con un equilibrio tra i due.
Alla validità di un campione concorrono due fattori: la sua rappresentanza e la sua ampiezza.
Un campione è rappresentativo quando fornisce un’immagine in piccolo ma senza distorsioni della
popolazione; la rappresentatività dipende dalla casualità della procedura con la quale è stato costruito.
Questa rappresentatività è valida per tutte le variabili della popolazione. Possiamo infine dire che se le stime
del campione sono sufficientemente piccole, il campione è rappresentativo.
Ma è praticamente impossibile realizzare una procedura completamente casuale, per cui la rappresentatività
del campione è un obiettivo limite al quale ci si può solo avvicinare minimizzando gli errori di copertura e di
non-risposta (accuratezza).
In parte l’ampiezza del campione è condizione della rappresentatività: se il campione è troppo piccolo,
allora l’errore di campionamento è troppo elevato e il campione non può essere definito rappresentativo. In
parte invece l’ampiezza del campione è un requisito autonomo dalla rappresentatività, e dipende dal tipo di
analisi che vogliamo fare sui dati (monovariata, bivariata o multivariata).
Tra i due requisiti dovrebbe essere privilegiata l’ampiezza per la sua maggiore importanza.
È importante anche la finalità della ricerca: se si tratta di uno studio descrittivo, il campione deve essere il
più possibile rappresentativo, se invece l’obiettivo è di tipo relazionale, il campione può anche non essere
perfettamente rappresentativo. In ogni caso il ricercatore può trascurare l’accuratezza della rilevazione,
applicando il più possibile il campionamento casuale nonostante la sua difficoltà.
38
39
Nella ricerca di tipo qualitativo è difficile ricorrere a schematizzazioni, ossia rendere le fasi che
la compongono ben separate e distinte.
Le principali tecniche qualitative utilizzate sono quelle dell’osservazione partecipante (dove
c'è non solo osservazione am coinvolgimento diretto del ricercatore con l'oggetto
studiato), delle interviste in profondità e dell’uso di documenti. Ricordiamoci che ci
troviamo nel contesto del paradigma interpretativo e che lo scopo è la comprensione
(Versethen), quindi è necessario un processo di immedesimazione nella vita dei soggetti
studiati ed una piena e completa partecipazione alla loro quotidianità, con un'interazione che
può anche durare anni. Il ricercatore qui scende sul campo, vive come e con le persone
oggetto del suo studio, ne condivide la quotidianità, sviluppa una visione dal di dentro, è
questo il senso del Verstehen vedere il mondo con gli occhi dei soggetti studiati).
Questa tecnica deriva dall’antropologia, in cui venne utilizzata per primo da Malinowski. Si
ricorre all’osservazione partecipante quando:
- si sa poco di un certo fenomeno;
- il punto di vista esterno è fortemente diverso da quello interno;
- il fenomeno è occultato volutamente o comunque si svolge al riparo di sguardi
estranei (es unA SETTA)
- .
Inizialmente si applicava in studi condotti su piccole comunità sociali territorialmente
localizzate e in studi di sub-culture (ad esempio sacche di marginalità sociale).
Progressivamente è stata estesa anche a studi sulla società “ufficiale” (pagg 368-369-370)
L'approccio è del tutto simile a quello dell'antropolgo che studia una tribu primitiva.
Problemi:
1) l’osservatore deve esplicitare o meno il suo ruolo? E’ il c.d. paradosso dell’osservatore,
che vuole osservare come si comporta la gente quando non è osservata. Occorre
considerare:
- l’aspetto morale;
- il disagio che può cogliere l’osservatore dissimulato;
- le conseguenze negative di essere scoperti;
- la dichiarata “incompetenza” può essere sfruttata per fare le domande più
ingenue;
- la iniziale diffidenza si attenua con il tempo;
- se l’ambiente osservato è pubblico ed aperto non è necessario rendere manifesta
l’osservazione (oppure quando l’osservatore si trova già nel gruppo).
-
2) come ottenere l’accesso all’ambiente? Spesso si ricorre al c.d. mediatore culturale: è
una persona che gode della fiducia della popolazione studiata e contemporaneamente è
in grado di comprendere le esigenze del ricercatore. Se l’istituzione è formale è
necessario seguire delle regole precise per avere l’accesso;
3) come ottenere la fiducia degli osservati? Entrano in gioco le capacità del ricercatore, in
termini di sensibilità e di gestione del rapporto. Si dicono informatori quelle persone
utilizzate dal ricercatore per acquisire informazioni dall’interno della cultura studiata.
40
Per quanto riguarda l’analisi del materiale empirico e la stesura del rapporto finale non
esistono regole precise ed il materiale raccolto è solitamente molto corposo.
- l’analisi è un processo continuo che si sviluppa anche nel corso dell’osservazione
stessa;
- il dramma della selezione: solitamente, in fase di analisi, viene abbandonata la
maggior parte del materiale raccolto;
- le fasi sono la descrizione (assemblando il materiale di varia origine), la
classificazione (individuando le sequenze temporali e raggruppando in classi
similari o dissimili) e la individuazione delle dimensioni della tipologia (mediante
la individuazione dei temi culturali che attraversano la comunità studiata);
- lo stile di scrittura deve essere riflessivo (nel senso di non distaccato) e narrativo
(tipo racconto o cronaca giornalistica); lo scopo è quello di trasmettere la parte
più grande possibile della propria esperienza;
- il fine ultimo è naturalmente quello di elaborare qualche generalizzazione o
teorizzazione.
- vedi anche pagg 385 a 391.
MICROSOCIOLOGIA
In sociologia l’osservazione partecipante è stata applicata allo studio dei momenti banali della
quotidianità, ritenuti carichi di significati per lo più sfuggenti agli stessi attori sociali. Contributi
nel campo della micro-sociologia sono giunti da parte dell’interazionismo simbolico con Blumer,
Mead e Goffman e da parte dell’etnometodologia con Garfinkel (allarga! pag391-397)
41
42
CONDUZIONE DELL'INTERVISTA
Realizzare una buona intervista qualitativa è un’arte difficile: l’intervistatore deve far parlare
l’intervistato, limitandosi a qualche cauto intervento, e deve riuscire ad accedere al mondo del
soggetto. Deve stabilire un rapporto di fiducia non facile da instaurare (PAG 418 419).
Le interviste qualitative devono essere sempre condotte faccia a faccia e possibilmente devono
essere registrate e integralmente trascritte. E’ necessario, eventualmente, far accettare l’uso
del registratore.
43
I principali difetti dei documenti personali sono la rarità (non tutti sono disponibili a
rendere pubblici diari e lettere), la frammentarietà e incompletezza (perchè non
nascono allo scopo di fornire dati per la ricerca), la scarsa rappresentatività di coloro
che offrono questi dati: si prende quello che c'è, non si sceglie, non c'è
rappresentatività.
44
dal punto di vista degli strati sociali più bassi (il materiale scritto di solito è circoscritto
alle classi letterate). vedi pag 439 440 e segg su storie di vita e storie orali
Lo svantaggio più significativo è che non possiamo più godere del beneficio delle
informazioni “non reattive”.
Un racconto può essere una storia di vita (cioè un racconto autobiografico, l'oggetto è
un individuo, appartengono maggiormente alla tradizione sociologica della ricerca
sociale) o una storia orale tesa a raccogliere informazioni sulla società vissuta dal
soggetto (oggetto è la SOCIETà costruire quindi una storia dal basso, venata di
populismo).
Le storie di vita vengono solitamente utilizzate in tre modi: la riproduzione fedele del
materiale, con poche pagine di presentazione da parte del ricercatore (possiamo parlare
di uso pre-scientifico, teso a dare voce a chi normalmente non ce la ha), la
presentazione delle storie insieme ad un corposo saggio interpretativo (come nella già
citata opera “Il contadino…” di thomas e znaniecki ) oppure l’alternanza di brani originali
ed argomentazioni del ricercatore. Qui la testimonianza orale "non viene lasciata sola",
viene interpretata, collocata in un contesto più ampio.L’atteggiamento degli studiosi
verso i documenti personali è contrastante: alcuni non negano il fascino dei racconti ma
li rilegano in un mondo pre-scientifico o, al massimo, di integrazione delle altre analisi;
altri invece li riconoscono un interesse autonomo.