Sei sulla pagina 1di 45

lOMoARcPSD|2722116

Riassunto - Metodologia e tecniche della ricerca sociale -


Metodologia e Tecniche della Ricerca Sociale - A.A.
2016/2017
METODOLOGIA E TECNICHE DELLA RICERCA SOCIALE (Università degli Studi di
Urbino Carlo Bo)

StuDocu non è sponsorizzato o supportato da nessuna università o ateneo.


Scaricato da Carmen Dds (carmendediosierra@gmail.com)
lOMoARcPSD|2722116

METODOLOGIA E TECNICHE DELLA


RICERCA SOCIALE – Piergiorgio Corbetta
PARTE PRIMA: LA LOGICA DELLA RICERCA SOCIALE
CAPITOLO 1 – I PARADIGMI DELLA RICERCA SOCIALE (OK INTEGRATO)

La nozione di paradigma in campo filosofico ha origini antichissime: Platone la utilizza


nell’accezione di “modello”; Aristotele nell’accezione di “esempio”. Nel campo delle scienze
sociali il suo uso è inflazionato e confuso ( usato con diversi significati: teoria, articolazione interna
di una teoria, scuola o pensiero), ma il primo studioso ad avere introdotto il paradigma in
sociologia negli anni ’60 è Thomas Kuhn . Egli scrive l’opera “La struttura della rivoluzioni scientifiche”,
in cui rifiuta la concezione tradizionale della scienza come accumulazione progressiva di nuove scoperte,
affermando invece che in certi momenti (detti rivoluzionari) si interrompe il rapporto di continuità
con il passato e si inizia un nuovo corso, in modo non completamente razionale.
“Si tratta di un elemento arbitrario composto di accidentalità storiche e personali sempre presente come
elemento costitutivo nelle convinzioni manifestate da una data comunità scientifica in un dato momento”. Il
passaggio da una teoria a un’altra è così globale e ha tali conseguenze che Kuhn lo chiama rivoluzione
scientifica. C’è un cambiamento dei problemi da proporre all’indagine scientifica e dei criteri con cui si
stabilisce cosa si considera come un problema ammissibile, cambia anche la struttura concettuale attraverso
cui gli scienziati guardano il mondo (paradigma).

Con questo termine ci si riferiva ad una prospettiva teorica con i seguenti requisiti:
1) Che è condivisa e riconosciuta da tutti gli scienziati di una certa disciplina;
2) Che è fondata sulle acquisizioni precedenti della disciplina stessa;
3) Che indirizza la ricerca individuando i fatti rilevanti da studiare, formulando ipotesi su un
determinato fenomeno e approntando le tecniche di ricerca empirica necessarie.

Senza un paradigma una scienza non ha orientamenti né criteri di scelta, perché tutti i criteri, i problemi
e le tecniche diventano ugualmente rilevanti. Il paradigma è una guida e fornisce agli scienziati un
modello e le indicazioni per costruirlo. Con il paradigma lo scienziato acquisisce contemporaneamente
teorie, metodi e criteri. Il paradigma è qualcosa di più ampio di una teoria, è una visione del
mondo, una finestra mentale, una griglia di lettura che precede l’elaborazione teorica.
La scienza normale corrisponde a quei periodi in cui esiste all’interno di una disciplina un paradigma
condiviso dagli scienziati.
Nella storia della sociologia è difficile individuare un paradigma predominante, condiviso da tutti i
sociologi. Solo tra gli anni ’40 e ’50 ha prevalso il concetto di sistema e la teoria funzionalista di T.
Parsons. Egli rielabora il pensiero degli europei e crea una teoria basata sul sistema e sul consenso. A
questo paradigma viene contrapposto quello di Marx, basato sul conflitto sociale. In questo modo
possiamo parlare di disciplina multiparadigmatica.
Dunque il paradigma è qualcosa di più generale di una teoria e caratterizza le scienze “mature”
(le scienze sociali e la sociologia sarebbero, da questo punto di vista, in una collocazione pre-
paradigmatica).
Secondo un’altra interpretazione del pensiero di Kuhn il requisito della condivisione da parte
della comunità scientifica non sarebbe necessario: la sociologia, come disciplina, diventerebbe
da pre-paradigmatica a multi-paradigmatica.

POSITIVISMO E INTERPRETATIVISMO
I paradigmi “fondativi” della ricerca sociale sono sostanzialmente due: empirista e umanista;
si distinguono tra loro sulla base della risposta data a tre interrogativi fondamentali:
1) esiste la realtà sociale? (questione ontologica)
2) si può conoscere? (questione epistemologica)
3) con quali metodi? (questione metodologica)

Le questioni sono intrecciate tra loro e dipendono l’una dall’altra. La sociologia nasce sotto gli
auspici del pensiero positivista.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

Le risposte alle tre questioni date dal positivismo sono:


1) sì, la realtà sociale esiste ed è al di fuori dell’individuo;
2) sì, la realtà sociale è oggettivamente conoscibile;
3) i metodi di studio sono gli stessi delle scienze naturali.

Positivismo
Il paradigma positivista (il primo ad essere utilizzato nelle scienze sociali) studia la realtà sociale
utilizzando gli apparati concettuali, le tecniche di osservazione e misurazione, gli strumenti di analisi
matematica e i procedimenti di inferenza delle scienze naturali. Il primo vero sociologo positivista è
Durkheim, la cui teoria impone di trattare i fatti sociali come cose effettivamente esistenti al di fuori
delle coscienze individuali e studiabili oggettivamente.
L’ontologia del positivismo afferma quindi che la realtà sociale ha esistenza effettiva ed è conoscibile, come
se si trattasse di una “cosa”.
Dal punto vista epistemologico, esso si basa sul dualismo tra ricercatore e oggetto di studio (che non si
influenzano a vicenda in nessun modo), presume di ottenere risultati veri e certi, il suo obiettivo è quello di
spiegare e di formulare leggi naturali e generali immutabili.
La metodologia positivista prevede quindi esperimenti e manipolazioni della realtà, con osservazioni e
distacco tra l’osservatore e l’osservato; il suo modo di procedere è prevalentemente induttivo (dal particolare
al generale, cioè dall’osservazione dei dati empirici si cerca di risalire, dopo aver individuato
delle regolarità, alle leggi universali che li governano). Le tecniche utilizzate sono quantitative
(esperimenti, statistica) e si utilizzano le variabili.
Lo studioso e l’oggetto studiato sono considerati entità indipendenti (dualismo); l’oggetto
studiato non influenza lo studioso e viceversa: quindi indipendenza e oggettività.

Neopositivismo
Il neopositivismo nasce per rispondere alle critiche che erano state avanzate al positivismo. Dal punto di
vista ontologico, adotta il realismo critico, per cui afferma che esiste una realtà sociale esterna all’uomo, ma
che essa è conoscibile solo imperfettamente, in modo probabilistico. L’epistemologia del neopositivismo
prevede il riconoscimento del rapporto di interferenza tra studioso e studiato, che deve essere il più possibile
evitato per poter formulare leggi non più assolute, ma limitate nel tempo e soggette alla continua
falsificazione per poter arrivare sempre più vicini alla conoscenza assoluta. La metodologia resta
sostanzialmente quella del positivismo, anche se c’è un’apertura ai metodi qualitativi.

Con il neopositivismo (anni 1930-1960) ed il post-positivismo (dal 1960 in poi) la concezione


della scienza cambia:
- cade la solida certezza nella leggi immutabili che governano tutte le cose;
- dalla legge deterministica si passa alla legge probabilistica, che implica elementi
di accidentalità e la possibile presenza di disturbi;
- viene introdotta la categoria di falsificabilità, secondo la quale la verifica delle
ipotesi passa attraverso la non falsificazione della teoria da parte dei fatti;
- si afferma un senso di provvisorietà delle ipotesi: crolla l’idolo della certezza;
- si comincia a credere che l’atto del conoscere sia condizionato dalle circostanze
socio-culturali e dal quadro teorico;
- permane l’analogia con i metodi delle scienze naturali.

Interpretativismo
L’interpretativismo, che vede in Weber il suo esponente principale, non si propone di spiegare la realtà
bensì di comprenderla; in questo modo si pone all’opposto del positivismo per quanto riguarda i punti
principali del paradigma. Infatti, la sua ontologia prevede il costruttivismo e il relativismo (realtà multiple),
vale a dire che non esiste una realtà oggettiva (ogni individuo produce una sua realtà, e solo questa realtà è
conoscibile); inoltre anche le singole realtà individuali o anche condivise tra i gruppi sociali, variano
comunque tra le diverse culture e quindi non esiste una realtà sociale universale valida per tutti.
L’epistemologia prevede una separazione tra studioso e oggetto dello studio, la ricerca sociale è vista come
una scienza interpretativa alla ricerca di significato piuttosto che una scienza sperimentale in cerca di leggi.
Nel perseguire il suo scopo (che è quello della comprensione del comportamento individuale), la ricerca
sociale può servirsi di astrazioni e generalizzazioni: i tipi ideali e gli enunciati di possibilità. La metodologia
prevede l’interazione tra studioso e studiato, perché solo in questo modo è possibile comprendere il

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

significato attribuito dal soggetto alla propria azione. Le tecniche sono quindi qualitative e soggettive e il
metodo usato è quello dell’induzione (dal particolare al generale).
Secondo le visioni teoriche che si rifanno alla definizione di “interpretativismo” la realtà non
può essere semplicemente osservata, bensì va interpretata.
Wilhelm Dilthey (filosofo tedesco) distingue tra:
- scienze naturali, il cui oggetto di studio va spiegato;
- scienze sociali, il cui oggetto di studio va compreso.
Max Weber invece:
- vuole salvare l’avalutabilità delle scienze sociali, cioè vuole tenere ben distinti i
fatti empirici dalle considerazioni del ricercatore;
- il metodo che propone è quello del comprendere, dell’immedesimarsi nell’altra
persona per capirla;
- introduce il concetto di tipo ideale, ossia un’astrazione che nasce dalla
rilevazione empirica di uniformità. Non ha un concreto corrispettivo nella realtà
in quanto, privandola della sua complessità e del suo disordine, la riconduce ad
una costruzione chiara, razionale e coerente;
- il ricercatore non persegue le leggi (in senso positivista) ma i c.d. “enunciati di
possibilità” (esempio: se accade A allora il più delle volte si verifica anche B).
Quindi le risposte fornite dall’interpretativismo alle tre questioni fondamentali sono:
1) la realtà sociale non è unica, è molteplice ed è relativa ai significati che ciascun
individuo gli attribuisce;
2) scompare la separazione tra lo studioso e l’oggetto studiato; da scienza sperimentale a
scienza interpretativa; i tipi ideali e gli enunciati di possibilità forniscono astrazioni e
generalizzazioni;
3) la metodologia è quella dell’interazione empatica fra studioso e studiato.

Sia l’approccio positivista che quello interpretativo, se vengono radicalizzati, si espongono a


durissime critiche.

Radicalizzazioni e critiche
Una radicalizzazione del positivismo consiste nel riduzionismo, cioè nel ridurre la ricerca sociale ad una
mera raccolta di dati senza un’elaborazione teorica che li supporti. In questo modo la ricerca sociale diventa
una massa sterminata di dati minuziosamente rilevati, misurati e classificati, ma non coordinati tra loro, privi
di connessioni significative, incapaci di rendere una conoscenza adeguata dell’oggetto cui nominalmente si
riferiscono.
In ogni caso, la critica maggiore mossa al positivismo è quella di separare troppo nettamente le categorie
osservative da quelle teoriche; in altre parole non è possibile sostenere che le forme di conoscenza non
siano storicamente e socialmente determinate e quindi dipendenti dalle teorie utilizzate.
Per quanto riguarda l’interpretativismo, le critiche maggiori sono rivolte ai filoni sviluppatisi dalla teoria
originale di Weber (che pur affermando la centralità dell’intenzione soggettiva, non escludeva la possibilità di
arrivare a delle forme di generalizzazione conoscitiva, i tipi ideali) che si spingevano verso un soggettivismo
estremo. In questo modo si esclude la possibilità dell’esistenza della scienza sociale, perché se tutto è
soggettivo e unico non possono esistere leggi sociali comuni a più individui che hanno assunto autonomia
rispetto ai singoli, come le istituzioni. La seconda critica afferma che se la realtà è una pura costruzione
soggettiva, non è possibile andare oltre alla persona, si nega l’acquisibilità di generalizzazioni sovrapersonali
e quindi si nega l’oggettività della scienza. Se il ricercatore non può trascendere l’oggetto dell’indagine non
può esistere la conoscenza oggettiva.

CAPITOLO 2
RICERCA QUANTITATIVA E RICERCA QUALITATIVA (ok integrato)

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

Dal paradigma neopositivista e da quello interpretativo sono derivati due diversi approcci alla
ricerca sociologica: quello quantitativo e quello qualitativo. Vediamo le differenze tra i due
approcci:
Per quanto riguarda l’impostazione della ricerca:
1) rapporto tra teoria e ricerca
- approccio quantitativo: l’impostazione è deduttiva; si parte dalla teoria (ipotesi
prese dalla letteratura), che precede l’osservazione, e ci si muove nel contesto
della giustificazione (si ricerca nei dati empirici il sostegno della teoria
formulata);
- approccio qualitativo: teoria e ricerca procedono intrecciate tra loro; spesso il
ricercatore respinge volutamente qualsiasi condizionamento teorico che potrebbe
inibirgli la capacità di comprendere l’oggetto studiato; la letteratura ha minore
importanza.
2) definizione dei concetti (cioè degli elementi costitutivi della teoria e tramite la loro
operativizzazione (= trasformazione in variabili empiricamente osservabili) permettono alla teoria di essere
sottoposta a controllo empirico.)
- approccio quantitativo: Nell’approccio neopositivista la chiarificazione dei concetti e la
loro operativizzazione in variabili avvengono prima ancora di iniziare la ricerca. Questo
metodo, se da un lato offre il vantaggio di poter rilevare empiricamente il concetto, dall’altro
comporta anche lo svantaggio di una forte riduzione e impoverimento del concetto stesso,
con il rischio ulteriore che la variabile sostituisca il concetto (reificazione).);
- approccio qualitativo: non si perviene alla definizione operativa di un concetto;
al massimo si utilizzano dei “concetti sensibilizzatori” che, come dice
l’interazionista Blumer, indicano verso quale direzione guardare ma non che cosa
osservare; Un ricercatore qualitativo avrebbe invece utilizzato il concetto come orientativo
(sensitizing concept), che predispone alla percezione, ancora da definire non solo in termini
operativi, ma anche teorici, nel corso della ricerca stessa. I concetti diventano quindi una
guida di avvicinamento alla realtà empirica, non riduzioni della realtà stessa in variabili
astratte
1) il rapporto con l’ambiente studiato
- approccio quantitativo: il ricercatore non si preoccupa molto della “reattività”
dell’oggetto del suo studio (cioè della tendenza che hanno le persone che sanno
di essere osservate a comportarsi in maniera non naturale) e crede che un certo
grado di manipolazione controllata sia ammissibile;
- approccio qualitativo: approccio naturalistico, il ricercatore cerca di astenersi da
qualsiasi forma di disturbo nei confronti della realtà che sta osservando; I due
modi di fare ricerca trovano illustrazioni tipiche e opposte nelle tecniche dell’esperimento e
dell’osservazione partecipante
4) obbiettivo della ricerca
- approccio quantitativo: validazione empirica delle ipotesi;
- approccio qualitativo: scoperta del punto di vista dell’attore sociale;
5) interazione psicologica studioso-studiato
- approccio quantitativo: punto di osservazione esterno ed atteggiamento neutrale
e distaccato;
- approccio qualitativo: il ricercatore cerca di calarsi quanto più gli è possibile nella
realtà studiata (coinvolgimento, immedesimazione empatica) Ma in questo modo
sorge prepotentemente il problema dell’oggettività della ricerca;
6) interazione fisica studioso-studiato
- approccio quantitativo: distanza/separazione;
- approccio qualitativo: prossimità/contatto;
7) ruolo del soggetto studiato
- approccio quantitativo: passivo;
- approccio qualitativo: attivo.

Per quanto riguarda la rilevazione dei dati (disegno della ricerca):

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

1) il disegno della ricerca (scelte di carattere operativo per decidere dove e come
raccogliere i dati)
- approccio quantitativo: è fatto al tavolino ed è chiuso e strutturato;
- approccio qualitativo: è destrutturato, aperto, modellato nel corso della ricerca;
2) rappresentatività dei soggetti studiati
- approccio quantitativo: è ricercata la generalizzabilità dei risultati mediante l’uso
di campioni statisticamente rappresentativi;
- approccio qualitativo: il ricercatore non sceglie i casi per la loro
rappresentatività, ma per l’interesse che gli suscitano;
3) lo strumento di rilevazione
- approccio quantitativo: è uniforme per tutti i casi in vista di una
standardizzazione dei risultati ottenuti;
- approccio qualitativo: non è interessato alla standardizzazione dei risultati;
4) natura dei dati raccolti
- approccio quantitativo: HARD, cioè precisi, rigorosi, oggettivi, standardizzati;
- approccio qualitativo: SOFT, cioè ricchi e profondi.

Per quanto riguarda l’analisi dei dati raccolti:


1) oggetto dell'analisi:
- approccio quantitativo: il soggetto, con le sue caratteristiche, viene frammentato
in tante parti, ciascuna descritta da una variabile; l’analisi sarà fatta per
variabili, in maniera impersonale; l’obbiettivo è spiegare la varianza delle
variabili stesse (variable-based) La ricerca quantitativa raccoglie le proprietà individuali
di ogni soggetto che sembrano rilevanti per lo scopo della ricerca ( variabili) e si limita ad
analizzare statisticamente queste variabili. Il soggetto non viene quindi più ricomposto nella
sua unitarietà di persona. L’obiettivo dell’analisi sarà spiegare la varianza delle variabili
dipendenti, trovare cioè le cause che provocano la variazione delle variabili dipendenti. ;
- approccio qualitativo: viene assunta una prospettiva olistica, secondo la quale
l’individuo è il risultato di una complessa interdipendenza delle sue parti ed è
qualcosa di più della semplice somma di queste. Non può dunque essere
descritto da semplici variabili. L’attenzione è posta sul caso, sull’individuo e
l’obbiettivo è comprendere la persona (case-based);
2) ne consegue che l’utilizzazione delle tecniche matematiche e statistiche è fondamentale
se si segue un approccio quantitativo mentre è inutile se si segue un approccio
qualitativo.

Per quanto riguarda i risultati dello studio:


1) presentazione dei dati
- approccio quantitativo: assume tipicamente la forma di tabelle, quindi è
succinta, parsimoniosa, compatta;
- approccio qualitativo: assume tipicamente la forma narrativa: vi è una
dimensione “pittorica” resa ad esempio dalla riproduzione di brani di intervista,
ecc.; è più “calda” rispetto alle “fredde” tabelle; Le tabelle hanno il pregio della
chiarezza e della sinteticità, ma presentano il difetto di presentare uno schema mentale
proprio dei ricercatori che può non corrispondere alle reali categorie mentali dei soggetti;
inoltre impoveriscono inevitabilmente la ricchezza delle affermazioni dei soggetti. Le
narrazioni riescono ad ovviare a questi difetti, perché riportano le parole degli intervistati e
quindi si pongono come una “fotografia” dei loro pensieri
2) generalizzazioni
- approccio quantitativo: costituiscono la conclusione più ovvia del procedimento,
rapporti causali cioè tra le variabili che possono spiegare i risultati ottenuti; i
risultati devono essere sintetizzabili in espressioni;
- approccio qualitativo: la sintesi delle informazioni risulta meno semplice: talvolta
la sintesi avviene descrivendo dei presunti “tipi ideali” (nel senso weberiano), cioè
categorie concettuali che non esistono nella realtà, ma che liberano i casi reali dai dettagli e
dagli accidenti della realtà per estrarne le caratteristiche essenziali ad un livello superiore di
astrazione; lo scopo dei tipi ideali è quello di essere utilizzati come modelli con i quali
illuminare e interpretare la realtà stessa; La ricerca qualitativa non si preoccupa di spiegare i

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

meccanismi causali che stanno alla base dei fenomeni sociali, cerca invece di descriverne le
differenze interpretandole alla luce dei tipi ideali. All’opposto, il fine ultimo della ricerca
quantitativa è proprio quello di individuare il meccanismo causale ;
3) portata dei risultati
- approccio quantitativo: si lavora su un numero cospicuo di casi, ma in maniera
superficiale;
- approccio qualitativo: si lavora su un numero basso di casi, ma si scende molto
in profondità. A questo proposito notiamo che la profondità dell’analisi e l’ampiezza della
ricerca sono inversamente correlate, vale a dire che ad un maggior numero di casi esaminati
corrisponde un minore approfondimento dei singoli casi. Data la maggiore quantità di casi
necessariamente esaminati dalla ricerca quantitativa, risulta indubbiamente una maggiore
generalizzabilità dei risultati rispetto a quelli della ricerca qualitativa.

Due diversi modi di conoscere la realtà sociale


A questo punto ci si potrebbe chiedere se uno dei due approcci è “scientificamente” migliore dell’altro. A
questo proposito si possono individuare tre posizioni.
La prima afferma che i due approcci sono incompatibili tra di loro, e quindi i rispettivi sostenitori dei due
paradigmi dicono che il proprio è corretto mentre l’altro è sbagliato.
La seconda si ritrova nei neopositivisti, che affermano l’utilità dell’approccio qualitativo, ma solo in
una prospettiva preliminare di stimolazione intellettuale (ruolo ancillare).
La terza posizione infine sostiene la pari dignità dei due metodi, e auspica lo sviluppo di una scienza sociale
che, a seconda delle circostanze e delle opportunità, scelga per l’uno o per l’altro approccio. Infatti contributi
importanti alle scienze sociali sono arrivati da entrambi i tipi di ricerca, che possono essere rispettivamente
adatti per differenti situazioni.
Entrambi gli approcci si possono considerare come due diversi modi di fare ricerca che possono contribuire
insieme alla conoscenza dei fenomeni sociali, integrandosi vicendevolmente per una migliore comprensione
della realtà da punti di vista differenti.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

PARTE SECONDA: ok integrato


LA RILEVAZIONE DEI DATI: TECNICHE QUANTITATIVE
CAPITOLO 3 – LA TRADUZIONE EMPIRICA DELLA TEORIA (approccio quantitativo)
vedi anche introduzione al capitolo 3 pagg 75-76, ben esposta.
La ricerca quantitativa è quella più formalizzata, in termini di procedure osservative e di sequenza di passi
da compiere in un itinerario di ricerca.
La ricerca scientifica è un processo creativo di scoperta che si sviluppa secondo un itinerario prefissato e
secondo procedure prestabilite che si sono consolidate all’interno della comunità scientifica: l'accostamento
tra i termini creatività e procedure prestabilite può sembrare contradditorio: l'aspetto creativo evoca le
personali capacità del ricercatore, perspicacia, intuito, l'illuminazione improvvisa ma questo è solo uno degli
aspetti salienti del processo di ricerca scientifica.

Secondo Reichenbach la ricerca scientifica si compone di due momenti:


1) il contesto della scoperta, cioè la concezione della nuova idea (per la quale non
esistono regole né procedure);
2) il contesto della giustificazione: segue regole ben precise, cioè deve svilupparsi
all’interno di un quadro collettivamente condiviso (diversamente dall'arte la ricerca
scientifica è un processo collettivo), ossia implica:
- il controllo, cioè la verificabilità da parte di altri;
- la cumulatività delle conoscenze, cioè lo studioso non può fare completamente di
testa sua (approccio sistematico, strumentazione consolidata dall'esperienza di
chi l'ha preceduto:. Scienza come accumulazione sistematica di conoscenze)

Questo significa che esiste un atto della scoperta che sfugge alle analisi logiche, ma allo stesso
tempo la ricerca empirica deve essere pubblica, controllabile e ripetibile per poter essere definita
scientifica. Per questo esiste un percorso “tipico” della ricerca sociale che parte dalla teoria,
attraversa le fasi si raccolta e analisi dei dati e ritorna alla teoria. Più precisamente, si possono
individuare cinque fasi e cinque processi che le legano.

La struttura “tipo” della ricerca quantitativa è la seguente (è un processo ciclico- schema


pag 79):
1) Si parte dalla Teoria
2) Formulazione di Ipotesi, alle quali si perviene attraverso un processo di deduzione;
l’ipotesi non è altro che un’articolazione parziale della teoria dalla quale deriva, rispetto
a essa si pone a un livello inferiore in termini di generalità; La teoria è generale mentre
l’ipotesi ne rappresenta un’articolazione specifica- es teoria "esiste un legame tra partecipazione
politica e centralità sociale", da qui possono partire 3 ipotesi "la partecipazione al voto è maggiore
tra gli uomini, tra gli adulti, tra le persone con maggiore successo professionale".
3) Raccolta dei dati o rilevazione empirica, alla quale si procede dopo aver provveduto al
disegno della ricerca che comprende l’operativizzazione dei concetti, cioè il passaggio dai
concetti/ipotesi alle variabili (ossia entità rilevabili sulle unità analizzate) - processo
complesso che si divide in due momenti, il primo è l'operativizzazione dei concetti cioè la
trasformazione di essi in variabili o entità rilevabili, per es tradurre il concetto di successo
professionale in reddito, il secondo riguarda la scelta dello strumento e delle procedure di
rilevazione (cioè occorre stabilire quante interviste si fanno, dove, quale questionario,
utilizzare statistiche ufficiali o un sondaggio ecc.). L’operativizzazione porta alla definizione del
disegno della ricerca, cioè di un piano di lavoro che stabilisce le varie fasi dell’osservazione empirica.
4) Analisi dei dati, alla quale si procede dopo aver organizzato i dati rilevati in matrici
(numero di casi per numero di variabili);questa matrice è il punto di partenza per l'analisi
dei dati, cioè elaborazioni statistiche
5) Presentazione dei Risultati, ai quali si perviene dopo la interpretazione dei dati
6) Ritorno alle ipotesi teoriche, tramite processo di induzione che confronta i risultati ottenuti
con la teoria precedente.

DALLA TEORIA ALLE IPOTESI.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

TEORIA: è un insieme di proposizioni (= sistema coerente di affermazioni)organicamente


connesse, poste ad un elevato livello di astrazione e generalizzazione rispetto alla realtà
empirica le quali sono derivate da regolarità empiriche e dalle quali possono essere derivate delle previsioni
empiriche (cioè da una teoria ricavata dall'osservazione di determinate regolarità empiriche si possono
inferire accadimenti in altri contesti) - vedi teoria del suicidio di Durkheim pag 81

IPOTESI: Una teoria deve essere organizzata in ipotesi specifiche. l'ipotesi è una proposizione che
implica una relazione fra due o più concetti, che si colloca ad un livello di astrazione e di
generalizzazione inferiore rispetto alla teoria e che può essere tradotta in termini
empiricamente controllabili (cioè più concreta e più specifica della teoria, ma ipotetica, da
dimostrare con controllo empirico - vedi ancora suicidio di Durkheim).
La validità di una teorizzazione dipende dalla sua trasformabilità in ipotesi empiricamente
controllabili (vedi nota di Popper a pié di pagina 82); Il criterio della controllabilità empirica è il
criterio stesso della scientificità: se non c'è riscontro empirico di una teoria questa rimane nell'ambito pre-
teorico delle supposizioni, nelle scienze sociali questo rischio è alto, ricordiamoci che "è meglio una teoria
sbagliata che una teoria vaga".
È importante la differenza tra generalizzazioni empiriche e teorie (Merton): le prima sono proposizioni
isolate che riassumono uniformità relazionali osservate tra due o più variabili (la letteratura sociologica
abbonda di queste), mentre le seconde nascono quando queste proposizioni sono raccolte e sussunte in un
sistema concettuale che si colloca ad un livello superiore di astrazione - torna di nuovo a Durkheim pag83
(ad esempio, permette di avanzare ipotesi in campi diversi e remoti da quelli originari).

Talvolta la pratica delle ricerca si sviluppa con ordini diversi rispetto a quello canonico: è possibile che le
ipotesi vengano sviluppate dopo aver raccolto i dati, e con questi confrontati a posteriori. Oppure si ricorre
alla teoria dopo aver analizzato i dati, per spiegare un fatto anomalo o un risultato inaspettato. Infine, una
nuova teoria può essere scoperta nel corso della fase empirica. Talora la rilevazione viene prima della delle
ipotesi per ragioni di forza maggiore, nel caso dell’ analisi secondaria, quando cioè si applica una seconda
analisi a dati raccolti da altri ricercatori in tempi precedenti. (esempi sul manuale pagg 85-86)

DAI CONCETTI ALLE VARIABILI


CONCETTO: contenuto semantico (significato) dei segni linguistici e delle immagini mentali; nel
suo significato etimologico indica l'azione che ordina il molteplice sotto un unico atto di
pensiero. Proprio per questa sua generalità, il concetto può includere ogni specie di segno o di procedura
semantica, astratto, concreto, universale, individuale, ecc.
I concetti sono i mattoni della teoria e con l'operativizzazione dei concetti la si traduce empiricamente.
Concetto come ponte tra le due sponde della teoria e del mondo empirico osservabile.

I concetti possono riferirsi ad astrazioni impossibili da verificare empiricamente (potere, felicità, ecc), oppure
a entità concrete (oggetti, persone, ecc). Ma se i concetti formano una teoria, come si può verificarla
empiricamente? Bisogna passare dai concetti astratti alla loro applicazione come proprietà degli specifici
oggetti studiati (chiamati unità di analisi). Occorre applicare i concetti a oggetti concreti, farli diventar
attributi o proprietà di oggetti, che chiamiamo unità di analisi. Es concetto di potere può essere una
proprietà di unità di analisi quali ruoli politici (funzionario, consigliere, deputato ecc).

Procedimento di operativizzazione di un concetto: si parte dal concetto  lo si applica ad


oggetti concreti  si trasforma in proprietà di oggetti (che chiameremo unità di analisi)  la
proprietà assume stati diversi sulle unità di analisi  2. passaggio: con una definizione
operativa si fissa la regola per tradurre la proprietà in operazioni empiriche 3. passaggio
operativizzazione in senso stretto (cioè applicazione della definizione operativa ai casi
concreti).La proprietà così operativizzata viene chiamata VARIABILE

Le proprietà assumono, sugli oggetti a cui si riferiscono, stati diversi, cioè variano tra le unità
di analisi (es la classe sociale varia tra i soggetti, la partecipazione elettorale varia tra i
comuni).
Una proprietà misurabile di una unità di analisi si chiama variabile.
Per esempio, il peso è un concetto, ma il peso di un oggetto è la sua proprietà. Il peso dell’oggetto misurato
con la bilancia è una variabile. Oppure, il livello culturale è un concetto astratto, ma se applicato a un
individuo diventa una proprietà, e se è misurabile una variabile.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

In definitiva, una variabile è una proprietà di una unità di analisi a cui sono assegnati valori diversi.
La variabile è la proprietà operativizzata; le modalità sono gli stati operativizzati della
proprietà.
Esempio: concetto: livello culturale; proprietà per rilevare il concetto: titolo di studio degli
individui; la proprietà assume stati diversi nei vari soggetti; gli stati vengono registrati con 5
modalità: 0 senza titolo, 1 licenza elementare, 2 licenza media, 3 diploma, 4 laurea. Quello che
si è appena fatto è un esempio di operativizzazione del concetto “livello culturale”.

UNITA' DI ANALISI
L’unità di analisi rappresenta l’oggetto sociale al quale afferiscono, nella ricerca empirica, le proprietà
studiate. Esse devono essere determinate con precisione nel momento in cui si vuole sottoporre a controllo
empirico una teoria mediante una specifica ricerca di tipo quantitativo, in quanto sono un elemento
importante del disegno della ricerca (il programma di lavoro empirico). Le unità di analisi possono essere
concretamente rappresentate dall’individuo (la più comune), dall’aggregato di individui (di solito
basate sulla territorialità - es regioni, comuni), dal gruppo-organizzazione-istituzione (quando
l’unità di rilevamento è rappresentata dal collettivo stesso), dagli eventi sociali (quando gli eventi stessi
sono le unità di analisi) e dalle rappresentazioni simboliche – prodotto culturale (quanto l’unità di
analisi consiste nei messaggi di comunicazione di massa di ogni genere).
L’unità di analisi è singolare ed astratta, mentre chiamiamo casi gli esemplari specifici, concreti di quella data
unità di analisi che vengono studiati, sui quali si rilevano i dati. Essi sono gli oggetti specifici della ricerca
empirica.

VARIABILI
Una variabile è un concetto operativizzato, o meglio la proprietà operativizzata di un oggetto, in quanto il
concetto, per poter essere operativizzato, ha dovuto essere applicato ad un oggetto diventandone proprietà.

pag 93 Esempio: concetto= peso; operativizzazione: pesatura dell’oggetto; unità di analisi:


libri; variabile: peso misurato; caso: quello specifico libro che sto pesando.

Un concetto può essere operativizzato in modi diversi., per es potere può essere proprietà di un individuo,
di un ruolo politico, di una istituzione ecc.La proprietà livello culturale di un individuo puàò essere definita
operativamente mediante titolo di studio, numero di libri letti in un anno, consumo di cinema giornale teatro,
ecc.
Una variabile può:
- essere invariante, quindi essere in realtà una costante -es nazionalità può
variare ma se applicata agli italiani, in questo caso è una costante non una
variabile;
- variare nel tempo (studio longitudinale o diacronico), sullo stesso caso;
- variare nei casi (studio trasversale o sincronico), nello stesso tempo. Nelle
scienze sociali questo secondo metodo è più utilizzato. vedi esempi pag 94
-
Classificazione delle variabili:
 manipolabili/non manipolabili (dal ricercatore) sono quelle che possono essere modificate dal
ricercatore, viceversa quelle non manipolabili non possono essere controllate. La maggior parte delle
variabili sociali non sono manipolabili, anche se esistono dei casi in cui il ricercatore può controllarle;
 La seconda distinzione è quella tra variabili dipendenti e variabili indipendenti. In una relazione
asimmetrica tra due variabili, quando cioè una variabile influenza un’altra, la variabile indipendente è
ciò che influenza (la causa), mentre la variabile dipendente è ciò che è influenzato (l’effetto). Nel
caso in cui le variabili indipendenti siano più di una abbiamo una relazione multivariata.
L'identificazione della variabile dipendente (explicandum, ciò che vogliamo spiegare) e delle variabili
indipendenti (explicans, i fattori esplicativi) rappresenta una chiarificazione concettuale
fondamentale ai fini dell'analisi di un fenomeno sociale. Però non sempre è facile chiarire quale sia la
variabile dip e quale quella indip, si pensi per es a orientamento politico e comportamento
religioso...
 La terza distinzione è quella tra variabili latenti e variabili osservate. La distinzione si basa sulla
osservabilità, ossia sulla possibilità di rilevazione empirica. Le prime sono variabili non direttamente
osservabili in quanto rappresentano concetti molto generali o complessi, mentre le seconde sono

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

10

facilmente rilevabili. In ogni caso, entrambe possono essere operativizzate, per cui anche nel caso
delle variabili latenti c’è una sostanziale differenza con i concetti.
 L’ultima distinzione è quella tra variabili individuali e variabili collettive. Le variabili individuali sono
specifiche di ogni individuo, mentre quelle collettive sono proprie di un gruppo sociale. Le variabili
collettive si suddividono a loro volta in variabili aggregate, dove la proprietà del collettivo deriva
dalle proprietà dei singoli componenti del gruppo, e variabili globali, quando le caratteristiche
esclusive del gruppo non derivano da proprietà dei membri che lo compongono.

Le variabili sono assolutamente fondamentali nella ricerca empirica, anche se a ogni definizione operativa è
lasciata all’arbitrio del ricercatore, che deve solo esplicitare e giustificare le sue scelte. Per questo una
definizione operativa non è mai perfettamente adeguata ed esiste sempre uno scarto tra variabile e
concetto. Un altro pericolo che porta l’operativizzazione è quello della reificazione, cioè di identificare la
definizione operativa di un concetto (necessariamente arbitraria e impoverita) con il concetto stesso. Un
esempio sopra tutti: assimilare l'intelligenza a quella particolare operativizzazione del concetto effettuata
mediante il QI.
Tuttavia, con tutti i suoi limiti, la definizione operativa è necessaria per fondare scientificamente e
oggettivamente la ricerca sociale. La definizione operativa non elimina l'arbitrarietà ma la rende esplicita e
quindi controllabile.

Variabili nominali, ordinali e cardinali


Un altro tipo di classificazione delle variabili si basa sulle loro caratteristiche logico-
matematiche. E’ una classificazione che determina la natura delle procedure statistiche
applicabili e che dipende dalla natura delle operazioni di rilevazione dei dati:

 variabili nominali: quando la proprietà assume stati discreti (la proprietà può
assumere solo una serie di Atti finiti es maschio e femmina) non ordinabili (non è
possibile stabilire un ordine, es di nazionalità italiana o cinese) (esempio
maschio/femmina o celibe/coniugato; in entrambi i casi si ha una variabile dicotomica,
cioè a due valori possibili); hanno senso su di esse solo le relazioni di = (uguale) e !=
(diverso); le categorie scaturiscono da un’operazione di classificazione e devono essere
esaustive e mutuamente esclusive.
Gli stati di una proprietà così descritta si chiamano categorie, le categorie operativizzate (cioè gli stati della
variabile) modalità e i simboli assegnati alle modalità valori. La procedura di operativizzazione che permette
di passare dalla proprietà alla variabile è la classificazione. Nel caso in cui ci siano solo due modalità si parla
di variabili dicotomiche (es maschio e femmina). pag 102-103 puoi arricchire.
 variabili ordinali: quando la proprietà assume stati discreti ordinabili (esempio titolo
di studio); hanno senso su di esse le relazioni di = (uguale), != (diverso), < (minore),
> (maggiore); le categorie scaturiscono da un’operazione di ordinamento e non è
possibile quantificare l’intervallo tra le varie categorie;
Le variabili ordinali sono tali quando la proprietà da registrare assume stati discreti ordinabili. In questo
caso è possibile stabilire non solo relazioni di eguaglianza e disuguaglianza, ma anche relazioni
d’ordine(laurea maggiore di diploma per es). In questo caso la procedura di operativizzazione è
l’ordinamento, che tiene conto dell’ordinabilità degli stati della proprietà. Quindi l’attribuzione dei valori alle
singole modalità dovrà utilizzare un criterio che presevi l’ordine degli stati. Tipicamente si utilizzano i numeri
naturali, che comunque non godono delle loro proprietà cardinali (cioè la distanza che corre tra le varie
modalità non può essere confrontata con le altre). Le variabili possono essere ordinali perché derivano da
proprietà originariamente costituite da stati discreti (es titolo di studio, ceto sociale) oppure perché derivano
da proprietà continue che sono state registrate su una sequenza solo ordinale perché non si dispone di una
unità di misura.es le risposte a un questionario molto, poco, abbastanza)
variabili cardinali: quando la proprietà assume valori con pieno significato numerico, cioè
cardinali e non solo ordinali (ad esempio età, reddito, il numero di figli); hanno senso le
relazioni di = (uguale), != (diverso), < (minore), > (maggiore), + (somma), - (differenza), *
(moltiplicazione), / (divisione); gli intervalli, cioè le distanze tra due valori, sono calcolabili
perché esiste un’unità di riferimento.
Si può ottenere una variabile cardinale attraverso due processi di operativizzazione, la
misurazione (se la proprietà è continua cioè può assumere infiniti stati intermedi in un

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

11

intervallo, ad esempio la statura, e se possediamo una unità di misura, ad esempio il


centimetro); o attraverso il conteggio (se la proprietà è discreta, cioè assume stati finiti, ad
esempio il numero di figli, ed esiste una unità di conto cioè una unità elementare che è
contenuta un certo numero finito di volte nella proprietà dell'oggetto). operativizzare in questo
caso significa contare quante unità di conto sono incluse nell'ammontare di proprietà
posseduta dall'oggetto, es contare il n di figli di una persona, le stanze di una casa ecc.

Le variabili fondamentali sono date, per es, dalla lunghezza della massa, dal tempo, Le variabili
derivate sono funzioni matematiche di quelle fondamentali. Le caratteristiche dei tre tipi di
variabile appena visti sono cumulabili;
Le variabili cardinali sono tali perché i numeri che ne identificano le modalità non sono delle semplici
etichette, ma hanno un pieno significato numerico (hanno cioè proprietà sia ordinali che cardinali).
Nelle scienze sociali molte variabili cardinali derivano operazioni condotte su altre variabili cardinali.
Le variabili quasi-cardinali sono un sottoinsieme delle variabili cardinali. Le proprietà più caratteristiche delle
scienze sociali possono essere tutte immaginate come proprietà continue, che però non riescono a passare
dalla condizione di proprietà continua a quella di variabile cardinale per la difficoltà di applicare una unità di
misura agli atteggiamenti umani. Un tentativo di superare questo limite è dato dalla tecnica delle scale, che
cerca di avvicinarsi a misurazioni in senso proprio, cioè a variabili in cui la distanza tra due valori sia nota. Le
variabili prodotte da questa tecnica sono dette quasi-cardinali.

Concetti, indicatori e indici


Nelle scienze sociali esistono concetti che hanno un elevato grado di generalità, e si pongono lontani
dall’esperienza. Esempio il concetto di pratica religiosa viene definito come proprietà dei soggetti umani e
viene per es operativizzato con il n. di volte che una persona va in chiesa al mese(variabile). Ma se
operativizziamo un concetto più generico di religiosità ci troviamo davanti a maggiori difficoltà: la pratica
religiosa può essere un aspetto della religiosità ma non lo esaurisce. Per poter definire questi concetti in
modo empiricamente controllabile è necessario darne una definizione operativa (tradurli in termini
osservativi) tramite gli indicatori.
Gli indicatori sono concetti più semplici, traducibili in termini osservativi, che sono legati ai concetti generali
da un rapporto di indicazione, o rappresentanza semantica, concetti più semplicemente traducibili in
termini osservativi, legati ai concetti “generici” che si vuole studiare dal c.d. “rapporto di
indicazione.
Gli indicatori sono quindi dei ancora dei concetti, ma più facilmente operativizzabili perchè si scende con
essi nella scala di generalità con concetti più specifici es non si può osservare la religiosità ma si può
osservare la pratica religiosa.
Tuttavia il rapporto tra concetto e indicatore è parziale: da una parte un concetto generale non può essere
esaurito da un solo indicatore specifico (occorre utilizzarne diversi per rilevare operativamente lo stesso
concetto), dall’altra un indicatore può sovrapporsi solo parzialmente al concetto per il quale è stato scelto, e
dipendere per il resto da un altro concetto, anche profondamente diverso (es nelle società dominate dalle
istituzioni eccelsiastiche la partecipazione ai riti religiosi può essere indicatore di conformismo sociale oppure
di religiosità. Inoltre la scelta di un indicatore è lasciata unicamente all’arbitrio del ricercatore, il
cui unico obbligo è quello di argomentare la sua scelta, non di dimostrarne la correttezza.

La rilevazione empirica di un concetto non direttamente osservabile passa attraverso quattro fasi:
l’articolazione del concetto in dimensioni (i diversi aspetti e significati del concetto, è una pura riflessione
teorica ), la scelta degli indicatori (concetti specifici vicini all'esperienza), la loro operativizzazione ossia
trasformazione in variabili , la formazione degli indici. L’indice è la sintesi globale della pluralità delle
variabili che sono state prodotte dai diversi indicatori es indice di religiosità. l'indice è una combinazione
logica o matematica di indicatori volta a ricostruire il concetto generale. schema pag 111 e 112
Secondo Marrani ogni indicatore ha una parte indicante (che è la parte di contenuto semantico
che l’indicatore ha in comune con il concetto al quale è relativo) ed una parte estranea: la
prima deve essere massimizzata, la seconda minimizzata.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

12

Errore di rilevazione
L’errore di rilevazione è lo scarto tra il concetto (teorico) e la variabile (empirica).
L’errore di rilevazione viene di solito suddiviso in errore sistematico ed errore accidentale
Valore osservato = valore “vero” + errore sistematico + errore accidentale, cioè
Errore= valore osservato- valore vero = errore sistematico + errore accidentale

L’errore sistematico (distorsione) è compiuto in ogni rilevazione; nel complesso delle


rilevazioni il suo valore medio NON è pari a zero. esempio pag 114, sovrastima del valore
osservato sul valore vero.
L’errore accidentale è invece un errore variabile, che varia da rilevazione a rilevazione, per cui si tratta di
un’oscillazione che, ripetuta su tutti i soggetti, tende a zero.
L’errore sistematico è la parte di errore comune a tutte le applicazioni di una determinata rilevazione; l’errore
accidentale è la parte di errore specifica di ogni singola rilevazione.
L’errore accidentale è l’errore variabile da rilevazione a rilevazione; il suo valore medio è
zero ed è del medesimo tipo dell’errore che si compie misurando ad esempio 10 volte il peso di
una foglia: non si ottiene mai lo stesso valore.

Gli errori possono verificarsi sia nella fase teorica, o di indicazione (in cui si scelgono gli indicatori), che in
quella empirica, o di operativizzazione (in cui si rilevano gli indicatori stessi).
L’errore nella fase di indicazione è sempre sistematico, perché l’indicatore non è del tutto adatto al concetto
e quindi si ha un difetto nel rapporto di indicazione. vedi es pag 114
L’errore nella fase di operativizzazione può esser sia sistematico sia accidentale, in quanto esistono tre fasi
nell’operativizzazione (selezione delle unità studiate, rilevazione dei dati o osservazione e trattamento dei
dati) in ognuna delle quali si possono compiere degli errori.

Gli errori di selezione sono quelli dovuti al fatto che si opera solo su un campione di soggetti e non sull’intera
popolazione. Essi sono: l’errore di copertura (dovuta al fatto che la lista della popolazione da cui si estrae il
campione non è completa vedi es pag 116), l’errore di campionamento (il fatto di condurre la ricerca su
una frazione della popolazione) e l’errore di non risposta (quando i soggetti del campione non possono o
non vogliono rispondere).

Gli errori di osservazione possono essere addebitati a quattro fonti: errori dovuti all’intervistatore, errori
dovuti all’intervistato, errori dovuti allo strumento ed errori dovuti al modo di somministrazione es pag
116.
Gli errori di trattamento dei dati sono errori di codifica, trascrizione, memorizzazione, elaborazione, ecc.
schema degli errori a pag 115..
L’unico errore quantificabile è quello di campionamento, per questo spesso viene riportato come errore
globale della rilevazione. Analizzare le possibilità di errore in questo modo significa adottare
l’approccio dell’”errore globale”, che non è stimabile. L’unico errore misurabile statisticamente è
quello di campionamento, che non è quello più rilevante ed è spesso presentato (erroneamente) nei
risultati finali come indicazione dell’errore complessivo.

Attendibilità e validità
Relativamente alla fase di osservazione, gli psicometrici hanno elaborato due concetti:
l’attendibilità: la procedura con cui si traduce un concetto in variabile deve produrre i
medesimi risultati in prove ripetute (stabilità) o rispetto a strumenti equivalenti (equivalenza).
E’ associata all’errore accidentale; L’attendibilità ha a che fare con la riproducibilità del risultato, e
segnala il grado con il quale una certa procedura di traduzione di un concetto in variabile produce gli stessi
risultati in prove ripetute con lo stesso strumento di rilevazione ( stabilità) oppure con strumenti equivalenti
(equivalenza) vedi esempi pag 117
la validità: capacità di rilevare effettivamente un concetto da parte di una procedura di
traduzione in variabili del concetto stesso. E’associata all’errore sistematico. La validità fa invece
riferimento al grado con il quale una certa procedura di traduzione di un concetto in variabile effettivamente
rileva il concetto che si intende rilevare.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

13

In genere si associa l’attendibilità all’errore accidentale e la validità all’errore sistematico, per questo
l'attendibilità si rileva più facilmente della validità: perchè l'errore accidentale si rileva attraverso repliche di
rilevazione sullo stesso soggetto, mentre per la validità l'errore sistematico si ripresenta ocstantemente e
quindi rende lo stato effettivo della proprietà studiata non conoscibile.

L’attendibilità (nel senso di stabilità nel tempo) può essere verificata attraverso la tecnica del
c.d. test-retest (cioè ripetizione della rilevazione e confronto dei risultati), ma nelle scienze
sociali incontra due difficoltà: la reattività del soggetto ed il mutamento del soggetto (pAG
118). Per determinare l’attendibilità si utilizza il concetto di equivalenza, deve l’attendibilità è misurata
attraverso la correlazione tra due procedure diverse ma molto simili tra loro. Questa tecnica è però utile solo
nel caso in cui la procedura di operativizzazione consiste in una batteria di domande.
L’attendibilità in senso di equivalenza può essere verificata attraverso la tecnica della c.d.
suddivisione a metà (split-half, dove l’attendibilità è data dalla correlazione fra le due metà
dello stesso test, es domande pari e domande dispari) e dalla verifica della coerenza
interna - internal consistency (l’attendibilità del test è stimata attraverso la correlazione
delle risposte a ogni domanda con le risposte a tutte le altre domande). Una procedura simile è
quella delle forme equivalenti (pag 118)
Sono tutte tecniche concepite nella psicometria la cui applicazione nelle scienze sociali è per lo
meno difficile.

La problematica della validità è molto più impegnativa: se alle sue spalle c’è un errore
sistematico, magari annidato nel rapporto di indicazione, risulta molto difficile da rilevare e
rischia di pregiudicare l’intera ricerca. In genere l'errore di validità si colloca nel passaggio da
concetto a indicatore e nasce dall'errore di indicazione di cui più sopra, la validità di un
indicatore infatti non è misurabile.
Per determinare la validità di un indicatore si utilizzano sue procedure di convalida: la validità di
contenuto e la validità per criterio
La validità di contenuto può essere verificata soltanto su un piano puramente logico e indica il
fatto che l’indicatore prescelto per un concetto copre effettivamente l’intero dominio di significato del
concetto;
La validità per criterio si fonda sulla corrispondenza fra l’indicatore ed un criterio esterno
esterno che per qualche motivo si ritiene correlato con il concetto; Questo criterio può essere rappresentato
da un altro indicatore già accettato come valido oppure da un fatto oggettivo e può essere:
- predittiva: consiste nel correlare il dato dell’indicatore con un evento successivo
ad esso connesso;
- concomitante: consiste nel correlare il dato dell’indicatore con un evento che
avviene nello stesso momento temporale;
- per gruppi noti: l’indicatore viene applicato a soggetti dei quali sia nota la
posizione sulla proprietà da rilevare.
Esiste infine anche la validità di costrutto, che consiste nella rispondenza di un indicatore alle
attese teoriche in termini di relazioni con altre variabili.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

14

CAPITOLO 4 – CAUSALITA’ ED ESPERIMENTO - NON E' DA FARE! SALTA

E’ opinione condivisa da molti ricercatori che un rapporto di causazione possa essere affermato
solo a livello teorico; sul piano del riscontro empirico infatti il massimo che si può fare è la
ricerca di elementi di corroborazione dell’ipotesi di relazione fra due variabili. A tale scopo è
necessario poter disporre di elementi empirici su tre aspetti:
1) covariazione fra variabile indipendente e dipendente, cioè si deve poter osservare
una variazione della variabile dipendente al mutare della variabile indipendente;
2) la direzione causale, cioè si deve poter verificare che al variare della variabile
indipendente segue una variazione della variabile dipendente, ma che non è vero il
contrario. Si può determinare attraverso:
- la manipolazione della variabile indipendente da parte del ricercatore;
- la successione temporale: X varia prima di Y, nell’ipotesi che Y = f(X) (cioè la
variabile dipendente Y è funzione della variabile indipendente X);
- esclusione della causazione impossibile per la logica;
3) il controllo delle variabili estranee.
E’ da tenere presente, per non giungere a conclusioni affrettate, che può esistere covariazione
senza causazione. Per controllare empiricamente un’affermazione causale gli scienziati
dispongono di due tecniche:
1) l’analisi della covariazione mediante osservazione della situazione nel suo
naturale svolgimento; l’attenzione dovrà essere rivolta in particolar modo a
scongiurare il pericolo di relazioni spurie mediante il controllo delle variabili di disturbo
e la depurazione statistica dell’influenza delle altre variabili;
2) l’esperimento: il ricercatore in questo caso non si limita ad osservare un fenomeno
nel suo naturale svolgimento, bensì produce e gestisce una “situazione controllata” (da
lui) in cui manipola la variabile indipendente e controlla il disturbo causato dalle altre
variabili in gioco.
Nelle scienze sociali, tuttavia, la maggior parte delle variabili risulta NON manipolabile.

L’esperimento nasce e trova la sua sistemazione più opportuna nelle scienze naturali; per
essere applicato alle scienze sociali richiede opportuni adattamenti.
Se Yt indica il comportamento di una persona soggetta ad un certo stimolo e se Yc indica il
comportamento di una persona non soggetta ad un certo stimolo, per avere l’effetto causale
dello stimolo basterebbe fare Yt(u) – Yc(u), cioè il comportamento rilevato sulla stessa persona
ed allo stesso momento (possiamo pensare, per esempio, che lo stimolo sia la propaganda
elettorale e che Yt(u) sia il comportamento elettorale della persona esposta alla propaganda
mentre Yc(u) sia il comportamento elettorale di quella stessa persona non esposta alla
propaganda). Purtroppo è impossibile fare questa rilevazione, non solo per le scienze sociali
ma anche per quelle naturali: un stesso oggetto non può allo stesso momento essere soggetto
e non essere soggetto ad uno stimolo (si parla di insolubile problema fondamentale
dell’inferenza casuale). A questo problema possono essere date soltanto soluzioni parziali:
1) soluzione scientifica (normalmente inapplicabile nelle scienze sociali), se si può
adottare:
a) l’assunto di invarianza, che a sua volta si basa su:
- la stabilità temporale, per cui Yc può essere sostituito da una rilevazione
precedente di Yc;
- la ininfluenza della rilevazione, per cui Yt non risente della rilevazione di Yc;
pertanto Yc può essere rilevato prima di Yt senza condizionarlo;
b) l’assunto di equivalenza, cioè al posto di u posso considerare l’unità z perché è
equivalente ai fini della rilevazione;
2) soluzione statistica: si formano, mediante un processo di randomizzazione, due gruppi
statisticamente equivalenti (cioè differenti solo per aspetti accidentali, quindi piccoli e
dovuti al caso) che saranno denominati “gruppo sperimentale” e “gruppo di controllo”.
Poi:
Effetto Causale Medio T = E(Yt) – E(Yc), dove con E si intende il valor medio.

Gli esperimenti possono essere classificati:

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

15

- rispetto al contesto in cui si svolgono: esperimenti di laboratorio (situazione


artificiale) e sul campo (in contesti di vita reale);
- rispetto alle procedure seguite: veri esperimenti (caratterizzati
dall’assegnazione random dei soggetti ai gruppi di studio - che può a sua volta
essere fatta per randomizzazione o per accoppiamento di soggetti identici su
caratteristiche ritenute rilevanti se non è possibile effettuare la randomizzazione
- e dalla manipolazione della variabile indipendente) e quasi esperimenti (se
manca l’assegnazione random di cui sopra);

VERI ESPERIMENTI
Descrizione effettuata utilizzando la rappresentazione grafica di Campbell e Stanley.

R = randomizzazione dei soggetti nei gruppi


X = variabile indipendente (stimolo)
Y = variabile dipendente (risposta)

Disegno “solo dopo” a due o più gruppi

X1 Y1
/
R effetto causale = Y2 – Y1
\
X2 Y2

Disegno “prima dopo” a due o più gruppi

Y1 X1 Y2
/
R effetto causale = (Y4 – Y3) – (Y2 – Y1)
\
Y3 X2 Y4

(abbiamo quindi un pre-test ed un post-test; il pre-test rischia di influenzare il post-test)

Disegno di Salomon a quattro gruppi

Y1 X1 Y3
/
Y3 X2 Y4
/
R è un mix dei due disegni precedenti
\
X1 Y5
\
X2 Y6

Disegno Fattoriale (per più di una variabile indipendente)

X1 Z1 Y1
/
X1 Z2 Y2
/
R è un mix dei due disegni precedenti
\
X2 Z1 Y3

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

16

\
X2 Z2 Y4

QUASI ESPERIMENTI
Sparisce la randomizzazione (che peraltro non è sempre praticabile). E’ una grave
menomazione della logica sperimentale perché il ricercatore non potrà mai essere certo del
fatto che le differenze rilevate sui gruppi siano da imputare alla non equivalenza iniziale o
all’effetto dello stimolo.

Disegno “prima-dopo” ad un solo gruppo

Y1 X Y2 effetto rilevato = Y2 – Y1

(si applica, evidentemente, l’assunto dell’invarianza)

Disegno a serie temporale interrotta

Y1 Y2 Y3 X Y4 Y5 Y6

Disegno “prima-dopo” a 2 gruppi senza assegnazione casuale

Y1 X1 Y2
--------------- effetto rilevato = (Y4 – Y3) – (Y2 – Y1)
Y3 X2 Y4

Vantaggi degli esperimenti :


1) consentono la ricerca di relazione causali;
2) consentono di isolare fenomeni che in natura non possono essere studiati a causa di
fattori che confondono e distorcono;
Svantaggi degli esperimenti:
1) l’artificialità dell’ambiente;
2) la reattività del soggetto (effetto sperimentatore: le aspettative del ricercatore si
trasferiscono inconsapevolmente sui soggetti sperimentali influenzandone il
comportamento);
3) la non rappresentatività, causata dall’ampiezza del campione e dal criterio di selezione
applicato.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

17

CAPITOLO 5 – L’INCHIESTA CAMPIONARIA PARTE PRIMA

E’ una rilevazione di informazioni relative ad un certo fenomeno:


- mediante interrogazione (solitamente in forma orale, faccia a faccia o
telefoniche, oppure compilando schede informative);
- rivolta direttamente agli individui oggetto della ricerca; se l'intervista
fosse fatta per es a una categoria di persone che conosce l'universo indagato ma
non le persone oggetto della ricerca - per es ricerca sulle carceri condotta non
intervistando i carcerati ma le guardie, assistenti sociali o i direttori - non
sarebbe indagine campionaria
- facenti parte di un campione statisticamente rappresentativo della
popolazione, esigenza che nasce dall'impossibilità di consultare l'intera
popolazione, campione creato con criteri ben precisi vedi cap 8, e di consistenti
dimensioni;
- effettuata mediante una procedura standardizzata di interrogazione ( cioè
vengono poste le stesse domande con la stessa formulazione in modo da poter
confrontare le risposte date dai vari soggetti e analizzarle con gli strumenti della
statistica); a questo scopo di studio tramite la statistica anche le risposte devono
essere standardizzate, cioè organizzate sulla base di uno schema di
classificazione comune a tutti i soggetti, il che significa produrre la matrice dei
dati, base di ogni successiva elaborazione. Per es. nella matrice
casiixvariabili (CxV) in riga abbiamo i casi e in colonna le variabili e in ogni cella
un dato, cioè il valore assunto da una particolare variabile su un particolare
caso. es. matrice di 200 righe e 350 colonne presuppone 200 casi su cui si siano
rilevate le stesse 50 variabili - un individuoper ogni riga, una variabile per ogni
colonna della matrice
- allo scopo di studiare le relazioni esistenti tra le variabili. Questa
affermazione rappresenta il discrimine tra inchiesta campionaria e sondaggio. Il
sondagio è un'indagine altamente esplorativa volta ad accertare l'esistenza e la
consistenza di un fenomeno. Nell'inchiesta campionaria il ricercatore in più si
interroga sulle origini di un fenomeno, sulle interrelazioni con altri fenomeni
sociali ecc. Quindi non solo esplora e descrive ma controlla empiricamente delle
ipotesi. Es un sondaggio sul comportamento elettorale sonderà gli orientamenti
di voto della popolazione studiata mentre l'indagine campionaria vorra capire i
moivi delle scelte, i motivi degli spostamenti dalle precedenti elezioni, l'influenza
di fattori generazionali, religiosi, di classe ecc

Bisogna distinguere dunque:


- il sondaggio, che mira ad accertare l’esistenza e la consistenza di un fenomeno
(indagine puramente esplorativa);
- l’inchiesta campionaria, che mira a determinare le ragioni di un fenomeno, le
origini, le connessioni, ecc.; non si limita ad esplorare bensì tende a controllare
empiricamente le ipotesi. Prevede maggiore ampiezza di temi toccati, una
diversa impostazione teorica e impostazione della stessa rilevazione dei dati,
maggiore approfondimento dello studio dei dati raccolti - correlazioni tra
variabili, modelli causali, tecniche di analisi multivariata ecc

Pagg 161-1620Chiariamo anche la differenza tra indagine campionaria e


intervista qualitativa.
QUESTIONARIO: prevede domande e riposte standardizzate
INTERVISTA STRUTTURATA: domande standardizzate, risposte libere
INTERVISTA LIBERA: nè domanda nè risposta sono standardizzate.

Inchiesta campionaria corrisponde all'inglese SURVEY (condotta tramite


questionario), mentre sondaggio è poll; è la procedura di rilevazione pi diffusa e
più nota della ricerca sociologica.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

18

L’inchiesta campionaria ha origini antiche: venne applicata già da Marx e Weber. Il vero salto
di qualità si è avuto con l’affermarsi delle tecniche statistiche di campionamento e del concetto
di RAPPRESENTATIVITA'. Un ulteriore e rapido sviluppo si è avuto con la diffusione dei
Personal Computer (CON CUI PROCESSARE ampie masse di dati raccolti) e del telefono che ha
fatto abbassare i costi delle interviste dirette. Internet, infine ha aperto la strada anche alle
interviste telematiche, ancora meno costose.

A seconda del grado di libertà previsto per le domande e per le risposte di una interrogazione
si ha:
- un questionario, se sia le domande che le risposte sono standardizzate;
- un’intervista strutturata, quando la domanda è standardizzata e la risposta è
libera;
- un’intervista libera, se la domanda e la risposta sono libere.
I problemi di fondo relativi alla rilevazione tramite interrogazione sono riconducibili alla
contrapposizione fra l’approccio “positivista” e quello “interpretativo”. In particolare due
dilemmi sono rilevanti:
1) contrapposizione tra:
- posizione oggettivista: il dato sociale può essere rilevato oggettivamente;
- posizione costruttivista: il dato sociale deve essere costruito attraverso
l’interazione fra ricercatore e soggetto studiato;
2) contrapposizione tra:
- posizione uniformista: per la quale esistono delle regolarità nei fenomeni e nei
comportamenti;
- posizione individualista: per la quale esistono ineliminabili differenze
interindividuali.
L’inchiesta campionaria si colloca in una prospettiva:
- oggettivista: il rapporto intervistato-intervistatore deve essere impersonale al
massimo; la preoccupazione è quella di non alterare lo stato dell’oggetto
studiato;
- uniformista: infatti lo strumento di rilevazione è standardizzato.
Critiche a questa prospettiva:
1) un ruolo totalmente neutrale per l’intervistatore non è pensabile;
2) l’intervistato vuole fare bella figura nell’intervista, anche a costo di mentire,
3) il questionario standardizzato tratta i soggetti come se fossero tutti uguali.

La standardizzazione ovvero l’invarianza dello stimolo


I problemi che si pongono nella rilevazione tramite interrogazione si possono ricondurre ai due paradigmi
fondamentali della ricerca sociale: approccio positivista (neo- e post-) e approccio interpretativo o del
Verstehen.
In particolare, si contrappongono coloro che ritengono che la realtà sociale sia esterna all’individuo e
pienamente conoscibile (posizione oggettivista) e coloro che sostengono che il dato sociale viene generato
dall’interazione tra i soggetti studiante e studiato (posizione costruttivista). Qui dunque diventa centrale il
rapporto tra intervistatore e intervistato, dove si contrappone la rilevazione asettica e spersonalizzata a
quella empatica studioso-studiato. (vedi pagg 165-166). l’approccio oggettivista ritiene che il rapporto tra
intervistatore e intervistato debba essere il più possibile spersonalizzato per non alterare lo stato dell’oggetto
studiato. Tuttavia non è possibile instaurare un rapporto neutro tra intervistato e intervistatore, esiste
sempre un certo grado di interazione.

In secondo luogo, esiste una diatriba tra chi ritiene che esistano uniformità empiriche nei fenomeni sociali,
che quindi possono esser misurati classificati e standardizzati (posizione uniformista) e chi sottolinea la
fondamentale irriducibilità del soggetto umano a qualsiasi forma di generalizzazione e standardizzazione
(posizione individualista): cioè ogni caso, ogni azione sociale è un evento unico. Questa questione riguarda
la standardizzazione dello strumento di informazione e dell’informazione rilevata. l’approccio uniformista
prevede l’uniformità dello strumento della rilevazione-interrogazione (questionario con domande e risposte
prefissate). I limiti di questo approccio e del questionario sono due: non tiene conto della disuguaglianza
sociale e uniforma l’individuo al livello dell’uomo medio. Inoltre lascia fuori la periferia sociale (vecchi,
clandestini, vagabondi, analfabeti ecc).

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

19

L’obiettivo della posizione oggettivista-uniformista è quindi quello di ottenere la neutralità dello strumento di
rilevazione, cioè ottenere l’invarianza dello stimolo. Ma non è sicuro che all’invarianza dello stimolo
corrisponda l’uniformità dei significati, infatti una stessa domanda o parola possono avere diversi significati
per lo stesso individuo, sia per motivi culturali che per le circostanze stesse in cui si svolge l’intervista.
A questo punto il ricercatore deve scegliere se appoggiarsi ad una tecnica che massimizza la ricerca di
uniformità (questionario) e una che predilige l’individualità del soggetto studiato (intervista strutturata). Se si
sceglie il questionario, bisogna essere consapevoli che studiando solo le uniformità del comportamento delle
persone (ciò che esse hanno in comune) si limita inevitabilmente la piena comprensione dei fatti sociali. Si
sceglie di lavorare sui grandi numeri in superficie piuttosto che in profondità sui piccoli numeri.

L’affidabilità del comportamento verbale


Molti scienziati sociali hanno espresso dubbi sulla possibilità che la realtà sociale possa essere compresa
attraverso i resoconti verbali. Le risposte alle domande (standardizzate) degli intervistatori possono non
essere attendibili per due motivi: la desiderabilità sociale delle risposte e la mancanza di opinioni.
La desiderabilità sociale è la valutazione, socialmente condivisa, che in una certa cultura viene data ad un
certo atteggiamento o comportamento individuale. Se uno di questi è valutato positivamente o
negativamente, una domanda che abbia questo come oggetto può dare risposte distorte, perché
l’intervistato può essere riluttante a rivelare opinioni o comportamenti che ritiene indesiderabili e può essere
tentato di dare di sé la migliore immagine possibile, anche se non veritiera, in modo volontario o anche
involontario. Opinioni ufficiali spesso sono diverse dalle opinioni personali.(pag 169 170). Vedi anche la
cosiddetta menzogna inconscia: inconscia propoensione a negare l'evidenza dei fatti quando questi non
coincidono con le nostre credenze di fondo
La mancanza di opinioni concerne domande su tematiche complesse, sulle quali è plausibile che un certo
numero di intervistati non abbia mai riflettuto, e quindi molti rispondono a caso oppure formulano sul
momento un’opinione che può essere solo passeggera. Questo fenomeno è accentuato anche dal fatto che
spesso la risposta “non so” viene percepita come un’ammissione di incapacità mentale.
Un altro problema delle domande standardizzate è che esse misurano l’opinione, ma non la sua intensità né
il suo radicamento. La tecnica del questionario non è in grado di distinguere le opinioni intense e stabili da
quelle deboli e volubili

Sostanza e forma delle domande


Formulare un buon questionario è impresa per niente facile; occorrono:
1) l’esperienza del ricercatore (o, in alternativa, la attenta consultazione del lavoro di
altri);
2) la conoscenza della popolazione a cui viene somministrato;
3) la chiarezza delle ipotesi di ricerca

Dati sociografici, atteggiamenti e comportamenti


Le domande di un questionario possono essere riconducibili alla tripartizione tra proprietà sociografiche di
base, atteggiamenti e comportamenti.
Domande relative alle proprietà sociografiche di base: riguardano le caratteristiche sociali di base di un
individuo (genere, età, luogo di nascita), quelle ereditate dalla famiglia (classe sociale di origine, titolo di
studio), quelle temporanee (professione, stato civile, comune di residenza). Queste domande seguono delle
formulazioni standard a cui conviene uniformarsi.
Domande relative agli atteggiamenti (opinioni, motivazioni, sentimenti, giudizi, valor): interrogare
direttamente gli individui è l’unica via per ottenere queste informazioni, ma questo è anche il campo più
difficile da esplorare, e le risposte sono influenzate dal modo in cui sono poste le domande e dal fatto che si
riferiscano a una esperienza diretta piuttosto che a una opinione (es è più facile chiedere se uno ha votato a
un referendum sull'aborto piuttosto che chiedere se sia favorevole o no). Le opinioni come già detto variano
nel tempo e nell'intensità.
Domande relative ai comportamenti, che rilevano quello che il soggetto dice di fare o di aver fatto. Questo è
un aspetto più facile da indagare rispetto agli altri. I comportamenti sono inequivoci (un'azione o c'è stata o
n) e sono empiricamente osservabili. Le domande possono essere fattuali (riguradano fatti) o motivaizoniali
(riguardano opinioni, atteggiamenti, motivazioni)

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

20

Domande aperte e domande chiuse


Di fondamentale importanza è la decisione da parte del ricercatore di ricorrere a domande
aperte o chiuse. sI TRATTA di decidere se standardizzare la domanda e a priori anche la
risposta.

176 - Le domande aperte sono quelle in cui si lascia piena libertà all’intervistato nella formulazione della
risposta;
si rivolgono di solito ad un campione ridotto. Il vantaggio della domanda aperta è quello di concedere una
maggiore libertà di espressione e spontaneità, ma la risposta deve essere trascritta per intero. Lo svantaggio
consiste nel fatto che la risposta è difficile da classificare successivamente in categorie predeterminate. Si
rende necessaria una postcodifica per permettere i confronti e le analisi
Questo crea dei problemi di codifica, perché le risposte possono essere generiche o imprecise. Solo un buon
intervistatore può sollecitare a precisare meglio il significato delle risposte, ma questo comporta un maggiore
impegno dell’intervistato e quindi un maggior rischio di rifiuti, senza contare l’aggravio dei costi.

I problemi da considerare sono:


- la standardizzazione della rilevazione;
- pre-codifica o post-codifica delle risposte;
- la riconduzione della risposta ad una domanda aperta in un determinato quadro
di riferimento necessita della sensibilità di un bravo intervistatore;
- la domanda aperta è improponibile quando il campione è molto numeroso.

177 e seguenti -Le domande chiuse offrono la possibilità di scegliere tra risposte prefissate, quindi la
risposta sarà standard.
Sono il solo tipo di domande che si possono utilizzare con un campione di grandi dimensioni. I vantaggi delle
domande chiuse consistono nella maggiore facilità di codifica, nello stimolo dell’analisi e della riflessione e
nella maggiore economicità (in un campione ampio). La domande sono poste a tutti con lo stesso schema di
risposte e chiariscono all’intervistato qual è il piano di riferimento della ricerca, evitando così risposte vaghe.
Gli svantaggi sono il rischio di non considerare tutte le altre possibili alternative di risposta non previste e di
influenzare la risposta con le alternative proposte. A volte l’intervistato sceglie una delle alternative anche se
non è convinto. Le risposte, inoltre, non hanno significato uguale per tutti, e tutte le alternative possono
essere troppe per essere ricordate.
-
I vantaggi delle domande chiuse sono:
1) offrono a tutti gli intervistati lo stesso quadro di riferimento;
2) facilitano il ricordo;
3) stimolano l’analisi.
Gli svantaggi delle domande chiuse sono:
1) per evitare una sorta di “chiusura prematura dell’orizzonte teorico”, il ricercatore deve
essere abile a prevedere tutte le possibili risposte (escamotage della voce “altro”);
2) le alternative di risposta proposte possono suggerire una risposta anche a chi non ha
un’opinione sul tema;
3) le risposte offerte possono essere intese con significato diverso dagli intervistatori.

Formulazione delle domande

La formulazione delle domande è importantissima perché può influenzare pesantemente la risposta; bisogna
quindi porre molta attenzione al linguaggio, alla sintassi e al contenuto stesso delle domande.
Semplicità di linguaggio: il linguaggio del questionario deve essere adatto alle caratteristiche del campione
studiato, il questionario autocompilato deve essere più semplice rispetto a quello con intervistatore e in ogni
caso non bisogna far conto sulle sue spiegazioni, perché di solito gli intervistati si vergognano di ammettere
di non capire le domande.
Lunghezza delle domande: di solito le domande devono essere concise, ma nel caso di tematiche
complesse sono preferibili le domande lunghe perché facilitano il ricordo, danno più tempo per pensare e
agevolano una risposta più articolata.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

21

Numero delle alternative di risposta: non devono essere troppo numerose; se presentate a voce non
devono superare il numero di cinque. altrimenti, se il questionario è somministrato oralmente,
usare un cartoncino scritto con le alternative di risposta per facilitare il ricordo delle stesse da
parte dell’intervistato;
 da evitare: Espressioni in gergo: è preferibile non utilizzare espressioni gergali perché potrebbero
irritare l’intervistato.
 Definizioni ambigue: occorre fare molta attenzione a non utilizzare termini dal significato non ben
definito.
 Parole dal forte connotato negativo : è bene evitare anche i termini carichi di significato emotivo,
soprattutto se questo è negativo.
 Domande sintatticamente complesse: la domanda deve avere una sintassi chiara e semplice,
evitando ad esempio la doppia negazione.
 Domande con risposta non univoca: bisogna evitare le domande esplicitamente multiple (domande
in cui ne sia inclusa un’altra) e quelle dalla problematica non sufficientemente articolata.
 Domande non discriminanti: le domande devono esser costruite in modo tale da operare delle
discriminazioni significative nel campione degli intervistati. che non discriminano gli intervistati
(ad esempio il 90% di risposte uguali da parte degli intervistati non è molto significativo
per il ricercatore),
 Domande tendenziose (viziate o a risposta pilotata): è necessario presentare le domande in modo
 equilibrato, senza orientare l’intervistato verso una possibile risposta.
 Comportamenti presunti: è indispensabile evitare di dare per scontati comportamenti che non lo
sono. in cui è dato scontato un certo comportamento che di fatto non lo è (il rischio della
profezia che si auto-adempie);per esempio chiedere per chi hanno votato senza prima
chiedere se sono andati a votare. Domande filtro selezionano un intervistato prima di
porre una domanda che non riguarda tutti, e domande condizionate sono quelle sono
quelle poste se alla domanda filtro si è risposto ad un certo modo. senza questi filtri
potrebbe succedere che l'intervistato dia una risposta anche a una domanda che non lo
riguarda (risposta a caso in base alla desiderabilità sociale)

Focalizzazione nel tempo: occorre sempre definire con precisione l’arco temporale al quale si riferisce la
domanda. Facilita il ricordo e rende più difficile la sovrapposizione del comportamento ideale a quello reale
Concretezza – astrazione: la domanda astratta può dare facilmente luogo a risposte generiche o normative,
mentre la domanda concreta facilita la riflessione e rende più difficile il fraintendimento.
Comportamenti e atteggiamenti: data la difficoltà di determinare gli atteggiamenti (sfumati,ambigui,
esposti a risposte normative - es lei legge libri?), è buona regola, quando possibile, limitarsi ai
comportamenti (quanti libri legge in un anno?) piuttosto che restare nell’ambito dell’opinione.
Desiderabilità sociale delle risposte: per evitare risposte normative bisogna formulare domande il più
possibile concrete. Altre indicazioni sono quelle di giustificare anche la risposta meno accettabile; considerare
normale e diffuso anche il comportamento negativo (es a tutti capita nella vita di sentirsi depresso e di
desiderare la morte..."); equilibrare la desiderabilità delle risposte (“Alcuni dicono che… altri pensano
che…”); attribuire all’intervistato il comportamento condannato, lasciandogli il compito dell’eventuale
smentita (dai manuali , iperbole: "quante volte ha picchiato sua moglie questa settimana?"); formulare le
domande in terza persona; e così via. In ogni caso è impossibile eliminare del tutto gli effetti della
desiderabilità sociale.
per quanto riguarda la desiderabilità sociale delle risposte: formulare la domanda in modo da
rendere accettabile ed ugualmente legittima anche la risposta meno desiderabile; considerare
normale il comportamento negativo o addirittura attribuirlo all’intervistato e vedere se
smentisce; formulare la domanda in terza persona (esempio: “Molti giovani oggi sono dediti
alla droga. Secondo te perché?”);

Domande imbarazzanti: andrebbero studiate attraverso domande aperte e con interviste non-strutturate,
con le quali si può conquistare la fiducia degli intervistati. Altra soluzione, far compilare quella parte di
questionario tramite busta chiusa
Mancanza di opinione e non so: bisogna far presente all’intervistato che “non so” è una risposta legittima
come le altre, per esempio includendola espressamente tra le alternative possibili. Bisogna inoltre evitare di
indirizzarlo, anche in maniera indiretta o inconsapevole. fronteggiare il problema dello “yea-saying”
(risposte affermative) e del “response set” (risposte tutte uguali) alternando la “polarità” delle
risposte

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

22

Intensità degli atteggiamenti: è importante cogliere anche l’intensità degli atteggiamenti, perché è
quest’ultima che determina i comportamenti. Negli USA risulta dai sondaggi che i 3 quarti della popolazione è
favorevole a un controllo delle armi, ma la legge non riesce a passare, si ritiene che la minoranza contraria al
controllo sia più agguerrita e attiva della maggioranza favorevole. La rilevazione dell’intensità degli
atteggiamenti necessita di solito di domante ulteriori 8cosa che incide su costi e tempi, pertanto spesso la
misurazione dell'intensità viene tenuta da parte). vedi pag 188

DISTORSIONE SISTEMATICA DELLE RISPOSTE: Acquiescenza: si riferisce alla tendenza di scegliere


risposte che esprimono accordo piuttosto che negative(yeasaying), spesso fatto per deferenza delle persone
con basso status sociale verso gli intervistatori
Un problema simile è quello dell’uniformità delle risposte (response set), quando si tende a scegliere la
stessa risposta per una serie di domande che contemplano lo stesso tipo di alternativa.

Effetto memoria: per ovviare alla inevitabile distorsione causata dalla memoria si possono stabilire limiti
temporali al ricordo (negli ultimi 12 mesi ha fatto...); utilizzare punti di riferimento temporali relativi ad
eventi più salienti rispetto a quello studiato; presentare all’intervistato liste di possibili risposte; utilizzare
diari o strumenti analoghi; ecc. tenere di conto dell’effetto memoria, stabilendo limiti temporali al
ricordo ed ancorando la domanda nel tempo ad eventi molto importanti per l’intervistato
(esempio: la nascita di un figlio, ha i comprato casa prima o dopo la nascita del figlio);

- Sequenza delle domande: prima di tutto cercare di mettere l'intervistato a suo agio, e poi
spiegargli rapidamente il meccanismo dell'intervista; nel disporre le domande all’interno
del questionario occorre considerare: che la durata massima deve essere di 45
minuti (25 se l’intervista è telefonica); la iniziale diffidenza dell’intervistato
(quindi le domande iniziali dovranno essere semplici per poi passare a quelle più
complesse ed infine a quelle più “intime”); l’attenzione dell’intervistato che dal
basso sale e poi ridiscende come in una curva “normale” (“a campana”);
disporre le domande in sequenza logica, dalle generali alle particolari; è meglio
mettere all’inizio domande facili, che abbiano lo scopo di rassicurare l’intervistato e di
metterlo a proprio agio. Le domande imbarazzanti si posizioneranno quindi a metà
questionario, in modo che l’intervistatore abbia avuto un po’ di tempo per conquistare la
fiducia dell’intervistato. Anche le domande impegnative dovranno essere collocate a metà
dell’intervista, in modo tale da assecondare la curva di interesse dell’intervistato. Alla fine si
potranno porre le domande più noiose ma che non richiedono riflessione come quelle
sociometriche. Attenzione alla stanchezza dell'intervistato, lasciare in fondo all'intervista le
domande che non richiedono riflessione.
- Nella sequenza delle domande tenere uno schema a imbuto, da domande geenralia
particoalri
È bene seguire anche il passaggio da domande generali a domande particolari, stringendo progressivamente
sugli aspetti più specifici.
Bisogna tenere conto infine dell’effetto contaminazione, cioè del fatto che in certi casi la risposta ad una
domanda può essere influenzata dalle domande che l’hanno preceduta.

Sarebbe buona norma, nella pubblicazione dei risultati della ricerca, citare anche la fedele
formulazione delle domande.vedi pag 193

Batterie di domande
Le batterie di domande sono domande che essendo, tutte formulate nello stesso modo (stessa domanda
introduttiva e stesse alternative di risposta, varia solo l’oggetto al quale si riferiscono), vengono presentate
all’intervistato in un unico blocco. Le batterie di domande hanno gli obiettivi di risparmiare spazio sul
questionario e tempo dell’intervista, facilitare la comprensione del meccanismo di risposta, migliorare la
validità della risposta e permettere al ricercatore di costruire indici sintetici che riassumono in un unico
punteggio le diverse domande della batteria. Gli svantaggi delle batterie di domande consistono nel pericolo
che le riposte siano date a caso e che le risposte siano meccanicamente tutte uguali tra di loro.
Esempio:

Indichi se negli ultimi giorni ha sofferto sei seguenti disturbi:

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

23

- impiego più tempo del solito ad addormentarmi SI NO


- sono spaventato e prossimo al panico SI NO
- ho problemi di digestione SI NO
ecc.

Vantaggi delle batterie di domande:


1) risparmio di spazio (sul foglio del questionario) e di tempo (nella somministrazione);
2) migliora la validità delle risposte perché l’intervistato tiene implicitamente conto delle
risposte precedenti;
3) agevola la costruzione di indici sintetici per il ricercatore.
Svantaggi (originati dal ritmo incalzante dell’intervista):
1) pericolo di “response set” (risposte meccanicamente tutte uguali);
2) pericolo di risposte date a caso.
Le domande di una batteria possono essere formulate in termini assoluti (cioè le risposte sono
entità auto-sufficienti) o in termini relativi (la risposta da dare alla domanda dipende anche da
quella data alle altre).
Uso particolare delle batterie di domande è la tecnica delle scale, tipicamente utilizzata per
la misura degli atteggiamenti, dove si condensano le risposte in un unico punteggio atto a
operativizzare quel particolare atteggiamento in esame

Esempio:

Quali aspetti del suo lavoro ritiene più importanti?


Autonomia Molto Abbastanza Poco Per niente Non saprei
Responsabilità Molto Abbastanza Poco Per niente Non saprei
Retribuzione Molto Abbastanza Poco Per niente Non saprei
Ecc.

QUI LEGGI PAGINE 197-198-199-200 sull'organizzazione della rilevazione

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

24

CAPITOLO 6 L'INCHIESTA CAMPIONARIA OK INTEGRATO-


Modalità di rilevazione
Le principali modalità di rilevazione sono: l’intervista “faccia a faccia”, l’intervista
telefonica e il questionario “auto-compilato” + oggi il questionario telematico (in
ordine di diffusione e successiva sostituzione). Non sono modalità di rilevazione equivalenti,
perchè generano dati di qualità differente, così come quantità e costi di rilevazione. 201-202

INTERVISTA FACCIA A FACCIA

La rivoluzione informatica ha modificato questo tipo di indagine, sostituendo la registrazione carta


e penna con un personal computer su cui l'intervistatore legge le domande e registra le risposte. Un
grosso vantaggio è che il pc gestisce lo svolgimento dell'intervista (per es nelle domande a imbuto o
condizionate passa automaticamente alla domanda necessaria) e segnala incongruenze palesi. Così
si tagliano step intermedi fra rilevazione ed elaborazione. Ma in ogni caso non cambia il
meccanismo base di interazione tra intervistatore e intervistato, dove l'intervistatore è figura
centrale.
Nel caso che stiamo trattando, vale a dire quello dell’intervista con questionario standardizzato (approccio
oggettivista dell'intervistatore), tipicamente con circa un migliaio di interviste, e alcune decine di
intervistatori - e quindi ricercatore e intervistatore non coincidono - l’obiettivo è quello di limitare l’effetto
dell’intervistatore, standardizzandone il comportamento e limitandone i margini di discrezionalità attraverso
una fase di addestramento. In altre parole, l’intervistatore deve inibirsi qualsiasi comportamento
che può influenzare l’intervistato; per questo motivo gli intervistatori devono presentare alcuni tratti
particolari per raggiungere questo scopo.

Solitamente comporta la somministrazione del questionario ad un cospicuo numero di soggetti,


per cui l’impiego di un gruppo di intervistatori (debitamente informati ed istruiti dal
ricercatore) è pressoché indispensabile. Il ruolo dell’intervistatore è centrale. Lo scopo è quello
di limitare al massimo l’effetto dell'intervistatore, cercando di standardizzarne il
comportamento e limitarne la discrezionalità attraverso una fase di addestramento
(l’intervistatore NON deve incidere sui risultati dell’intervista). Per raggiungere questi obbiettivi
alcuni manuali suggeriscono di prestare attenzione ad alcuni aspetti relativi proprio
all’intervistatore:
- caratteristiche: intervistatore ideale è donna, sposata, di mezza età, di istruzione
media, diplomata o casalinga, atta ad un lavoro come quello di intervistatrice di
tipo part-time, discontinuo, modestamente retribuito, senza aspirazioni di
carriera. Relativamente ad aspetto esteriore ed abbigliamento si raccomanda un
look neutrale, non vistoso né eccentrico;
- aspettative: gli intervistatori devono essere consapevoli del fatto che le loro
aspettative, trasmesse in modo anche inconscio tramite il tono della voce,
l’enfasi o le espressioni facciali, possono influire negativamente ed in maniera
indesiderata sull’intervistato; es intervistatore con valori e credenze conformiste
tendono a interpretare le risposte ambigue in maniera coerente con le lo stesse
opinioni, se ritiene che una domanda sia difficile, otterrà probabilmente un alto
tasso di NON SO
- preparazione: sono necessari incontri preliminari di formazione ed incontri
intermedi (durante la rilevazione) di controllo delle modalità di svolgimento del
lavoro;
- motivazione: devono essere adeguatamente motivati, mettendoli a conoscenza
dei fini e dell’importanza del loro lavoro.

QUESTIONARI AUTOCOMPILATI
Il vantaggio principale è il risparmio nei costi di rilevazione. Limite: possibilità che la
qualità dei dati raccolti sia scarsa. quindi i questionari devono essere brevi e concisi.
Inoltre il campione che solitamente aderisce a questi questionari (per es all'uscita di
una mostra) è formato da persone più motivate, istruite, o più giovani ecc.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

25

L'autocompilazione può avvenire tramite rilevazioni di gruppo )es questionario


somministrato a una classe, in questo caso un addetto può essere presente per
chiarimenti e tutto il gruppo viene censito senza eccezioni), oppure rilevazione
indivisuale, con o senza vincoli. Restituzione vincolata è per es il censimento (il
questionario si restituisce tempo dopo e viene sommariamente controllato, o addirittura
ripassa l'intervistatore a ritirarlo). Restituzione senza vincoli è quello del questionario
postale, che a fronte di bassi costi, presenza di anonimato e assenza di distorsioni
dell'intervistatore presenta una bassa % di risposte, distorsione del campione che
risponde, di solito risponde chi ha livello di istruzione più alto...Il tasso di riuscita
dipende dall'istituzione che patrocina l'indagine (censimento ISTAT avrà più ritorno di
Pinco Pallino Ricerche), dalla lunghezza del quesitonario, dalle caratteristiche degli
intervistati, dal tipo di sollecito (di solito almeno uno o due solleciti)

Interviste telefoniche
L’intervista telefonica (che a partire dagli anni 90 aveva quasi completametne sostituito la tecnica del faccia
a faccia) presenta numerosi vantaggi: permette una grande velocità di rilevazione; ha costi ridotti; presenta
minori resistenze alla concessione dell’intervista e maggiore garanzia di anonimato; permette di raggiungere
a parità di costo anche gli intervistati della periferia del paese; facilita enormemente il lavoro di preparazione
degli intervistatori e la loro supervisione; consente di utilizzare direttamente il computer in fase di
rilevazione.
I suoi svantaggi sono: il minore coinvolgimento dell’intervistato che porta a una maggiore incidenza di
risposte superficiali; il più rapido logoramento del rapporto con l’intervistato; l’impossibilità di utilizzare
materiale visivo; l’impossibilità di raccogliere dati non verbali come accade nel faccia a faccia; l’impossibilità
di raggiungere tutti gli strati sociali; il fatto che anziani e persone poco istruite risultano sottorappresentate;
il fatto che le domande sono spesso elementari a causa della ristrettezza del tempo a disposizione. I limiti
più gravi sono comunque l’assenza di contatto e la mancanza di tempo, che non rendono adatta l’intervista
telefonica quando si vogliono analizzare tematiche complesse.
Oggi moltissime linee telefoniche fisse sono state chiuse a favore dei telefoni cellulari quindi questo taglia via
una fetta importante della possibile popolazione raggiungibile. Poi tramite il registro delle opposizioni si
possono rifiutare le telefonate commerciali (entrando in un elenmco che le società di sondaggi devono
rispettare). Consideriamo anche il fattore insofferenza verso questo tipo di contatto, che ha prodotto un
tasso di non risposta fino al 90%

INTERVISTE TELEFONICHE
Vantaggi:
1) rapidità di rilevazione e costi ridotti;
2) minori resistenze dell’intervistato;
3) facilita la preparazione e la supervisione degli intervistatori (pensiamo ad un call-center
dove sono concentrati tutti gli intervistatori telefonici);
4) consente il C.A.T.I. (Computer Assisted Telephone Interviewing), ma anche l’intervista
faccia a faccia consente il C.A.P.I. (Computer Assisted Personal Interviewing) (l’altra
modalità di utilizzo dei P.C. è la tele-intervista, con l’intervistato collocato direttamente
davanti al monitor);
Svantaggi:
1) sono più probabili le risposte a caso o superficiali;
2) l’intervista deve durare al massimo 20-25 minuti;
3) non può essere utilizzato materiale “ausiliario” di tipo visivo;
4) non sono rilevabili dati non verbali;
5) non tutti hanno il telefono: quindi si ha una sorta di campione auto-selezionato;
6) anziani e persone sotto istruite che si sottraggono all’intervista (magari passando la
telefonata a qualche altro convivente) e dunque risultano sotto rappresentati;
7) il tempo a disposizione ridotto costringe ad una semplificazione delle domande.

QUESTIONARI TELEMATICI
INCHIESTE VIA WEB (WEB SURVEYS): le email surveys sono inviate via email, con le web
surveys si accede a un sito web e compila il questionario online - le risposte vengono
direttamente scaricate in un dataset, senza la mediazione di una codifica che prenderebbe
tempo e potrebbe comportare errori. Quindi molto efficace a patto che il campione considerato

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

26

sia dotato di connessione alla rete. Si utilizzano anche tecniche miste (per es lettera inviata per
posta dove si invita a compilare questionario online, chi non risponde viene contattato per
telefono e infine intervistato a domicilio (le interviste pù costose, quelle faccia a faccia, sono
numericamente molto ridotte).

PANEL ONLINE: è ancora molto difficile costruire un campione rappresentativo di tutta la


popolazione basandosi solo su persone che hanno accesso a internet. Il panel online è un
grippo di persone che accetta di partecipare tramite internet a inchieste telematiche per un
certo periodo di tempo.. Quindi gruppo stabile di persone, ripetutamente interpellate via
internet, su temi di vario genere. Come si reclutano queste persone, al fine di rendere il
campione rappresentativo? Due situazioni: campione probabilistico e non.
Col campione non probabilistico si aderisce in modo volontario (magari vedendo un banner su
un sito), annunci sui social networks ecc. Qui non c'è garanzia di causalità e quindi di
rappresentatività del campione: cioè non c'è base scientifica per giustificare la generalizzazione
di quanto emerso dal campione alla popolazione di riferimento. Il campione avrà due
distorsioni: riflette le stesse diversità rispetto alla popolazone degli utenti di internet (giovani,
istruzione superiore ecc), distorsione che si rimedia con un processo di ponderazione. POi i
volontaro della ricerca sociale sono una specie particolare (vedi es pag 215), che creano
distorsioni non controllabili sulle variabili oggetto dello studio.
Campione probabilistico è formato da lista di perosne scelte indipendentemente dalla volontà e
dimestichezza con internet, per es sulla base delle liste elettorali diun certo numero di comuni
a loro volta selezionati mediante campionamento probabilistico - trattasi di campionamento a
stadi.
Poichè costruire un serio e affidabile panel online è impresa ocstosa e impegnativa, così come
mantenerlo, al momento viene utilizzato solo da grnadi organizzazioni. Nel campo del
marketing sono una realtà importantissima.

INCHIESTE DIACRONICHE (lo studio del cambiamento nel tempo)


Gli studi diacronici sono quelli protratti nel tempo, in contrapposizione a quelli diacronici.
Per studiare il cambiamento sociale si dispone di due strade: replicare nel tempo la stessa
ricerca, oppure rilevare ripetutamente le stesse informazioni sugli stessi soggetti. Nel primo
caso i soggetti cambiano, nel secondo no.. I primi sono gli studi TRASVERSALI (cross sectional)
che danno luogo alle inchieste trasversali replicate, i secondi sono i longitudinali (longitudinal)
che danno luogo alle inchieste longitudinali.

INCHIESTE TRASVERSALI REPLICATE: es come cambia la religiosità degli italiani negli ultimi
vent'anni rifacciamo oggi la stessa rilevazione di vent'anni fa con la stessa popolazione di r
riferimento (es giovani tra i 18 e i 35 anni)
INCHIESTE LONGITUDINALI: in questo tipo di inchiesta le stesse persone vengono intervistate
a distanza di tempo, con le stesse domande. Qui conta un fattore importante che è la mortalità
del campione (decremento di ampiezza del campione che si verifica ad ogni nuova rilevazione)
per rifiuti, trasferimenti, decesso ecc., cosa che richiede ad ogni ondata di inserire nel
campione nuovi soggetti con caratteristiche che neutralizzano le distorsioni dovute alle uscite.

vedi pag 220-221


L’inchiesta retrospettiva è invece una normale inchiesta trasversale nella quale si pongono agli intervistati
domande sul loro passato, con gli evidenti limiti che l’affidamento alla memoria può comportare.

Analisi secondaria
L’analisi secondaria è una ricerca che viene condotta su dati di inchiesta campionaria già precedentemente
raccolti e disponibili nella forma di matrice-dati originale, quindi una "rianalisi" di dati già esistenti. L’analisi
secondaria nasce nell’ambito di un maggiore approfondimento dei dati già raccolti sulla base di successive
scoperte o di nuove teorie avanzate nelle scienze sociali; a questo punto i dati già raccolti possono essere
suscettibili di nuove elaborazioni e approfondimenti. Inoltre, a causa dell’estrema onerosità della fase di
raccolta dei fati, sono nate apposite agenzie che riescono risorse comuni mettendo poi i dati a disposizione
di tutti i ricercatori; ovviamente queste agenzie non raccolgono i dati per un unico tema, ma si rivolgono ad
un ampio spettro di problematiche sociali.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

27

I vantaggi di questi sviluppi si possono riassumere in un generale risparmio economico, nella garanzia del
rigore della rilevazione stessa e nella possibilità anche per i ricercatori con poche risorse di effettuare
ricerche di ampio respiro. L'analisi secondaria valorizza il criterio della cumulabilità, nel senso che anche un
piccolo risultato empirico assume valore quando lo si pone in continuità con il corpus complessivo di
conoscenze di quel settore, contribuendo alla crescita cumulativa della conoscenza.

Gli svantaggi sono legati alla qualità dei dati, in quanto i dati raccolti nel passato possono non essere stati
trattati in modo corretto; altri svantaggi sono la limitazione degli interrogativi e il fatto che possano nascere
ricerche a partire dai dati disponibili piuttosto che dalle ipotesi teoriche, e questo può incidere sui risulati che
possono essere scontati.
La meta-analisi si differenzia dall’analisi secondaria perché non riesamina i vecchi dati ma si propone di
“analizzare le analisi”, applicando metodi statistici per giungere a delle sintesi dei risultati delle ricerche
considerate. Partono dai risultati degli studi invece che dai dati, integrandone i risultati.

Si parla di analisi secondaria quando il ricercatore si serve di dati raccolti da altri e disponibili
nella matrice-dati originale. Per molto tempo la ricerca sociale è rimasta fedele allo schema
classico: problema  disegno della ricerca  raccolta dei dati  analisi. Poi si sono iniziate a
manifestare due tendenze:
1) ci si è resi conto che le ricerche condotte in passato offrivano spunti per ulteriori
approfondimenti (a causa del progresso della teoria o della messa a punto di nuove
tecniche statistiche);
2) si sono affermate le c.d. rilevazioni multi-scopo esplicitamente dedicate alle analisi
secondarie.
Vantaggi delle analisi secondarie:
1) risparmio: anche i ricercatori con poche risorse possono effettuare ricerche di ampio
respiro;
2) rigorosità della rilevazione;
Limiti delle analisi secondarie:
1) non è valutabile la qualità dei dati;
2) può causare una limitazione degli interrogativi da porsi per mancanza di dati idonei;
3) può causare ricerche fatte a partire dai dati disponibili invece che dalla teoria e da
ipotesi da verificare.
La meta-analisi non è una ri-analisi dei dati, bensì una integrazione dei risultati.

MANCA SINTESI DA PAG 226 A 250: ricerca bibliografica


conclusione:
la preoccupazione dell’autore del testo (PierGiorgio Corbetta) è la seguente:
A causa di:
- raccolte dati sempre più ampie già disponibili;
- esistenza di ditte specializzate nella rilevazione dei dati in tempi rapidi ed a
basso costo a cui si subappalta il lavoro;
si sta accrescendo una netta distinzione tra:
- la parte nobile dello studio: curata dal ricercatore e consistente nella
preparazione del questionario e nell’analisi dei dati;
- la parte volgare dello studio: solitamente appaltata ai “manovali” e consistente
nella raccolta dei dati.
- Routinizzazione della fase di raccolta della fase di raccolta e sempre maggiore
distacco dal ricercatore: Da questa tendenza scaturirebbe uno scadimento della
qualità complessiva della ricerca sociale.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

28

CAPITOLO 7 – LA TECNICA DELLE SCALE


L’operativizzazione dei concetti complessi
La tecnica delle scale (scaling) consiste in un insieme di procedure messe a punto per misurare concetti
complessi e non direttamente osservabili (depressione, pregiudizio razziale, religiosità, intelligenza,
integrazione sociale ecc concetti non facilmente traducibili nel linguaggio della ricerca empirica).
Per es il concetto di religiosità, come si è già detto, può essere operativizzato mediante un concetto specifico
che viene chiamato indicatore, a questo legato da un rapporto di indicazione, cioè di sovrapposizione
parziale di significato - così possiamo operativizzare la religiosità con la pratica religiosa e il conservatorismo
politico con il partito votato). La tecnica delle scale formalizza questo obiettivo.
L’unico modo per poter registrare questi concetti è quello di usare (invece di uno o più indicatori che si
sovrappongono parzialmente al concetto) un insieme coerente ed organico di indicatori, mettendo anche a
punto criteri intersoggettivi per controllare l’effettiva sovrapposizione fra indicatori e concetto e la
completezza della procedura.
Possiamo quindi dire che una scala è un insieme coerente di elementi (o in inglese items) che sono
considerati indicatori di un concetto più generale. Elemento è il singolo componente
(affermazione, domanda, risposta a un test), la scala è l'insieme degli elementi. Il risultato
finale della scale è un punteggio basato sulle singole risposte.
La tecnica delle scale è usata soprattutto nella misura degli atteggiamenti, dove l’unità d’analisi è
l’individuo, il concetto generale è un atteggiamento (credenze di fondo non rilevabili direttamente) e i
concetti specifici sono le opinioni (espressione verbale dell'atteggiamento, empiricamente rilevabile di un
atteggiamento). Quindi atteggiamento = concetto generale, opinioni = indicatori di quell'atteggiamento.

Le variabili prodotte dalla tecnica delle scale non possono essere considerate pienamente cardinali, perché
scaturiscono da dimensioni sottostanti immaginate come proprietà continue non misurabili, anche se la
teoria delle scale tenta di dare una risposta a questo problema. Per questo le variabili della teoria delle scale
vengono chiamate quasi-cardinali, dove il quasi indica l'irraggiungibilità dell'obiettivo di attribuire pieno
significato numerico ai punteggi delle scale.
Le variabili prodotte dalla tecnica delle scale sono quasi cardinali perché, benché la proprietà
studiata sia spesso un continuum, tuttavia non si è capaci di definirne un’unità di misura
convenzionale.

Domanda a risposta graduata: l’autonomia semantica ( CIOè IL GRADO DI


SOVRAPPOSIZONE) delle risposte
Nella pratica una scala è costituita da una batteria di domande, ma con quale formato?
In una domanda chiusa le alternative di riposta possono essere proposte in tre modi:
Le domande (sempre chiuse) possono essere proposte in tre modi diversi.
Il primo consiste nel presentare risposte semanticamente autonome, cioè ciascuna ha un suo intrinseco
significato compiuto che non necessita, per essere compreso, di essere messo in relazione con il significato
delle altre alternative presenti (es se uno è laureato no ha bisogno di conoscere quali sono le altre possibili
risposte)
Il secondo caso è quello in cui le categorie di risposta sono a parziale autonomia semantica,
quando il significato di ogni categoria è parzialmente autonomo dalle altre (“molto”, “abbastanza”, "poco”,
“per nulla”). TRa le varie possibilità, cioè, è più facile orientare la scelta rispetto al proprio orientamento
conoscendole tutte - perchè abbastanza viene dopo il poco e prima di molto per es.
Infine ci sono le scale auto-ancoranti, dove solo le due categorie estreme sono dotate di significato, mentre
tra di esse si colloca un continuum (fatto da caselle, da cifre, da un segmento) entro il quale il soggetto
colloca la sua posizione.
Esempio: dove colloca la sua posizione politica? Fare una X nel disegno riprodotto qui sotto:

SINISTRA ___________X________________________ DESTRA NON SAPREI

Le variabili prodotte dalla prima situazione sono senza dubbio ordinali (l'intervistato sceglie una risposta per
il contenuto a prescindere dalle posizione nei confronti delle altre§), mentre nella seconda è probabile che
scatti un processo di comparazione quantitativa, soprattutto se le alternative offerte sono numerose.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

29

Per quanto riguarda il caso delle risposte auto-ancoranti è ancora più probabile che si metta in moto una
procedura mentale di suddivisione graduata dello spazio tra i due estremi, suddivisione che è però soggettiva
e non valida per tutti. Per questo si parla di variabili quasi-cardinali.

Difficoltà e problemi da considerare:


l’opportunità di offrire o meno una opzione centrale neutra: può favorire una rilevazione più
veritiera ma anche offrire una “scappatoia” a chi non vuole schierarsi; Nel caso delle variabili a
parziale autonomia semantica è preferibile offrire la possibilità di un punto neutro e dell’opzione “non saprei”
per evitare il pericolo delle pseudo opinioni. Il numero delle opzioni disponibili di solito è 5 o 7, tranne
nell’intervista telefonica, dove si usano domande con risposte binarie per motivi di semplicità.
Nel caso delle graduatorie auto-ancoranti si possono usare diverse soluzioni come quella delle caselle vuote,
della sequenza di cifre oppure della linea continua.
Le preferenze possono essere espresse in termini assoluti (quando ogni domanda riguarda isolatamente una
singola questione) oppure in termini relativi (nella forma di confronti e scelte tra diversi oggetti).
È preferibile scegliere scale con più domande rispetto a scale con una domanda sola per tre motivi: la
complessità dei concetti rende improbabile la loro copertura con un singolo indicatore; una rilevazione
singola manca di precisione, in quanto non riesce a discriminare in maniera fine tra le diverse posizioni dei
soggetti sulla proprietà considerata; infine le singole domande sono più esposte agli errori accidentali.
Le domande ad un solo elementi sono quindi meno valide, meno precise e meno attendibili.

Scala di Likert (o più in generale scale ADDITIVE)= scale dove il punteggio


complessivo (di un atteggiamento, solitamente) deriva dalla somma dei
punteggi ai singoli elementi ( di solito domande) della scala.
La scala di Likert in realtà raccoglie sotto un’unica denominazione una ampia varietà di scale;
è la procedura più utilizzata per rilevare atteggiamenti. La procedura che sta alla base delle scale di
Likert consiste nella somma dei punti attribuiti ad ogni singola domanda. Il formato delle singole domande
della scala di Likert è rappresentato da una serie di affermazioni per ognuna delle quali l’intervistato deve
dire se e in che misura è d’accordo. Di solito le alternative di risposta sono cinque, da “molto d’accordo” a
“fortemente contrario”. Si tratta di domande con risposte a parziale autonomia semantica.

La costruzione della scala avviene in quattro fasi. Nella prima, la formulazione delle domande, si
individuano le dimensioni dell’atteggiamento studiato e si formulano delle affermazioni che coprano i vari
aspetti del concetto generale che si vuole rilevare.
L'esempio più noto di applicazione di questa scale è il testo sullo studio della personalità autoritaria di
Adorno (pagg 260-261): gli autori individuarono partendo da studi precedenti, testi sull'antisemitismo e
fascismo ecc, NOVE DIMENSIONI di articolazione della personalità autoritaria attorno alle quali costruirono le
singole domande-affermazioni della scala. Si suggerisce di seguire un approccio di tipo deduttivo, piuttosto
che induttivo. Si raccomanda inoltre di formulare le domande in modo breve semplice e con linguaggio
comune. Leggi pag 261 262 sul yeasaying e response set di cui anche al capitolo5.

Nella seconda fase, la somministrazione delle domande, la scala viene sottoposta ad un campione limitato
di intervistati (con un certo livello di istruzione -??? non c'è questa frase nel testo)

In seguito, nella terza fase (analisi degli elementi), si selezionano le domande e si valuta il grado di
coerenza interna della scala, cioè se la scala misura effettivamente il concetto in esame (il presupposto della
scala è che tutti gli elementi che la compongo siano correlati con uno stesso concetto sottostante, occorre
valutare se questo requisito della dimensione comune a tutti gli elementi sia riconoscibile anche nella
percezione degli intervistati. È infatti possibile che alcuni elementi non risultino in linea con gli altri e vadano
quindi eliminati. Usando un termine tecnico si fa una valutazione dell’unidimensionalità della scala,
cioè accertamento del fatto che i vari items non sottintendono concetti estranei a quello
studiato.

Gli strumenti utilizzati nella terza fase sono la correlazione elemento-scala e il coefficiente alfa.
Per la correlazione elemento-scala, si calcola per ogni soggetto il punteggio su tutta la scala e si calcola il
coefficiente di correlazione tra questo punteggio e il punteggio di ogni singolo elemento. Il coefficiente di
correlazione è una misura che quantifica il grado di relazione tra due variabili cardinali e indica se il

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

30

punteggio di ogni singolo elemento si muove nella stessa direzione del punteggio globale che tiene conto di
tutti gli altri elementi. Se ciò non avviene la domanda non è congruente con la scala e va eliminata. esempio
pag 264
Il coefficiente alfa serve invece a valutare la coerenza interna complessiva della scala. Esso si basa sulla
matrice di correlazione tra tutti gli elementi della scala e il loro numero; più alti sono i valori (da 0 a 1)
maggiore è la coerenza interna alla scala.

L’intervento del ricercatore sarà teso ad eliminare gli item con minore correlazione
elemento-scala fintanto che tale eliminazione non causa un incremento dell’alfa di
Cronbach.

1) controlli di validità, ma in sociologia sono scarsi e non sistematici.


Infine si apre la quarta fase, quella dei controlli sulla validità e l’unidimensionalità della scala.
Tralasciando i controlli di validità, la tecnica più efficace per il controllo di unidimensionalità è quella
dell’analisi fattoriale. Il suo scopo è quello di ridurre una serie di variabili tra loro collegate ad un
numero inferiore di variabili ipotetiche tra loro indipendenti, in modo da controllare se dietro agli
elementi di una scala che si presume unifattoriale, vi sia un solo fattore sottostante o più fattori. es
pag 266

I vantaggi della scala Likert consistono nella sua semplicità e applicabilità, mentre i suoi svantaggi
sono il fatto che i suoi elementi vengono trattati come scale cardinali pur essendo ordinali (a parziale
autonomia semantica), la mancata riproducibilità (dal punteggio della scala non è possibile risalire
alle risposte delle singole domande) e il fatto che il punteggio finale non rappresenta una variabile
cardinale.

Aspetti non soddisfacenti di questo tipo di scala:


- la non riproducibilità della scala, cioè non si può risalire dal punteggio
complessivo della scala alle singole risposte, perché le combinazioni che possono
averlo originato sono varie (essendo il risultato di una somma); può quindi
succedere che due punteggi identici abbiano alle spalle risposte molto diverse
- il punteggio finale non origina una variabile cardinale.

Scalogramma di Guttman - O CUMULATIVA


La scala di Guttman nasce con l’obiettivo di fornire una soluzione al problema dell’unidimensionalità della
scala di Likert e consiste in una sequenza di gradini, una successione di elementi aventi difficoltà crescente,
in modo che chi ha risposto affermativamente ad una certa domanda deve aver risposto affermativamente
anche a quelle che la precedono nella scala di difficoltà. In questo modo, se gli elementi della scala sono
perfettamente scalati, solo alcune sequenze di risposte sono possibili; inoltre dal risultato finale è possibile
risalire alle risposte date dal soggetto ai singoli elementi della scala ( riproducibilità). Questa tecnica prevede
solo elementi dicotomici, cioè ogni domanda può avere solo due risposte opposte e distinte (es solo sì/no, a
differenza delle scale di Likert). Le due risposte possibili vengono di solito contrassegnate con i numeri 0 e 1.

Esempio: Lei sarebbe disposto ad avere una persona di colore…(pag 269)

Come visitatore come vicino come amico come sposo punteggio


1 1 1 1 4
1 1 1 0 3
1 1 0 0 2
1 0 0 0 1
0 0 0 0 0

Se gli elementi sono scalati perfettamente, alcune sequenze di risposta non dovrebbero
verificarsi (non dovrebbe accadere quindi che, facendo riferimento all’esempio precedente, una
persona risponda che sarebbe disposto ad avere una persona di colore come sposo ma non
come vicino di casa); da qui ne consegue una certa riproducibilità delle singole risposte.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

31

Anche la scala di Guttman segue tre-quattro fasi nella sua costruzione. La prima è quella della formulazione
delle domande, con considerazioni analoghe a quelle relative alla scala di Likert tranne che le domande
devono essere dicotomiche e disposte secondo un ordine crescente di forza. Anche la seconda fase
(somministrazione) è simile a quella della scala di Likert, con il vantaggio che la forma binaria agevola le
risposte e rende più veloce la compilazione (anche se talvolta la forte semplificazione indotta dal carattere
binario delle scelte può creare problemi all’intervistato: .somministrazione: grazie al carattere binario
delle scelte la compilazione risulta più veloce ma l’intervistato non ha la possibilità di graduare
l’intensità delle proprie posizioni;

Terza fase: la specificità della scala di Guttman sta nell’analisi dei risultati, quando si valuta la scalabilità
degli elementi, si scartano quelli meno coerenti col modello, si stabilisce un indice di scalabilità della scale e
se accettarla o meno. In primo luogo si devono individuare gli errori della scala, cioè le risposte che non si
inseriscono nelle sequenze previste nel modello. Per questo si utilizza un indice ( coefficiente di
riproducibilità) che misura il grado di scostamento della scala osservata dalla scala perfetta. Questo indice
può variare da 0 a 1; per poter essere accettabile, il valore dell’indice deve essere maggiore o uguale a 0,90
(cioè errori pari o inferiori al 10% delle risposte). Esiste anche un altro indice, detto di minima
riproducibilità marginale, che segnala il valore minimo al di sotto del quale il coefficiente di riproducibilità
non può scendere, quali che siano le sequenze delle risposte. Esso deve essere confrontato con il
coefficiente di riproducibilità: solo se il secondo, oltre ad essere maggiore di 0,90, è anche nettamente
superiore al primo, si può affermare che la buona riproducibilità della scala è dovuta ad un’effettiva
scalabilità dei suoi elementi e non alla distribuzione marginale delle risposte.
analisi dei risultati: procedura di individuazione degli errori; riordinando le righe e le
colonne della matrice-dati delle risposte sulla base del punteggio ottenuto e del numero di
risposte affermative ottenute, gli errori sono facilmente individuabili:

1 1 1 1 1

1 1 0 0 0
1 1 1 0 1

1 1 1 0 1
1 0 0 0 1
Per esempio quelli evidenziati nella matrice-dati qui sopra riportata sono
errori.

Suggerimenti:
- evitare elementi poco discriminanti (troppe risposte sì o troppe risposte no);
- numero sufficientemente elevato di elementi;
- ispezionare attentamente le sequenze erronee;
Problemi: la variabile originata dallo scalogramma è ordinale, non cardinale;è difficile
rendere perfettamente scalabile un concetto molto complesso. L’ultima fase è quella di
attribuire i punteggi ai soggetti; per far questo si sommano i punteggi 0/1 ottenuti nelle varie
risposte. I problemi della scala di Guttman consistono nel fatto che il punteggio finale è ancora una
variabile ordinale; si tratta di una tecnica applicabile solo ad atteggiamenti ben definiti e scalabili; il
modello risulta rigidamente deterministico di fronte ad una realtà sociale interpretabile solo
attraverso modelli probabilistici.

SCALE MULTIDIMENSIONALI - Differenziale Semantico (OSGOOD) PAG 274 E SEGG


La tecnica del differenziale semantico si propone di rilevare con il massimo della standardizzazione il
significato che i concetti assumono per gli individui (che cosa questo concetto - patria, madre, guerra ecc -
significa per te). Il modo più semplice per scoprire cosa significa una certa cosa per una certa persona è
quello di chiederglielo direttamente, ma solo persone intelligenti, istruite e con eccellenti capacità verbali
possono fornire dati utilizzabili.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

32

La tecnica del differenziale semantico supera questi limiti in quanto si basa sulle associazioni che
l’intervistato instaura tra il concetto in esame ed altri concetti proposti in maniera standardizzata a tutti gli
intervistati. (es sofisticato è duro o soffice?, è veloce o lento? - e poi si aggiunge una scala da 1 a 7 per
misurare l'intensità). E’ una tecnica che si propone di rilevare il significato che certi concetti
assumono per gli intervistati basandosi sull’associazione fatta dal soggetto con altri concetti
proposti a tutti in maniera standardizzata. Osgood propone 50 coppie di attributi polari
(esempio: dolce/amaro) e 7 posizioni per graduare l’intensità del giudizio. La lista degli
attributi non deve variare in base all’oggetto di studio; il test risulta facile ed accettato dai
soggetti. Vi sono attributi in grado di far risaltare la valutazione, la potenza e l’attività di un
certo concetto
In concreto si utilizzano una serie di scale auto-ancoranti nelle quali solo le categorie estreme
hanno significato autonomo, mentre il significato graduato delle categorie intermedie viene stabilito a
giudizio dell’intervistato. La lista di questi attributi bipolari non deve avere necessariamente relazione con
l’oggetto valutato (vedi schema pag 279- si chiede all'intervistato di rispondere d'istinto), e quindi deve
essere sempre la stessa. Il numero delle domande di solito va dalle 12 alle 50, in base al disegno della
ricerca.
Il modo più importante di utilizzare il differenziale semantico è rappresentato dall’esplorazione delle
dimensioni dei significati. Si ritiene cioè che attraverso l’analisi fattoriale sia possibile determinare quali sono
le dimensioni fondamentali che stanno dietro ai giudizio di un certo campione di soggetti intervistati. In linea
generale, si possono trovare tre dimensioni fondamentali: la valutazione, la potenza e l’attività, in ordine di
importanza. La valutazione sembra rappresentare l’atteggiamento verso un certo oggetto.
Il contributo più importante della tecnica del differenziale semantico è proprio quello di aver introdotto la
multidimensionalità dei significati nella struttura degli atteggiamenti.
.

- .

CAPITOLO 8 – LE FONTI STATISTICHE UFFICIALI - SALTA!

L’opera “Il suicidio” di Durkheim costituisce forse la prima ricerca in campo sociologico ed è
stata condotta utilizzando le fonti statistiche ufficiali del tempo, applicando un’analisi
quantitativa ad un problema sino a quel momento dibattuto solo a livello filosofico. Durkheim
ha valutato l’incidenza sul suicidio di alcuni fattori come la confessione religiosa, la famiglia, il
momento politico, ecc.
Statistica Ufficiale: con la parola “statistica” si intendono i dati statistici, con il termine
“ufficiale” si intende che il dato è prodotto dall’amministrazione pubblica attraverso la normale
attività amministrativa (rilevazione indiretta) oppure attraverso indagini mirate a raccogliere
dati (rilevazioni dirette, come ad esempio censimenti o indagini campionarie ad HOC).
Le unità di analisi sono territoriali; il dato, pur essendo raccolto su base individuale, è fornito in
forma aggregata per motivi di riservatezza (ad esempio nel caso delle elezioni politiche), per
motivi organizzativi (ad esempio nei censimento) oppure perché il dato è aggregato sin
dall’inizio. Negli ultimi tempi sono tuttavia disponibili files di record individuali.
I dati delle statistiche ufficiali sono solitamente fattuali, cioè riguardano fatti e non opinioni,
atteggiamenti o motivazioni. I dati sono solitamente raccolti con rilevazioni esaustive, non
campionarie.
Chi produce le statistiche ufficiali?
- In Italia dal 1926 l’ISTAT (affiancata da istituzioni erogatrici di servizi pubblici
anche se non facenti parte della P.A. come Enel, Rai, Aci, Telecom, ecc.).
- In Europa dagli anni ’80 l’EUROSTAT.
In Italia le unità territoriali sono: comuni, province, regioni, aree metropolitane, ecc.
L’ISTAT produce annuari, il Bollettino Mensile di Statistica, rapporti annuali, ecc.
Gli argomenti principali sono: popolazione, sanità, assistenza e previdenza, istruzione e
cultura, lavoro, giustizia, consumi, reddito, benessere, elezioni, indagini multi-scopo.
Si ritiene che il ricercatore non possa fare a meno delle fonti statistiche ufficiali in studi sulla
struttura della società, sulle ripartizioni territoriali di un Paese, in studi comparati fra nazioni ed
in studi che abbracciano un certo lasso di tempo.
Spesso la natura dei dati non soddisfa le esigenze del ricercatore, perché sono limitati a
variabili fattuali e perché non sono adatti per analisi di comportamenti individuali.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

33

CAPITOLO 8 – IL CAMPIONAMENTO
Anche se può sembrare strano, la scelta casuale (tipica del campionamento) deve segue ire regole ben
precise. NELLA STATISTICA SI STUDIA LA TEORIA DEI CAMPIONI
E’ il procedimento con il quale si estrae, da un insieme di unità (popolazione)
costituenti l’oggetto dello studio, un ridotto numero di casi (campione) scelti con
criteri tali da poter generalizzare i risultati ottenuti dal campione stesso all’intera
popolazione.
Vantaggi:
- vantaggio: tempi e costi della rilevazione si riducono;vantaggi organizzativi per il
minor numero di rilevatori richiesti
- sono possibili un maggior approfondimenti ed una maggiore accuratezza;
- ci sono casi in cui operare il campionamento non è una scelta ma una necessità
(per es studio sulla durata delle lampadine, si può fare solo su un campione).
vedi esempio storico pag 318 -319

Errore di campionamento vedi anche pagg 319-320 premessa


La tecnica del campionamento presenta tuttavia anche degli svantaggi. Infatti, se l’indagine totale fornisce il
valore esatto del parametro che si vuole conoscere, l’indagine campionaria ne fornisce solo una stima, cioè
un valore approssimato. Ciò significa che il valore in questione non è certo, ma solo probabile, e inoltre
questa probabilità può variare entro un certo intervallo (detto intervallo di fiducia -es c'è il 95% di
probabilità che il reddito medio della popolazione sia di euro 1200 +- 50.000 ). La stima del campione
sarà quindi sempre affetta da un errore, che si chiama errore di campionamento. Difficile misurare
questo errore di campionamento! Se però il campione è probabilistico (cioè scelto secondo una procedura
rigorosamente casuale), la statistica ci permette di calcolare l’entità di tale errore.

Campioni probabilistici: il campione casuale semplice (probabilistico e causale


sono sinonimi)

Nei campioni probabilistici l’unità d’analisi è estratta con una probabilità nota e diversa da zero. È necessario
conoscere la popolazione (nell'esempio del libro "LITERARY dIGEST" il campione non era probabilistico
perchè le persone senza tel e senza auto avevano probabilità zero di essere incluse nel campione, chi aveva
entrambe aveva probabilità doppia).

Il caso più semplice del campione probabilistico è quello del campionamento casuale semplice, in cui
ogni individuo della popolazione ha uguali possibilità di essere scelto per il campione.
Si devono estrarre gli individui senza riferimento a caratteristiche individuali; si assegna un numero a
ciascuna persona e si sceglie a caso. Se N sono i componenti dell'intera popolazione si estrae n numeri tra gli
N totali.
L’errore di campionamento del campione casuale semplice è direttamente proporzionale al
livello di fiducia che vogliamo avere nella stima (cioè il grado di certezza) ed alla variabilità del
fenomeno studiato (cioè la dispersione della distribuzione della variabile), mentre è
inversamente proporzionale all’ampiezza del campione.

Analogamente si parla di ampiezza del campione. L’ampiezza del campione è direttamente


proporzionale al livello di fiducia desiderato per la stima ed alla variabilità del fenomeno
studiato, ed inversamente proporzionale all’errore che il ricercatore è disposto ad accettare.

Questo significa che la dimensione della popolazione non ha grande importanza per determinare l’ampiezza
del campione, infatti ad esempio un campione di 1.000 casi può essere sufficiente per arrivare a stime della
stessa precisione per popolazioni di 10.000 o 100.000 elementi. Al limite, se si desidera avere stime della
precisione di due punti percentuali, sono sufficienti 2.500 casi per qualunque dimensione della popolazione,
anche a livello mondiale.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

34

Altri campioni probabilistici


Campionamento sistematico: produce anche questo un campione casuale semplice, ma con diversa tecnica
di estrazione. Non c'è sorteggio, I soggetti si scelgono secondo un intervallo stabilito . Si usa quando non c’è
periodicità e quando la lista non è completa (ad esempio nei controlli di qualità sui prodotti oppure negli exit
polls). In ogni caso deve essere rispettato il requisito che tutte le unità abbiano la stessa probabilità di
essere incluse nel campione (se il campione è di clienti del supermercato bisogna terminare l'estrazone
all'ora di chiusura, non prima) e inoltre deve essere evitata ogni forma di scelta diversa da quella
predeterminata dall’intervallo di campionamento. vedi pag 331 per gli esempi.

Campionamento stratificato: la popolazione è divisa in strati omogenei rispetto alla variabile da stimare e si
estrae un campione casuale semplice da ciascuno strato; in seguito si uniscono i campioni dei singoli strati
per ottenere il campione finale. Questa procedura richiede che per tutte le unità della popolazione sia nota la
variabile posta alla base della stratificazione. Il campione ottenuto può essere stratificato proporzionale (se
si decide di riprodurre la stessa composizione degli strati nella popolazione) oppure stratificato non
proporzionale (se si decide di sovrarappresentare alcuni strati e sottorappresentare altri).

Campionamento a stadi: la popolazione è suddivisa su più livelli gerarchicamente ordinati, i quali vengono
estratti in successione con un procedimento ad “imbuto”. Se presumiamo di avere due stadi, il
campionamento si effettua in due momenti: prima si estraggono le unità primarie (gruppi di soggetti che
costituiscono le unità di analisi vere e proprie) e successivamente si estrae casualmente un campione di
unità secondarie (le unità di analisi) in ognuna delle unità primarie selezionate dalla prima estrazione.
I vantaggi di questa tecnica consistono nel fatto che non è necessario avere la lista di tutta la popolazione,
ma solo delle unità primarie; inoltre la rilevazione viene concentrata sulle unità estratte, con notevole
riduzione dei costi.

Campionamento per aree: è molto simile al campionamento a stadi e si utilizza quando mancano del tutto i
dati sulla popolazione oppure quando le liste sono incomplete.

Campionamento a grappoli: si usa quando la popolazione risulta naturalmente suddivisa in gruppi di unità
spazialmente contigue (grappoli). Al posto delle unità elementari vengono estratti i grappoli, e poi tutte le
unità elementari appartenenti ai grappoli vengono incluse nel campione. Questa tecnica semplifica di molto
la rilevazione ed è molto utile quando manca la lista delle unità elementari mentre esiste la possibilità di
estrarre con procedura probabilistica i grappoli.

Campioni complessi: sono quelli in cui si utilizzano congiuntamente le tecniche ora presentate.

Il campionamento nella ricerca sociale


L’errore nella ricerca sociale può essere distinto in tre parti: errore di selezione, errore di osservazione ed
errore di trattamento dati. La procedura di campionamento produce un errore del primo tipo (poichè si
lavora solo su una parte della popolazione), che a sua volta può essere distinto in ulteriori tre componenti:
errore di copertura, errore di campionamento ed errore di trattamento dati. Finora ci siamo occupati del
solo errore di campionamento; tratteremo ora anche gli altri.

Errore di copertura. Lista della popolazione


Nel caso in cui si conosce la lista della popolazione, è possibile procedere con campionamenti probabilistici.
Questo accade di solito quando l’oggetto di studio è l’intera popolazione (anche nazionale), perché esistono
anagrafi e liste elettorali che forniscono l’elenco completo della popolazione. Il problema si pone per i
sottoinsiemi della popolazione, perché di solito non si è in possesso di una lista completa della popolazione.
Quando invece l’unità di analisi non è un individuo ma un collettivo, la situazione è migliore perché in genere
un aggregato di individui esiste in forma istituzionalizzata e registrata.
Se non c’è la possibilità di conoscere la lista della popolazione bisogna rinunciare a tecniche di
campionamento probabilistico, perché in questi casi non è possibile assegnare a tutte le unità della
popolazione una certa probabilità di estrazione.
Ma non è sufficiente che le liste esistano, bisogna anche che siano aggiornate, complete ed esenti da
duplicazioni. Il problema della completezza è il più grave; in questo caso il ricercatore può ridefinire la
popolazione, trascurare gli esclusi oppure procedere ad un’integrazione del campione (pag 337-338)

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

35

Errore di campionamento. Ampiezza del campione


Il campionamento nel settore della ricerca sociale è una tecnica di difficile applicazione; essa
genera un errore di selezione ulteriormente scomponibile in:
- errore di copertura = spesso non si dispone né della lista della popolazione né di
un luogo in cui procedere ad un campionamento sistematico. Il problema non è
solo quello di avere una lista, ma di averla aggiornata, priva di duplicazioni e
completa. La difficoltà non riguarda le omissioni di per sé, bensì il fatto che chi
rimane escluso è tendenzialmente diverso da chi è compreso nel campione. Il
ricercatore ha tre possibilità: ridefinire la popolazione, trascurare gli esclusi
oppure integrare il campione;
- errore di campionamento = quando si sceglie l’ampiezza del campione occorre
tenere presente che le stime relative ad analisi monovariate sono affette da
errori più piccoli rispetto ad analisi bivariate o multivariate; occorre prevedere in
anticipo dunque se la nostra analisi si svilupperà in questo senso;
- errore di non risposta = può essere dovuto al mancato contatto con i soggetti
facenti parte del campione (per difficoltà di raggiungimento o per irreperibilità
dei soggetti) oppure al rifiuto a farsi intervistare (questa evenienza è di più
difficile gestione perché chi non risponde è diverso da chi risponde, solitamente).
E’ difficile quantificare i tassi di non risposta, ma si può dire che sono più alti nelle interviste
telefoniche che in quelle faccia a faccia e che in Italia si oscilla tra il 20 ed il 50% di mancate
interviste.
Sostituire le non risposte è spesso un errore perché i sostituti assomigliano più ai rispondenti
che ai non rispondenti. I consigli sono quelli di ritornare ripetutamente sulle persone non
raggiunte e di ricorrere alle tecniche di ponderazione.

Se consideriamo il caso di una ricerca monovariata (quando si stimano le variabili ad una ad una) la
dimensione del campione può essere adeguata, ma se nella stessa ricerca studiamo le relazioni tra le
variabili (analisi bivariata o multivariata) - esempio voglio vedere la relazione tra due varibili, sel apratica
religiosa varia al variare dell'istruzione - l’errore cresce subito fino a livelli inaccettabili (pag 339).
Diminuendo l'ampiezza del campione l'errore di campionamento aumenta.
Solo raramente la stima di singole variabili esaurisce l'interesse del ricercatore, a lui interessano le relazioni
tra variabili.
La dimensione del campione non può più essere determinata a priori dal ricercatore sulla base delle
distribuzioni delle singole variabili studiate, ma dovrà far riferimento al tipo di analisi che egli intende
utilizzare, a partire dalla considerazione dei frazionamenti ai quali egli sottoporrà il campione per analizzarlo.
La dimensione ideale del campione dipende dalla distribuzione delle variabili studiate e dal tipo
di analisi che si intende fare. In generale l’ampiezza del campione dovrà essere tanto maggiore quanto
più il fenomeno da studiare è minoritario (es. pag 340).

Errore di non-risposta. Mancati contatti e rifiuti(da 341 in avanti, molti esempi)


L’errore di non-risposta consiste nel fatto che i soggetti selezionati dal campionamento non sono
contattabili o si rifiutano di rispondere. (Marradi: "il concetto di estrazione casuale è in teoria semplicissimo,
ma è una semplicità illusoria, perchè gli esseri umani differiscono dalle palline estratte dall'urna per due
aspetti essenziali: non sono a portata di mano del ricercatore e sono liberi di non rispondere".
Il problema del mancato contatto con i soggetti può essere causato dalla difficoltà di raggiungerli oppure
dalla loro irreperibilità; in ogni caso si tratta di problemi fastidiosi ma risolvibili.

Molto più grave è il problema dei rifiuti a rispondere (diffidenza verso l'intervistatore, l'intervista o parti di
essa), in quanto spesso coloro che non vogliono rispondere sono diversi da quelli che rispondono (anziani,
basso titolo di studio, done, persone sole, persone indaffarate..timore di come venga gestita l'informazione
data se riferita a convinzioni politiche per es)e quindi non rappresentano una selezione casuale del campione
originario.
In questo modo si compromette la validità del campione stesso, che sovra-rappresenterà
alcune categorie di persone a scapito di altre. La percentuale di mancate risposte in Italia varia dal
20% al 50%, a seconda della diversa forma di contatto utilizzata (ad esempio di solito le interviste faccia a
faccia hanno un tasso di risposta superiore a quelle telefoniche).
Una soluzione per rimediare alle mancate risposte può essere quella di sostituire i soggetti con altri scelti a
caso, ma questa tecnica spesso non è efficace perché i sostituti assomigliano più ai rispondenti che non ai

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

36

non rispondenti.
Per contrastare efficacemente il problema delle mancate risposte ci sono due metodi: il primo è quello di
tornare il più possibile dalla persone che non rispondono per incontrarle o convincerle; il secondo consiste
nella ponderazione, cioè nell’attribuire alle persone non raggiunte dall’intervista le risposte medie date dal
gruppo sociale al quale esse appartengono.
L'errore di non risposta è probabilmente il più imperscrutabile degli errori di rilevazione, il risultato del
comportamento di persone che sono al di fuori del controllo del ricercatore e mette in crisi la proprietà unica
dell'indagine campionaria rispetto ad altri metodi di indagine: l'inferenza statistica dal campione alla
popolazione. Inoltre è in crescita in tutte le società occidentali (per tutela privacy, saturazione verso le
indagini, per diffidenza verso gli estranei ecc).
Conclusione: LA RICERCA SOCIALE NELLA SUA PRATICA APPLICAZIONE PONE DEI LIMITI VERAMENTE
SEVERI ALLA TRADUZIONE IN PRATICA DELLA TEORIA DEL CAMPIONE.

Campioni non probabilistici(da 345 in poi...c'è molto da leggere)


Quando il disegno probabilistico non può essere impostato (ES MANCA LA LISTA DELLA POPOLAZIONE) si
ricorre sin dall’inizio ai campioni non probabilistici.
Campionamento per quote: disegno campionario più diffuso specie nelle ricerche di mercato e sondaggi di
opinione; si divide la popolazione in strati rilevanti e il ricercatore sceglie a sua discrezione i soggetti
all’interno degli strati rispettando la proporzione (non c’è casualità). I limiti di questa procedura consistono
nel fatto che il ricercatore cerchi i soggetti più facilmente raggiungibili, enfatizzando in questo modo l’errore
di non-risposta.
Disegno fattoriale: il disegno fattoriale si colloca a mezza strada tra una tecnica di campionamento e un
esperimento. Il suo scopo è quello di cogliere le relazioni che vigono all’interno della popolazione; per far
questo i gruppi che si creano dalle combinazioni delle variabili (es.: istruzione, età e genere) hanno tutti
dimensione uguale e non proporzionale alla popolazione. Il disegno fattoriale non arreca alcun vantaggio allo
studio della relazione tra variabile dipendente e indipendente.
Campionamento a scelta ragionata: in questo caso le unità campionarie non sono scelte in maniera
probabilistica, ma sulla base di alcune loro caratteristiche.
Campionamento bilanciato: è una forma di campionamento ragionato, nel quale si selezionano la unità di
modo che la media del campione, per determinate variabili, sia prossima alla media della popolazione (deve
trattarsi quindi di variabili delle quali sia nota la distribuzione nella popolazione). Esso viene usato
soprattutto in caso di campioni molto piccoli.
Campionamento a valanga: è caratterizzato da fasi successive: prima si intervistano le persone che hanno
le
giuste caratteristiche, da queste si ricevono indicazioni per rintracciare altre persone con le stesse
caratteristiche, e così via. Per questo è particolarmente utile in caso di popolazioni clandestine.
Campionamento telefonico: la particolarità di questo campionamento consiste nel fatto che la selezione è
fatta automaticamente tramite computer, a partire da elenchi telefonici oppure da numeri generati
direttamente dal computer (random digit dialing). Questa tecnica presenta il vantaggio che il computer
registra i motivi dei mancati contatti e gestisce l’esclusione del numero o la ripetizione della chiamata.
Questo tipo di campionamento presenta il difetto che chi vive da solo ha maggiore possibilità di essere
estratto di chi vive in una famiglia numerosa.
Campionamento di convenienza: l’unico criterio di questa tecnica è che si scelgono le persone più
facilmente accessibili; naturalmente va il più possibile evitato.

Ponderazione
La ponderazione è quella procedura con la quale modifichiamo artificialmente la composizione del campione
onde renderla più prossima alla distribuzione della popolazione. Essa si realizza attribuendo un “peso” alle
unità campionarie che varia a seconda delle loro caratteristiche.
Le procedure di ponderazione sono essenzialmente tre e si basano sulle probabilità di inclusione delle unità
nel campione, sulle conoscenze che si hanno sulla popolazione e sulle conoscenze che si hanno sulle
non-risposte.
1- Il caso che si basa sulle probabilità di inclusione delle unità nel campione consiste nel campionare negli
strati in modo deliberatamente non proporzionale alla loro presenza nella popolazione per avere un numero
di soggetti sufficiente per l’analisi statistica. In questo caso la probabilità di inclusione non è uguale per tutti i
soggetti, ma è nota; si resta quindi tra i campioni probabilistici.
2- Il caso più comune che si basa sulle conoscenze che si hanno sulla popolazione è detto della

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

37

post-stratificazione e consiste nel correggere la distribuzione nella popolazione del campione di alcune
variabili in modo da farla corrispondere alla distribuzione della popolazione totale, assegnando a ogni caso
un coefficiente di ponderazione (peso) pari al rapporto quota teorica /quota rilevata della categoria di
appartenenza. Esso copre l’errore di copertura. In questo caso non siamo più in presenza di campioni
probabilistici.
3- Il caso che si basa sulle conoscenze che si hanno sulle non-risposte copre invece l’errore di non-risposta e
consiste nel classificare le persone che si rifiutano di rispondere sulla base di un certo numero di variabili e
quindi le risposte raccolte vengono ponderate attribuendo loro un peso che tiene conto dei rifiuti. Lo scopo
di questa procedura è quello di attribuire ai non rispondenti il comportamento medio delle persone
appartenenti al loro stesso gruppo sociale. Anche in questo caso non si tratta di una tecnica probabilistica.
Un ulteriore intervento, che si usa per attenuare la distorsione prodotta dalla mancata risposta solo a
qualche domanda del questionario, consiste nel procedere ad una stima delle mancate risposte a partire
dalle informazioni che si hanno sugli intervistati parzialmente reticenti.
La ponderazione è una procedura con la quale si modifica artificialmente la composizione del
campione in sede di elaborazione dei dati tramite operazioni matematiche tese a dare un
diverso peso alle unità sulla base delle loro caratteristiche. Ci sono tre possibilità di
ponderazione:
1) a partire dalle probabilità di inclusione dei soggetti nel campione;
2) sulla base della conoscenza che si ha della popolazione;
3) sulla base della conoscenza delle caratteristiche dei non rispondenti.
E’ opportuno che l’artificio della ponderazione venga esplicitamente dichiarato nei risultati della
ricerca

Bontà di un campione
E' praticamente impossibile nelle scienze sociali evitare del tutto errori di copertura e di non risposta, ma si
possono minimizzare cercando di avvicinare la procedura di campionamento al modello del campionamento
probabilistico. Se definiamo con accuratezza della procedura di campionamento la minimizzazione di questi
errori possiamo dire che ampiezza del campione e accuratezza della procedura di campionamento
sono le due caratteristiche che definiscono la bontà di un campione, con un equilibrio tra i due.
Alla validità di un campione concorrono due fattori: la sua rappresentanza e la sua ampiezza.
Un campione è rappresentativo quando fornisce un’immagine in piccolo ma senza distorsioni della
popolazione; la rappresentatività dipende dalla casualità della procedura con la quale è stato costruito.
Questa rappresentatività è valida per tutte le variabili della popolazione. Possiamo infine dire che se le stime
del campione sono sufficientemente piccole, il campione è rappresentativo.
Ma è praticamente impossibile realizzare una procedura completamente casuale, per cui la rappresentatività
del campione è un obiettivo limite al quale ci si può solo avvicinare minimizzando gli errori di copertura e di
non-risposta (accuratezza).
In parte l’ampiezza del campione è condizione della rappresentatività: se il campione è troppo piccolo,
allora l’errore di campionamento è troppo elevato e il campione non può essere definito rappresentativo. In
parte invece l’ampiezza del campione è un requisito autonomo dalla rappresentatività, e dipende dal tipo di
analisi che vogliamo fare sui dati (monovariata, bivariata o multivariata).
Tra i due requisiti dovrebbe essere privilegiata l’ampiezza per la sua maggiore importanza.
È importante anche la finalità della ricerca: se si tratta di uno studio descrittivo, il campione deve essere il
più possibile rappresentativo, se invece l’obiettivo è di tipo relazionale, il campione può anche non essere
perfettamente rappresentativo. In ogni caso il ricercatore può trascurare l’accuratezza della rilevazione,
applicando il più possibile il campionamento casuale nonostante la sua difficoltà.

La bontà di un campione riguarda due aspetti:


1) la rappresentatività: il campione rappresentativo fornisce un’immagine in scala ridotta
ma non distorta della popolazione; il campione casuale è statisticamente
rappresentativo; la rappresentatività riguarda tutte le variabili. Nelle scienze sociali non
è possibile garantire la casualità a causa del fatto che gli errori di copertura e quelli di
non-risposta possono essere minimizzati (a seconda del grado di accuratezza) ma mai
eliminati;
2) l’ampiezza: se il campione è piccolo l’errore di campionamento è elevato.
Talvolta non è possibile avere contemporaneamente accuratezza ed ampiezza. Il ricercatore
dovrebbe fornire nella pubblicazione dei risultati tutti gli elementi necessari per valutare l’entità
dell’ineliminabile errore.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

38

PARTE TERZA: LA RILEVAZIONE DEI DATI: TECNICHE QUALITATIVE

CAPITOLO 10 – L’OSSERVAZIONE PARTECIPANTE intro pag 363-364

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

39

Nella ricerca di tipo qualitativo è difficile ricorrere a schematizzazioni, ossia rendere le fasi che
la compongono ben separate e distinte.
Le principali tecniche qualitative utilizzate sono quelle dell’osservazione partecipante (dove
c'è non solo osservazione am coinvolgimento diretto del ricercatore con l'oggetto
studiato), delle interviste in profondità e dell’uso di documenti. Ricordiamoci che ci
troviamo nel contesto del paradigma interpretativo e che lo scopo è la comprensione
(Versethen), quindi è necessario un processo di immedesimazione nella vita dei soggetti
studiati ed una piena e completa partecipazione alla loro quotidianità, con un'interazione che
può anche durare anni. Il ricercatore qui scende sul campo, vive come e con le persone
oggetto del suo studio, ne condivide la quotidianità, sviluppa una visione dal di dentro, è
questo il senso del Verstehen vedere il mondo con gli occhi dei soggetti studiati).

L’osservazione partecipante è una strategia di ricerca nella quale il ricercatore si


inserisce in maniera diretta (cioè in prima persona) e per un periodo di tempo
piuttosto lungo, in un determinato gruppo sociale, preso nel suo ambiente naturale,
instaurando un rapporto di interazione personale con i suoi membri, allo scopo di
descriverne le azioni e di comprendere, mediante un processo di immedesimazione,
le motivazioni.
Quindi, mentre nell’approccio quantitativo si cercava l’oggettività ed il distacco, nell’approccio
qualitativo si ricerca il coinvolgimento e l’immedesimazione con il soggetto studiato.
E' una tecnica difficilmente codificabile ed insegnabile, è un'esperienza più che un insieme di
procedure.

Questa tecnica deriva dall’antropologia, in cui venne utilizzata per primo da Malinowski. Si
ricorre all’osservazione partecipante quando:
- si sa poco di un certo fenomeno;
- il punto di vista esterno è fortemente diverso da quello interno;
- il fenomeno è occultato volutamente o comunque si svolge al riparo di sguardi
estranei (es unA SETTA)
- .
Inizialmente si applicava in studi condotti su piccole comunità sociali territorialmente
localizzate e in studi di sub-culture (ad esempio sacche di marginalità sociale).
Progressivamente è stata estesa anche a studi sulla società “ufficiale” (pagg 368-369-370)
L'approccio è del tutto simile a quello dell'antropolgo che studia una tribu primitiva.

Problemi:
1) l’osservatore deve esplicitare o meno il suo ruolo? E’ il c.d. paradosso dell’osservatore,
che vuole osservare come si comporta la gente quando non è osservata. Occorre
considerare:
- l’aspetto morale;
- il disagio che può cogliere l’osservatore dissimulato;
- le conseguenze negative di essere scoperti;
- la dichiarata “incompetenza” può essere sfruttata per fare le domande più
ingenue;
- la iniziale diffidenza si attenua con il tempo;
- se l’ambiente osservato è pubblico ed aperto non è necessario rendere manifesta
l’osservazione (oppure quando l’osservatore si trova già nel gruppo).
-
2) come ottenere l’accesso all’ambiente? Spesso si ricorre al c.d. mediatore culturale: è
una persona che gode della fiducia della popolazione studiata e contemporaneamente è
in grado di comprendere le esigenze del ricercatore. Se l’istituzione è formale è
necessario seguire delle regole precise per avere l’accesso;

3) come ottenere la fiducia degli osservati? Entrano in gioco le capacità del ricercatore, in
termini di sensibilità e di gestione del rapporto. Si dicono informatori quelle persone
utilizzate dal ricercatore per acquisire informazioni dall’interno della cultura studiata.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

40

Che cosa osservare? (pag 378 e segg)


Ricordando che spesso, in una ricerca qualitativa, il ricercatore si lancia alla scoperta ed ignora
volutamente la letteratura esistente per evitare idee preconcette limitatrici del suo orizzonte
teorico (spesso dunque il ricercatore seleziona gli oggetti di osservazione e forgia i suoi
interessi nel corso della ricerca), i possibili oggetti di osservazione sono:
1) il contesto fisico: descrivere la conformazione degli spazi in cui si svolge l’azione;
2) il contesto sociale: descrivere l’ambiente umano;
3) le interazioni formali: cioè le interazioni tra ruoli prestabiliti ed i vincoli prefissati
all’interno del gruppo studiato;
4) le interazioni informali: sono le più importanti, spesso, ma anche le più difficili da
studiare;
5) le interpretazioni degli attori sociali: descrivere le interazioni verbali tra i soggetti
studiati, ma anche le risposte ad esplicite domande del ricercatore, sia formali che
informali.

La registrazione dell’osservazione è fondamentale, perché la memoria è volatile e selettiva


(inconsapevolmente). Deve essere effettuata prima possibile rispetto allo svolgersi
dell’accadimento e deve riguardare la descrizione, l’interpretazione del ricercatore (riflessioni
teoriche e reazioni emotive) e l’interpretazione dei soggetti studiati. Le tre componenti devono
essere tenute distinte (per il principio della distinzione) e devono essere precise (per il principio
della fedeltà della registrazione). Indubbiamente utile risulta l’uso di strumenti come il
taccuino, un registratore vocale, una videocamera o un P.C. portatile.

Per quanto riguarda l’analisi del materiale empirico e la stesura del rapporto finale non
esistono regole precise ed il materiale raccolto è solitamente molto corposo.
- l’analisi è un processo continuo che si sviluppa anche nel corso dell’osservazione
stessa;
- il dramma della selezione: solitamente, in fase di analisi, viene abbandonata la
maggior parte del materiale raccolto;
- le fasi sono la descrizione (assemblando il materiale di varia origine), la
classificazione (individuando le sequenze temporali e raggruppando in classi
similari o dissimili) e la individuazione delle dimensioni della tipologia (mediante
la individuazione dei temi culturali che attraversano la comunità studiata);
- lo stile di scrittura deve essere riflessivo (nel senso di non distaccato) e narrativo
(tipo racconto o cronaca giornalistica); lo scopo è quello di trasmettere la parte
più grande possibile della propria esperienza;
- il fine ultimo è naturalmente quello di elaborare qualche generalizzazione o
teorizzazione.
- vedi anche pagg 385 a 391.

MICROSOCIOLOGIA
In sociologia l’osservazione partecipante è stata applicata allo studio dei momenti banali della
quotidianità, ritenuti carichi di significati per lo più sfuggenti agli stessi attori sociali. Contributi
nel campo della micro-sociologia sono giunti da parte dell’interazionismo simbolico con Blumer,
Mead e Goffman e da parte dell’etnometodologia con Garfinkel (allarga! pag391-397)

I problemi e gli aspetti negativi dell’osservazione partecipante sono:


1) risulta essere estremamente soggettiva, ossia troppo dipendente dagli occhi e dalla mente
del ricercatore;
2) l’esiguità del numero di casi studiati rende improponibile una generalizzazione dei risultati;
3) la non standardizzazione delle procedure rende difficile descrivere ed insegnare la tecnica;
4) la difficoltà di realizzazione, in termini di risorse e tempi necessari.
A prescindere da tutto ciò l’osservazione partecipante ha arricchito in maniera incredibile il
panorama della ricerca sociale.
CAPITOLO 11 – L’INTERVISTA QUALITATIVA ok integrato
premessa pag 402

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

41

Consiste in una conversazione provocata dall’intervistatore, rivolta ad un consistente


numero di soggetti scelti sulla base di un piano di rilevazione, avente finalità
conoscitive e guidata dall’intervistatore, sulla base di uno schema flessibile.

Le differenze tra l’intervista quantitativa e l’intervista qualitativa sono molte e rilevanti:


1) assenza di standardizzazione: la voce predominante deve essere quella dell’intervistato,
lo strumento deve essere flessibile e produce dati disomogenei e difficilmente
confrontabili (403);
2) comprensione contro documentazione, contesto della scoperta contro contesto della
giustificazione es. pag 404;
3) assenza del campione rappresentativo: i casi sono scelti non per la loro
rappresentatività ma per l’interesse che suscitano al ricercatore (405);
4) approccio case-based (sul soggetto) contro approccio variable-based; il punto di
partenza è rappresentato dall'individuo non dalla variabile, perchè si vogliono capire le
manifestazioni nella loro individualità, costruire dei modelli, delel tipologie, delle
sequenze, a partire dai casi analizzati nella loro interezza.

Tipi di intervista qualitativa:

- intervista strutturata: le domande sono sempre le stesse e nello stesso ordine;


le risposte sono libere (è una tecnica ibrida, media i due approcci quanti e quali,
pertanto raggiunge minori capacità di standardizzazione e non va in profondità
quanto un'intervista non strutturata);407 e 409

- intervista semi-strutturata: vi è solo una traccia recante gli argomenti da


toccare, è un perimetro entro cui stare ma entro cui muoversi liberamente;

- intervista non strutturata: non è fissato neppure il contenuto delle domande


(intervista in profondità); l’intervistatore presenta un tema che vuole trattare e
lascerà parlare l’individuo, incoraggiandolo ad approfondire, arginando le
divagazioni. I tempi sono calibrati su quelli dell’intervistato: la durata può essere
di diverse ore e richiedere più sedute; ogni colloquio è un caso a sé e i dati
raccolti saranno diversi da caso a caso
- la scelta dei vari metodi dipende dagli obiettivi della ricerca, 414

- intervista non direttiva (non è fissato neppure l’argomento, origina dalla


psicoterapia) e intervista clinica (fortemente guidata da per es uno spicologo o
assistente sociale,ha finalità di tipo terapeutico più che conoscitivo, si scava nella
personalità del paziente); queste metodiche interessano poco il sociologo che
vuole capire i fatti sociali.

- intervista ad osservatori privilegiati : sono persone esperte riguardo al fenomeno


studiato, anche se possono far parte o meno del gruppo (es gli avvocati in uno
studio sulla delinquenza). Può essere particolarmente utile nel momento
esplorativo, di definizione dell’oggetto di studio; molto utile nelle ricerche di tipo
etnografico (vedi gli informatori del capitolo precedente)
- intervista di gruppo: può essere produttiva di approfondimenti, nel senso che
dall’arrabbiatura dei partecipanti e dal loro contraddittorio può emergere
l’intensità delle motivazioni e la carica emotiva (vedi es sui simpatizzanti della
Lega).
In genere c’è un focus group (mini gruppo di 6-12 persone tendenzialmente
omogenee e che hanno familiarità col tema in oggetto) ed un intervistatore
professionista che si preoccupa di sviscerare il problema (sul quale si è
accuratamente preparato) in ogni suo aspetto e di controllare la dinamica
dell’interazione. Con questa tecnica si guadagna tempo. Esistono oggi anche
focus group virtuali, cioè componenti collegati tramite internet, che ovviamente
consente vantaggi in termini di tempi e di costi, ma essendo la relazione virtuale
diversa da quellas face to face anche i risultati potrebbero essere diversi.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

42

CONDUZIONE DELL'INTERVISTA
Realizzare una buona intervista qualitativa è un’arte difficile: l’intervistatore deve far parlare
l’intervistato, limitandosi a qualche cauto intervento, e deve riuscire ad accedere al mondo del
soggetto. Deve stabilire un rapporto di fiducia non facile da instaurare (PAG 418 419).

Altri aspetti importanti:


- IL PUNTO è FARGLI CAPIRE COSA VOGLIAMO DA QUESTa persona; le
spiegazioni preliminari: essendo generalmente ridotto il numero di casi da
studiare, è possibile curare maggiormente l’aspetto della presentazione, con
lettere e telefonate preliminari. E’ importante far capire al soggetto che cosa si
vuole da lui;
- domande primarie (impostano il tema) e domande secondarie (lo
approfondiscono); 419 420
- domande sonda: in realtà sono stimoli attraverso i quali si cerca di far parlare
il soggetto, abbassare le sue difese, a dare più dettagli, i modi sono vari:
ripetizione della domanda in forma differente, ripetizione della risposta con invito
a chiarire, espressione di interesse, pausa, richiesta di approfondimento
esplicita;
- linguaggio: può variare sulla base del soggetto che ci si trova di fronte; non è
indispensabile parlare lo stesso linguaggio, ma talvolta è importante far capire
che si è avuto modo di sperimentare sulla propria pelle quel mondo;
- ruolo dell’intervistatore: è determinante e complesso; è importante
incoraggiare senza alterare il pensiero; sono necessari “conforto e
comprensione”; più lo strumento di rilevazione è aperto e poco standardizzato e
più è necessaria l’abilità dell’intervistatore.421 422

Le interviste qualitative devono essere sempre condotte faccia a faccia e possibilmente devono
essere registrate e integralmente trascritte. E’ necessario, eventualmente, far accettare l’uso
del registratore.

ANALISI DEL MATERIALE EMPIRICO


E’ caratterizzata dai seguenti aspetti:
- l’approccio è di tipo olistico: l’individuo è studiato nella sua interezza, non è
“scomposto in variabili”;
- la presentazione dei risultati è di tipo narrativo, facendo seguire a paragrafi di
un’argomentazione dei brani di intervista a sostegno ed a illustrazione pag 424;
-
- nel caso di intervista strutturata è possibile azzardare un procedimento di
codifica a posteriori, dopo avere cioè esaminato tutte le risposte ottenute;
naturalmente ciò che viene codificato è solo una parte dell’intervista, una sorta
di minimo comune denominatore che verrà presentato in tabelle (ha senso solo
se il numero di casi considerato è consistente). La parte specifica dell’intervista,
diversa da caso a caso, non verrà perduta, ma sarà presentata sotto forma di
narrazione;pag 426
- la mancanza di standardizzazione (punto di forza e debolezza delle interviste
qualitative) consente all’intervistatore di andare alla scoperta di nuove ed
inattese ipotesi, consente all’intervistato di far risaltare il suo punto di vista,
rende problematica la valutazione quantitativa e rende difficile sia confrontare
che inferire (vedi pag 428 - 429). Effettivamente la profondità dell’intervista
richiede un numero di casi limitato che rende praticamente impossibile la
questione dell’inferenza;
- nonostante i limiti pochi studiosi negano l’utilità dell’analisi in profondità;
- l’approccio qualitativo può essere utile anche al servizio dell’analisi quantitativa,
ad esempio per approfondire temi emersi da quest’ultima oppure in sede di
studio esplorativo.

CAPITOLO 12 – L’USO DEI DOCUMENTI

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

43

Per documento si intende il materiale informativo relativo ad un determinato


fenomeno sociale, che esiste indipendentemente dall’azione del ricercatore (vengono
prodotti per fini diversi dalla ricerca sociale ma si possono utilizzare per i nostri fini
conoscitivi). Sono di vario tipo (articoli di giornale, diarie ,sentenze di tribunali, bilanci di
società, certificati di matrimonio ecc ecc) e in genere sono in forma scritta.
Vantaggi dell’uso dei documenti:
- sono informazioni non reattive, nel senso che non possono essere distorte
dall’interazione tra il ricercatore ed il soggetto studiato(non c'è il yeahsaying);
- consentono di studiare il passato.
Svantaggi dell’uso dei documenti:
- se le informazioni sono incomplete il ricercatore non può integrarle.
- e non si può interrogare il documento e occorre accontentarsi del suo contenuto.

Classificazione dei documenti:


1) documenti personali:
- autobiografia: resoconto scritto (spontaneo o “provocato”- cioè si chiede a certi
soggetti, interessanti i fini della ricerca, di scrivere la loro biografia) della vita di
una persona, compilata in un’ottica retrospettiva- altrimenti è un diario; ci sono
problemi di rappresentatività (perché una persona che scrive la propria biografia
è fuori dalla norma, una personalità particolare), di selezione del materiale più
interessante agli occhi di chi scrive e di razionalizzazione a posteriori degli
eventi passati, che possono essere falsati per vari motivi;
- diari: sono il documento personale per eccellenza, redatto simultaneamente agli
eventi descritti, cosa che li rende una testimonianza preziosa della vita interiore
dello scrivente; anche i diari possono essere spontanei o commissionati; nessuna
grande ricerca sociale risulta essersi mai basata sui soli diari;furono molto usati
negli anni 20 e 30 tramite il modello dominante della scuola di chicago, ma
sempre come ausilio di altra documentazione. vedi BILANCI DI TEMPO pag 435
- lettere: la famosa ricerca “Il contadino polacco in Europa ed in America” di
Thomas e Znaniecki è basata su di esse; un tipo particolare di lettera è quella
rivolta ai giornali o ad una figura pubblica;PAG 436. AL CONTRARO DEI diari, che
sono una manifestazione incontaminata della personalità dello scrivente, le
lettere sono di fatto il risultato di un'interazione fra due persone, in esse c'è ol
mondo dello scrivente ma anche la percezione dello scrivente da parte del
destinatario.

I principali difetti dei documenti personali sono la rarità (non tutti sono disponibili a
rendere pubblici diari e lettere), la frammentarietà e incompletezza (perchè non
nascono allo scopo di fornire dati per la ricerca), la scarsa rappresentatività di coloro
che offrono questi dati: si prende quello che c'è, non si sceglie, non c'è
rappresentatività.

Questi difetti possono essere parzialmente rimediati mediante le testimonianze orali,


una sorta di racconto raccolto dalla viva voce del protagonista (è una cosa diversa
dall’intervista non strutturata, anche ci somiglia:qui si racconta la propria vita, quindi
dimensione autobiografia che nelle interviste qualitative non c'è, poiil ruolo
dell'intervistatore qui è limitato, infine n el metodo biografico ci si accontenta di poche
unità di casi raccolti, o addirittura solo uno, nello "studio del caso",col presupposto che
la comprensione dei meccanismi di anche una sola persona si possa gettare luce
sull'intero fenomeno studiato, non diversamente dall'analisi del singolo caso clinico nella
ricerca psicologica).
Si tratta di libri viventi (si pensi alle interviste agli anziani).

I vantaggi delle testimonianze orali sono che si possono scegliere le persone da


intervistare (e creare un campione dotato di una qualche rappresentatività), che si può
rimediare alla frammentarietà ed incompletezza del dato (stimolando con le domande a
completare una parte lacunosa del racconto)e che si può tentare di ricostruire la storia

Scaricato da Carmen Dds (carmendediosierra@gmail.com)


lOMoARcPSD|2722116

44

dal punto di vista degli strati sociali più bassi (il materiale scritto di solito è circoscritto
alle classi letterate). vedi pag 439 440 e segg su storie di vita e storie orali

Lo svantaggio più significativo è che non possiamo più godere del beneficio delle
informazioni “non reattive”.
Un racconto può essere una storia di vita (cioè un racconto autobiografico, l'oggetto è
un individuo, appartengono maggiormente alla tradizione sociologica della ricerca
sociale) o una storia orale tesa a raccogliere informazioni sulla società vissuta dal
soggetto (oggetto è la SOCIETà costruire quindi una storia dal basso, venata di
populismo).
Le storie di vita vengono solitamente utilizzate in tre modi: la riproduzione fedele del
materiale, con poche pagine di presentazione da parte del ricercatore (possiamo parlare
di uso pre-scientifico, teso a dare voce a chi normalmente non ce la ha), la
presentazione delle storie insieme ad un corposo saggio interpretativo (come nella già
citata opera “Il contadino…” di thomas e znaniecki ) oppure l’alternanza di brani originali
ed argomentazioni del ricercatore. Qui la testimonianza orale "non viene lasciata sola",
viene interpretata, collocata in un contesto più ampio.L’atteggiamento degli studiosi
verso i documenti personali è contrastante: alcuni non negano il fascino dei racconti ma
li rilegano in un mondo pre-scientifico o, al massimo, di integrazione delle altre analisi;
altri invece li riconoscono un interesse autonomo.

2) documenti istituzionali: sono i documenti che nascono dalla nostra vita


istituzionalizzata: anche la sfera pubblica di ogni società produce una serie infinita di
documenti che rimangono come tracce di quella cultura che si offrono come documenti
al ricercatore sociale.
Gli esempi sono infiniti: si va dai contratti che stipuliamo ai segnali stradali, elenchi
telefonici. Un testo può essere analizzato in modo quantitativo (suddiviso in elementi
omogenei da mettere in relazione tra loro - vedi la tecnica dell'analisi del contenuto) o
qualitativo (interpretato nella sua globalità)
pag 446 - Un produttore privilegiato di materiale documentario è rappresentato dai
mezzi di comunicazione di massa (stampa, programmi televisivi, ecc.), fonte
documentaria ineguagliabile per lo studio delle società che ci han preceduto a partire
dagli ultimi decenni dell'800; ma possiamo pensare anche alla narrativa, ai libri di testo
per le scuole, ai programmi educativi scolastici, al materiale giudiziario, ai documenti
della politica, ai documenti aziendali ed amministrativi.

documenti in internet pag 457!

I vantaggi dell’uso dei documenti istituzionalizzati sono la non reattività, la possibilità di


analisi diacroniche ed i costi ridotti; gli svantaggi sono la incompletezza e la ufficialità
che li caratterizza.
3) Un’ultima tipologia di documenti è rappresentata da quelli materiali: pensiamo alle
tracce di erosione o a quelle di accrescimento (esempio: l’usura del pavimento e la
quantità di immondizia) utilizzate per valutare l’entità di un fenomeno. Ma pensiamo
anche alle scritte sui muri, nei bagni pubblici, nelle ritirate dei treni, ecc.

Scaricato da Carmen Dds (carmendediosierra@gmail.com)

Potrebbero piacerti anche