RIASSUNTO:
“Metodologia e tecniche della ricerca sociale”
Piergiorgio Corbetta
Tale interpretazione del concetto di paradigma, nei termini di prospettiva teorica globale,
ma non esclusiva e in competizione con altre prospettive, è l’interpretazione più diffusa e
corrisponde all’uso corrente del termine nelle scienze sociali.
Le tre questioni sono intrecciate tra di loro, sia perché le risposte date ad ognuna sono
influenzate dalle altre date alle altre due, sia perché è difficile distinguere i confini delle tre
questioni.
Comte, il profeta del positivismo sociologico ottocentesco, ritiene che l’acquisizione del
punto di vista positivista rappresenti in ogni scienza il punto finale di un percorso che ha
attraversato gli stadi teologico e metafisico. Tale itinerario si realizza prima nelle scienze della
natura inorganica (astronomia, fisica, chimica); successivamente in quelle della natura organica
(biologia); infine nella materia più complessa, cioè la società, portando così alla costituzione di una
nuova scienza: sociologia o scienza positiva della società. Le scienze della società non sono
diverse da quelle della natura e il modo di pensare positivista avrà successo anche quando dagli
oggetti naturali si passerà a quelli sociali, alla religione, alla politica e al lavoro.
Il primo vero sociologo positivista è stato Durkheim, il quale ha tradotto i principi del
positivismo in prassi empirica, la quale si fonda sulla teoria del “fatto sociale”. Tale teoria
impone di trattare i fatti sociali come cose.
I fatti sociali sono modi d’agire, di pensare, di sentire che presentano la proprietà di esistere
al di fuori delle coscienze individuali. Ad esempio, quando si assolvono i doveri di marito o di
cittadino, i quali sono doveri definiti, al di fuori di se stessi e dei propri atti, nel costume e nel
diritto. Tali doveri non sono stati fatti dall’essere umano, ma sono stati ricevuti attraverso
l’educazione. Analogamente per quanto riguarda le credenze e le pratiche della vita religiosa, il
sistema dei segni, il sistema monetario, etc.
I fatti sociali, anche se non sono entità materiali, hanno le stesse proprietà della cose del
mondo naturale. Essi non sono soggetti alla volontà dell’uomo, anzi resistono al suo intervento, lo
condizionano e lo limitano. I fatti naturali, inoltre, funzionano secondo proprie regole, possiedono
una struttura deterministica, che l’uomo può scoprire attraverso la ricerca scientifica.
Il mondo sociale così come il mondo naturale è regolato da leggi, studiabili oggettivamente.
Da qui nasce l’assunto di una unità metodologica fra mondo naturale e mondo sociale, in
quanto si possono studiare con la stessa logica e lo stesso metodo.
Dunque:
esiste una realtà sociale al di fuori dell’individuo;
questa realtà sociale è oggettivamente conoscibile;
essa è studiabile con gli stessi metodi delle scienze naturali.
Alla base del positivismo c’è sempre l’entusiasmo per la conoscenza positiva di tipo
scientifico e la considerazione della scienza e del suo metodo come unica conoscenza valida ed
efficace in tutti i campi del sapere umano. Abbagnano definisce tale entusiasmo una
“romanticizzazione della scienza”, che consiste nella sua “esaltazione a unica guida della vita
singola e associata dell’uomo, cioè a unica conoscenza, a unica morale, a una religione possibile”.
4
POSITIVISMO
Il neopositivismo si è originato dalla scuola del positivismo logico. Tale movimento è nato
intorno alle discussioni di un gruppo di studiosi, chiamato “circolo di Vienna” e sulle cui posizioni,
qualche tempo dopo, si formò un gruppo analogo a Berlino. Il neopositivismo ebbe una grande
diffusione e influenzò diverse discipline, come la sociologia.
Il neopositivismo assegna un ruolo centrale alla critica della scienza, ridefinendo anche il
compito della filosofia, la quale deve dedicarsi all’analisi critica di quanto viene elaborato nelle
teorie delle singole discipline. Si dedica maggiore attenzione ai problemi metodologici delle
scienze, all’analisi logica del loro linguaggio e delle loro elaborazioni teoriche, alla critica dei loro
assunti.
In questo movimento di pensiero sono centrali le questioni epistemologiche e uno dei
postulati è la convinzione che il senso di un’affermazione derivi dalla sua verificabilità
empirica.
La conseguenza della diffusione del neopositivismo fu lo sviluppo di un nuovo modo di
parlare della realtà sociale, utilizzando un linguaggio tipico della matematica e della statistica,
detto linguaggio delle variabili. Ogni oggetto sociale, a cominciare dall’individuo, veniva definito
sulla base di attributi e proprietà, cioè le variabili; i fenomeni sociali analizzati in termini di
relazioni fra variabili. In questo modo la variabile diveniva la protagonista dell’analisi sociale. Con
tale metodo tutti i fenomeni sociali potevano essere rilevati, misurati, correlati, elaborati e
formalizzati, e le teorie convalidate o falsificate in modo oggettivo e senza ambiguità.
Le teorie neopositiviste abbandonano la caratteristica di leggi deterministiche per
assumere quella della probabilità. Dunque le teorie scientifiche non devono più spiegare i
fenomeni sociali attraverso schemi di natura logica necessitante, e la legge deterministica viene
sostituita dalla legge probabilistica, la quale prevede elementi di accidentalità, la presenza di
disturbi e fluttuazioni (incertezze).
Nel neopositivismo è stata aggiunta una nuova categoria, quella della falsificabilità, usata
come criterio di validazione empirica di una teoria. Tale categoria stabilisce che il confronto fra
teoria e ritrovato empirico non può avvenire in positivo, cioè attraverso la prova o verifica che la
teoria è confermata dai dati; ma si realizza in negativo, con la non falsificazione della teoria da parte
dei dati, mediante cioè la constatazione che i dati non contraddicono l’ipotesi. Dunque il metodo di
ricerca consiste nel rovesciare le “anticipazioni” e provare la loro falsità, allo scopo di avanzare
“pregiudizi affrettati e prematuri”. Da ciò deriva la provvisorietà di ogni ipotesi teorica, mai
definitivamente valida. In questo modo l’ideale scientifico dell’epistème, cioè della conoscenza
certa e dimostrabile, si è rivelato un mito.
POSTPOSITIVISMO
Negli stessi anni un altro studioso tedesco, Windelband, ha proposto una distinzione
collegabile a quella di Dilthey:
scienze nomotetiche: finalizzate all’individuazione di leggi generali;
scienze ideografiche: orientate a cogliere l’individualità dei fenomeni, la loro
unicità e irripetibilità.
È con Weber che l’interpretativismo entra nel campo della sociologia. Egli porta il
concetto di scienza dello spirito all’interno della sociologia e vuole mantenere l’oggettività della
scienza sociale sia in termini di avalutatività, cioè indipendenza da giudizi di valore; sia in quelli
della possibilità di arrivare ad enunciati aventi un carattere di generalità.
L’avalutatività delle scienze storico-sociali, cioè la loro libertà da qualsiasi giudizio di
valore, rimane un caposaldo irrinunciabile. Cioè fa riferimento alla capacità di saper distinguere tra
conoscere e valutare, ossia tra l’adempimento del dovere scientifico di vedere la realtà di fatti e
l’adempimento del dovere pratico di difendere i propri ideali. Quindi il ricercatore deve tener
distinte la constatazione dei fatti empirici e la sua presa di posizione pratica che valuta tali fatti.
Nonostante le scienze sociali debbano mantenere la loro avalutatività, i presupposti di
valore possono intervenire nella scelta dei problemi da studiare, orientando così la ricerca. In questo
senso i valori assumono una funzione selettiva.
L’avalutatività è la prima condizione per l’oggettività delle scienze sociali.
Secondo Weber le scienze sociali si distinguono da quelle naturali perché hanno come
obiettivo quello di studiare i fenomeni sociali nella loro individualità. Il metodo usato da Weber
è la comprensione, la quale è una comprensione razionale delle motivazioni dell’agire. Quindi
tale metodo consiste nell’intendere lo scopo dell’azione, cogliere le dimensioni di proposito e di
intenzionalità dell’agire umano. Si tratta di interpretazione e non di intuizione.
Per Weber comprendere un’azione individuale consiste nel procurarsi i mezzi di
informazione sufficienti per analizzare le motivazioni che hanno ispirato l’azione. L’osservatore
comprende l’azione del soggetto osservato solo quando può concludere che, nello stessa situazione,
egli avrebbe agito nel medesimo modo. Quindi, la comprensione weberiana presuppone che
l’osservatore si metta al posto dell’attore, ma la soggettività del secondo non è necessariamente
subito trasparente per il primo.
Da questo orientamento verso l’individualità è necessario arrivare all’oggettività e a questo
punto intervengono i tipi di ideali.
I tipi ideali sono forme di agire che possono essere riscontrate in modo ricorrente nel modo
di comportarsi degli individui umani; sono uniformità tipiche di comportamento, costruite
attraverso un processo astrattivo che coordina diversi elementi in un quadro coerente e privo di
contraddizione. I tipi ideali sono, dunque, un’astrazione che nasce dalla rilevazione empirica di
uniformità.
Il tipo ideale weberiano si ritrova in tutti i campi del sociale; alcuni esempi sono:
capitalismo (strutture sociali), burocrazia (istituzioni), agire razionale (comportamento
dell’individuo). Questi tipi ideali non devono essere confusi con la realtà; essi sono costruiti in
modo ideale euristico, ideali perché sono costruzioni mentali dell’uomo; euristico perché
indirizzano la conoscenza. Non hanno un corrispettivo concreto nella realtà, ma sono modelli teorici
che aiutano il ricercatore ad interpretarla.
I tre tipi ideali di Weber sono:
1. potere carismatico;
2. potere tradizionale;
3. potere razionale-legale.
Mentre il tipo ideale è una costruzione razionale chiara, coerente e priva di ambiguità. La
realtà, invece, è più complessa, contraddittoria e disordinata.
Le uniformità che il ricercatore persegue ed individua nella sua interpretazione della realtà
sociale, non sono le leggi, ma connessioni causali, o, per meglio dire, enunciati di possibilità: se
accade A, allora il più delle volte si verifica anche B.
Dunque, non si può raggiungere l’obiettivo di stabilire i fattori determinanti di un certo
evento sociale o di un certo comportamento individuale, ma si può raggiungere quello di tracciarne
le condizioni che lo rendono possibile.
Alle leggi causali dotate di generalità e di obbligatorietà, tipiche del positivismo, si
contrappongono enunciati e connessioni con caratteri di specificità e possibilità.
Weber ha anticipato un ricco filone di teoria e ricerca sociologica che ha dato luogo a diversi
movimenti e scuole di pensiero: la sociologia fenomenologica, l’interazionismo simbolico e
l’etnometodologia che si sono affermati con la sociologia americana degli anni ’60 del secolo
scorso.
Weber ha elaborato i propri concetti su un piano macrosociologico, interessato a capire
l’economia, lo stato, il potere, la religione e la burocrazia. Invece, il movimento che nasce negli
Stati Uniti negli anni ’60 del ‘900 sviluppa una prospettiva microsociologica. Secondo tale scuola
se la società è edificata a partire dalle interpretazioni degli individui ed è la loro interazione che crea
le strutture, è proprio a questa interazione che bisogna interessarsi per capire la società. Da qui
deriva la scoperta di un nuovo campo di indagine per la sociologia: il mondo della vita
quotidiana.
POSITIVISMO INTERPRETATIVISMO
caratterizzato dall’oggettività; caratterizzato dalla soggettività;
INTERPRETATIVISMO
9
10
Le ricerche mostrate nei paragrafi successivi fanno riferimento ad una stessa tematica, quella
della delinquenza minorile e sono analizzate secondo l’approccio neopositivista e interpretativo.
Il modello teorico ipotizzato da Sampson e Laub si basa su due stadi, rappresentati dalle
variabili strutturali che influenzano il comportamento deviante non in modo diretto, ma in modo
mediato dalle variabili intervenienti rappresentante dal legame-controllo familiare.
Le variabili strutturali di base sono nove:
1. affollamento abitativo: si suddivide a sua volta in tre categorie:
1) confortevole;
2) medio;
3) sovraffollato;
2. disgregazione familiare: prevede due categorie con valore 1 quando il
ragazzo è cresciuto in una famiglia in cui uno o entrambi i genitori erano assenti per
divorzio, separazione, abbandono o decesso;
3. dimensione della famiglia: data dal numero di bambini;
4. status socio-economico: comprende tre categorie:
1) confortevole;
2) marginale;
3) dipendente;
5. nascita all’estero: si suddivide in due categorie con valore 1 se uno o
entrambi i genitori sono nati all’estero;
6. mobilità residenziale: definita dal numero di volte che la famiglia del
ragazzo ha cambiato abitazione durante la sua infanzia;
7. lavoro della madre: si suddivide a sua volta in due categorie (dicotomica);
8. devianza del padre: comprende tre categorie a seconda se il padre sia mai
stato arrestato o sia stato un alcolista;
9. devianza della madre: comprende tre categorie a seconda se la madre sia
mai stata arrestata o sia stata un’alcolista.
Per quanto riguarda i risultati dell’analisi, gli autori utilizzano lo strumento statistico
della regressione multipla. Essi dispongono di tre blocchi di variabili:
1. variabili strutturali di base;
2. variabili processuali familiari;
3. variabile dipendente: comportamento deviante.
Mettono in relazione questi tre blocchi a due a due, riscontrando delle correlazioni:
1. relazione fra variabili di base e variabili processuali: le condizioni
strutturali della famiglia influenzano i legami affettivi e il rapporto pedagogico;
2. relazione fra variabili di base e devianza: la situazione familiare precaria,
povera, etc. favorisce il comportamento deviante;
3. relazione fra variabili processuali e devianza: è favorita dall’indebolimento
dei legami familiari.
Nel momento in cui si analizzano le variabili processuali e strutturali di base intese come
indipendenti, e il comportamento deviante, inteso come variabile dipendente, si nota che
sparisce l’effetto delle variabili strutturali.
Ciò sta a significare che le variabili strutturali non hanno un effetto diretto sul
comportamento deviante, ma la loro azione è mediata dalla variabili processuali. Le variabili
processuali, invece, influenzano il comportamento deviante.
Conclusasi la fase empirica si ritorna alla teoria. La conclusione degli autori è che i
processi familiari di controllo informale hanno un effetto inibitorio sulla delinquenza degli
adolescenti. È sorprendente che molte spiegazioni sociologiche del crimine ignorino la famiglia.
Sampson e Laub propongono il modello teorico dinamico di crimine, devianza e
controllo sociale informale lungo il ciclo di vita, nel quale dividono il corso dei primi 45 anni di
età in 5 fasi e per ogni fase evidenziano il ruolo dei fattori che favoriscono l’insorgere del
comportamento deviante e di quelli che lo inibiscono.
sostiene che chi vi aderisce lo faccia per scelta razionale. La gang nasce come risposta
organizzativa per accrescere la competitività dei suoi membri.
Jankowski sviluppa la sua relazione su tre livelli:
1. l’individuo e il suo rapporto con la gang: riguardo l’individuo Jankowski
elabora il concetto di carattere individualistico e ribelle. L’individuo si caratterizza da un
forte senso della competizione, da sfiducia verso gli altri, da cui conseguono individualismo,
isolamento sociale e necessità di contare solo su se stessi, e da una visione esistenziale
darwinistica, secondo la quale la vita è una lotta in cui sopravvivono solo i più forti e dalla
quale discende un forte istinto di sopravvivenza.
L’autore definisce la gang come un sistema sociale quasi-privato e quasi-segreto,
governato da una struttura di leadership che ha ruoli definiti; il suo agire è finalizzato
all’erogazione di servizi sociali ed economici ai suoi membri e alla propria sopravvivenza
come organizzazione. Essa persegue i suoi obiettivi, a prescindere se questi siano legali o
meno; è priva di burocrazia.
L’individuo ribelle chiede di entrare nella gang affinché possa ottenere vantaggi
economici, di status e di potere. Egli sarà accettato dalla gang solo se è in grado di
soddisfare i bisogni dell’organizzazione.
L’obiettivo della ricerca non è rappresentato da modelli causali dove le variabili sono
connesse da legami di causa-effetto, ma da classificazioni e tipologie, a partire dall’esperienza
vissuta, tipico del paradigma interpretativo.
Si utilizza l’osservazione
partecipante.
Interazione psicologica Il ricercatore scientifico Il ricercatore assume un
studioso-studiato assume un punto di vista punto di vista interno al
neutrale, distaccato ed soggetto studiato, in modo
esterno al soggetto studiato; da vedere la realtà sociale
studia ciò che gli sembra con gli occhi dei soggetti
importante. studiati.
A questo punto si pone il
problema dell’oggettività
della ricerca.
Interazione fisica studioso- Distanza e separazione. Prossimità e contatto.
studiato L’incontro fra studioso e
studiato è precondizione
per la comprensione.
Ruolo del soggetto studiato L’individuo studiato viene L’individuo studiato viene
considerato come passivo. considerato come attivo.
RICERCA
2. RILEVAZIONE RICERCA QUANTITATIVA
QUALITATIVA
Disegno della ricerca: Costruito prima dell’inizio della Destrutturato, aperto,
comprende le scelte di rilevazione; è strutturato, modellato nel corso della
carattere operativo con le chiuso e rigido. rilevazione.
quali si organizza la Dunque si tratta di un
raccolta dei dati. disegno libero da vincoli.
Rappresentatività dei Il ricercatore si preoccupa della Il ricercatore non è
soggetti studiati rappresentatività statistica del interessato alla
pezzo di società che deve rappresentatività
studiare. statistica, ma a quella
sostantiva, sociologica,
che si stabilisce in base al
giudizio del ricercatore
stesso.
Strumento di rilevazione È uniforme (questionario) o L’obiettivo non è la
uniformante (una scheda di standardizzazione. Le
codifica per uniformare domande informazioni devono
17
RICERCA
4. RISULTATI RICERCA QUALITATIVA
QUANTITATIVA
o Presentazione dei Si utilizzano le tabelle e si Si usano brani di interviste o di testi
dati parla di prospettiva e a questo proposito si parla di
relazionale. Esse prospettiva narrativa. L’intervista,
forniscono informazioni riportando le parole dell’intervistato,
parsimoniose, succinte permette di vedere meglio la realtà con
(brevi, concise) e compatte. gli occhi del soggetto studiato.
La narrazione serve per scopi
illustrativi e per esemplificare i
risultati.
o Generalizzazioni La ricerca viene La ricerca viene sintetizzata
sintetizzata attraverso una attraverso l’individuazione di “tipi”,
correlazione fra variabili, in riferimento al concetto weberiano
un modello causale e di “tipo ideale”. Il “tipo ideale” è una
leggi. categoria concettuale che non ha un
corrispettivo nella realtà. È una
La ricerca quantitativa si costruzione che, pur nascendo
18
19
20
FASI PROCESSI
1. TEORIA: è generale.
1. DEDUZIONE
2. IPOTESI: rappresenta
un’articolazione parziale della
teoria. È specifica.
2. OPERATIVIZZAZIONE: trasformazione delle
ipotesi in affermazioni empiricamente
osservabili. Si possono distinguere due
momenti:
1) operativizzazione dei concetti: consiste
nel trasformare i concetti in variabili,
cioè in entità rilevabili;
2) scelta dello strumento e delle
procedure di rilevazione;
Alla fine si definisce il disegno della ricerca,
cioè un piano di lavoro sul campo, che stabilisce
le varie fasi dell’osservazione empirica.
3. RACCOLTA DATI o
RILEVAZIONE EMPIRICA
3. ORGANIZZAZIONE DATI (matrice-dati): è il
processo che consiste nel trasformare le
informazioni in una matrice rettangolare, detta
matrice dei dati o matrice casi per variabili.
4. ANALISI DATI: consiste in
elaborazioni statistiche condotte
con l’aiuto di un calcolatore. Si
definiscono dati i materiali
organizzati in modo da poter
essere analizzati; invece si
definiscono informazioni i
materiali empirici grezzi non
ancora sistematizzati.
4. INTERPRETAZIONE delle analisi statistiche
5. RISULTATI
5. INDUZIONE: processo, attraverso il quale si
torna alla teoria, che a partire dalle risultanze
empiriche si confronta con le ipotesi teoriche di
partenza, per arrivare alla conferma o alla
riformulazione della teoria stessa.
21
punto di vista concettuale (astrazione) sia da quello del campo di applicazione (generalizzazione).
Derivata da regolarità empirica: la teoria nasce dalla constatazione di ricorrenze nella realtà
osservata.
Produttiva di previsioni empiriche: da una teoria ricavata dall’osservazione di determinate
regolarità empiriche si possono dedurre accadimenti in altri e differenti contesti.
Un esempio di quanto appena detto è la teoria del suicidio di Durkheim. Egli distingue tre
tipi di suicidio:
1. suicidio egoistico;
2. suicidio altruistico;
3. suicidio anomico.
All’interno di questa teoria si deve isolare l’affermazione secondo la quale più elevato è il
tasso di individualismo in un determinato gruppo sociale, maggiore sarà il tasso di suicidi in quel
gruppo. Per individualismo si intende si intende una situazione sociale e culturale in cui la persona
è pianamente libera nelle scelte di vita. Opposto è, invece, il contesto di coesione sociale, nella
quale l’attività di una persona è sottoposta a controlli sociali e le scelte sono per lo più determinate
da norme collettive.
La proposizione teorica enunciata, che lega individualismo e suicidio, è una proposizione
causale, che rappresenta i caratteri di:
astrazione: i concetti di individualismo, di coesione sociale e di suicidio sono
astratti rispetto alla realtà osservata;
generalizzazione: la connessione proposta da Durkheim è valida per un vasto
insieme di società;
deriva da uniformità empiriche: Durkheim ha dedotto e controllato
empiricamente la sua teoria attraverso l’analisi di fonti statiche del suo tempo;
previsioni empiriche: la teoria da luogo a questo tipo di previsioni.
L’itinerario che lega teoria e ipotesi si suddivide in fasi: prima l’elaborazione della teoria
e poi la definizione delle ipotesi, le quali servono per definire il disegno della ricerca, cioè
l’organizzazione della rilevazione. È frequente però che le ipotesi vengano sviluppate dopo aver
raccolto i dati, e con questi confrontate a posteriori.
In altri casi, invece, si ricorre alla teoria dopo aver analizzato i dati. Si procede con
un’analisi secondaria nel momento in cui si analizzano dati raccolti da altri ricercatori in tempi
precedenti.
individuo;
aggregato territoriale;
gruppo-organizzazione-istituzione;
prodotto culturale.
ordinabile sono le relazioni di uguale e di diverso (un cattolico è uguale, per ciò che riguarda la
religione, a un altro cattolico e diverso da un protestante).
Gli stati della variabile operativizzati sono detti modalità, i simboli assegnati alle
modalità sono detti valori. I valori hanno l’obiettivo di identificare la categoria e solitamente sono
espressi con un numero, che non ha alcun significato numerico.
In questo caso è la classificazione la procedura di operativizzazione, che permette di
passare dalla proprietà alla variabile.
Gli stati delle proprietà vengono classificati in categorie che devono avere determinati
requisiti:
a) esaustività: ogni caso studiato si deve poter collocare in una delle categorie
previste;
b) mutua esclusività: un caso non può essere classificato in più di una
categoria;
c) unicità del criterio di divisione: ad esempio non si può classificare la
nazionalità usando categorie come italiana, francese, cinese, etc.
Importante è la caratteristica della cumulatività dei tre tipi di variabili che sono
immaginabili su livelli in cui ognuno include le proprietà dei livelli inferiori.
Un sottoinsieme delle variabili cardinali è quello delle variabili quasicardinali. Esse sono
proprietà continue, che variano in modo graduale fra gli individui, ma non riescono a passare dalla
condizione di proprietà continue a quella di variabile cardinale. Questo limite è causato da:
la reattività dell’essere umano al processo di osservazione;
l’interazione dell’osservatore con il soggetto studiato;
l’irriducibile individualità dell’essere umano;
la complessità delle variabili sociali.
Tale limite è stato superato attraverso l’applicazione della “tecnica delle scale” o “scaling”,
la quale si propone di misurare le opinioni, gli atteggiamenti e i valori.
Sono esempi la religiosità, l’autoritarismo, la depressione, la coesione sociale, il pregiudizio,
etc.
I concetti si possono classificare in base alla scala di generalità, cioè sulla base di un
continuum dato dal diverso grado di generalità-specificità.
La maggior parte dei concetti sociologici si pongono ad un elevato livello di generalità e
sono concetti astratti. Per definire in termini osservativi tali concetti (ad esempio, l’alienazione) si
fa ricorso agli indicatori.
Gli indicatori sono concetti più semplici, specifici, traducibili in termini osservativi, legati a
concetti generali dal rapporto di indicazione o rappresentanza semantica (cioè di significato).
Gli indicatori, proprio perché sono specifici, rilevano solo un aspetto della complessità di
un concetto generale. Da ciò la necessità di ricorrere a più indicatori per rilevare operativamente
lo stesso concetto. Lazarsfeld propone l’espressione universo degli indicatori e propone di
chiamare dimensioni le articolazioni in cui viene specificato un concetto.
Un indicatore può essere collegato a più concetti, dal contenuto semantico anche diverso. Ad
esempio, nelle società culturalmente e politicamente dominate dalle istituzioni ecclesiastiche, la
partecipazione ai riti religiosi può essere indicatore di conformismo sociale piuttosto che di
religiosità.
Si possono distinguere due parti di un indicatore:
1. parte indicante: è la parte del contenuto semantico che l’indicatore ha in
27
2. Partecipazione visibile
(implica comportamenti
pubblici):
elettorale; voto;
dedicare tempo al
partito;
versamenti di denaro al
partito;
associativa; partecipazione ad
associazioni;
firme di referendum e di
petizioni;
partecipazione ad
assemblee e cortei;
partecipazione a comizi
azioni sporadiche. e dibattiti;
scrivere lettere ai
giornali e reclami ad
autorità pubbliche;
rivolgersi a uomini
politici.
L’itinerario che dai concetti conduce alle variabili si compone di due fasi:
1. fase teorica o indicazione: è la fase in cui si scelgono gli indicatori che
devono rappresentare un concetto. In questa fase è ricorrente l’errore sistematico;
2. fase empirica o operativizzazione: si possono compiere sia errori
sistematici che accidentali. Il processo di operativizzazione si articola in diversi
momenti, in ognuno dei quali si possono commettere degli errori:
fase di selezione delle unità studiate – errori di selezione: sono errori
dovuti al fatto che una determinata ricerca non viene operata su tutta la popolazione, ma su
un campione di soggetti. Si distinguono tre tipi di errori di selezione:
1) errore di copertura: è dovuto al fatto che la lista della popolazione che si
possiede e dalla quale si estraggono i casi del campione non è completa;
2) errore di campionamento: il fatto di condurre la ricerca su un campione,
invece che sull’intera popolazione, comporta un errore che, con un campione diverso,
sarebbe esso pure differente;
3) errore di non risposta: alcuni soggetti, anche se appartenenti al campione da
29
Fase di trattamento dei dati – errori nel trattamento dei dati: si verificano
dopo che i dati sono stati raccolti e consistono in errori di codifica, di trascrizione, di
memorizzazione su supporto informatico, etc.
Tale modalità articolata di vedere l’errore si chiama approccio dell’errore globale, il quale
non è stimabile. Ciò che si può stimare è l’errore di campionamento, una componente dell’errore
globale, provocato dal fatto di operare su un campione invece che sull’intera popolazione.
La terza forma per misurare l’attendibilità è quella che si basa sul presupposto che gli
30
errori accidentali variano fra test e test, e fra domanda e domanda all’interno di uno stesso test.
Sono state così proposte le misure basate sulla coerenza interna, in cui l’attendibilità è stimata
attraverso la correlazione delle risposte ad ogni domanda con le risposte a tutte le altre domande.
In generale si può affermare che “il pensiero causale appartiene completamente al livello
teoretico e che le leggi causali non possono mai essere dimostrate empiricamente”.
Mario Bunge sostiene che per esprimere il concetto di “causazione” non è sufficiente
l’enunciato:
Se C, allora E
poiché tale affermazione comporta che la relazione fra C (causa) ed E (effetto) possa valere
sia “talvolta” che “sempre”, mentre il principio causale deve sostenere il realizzarsi di E tutte le
volte che si realizza C.
Secondo Bunge, dunque, ciò che serve è un enunciato che esprima l’idea che quella causale
è una categoria di connessione genetica e che designa una modalità di produzione di cose a partire
da altre cose. L’enunciato finale per esprimere il nesso causale è:
L’elemento che emerge in questo enunciato è l’idea di produzione: cioè non ci si limita ad
affermare l’esistenza di una “congiunzione costante” fra due fenomeni, ma si afferma che “oltre ad
essere accompagnato dalla causa, l’effetto viene da essa generato”.
L’azione di produzione si riferisce ad un processo ontologico; ha una realtà indipendente
dall’osservatore e dalle sue percezioni; non si possono osservare e misurare le azioni di produzione.
Probabilmente, si possono osservare solo alcune covariazioni e serie temporali. Il semplice fatto che
X e Y varino insieme in modo prevedibile, e che una trasformazione di X preceda sempre una
trasformazione di Y, non ci assicura mai che X produca una trasformazione in Y.
Sul piano empirico non si può provare l’esistenza di una legge causale, cioè non si può
provare che la variazione di X produce la variazione di Y. Ciò è invece possibile sul piano teorico,
ma sono necessari dei fatti osservativi. Dunque, se osserviamo empiricamente che una variazione di
X è regolarmente seguita da una variazione di Y, tenendo costanti tutte le altre possibili cause di Y,
abbiamo un forte elemento empirico di corroborazione (confermare, avvalorare) dell’ipotesi che X
sia causa di Y.
Il campione scelto deve essere rappresentativo, cioè deve essere in grado di riprodurre le
caratteristiche dell’intera popolazione oggetto di studio, per cui deve essere scelto seguendo regole
statistiche prestabilite e deve essere di dimensioni consistenti.
Affinché i dati possano essere analizzati con tecniche statistiche è necessario che anche le
risposte, oltre alle domande, siano standardizzate e cioè organizzate sulla base di uno schema di
classificazione comune a tutti i soggetti, chiamato matrice-dati.
La matrice-dati è una tabella, le cui righe si compongono dai casi e le colonne dalle
variabili, in ogni cella è presente un dato, cioè il valore assunto da una particolare variabile su un
particolare caso.
Ciò porta a distinguere l’inchiesta campionaria dal sondaggio:
tratta una grande varietà di tematiche gli argomenti non sono trattati in profondità,
e consiste in una lunga e articolata perché si mira solo a conoscere le opinioni
intervista; che emergono in superficie. Si compone di
poche domande, a volte anche da una, e può
durare pochi minuti;
34
cioè sceglie la ricerca di ciò che accumuna gli individui piuttosto che di ciò che li distingue.
Dunque, il ricercatore privilegia lo studio del minimo comun denominatore nel comportamento
umano che può essere classificato, uniformato e confrontato.
Tre sono i limiti della domanda aperta: Tre sono i limiti della domanda chiusa:
37
Definizioni ambigue: non bisogna usare termini dal significato non ben
definito.
Mancanza d’opinione e non so: la risposta “non so” è legittima come tutte
le altre e può essere inserita nelle alternative proposte. Bisogna, però, tener presente che il
soggetto insicuro, che non ha un’opinione sull’argomento che gli è stato proposto o che si
sente a disagio a rispondere “non so”, risponderà a caso oppure ricercherà un indizio
qualunque per scoprire la risposta giusta.
risposte che esprimono accordo, cioè a dare risposte affermative piuttosto che negative.
Tipico atteggiamento di persone con basso livello culturale;
2. uniformità delle risposte: consiste nel fatto che, di fonte ad una batteria di
domande tutte con lo stesso tipo di alternative di risposta, ci possono essere intervistati che,
per pigrizia o per mancanza di opinioni, rispondono sempre allo stesso modo. Tale problema
si risolve formulando le risposte in modo che un individuo coerente debba rispondere in
modo positivo ad alcune domande e in modo negativo ad altre.
Una stessa domanda, applicata a diversi oggetti, può essere formulata in:
termini assoluti: ogni elemento della batteria è un’entità autosufficiente, alla
quale l’intervistato può rispondere indipendentemente dalle altre domande;
termini relativi: la risposta è il risultato di un confronto con le altre possibili
risposte. È migliore agli effetti della valutazione del punto di vista dell’intervistato, perché
permette di differenziare meglio le diverse posizioni.
Nella ricerca sociale, una ricerca che usa la tecnica delle batterie di domande è la tecnica
delle scale o scaling, applicata soprattutto all’area della misura degli atteggiamenti.
Un limite delle batterie di domande è quello di produrre pseudo-opinioni e risposte
meccanicamente tutte uguali fra loro.
VANTAGGI
il testo dell’intervista scorre sul video di fronte all’intervistatore;
la risposta viene subito digitata e messa in memoria;
il computer gestisce lo svolgimento dell’intervista e segnala le incongruenze;
si eliminano le fasi di codifica e di immissione dati;
l’intervistatore può trasmettere via internet il suo file di interviste al centro di rilevazione;
l’investimento della dotazione di un computer ad ogni intervistatore viene ammortizzato dai
risparmi sulle fasi di codifica e immissione dati.
42
CARATTERISTICHE DELL’INTERVISTATORE
l’intervistatore segue un approccio oggettivista, cioè deve mantenersi neutrale e
distaccato;
non può influenzare con nessun comportamento l’intervistato;
non può esprimere approvazione o disapprovazione per le affermazione rilasciate
dall’intervistato;
deve rispondere con frasi o gesti ambigui;
deve fare in modo che l’intervistato cooperi positivamente e quindi che non perda
l’attenzione o l’interesse, che capisca il significato delle domande e che non si verifichino
fraintendimenti;
dovrà costruire un rapporto amichevole con l’intervistato, ma nello stesso tempo
neutrale, in grado di trasmettere l’idea che non ci siano risposte giuste o sbagliate;
si preferiscono intervistatori donne di mezza età, appartenenti ad un ceto sociale superiore,
ma non troppo, a quello degli intervistati;
l’intervistatore non deve avere grandi aspirazioni professionali, deve abituarsi ad un lavoro
discontinuo e part-time, modestamente retribuito e collocato negli intervalli della giornata e
non nelle ore centrali;
l’intervistatore deve possedere un aspetto esteriore e optare per un abbigliamento neutrali,
non vistosi né eccentrici;
le aspettative degli intervistatori hanno il potere di influenzare le risposte degli intervistati.
Le distorsioni delle risposte possono essere provocate dall’ideologia e dalla struttura dei
valori degli intervistatori e generate dalle aspettative che l’intervistatore ha sull’intervistato.
Tali aspettative sono spesso trasmesse in modo inconscio dall’intervistatore, attraverso le
espressioni del viso oppure tramite le sottolineature e l’enfasi nel leggere le domande e le
alternative di risposta;
è importante che l’intervistatore sia preparato e quindi consapevole del tipo di interazione
che si crea tra lui e l’intervistato; deve essere formato su come rispondere ad eventuali
richieste di chiarimento o fraintendimenti. Da qui la necessità di organizzare corsi di
formazione per l’intervistatore;
l’intervistatore deve mostrarsi convinto dell’importanza del suo lavoro e della ricerca, deve
essere coinvolto nelle finalità della rilevazione.
VANTAGGI SVANTAGGI
risparmio nei costi di bassa percentuale di risposte;
rilevazione; mentre le altre tipologie di questionari vengono
l’intervistato può compilarlo compilati da un intervistatore formato ed istruito, i
quando vuole, anche a più questionari autocompilati spesso vengono svolti da
riprese; persone che magari non ne hanno mai compilato
è privo di elementi che uno, o magari sono scarsamente motivati a farlo o
43
VANTAGGI SVANTAGGI
grande rapidità di rilevazione su la mancanza del contatto personale, fa sì che
44
VANTAGGI SVANTAGGI
il questionario presenta una non tutte le persone possiedono
grafica più elegante ed è un accesso ad internet oppure se
45
Ogni volta che si possiede una lista di destinatari della ricerca e si possiedono i loro
recapiti telefonici, postali e mail è possibile effettuare una ricerca utilizzando sistemi
misti di rilevazione, in cui oltre al questionario online, si procede anche con
questionari telefonici e faccia-a-faccia.
46
L’attributo “ufficiali”, che potrebbe essere sostituito dall’attributo “pubbliche”, indica che
queste raccolte di dati vengono effettuate dall’amministrazione pubblica. L’origine dei censimenti è
antichissima, in quanto l’esigenza di “contare” la popolazione, le famiglie, i beni si è presentata fin
dalle prime forme organizzative dello stato e si è affermata con la nascita dei grandi imperi
47
centralizzati dell’antichità.
La fonte statistica ufficiale ha come obiettivi studiare un fatto sociale, controllare
empiricamente una teoria, individuare le possibili cause di un fenomeno, ma la funzione
principale rimane quella descrittiva.
Il dato statistico si distingue dall’inchiesta campionaria per quattro aspetti:
1. produzione;
2. unità di analisi;
3. contenuto;
4. ampiezza delle rilevazione.
Si parla di rilevazione indiretta tutte quelle volte che il dato statistico è il sottoprodotto di
un dato amministrativo.
Si parla, invece, di rilevazione diretta quando l’informazione viene raccolta per poter
conoscere un determinato fenomeno sociale. È questo il caso del censimento, che viene
organizzato dallo stato per conoscere le caratteristiche delle popolazione. I censimenti moderni
nascono nel 1800 e si svolgono ogni 10 anni. In Italia il primo è stato svolto nel 1861. Oltre al
censimento sono stati inaugurate anche altre forme di rilevazione diretta dei dati: indagini
campionarie ad hoc, volte a studiare aspetti particolari della società, e l’ISTAT ha promosso il
“Sistema di indagini multiscopo sulle famiglie”, il quale offre alla ricerca sociale nuove
opportunità grazie alle risorse informatiche.
PARAGRAFO 2.2 – Le unità di analisi pp. 289-291
Le statistiche ufficiali si distinguono dall’inchiesta campionaria perché la loro unità di
analisi non è costituita dall’individuo, bensì dal territorio (sezioni elettorali o censuarie, comuni,
province, regioni, contee, nazioni, etc.). Nonostante inizialmente il dato sia stato raccolto su
individui e quindi in base ad unità di rilevamento, il dato stesso si può analizzare solo se è
proposto a livello aggregato, cioè in base ad un’unità di analisi.
Se le unità di analisi riguardano un singolo individuo, si parla allora di dati individuali.
Se l’unità di analisi riguarda un collettivo, si parla di dati aggregati, i quali derivano da una
operazione di conteggio effettuata sugli individui di un collettivo, che porta ad un totale. A ciò
segue una normalizzazione basata sulla popolazione totale del collettivo per poter annullare le
differenze di ampiezza dei collettivi e poterli confrontare.
Nel caso delle statistiche ufficiali il collettivo è rappresentato da un territorio. In questo
modo si possono contare i matrimoni civili, il numero di voti ad un partito, il numero di biglietti
cinematografici venduti; si ottiene, così, un rapporto statistico che permette di confrontare i casi e
costituisce la variabile aggregata.
A seguito della rivoluzione informatica i dati provenienti da statistiche ufficiali non sono
disponibili solo in forma tabellare e aggregata, ma anche in forma di record individuali. In Italia ciò
è oggi possibile per indagini particolari e per i censimenti. Si tratta dei microdati e quindi
dell’analisi secondaria, cioè il ricercatore applica le tecniche di analisi dei dati individuali a
informazioni già raccolte.
48
z = è un coefficiente che dipende dal livello di fiducia che il ricercatore vuole avere nella
stima; dipende cioè dal grado di certezza, ovvero dall’affidabilità che si vuole dare alle stime. Tale
coefficiente aumenta all’aumentare del livello di fiducia che si vuole avere.
campionamento, cioè il rapporto fra l’ampiezza del campione e l’ampiezza della popolazione.
Più che la frazione di campionamento, è l’ampiezza del campione a determinare l’entità
dell’errore.
e=z√pq/n-1√1-f
z, n e f hanno gli stessi significati che assumono nella formula per le variabili cardinali.
q = 1-p.
n=(zs/e)2
z = coefficiente dipendente dal livello di fiducia che si vuole avere nella stima. Valore
stabilito dal ricercatore.
51
52
immedesimazione, le motivazioni;
principi fondamentali:
1. è possibile raggiungere una piena
conoscenza sociale solo
attraverso la comprensione del
punto di vista degli attori sociali,
immedesimandosi nelle loro vite;
2. tale immedesimazione è
realizzabile con una piena e
completa partecipazione alla
quotidianità degli attori sociali,
un’interazione continua e diretta
con i soggetti studiati.
La sociologia autobiografica consiste nel fatto che il ricercatore studia una realtà della
quale fa o ha fatto parte. In questo ambito l’osservazione partecipante è considerata lo strumento
naturale di indagine.
ESEMPI:
la ricerca di Scott sui giocatori d’azzardo, avendo lui stesso partecipato alle
bische clandestine;
la ricerca di Becker, musicista, sui suonatori di jazz;
la ricerca della Hall sulla socializzazione delle bambine alla professione di
ballerina, essendo stata essa stessa per 16 anni allieva delle scuole di ballo.
STUDI DI COMUNITÀ
Si studia ogni aspetto della vita dei microcosmi sociali autonomi collocati in ambiti
territorialmente definiti e dotati di un loro universo culturale chiuso, che investe tutti gli aspetti
della vita: una comunità contadina, una città di provincia, etc.
Tali studi risentono fortemente del modello etnografico e consistono in ricerche condotte su
piccole comunità sociali, territorialmente localizzate, che comportano il trasferimento del
56
L’universo esistenziale di una società viene studiato come un antropologo studia una tribù
primitiva.
STUDI DI SUBCULTURE
Si studiano subculture nate all’interno di segmenti sociali delle società complesse, che
rappresentano aspetti della cultura dominante: la cultura dei giovani, dei ricchi, degli avvocati, dei
militari, di un partito politico, etc.
Inizialmente i sociologi furono attirati dalle culture diverse e alternative alla cultura
dominante. Gli studi della Scuola di Chicago degli anni ’20 e ’30 del ‘900 si concentrarono
soprattutto sulle sacche di marginalità sociale prodotte dall’immigrazione e
dall’urbanizzazione: i vagabondi, le gang, le prostitute, i ghetti neri, gli slums (quartieri poveri),
le comunità di immigrati, etc.
ESEMPI:
la ricerca condotta da William Foote Whyte in uno slum della periferia di
Boston. Whyte decise di trattare nella sua tesi di dottorato la piccola criminalità organizzata
e così si trasferì nel quartiere più degradato della sua città.
La ricerca condotta da Jankowski su 37 gang appartenenti a tre diverse città
e osservate nel corso di 10 anni.
La ricerca The Hobo (Il vagabondo) di Nels Anderson, la quale ha come
oggetto il proletariato marginale sviluppatosi intorno alla costruzione della grande rete
ferroviaria americana. Gli hobos erano i lavoratori migranti, senza fissa dimora, che si
spostavano a seconda delle nuove opportunità di lavoro. Tale ricerca è sia il risultato
dell’osservazione partecipante che il prodotto della biografia stessa dell’autore, poiché suo
padre fu un hobo e anche Anderson visse questa realtà nei primi anni della sua vita
lavorativa.
di gruppo.
CARATTERISTICHE
60
indipendente, si generano tre combinazioni, per ognuna delle quali è usata una tecnica di analisi
della relazione:
1. entrambe le variabili nominali tecnica delle tavole di contingenza;
2. entrambe le variabili cardinali tecnica della regressione-correlazione;
3. variabile indipendente nominale e variabile dipendente cardinale
tecnica dell’analisi della varianza.
62
un’unica modalità. Si possono incrociare diverse variabili dipendenti con la stessa variabile
indipendente oppure viceversa.
PARAGRAFO 3 – Significatività della relazione fra due variabili nominali: il test del chi-
quadrato pp. 569-576
Il test statistico del chi-quadrato (χ2) è un criterio oggettivo sulla base del quale è possibile
dire che tra due variabili esiste o meno una relazione.
La ricerca empirica non può ambire a verificare (dimostrare vero) un’ipotesi, ma può solo
arrivare a falsificare (dimostrare falso). Il test statistico delle ipotesi, applicato al caso della
relazione fra due variabili, consiste nel formulare l’ipotesi nulla H 0 secondo la quale nella
popolazione non esiste relazione fra le due variabili e dimostrare che essa è falsa, cioè non
compatibile con i dati che si possiedono. Respinta l’ipotesi H 0 di assenza di relazione, si accetta
l’ipotesi H1 che sostiene l’esistenza della relazione. Tale conclusione è la conseguenza del fatto di
aver scartato le ipotesi false.
Partendo da tali ipotesi si costruisce una tabella teorica riportante le frequenze attese e le
frequenze osservate. Le prime si hanno in caso di assenza di relazione, le seconde sono quelle
trovate nei dati. La differenza di queste due frequenze permette di dichiarare o meno la presenza
di incompatibilità fra i nostri dati e l’ipotesi nulla. Tale differenza viene sintetizzata con un unico
63
numero, il χ2, con il calcolo: si fa la differenza fra la frequenza osservata e quella attesa per ogni
cella della tabella, la si eleva al quadrato e la si divide per la frequenza attesa, infine si sommano
per tutte le celle questi valori, sintetizzando in un unico numero le differenze fra le celle.
Il valore del χ2 è tanto maggiore quanto maggiore è la distanza fra la tabella delle frequenze
attese e quella delle frequenze osservate.
L’ipotesi che il χ2=0 non si verificherà mai è quindi si dice che il χ 2 è significativo, nel
senso che è significativamente diverso da zero.
Il valore del χ2 dipende dalla numerosità del campione: se il campione raddoppia, il valore
del χ2 raddoppia; se triplica il campione, anche il χ2 triplica, e così via. Questa caratteristica è
negativa perché riduce l’utilità di questo strumento quando il numero dei casi presi in esame è
elevato.
Il test del χ2 fornisce una segnalazione di importanza globale e sintetica della relazione fra
variabili, senza entrare nel merito del comportamento delle singole modalità. Per questo motivo può
succedere che una relazione fra due variabili risulti statisticamente significativa solo perché una
delle modalità si discosta in modo anomalo dall’andamento medio. Dunque, tale test, essendo
basato sulla differenze fra le frequenze osservate e attese, può risultare significativo anche solo per
l’anomalia di una sola cella, la quale presenta valori devianti rispetto al valore atteso.
PARAGRAFO 4 – Misure della forza della relazione fra variabili nominali e ordinali pp. 576-
584
Il ricercatore oltre ad affermare l’esistenza di una relazione fra due variabili, vuole valutare
anche l’intensità o la forza di tale relazione.
VEDI:
https://www.ibm.com/support/knowledgecenter/it/SSLVMB_22.0.0/com.ibm.spss.statistics.help/sps
s/base/idh_xtab_statistics.htm
La devianza o somma totale dei quadrati è il risultato dell’addizione della somma interna dei
quadrati (o devianza non spiegata) e della somma esterna dei quadrati (o devianza spiegata).
VEDI: http://www00.unibg.it/dati/corsi/64023/73447-Analisi%20della%20varianza.pdf
VEDI: http://docenti.unimc.it/monica.raiteri/teaching/2013/12316/files/slides-i-parte-per-studenti-
frequentanti/interpretazione-del-test-f-distribuzione-f-di
Y = a + bX
66
a = è l’intercetta della retta sull’asse delle Y, cioè l’ordinata della retta quando l’ascissa è 0;
b = è l’inclinazione della retta, cioè la variazione dell’ordinata quando l’ascissa varia di
un’unità.
Y = a + bX + e
Per iniziare a studiare la relazione fra due variabili cardinali è preparare la loro matrice di
correlazione, cioè la presentazione sotto forma di matrice dei coefficiente di correlazione fra tutte le
coppie di variabili. La matrice di correlazione presenta una diagonale costituita di valori 1 e dei
valori corrispondenti alle correlazioni fra tutte le coppie di variabili, disposti su uno dei due
triangoli della matrice.
68