Sei sulla pagina 1di 7

Metodologia della ricerca sociale

Libro I: I paradigmi di riferimento

Capitolo 1. I paradigmi della ricerca sociale


Thomas Kuhn negli anni ’60 del ‘900 ha proposto una definizione del concetto di paradigma, usato in
filosofia sia da Platone che da Aristotele.

La riflessione di Kuhn ha per oggetto lo sviluppo storico delle scienze. Secondo Kuhn la scienza si divide in
scienza normale e scienza matura. Egli rifiuta una concezione della scienza di carattere cumulativo e lineare,
secondo Kuhn esistono anche dei momenti rivoluzionari. La scienza normale è quella fase scientifica in cui
un paradigma si sviluppa e assume nozioni di carattere cumulativo, la scienza matura si ha quando questo
paradigma viene rovesciato e rivoluzionato.

Cosa intende Kuhn per paradigma? Paradigma=prospettiva teorica condivisa e riconosciuta dalla comunità
scientifica fondata su acquisizioni precedenti di una determinata disciplina che opera nella ricerca in termini
di individuazione e scelta dei fatti da studiare, sulla formulazione delle ipotesi e tecniche di ricerca empirica.

Per analizzare il carattere storico delle prospettive teoriche (positivismo, neopositivismo e postpositivismo)
dobbiamo definire tre questioni di ricerca sociale.

Ontologica: riguarda la natura l’oggetto di studio. Che cosa si può conoscere della realtà sociale? La realtà
sociale è una cosa in se stessa o una rappresentazione dei soggetti?
Epistemologica: riguarda il rapporto tra il soggetto studiante e l’oggetto studiato.
Metodologica: riguarda il come, ovvero la strumentazione tecnica del processo cognitivo conoscitivo.

Le tre questioni sono intrecciate fra loro non solo per le risposte che danno della natura della realtà sociale
ma anche perché è difficile distinguerne i confini.

Positivismo.
Ontologia: Esiste una realtà sociale oggettiva esterna all’uomo (es, fatti sociali Durkheim) ed è conoscibile
con leggi generali causa-effetto.
Epistemologia. Studioso della realtà sociale e realtà sociale sono indipendenti, l’agency non influenza la
struttura. L’indagine avviene attraverso leggi generali causa-effetto (leggi naturali). Viene riconosciuta
l’importanza del dato come elemento esterno e immodificabile.
Metodologia. I metodi e le tecniche della ricerca derivano dalle scienze naturali (empirismo classico). Il
metodo sperimentale è induttivo e sperimentale, fondato su manipolazione e controllo delle variabili.

Neopositivismo e postpositivismo

La visione positivista ha visto svilupparsi al proprio interno un processo di aggiustamento mosso dalla
consapevolezza dei propri limiti e dal tentativo di superarli. Una prima revisione ottocentesca prende il
nome di positivismo logico che ha dato origine al neopositivismo. Questo movimento si formò attorno ai
cosiddetti membri del circolo di Vienna.

Epistemologia: lo studioso non è più separato dalla realtà sociale studiata. Si ha la consapevolezza degli
elementi di disturbo introdotti sull’oggetto studiato dal soggetto studiante e dell’effetto di reazione che ne
può derivare.
Metodologia: si ha un’apertura ai metodi qualitativi, diventa importante la comunità scientifica per la critica
e l’acquisizione di dati.
Interpretativismo

Si deve al filosofo Wilhelm Ditlthey la nascita dell’interpretativismo con l’obiettivo di rendere autonome le
scienze sociali dalle scienze naturali. Secondo la sua Introduzione alle scienze dello spirito Dithley distingue
scienze naturali dalle scienze dello spirito (sociali). Mentre infatti, studiando le scienze naturali si osserva
una realtà esterna, quando si studiano le scienze dello spirito bisogna attuare un processo di comprensione
data l’interazione tra il soggetto studiante e l’oggetto studiato.

Ontologia: il mondo è conoscibile solo tramite il significato che il soggetto studiante gli conferisce. Non
esiste il mondo oggettivo (costruttivismo). Il mondo conoscibile è soggettivo, varia fra gli individui
(relativismo).
Epistemologia: scompare la separazione fra soggetto studiante e oggetto studiato.
Metodologia: le tecniche di ricerca sono qualitative.

La radicalizzazione di entrambi gli approcci può avere gravi conseguenze. L’estremizzazione dell’approccio
positivista pone le premesse per un processo di riduzione progressiva della portata della ricerca,
inaridendola sul dato empirico a limitandola a una pura descrizione dello stesso. Mentre all’opposto
estremo del soggettivismo pone in discussione l’esistenza stessa della realtà sociale. Un recente sviluppo
del paradigma interpretativo ha posto le basi del cosiddetto postmodernismo, che si esprime in una sorta di
rifiuto della visione tradizionale della scienza, intesa come ordine e razionalità, semplicità e
generalizzabilità, a favore del paradosso, della contraddizione della opacità, dell’esaltazione delle differenze.

Capitolo 2. Ricerca quantitativa e ricerca qualitativa


In questo capitolo vengono analizzate due ricerche eseguite intorno agli anni ’80 che utilizzano, una il
paradigma neopositivista, la seconda il paradigma interpretativo.

2.1 Robert J. Sampson e John Laub <<Crime in the Making>>

In questa ricerca i due autori studiano la nascita e lo sviluppo del comportamento criminale. Sostengono
che bisogna prendere in considerazione sia l’età infantile che l’età adulta per spiegare determinati
comportamenti antisociali. E’ un’analisi secondaria fondata sulle ricerche di Sheldon e Eleanor Glueck.
In base a questa ricerca (Glueck):
 vengono presi a campione due gruppi di giovani maschi bianchi negli anni ’50 del Massachusets; i
primi vengono selezionati da una casa di correzione, gli altri dalla scuola pubblica.
Questa ricerca aveva lo scopo di studiare il comportamento deviante di 500 ragazzi normali, sostenendo
però che non vi fossero interferenze in età adulta.
L’insieme delle informazioni rilevate da Glueck è disomogeneo ma viene codificato distinguendo tra variabili
di base (povertà, disgregazione familiare ecc..) e variabili di processo (famiglia, scuola, lavoro). Le seconde
vengono imputate da Sampson e Laub come responsabili del comportamento deviante.
I due autori (Sampson e Laub) usano due tipologie di variabili, le variabili strutturali di base che influiscono
sul comportamento deviante indirettamente, e le variabili processuali che influiscono sul comportamento
deviante direttamente. Nove variabili strutturali di base e cinque variabili processuali familiari.
La variabile dipendente della ricerca è il comportamento deviante. Attraverso l’analisi statistica dei dati e
della retta di regressione multipla, osservano come le variabili strutturali di base non incidano direttamente
sul comportamento deviante. (aspettative confermate).
2.2 Islands in the street

La ricerca di Jankowski è un esempio di osservazione partecipante, egli decide fin dall’inizio che il suo
studio deve essere comparato per capire quello che le gang hanno in comune e ciò che invece è specifico di
ognuna di esse. Sceglie di comparare gang di diverse città.
La ricerca di Jankowski è originale nel metodo, interpretativo, privo di una riflessione su tesi e letterature
precedenti ma basato sull’esperienza personale dell’autore. Egli non analizza le gang come comportamento
deviante ma come un ordine sociale alternativo a cui aderiscono i giovani delle slums proprio perché
offrono un ordine sociale che la comunità tradizionale non gli garantisce. Le gang sono definite come
sistema sociale quasi-privato e quasi-segreto, prive di burocrazia, con una leadership legittimata che
perseguono gli interessi dei membri (erogazione servizi) e della stessa organizzazione.
A questo si aggiunge il terzo elemento necessario alla sopravvivenza della gang, il sostegno della comunità
locale.
Jankowski risponde alla domanda chi entra in una gang e perché?
Le motivazioni sono sei:
a) incentivi materiali: si entra nelle gang per ricavare soldi regolari in maniera illegale;
b) divertimento: il club (gang) è un luogo di svago e passatempo;
c) rifugio e nascondiglio: la gang offre anonimato a chi ne ha bisogno (ex trafficanti illegali);
d) protezione fisica: offre protezione fisica nei sobborghi metropolitani;
e) luogo di resistenza: i membri entrano in una gang per sfuggire alla vita senza speranza dei genitori;
f) impegno comunitario: l’appartenenza ad una gang diventa tradizione familiare

Le differenze tra ricerca quantitativa e ricerca qualitativa possono essere meglio comprese se si esaminano
separatamente per le quattro fasi della ricerca empirica:
a) Disegno della ricerca: la differenza tra ricerca quantitativa e qualitativa sta principalmente nel
disegno strutturato e predefinito, con ipotesi logicamente dedotte dalla teoria nel primo caso, e con
il piano di lavoro interattivo della ricerca qualitativa. L’atteggiamento del ricercatore quantitativo è
neutrale rispetto all’oggetto studiato, mentre nella ricerca qualitativa si ha empatia e
identificazione.
b) Rilevazione delle informazioni: la ricerca quantitativa ragiona sul campionamento e il campione
rappresenta l’universo studiato, la ricerca qualitativa non si pone problemi di standardizzazione né
di rappresentatività e preferisce la trattazione disomogenea dei casi a seconda delle situazioni;
c) Analisi dei dati: la ricerca quantitativa si fonda sull’analisi delle variabili per formare matrici di dati,
la ricerca qualitativa studia e analizza i soggetti per comprenderli.
d) Produzione dei risultati: la ricerca quantitativa produce generalizzazioni, mentre quella qualitativa è
attenta alle specificità dei propri risultati e all’analisi comparata delle rilevazioni.
Libro II. Le tecniche quantitative

Capitolo 1. Traduzione empirica della teoria

Le fasi della ricerca empirica dell’analisi quantitativa sono cinque. La prima fase riguarda la teoria, assunto
generale astratto di partenza. La seconda riguarda l’ipotesi, proposizione specifica dedotta dalla teoria
generale. La terza fase tratta la rilevazione empirica ovvero la raccolta dei dati attraverso un processo di
operativizzazione dei concetti che l’ipotesi collega.
La terza fase si divide in due sottofasi, l’operativizzazione e l’individuazione degli strumenti. La quarta fase
riguarda l’analisi dei dati raccolti. Le informazioni sono i materiali empirici che vengono raccolti durante
l’osservazione del fenomeno studiato, i dati sono le informazioni organizzate e catalogate in modo ordinato.
La quinta fase è costituita dalla presentazione dei risultati attraverso un processo di interpretazione delle
analisi statistiche fatte nella quarta fase.

Si definisce teoria come un insieme di proposizioni organicamente connesse che si pongono a un elevato
livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali sono derivate da regolarità
empiriche e dalle quali possono essere derivate delle previsioni empiriche.
Si definisce ipotesi una proposizione che implica una relazione fra due o più concetti che si colloca su un
livello inferiore di astrazione e di generalità rispetto alla teoria e che permette una traduzione della teoria in
termini empiricamente controllabili.

In un processo di ricerca sociale diventa dunque evidente l’importanza di trasformare una teoria in
un’ipotesi per garantirne la controllabilità e la validità empirica. Come si attua questo processo?
A volte si ricorre alla teoria dopo aver analizzato i dati, per spiegare un fatto anomalo o un risultato
inaspettato. La rilevazione (come nel caso sopra di Sampson e Laub), può avvenire prima delle ipotesi per
ragioni di forza maggiore, questo è il caso dell’analisi secondaria.

Con il termine concetto indichiamo il contenuto semantico dei segni linguistici e delle immagini mentali. Sta
a significare (dal latino) l’azione di ordinare il molteplice sotto un unico atto di pensiero. L’ipotesi è
un’insieme di concetti che vengono correlati tra di loro. Questi diventano i “mattoni della teoria” ed è
attraverso l’operativizzazione dei concetti che si realizza la traduzione empirica della teoria generale.
Operativizzazione= trasformare i concetti in variabili empiricamente controllabili.

Per far si che i concetti diventino variabili bisogna attribuirgli la proprietà di oggetto, bisogna farli diventare
concreti. (povertà=reddito, potere=numero dipendenti ecc…). I concetti che assumono una proprietà si
chiamano unità di analisi. Queste proprietà assumono stati diversi sugli oggetti ai quali afferiscono.
Successivamente bisogna stabilire delle regole per la traduzione di un concetto in operazioni empiriche.
Il terzo passaggio consiste poi nell’applicare le regole ai casi concreti studiati. I concetti si operativizzano e
diventano variabili analizzabili quantitativamente.
Quindi…

Concetto  Proprietà  Variabile=Analisi empirica

Le unità di analisi possono differenziarsi. Esistono unità di analisi rappresentate da individui o da dei
collettivi. Si distinguono poi unità di analisi e unità di rilevamento. L’unità di rilevamento si colloca ad un
livello inferiore rispetto all’unità di analisi. Unità di analisi possono essere gruppi, organizzazioni, eventi,
istituzioni ecc..
Si chiamano casi gli esemplari di una data unità di analisi inclusi in una determinata ricerca. L’unità di analisi
è astratta, il caso è concreto.
Un concetto una volta operativizzato prende il nome di variabile. Esse si possono distinguere in:
a) Variabili non manipolabili e manipolabili: la prima riguarda le variabili che non sono modificabili
dal ricercatore, la seconda le unità di analisi che sono controllate dal ricercatore;
b) Variabili dipendenti e indipendenti: quelle indipendenti influiscono quelle dipendenti;
c) Variabili latenti e osservate: le prime sono variabili non direttamente osservabili in quanto
rappresentano concetti molto generali o complessi;
d) Variabili individuali, collettive: tra le variabili collettive abbiamo quelle aggregate e quelle globali.

La definizione operativa comporta dunque una limitazione e un impoverimento del concetto, ma il pericolo
che essa porta con se non sta in questa ineliminabile riduttività ma nella sua reificazione.
Reificazione= da oggetto concreto a astrazione.
Il processo di operativizzazione è dunque un atto arbitrario e soggettivo che rappresenta anche il criterio di
oggettività della ricerca scientifica perché permette ad altri ricercatori di replicarla.

La classificazione precedente delle variabili rappresenta la caratteristica logico-matematica ovvero l’insieme


delle operazioni che possono essere eseguite sulle variabili (e quindi sull’analisi di dati già rilevati). Per
quanto riguarda invece la natura delle operazioni empiriche effettuate durante la rilevazione dei dati, le
variabili si classificano in nominali, ordinali e cardinali.

Variabili nominali. Quando la proprietà da registrare assume stati discreti e non ordinabili. Stati discreti,
ovvero che la proprietà può assumere una serie di stati infiniti (salta da uno stato all’altro senza passaggi
intermedi) non ordinabili.
Possiamo adoperare funzioni matematiche di disuguaglianza e uguaglianza ma non possiamo mettere in
gerarchia le variabili. Come procedura di operativizzazione si usa la classificazione. Gli elementi devono
essere esaustivi, essere caratterizzati da mutua esclusività e da divisione. Ad ogni categoria viene dato un
valore, e un nome (per quello nominali).

Variabili ordinali. La proprietà da registrare assume stati discreti ordinabili. La procedura di


operativizzazione è l’ordinamento. A differenza delle variabili nominali, dunque, le variabili ordinali non
possono essere analizzate in ordine casuale ma deve esservi presente un criterio ordinatore.
Le variabili possono essere ordinali per due motivi. O perché derivano da proprietà costituite da stati
discreti e ordinabili, o perché sono state registrate rispettando una sequenza. Possono essere effettuate
operazioni di comparazione

Variabili cardinali. Sono variabili per le quali i numeri che ne identificano le modalità non sono delle
semplici etichette ma hanno un pieno significato numerico. Si possono effettuare operazioni di somma e di
sottrazione fra i valori. Si possono effettuare due tipi di processi di operativizzazione: la misurazione e il
conteggio.
Si effettua la misurazione quando la proprietà misurata è continua e le variabili possiedono un’unità di
misura prestabilita.
Si effettua il conteggio quando la proprietà da registrare è discreta ed esiste un’unità di conto elementare
ripetuta più volte nella proprietà dell’oggetto.

Scaling. Le variabili cardinali possono essere dunque ottenute mediante misurazione o conteggio. Le prime
sono le più comuni nella ricerca sociale. Ma come si operativizzano la religiosità all’orientamento politico,
all’autoritarismo, alla depressione, alla coesione sociale ecc? Come si trasformano le opinioni, gli
atteggiamenti e i valori in variabili? Attraverso lo scaling.
Esempi di tecniche di scaling sono i termometri dei sentimenti (da sinistra a destra) per gli orientamenti
politici. L’obiettivo è quello di avvicinarsi a delle misurazioni nelle quali la distanza fra due valori sia nota.

Indicatori. Pe dare una definizione operativa di un concetto si utilizzano gli indicatori. Sono concetti specifici
traducibili in termini osservabili. Proprio perché specifici, sono in grado di cogliere solo un aspetto della
complessità di un concetto generale. Risulta dunque la necessità di ricorrere a più indicatori per rilevare
operativamente lo stesso concetto.
Un indicatore poi può essere connesso a più concetti. Marradi parla di parte indicante e parte estranea. La
traduzione empirica di un concetto non direttamente osservabile passa dunque al vaglio di cinque fasi:
a) Articolazione del concetto in dimensioni
b) Scelta degli indicatori
c) Operativizzazione indicatori
d) Formazione indici

Nel processo che conduce dai concetti alle variabili, si possono compiere diversi tipi di errore, e tali errori
rappresentano lo scarto fra concetto e variabile. Tali errori possono essere sistematici o casuali. Il valore
vero di un concetto è quello non osservato e non osservabile.
Si può dire:
Valore osservato= valore vero+ errore sistematico+ errore accidentale
Errore= valore osservato-valore vero= errore sistematico + errore accidentale

L’errore sistematico è un errore costante che si presenta in tutte le rilevazioni. L’errore accidentale è
variabile da rilevazione a rilevazione. L’errore può comparire nelle fasi di indicazione e operativizzazione.
Nella prima fase si tratta di errori sistematici, in questo caso l’indicatore copre malamente il concetto e
quindi abbiamo un difetto nel rapporto di indicazione.
L’errore compiuto nella fase di operativizzazione può essere sistematico o accidentale. In particolare nelle
fasi di selezione, rilevazione e trattamento dei dati.
a) Selezione: l’errore è sistematico e di copertura;
b) Errore di rilevazione che può derivare dall’intervistatore, dall’intervistato, dagli strumenti e dal
modo di somministrazione dell’intervista;
c) Errore nel trattamento dei dati nella codifica, trascrizione, memorizzazione, supporto informatico di
elaborazione ecc….

L’attendibilità ha a che fare con la riproducibilità del risultato e segnala il grado con il quale una certa
procedura di traduzione di un concetto in variabile produce gli stessi risultati in prove ripetute con lo stesso
strumento di rilevazione oppure con strumenti equivalenti.

La prima forma di attendibilità studiata è la stabilità temporale. Attraverso la tecnica del test retest permette
di controllare le accidentalità che variano da momento a momento della somministrazione.
Per sopperire ai limiti della stabilità temporale si fa riferimento alle tecniche dell’equivalenza:
a) Suddivisione a metà: l’attendibilità è data dalla correlazione fra due metà dello stesso test;
b) Forme equivalenti (parallel forms): due test sono detti paralleli quando si presuppone misurino lo
stesso valore vero sottostante differendo soltanto per l’errore casuale.
c) Coerenza interna: gli errori non solo possono comparire tra test e test ma anche tra le stesse
domande; le misure di coerenza interna (alfa di Cronbach) stimano la correlazione delle risposte a
ogni domanda con le risposte a tutte le domande;
La validità fa invece riferimento al grado con il quale una certa procedura di traduzione di un concetto in
variabile effettivamente rileva il concetto che si intende rilevare.

Data la difficoltà nel validare una ricerca scientifica, sono state proposte diverse tecniche di convalida
corrispondenti a diversi tipi di validità (sempre dalle ricerche psicometriche):
a) Validità del contenuto: indica il fatto che l’indicatore o gli indicatori prescelti per un certo concetto
coprano effettivamente l’intero dominio di significato del concetto. Si può convalidare logicamente
scomponendo analiticamente il concetto studiato;
b) Validità per criterio: non riguarda la corrispondenza interna tra indicatore e concetto ma tra
indicatore e criterio esterno. Il criterio può essere rappresentato da un indicatore già accettato
come valido o da un fatto oggettivo di carattere comportamentale;
La validità per criterio si può distinguere in:
a) Validità predittiva: correlare un dato dell’indicatore con un evento ad esso logicamente successivo;
b) Validità concomitante: l’indicatore è correlato con un altro indicatore rilevato nello stesso
momento temporale;
La validità concomitante può essere poi validità per gruppi noti: l’indicatore viene applicato a soggetti dei
quali sia nota la posizione sulla proprietà da rilevare.

I manuali di psicometria riportano un terzo tipo di validità. La validità di costrutto, un misto tra validità del
contenuto e di criterio. Si intende la rispondenza di un indicatore alle attese teoriche (contenuto) in termini
di relazioni con altre variabili (criterio).

Capitolo 3-4. L’inchiesta campionaria

Potrebbero piacerti anche