Sei sulla pagina 1di 22

Introduzione.

Cap.1: I paradigmi della ricerca sociale.

La nozione di paradigma, che anticamente venne usata sia da Platone nell’accezione di


modello, che in quella di Aristotele nell’accezione di esempio, nelle scienze sociali ha un uso
abbastanza molteplice, essendo utilizzata come teoria, articolazione interna di una teoria,
sistema di idee d’ordine prescientifico, corrente di pensiero o scuola.

Il primo studioso che negli anni Sessanta ha riproposto all’attenzione dei filosofi e dei sociologi
della scienza il concetto di paradigma è Kuhn e il suo saggio La struttura delle rivoluzioni
scientifiche.

Il punto di partenza dell’autore ha per oggetto lo sviluppo storico delle scienze, e costituisce un
rifiuto della concezione tradizionale di scienza intesa come “accumulazione progressiva e
lineare di nuove acquisizioni”, per cui appunto le nuove invenzioni e scoperte si
aggiungerebbero al corpo conoscitivo precedente. Secondo Kuhn invece, se questo è il
processo della scienza in tempi “normali”, esisterebbero anche dei movimenti “rivoluzionari”
in cui il rapporto di continuità con il passato si interrompe ed inizia una nuova costruzione.

Ciò viene illustrato dall’autore con una ricca esemplificazione tratta dalle scienze naturali,
concentrandosi in particolare sul cambiamento dell’insegnamento della fisica.

In particolare, il passaggio da una visione teorica all’altra è globale, ed ha conseguenze così


radicali sulla disciplina coinvolta che Kuhn non esita un minuto a parlare di rivoluzione
scientifica. Questa determina nella disciplina un cambiamento dei problemi da proporre
all’indagine scientifica e dei quali la professione stabiliva che cosa si sarebbe dovuto
considerare come un problema ammissibile o come una soluzione legittima a esso. Si realizza
così un riorientamento della disciplina che consiste nella trasformazione della struttura
concettuale (=paradigma per Kuhn) con cui gli scienziati guardano al nostro mondo.

Con paradigma così Kuhn designa una prospettiva teorica che sia:

 Condivisa e riconosciuta dalla comunità di scienziati di una certa disciplina;


 Fondata sulle acquisizioni precedenti della disciplina stessa;
 Che opera indirizzando la ricerca sia in termini di individuazione e scelta dei fatti
importanti da studiare, sia di formulazione di ipotesi entro cui collocare la spiegazione
del fenomeno osservato, sia di approntamento delle tecniche di ricerca empiriche
necessarie.

Appare comprensibile come senza un paradigma la scienza sia priva di orientamenti e di criteri
di scelta, fornendo agli scienziati non solo un modello, ma anche alcune indicazioni che sono
indispensabili per costruirlo. È qualcosa cioè più ampio e generale di una teoria, proponendosi
come visione del mondo, e griglia di lettura che precede l’elaborazione teorica.

Kuhn definisce scienza normale quelle fasi di una disciplina scientifica durante le quali
predomina un determinato paradigma, che risulta ampiamente condiviso dalla comunità
scientifica, fase (fino al momento in cui non avverrà la rivoluzione della sostituzione del
paradigma operante) durante la quale si sviluppa secondo proprio il modo lineare e cumulativo
attribuito al complesso dello sviluppo scientifico.

Kuhn fa inoltre notare come il paradigma sia un elemento caratterizzante le scienze mature, (a
seguito della teoria corpuscolare della luce di Newton), prima delle quali si verificava cioè una
contrapposizione comune tra scuole e sottoscuole in competizione tra di loro, ognuna con una
sua teorizzazione e punto di vista.

In questa prospettiva le scienze sociali, in quanto prive di unico paradigma largamente


condiviso dalla comunità scientifica, si troverebbero in una collocazione preparadigmatica.

Lo stesso vale per la sociologia, apparendo difatti difficili individuare un paradigma condiviso
dalla comunità dei sociologi. Esiste tuttavia un’altra interpretazione del pensiero di Kuhn,
avanzata proprio nel tentativo di applicare le sue categorie alla sociologia, attraverso cioè una
ridefinizione del concetto di paradigma, in cui restano tutti gli elementi della definizione
originaria, salvo il carattere della condivisione da parte della comunità scientifica.

In questo modo si apre la possibilità di compresenza di paradigmi all’interno della stessa


disciplina, e in questo modo la sociologia diventa multiparadigmatica.

1.2. Tre questioni di fondo.

Tra le prospettive filosofiche che hanno generato e accompagnato nella sua crescita la ricerca
sociale, si possono incontrare delle visioni sufficientemente generali, coerenti e operative, tali
da poter attribuire i caratteri del paradigma. In particolare, tra queste troviamo la visione
empirista e quella umanista, due visioni organiche e fortemente contrapposte della realtà
sociale e dei modi per conoscerla, che hanno generato due blocchi coerenti e fra loro
fortemente differenziati di tecniche di ricerca.

Questi paradigmi sono concezioni generali sulla natura della realtà sociale, sulla natura
dell’uomo, sul modo con cui questo può conoscerla. Per confrontare adeguatamente i due
paradigmi è necessario capire in quale modo essi rispondano agli interrogativi fondamentali
davanti i quali si trova la ricerca sociale:

1. Questione ontologica: riguarda la natura della realtà sociale e la sua forma,


chiedendosi se il mondo dei fatti sociali sia un mondo reale ed oggettivo dotato di una
sua autonomia esistenza al di fuori della mente umana, e indipendentemente
dall’interpretazione che ne dà il soggetto, se i fenomeni sociali siano cioè cose in se
stesse oppure rappresentazioni di cose;
2. Questione epistemologica: la questione riguarda la conoscibilità della realtà sociale,
ponendo innanzitutto l’accento sulla relazione tra studioso e realtà studiata, dal
momento in cui tutte le manifestazioni, o i gradi del conoscere, l’osservare, il percepire,
il determinare, l’interpretare, il negare e l’asserire, presuppongono il rapporto
dell’uomo con il mondo e sono possibili solo sulla base di questo rapporto;
3. Questione metodologica: è la questione del come, riguardando la strumentazione
tecnica del processo conoscitivo, e come cioè la realtà possa essere conosciuta.

Sono queste tre questioni ovviamente intrecciate tra di loro, non solo per il fatto che le
risposte date ad ognuna di esse sono fortemente influenzate dalle risposte date alle altre due,
ma pure nel senso che talvolta sarà difficile distinguerne i confini, risultando difficile separare
le concezioni sulla natura della realtà sociale dalle riflessioni sulla sua conoscibilità.

1.3. Positivismo.

È proprio sotto le origini del pensiero positivista che nasce la sociologia, dunque in quel
momento in cui, alla metà dell’Ottocento, gli uomini iniziarono ad interrogarsi sulla realtà
sociale in quanto tale e a trasformarla in oggetto di studio, e in cui questa nuova disciplina che
si veniva formando assumeva il paradigma delle scienze naturali. Tra i fondatori della
sociologia (Spencer e Comte) tutti condividevano un’ingenua fede nei confronti dei metodi
delle scienze naturali, essendo il paradigma positivista nient’altro che lo studio della realtà
sociale, utilizzando gli apparati concettuali, le tecniche di osservazione e misurazione, gli
strumenti di analisi matematica, i procedimenti di interferenza delle scienze naturali.

Come Comte sa, l’acquisizione del punto di vista positivista rappresenta in ogni scienza il punto
finale di un percorso che ha passato già gli stadi teologico e metafisico. È comunque un
percorso che non si realizza simultaneamente in tutte le disciplina, partendo dalle scienze di
natura inorganica quali l’astronomia o la fisica, per poi arrivare a quelle di natura organica,
come la biologia, e terminare con lo studio della società, con la formazione della scienza
positiva della società. Di conseguenza si comprende come le scienze della società non siano
diverse da quelle della natura, e il modo di pensare positivo che ha portato a grandi conquiste
nel campo dell’astronomia, della fisica e della biologia è cioè destinato a trionfare anche
quando dagli oggetti naturali si passa ai sociali.

Il primo tentativo di declinare questa prospettiva teorica globale in termini di ricerca empirica
è stato Durkheim, facendo cioè un effettivo sforzo nel tradurre i principi del pensiero positivo
in prassi empirica, diventando il primo vero sociologo positiva, la cui prassi empirica si basa
sulla teoria del fatto sociale. I fatti sociali per Durkheim altro non sono che modi di agire, di
pensare e di sentire che presentano la proprietà di esistere al di fuori delle coscienze individuali,
e che hanno le stesse proprietà delle cose del mondo naturale.

Da qui derivano due conseguenze: da un lato il fatto che i fatti sociali non sono soggetti alla
volontà dell’uomo, ma sono cose che offrono resistenza al suo intervento, lo condizionano e lo
limitano, e dall’altro, proprio come i fenomeni del mondo naturale, funzionano secondo
proprie regole, possiedono una struttura determinista che l’uomo, attraverso la ricerca
scientifica, può scoprire. Dunque, il mondo sociale è regolato da leggi, allo stesso modo del
mondo naturale-> da qui l’assunto, nonostante i loro differenti oggetti, di una sostanziale unità
metodologica tra mondo naturale e mondo sociale.

Nel positivismo il modo di procedere all’acquisizione della conoscenza è fondamentalmente


induttivo, intendendo con induzione il passaggio dai particolari all’universale, per cui
dall’osservazione empirica si perviene a generalizzazioni o a leggi universali. Nel procedimento
induttivo è implicito l’assunto di un ordine o un’uniformità della natura, di principi
organizzatori di carattere universale, e scoprirli è proprio compito dello scienziato sociale.

In merito alla forma di questa conoscenza, infine, sembra che non ci siano dubbi sulla
possibilità di pervenire all’individuazione e formulazione di queste leggi della natura, alla loro
dimostrazione e verifica.

Comunque, alla base delle varie articolazioni del positivismo resta sempre una sorta di
entusiasmo per la conoscenza positiva di tipo scientifico e la considerazione della scienza e del
suo metodo come unica conoscenza valida ed efficace in tutti i campi della vita umana.

Per quanto riguarda la risposta alle tre risposte di fondo, il positivismo:

1. Questione ontologica: realismo ingenuo, posizione che può essere espressa attraverso
due proposizioni: a) esiste una realtà sociale oggettiva, esterna all’uomo; b) questa
realtà è conoscibile nella sua reale essenza;
2. Epistemologia: dualista e oggettivista, legge naturale. Viene affermata la possibilità
della conoscenza grazie a due fatti: a) lo studioso e l’oggetto studiato sono considerati
entità indipendenti (dualismo); b) lo studioso può studiare l’oggetto senza influenzarlo
o esserne influenzato (oggettività);
3. Metodologia: sperimentale e manipolativa. I metodi e le tecniche della ricerca
positivista sono prelevati di peso dalle scienze naturali. Il metodo sperimentale viene
qui assunto: a) sia nel suo modo di procedere induttivo che dai particolari
empiricamente osservati perviene a delle formulazioni generali; b) sia nella sua
formalizzazione matematica che, anche se non sempre raggiungibile, rappresenta
tuttavia l’aspirazione di fondo dello scienziato positivista.

1.4. Neopositivismo e postpositivismo.

Il postpositivismo ha visto svilupparsi al proprio interno, per tutto il Novecento, un processo


continuo di revisione e aggiustamento, mosso proprio dalla consapevolezza dei propri limiti
intrinseci, e dal conseguente tentativo di superarli.

La chiarezza del positivismo dell’Ottocento viene sostituita dalla complessità del positivismo
del Novecento, articolato e per alcuni versi composto da contraddizioni.

Una prima revisione del positivismo ottocentesco venne svolta dal positivismo logico, che ha
dato origine al neopositivismo. Questo movimento si formò attorno alle discussioni del gruppo
di studiosi che formarono nella seconda metà degli anni Venti il “circolo di Vienna”.
L’emigrazione di alcuni rappresentanti della scuola verso gli Stati Uniti, a causa delle
persecuzioni naziste, contribuì alla diffusione del pensiero neopositivista e alla sua influenza
sulle altre discipline, tra cui la sociologia, che proprio negli Stati Uniti vede svilupparsi un
ricchissimo filone di ricerca empirica.

Questo nuovo modo di vedere le cose assegna un ruolo fondamentale alla critica della scienza,
ridifendendo il compito della filosofia, che doveva cioè abbandonare il terreno delle grandi
teorizzazioni per dedicarsi all’analisi critica di quanto elaborato nelle teorie delle discipline. Di
qui il rifiuto delle grandi questioni e di tutti i pseudoproblemi, ossia quelle metafisiche prive di
senso poiché indimostrabili, per passare a porre la massima attenzione ai problemi
metodologici di ogni scienza, all’analisi logica del loro linguaggio e delle loro elaborazioni, alla
critica degli assunti, e alle procedure di validazione delle elaborazioni concettuali mediante la
verifica empirica.

Vista la centralità delle questioni epistemologiche, risulta comprensibile l’influenza che questo
movimento ebbe sulla metodologia delle scienze, incluse le scienze sociali, ricordando come
uno dei postulati del neopositivismo sia la diffusa convinzione che il senso di un’affermazione
derivi dalla sua verificabilità empirica.

La principale conseguenza di questa nuova concezione della scienza e della conoscenza


scientifica fu lo sviluppo di un nuovo modo di parlare della realtà sociale, attraverso un
linguaggio mutato dalla matematica e dalla statistica, che P. Lazarsfeld (principale esponente
della metodologia empirica neopositivista in sociologia), chiamo linguaggio delle variabili.
Ogni oggetto sociale cioè, a partire dall’individuo, veniva analiticamente definito sulla base di
una serie di attribuiti e proprietà (=variabili) e a queste ridotto; i fenomeni venivano invece
analizzati in termini di relazioni tra variabili. Di conseguenza la variabile, caratterizzata da
neutralità, oggettività e operativizzabilità matematica, diventava la protagonista dell’analisi
sociale. La ricerca sociale così si spersonalizzava e il linguaggio delle variabili offriva uno
strumento formale che permetteva di andare oltre il linguaggio quotidiano vago.

In questo modo tutti i fenomeni sociali potevano essere rilevati, misurati, correlati, elaborati e
formalizzati e le teorie convalidate o falsificate in maniera oggettiva e priva di ambiguità. Da
qui una forte attenzione alle procedure di operativizzazione, delle tecniche di misurazione,
della formalizzazione matematica e dell’inferenza statistica.

Tutto venne a cambiare, e la concezione di scienza che divenne propria del Novecento si
allontanò dalle certezze del positivismo ottocentesco, in cui dominava la concezione meccanica
della realtà, la sicurezza nelle leggi immutabili, e la fede del progresso scientifico. All’origine
della nuova concezione ci sono innanzitutto alcuni sviluppi delle scienze naturali, della fisica, la
meccanica quantistica, la relativizzazione dello spazio e del tempo operata da Heisenberg.
Tutto ciò aiuta ad introdurre elementi di probabilità e di incertezza su punti cruciali come il
concetto di legge casuale, l’oggettività immutabile del mondo esterno e le categorie di spazio e
tempo.

Le teorie vengono cioè in questa corrente ad assumere la caratteristica di probabilità, e il


momento cruciale di questo cambiamento può essere individuato nel passaggio dalla fisica
classica quella quantistica, per cui ci sono processi nella fisica elementare (definiti come salti
quantici) che non possono essere analizzati secondo i tradizionali meccanismi causali, in
quanto si tratta di fatti imprevedibili governati da leggi probabilistiche, come può essere il caso
della disintegrazioni di un atomo. Questi sono cioè prevedibili solo in maniera probabilistica, e
in questo modo viene meno la certezza della legge, e si comprende come le teorie scientifiche
non siano più destinate a spiegare i fenomeni sociali attraverso schemi di natura logica.

Si sostituisce alla legge deterministica la legge probabilistica, la quale implica elementi di


accidentalità, presenza di disturbi e fluttuazioni, e se ciò è valido per il mondo naturale, lo
sarà ancora di più per il mondo sociale.

Un importante elemento introdotto nel pensiero scientifico nella sua evoluzione dall’iniziale
modello positivista è la categoria di falsificabilità, assunta come criterio di validazione empirica
di una teoria o ipotesi teorica. Essa stabilisce che il confronto tra teoria e ritrovato empirico
non può avvenire in positivo, attraverso la prova che la teoria è confermata dai dati, ma si
realizza soltanto in negativo, con la constatazione che i dati non contraddicono l’ipotesi e che
quindi sono con essa compatibili. Si spiega inoltre che il motivo per cui la verifica positiva non
avviene è perché gli stessi dati potrebbero in realtà risultare compatibili con altre ipotesi
teoriche.

È questa un’impostazione dalla quale deriva un senso di provvisorietà di ogni ipotesi teorica,
che non sarà quindi mai definitivamente valida, per la quale l’uomo non potrà mai conoscere,
ma solo congetturare.

Inoltre, una delle acquisizioni più recenti del post-positivismo è quella per cui l’osservazione
empirica dipende dalla teoria, nel senso che anche la semplice registrazione della realtà
dipende dalla finestra mentale del ricercatore, da condizionamenti sociali e culturali. Fermo
restando cioè che la realtà esiste a prescindere dall’attività conoscitiva e dalla capacità
percettiva dell’uomo, l’atto del conoscere resta condizionato dalle circostanze sociali e dal
quadro teorico in cui si colloca.
Tuttavia, c’è da sottolineare come anche in questi approcci più recenti, quali possono essere il
neopositivismo e il post-positivismo, non si verifica una totale fuoriuscita dallo spirito
empirista, restando sempre centrale il metodo scientifico nella ricerca sociale e l’analogia che
esiste tra il metodo delle scienze sociali e quello delle scienze naturali. Quando il positivismo
moderno afferma che leggi, sia naturali che sociali, sono probabili ed aperte a revisioni, non
ripudia il fondamento empirista, ma “semplicemente” modifica i presupposti iniziali e gli
obiettivi della ricerca sociale.

Per quanto riguarda le tre questioni:

1. Ontologia: realismo critico. Si presume l’esistenza di una realtà esterna all’uomo, ma a


differenza di quanto sostenuto dal positivismo, questa realtà è solo imperfettamente
conoscibili, sia per l’inevitabile imprecisione della conoscenza umana, sia per la natura
probabilistica delle sue leggi. Con il termine realismo si fa riferimento al fatto che le
relazioni di causa-effetto esistano nella realtà, quindi anche al di fuori della mente
umana, con il termine critico si tenta invece di sottolineare quell’atteggiamento id
continuo sospetto e quella propensione alla messa in discussione che ogni scienziato
dovrebbe avere;
2. Epistemologia: dualismo-oggettività modificati; leggi di medio raggio, probabilistiche
e provvisorie. Non si sostiene più il dualismo nel senso di separazione e non
interferenza tra le due realtà, avendo invece consapevolezza degli elementi di disturbo
introdotti sull’oggetto di studio dal soggetto che lo analizza, e i possibili effetti che ne
possono derivare. L’obiettivo resta l’oggettività della conoscenza, ma che può essere
raggiunto solo in maniera approssimata. Si valorizza il processo della deduzione,
attraverso il meccanismo di falsificazione delle ipotesi, con l’intento di arrivare a
generalizzazioni nella forma di leggi, anche se limitate nella portata, probabilistiche e
provvisorie nel tempo;
3. Metodologia: sperimentale-manipolativa modificata. Le fasi operative della ricerca
sono ancora fondamentalmente quelle che furono impostate dal neopositivismo, nel
nome di un sostanziale distacco tra ricercatore e oggetto studiato. Si presenta
un’apertura ai metodi qualitativi e l’importanza della comunità scientifica alla critica
delle acquisizioni e i processi di conferma delle stesse.

1.5. Interpretativismo.

In linea generale, sotto il termine interpretativismo si indicano tutte quelle visioni teoriche per
le quali la realtà non può essere semplicemente osservata, ma va interpretata. La prima
formulazione critica nei confronti del precedente scientismo comtiano nel nome
dell’autonomia delle scienze umane viene fatta risalire al filosofo tedesco Dilthey.

Il filosofo accomuna nella sua polemica sia l’idealismo hegeliano che il positivismo comtiano,
che avrebbero in comune la medesima fede nella storia come necessario progresso attraverso
fasi altrettanto necessarie. All’interno de L’introduzione alle scienze dello spirito, opera
un’importante distinzione tra scienze della natura, il cui oggetto è costituito da una realtà
esterna all’uomo che resta tale anche durante il processo conoscitivo (che assume le forme
della spiegazione) e scienze dello spirito, per le quali non vi è distanza tra osservatore e realtà
studiata e dunque la conoscenza può avvenire solo attraverso un processo diverso, che è
quello della comprensione.
Secondo Dilthey esiste una opposizione tra mondo esterno, dunque il mondo dei fatti, che ci
giunge tramite le sensazioni e il mondo interno, che ci viene rivelato attraverso il senso interno
delle attività psichiche. È dunque attraverso il processo dell’intendere che la vita viene al di
sopra di sé spiegata nella sua profondità, e d’altra parte intendiamo noi stessi e gli altri solo in
quanto compiamo una trasposizione della nostra vita vissuta in ogni specie di espressione della
propria e dell’altrui vita.

Questo concetto dell’intendere, che è stato successivamente declinato dalle scienze dello
spirito ed etichettato con vari nomi, ma in generale con Versthen, viene usato da Dilthey
soprattutto per sottolineare l’esigenza che lo storico si accosti alla sua materia con una sorta di
identificazione psicologica tale da poter rivivere il passato in un’esperienza interiore, l’unica in
grado di condurlo alla conoscenza.

Il merito di aver fatto entrare questa nuova prospettiva a pieno nel campo della sociologia va
dato a Max Weber, che difatti trasporta il concetto di Verstehen all’interno della sociologia,
modificando l’impostazione originaria di Dilthey. La preoccupazione di Weber è quella di non
cadere nell’individualismo soggettivista e nello psicologismo, con l’obiettivo di salvare
l’oggettività della scienza sociale sia nei termini della sua avalutatività, cioè l’indipendenza da
giudizi di valore con la quale “si avanza la pretesa che il ricercatore e l’espositore debba
incondizionatamente tener distinte la costatazione di fatti empirici e la sua presa di posizione
pratica che valuta questi fatti come apprezzabili o non apprezzabili, e in che questo senso
risulta valutativa”; sia in quelli della possibilità di arrivare ad enunciati aventi un qualche
carattere di generalità.

Per quanto riguarda la questione dell’avalutatività, nonostante le scienze storico-sociali non


possano ammettere al loro interno presupposti di valore, secondo Weber non si può impedire
che questi intervengano nella scelta dei problemi da studiare; dunque, sia pure privi di una
funzione valutativa, i valori restano presenti con quella che si può definire una funzione
selettiva.

Per quanto riguarda la generalità, Weber afferma come le scienze sociali si distinguano dalle
naturali non per l’oggetto (come proposto da Dilthey), ma per il loro orientamento verso
l’individualità. Questo orientamento è soprattutto id metodo, del comprendere. Tuttavia, nel
definire cosa egli intenda con il termine Verstehen, Weber respinge qualsiasi tentazione
psicologistica, soffermandosi sull’interpretazione, e cioè sull’intendere lo scopo dell’azione,
capire le dimensioni di proposito e di intenzionalità dell’agire umano, e in questo modo,
attraverso la comprensione del significato soggettivo attribuito dall’individuo al suo
comportamento, fa si che ci si renda conto di come ogni comportamento (anche il più
apparentemente illogico) in realtà abbia una sua intima razionalità).

Da qui appare però un problema: se il punto di partenza è cioè rappresentato dall’individuo e


dal senso soggettivo della sua azione, come si può arrivare ad una conoscenza oggettiva con
caratteri generali?

A ciò risponde la concezione weberiana dei tipi ideali, considerati da Weber come forme di
agire sociale che possono essere riscontrate in modo ricorrente nel comportamento degli
individui umani; uniformità tipiche di comportamento costituite attraverso un processo
astrattivo che, isolando alcuni elementi entro la molteplicità del dato empirico, procede a
coordinarli entro un quadro coerente e privo di contraddizione. Il tipo ideale può essere quindi
definito come astrazione che nasce dalla rilevazione empirica di uniformità, ottenuto
attraverso l’accentuazione unilaterale di uno o di alcuni punti di vista, e attraverso la
connessione di una quantità di fenomeni particolari diffusi e discreti, esistenti qui in maggiore
e là in minore misura, in un quadro concettuale in se unitario.

Il tipo ideale weberiano investe tutti i campi del sociale, e difatti Weber ne ha dato degli
esempi con riferimento alle strutture sociali, con il capitalismo o alle istituzioni, con la
burocrazia, chiesa, setta e forme di potere. Sono ideali nel senso che sono costruzioni mentali
dell’uomo, e svolgono una funzione euristica nel senso che ne indirizzano la conoscenza.

Se il tipo ideale è una costruzione razionale chiara, coerente, priva di ambiguità, la realtà è
complessa e contraddittoria.

Le uniformità cercate dal ricercatore nella sua interpretazione della realtà sociale non sono più
le leggi (nel senso attribuito dalla sociologia positiva), ma connessioni causali, anche detti
enunciati di possibilità, motivo per cui non è raggiungibile l’obiettivo di arrivare a stabilire i
fattori determinanti di un certo evento sociale o comportamento individuale, ma è
raggiungibile quello di tracciarne le condizioni che lo rendono possibile.

Di conseguenza, alle leggi causali di impianto positivista dotate di generalità e obbligatorietà, si


contrappongono enunciati, connessioni, segnati dai caratteri della specificità e possibilità.

Nonostante l’indubbia importanza di Weber, l’autore non ha spinto la sua posizione


metodologia alle estreme conseguenze. Egli si è difatti mosso su un piano macrosociologico, in
una prospettiva di storia comparata, mosso dall’interesse di capire fenomeni macrostrutturali
come l’economia, lo stato, il potere, la religione, la burocrazia. Ciò che accade negli anni 60
negli USA invece è la nascita di un movimento che va proprio a sviluppare la prospettiva
weberiana nella sua direzione natura, e cioè in una prospettiva micro, da cui deriva la necessità
di guardare all’interazione tra gli individui per capire la società. Da qui la scoperta e
valorizzazione di un campo di indagine completamente nuovo per la sociologia, che è quello
del mondo della vita quotidiana.

Si comprende così la differenza con l’approccio positivo, dove venivano esclusi proprio le
componenti individuali, motivazionali, intenzionali, i valori e il libero arbitrio, in quanto
considerati “colpevoli” di disturbare la ricerca scientifica, e che al contrario diventano l’oggetto
primario della ricerca in questa nuova corrente. Su questa diversità di oggetto di studio si
fonda anche, dal punto di vista interpretativo, la sua presunta superiorità rispetto al metodo
positivista: difatti, il convinto sostenitore della corrente interpretativa andrà in particolare ad
affermare la superiorità delle scienze storico-sociali dalle naturali, in quanto solo il metodo del
Verstehen permetterebbe quell’intelligibilità dall’interno che è alla base della conoscenza
dell’agire e del mondo sociale.

Per quanto riguarda le questioni di fondo:

1. Ontologia: costruttivismo e relativismo (realtà multiple): la posizione costruttivista fa


riferimento al fatto che il mondo conoscibile è quello del significato attribuito dagli
individui; mentre il relativismo fa riferimento al fatto che questi significati (=costruzioni
mentali) variano fra gli individui, e anche quando condivisi da diversi gruppi, variano
tra le varie culture. Di conseguenza non esiste una realtà assoluta, ma ne esistono
multiple, in quanto molteplici e diverse sono le prospettive con cui gli uomini vedono e
interpretano i fatti sociali;
2. Epistemologia: non dualismo e non oggettività; tipi ideali; enunciati di possibilità.
Tende qui a scomparire la separzione tra studioso e oggetto dello studio, e la ricerca
sociale viene definita come scienza interpretativa in cerca di significato, piuttosto che
scienza sperimentale in cerca di leggi, e che, nel perseguire il suo obiettivo della
comprensione del comportamento individuale, si può servire di astrazioni e
generalizzazioni;
3. Metodologia: interazione empatica tra studioso e studiato. Si valuta come base del
processo conoscitivo l’interazione tra studioso e studiato, e se lo scopo è giungere alla
comprensione del significato attribuito dal soggetto alla propria azione, le tecniche di
ricerca devono essere soggettive (ossia variabili di volta in volta a seconda della forma
che l’interazione studiante-studiato assume) e qualitative.

1.6. Radicalizzazioni e critiche.

Per quanto riguarda il paradigma positivista, si è notato come, specie nel periodo del
neopositivismo, venisse prestata grande attenzione alla formulazione e allo sviluppo di
tecniche empiristiche, lasciando in secondo piano sia la problematica sui presupposti filosofici
di questa impostazione, che la dimensione dell’elaborazione teorica. La radicalizzazione di
questa tendenza a portato ad un empirismo antispeculativo, dominato dal mito del metodo e
da quello del dato, in cui lo scopo dello scienziato sociale non è più quello di formulare e poi
validare empiricamente le teorie, ma quello di raccogliere dati e descrivere (nell’illusione che i
dati parlino da sé).

È questo un processo di riduzione progressiva che ha attraversato varie fasi, restringendo


prima di tutto i confini dell’esplorazione teorica, e successivamente spostando l’attenzione dal
contenuto al metodo. In questa tensione tra teoria e validazione empirica, privilegiare la
seconda ha significato escludere dalla propria considerazione tutti quegli interrogativi che non
fossero immediatamente traducibili in procedure empiricamente controllabili, e il processo si è
poi concluso spostando l’attenzione dal metodo al dato, dai problemi dell’operativizzazione dei
concetti a quelli pratici della rivelazione e analisi dei dati.

Comunque, la critica maggiore che viene avanzata all’approccio positivista è data dal fatto che
essa si basa sull’assunto per cui le categorie osservative siano indipendenti da quelle teoriche,
anche se in realtà oggi c’è un consenso abbastanza ampio all’interno della filosofia della
scienza sul fatto che tutte le forme di conoscenza siano storicamente e socialmente
determinate, nonché dipendenti dalle teorie utilizzate.

Altrettanto esposto a problemi e critiche è il paradigma dell’interpretativismo, la cui critica si è


basata soprattutto nei confronti dei suoi interpreti e continuatori che hanno portato alle
estreme conseguenze del weberiano concetto di orientamento verso l’individuo. In Weber
soprattutto resta presente la tensione per il superamento della soggettivitò verso al quale la
sua impostazione propende. Pur affermando che il meccanismo centrale per comprendere la
realtà sociale è dato dalla capacità di saper cogliere l’intenzione individuale e soggettiva che
sta dietro l’azione sociale, egli non esclude la possibilità di arrivare a delle forme di
generalizzazione conoscitiva, ossia i tipi ideali.

I successivi filoni della sociologia neocomprendente hanno poi all’opposto accentuato il


carattere soggettivista dell’originale impostazione weberiana e spostato l’attenzione al mondo
della vita quotidiana e all’interazione soggettiva, spostamento che ha dato ancora maggiore
vigore a due critiche di fondo:
1. Il primo punto sostiene come il soggettivismo estremo escluda la possibilità stessa di
esistenza della scienza sociale. Il fatto cioè che vi sia sempre qualcosa di unico
nell’azione umana, o l’affermazione che la realtà altro non sia che pura costruzione
soggettiva, nega la possibilità di andare oltre la persona, di acquisire generalizzazioni
sovraindividuali e di conseguenza nega l’oggettività della conoscenza;
2. In secondo luogo, l’approccio interpretativo viene accusato di escludere dai propri
interessi le istituzioni, ossia quelli che dovrebbero essere per eccellenza gli oggetti
della riflessione sociologica, sempre a causa della sua centratura sull’individuo. Questa
stessa critica di fondo viene anche articolata in maniera leggermente diversa,
accusando sociologia fenomenologica, etnometodologia e interazionismo simbolico di
essersi fermato al microsociologico.

L’ultimo periodo di sfida nella storia della ricerca sociale è stato rappresentato dall’ultimo
quarto del XX secolo, che faceva seguito a un decennio tumultuoso nella storia delle società
occidentale, quello degl anni Sessanta, caratterizzato dai movimenti per i diritti civili, dalle
proteste studentesche, dalle lotte contro povertà, razzismo e diseguaglianze. In questo quadro,
la teoria sociologia e la ricerca sociale assunsero un ruolo fondamentale soprattutto
nell’applicarsi alle riflessioni su queste trasformazioni e movimenti.

Negli stessi anni, cominciò a svilupparsi anche la micro-sociologia, che faceva capo a diverse
scuole di pensiero e visioni teoriche, accomunate dal fatto di porre al centro dell’interesse e
della ricerca i piccoli fatti della vita quotidiana, le micro-interazioni e le dinamiche
interpersonali.

Questa linea di abbandono delle grandi prospettive teoriche portò tuttavia anche la nascita di
una critica generalizzata verso ogni tipo di spiegazione teorica e la messa in discussione della
sociologia come scienza, tendenza poi unita nel postmodernismo. Questa corrente prevedeva
proprio un andare oltre e contro le acquisizioni del modernismo, con una critica che prevedeva
quattro punti principali:

1. Rifiuto di teorie generali in favore di approcci e linguaggi teorici multipli, esaltando la


non unitarietà e la frammentazione della spiegazione scientifica;
2. Rifiuto della razionalità e della semplicità della conoscenza scientifica, a favore del
paradosso e della contraddizione;
3. Esaltazione delle differenze, delle molteplicità di verità locali e contestuali e rifiuto
della cumulatività della scienza;
4. Esaltazione dell’altro, del diverso, delle minoranze e identificazione con gli oppressi.
Capitolo 2: Ricerca quantitativa e ricerca qualitativa.

2.Paradigma neopositivista: crime in the making (Sampson e Laub).

Nella ricerca sociologica il dibattito tra ricerca quantitativa e ricerca qualitativa ha avuto
vicende alterne lungo tutto il corso del secolo scorso, passando innanzitutto con il confronto
vivace degli anni Venti e Trenta, per poi passare in una fase di latenza che ha visto negli anni
Quaranta, Cinquanta e nella prima metà degli anni Sessanta, il dominio della prospettiva
quantitativa, tutti anni durante i quali la ricerca qualitativa venne considerata come una specie
di figlia illegittima della scienza sociale.

Negli anni Sessanta il problema è tornato alla ribalta a partire da una serie di importanti
contributi teorici, tra cui quelli di Goffman, ma soprattutto a partire dalla seconda metà degli
anni Ottanta che l’approccio qualitativo ha affermato la sua presenza sia sul piano
metodologico che su quello della ricerca empirica.

Per comprendere cosa hanno generato sul terreno della metodologia i paradigmi fondativi
della ricerca sociale, vengono prese in considerazione due ricerche fondamentali sulla tematica
della delinquenza giovanile, una condotta sotto l’ispirazione del paradigma neopositivista,
l’altra sotto l’ispirazione del paradigma interpretativo.

La prima ricerca è rappresentata dal volume di Sampson e Laub, Crime in the making:
Pathways and Turning Points Through Life, alla cui base sta il ritrovamento, nelle cantine della
biblioteca dell’Università di Harward, di 60 scatoloni contenenti il materiale utilizzato solo
parzialmente dai coniugi Sheldon e Glueck all’interno delle loro pubblicazioni. Sampson e Laub
decidono così di rianalizzare i dati, attraverso un’analisi secondaria, per rispondere ai nuovi
interrogativi che nel frattempo stavano apparendo agli occhi degli studiosi della devianza
minorile.

2.1. Ipotesi.

Sampson e Laub lamentano il fatto che, dal momento in cui i reati sono commessi da
adolescenti in maniera più che proporzionali alla loro presenza nella popolazione, gli studi di
sociologia criminale si sono per lo più concentrati su quest’età, trascurando l’infanzia, in cui
secondo alcuni dovrebbero essere ricercati i primi tratti del comportamento antisociale, e
trascurando allo stesso tempo l’età adulta, in cui passaggi cruciali come l’inizio della carriera
lavorativa e il matrimonio possono indurre cambiamenti radicali nell’atteggiamento social
dell’individuo. Ciò implica la necessità di superare l’impostazione sincronica propria di studi
svolti su un gruppo di individui fotografati in un certo momento, per passare a studi diacronici,
attraverso i quali seguire un determinato periodo di tempo un gruppo di individui, rilevando su
di essi certe informazioni e dati in diversi momenti della loro vita.

A partire da questo punto, gli autori discutono le tesi di coloro che hanno affrontato il
comportamento criminale in una prospettiva di ciclo di vita, ed abbozzano i tratti principali di
una possibile teoria articolata per età del controllo scoiale informale, dove si analizzano per
ogni età sia le variabili di fondo considerate cause del comportamento deviante, come la
povertà, che i meccanismi informali di controllo sociale operanti in quel momento del ciclo di
vita, in una visione globale che tenti di integrare la criminologi in una prospettiva di corso di
vita.
2.2. Disegno della ricerca.

I due autori svolgono come già detto un’analisi secondaria dei dati raccolti da Sheldon e Gleuck
che, avevano raccolto informazioni su 500 “autori di reato” giovani, machi, bianchi che,
all’inizio dell’indagine nel 1939 avevano fra i 10 e i 17 anni e su 500 ragazzi non autori di reato.

I primi furono individuati in due case di correzione del Massachusetts, mentre i secondi furono
scelti nelle public schools della stessa area, sulla base di un piano di corrispondenza ben
accurato: per ognuno dei 500 autori di reato venne individuato un ragazzo non autore di reato
con le stesse caratteristiche di età, origine etnica, quartiere e quoziente di intelligenza. La
ricerca iniziò nel 1939 e fino al 1948 i ragazzi vennero seguiti con interviste a loro stessi, alle
famiglie e agli insegnanti, e vennero raccolte più informazioni possibili. Ci furono poi due studi
seguenti sugli stessi soggetti quando avevano l’età di 25 e 32 anni, nel corso dei quali i
ricercatori riuscirono a raggiungere 438 e 442 dei rispettivi originali 500 autori e non autori di
reato. I due studiosi fanno notare che questa ricerca non soffre di mancanza di serie infrazioni
della legge nell’età adulta, che avrebbero abbassato il numero di casi significativi di carriere
criminali. Nell’arco della vita fra i 17 e i 32 anni, dei 500 autori di reato iniziali 90 furono
arrestati per rapina, 225 per furto con scasso, e più di 250 per furto. Venne notato inoltre che
tra i 500 non autori nessuno rappresentava un gruppo atipico di ragazzi osservanti della legge,
al punto che 100 di essi iniziarono a commettere dei reati da adulti, cosa che rappresenta un
dato di notevole interesse per lo studio dell’insorgenza del comportamento deviante in età
matura.

3.2. Rilevazione empirica e risultati dell’analisi.

I dati raccolti durante la ricerca precedente mostrano l’integrazione di differenti fonti di


informazione, dunque disomogenee, che tuttavia vennero codificate in schede standardizzate.
Como esempio di procedura di quantificazione usata sia dai Glueck che poi da Sampson e Laub
si usò la costruzione dell’indice di comportamento deviante non ufficiale. Vennero cioè
registrati tutti i comportamenti non solo illegali, ma anche di semplice “cattiva condotta”, quali
il fumare per esempio, riportati dagli stessi soggetti o dai familiari. Le informazioni vennero
fuse e furono costruiti sia degli indici di devianza per ogni comportamento, sia un indice di
devianza complessiva, con un punteggio da 1 a 26. Ciò rappresentava la devianza non ufficiale,
mentre la devianza ufficiale, che era definita sulla base dei reati effettivamente denunciati
all’autorità giudiziaria, era rappresentata dalla variabile dicotomica (autori/non autori( posta
sulla base del piano di campionamento dei 1000 (500+500 soggetti).

La parte espositiva dei risultati della ricerca di Sampson e Laub copre cinque capitoli del libro,
sugli argomenti: contesto familiare e delinquenza giovanile; ruolo della scuola; ruolo del
gruppo dei pari e di fratelli/sorelle; continuità nel tempo del comportamento; legami sociali
adulti e cambiamento nel comportamento criminale; modelli comparativi di crimine e
devianza. I capitoli qui si sviluppano nella stessa maniera, passando dal quadro teorico->
rilevazioni empiriche-> risultati dell’analisi-> ritorno alla teoria.

In tutti i capitoli gli autori distinguono variabili di base, come la povertà o la disgregazione
familiare, dalle variabili di processo, che fanno riferimento ai legami informali, come possono
essere quelli con la famiglia o con il lavoro. Su questa base i due autori ipotizzano un modello
teorico, impostato su due stadi: d le variabili strutturali di base influirebbero sul
comportamento deviante in maniera indiretta, ma in maniera mediata dalle variabili
intervenienti rappresentate dal legame controllo familiare.
I due autori passano poi alle variabili, individuandone nove di base: affollamento abitativo, che
può essere confortevole, medio o sovraffollato; disgregazione familiare, con valore 1 quando il
ragazzo è cresciuto in una famiglia dove uno o entrambi i genitori erano assenti per divorzio,
separazione, abbandono o decesso; dimensione della famiglia, data dal numero di bambini;
status socio economico a tre categorie: confortevole, marginale o dipendente; nascita
all’estero, con valore 1 se uno o entrambi i genitori sono nati all’estero; mobilità residenziale,
definita dal numero di volte che la famiglia del ragazzo ha cambiato abitazione durante la sua
infanzia; lavoro della madre; devianza del padre o della madre, riferite al fatto che padre o
madre fossero mai stati arrestati oppure fossero alcolisti.

Sono cinque poi le variabili processuali familiari: le prime due sono relative allo stile
glidisciplinare paterno e materno, e vengono definite dagli autori nei termini di “disciplina
paterna o materna erratica, severa e minacciosa” con un punteggio da 1 a 4, tendendo conto
di punizioni fisiche, paura del bambino nei confronti del padre o della madre, e dell’instabilità
del regime disciplinare. La terza variabile è la “mancanza di supervisione materna”, a tre
categorie e il livello più basso si riferisce ai soggetti che durante l’infanzia furono
sistematicamente lasciati soli dalle madri o da queste affidati a persone irresponsabili. Si ha poi
il “rifiuto da parte dei genitori” a tre categorie, che fa riferimento a palese ostilità dei genitori
verso il ragazzo, e infine “attaccamento ai genitori” a tre livelli, che intende rilevare il legame
emotivo del ragazzo verso i genitori.

La variabile dipendente dell’intero modello è rappresentata dal comportamento deviante, e a


seconda dei casi si tratterà della devianza ufficiale o della devianza non ufficiale.

Per quanto riguarda i risultati, gli autori utilizzano lo strumento statistico della regressione
multipla. Mettono in relazioni i tre blocchi di variabili (strutturali di base, processuali familiari,
e comportamento deviante) a due a due e riscontrano sempre forti correlazioni tra: variabili di
base e processuali; di base e devianza; processuali e di devianza. Il fatto interessante sta
soprattutto nel momento in cui si analizza il modello completo e l’effetto delle variabili
strutturali di base sparisce.

Ciò significa che le variabili strutturali non hanno effetto diretto sul comportamento deviante,
ma la loro azione è mediata dalle variabili processuali. Ad esempio, una situazione di
disgregazione familiare favorisce episodi di abbandono da parte dei genitori, e ciò facilità
l’insorgere di comportamenti devianti. Ma a parità di controllo e cura da parte dei genitori nei
confronti dei figli, cessa l’influenza della disgregazione familiare sul destino deviante dei figli.

Difatti tutte le variabili processuali sono altamente correlate con il comportamento deviante,
mentre fra le variabili strutturali solo la dimensione della famiglia lo influenza direttamente in
maniera statisticamente significativa.

A conclusione della fase empirica si ha il ritorno alla teoria; gli autori ricavano dai loro dati la
conclusione che i processi familiari di controllo informale hanno un importante effetto
inibitorio sulla delinquenza degli adolescenti

Nei capitoli successivi gli autori applicano uno schema di analisi simile relativamente al ruolo
della scuola, del gruppo dei pari, dei fratelli, del lavoro e del matrimonio, arrivano al modello
teorico dinamico di crimine, devianza e controllo sociale informale lungo il ciclo di vita, nel
quale dividono il corso dei primi 45 anni di età in 5 fasi, e per ogni fase mettono in evidenza il
ruolo dei fattori che favoriscono l’insorgere o il permanere del comportamento deviante e di
quelli che tendono ad inibirlo.
Questo modello permette così loro di rispondere agli interrogativi posti in apertura, e in
particolare, nel distinguere l’importanza delle variabili di struttura e di processo, mettono in
luce come le seconde siano quelle che in ultima analisi spiegano la maggior parte della varianza
sia nella devianza adolescenziale, sia nel processo di uscita ine età più adulta dalla devianza
criminale.

2. Paradigma interpretativo: Island in the street, di Jankowski.

All’interno di Island in the street, Jankowski affronta il tema delle gang, affermando come nelle
scienze sociali queste non siano mai state comprese completamente, a partire dalla mancata
comprensione degli individui al loro interno, e dalla mancata comprensione dell’organizzazione
in se.

2.1. Disegno della ricerca e raccolta dei dati.

Il lavoro di Jankowski è un esempio di osservazione partecipante, ma con la caratteristica di


essere comparato per capire ciò che le gang hanno in comune e ciò che invece è specifico di
ognuna di esse. Per questo motivo decide di studiare gang di città diverse, di diversa
connotazione etnica e di diversa dimensione, arrivando allo studio in 10 anni di 37 gang
diverse, partecipando pienamente alla loro vita, alle loro attività e alla loro quotidianità, al
punto di essere stato ferito una volta in uno scontro tra gang rivali.

La sua partecipazione era rigidamente pianificata: dopo l’accettazione da parte di una nuova
gang, passava un mese intero con essa, dopo da cinque a dieci giorni, mentre negli ultimi tre
anni della ricerca trascorse ancora da tre a sei giorni con ognuna di esse.

2.2. Ipotesi.

Nel capitolo iniziale l’autore non passa in rassegna la letteratura confrontando tesi o
avanzando ipotesi, ma attinge subito ampiamente alla ricerca effettuata, ed espone le
conclusioni alle quali la sua esperienza lo ha portato, evitando un forte condizionamento
teorico iniziale.

L’originalità dell’approccio sta nel fatto che l’autore non vede la gang come una deviazione
patologica delle norme sociali, ma interpreta l’adesione ad essa come una scelta razionale, dal
momento in cui la gang “offrirebbe quell’ordine sociale e quella sicurezza di cui i giovani
deprivati degli slums sentono il bisogno”.

La riflessione si sviluppa su tre linee:

1. Individuo: elabora qui il concetto di “carattere individualistico e ribelle”, connotato da


un intenso senso della competizione, che spesso arriva all’aggressione fisica, e che è
presente per esempio con la sfiducia verso gli altri, l’isolamento sociale o la necessità
di contare solo su se stessi;
2. Gang: la possibile risposta e strumento di realizzazione ai bisogni dell’individuo.
Anch’essa tipo ideale, viene definita dall’autore come sistema sociale quasi privato e
quasi segreto, guidato da una struttura di leadership che ha ruoli ben definiti e dove
l’autorità ad essi associata è passata attraverso un meccanismo di legittimazione. Il suo
agire è finalizzato sia all’erogazione di servizi sociali ed economici che alla propria
sopravvivenza, perseguendo i propri obiettivi anche in maniera non legale. La gang è
libera di accettare l’ingresso di un nuovo membro se questo soddisfa i bisogni
dell’organizzazione. Si prosegue poi nell’analisi della stessa come organizzazione,
verificando le strategie messe in atto per trattenere e coinvolgere i membri, la
strutturazione della leadership, gli incentivi e le sanzioni per ottenere l’obbedienza;
3. Gang e comunità: la sopravvivenza della gang può essere assicurata solo
dall’integrazione della gang nella comunità locale, che deve accettarla come parte
integrante del quartiere e che da ciò avrò in cambio sostegno dalla gang in termini di
protezione da altre gang.

2.3. Interpretazione del materiale empirico.

Tutte queste tematiche vengono affrontate nei capitoli successivi dove l’autore intrepreta i
dati raccolti con l’ausilio delle categorie introdotte nel capitolo teorico. Nel primo capitolo
l’autore spiega di rispondere all’interrogativo del “chi entra in una gang e perché?”.

L’autore respinge le quattro risposte che la letteratura specializzata ha dato alla domanda, ad
esempio perché si proviene da una famiglia disgregate; perché si cerca un sostituto della
famiglia; perché espulsi dal sistema scolastico e troppo impreparati per trovare un lavoro; per
imitazione, per seguire cioè l’esempio di ragazzi più grandi che li persuadono facilmente.

Le motivazioni incontrate da Jankowski sono sei:

 Incentivi materiali: si entra nella gang per ricavare dei soldi in maniera più regolare
che intraprendendo attività illegali da soli, ma anche per incontrare meno rischi
rispetto ai quali si è esposti individualmente o per avere aspettative future opportunità
economiche;
 Divertimento: la gang è difatti anche un luogo di svago e passatempo, spesso ha tra
l’altro una sorta di club con bar, videogiochi, slot, e spesso vengono organizzate feste;
 Rifugio e nascondiglio: la gang offre anonimato a chi ne ha bisogno a causa dei suoi
traffici in un contesto fortemente competitivo;
 Protezione fisica: viene offerta protezione fisica nell’ambiente altamente conflittuale
dei sobborghi metropolitani;
 Luogo di resistenza: molti entrano nella speranza di sfuggire alla sorte di avere una
vita senza nessuna aspettativa come quella dei loro genitori;
 Impegno comunitario: alcuni vedono nella gang una forma partecipativa che esprime il
loro attaccamento alla comunità, soprattutto nei quartieri in cui le gang sono esistite
per generazioni.

Il capitolo prosegue poi, con lo stesso stile di analisi e di illustrazione del materiale empirico,
sul problema dell’inserimento dei nuovi membri nella gang, ma questa volta dal punto di vista
dell’organizzazione, visto come problema del reclutamento.

3.3. Ricerca quantitativa e qualitativa: un confronto.

3.1. Impostazione della ricerca.

L’elemento principale che differenzia i due tipi di ricerca esposti precedentemente si rintraccia
nella strutturazione delle varie fasi che dalla domanda principale portano al volume finale.

Per quanto riguarda la ricerca di Sampson e Laub colpisce qui la geometricità: si ha cioè
l’esposizione della teoria, la sua formulazione nella forma di un modello verificabile
empiricamente, il disegno della ricerca, l’analisi dei dati, il ritorno alla teoria. Ci si trova cioè
davanti non solo un ordine espositivo e che si presenta nella presentazione degli argomenti,
ma un qualcosa che ha guidato effettivamente il modo di procedere dei due studiosi e che
nasce dalla visione della ricerca come un processo razionale e lineare.

Per ciò che invece concerne Jankwoski, la situazione è diversa: nel suo libro manca una parte
introduttiva che vada a discutere le acquisizioni della letteratura e/o che proponga
l’elaborazione di una teoria e di ipotesi empiricamente controllabili. Si comprende come qui la
strategia operativa sia diversa da quella di Sampson e Laub: difatti qui l’autore non è partito
con delle chiare ipotesi, ma sono queste qualcosa che incontra lungo il percorso, motivo per
cui si parala di “teoria che emerge dai dati”.

Nei due approcci è difatti diverso il rapporto tra teoria e ricerca: nel caso della ricerca
quantitativa ispirata dal paradigma neopositivista, si ha un rapporto strutturato secondo fasi
logicamente sequenziali, secondo un’impostazione deduttiva, che si appoggia sulla teoria
formulata precedentemente, tramite dati empirici. Assume qui una grandissima importanza
l’analisi sistematica della letteratura, che fornisce le ipotesi teoriche da cui partire.

Nel caso della ricerca qualitativa derivante dal paradigma interpretativo si ha invece una
relazione aperta tra teoria e ricerca, in cui il ricercatore spesso respinge volontariamente la
formulazione di teorie prima di cominciare il lavoro sul campo, considerando questa
formulazione come un condizionamento che potrebbe inibirgli la capacità di “comprendere” il
punto di vista del soggetto che si va a studiare, da cui una minor importanza dedicata alla
letteratura.

Da questa impostazione deriva anche un uso diverso dei concetti, quegli elementi costitutivi
della teoria e che permettono allo stesso tempo alla stessa teoria di essere sottoposta a
controllo empirico attraverso l’operativizzazione (ossia la loro trasformazione in variabili
empiricamente osservabili).

Nell’approccio neopoisitivista la chiarificazione e l’operativizzazione avvengono ancor prima di


iniziare la ricerca, basti pensare al concetto di “disgregazione familiare” di Sampson e Laub.
Questi lo operativizzano tale per cui: valore 1 (disgregazione) quando in famiglia uno o
entrambi genitori sono assenti per divorzio, separazione, decesso o abbandono; valore 0 negli
altri casi. Si noti come questa definizione operativa del concetto di disgregazione familiare, nel
momento in cui offre il vantaggio di poter rilevare empiricamente il concetto, comporta anche
lo svantaggio di una forte riduzione e impoverimento del concetto stesso.

Questo non sarebbe mai avvenuto nella ricerca qualitativa, dove il ricercatore avrebbe
utilizzato il concetto di “disgregazione familiare” come sensitizing concept, ossia come
concetto orientativo che, nelle parole di Blaumer, “fornisce una guida di avvicinamento alla
realtà empirica, suggerendo le direzioni in cui guardare, in una relazione di autocorrezione con
il mondo empirico tale che le proposte attorno a questo mondo possano essere controllate,
rifinite e arricchite dai dati empirici, in un processo che muove dal concetto verso le concrete
distintività della realtà, invece di cercare di ingabbiare la realtà in una definizione astratta del
concetto stesso”.

Un ulteriore punto di distacco sta nel rapporto con l’ambiente studiato, con un’attenzione
particolare alla reattività dell’oggetto di studio, per cui ovviamente se le persone sanno di
essere osservate, è molto probabile che non si comportino in maniera naturale.

Ciò è qualcosa che non sembra preoccupare il ricercatore quantitativo, che non ritiene cioè la
reattività come un problema di base nelle sue indagini.
Al contrario ciò è un problema di fondamentale importanza per la ricerca qualitativa, che pone
di fatti il requisito dell’approccio naturalistico alla base del suo modo di fare ricerca,
intendendo con il termine un intervento sulla realtà in cui ci si astiene da qualsiasi
manipolazione, stimolazione, interferenza o disturbo nei confronti della realtà stessa, che
viene studiata nel corso del suo naturale svolgersi.

Illustrazioni opposte si trovano anche nelle tecniche dell’esperimento, dove il ricercatore


manipola la realtà sociale in maniera completa, arrivando a costruire una situazione artificiale
e del tutto innaturale, dove l’intervento manipolativo del ricercatore è sicuramente pervasivo;
e quella dell’osservazione partecipante, dove il ricercatore si limita ad osservare quello che
accade nella realtà sociale, inibendosi anche quel minimo intervento che sarebbe costituito da
interrogazioni-interviste ai soggetti osservati.

Partendo dalla differenza base tra i due paradigmi, che sta nella definizione dell’obiettivo della
ricerca, visto come “validazione empirica delle ipotesi” da un lato e come “scoperta del punto
di vista dell’attore” dall’altro, derivano due fatti.

Il primo riguarda l’interazione psicologica studioso-studiato: il ricercatore quantitativo assume


un punto di osservazione esterno al soggetto studiato, come l’osservatore scientifico, rilevando
ciò che reputa rilevante, mentre il ricercatore qualitativo si colloca il più possibile
internamente al soggetto di analisi, nella prospettiva di vedere la realtà sociale con gli occhi dei
soggetti studiati, sviluppando con questi una relazione di immedesimazione empatica.

Il secondo riguarda l’interazione fisica studioso-studiato: se la ricerca quantitativa non


prevede alcun contatto fisico tra studioso e studiato, alla stregua di un’indagine condotta con
un questionario su un campione di popolazione o di un esperimento di laboratorio, nel caso
della ricerca qualitativa si ha un’interazione tanto necessaria tra studioso e studiato, tale da
essere precondizione per la comprensione, tale che ad esempio Jankowski mangiava, dormiva,
e frequentava tutto e tutti ciò che erano intorno le gang.

Da quanto detto appare evidente una forte diversità anche in merito al ruolo del soggetto
studiato.

Nell’impostazione quantitativa, l’individuo studiato viene considerato come passivo, e anche


quando non lo si può considerare tale, si fa di tutto per ridurre al minimo la sua interazione
con il soggetto studiante. Al contrario, sul versante qualitativo la concezione della ricerca come
interazione implica un ruolo attivo del soggetto studiato, attraverso la ricerca stessa della sua
compartecipazione creativa al processo di indagine.

3.2. Rilevazione.

Una delle principali differenze tra i due approcci ha a che fare con il disegno della ricerca, cioè
con tutte quelle scelte di carattere operativo durante le quali si decide come, dove e quando si
raccolgono i dati.

La distanza tra i due approcci ancora una volta si rintraccia nei diversi gradi di strutturazione
delle procedure: nel caso quantitativo si ha un disegno della ricerca costruito a tavolino prima
dell’inizio della rilevazione (nel caso di Sampson e Laub, una volta stabili i 1000 soggetti essi
erano i definitivi soggetti di studio), e che è fortemente chiuso e strutturato, mentre nel caso
qualitativo il disegno della ricerca è strutturato, aperto e idoneo all’imprevisto (nel caso di
Jankowski si definiscono invece dei criteri di fondo da osservare per i quali poi si era liberi di
scegliere le gang più adatte ai propri scopi).
Da questa impostazione di chiusura o apertura, discendono altre due caratteristiche.

La prima riguarda la rappresentatività dei soggetti studiati: nella ricerca quantitativa il


ricercatore è preoccupato dalla generalizzabilità dei dati, e della rappresentatività del pezzo di
società che sta studiando, mentre nel caso del ricercatore qualitativo, si mette in primo piano il
ruolo della comprensione, anche a costo di perdersi nell’inseguimento di situazioni atipiche e
meccanismi non generalizzabili, non interessandosi alla rappresentatività statistica, e
scegliendo i propri casi da approfondire non per la loro diffusione nella popolazione, ma per
l’interesse che gli sembrano esprimere.

Il secondo elemento di differenziazione è dato dall’uniformità o meno dello strumento di


rilevazione: se questo nella ricerca quantitativa è uniforme o uniformante per tutti i casi,
facendo sì che i soggetti ricevano lo stesso trattamento (dal momento in cui l’obiettivo finale
della raccolta di informazioni è la matrice dei dati), nel caso della ricerca qualitativa la
disomogeneità delle informazioni è proprio un fatto costitutivo, dato che il ricercatore assume
informazioni diverse a seconda dei casi, con un diverso livello di approfondimento a seconda
dell’interesse.

Un ultimo punto sotto questo titolo della rilevazione è quello che fa riferimento alla natura dei
dati: nella ricerca quantitativa sono (o ci si attende che lo siano) affidabili, rigorosi, univoci,
dunque standardizzati, nel senso che i dati raccolti sui diversi soggetti siano tra loro
confrontati, ed oggettivi, nel senso che i dati non devono essere sottoposti alla soggettività
interpretativa del ricercatore o alla soggettività espositiva del soggetto studiato; dall’altro lato,
nel caso della ricerca qualitativa non ci si pone il problema dell’oggettività e standardizzazione,
ma ci si concentra invece sulla ricchezza e profondità dei dati, in un’accezione soft.

3.3. Analisi dei dati.

L’analisi dei dati è probabilmente la fase della ricerca sociale in cui risulta più visibile la
diversità tra l’approccio quantitativo e qualitativo, in cui una prima distanza si nota nel forte
impatto di strumentazione tecnologia di analisi dei dati del metodo quantitativo, a contrasto
con la sobria analisi qualitativa.

Nella ricerca quantitativa l’analisi dei dati avviene sempre per variabili, in maniera impersonali,
con l’obiettivo di analisi che sarà quello di spiegare la varianza delle variabili dipendenti,
trovando le cause che provocano il variare delle variabili dipendenti fra i soggetti, per esempio
cioè i fattori che spiegano perché alcuni bambini sono aggressivi e altri no. Cioè se la differenza
tra bambini aggressivi e non aggressivi sta nel fatto che tutti i bambini aggressivi provengono
da famiglie con padre violento si spiega così statisticamente la causa della variabile aggressiva,
che viene individuata così nel comportamento del padre. È ciò quanto accade nel modo di
procedere delle scienze naturali.

Questo modo di procedere viene però criticato dall’approccio interpretativo, che accusa difatti
il metodo quantitativo di assunzione impropria del modello scientifico delle scienze naturali,
difendendo la necessità di una prospettiva globale, olistica nei confronti del comportamento
umano. Si sottolinea cioè come l’individuo sia qualcosa in più della somma delle sue parti, in
una complessa interdipendenza che non può essere ridotta alla relazione tra alcune variabili, e
che la comparazione dei soggetti attraverso le variabili comporti un loro snaturamento.

L’obiettivo dell’analisi è così qui dato dall’individuo nella sua interezza, usando un approccio
case-base e distanziandosi così dal precedente approccio variable-based. Questo fa capire
come Jankowski, nel corso della sua analisi, quando si interroga sulle cause della violenza nel
comportamento degli individui appartenenti alle gang, non cerca di rilevare la variabile
dipendente violenza e di cogliere le correlazioni tra variabili, ma conduce la sua analisi per
soggetti, classificandoli nella loro globalità secondo tipi.

Parte dall’individuazione di quattro fattori scatenanti la violenza: paura, ambizione,


frustrazione ed esibizione, distinguendo poi gli episodi di violenza a seconda che siano
espressione di violenza individuale o di violenza organizzata, e distinguendone ancora i
contesti in cui si realizza, individuandone sei. Crea così una classificazione fatta di 12 situazioni,
all’interno di ognuna delle quali individua quattro casi a seconda dei quattro fattori emotivi
scatenanti la violenza, ottenendo una tipologia di 48 tipi, entro i quali classifica gli episodi di
violenza.

Dunque, l’obiettivo dell’analisi è qui quello di comprendere le persone, interpretare il pdv


dell’attore sociale, mentre nell’approccio quantitativo era quello di spiegare la variazione delle
variabili.

3.4. Risultati.

Essendo diverse le impostazioni, rilevazioni ed analisi dei dati, è ovvio che ci sia anche una
profondità diversa nel tipo di risultati raggiunti dai due modi di fare ricerca.

Per quanto riguarda la presentazione dei dati nelle due ricerche quantitative e qualitative,
incontriamo qui le forme classiche di tabella e narrazione. Sono questi due modi tipici di
presentare i risultati nella ricerca quantitativa e qualitativa, tuttavia non unilaterali, cioè
utilizzabili esclusivamente per l’uno o l’altro tipo di ricerca.

In generale le informazioni di carattere quantitativo che la tabella fornisce sono succinte e


parsimoniose, facendo cioè sì che con pochi numeri essa illustri delle caratteristiche e relazioni
fondamentali degli oggetti di studio, facendo sì che si parli di prospettiva razionale. La
narrazione invece serve per esemplificare i risultati, per far capire meglio al lettore l’universo
reale dietro il dato numerico. Difatti il ricercatore di approccio interpretativo si basa molto di
più sulla narrazione che sulla tabella, in quanto restio ad applicare delle proprie
categorizzazioni alle risposte ed atteggiamenti degli intervistati, essendo il suo obbiettivo non
l’individuazione di tratti generalizzabili, ma quello di riportare la visione della realtà dei
soggetti studiati.

Problema delle generalizzazioni-> la tabella e la narrazione sono due forme di presentazione


elementare e frammentata dei dati, motivo per cui è necessario che la conclusione di una
ricerca vada oltre la semplice esposizione di distribuzione di variabili o l’esposizione di casi,
essendo l’obiettivo della ricerca soprattutto quello di fornire delle sistematizzazioni o delle
sintesi di ordine superiore.

L’itinerario che conduce a queste sintesi è chiaro nella ricerca quantitativa, dove è costituito
dal processo che porta, attraverso lo studio delle relazioni fra variabili, all’enunciazione di
rapporti casuali fra le variabili. Dopo aver infatti frammentato l’individuo in variabili, l’analisi
quantitativa ricompone una prima sintesi nella correlazione fra le variabili, ed arriva ad
un’unità concettuale nel modello causale e, nei casi più fortunati, alla formulazione di
espressioni sintetiche che hanno caratteristiche simili a quelle delle leggi delle scienze naturali.

È invece più difficile, all’interno della ricerca qualitativa, trovare dei percorsi di sintesi delle
informazioni generali e condivisi dai ricercatori. Molti autori di questo approccio tuttavia
indicando nell’individuazione dei tipi la via per raggiungere questi obiettivi di sintesi, cosa che
era già stata suggerita all’approccio interpretativo dall’ispirazione weberiana con la
formulazione del concetto di tipo ideale (ricordiamo essere una categoria concettuale che non
ha un effettivo corrispettivo nella realtà): vedere studio.
Un’ulteriore differenza tra i due approcci sta in merito ai meccanismi della spiegazione e
dell’interpretazione.

Lo scopo finale della ricerca quantitativa sta nell’individuazione del meccanismo causale, come
si nota nella ricerca di Sampson e Laub, dove le variabili sono fondamentalmente raggruppabili
in tre tipi di cause, effetti e condizioni, con l’interrogativo del ricercatore che si muove sempre
nell’ottica di capire cosa causa cosa” e a quali condizioni.

Al contrario nelle ricerche qualitative, non vi è traccia di interrogativo sui meccanismi causali
che hanno portato alle differenze di atteggiamenti, comportamenti e stili di vita fra i soggetti,
cercando cioè di interrogarsi sui come, piuttosto che sui perché.

Ultima questione è quella relativa alla portata dei risultati. Date le sue esigenze di
approfondimento e di immedesimazione nell’oggetto studiato, la ricerca qualitativa non può
operare su un numero rilevante di casi, e in materia l’esempio di Jankowski (che ha partecipato
alla vita di 37 gang) è un evento unico, essendo molto più frequente lo studio di caso, ossia la
ricerca condotta su una sola specifica situazione.

C’è da dire che il numero dei casi è collegato proprio alla generalizzabilità dei risultati: più cioè
la ricerca sarà ampia, più il suo campione sarà rappresentativo della variegata situazione reale.
Resta così indubbia una maggiore generalizzabilità dei risultati della ricerca quantitativa
rispetto quelli della ricerca qualitativa.

4. Due diversi modi di conoscere la realtà sociale.

Riguardo la scelta da effettuare tra l’uso della ricerca quantitativa o qualitativa, e cioè
l’affermare se uno dei due approcci sia dal punto di vista scientifico superiore dell’altro, si
rintracciano tre posizioni:

1. Si rintracciano qui tutti coloro che sostengono che approccio qualitativo e quantitativo,
corrente neopositivista e interpretativa sono incompatibili in quanto caratterizzati da
posizioni filosofiche di fondo opposte. Ciascuno qui sostiene la propria posizione,
affermando che l’altra sia sbagliata.
2. Questa posizione è diffusa all’interno della componente quantitativa degli scienziati
sociali, e corrisponde alla posizione di chi, avendo fatto una scelta per il paradigma
neopositivista, non nega che possa esserci un valido contributo anche da parte delle
tecniche qualitative, che vengono comunque collocate in un contesto esplorativo
prescientifico, restando utili per fornire espressioni e idee iniziali che solo in seguito
possono condurre ad una formulazione accurata del problema e a ipotesi esplicite.
3. Si sostiene qui la piena e pari legittimità, utilità e dignità dei metodi, e auspica lo
sviluppo di una ricerca sociale che sappia scegliere l’uno o l’altro approccio a seconda
delle circostanze ed opportunità. È una posizione che è venuta affermandosi
soprattutto negli scorsi anni, e che vede tra i suoi nomi principali quelli di Micheal
Patton e Charles Ragin che affermava come ci fosse “unità nella diversità dei due
approcci”.

Secondo l’autore del manuale bisognerebbe considerare come i due modi di fare ricerca non
differiscano per mere questioni procedurali, ma come essi siano l’espressione diretta e
logicamente consequenziale di due diverse visioni epistemologiche, e dunque il riflettersi di
due diversi paradigmi che implicano metodi diversi di intendere la realtà sociale; non bisogna
cioè considerare come all’assunzione della diversità fra i due approcci derivi il fatto che uno sia
sbagliato e l’altro corretto.

La scelta dell’approccio dovrà dunque dipendere dall’obiettivo della ricerca: se l’intento, ad


esempio, è quello di conoscere le forme, le pratiche religiose, e confrontarle tra i diversi settori
della popolazione, si sceglierà un metodo d’ispirazione quantitativa, mentre se si ha l’jntento di
capire la struttura della personalità, l’ispirazione religiosa e i valori che guidano essa si
sceglieranno strumenti di tipo qualitativo, come possono essere le interviste in profondità.

Non si possono cioè considerare le diverse tecniche, e le relative conoscenze (diverse) come un
limite, ma anzi come un arricchimento, in quanto è necessario un approccio multiplo e
differenziato alla realtà sociale per poter poterla comprendere a pieno, consapevoli del fatto
che si possa scegliere una prospettiva, ma che comunque ne continuino ad esistere altre.

Potrebbero piacerti anche