Il primo studioso che negli anni Sessanta ha riproposto all’attenzione dei filosofi e dei sociologi
della scienza il concetto di paradigma è Kuhn e il suo saggio La struttura delle rivoluzioni
scientifiche.
Il punto di partenza dell’autore ha per oggetto lo sviluppo storico delle scienze, e costituisce un
rifiuto della concezione tradizionale di scienza intesa come “accumulazione progressiva e
lineare di nuove acquisizioni”, per cui appunto le nuove invenzioni e scoperte si
aggiungerebbero al corpo conoscitivo precedente. Secondo Kuhn invece, se questo è il
processo della scienza in tempi “normali”, esisterebbero anche dei movimenti “rivoluzionari”
in cui il rapporto di continuità con il passato si interrompe ed inizia una nuova costruzione.
Ciò viene illustrato dall’autore con una ricca esemplificazione tratta dalle scienze naturali,
concentrandosi in particolare sul cambiamento dell’insegnamento della fisica.
Con paradigma così Kuhn designa una prospettiva teorica che sia:
Appare comprensibile come senza un paradigma la scienza sia priva di orientamenti e di criteri
di scelta, fornendo agli scienziati non solo un modello, ma anche alcune indicazioni che sono
indispensabili per costruirlo. È qualcosa cioè più ampio e generale di una teoria, proponendosi
come visione del mondo, e griglia di lettura che precede l’elaborazione teorica.
Kuhn definisce scienza normale quelle fasi di una disciplina scientifica durante le quali
predomina un determinato paradigma, che risulta ampiamente condiviso dalla comunità
scientifica, fase (fino al momento in cui non avverrà la rivoluzione della sostituzione del
paradigma operante) durante la quale si sviluppa secondo proprio il modo lineare e cumulativo
attribuito al complesso dello sviluppo scientifico.
Kuhn fa inoltre notare come il paradigma sia un elemento caratterizzante le scienze mature, (a
seguito della teoria corpuscolare della luce di Newton), prima delle quali si verificava cioè una
contrapposizione comune tra scuole e sottoscuole in competizione tra di loro, ognuna con una
sua teorizzazione e punto di vista.
Lo stesso vale per la sociologia, apparendo difatti difficili individuare un paradigma condiviso
dalla comunità dei sociologi. Esiste tuttavia un’altra interpretazione del pensiero di Kuhn,
avanzata proprio nel tentativo di applicare le sue categorie alla sociologia, attraverso cioè una
ridefinizione del concetto di paradigma, in cui restano tutti gli elementi della definizione
originaria, salvo il carattere della condivisione da parte della comunità scientifica.
Tra le prospettive filosofiche che hanno generato e accompagnato nella sua crescita la ricerca
sociale, si possono incontrare delle visioni sufficientemente generali, coerenti e operative, tali
da poter attribuire i caratteri del paradigma. In particolare, tra queste troviamo la visione
empirista e quella umanista, due visioni organiche e fortemente contrapposte della realtà
sociale e dei modi per conoscerla, che hanno generato due blocchi coerenti e fra loro
fortemente differenziati di tecniche di ricerca.
Questi paradigmi sono concezioni generali sulla natura della realtà sociale, sulla natura
dell’uomo, sul modo con cui questo può conoscerla. Per confrontare adeguatamente i due
paradigmi è necessario capire in quale modo essi rispondano agli interrogativi fondamentali
davanti i quali si trova la ricerca sociale:
Sono queste tre questioni ovviamente intrecciate tra di loro, non solo per il fatto che le
risposte date ad ognuna di esse sono fortemente influenzate dalle risposte date alle altre due,
ma pure nel senso che talvolta sarà difficile distinguerne i confini, risultando difficile separare
le concezioni sulla natura della realtà sociale dalle riflessioni sulla sua conoscibilità.
1.3. Positivismo.
È proprio sotto le origini del pensiero positivista che nasce la sociologia, dunque in quel
momento in cui, alla metà dell’Ottocento, gli uomini iniziarono ad interrogarsi sulla realtà
sociale in quanto tale e a trasformarla in oggetto di studio, e in cui questa nuova disciplina che
si veniva formando assumeva il paradigma delle scienze naturali. Tra i fondatori della
sociologia (Spencer e Comte) tutti condividevano un’ingenua fede nei confronti dei metodi
delle scienze naturali, essendo il paradigma positivista nient’altro che lo studio della realtà
sociale, utilizzando gli apparati concettuali, le tecniche di osservazione e misurazione, gli
strumenti di analisi matematica, i procedimenti di interferenza delle scienze naturali.
Come Comte sa, l’acquisizione del punto di vista positivista rappresenta in ogni scienza il punto
finale di un percorso che ha passato già gli stadi teologico e metafisico. È comunque un
percorso che non si realizza simultaneamente in tutte le disciplina, partendo dalle scienze di
natura inorganica quali l’astronomia o la fisica, per poi arrivare a quelle di natura organica,
come la biologia, e terminare con lo studio della società, con la formazione della scienza
positiva della società. Di conseguenza si comprende come le scienze della società non siano
diverse da quelle della natura, e il modo di pensare positivo che ha portato a grandi conquiste
nel campo dell’astronomia, della fisica e della biologia è cioè destinato a trionfare anche
quando dagli oggetti naturali si passa ai sociali.
Il primo tentativo di declinare questa prospettiva teorica globale in termini di ricerca empirica
è stato Durkheim, facendo cioè un effettivo sforzo nel tradurre i principi del pensiero positivo
in prassi empirica, diventando il primo vero sociologo positiva, la cui prassi empirica si basa
sulla teoria del fatto sociale. I fatti sociali per Durkheim altro non sono che modi di agire, di
pensare e di sentire che presentano la proprietà di esistere al di fuori delle coscienze individuali,
e che hanno le stesse proprietà delle cose del mondo naturale.
Da qui derivano due conseguenze: da un lato il fatto che i fatti sociali non sono soggetti alla
volontà dell’uomo, ma sono cose che offrono resistenza al suo intervento, lo condizionano e lo
limitano, e dall’altro, proprio come i fenomeni del mondo naturale, funzionano secondo
proprie regole, possiedono una struttura determinista che l’uomo, attraverso la ricerca
scientifica, può scoprire. Dunque, il mondo sociale è regolato da leggi, allo stesso modo del
mondo naturale-> da qui l’assunto, nonostante i loro differenti oggetti, di una sostanziale unità
metodologica tra mondo naturale e mondo sociale.
In merito alla forma di questa conoscenza, infine, sembra che non ci siano dubbi sulla
possibilità di pervenire all’individuazione e formulazione di queste leggi della natura, alla loro
dimostrazione e verifica.
Comunque, alla base delle varie articolazioni del positivismo resta sempre una sorta di
entusiasmo per la conoscenza positiva di tipo scientifico e la considerazione della scienza e del
suo metodo come unica conoscenza valida ed efficace in tutti i campi della vita umana.
1. Questione ontologica: realismo ingenuo, posizione che può essere espressa attraverso
due proposizioni: a) esiste una realtà sociale oggettiva, esterna all’uomo; b) questa
realtà è conoscibile nella sua reale essenza;
2. Epistemologia: dualista e oggettivista, legge naturale. Viene affermata la possibilità
della conoscenza grazie a due fatti: a) lo studioso e l’oggetto studiato sono considerati
entità indipendenti (dualismo); b) lo studioso può studiare l’oggetto senza influenzarlo
o esserne influenzato (oggettività);
3. Metodologia: sperimentale e manipolativa. I metodi e le tecniche della ricerca
positivista sono prelevati di peso dalle scienze naturali. Il metodo sperimentale viene
qui assunto: a) sia nel suo modo di procedere induttivo che dai particolari
empiricamente osservati perviene a delle formulazioni generali; b) sia nella sua
formalizzazione matematica che, anche se non sempre raggiungibile, rappresenta
tuttavia l’aspirazione di fondo dello scienziato positivista.
La chiarezza del positivismo dell’Ottocento viene sostituita dalla complessità del positivismo
del Novecento, articolato e per alcuni versi composto da contraddizioni.
Una prima revisione del positivismo ottocentesco venne svolta dal positivismo logico, che ha
dato origine al neopositivismo. Questo movimento si formò attorno alle discussioni del gruppo
di studiosi che formarono nella seconda metà degli anni Venti il “circolo di Vienna”.
L’emigrazione di alcuni rappresentanti della scuola verso gli Stati Uniti, a causa delle
persecuzioni naziste, contribuì alla diffusione del pensiero neopositivista e alla sua influenza
sulle altre discipline, tra cui la sociologia, che proprio negli Stati Uniti vede svilupparsi un
ricchissimo filone di ricerca empirica.
Questo nuovo modo di vedere le cose assegna un ruolo fondamentale alla critica della scienza,
ridifendendo il compito della filosofia, che doveva cioè abbandonare il terreno delle grandi
teorizzazioni per dedicarsi all’analisi critica di quanto elaborato nelle teorie delle discipline. Di
qui il rifiuto delle grandi questioni e di tutti i pseudoproblemi, ossia quelle metafisiche prive di
senso poiché indimostrabili, per passare a porre la massima attenzione ai problemi
metodologici di ogni scienza, all’analisi logica del loro linguaggio e delle loro elaborazioni, alla
critica degli assunti, e alle procedure di validazione delle elaborazioni concettuali mediante la
verifica empirica.
Vista la centralità delle questioni epistemologiche, risulta comprensibile l’influenza che questo
movimento ebbe sulla metodologia delle scienze, incluse le scienze sociali, ricordando come
uno dei postulati del neopositivismo sia la diffusa convinzione che il senso di un’affermazione
derivi dalla sua verificabilità empirica.
In questo modo tutti i fenomeni sociali potevano essere rilevati, misurati, correlati, elaborati e
formalizzati e le teorie convalidate o falsificate in maniera oggettiva e priva di ambiguità. Da
qui una forte attenzione alle procedure di operativizzazione, delle tecniche di misurazione,
della formalizzazione matematica e dell’inferenza statistica.
Tutto venne a cambiare, e la concezione di scienza che divenne propria del Novecento si
allontanò dalle certezze del positivismo ottocentesco, in cui dominava la concezione meccanica
della realtà, la sicurezza nelle leggi immutabili, e la fede del progresso scientifico. All’origine
della nuova concezione ci sono innanzitutto alcuni sviluppi delle scienze naturali, della fisica, la
meccanica quantistica, la relativizzazione dello spazio e del tempo operata da Heisenberg.
Tutto ciò aiuta ad introdurre elementi di probabilità e di incertezza su punti cruciali come il
concetto di legge casuale, l’oggettività immutabile del mondo esterno e le categorie di spazio e
tempo.
Un importante elemento introdotto nel pensiero scientifico nella sua evoluzione dall’iniziale
modello positivista è la categoria di falsificabilità, assunta come criterio di validazione empirica
di una teoria o ipotesi teorica. Essa stabilisce che il confronto tra teoria e ritrovato empirico
non può avvenire in positivo, attraverso la prova che la teoria è confermata dai dati, ma si
realizza soltanto in negativo, con la constatazione che i dati non contraddicono l’ipotesi e che
quindi sono con essa compatibili. Si spiega inoltre che il motivo per cui la verifica positiva non
avviene è perché gli stessi dati potrebbero in realtà risultare compatibili con altre ipotesi
teoriche.
È questa un’impostazione dalla quale deriva un senso di provvisorietà di ogni ipotesi teorica,
che non sarà quindi mai definitivamente valida, per la quale l’uomo non potrà mai conoscere,
ma solo congetturare.
Inoltre, una delle acquisizioni più recenti del post-positivismo è quella per cui l’osservazione
empirica dipende dalla teoria, nel senso che anche la semplice registrazione della realtà
dipende dalla finestra mentale del ricercatore, da condizionamenti sociali e culturali. Fermo
restando cioè che la realtà esiste a prescindere dall’attività conoscitiva e dalla capacità
percettiva dell’uomo, l’atto del conoscere resta condizionato dalle circostanze sociali e dal
quadro teorico in cui si colloca.
Tuttavia, c’è da sottolineare come anche in questi approcci più recenti, quali possono essere il
neopositivismo e il post-positivismo, non si verifica una totale fuoriuscita dallo spirito
empirista, restando sempre centrale il metodo scientifico nella ricerca sociale e l’analogia che
esiste tra il metodo delle scienze sociali e quello delle scienze naturali. Quando il positivismo
moderno afferma che leggi, sia naturali che sociali, sono probabili ed aperte a revisioni, non
ripudia il fondamento empirista, ma “semplicemente” modifica i presupposti iniziali e gli
obiettivi della ricerca sociale.
1.5. Interpretativismo.
In linea generale, sotto il termine interpretativismo si indicano tutte quelle visioni teoriche per
le quali la realtà non può essere semplicemente osservata, ma va interpretata. La prima
formulazione critica nei confronti del precedente scientismo comtiano nel nome
dell’autonomia delle scienze umane viene fatta risalire al filosofo tedesco Dilthey.
Il filosofo accomuna nella sua polemica sia l’idealismo hegeliano che il positivismo comtiano,
che avrebbero in comune la medesima fede nella storia come necessario progresso attraverso
fasi altrettanto necessarie. All’interno de L’introduzione alle scienze dello spirito, opera
un’importante distinzione tra scienze della natura, il cui oggetto è costituito da una realtà
esterna all’uomo che resta tale anche durante il processo conoscitivo (che assume le forme
della spiegazione) e scienze dello spirito, per le quali non vi è distanza tra osservatore e realtà
studiata e dunque la conoscenza può avvenire solo attraverso un processo diverso, che è
quello della comprensione.
Secondo Dilthey esiste una opposizione tra mondo esterno, dunque il mondo dei fatti, che ci
giunge tramite le sensazioni e il mondo interno, che ci viene rivelato attraverso il senso interno
delle attività psichiche. È dunque attraverso il processo dell’intendere che la vita viene al di
sopra di sé spiegata nella sua profondità, e d’altra parte intendiamo noi stessi e gli altri solo in
quanto compiamo una trasposizione della nostra vita vissuta in ogni specie di espressione della
propria e dell’altrui vita.
Questo concetto dell’intendere, che è stato successivamente declinato dalle scienze dello
spirito ed etichettato con vari nomi, ma in generale con Versthen, viene usato da Dilthey
soprattutto per sottolineare l’esigenza che lo storico si accosti alla sua materia con una sorta di
identificazione psicologica tale da poter rivivere il passato in un’esperienza interiore, l’unica in
grado di condurlo alla conoscenza.
Il merito di aver fatto entrare questa nuova prospettiva a pieno nel campo della sociologia va
dato a Max Weber, che difatti trasporta il concetto di Verstehen all’interno della sociologia,
modificando l’impostazione originaria di Dilthey. La preoccupazione di Weber è quella di non
cadere nell’individualismo soggettivista e nello psicologismo, con l’obiettivo di salvare
l’oggettività della scienza sociale sia nei termini della sua avalutatività, cioè l’indipendenza da
giudizi di valore con la quale “si avanza la pretesa che il ricercatore e l’espositore debba
incondizionatamente tener distinte la costatazione di fatti empirici e la sua presa di posizione
pratica che valuta questi fatti come apprezzabili o non apprezzabili, e in che questo senso
risulta valutativa”; sia in quelli della possibilità di arrivare ad enunciati aventi un qualche
carattere di generalità.
Per quanto riguarda la generalità, Weber afferma come le scienze sociali si distinguano dalle
naturali non per l’oggetto (come proposto da Dilthey), ma per il loro orientamento verso
l’individualità. Questo orientamento è soprattutto id metodo, del comprendere. Tuttavia, nel
definire cosa egli intenda con il termine Verstehen, Weber respinge qualsiasi tentazione
psicologistica, soffermandosi sull’interpretazione, e cioè sull’intendere lo scopo dell’azione,
capire le dimensioni di proposito e di intenzionalità dell’agire umano, e in questo modo,
attraverso la comprensione del significato soggettivo attribuito dall’individuo al suo
comportamento, fa si che ci si renda conto di come ogni comportamento (anche il più
apparentemente illogico) in realtà abbia una sua intima razionalità).
A ciò risponde la concezione weberiana dei tipi ideali, considerati da Weber come forme di
agire sociale che possono essere riscontrate in modo ricorrente nel comportamento degli
individui umani; uniformità tipiche di comportamento costituite attraverso un processo
astrattivo che, isolando alcuni elementi entro la molteplicità del dato empirico, procede a
coordinarli entro un quadro coerente e privo di contraddizione. Il tipo ideale può essere quindi
definito come astrazione che nasce dalla rilevazione empirica di uniformità, ottenuto
attraverso l’accentuazione unilaterale di uno o di alcuni punti di vista, e attraverso la
connessione di una quantità di fenomeni particolari diffusi e discreti, esistenti qui in maggiore
e là in minore misura, in un quadro concettuale in se unitario.
Il tipo ideale weberiano investe tutti i campi del sociale, e difatti Weber ne ha dato degli
esempi con riferimento alle strutture sociali, con il capitalismo o alle istituzioni, con la
burocrazia, chiesa, setta e forme di potere. Sono ideali nel senso che sono costruzioni mentali
dell’uomo, e svolgono una funzione euristica nel senso che ne indirizzano la conoscenza.
Se il tipo ideale è una costruzione razionale chiara, coerente, priva di ambiguità, la realtà è
complessa e contraddittoria.
Le uniformità cercate dal ricercatore nella sua interpretazione della realtà sociale non sono più
le leggi (nel senso attribuito dalla sociologia positiva), ma connessioni causali, anche detti
enunciati di possibilità, motivo per cui non è raggiungibile l’obiettivo di arrivare a stabilire i
fattori determinanti di un certo evento sociale o comportamento individuale, ma è
raggiungibile quello di tracciarne le condizioni che lo rendono possibile.
Si comprende così la differenza con l’approccio positivo, dove venivano esclusi proprio le
componenti individuali, motivazionali, intenzionali, i valori e il libero arbitrio, in quanto
considerati “colpevoli” di disturbare la ricerca scientifica, e che al contrario diventano l’oggetto
primario della ricerca in questa nuova corrente. Su questa diversità di oggetto di studio si
fonda anche, dal punto di vista interpretativo, la sua presunta superiorità rispetto al metodo
positivista: difatti, il convinto sostenitore della corrente interpretativa andrà in particolare ad
affermare la superiorità delle scienze storico-sociali dalle naturali, in quanto solo il metodo del
Verstehen permetterebbe quell’intelligibilità dall’interno che è alla base della conoscenza
dell’agire e del mondo sociale.
Per quanto riguarda il paradigma positivista, si è notato come, specie nel periodo del
neopositivismo, venisse prestata grande attenzione alla formulazione e allo sviluppo di
tecniche empiristiche, lasciando in secondo piano sia la problematica sui presupposti filosofici
di questa impostazione, che la dimensione dell’elaborazione teorica. La radicalizzazione di
questa tendenza a portato ad un empirismo antispeculativo, dominato dal mito del metodo e
da quello del dato, in cui lo scopo dello scienziato sociale non è più quello di formulare e poi
validare empiricamente le teorie, ma quello di raccogliere dati e descrivere (nell’illusione che i
dati parlino da sé).
Comunque, la critica maggiore che viene avanzata all’approccio positivista è data dal fatto che
essa si basa sull’assunto per cui le categorie osservative siano indipendenti da quelle teoriche,
anche se in realtà oggi c’è un consenso abbastanza ampio all’interno della filosofia della
scienza sul fatto che tutte le forme di conoscenza siano storicamente e socialmente
determinate, nonché dipendenti dalle teorie utilizzate.
L’ultimo periodo di sfida nella storia della ricerca sociale è stato rappresentato dall’ultimo
quarto del XX secolo, che faceva seguito a un decennio tumultuoso nella storia delle società
occidentale, quello degl anni Sessanta, caratterizzato dai movimenti per i diritti civili, dalle
proteste studentesche, dalle lotte contro povertà, razzismo e diseguaglianze. In questo quadro,
la teoria sociologia e la ricerca sociale assunsero un ruolo fondamentale soprattutto
nell’applicarsi alle riflessioni su queste trasformazioni e movimenti.
Negli stessi anni, cominciò a svilupparsi anche la micro-sociologia, che faceva capo a diverse
scuole di pensiero e visioni teoriche, accomunate dal fatto di porre al centro dell’interesse e
della ricerca i piccoli fatti della vita quotidiana, le micro-interazioni e le dinamiche
interpersonali.
Questa linea di abbandono delle grandi prospettive teoriche portò tuttavia anche la nascita di
una critica generalizzata verso ogni tipo di spiegazione teorica e la messa in discussione della
sociologia come scienza, tendenza poi unita nel postmodernismo. Questa corrente prevedeva
proprio un andare oltre e contro le acquisizioni del modernismo, con una critica che prevedeva
quattro punti principali:
Nella ricerca sociologica il dibattito tra ricerca quantitativa e ricerca qualitativa ha avuto
vicende alterne lungo tutto il corso del secolo scorso, passando innanzitutto con il confronto
vivace degli anni Venti e Trenta, per poi passare in una fase di latenza che ha visto negli anni
Quaranta, Cinquanta e nella prima metà degli anni Sessanta, il dominio della prospettiva
quantitativa, tutti anni durante i quali la ricerca qualitativa venne considerata come una specie
di figlia illegittima della scienza sociale.
Negli anni Sessanta il problema è tornato alla ribalta a partire da una serie di importanti
contributi teorici, tra cui quelli di Goffman, ma soprattutto a partire dalla seconda metà degli
anni Ottanta che l’approccio qualitativo ha affermato la sua presenza sia sul piano
metodologico che su quello della ricerca empirica.
Per comprendere cosa hanno generato sul terreno della metodologia i paradigmi fondativi
della ricerca sociale, vengono prese in considerazione due ricerche fondamentali sulla tematica
della delinquenza giovanile, una condotta sotto l’ispirazione del paradigma neopositivista,
l’altra sotto l’ispirazione del paradigma interpretativo.
La prima ricerca è rappresentata dal volume di Sampson e Laub, Crime in the making:
Pathways and Turning Points Through Life, alla cui base sta il ritrovamento, nelle cantine della
biblioteca dell’Università di Harward, di 60 scatoloni contenenti il materiale utilizzato solo
parzialmente dai coniugi Sheldon e Glueck all’interno delle loro pubblicazioni. Sampson e Laub
decidono così di rianalizzare i dati, attraverso un’analisi secondaria, per rispondere ai nuovi
interrogativi che nel frattempo stavano apparendo agli occhi degli studiosi della devianza
minorile.
2.1. Ipotesi.
Sampson e Laub lamentano il fatto che, dal momento in cui i reati sono commessi da
adolescenti in maniera più che proporzionali alla loro presenza nella popolazione, gli studi di
sociologia criminale si sono per lo più concentrati su quest’età, trascurando l’infanzia, in cui
secondo alcuni dovrebbero essere ricercati i primi tratti del comportamento antisociale, e
trascurando allo stesso tempo l’età adulta, in cui passaggi cruciali come l’inizio della carriera
lavorativa e il matrimonio possono indurre cambiamenti radicali nell’atteggiamento social
dell’individuo. Ciò implica la necessità di superare l’impostazione sincronica propria di studi
svolti su un gruppo di individui fotografati in un certo momento, per passare a studi diacronici,
attraverso i quali seguire un determinato periodo di tempo un gruppo di individui, rilevando su
di essi certe informazioni e dati in diversi momenti della loro vita.
A partire da questo punto, gli autori discutono le tesi di coloro che hanno affrontato il
comportamento criminale in una prospettiva di ciclo di vita, ed abbozzano i tratti principali di
una possibile teoria articolata per età del controllo scoiale informale, dove si analizzano per
ogni età sia le variabili di fondo considerate cause del comportamento deviante, come la
povertà, che i meccanismi informali di controllo sociale operanti in quel momento del ciclo di
vita, in una visione globale che tenti di integrare la criminologi in una prospettiva di corso di
vita.
2.2. Disegno della ricerca.
I due autori svolgono come già detto un’analisi secondaria dei dati raccolti da Sheldon e Gleuck
che, avevano raccolto informazioni su 500 “autori di reato” giovani, machi, bianchi che,
all’inizio dell’indagine nel 1939 avevano fra i 10 e i 17 anni e su 500 ragazzi non autori di reato.
I primi furono individuati in due case di correzione del Massachusetts, mentre i secondi furono
scelti nelle public schools della stessa area, sulla base di un piano di corrispondenza ben
accurato: per ognuno dei 500 autori di reato venne individuato un ragazzo non autore di reato
con le stesse caratteristiche di età, origine etnica, quartiere e quoziente di intelligenza. La
ricerca iniziò nel 1939 e fino al 1948 i ragazzi vennero seguiti con interviste a loro stessi, alle
famiglie e agli insegnanti, e vennero raccolte più informazioni possibili. Ci furono poi due studi
seguenti sugli stessi soggetti quando avevano l’età di 25 e 32 anni, nel corso dei quali i
ricercatori riuscirono a raggiungere 438 e 442 dei rispettivi originali 500 autori e non autori di
reato. I due studiosi fanno notare che questa ricerca non soffre di mancanza di serie infrazioni
della legge nell’età adulta, che avrebbero abbassato il numero di casi significativi di carriere
criminali. Nell’arco della vita fra i 17 e i 32 anni, dei 500 autori di reato iniziali 90 furono
arrestati per rapina, 225 per furto con scasso, e più di 250 per furto. Venne notato inoltre che
tra i 500 non autori nessuno rappresentava un gruppo atipico di ragazzi osservanti della legge,
al punto che 100 di essi iniziarono a commettere dei reati da adulti, cosa che rappresenta un
dato di notevole interesse per lo studio dell’insorgenza del comportamento deviante in età
matura.
La parte espositiva dei risultati della ricerca di Sampson e Laub copre cinque capitoli del libro,
sugli argomenti: contesto familiare e delinquenza giovanile; ruolo della scuola; ruolo del
gruppo dei pari e di fratelli/sorelle; continuità nel tempo del comportamento; legami sociali
adulti e cambiamento nel comportamento criminale; modelli comparativi di crimine e
devianza. I capitoli qui si sviluppano nella stessa maniera, passando dal quadro teorico->
rilevazioni empiriche-> risultati dell’analisi-> ritorno alla teoria.
In tutti i capitoli gli autori distinguono variabili di base, come la povertà o la disgregazione
familiare, dalle variabili di processo, che fanno riferimento ai legami informali, come possono
essere quelli con la famiglia o con il lavoro. Su questa base i due autori ipotizzano un modello
teorico, impostato su due stadi: d le variabili strutturali di base influirebbero sul
comportamento deviante in maniera indiretta, ma in maniera mediata dalle variabili
intervenienti rappresentate dal legame controllo familiare.
I due autori passano poi alle variabili, individuandone nove di base: affollamento abitativo, che
può essere confortevole, medio o sovraffollato; disgregazione familiare, con valore 1 quando il
ragazzo è cresciuto in una famiglia dove uno o entrambi i genitori erano assenti per divorzio,
separazione, abbandono o decesso; dimensione della famiglia, data dal numero di bambini;
status socio economico a tre categorie: confortevole, marginale o dipendente; nascita
all’estero, con valore 1 se uno o entrambi i genitori sono nati all’estero; mobilità residenziale,
definita dal numero di volte che la famiglia del ragazzo ha cambiato abitazione durante la sua
infanzia; lavoro della madre; devianza del padre o della madre, riferite al fatto che padre o
madre fossero mai stati arrestati oppure fossero alcolisti.
Sono cinque poi le variabili processuali familiari: le prime due sono relative allo stile
glidisciplinare paterno e materno, e vengono definite dagli autori nei termini di “disciplina
paterna o materna erratica, severa e minacciosa” con un punteggio da 1 a 4, tendendo conto
di punizioni fisiche, paura del bambino nei confronti del padre o della madre, e dell’instabilità
del regime disciplinare. La terza variabile è la “mancanza di supervisione materna”, a tre
categorie e il livello più basso si riferisce ai soggetti che durante l’infanzia furono
sistematicamente lasciati soli dalle madri o da queste affidati a persone irresponsabili. Si ha poi
il “rifiuto da parte dei genitori” a tre categorie, che fa riferimento a palese ostilità dei genitori
verso il ragazzo, e infine “attaccamento ai genitori” a tre livelli, che intende rilevare il legame
emotivo del ragazzo verso i genitori.
Per quanto riguarda i risultati, gli autori utilizzano lo strumento statistico della regressione
multipla. Mettono in relazioni i tre blocchi di variabili (strutturali di base, processuali familiari,
e comportamento deviante) a due a due e riscontrano sempre forti correlazioni tra: variabili di
base e processuali; di base e devianza; processuali e di devianza. Il fatto interessante sta
soprattutto nel momento in cui si analizza il modello completo e l’effetto delle variabili
strutturali di base sparisce.
Ciò significa che le variabili strutturali non hanno effetto diretto sul comportamento deviante,
ma la loro azione è mediata dalle variabili processuali. Ad esempio, una situazione di
disgregazione familiare favorisce episodi di abbandono da parte dei genitori, e ciò facilità
l’insorgere di comportamenti devianti. Ma a parità di controllo e cura da parte dei genitori nei
confronti dei figli, cessa l’influenza della disgregazione familiare sul destino deviante dei figli.
Difatti tutte le variabili processuali sono altamente correlate con il comportamento deviante,
mentre fra le variabili strutturali solo la dimensione della famiglia lo influenza direttamente in
maniera statisticamente significativa.
A conclusione della fase empirica si ha il ritorno alla teoria; gli autori ricavano dai loro dati la
conclusione che i processi familiari di controllo informale hanno un importante effetto
inibitorio sulla delinquenza degli adolescenti
Nei capitoli successivi gli autori applicano uno schema di analisi simile relativamente al ruolo
della scuola, del gruppo dei pari, dei fratelli, del lavoro e del matrimonio, arrivano al modello
teorico dinamico di crimine, devianza e controllo sociale informale lungo il ciclo di vita, nel
quale dividono il corso dei primi 45 anni di età in 5 fasi, e per ogni fase mettono in evidenza il
ruolo dei fattori che favoriscono l’insorgere o il permanere del comportamento deviante e di
quelli che tendono ad inibirlo.
Questo modello permette così loro di rispondere agli interrogativi posti in apertura, e in
particolare, nel distinguere l’importanza delle variabili di struttura e di processo, mettono in
luce come le seconde siano quelle che in ultima analisi spiegano la maggior parte della varianza
sia nella devianza adolescenziale, sia nel processo di uscita ine età più adulta dalla devianza
criminale.
All’interno di Island in the street, Jankowski affronta il tema delle gang, affermando come nelle
scienze sociali queste non siano mai state comprese completamente, a partire dalla mancata
comprensione degli individui al loro interno, e dalla mancata comprensione dell’organizzazione
in se.
La sua partecipazione era rigidamente pianificata: dopo l’accettazione da parte di una nuova
gang, passava un mese intero con essa, dopo da cinque a dieci giorni, mentre negli ultimi tre
anni della ricerca trascorse ancora da tre a sei giorni con ognuna di esse.
2.2. Ipotesi.
Nel capitolo iniziale l’autore non passa in rassegna la letteratura confrontando tesi o
avanzando ipotesi, ma attinge subito ampiamente alla ricerca effettuata, ed espone le
conclusioni alle quali la sua esperienza lo ha portato, evitando un forte condizionamento
teorico iniziale.
L’originalità dell’approccio sta nel fatto che l’autore non vede la gang come una deviazione
patologica delle norme sociali, ma interpreta l’adesione ad essa come una scelta razionale, dal
momento in cui la gang “offrirebbe quell’ordine sociale e quella sicurezza di cui i giovani
deprivati degli slums sentono il bisogno”.
Tutte queste tematiche vengono affrontate nei capitoli successivi dove l’autore intrepreta i
dati raccolti con l’ausilio delle categorie introdotte nel capitolo teorico. Nel primo capitolo
l’autore spiega di rispondere all’interrogativo del “chi entra in una gang e perché?”.
L’autore respinge le quattro risposte che la letteratura specializzata ha dato alla domanda, ad
esempio perché si proviene da una famiglia disgregate; perché si cerca un sostituto della
famiglia; perché espulsi dal sistema scolastico e troppo impreparati per trovare un lavoro; per
imitazione, per seguire cioè l’esempio di ragazzi più grandi che li persuadono facilmente.
Incentivi materiali: si entra nella gang per ricavare dei soldi in maniera più regolare
che intraprendendo attività illegali da soli, ma anche per incontrare meno rischi
rispetto ai quali si è esposti individualmente o per avere aspettative future opportunità
economiche;
Divertimento: la gang è difatti anche un luogo di svago e passatempo, spesso ha tra
l’altro una sorta di club con bar, videogiochi, slot, e spesso vengono organizzate feste;
Rifugio e nascondiglio: la gang offre anonimato a chi ne ha bisogno a causa dei suoi
traffici in un contesto fortemente competitivo;
Protezione fisica: viene offerta protezione fisica nell’ambiente altamente conflittuale
dei sobborghi metropolitani;
Luogo di resistenza: molti entrano nella speranza di sfuggire alla sorte di avere una
vita senza nessuna aspettativa come quella dei loro genitori;
Impegno comunitario: alcuni vedono nella gang una forma partecipativa che esprime il
loro attaccamento alla comunità, soprattutto nei quartieri in cui le gang sono esistite
per generazioni.
Il capitolo prosegue poi, con lo stesso stile di analisi e di illustrazione del materiale empirico,
sul problema dell’inserimento dei nuovi membri nella gang, ma questa volta dal punto di vista
dell’organizzazione, visto come problema del reclutamento.
L’elemento principale che differenzia i due tipi di ricerca esposti precedentemente si rintraccia
nella strutturazione delle varie fasi che dalla domanda principale portano al volume finale.
Per quanto riguarda la ricerca di Sampson e Laub colpisce qui la geometricità: si ha cioè
l’esposizione della teoria, la sua formulazione nella forma di un modello verificabile
empiricamente, il disegno della ricerca, l’analisi dei dati, il ritorno alla teoria. Ci si trova cioè
davanti non solo un ordine espositivo e che si presenta nella presentazione degli argomenti,
ma un qualcosa che ha guidato effettivamente il modo di procedere dei due studiosi e che
nasce dalla visione della ricerca come un processo razionale e lineare.
Per ciò che invece concerne Jankwoski, la situazione è diversa: nel suo libro manca una parte
introduttiva che vada a discutere le acquisizioni della letteratura e/o che proponga
l’elaborazione di una teoria e di ipotesi empiricamente controllabili. Si comprende come qui la
strategia operativa sia diversa da quella di Sampson e Laub: difatti qui l’autore non è partito
con delle chiare ipotesi, ma sono queste qualcosa che incontra lungo il percorso, motivo per
cui si parala di “teoria che emerge dai dati”.
Nei due approcci è difatti diverso il rapporto tra teoria e ricerca: nel caso della ricerca
quantitativa ispirata dal paradigma neopositivista, si ha un rapporto strutturato secondo fasi
logicamente sequenziali, secondo un’impostazione deduttiva, che si appoggia sulla teoria
formulata precedentemente, tramite dati empirici. Assume qui una grandissima importanza
l’analisi sistematica della letteratura, che fornisce le ipotesi teoriche da cui partire.
Nel caso della ricerca qualitativa derivante dal paradigma interpretativo si ha invece una
relazione aperta tra teoria e ricerca, in cui il ricercatore spesso respinge volontariamente la
formulazione di teorie prima di cominciare il lavoro sul campo, considerando questa
formulazione come un condizionamento che potrebbe inibirgli la capacità di “comprendere” il
punto di vista del soggetto che si va a studiare, da cui una minor importanza dedicata alla
letteratura.
Da questa impostazione deriva anche un uso diverso dei concetti, quegli elementi costitutivi
della teoria e che permettono allo stesso tempo alla stessa teoria di essere sottoposta a
controllo empirico attraverso l’operativizzazione (ossia la loro trasformazione in variabili
empiricamente osservabili).
Questo non sarebbe mai avvenuto nella ricerca qualitativa, dove il ricercatore avrebbe
utilizzato il concetto di “disgregazione familiare” come sensitizing concept, ossia come
concetto orientativo che, nelle parole di Blaumer, “fornisce una guida di avvicinamento alla
realtà empirica, suggerendo le direzioni in cui guardare, in una relazione di autocorrezione con
il mondo empirico tale che le proposte attorno a questo mondo possano essere controllate,
rifinite e arricchite dai dati empirici, in un processo che muove dal concetto verso le concrete
distintività della realtà, invece di cercare di ingabbiare la realtà in una definizione astratta del
concetto stesso”.
Un ulteriore punto di distacco sta nel rapporto con l’ambiente studiato, con un’attenzione
particolare alla reattività dell’oggetto di studio, per cui ovviamente se le persone sanno di
essere osservate, è molto probabile che non si comportino in maniera naturale.
Ciò è qualcosa che non sembra preoccupare il ricercatore quantitativo, che non ritiene cioè la
reattività come un problema di base nelle sue indagini.
Al contrario ciò è un problema di fondamentale importanza per la ricerca qualitativa, che pone
di fatti il requisito dell’approccio naturalistico alla base del suo modo di fare ricerca,
intendendo con il termine un intervento sulla realtà in cui ci si astiene da qualsiasi
manipolazione, stimolazione, interferenza o disturbo nei confronti della realtà stessa, che
viene studiata nel corso del suo naturale svolgersi.
Partendo dalla differenza base tra i due paradigmi, che sta nella definizione dell’obiettivo della
ricerca, visto come “validazione empirica delle ipotesi” da un lato e come “scoperta del punto
di vista dell’attore” dall’altro, derivano due fatti.
Da quanto detto appare evidente una forte diversità anche in merito al ruolo del soggetto
studiato.
3.2. Rilevazione.
Una delle principali differenze tra i due approcci ha a che fare con il disegno della ricerca, cioè
con tutte quelle scelte di carattere operativo durante le quali si decide come, dove e quando si
raccolgono i dati.
La distanza tra i due approcci ancora una volta si rintraccia nei diversi gradi di strutturazione
delle procedure: nel caso quantitativo si ha un disegno della ricerca costruito a tavolino prima
dell’inizio della rilevazione (nel caso di Sampson e Laub, una volta stabili i 1000 soggetti essi
erano i definitivi soggetti di studio), e che è fortemente chiuso e strutturato, mentre nel caso
qualitativo il disegno della ricerca è strutturato, aperto e idoneo all’imprevisto (nel caso di
Jankowski si definiscono invece dei criteri di fondo da osservare per i quali poi si era liberi di
scegliere le gang più adatte ai propri scopi).
Da questa impostazione di chiusura o apertura, discendono altre due caratteristiche.
Un ultimo punto sotto questo titolo della rilevazione è quello che fa riferimento alla natura dei
dati: nella ricerca quantitativa sono (o ci si attende che lo siano) affidabili, rigorosi, univoci,
dunque standardizzati, nel senso che i dati raccolti sui diversi soggetti siano tra loro
confrontati, ed oggettivi, nel senso che i dati non devono essere sottoposti alla soggettività
interpretativa del ricercatore o alla soggettività espositiva del soggetto studiato; dall’altro lato,
nel caso della ricerca qualitativa non ci si pone il problema dell’oggettività e standardizzazione,
ma ci si concentra invece sulla ricchezza e profondità dei dati, in un’accezione soft.
L’analisi dei dati è probabilmente la fase della ricerca sociale in cui risulta più visibile la
diversità tra l’approccio quantitativo e qualitativo, in cui una prima distanza si nota nel forte
impatto di strumentazione tecnologia di analisi dei dati del metodo quantitativo, a contrasto
con la sobria analisi qualitativa.
Nella ricerca quantitativa l’analisi dei dati avviene sempre per variabili, in maniera impersonali,
con l’obiettivo di analisi che sarà quello di spiegare la varianza delle variabili dipendenti,
trovando le cause che provocano il variare delle variabili dipendenti fra i soggetti, per esempio
cioè i fattori che spiegano perché alcuni bambini sono aggressivi e altri no. Cioè se la differenza
tra bambini aggressivi e non aggressivi sta nel fatto che tutti i bambini aggressivi provengono
da famiglie con padre violento si spiega così statisticamente la causa della variabile aggressiva,
che viene individuata così nel comportamento del padre. È ciò quanto accade nel modo di
procedere delle scienze naturali.
Questo modo di procedere viene però criticato dall’approccio interpretativo, che accusa difatti
il metodo quantitativo di assunzione impropria del modello scientifico delle scienze naturali,
difendendo la necessità di una prospettiva globale, olistica nei confronti del comportamento
umano. Si sottolinea cioè come l’individuo sia qualcosa in più della somma delle sue parti, in
una complessa interdipendenza che non può essere ridotta alla relazione tra alcune variabili, e
che la comparazione dei soggetti attraverso le variabili comporti un loro snaturamento.
L’obiettivo dell’analisi è così qui dato dall’individuo nella sua interezza, usando un approccio
case-base e distanziandosi così dal precedente approccio variable-based. Questo fa capire
come Jankowski, nel corso della sua analisi, quando si interroga sulle cause della violenza nel
comportamento degli individui appartenenti alle gang, non cerca di rilevare la variabile
dipendente violenza e di cogliere le correlazioni tra variabili, ma conduce la sua analisi per
soggetti, classificandoli nella loro globalità secondo tipi.
3.4. Risultati.
Essendo diverse le impostazioni, rilevazioni ed analisi dei dati, è ovvio che ci sia anche una
profondità diversa nel tipo di risultati raggiunti dai due modi di fare ricerca.
Per quanto riguarda la presentazione dei dati nelle due ricerche quantitative e qualitative,
incontriamo qui le forme classiche di tabella e narrazione. Sono questi due modi tipici di
presentare i risultati nella ricerca quantitativa e qualitativa, tuttavia non unilaterali, cioè
utilizzabili esclusivamente per l’uno o l’altro tipo di ricerca.
L’itinerario che conduce a queste sintesi è chiaro nella ricerca quantitativa, dove è costituito
dal processo che porta, attraverso lo studio delle relazioni fra variabili, all’enunciazione di
rapporti casuali fra le variabili. Dopo aver infatti frammentato l’individuo in variabili, l’analisi
quantitativa ricompone una prima sintesi nella correlazione fra le variabili, ed arriva ad
un’unità concettuale nel modello causale e, nei casi più fortunati, alla formulazione di
espressioni sintetiche che hanno caratteristiche simili a quelle delle leggi delle scienze naturali.
È invece più difficile, all’interno della ricerca qualitativa, trovare dei percorsi di sintesi delle
informazioni generali e condivisi dai ricercatori. Molti autori di questo approccio tuttavia
indicando nell’individuazione dei tipi la via per raggiungere questi obiettivi di sintesi, cosa che
era già stata suggerita all’approccio interpretativo dall’ispirazione weberiana con la
formulazione del concetto di tipo ideale (ricordiamo essere una categoria concettuale che non
ha un effettivo corrispettivo nella realtà): vedere studio.
Un’ulteriore differenza tra i due approcci sta in merito ai meccanismi della spiegazione e
dell’interpretazione.
Lo scopo finale della ricerca quantitativa sta nell’individuazione del meccanismo causale, come
si nota nella ricerca di Sampson e Laub, dove le variabili sono fondamentalmente raggruppabili
in tre tipi di cause, effetti e condizioni, con l’interrogativo del ricercatore che si muove sempre
nell’ottica di capire cosa causa cosa” e a quali condizioni.
Al contrario nelle ricerche qualitative, non vi è traccia di interrogativo sui meccanismi causali
che hanno portato alle differenze di atteggiamenti, comportamenti e stili di vita fra i soggetti,
cercando cioè di interrogarsi sui come, piuttosto che sui perché.
Ultima questione è quella relativa alla portata dei risultati. Date le sue esigenze di
approfondimento e di immedesimazione nell’oggetto studiato, la ricerca qualitativa non può
operare su un numero rilevante di casi, e in materia l’esempio di Jankowski (che ha partecipato
alla vita di 37 gang) è un evento unico, essendo molto più frequente lo studio di caso, ossia la
ricerca condotta su una sola specifica situazione.
C’è da dire che il numero dei casi è collegato proprio alla generalizzabilità dei risultati: più cioè
la ricerca sarà ampia, più il suo campione sarà rappresentativo della variegata situazione reale.
Resta così indubbia una maggiore generalizzabilità dei risultati della ricerca quantitativa
rispetto quelli della ricerca qualitativa.
Riguardo la scelta da effettuare tra l’uso della ricerca quantitativa o qualitativa, e cioè
l’affermare se uno dei due approcci sia dal punto di vista scientifico superiore dell’altro, si
rintracciano tre posizioni:
1. Si rintracciano qui tutti coloro che sostengono che approccio qualitativo e quantitativo,
corrente neopositivista e interpretativa sono incompatibili in quanto caratterizzati da
posizioni filosofiche di fondo opposte. Ciascuno qui sostiene la propria posizione,
affermando che l’altra sia sbagliata.
2. Questa posizione è diffusa all’interno della componente quantitativa degli scienziati
sociali, e corrisponde alla posizione di chi, avendo fatto una scelta per il paradigma
neopositivista, non nega che possa esserci un valido contributo anche da parte delle
tecniche qualitative, che vengono comunque collocate in un contesto esplorativo
prescientifico, restando utili per fornire espressioni e idee iniziali che solo in seguito
possono condurre ad una formulazione accurata del problema e a ipotesi esplicite.
3. Si sostiene qui la piena e pari legittimità, utilità e dignità dei metodi, e auspica lo
sviluppo di una ricerca sociale che sappia scegliere l’uno o l’altro approccio a seconda
delle circostanze ed opportunità. È una posizione che è venuta affermandosi
soprattutto negli scorsi anni, e che vede tra i suoi nomi principali quelli di Micheal
Patton e Charles Ragin che affermava come ci fosse “unità nella diversità dei due
approcci”.
Secondo l’autore del manuale bisognerebbe considerare come i due modi di fare ricerca non
differiscano per mere questioni procedurali, ma come essi siano l’espressione diretta e
logicamente consequenziale di due diverse visioni epistemologiche, e dunque il riflettersi di
due diversi paradigmi che implicano metodi diversi di intendere la realtà sociale; non bisogna
cioè considerare come all’assunzione della diversità fra i due approcci derivi il fatto che uno sia
sbagliato e l’altro corretto.
Non si possono cioè considerare le diverse tecniche, e le relative conoscenze (diverse) come un
limite, ma anzi come un arricchimento, in quanto è necessario un approccio multiplo e
differenziato alla realtà sociale per poter poterla comprendere a pieno, consapevoli del fatto
che si possa scegliere una prospettiva, ma che comunque ne continuino ad esistere altre.