Sei sulla pagina 1di 69

lOMoARcPSD|8096210

Riassunto Metodologia e tecniche della ricerca sociale ok -


Corbetta
Sociologia generale (Università degli Studi della Tuscia)

StuDocu non è sponsorizzato o supportato da nessuna università o ateneo.


Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)
lOMoARcPSD|8096210

RIASSUNTO:
“Metodologia e tecniche della ricerca sociale”
Piergiorgio Corbetta

INTRODUZIONE – pp. 9-11


Per metodologia si intende lo studio o, meglio ancora, la logica del metodo, cioè è quella
parte della logica che ha per oggetto le regole, i principi metodici, le condizioni formali che sono
alla base della ricerca scientifica in un determinato ambito disciplinare e che permettono di
ordinare, di sistemare e di accrescere le proprie conoscenze.
Per metodologia della ricerca si intende, dunque, un discorso sul metodo, una critica
della ricerca scientifica, che non è né la descrizione o la presentazione dei metodi stessi, né la
riflessione critica generale intorno alla conoscenza scientifica, che è l’oggetto di studio
dell’epistemologia e della filosofia della scienza.
Per tecniche si intendono le specifiche procedure operative, riconosciute dalla comunità
scientifica e trasmissibili per insegnamento, di cui una disciplina scientifica si avvale per
l’acquisizione e il controllo dei propri risultati empirici. La parola tecnica si usa al plurale, contro il
singolare di metodologia, poiché le tecniche da applicare sono molte, ma la riflessione su di esse è
una sola.
La ricerca qualitativa, rispetto a quella quantitativa, è di tipo soggettivo, non possiede un
insieme codificato di tecniche, come la ricerca quantitativa, ma il suo modo di procedere deve
essere sempre inventato sul campo, nell’interazione ogni volta nuova tra il soggetto studiante e
l’oggetto studiato.
Per condurre una buona ricerca sociale sono necessarie anche le tecniche di rilevazione e
analisi statistica dei dati.
La rivoluzione digitale ha messo a disposizione del ricercatore nuovi strumenti e aperto
nuove possibilità: nuove tecniche di rilevazione tramite internet (i cosiddetti panel online), analisi
condotta su datatest internazionali (ad esempio, Eurobarometro), ricerca bibliografica condotta
attraverso internet, informatizzazione delle fonti Istat, che hanno quasi completamente abbandonato
il formato cartaceo, e i documenti in Internet.

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

PARTE PRIMA – La logica della ricerca sociale

CAPITOLO 1 – I paradigmi della ricerca sociale pp. 15-38

PARAGRAFO 1 – Kuhn e i paradigmi delle scienze pp. 15-18


La parola paradigma ha un’origine antica nella storia del pensiero filosofico: è stata
utilizzata da Platone, nell’accezione di modello, e da Aristotele nell’accezione di esempio.
Nelle scienze sociali, invece, a questo temine vengono attribuiti numerosi significati:
teoria, articolazione interna di una teoria, sistema di idee di ordine prescientifico, corrente di
pensiero o scuola, etc.
Negli anni ’60 del 900 lo studioso Thomas Kuhn ha riproposto una definizione del termine
paradigma nella sua opera “La struttura delle rivoluzioni scientifiche”.
La riflessione di Kuhn ha come oggetto lo sviluppo storico delle scienze e quindi rifiuta la
concezione tradizionale della scienza, intesa come accumulazione progressiva di nuove
acquisizioni. Secondo la concezione cumulativa, ogni invenzione e ogni scoperta si
aggiungerebbero al corpo conoscitivo precedente. Kuhn, invece, ritiene che, se questo è il processo
della scienza in tempi normali, esistono dei momenti rivoluzionari, in cui si interrompe il rapporto
di continuità con il passato e si inizia un nuovo corso.
Il passaggio da una visione teorica all’altra è globale e porta conseguenze radicali sulla
disciplina coinvolta e, proprio per questo motivo, Kuhn utilizza il termine rivoluzione.
In una disciplina, a seguito di una rivoluzione, si produce un cambiamento dei problemi da
indagare scientificamente e dei criteri con i quali la professione stabiliva cosa si sarebbe dovuto
considerare come un problema ammissibile o come una soluzione legittima ad esso. In questo modo
si riorganizza la struttura concettuale della disciplina. Per Kuhn il paradigma è proprio tale struttura
concettuale.
Dunque, per Kuhn un paradigma è una prospettiva teorica, condivisa e riconosciuta dagli
scienziati; fondata su acquisizioni precedenti della disciplina stessa; che opera indirizzando la
ricerca in termini di individuazione e scelta dei fatti rilevanti da studiare, e di formulazione delle
ipotesi e di predisposizione dei metodi e delle tecniche di ricerca necessari.
Senza un paradigma una scienza non ha orientamenti né criteri di scelta, perché tutti i criteri,
tutti i problemi e tutte le tecniche diventano ugualmente rilevanti. Il paradigma è una guida e
fornisce agli scienziati un modello e le indicazioni per costruirlo. Con il paradigma lo scienziato
acquisisce contemporaneamente teorie, metodi e criteri.
Il paradigma è qualcosa di più ampio di una teoria, è una visione del mondo, una finestra
mentale, una griglia di lettura che precede l’elaborazione teorica.
Per Kuhn scienza normale indica le fasi di una disciplina durante le quali predomina un
paradigma condiviso dagli scienziati. Affinché il paradigma operante non verrà sostituito in modo
rivoluzionario da un altro, la scienza normale si sviluppa in modo lineare e cumulativo. La scienza
normale, infatti, non ha il compito di scoprire nuovi generi di fenomeni, ma deve articolare i
fenomeni e le teorie già fornite dal paradigma.
Le scienze sociali sono prive di un paradigma condiviso dalla comunità scientifica, ad
accezione dell’economia, in quanto gli economisti sono d’accordo sulla definizione di economia. In
questo senso le scienze sociali si troverebbero in una condizione preparadigmatica.
Nella storia della sociologia è difficile individuare un paradigma predominante, condiviso da
tutti i sociologi. Per tentare di applicare un paradigma alla sociologia, è stata rivista
l’interpretazione di Kuhn ed è stato riformulato il concetto di paradigma. Come dalla definizione
kuhniana, esso è una visione teorica che definisce la rilevanza dei fatti sociali, fornisce le ipotesi
interpretative, orienta le tecniche della ricerca empirica. L’unico carattere originario che non viene
considerato nella nuova definizione è la condivisione da parte della comunità scientifica.
Così facendo si apre la possibilità dell’esistenza di più paradigmi all’interno di una stessa
disciplina; e la sociologia da preparadigmatica diventa disciplina multiparadigmatica.

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Tale interpretazione del concetto di paradigma, nei termini di prospettiva teorica globale,
ma non esclusiva e in competizione con altre prospettive, è l’interpretazione più diffusa e
corrisponde all’uso corrente del termine nelle scienze sociali.

PARAGRAFO 2 – Tre questioni di fondo pp. 18-20


Una delle funzioni del paradigma è quella di definire i metodi e le tecniche di ricerca
accettabili in una disciplina.
Sono due i paradigmi fondativi della ricerca sociale:
1. visione empirista;
2. visione umanista.
Si tratta di due visioni organiche e fortemente contrapposte della realtà sociale e dei modi
per conoscerla, che hanno dato vita a due blocchi coerenti e differenziati di tecniche di ricerca.
Questi paradigmi non sono teorie sociologiche, bensì concezioni generali sulla natura della realtà
sociale, sulla natura dell’uomo e sul modo con il quale questo può conoscere quella.
Tali paradigmi possono essere ricondotti a tre questioni fondamentali:
1. questione ontologica (essenza): l’ontologia è quella parte della filosofia che
studia l’essere in quanto tale; dal greco óntos (essere, ente) e lógos (discorso, riflessione). È
la questione del “che cosa”; riguarda la natura della realtà sociale e la sua forma. Ci si
chiede se i fenomeni sociali siano “cose in se stesse” oppure “rappresentazioni di cose”, cioè
ci si interroga se il mondo dei fatti sociali sia un mondo reale e oggettivo con un’esistenza
autonoma al di fuori della mente umana e indipendentemente dall’interpretazione che ne dà
il soggetto.

2. Questione epistemologica (conoscenza): l’epistemologia è la riflessione


sulla conoscenza scientifica; dal greco espistème (conoscenza certa). È la questione del
rapporto fra il “chi” e il “che cosa” e dell’esito di tale rapporto. Essa riguarda la
conoscibilità della realtà sociale e si sofferma sulla relazione tra studioso e realtà studiata.
Tale questione è legata alla prima, in quanto se il mondo sociale esiste in quanto tale,
indipendentemente dall’agire umano, sarà legittimo volerlo conoscere con distacco, senza
timore di alterarlo nel corso del processo conoscitivo. Sono diverse le forme che la
conoscenza può assumere: da leggi naturali deterministiche, dominate dalle categorie di
causa-effetto, a leggi probabilistiche, a generalizzazioni di varia forma, a nessuna forma di
generalizzazione.

3. Questione metodologica (metodo): dal greco méthodos (strada con cui,


metodo); metodo inteso come corpo organico di tecniche. È la questione del “come”, cioè
del come la realtà sociale può essere conosciuta. Riguarda quindi la strumentazione tecnica
del processo conoscitivo. Anche tale prospettiva è legata alle due precedenti.

Le tre questioni sono intrecciate tra di loro, sia perché le risposte date ad ognuna sono
influenzate dalle altre date alle altre due, sia perché è difficile distinguere i confini delle tre
questioni.

PARAGRAFO 3 – Positivismo pp. 20-24


La sociologia nasce sotto gli auspici del pensiero positivista. A metà ‘800 gli uomini
cominciarono ad interrogarsi sulla realtà sociale in quanto tale e a trasformarla in oggetto di studio.
Allora il positivismo non poté fare altro che assumere a suo modello il paradigma delle scienze
naturali.
I fondatori più noti di questa disciplina furono Auguste Comte e Herbert Spencer, i quali
erano fiduciosi nei confronti dei metodi delle scienze naturali.

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Il paradigma positivista studia la realtà sociale utilizzando gli apparati concettuali, le


tecniche di osservazione e misurazione, gli strumenti di analisi matematica e i procedimenti di
inferenza delle scienze naturali.
Apparati concettuali: le categorie di “legge naturale”, di “causa-effetto”, di “verifica
empirica”, di “spiegazione”, etc.
Tecniche di osservazione e misurazione: l’uso di variabili quantitative anche per fenomeni
qualitativi, le procedure di misurazione applicate a orientamenti ideologici, capacità mentali, stati
psichici.
Strumenti di analisi matematica: l’uso della statistica, dei modelli matematici, etc.
Procedimenti di inferenza: il passaggio dall’osservazione particolare alla legge generale.

Comte, il profeta del positivismo sociologico ottocentesco, ritiene che l’acquisizione del
punto di vista positivista rappresenti in ogni scienza il punto finale di un percorso che ha
attraversato gli stadi teologico e metafisico. Tale itinerario si realizza prima nelle scienze della
natura inorganica (astronomia, fisica, chimica); successivamente in quelle della natura organica
(biologia); infine nella materia più complessa, cioè la società, portando così alla costituzione di una
nuova scienza: sociologia o scienza positiva della società. Le scienze della società non sono
diverse da quelle della natura e il modo di pensare positivista avrà successo anche quando dagli
oggetti naturali si passerà a quelli sociali, alla religione, alla politica e al lavoro.
Il primo vero sociologo positivista è stato Durkheim, il quale ha tradotto i principi del
positivismo in prassi empirica, la quale si fonda sulla teoria del “fatto sociale”. Tale teoria
impone di trattare i fatti sociali come cose.
I fatti sociali sono modi d’agire, di pensare, di sentire che presentano la proprietà di esistere
al di fuori delle coscienze individuali. Ad esempio, quando si assolvono i doveri di marito o di
cittadino, i quali sono doveri definiti, al di fuori di se stessi e dei propri atti, nel costume e nel
diritto. Tali doveri non sono stati fatti dall’essere umano, ma sono stati ricevuti attraverso
l’educazione. Analogamente per quanto riguarda le credenze e le pratiche della vita religiosa, il
sistema dei segni, il sistema monetario, etc.
I fatti sociali, anche se non sono entità materiali, hanno le stesse proprietà della cose del
mondo naturale. Essi non sono soggetti alla volontà dell’uomo, anzi resistono al suo intervento, lo
condizionano e lo limitano. I fatti naturali, inoltre, funzionano secondo proprie regole, possiedono
una struttura deterministica, che l’uomo può scoprire attraverso la ricerca scientifica.
Il mondo sociale così come il mondo naturale è regolato da leggi, studiabili oggettivamente.
Da qui nasce l’assunto di una unità metodologica fra mondo naturale e mondo sociale, in
quanto si possono studiare con la stessa logica e lo stesso metodo.
Dunque:
 esiste una realtà sociale al di fuori dell’individuo;
 questa realtà sociale è oggettivamente conoscibile;
 essa è studiabile con gli stessi metodi delle scienze naturali.

L’obiettivo delle regole di Durkheim è di estendere alla condotta umana il razionalismo


scientifico, la cui conseguenza è stata proprio il positivismo. Nel positivismo il razionalismo è
induttivo. Per induzione si intende il passaggio dal particolare all’universale, il processo per il
quale dall’osservazione empirica si arriva a generalizzazioni o a leggi universali.
Lo scienziato sociale di Durkheim deve scoprire i principi organizzatori di carattere
universale tipici del procedimento induttivo.

Alla base del positivismo c’è sempre l’entusiasmo per la conoscenza positiva di tipo
scientifico e la considerazione della scienza e del suo metodo come unica conoscenza valida ed
efficace in tutti i campi del sapere umano. Abbagnano definisce tale entusiasmo una
“romanticizzazione della scienza”, che consiste nella sua “esaltazione a unica guida della vita
singola e associata dell’uomo, cioè a unica conoscenza, a unica morale, a una religione possibile”.
4

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

POSITIVISMO

ONTOLOGIA EPISTEMOLOGIA METODOLOGIA


Realismo ingenuo: Dualista e oggettivista: Sperimentale e manipolativa:
 esiste una realtà sociale  dualista perché lo  metodo sperimentale:
oggettiva, esterna studioso e l’oggetto viene assunto sia nel
all’uomo, sia esso lo studiato sono suo modo di procedere
studioso o lo stesso considerati entità induttivo (dal
soggetto agente; indipendenti; particolare al generale),
sia nella sua
 questa realtà è  oggettivista perché lo formalizzazione
conoscibile nella sua studioso può studiare matematica;
reale essenza. l’oggetto senza
influenzarlo o esserne  manipolativa:
influenzato. l’esperimento rimane
la tecnica ideale perché
Legge naturale: fondato sulla
 la conoscenza avviene manipolazione e sul
attraverso leggi controllo delle variabili
naturali, fondate sulle implicate e sulla
categorie di causa- separazione/distacco fra
effetto. Esse esistono “osservatore” e
nella realtà esterna “osservato”.
indipendentemente
dagli osservatori e il
compito dello
scienziato è di
scoprirle.

Non c’è il rischio che i valori


del ricercatore deformino la
sua lettura della realtà sociale,
né che succeda il contrario.
Tale posizione deriva dalla
considerazione del fatto
sociale come dato esterno e
immodificabile.

PARAGRAFO 4 – Neopositivismo e postpositivismo pp. 25-29


Nel corso del ‘900 si è sviluppato all’interno del positivismo un processo di revisione e di
aggiustamento al fine di poter superare i limiti intrinseci di tale movimento filosofico.
Nel periodo che va dagli anni ’30 agli anni ’60 del ‘900 si è sviluppato il neopositivismo,
mentre a partire dalla fine degli anni ’60 si è diffuso il postpositivismo.
In queste due correnti rimane comunque il presupposto del realismo ontologico, secondo il
quale “il mondo esiste indipendentemente dalla nostra conoscenza”.

Il neopositivismo si è originato dalla scuola del positivismo logico. Tale movimento è nato
intorno alle discussioni di un gruppo di studiosi, chiamato “circolo di Vienna” e sulle cui posizioni,
qualche tempo dopo, si formò un gruppo analogo a Berlino. Il neopositivismo ebbe una grande
diffusione e influenzò diverse discipline, come la sociologia.

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Il neopositivismo assegna un ruolo centrale alla critica della scienza, ridefinendo anche il
compito della filosofia, la quale deve dedicarsi all’analisi critica di quanto viene elaborato nelle
teorie delle singole discipline. Si dedica maggiore attenzione ai problemi metodologici delle
scienze, all’analisi logica del loro linguaggio e delle loro elaborazioni teoriche, alla critica dei loro
assunti.
In questo movimento di pensiero sono centrali le questioni epistemologiche e uno dei
postulati è la convinzione che il senso di un’affermazione derivi dalla sua verificabilità
empirica.
La conseguenza della diffusione del neopositivismo fu lo sviluppo di un nuovo modo di
parlare della realtà sociale, utilizzando un linguaggio tipico della matematica e della statistica,
detto linguaggio delle variabili. Ogni oggetto sociale, a cominciare dall’individuo, veniva definito
sulla base di attributi e proprietà, cioè le variabili; i fenomeni sociali analizzati in termini di
relazioni fra variabili. In questo modo la variabile diveniva la protagonista dell’analisi sociale. Con
tale metodo tutti i fenomeni sociali potevano essere rilevati, misurati, correlati, elaborati e
formalizzati, e le teorie convalidate o falsificate in modo oggettivo e senza ambiguità.
Le teorie neopositiviste abbandonano la caratteristica di leggi deterministiche per
assumere quella della probabilità. Dunque le teorie scientifiche non devono più spiegare i
fenomeni sociali attraverso schemi di natura logica necessitante, e la legge deterministica viene
sostituita dalla legge probabilistica, la quale prevede elementi di accidentalità, la presenza di
disturbi e fluttuazioni (incertezze).
Nel neopositivismo è stata aggiunta una nuova categoria, quella della falsificabilità, usata
come criterio di validazione empirica di una teoria. Tale categoria stabilisce che il confronto fra
teoria e ritrovato empirico non può avvenire in positivo, cioè attraverso la prova o verifica che la
teoria è confermata dai dati; ma si realizza in negativo, con la non falsificazione della teoria da parte
dei dati, mediante cioè la constatazione che i dati non contraddicono l’ipotesi. Dunque il metodo di
ricerca consiste nel rovesciare le “anticipazioni” e provare la loro falsità, allo scopo di avanzare
“pregiudizi affrettati e prematuri”. Da ciò deriva la provvisorietà di ogni ipotesi teorica, mai
definitivamente valida. In questo modo l’ideale scientifico dell’epistème, cioè della conoscenza
certa e dimostrabile, si è rivelato un mito.

Secondo il postpositivismo l’osservazione empirica non è una fotografia oggettiva, bensì


dipende dalla teoria, nel senso che anche la semplice registrazione della realtà dipende dalla finestra
mentale del ricercatore, da condizionamenti sociali e culturali. Fermo restando che la realtà esiste
indipendentemente dall’attività conoscitiva e dalla capacità percettiva dell’uomo, l’atto del
conoscere rimane condizionato dalle circostanze sociali e dal quadro teorico in cui si colloca. La
tesi della teoreticità delle osservazioni empiriche, l’affermazione cioè che non esiste una
separazione netta fra concetti teorici e dati osservati, fa venir meno anche le ultime certezze del
positivismo: l’oggettività del dato rilevato, la neutralità e l’intersoggettività del linguaggio
osservativo.
Il postpositivismo non ripudia il fondamento empirista e continua ad accettare la centralità
del metodo scientifico nella ricerca sociale e l’analogia fra il metodo delle scienze naturali e delle
scienze sociali. Tale movimento afferma, inoltre, che le leggi naturali e sociali sono probabili e
aperte a revisione, che è provvisoria la natura della conoscenza scientifica.
Il nuovo positivismo ridefinisce i presupposti iniziali e gli obiettivi della ricerca sociale; ma
il modo di procedere empiricamente ha alla base il linguaggio osservativo di sempre, fondato
sull’operativizzazione, sulla quantificazione e sulla generalizzazione.

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

POSTPOSITIVISMO

ONTOLOGIA EPISTEMOLOGIA METODOLOGIA


Realismo critico: Dualismo-oggettività  sperimentale-
 realismo in quanto modificati: manipolativa
assume che relazioni  non è più sostenuto il modificata: è rimasto il
causa-effetto esistono dualismo, cioè la distacco fra ricercatore
nella realtà al di fuori separazione fra lo e oggetto studiato
della mente umana; studioso e l’oggetto (esperimenti,
studiato; manipolazione delle
 critico per sottolineare variabili, interviste
quell’atteggiamento di  l’oggettività della quantitative, etc.).
continuo sospetto e conoscenza rimane Apertura nei confronti
quella propensione alla l’obiettivo ideale e il dei metodi qualitativi.
messa in discussione criterio di riferimento, Importanza del ruolo
che lo scienziato deve ma può essere della comunità
avere nei confronti di raggiunto solo in modo scientifica per la critica
ogni acquisizione approssimato. delle acquisizioni e i
scientifica. processi di conferma
Leggi di medio-raggio, delle stesse.
 Si presume l’esistenza probabilistiche e provvisorie:
di una realtà esterna  nel processo
all’uomo, ma conoscitivo si da valore
imperfettamente alla deduzione,
conoscibile: sia per attraverso la
l’imprecisione di ogni falsificazione delle
conoscenza umana, sia ipotesi;
per la natura
probabilistica delle  l’obiettivo resta quello
leggi. di arrivare a
generalizzazioni nella
forma di leggi
probabilistiche e
provvisorie.

PARAGRAFO 5 – Interpretativismo pp. 29-36


L’interpretativismo comprende tutte quelle visioni teoriche per cui la realtà non può essere
solo osservata, ma è necessario che venga interpretata.
Tale movimento nasce nel contesto dello storicismo tedesco e la prima critica nei confronti
del scientismo comtiano risale a Wilhelm Dilthey.
Egli, in una sua celebre opera, distingue tra:
 scienze della natura: l'oggetto di tali scienze è costituito da una realtà
esterna all’uomo che rimane tale anche nel corso del processo conoscitivo, il quale assume
le forme di spiegazione. C’è distacco tra studioso e realtà studiata;
 scienze dello spirito: non è presente la separazione tra studioso e oggetto
studiato e quindi la conoscenza può avvenire solo attraverso la comprensione.
Dilthey riferisce il concetto del “comprendere” o dell’“intendere” nei termini di
“esperienza vissuta”, in quanto sottolinea l’esigenza che lo storico si avvicini alla materia con una
sorta di identificazione psicologica in modo da poter rivivere il passato in un’esperienza interiore
che sola può portarlo alla conoscenza.

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Negli stessi anni un altro studioso tedesco, Windelband, ha proposto una distinzione
collegabile a quella di Dilthey:
 scienze nomotetiche: finalizzate all’individuazione di leggi generali;
 scienze ideografiche: orientate a cogliere l’individualità dei fenomeni, la loro
unicità e irripetibilità.

È con Weber che l’interpretativismo entra nel campo della sociologia. Egli porta il
concetto di scienza dello spirito all’interno della sociologia e vuole mantenere l’oggettività della
scienza sociale sia in termini di avalutatività, cioè indipendenza da giudizi di valore; sia in quelli
della possibilità di arrivare ad enunciati aventi un carattere di generalità.
L’avalutatività delle scienze storico-sociali, cioè la loro libertà da qualsiasi giudizio di
valore, rimane un caposaldo irrinunciabile. Cioè fa riferimento alla capacità di saper distinguere tra
conoscere e valutare, ossia tra l’adempimento del dovere scientifico di vedere la realtà di fatti e
l’adempimento del dovere pratico di difendere i propri ideali. Quindi il ricercatore deve tener
distinte la constatazione dei fatti empirici e la sua presa di posizione pratica che valuta tali fatti.
Nonostante le scienze sociali debbano mantenere la loro avalutatività, i presupposti di
valore possono intervenire nella scelta dei problemi da studiare, orientando così la ricerca. In questo
senso i valori assumono una funzione selettiva.
L’avalutatività è la prima condizione per l’oggettività delle scienze sociali.
Secondo Weber le scienze sociali si distinguono da quelle naturali perché hanno come
obiettivo quello di studiare i fenomeni sociali nella loro individualità. Il metodo usato da Weber
è la comprensione, la quale è una comprensione razionale delle motivazioni dell’agire. Quindi
tale metodo consiste nell’intendere lo scopo dell’azione, cogliere le dimensioni di proposito e di
intenzionalità dell’agire umano. Si tratta di interpretazione e non di intuizione.
Per Weber comprendere un’azione individuale consiste nel procurarsi i mezzi di
informazione sufficienti per analizzare le motivazioni che hanno ispirato l’azione. L’osservatore
comprende l’azione del soggetto osservato solo quando può concludere che, nello stessa situazione,
egli avrebbe agito nel medesimo modo. Quindi, la comprensione weberiana presuppone che
l’osservatore si metta al posto dell’attore, ma la soggettività del secondo non è necessariamente
subito trasparente per il primo.
Da questo orientamento verso l’individualità è necessario arrivare all’oggettività e a questo
punto intervengono i tipi di ideali.
I tipi ideali sono forme di agire che possono essere riscontrate in modo ricorrente nel modo
di comportarsi degli individui umani; sono uniformità tipiche di comportamento, costruite
attraverso un processo astrattivo che coordina diversi elementi in un quadro coerente e privo di
contraddizione. I tipi ideali sono, dunque, un’astrazione che nasce dalla rilevazione empirica di
uniformità.
Il tipo ideale weberiano si ritrova in tutti i campi del sociale; alcuni esempi sono:
capitalismo (strutture sociali), burocrazia (istituzioni), agire razionale (comportamento
dell’individuo). Questi tipi ideali non devono essere confusi con la realtà; essi sono costruiti in
modo ideale euristico, ideali perché sono costruzioni mentali dell’uomo; euristico perché
indirizzano la conoscenza. Non hanno un corrispettivo concreto nella realtà, ma sono modelli teorici
che aiutano il ricercatore ad interpretarla.
I tre tipi ideali di Weber sono:
1. potere carismatico;
2. potere tradizionale;
3. potere razionale-legale.

Mentre il tipo ideale è una costruzione razionale chiara, coerente e priva di ambiguità. La
realtà, invece, è più complessa, contraddittoria e disordinata.

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Le uniformità che il ricercatore persegue ed individua nella sua interpretazione della realtà
sociale, non sono le leggi, ma connessioni causali, o, per meglio dire, enunciati di possibilità: se
accade A, allora il più delle volte si verifica anche B.
Dunque, non si può raggiungere l’obiettivo di stabilire i fattori determinanti di un certo
evento sociale o di un certo comportamento individuale, ma si può raggiungere quello di tracciarne
le condizioni che lo rendono possibile.
Alle leggi causali dotate di generalità e di obbligatorietà, tipiche del positivismo, si
contrappongono enunciati e connessioni con caratteri di specificità e possibilità.

Weber ha anticipato un ricco filone di teoria e ricerca sociologica che ha dato luogo a diversi
movimenti e scuole di pensiero: la sociologia fenomenologica, l’interazionismo simbolico e
l’etnometodologia che si sono affermati con la sociologia americana degli anni ’60 del secolo
scorso.
Weber ha elaborato i propri concetti su un piano macrosociologico, interessato a capire
l’economia, lo stato, il potere, la religione e la burocrazia. Invece, il movimento che nasce negli
Stati Uniti negli anni ’60 del ‘900 sviluppa una prospettiva microsociologica. Secondo tale scuola
se la società è edificata a partire dalle interpretazioni degli individui ed è la loro interazione che crea
le strutture, è proprio a questa interazione che bisogna interessarsi per capire la società. Da qui
deriva la scoperta di un nuovo campo di indagine per la sociologia: il mondo della vita
quotidiana.

POSITIVISMO INTERPRETATIVISMO
 caratterizzato dall’oggettività;  caratterizzato dalla soggettività;

 assimilando la realtà sociale e l’azione


umana ad una cosa oggettivamente
studiabile, mette a tacere la
dimensione individuale, l’aspetto
umano;
 le componenti individuali,
 esclude le componenti individuali, motivazionali, intenzionali, i valori, il
motivazionali, intenzionali, i valori, il libero arbitrio sono gli oggetti primari
libero arbitrio; della ricerca interpretativa;

 ha elaborato delle proprie procedure di


 metodo di ricerca: linguaggio delle ricerca, delle proprie tecniche di
variabili. osservazione e di analisi della realtà
empirica, che daranno luogo alla ricerca
qualitativa.

INTERPRETATIVISMO
9

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

ONTOLOGIA EPISTEMOLOGIA METODOLOGIA


Costruttivismo e relativismo Non dualismo e non Interazione empatica fra
(realtà multiple): oggettività; tipi ideali, studioso e studiato:
 costruttivismo: il enunciati di possibilità:  nel corso delle fasi
mondo conoscibile è  scompare la empiriche delle ricerca
quello del significato separazione fra la relazione fra studioso
attribuibile dagli studioso e oggetto e oggetto studiato
individui. La posizione studiato e quella fra rappresenta la base del
costruttivista più ontologia ed processo conoscitivo.
radicale esclude epistemologia. In Se l’obiettivo è
l’esistenza di un mondo contrapposizione al comprendere il
oggettivo (ogni positivismo, la ricerca significato attribuito dal
individuo produce una sociale viene definita soggetto alla propria
sua realtà). La come una “scienza azione, le tecniche di
posizione più interpretativa in cerca ricerca utilizzate sono
moderata afferma che di significato” piuttosto qualitative e soggettive,
sono conoscibili sono le che una “scienza cioè variabili di volta in
costruzioni individuali, sperimentale in cerca di volta a seconda della
ma non si pone il leggi”, in cui le forma che assume
problema dell’esistenza categorie centrali sono l’interazione studiante-
o meno di tali quelle di valore, studiato. La conoscenza
costruzioni; significato e scopo. avviene attraverso il
L’obiettivo della processo di induzione,
 relativismo: le scienza sociale è cioè di scoperta nella
costruzioni mentali comprendere il realtà da parte di uno
variano fra gli individui comportamento studioso che vi si
e fra le diverse culture. individuale e nel approccia senza
Non esiste una realtà perseguire tale pregiudizi e teorie
sociale universale obiettivo la scienza precostituite.
valida per tutti gli sociale fa uso di
uomini (realtà astrazioni e di
assoluta), ma ne generalizzazioni, cioè
esistono molteplici dei tipi ideali e degli
(realtà multiple), enunciati di possibilità.
poiché sono molteplici
le prospettive con cui
gli uomini vedono e
interpretano i fatti
sociali.

10

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

PARAGRAFO 6 – Radicalizzazioni e critiche pp. 36-38


Una radicalizzazione del positivismo consiste nel riduzionismo, un processo di riduzione.
Tale tendenza ha portato un empirismo antispeculativo, dominato dal mito del metodo e dal mito
del dato, dove lo scopo dello scienziato sociale non è più quello di formulare e poi di validare
empiricamente le teorie, ma quello di raccogliere e di descrivere i dati.
Il riduzionismo ha attraversato varie fasi:
1. restringimento dei confini dell’esplorazione teorica, soffermandosi sulla
conferma delle ipotesi a scapito dell’approfondimento del contesto delle scoperte;
2. spostamento dell’attenzione dal contenuto al metodo;
3. spostamento dell’attenzione dal metodo al dato, dai problemi
dell’operativizzazione dei concetti ai problemi pratici delle rilevazione e dell’analisi dei dati
privi di elementi teorici e metodologici.
In questo modo la ricerca sociale diventa una massa sterminata di dati minuziosamente
rilevati, misurati e classificati, ma non coordinati tra loro, privi di connessioni significative,
incapaci di rendere una conoscenza adeguata dell’oggetto cui nominalmente si riferiscono.

Un’altra critica al positivismo fa riferimento all’assunto secondo il quale le categorie


osservative siano indipendenti da quelle teoriche. Tale critica apre la strada al relativismo
conoscitivo, per il quale il ricercatore è un soggetto attivo nella costruzione del mondo attraverso le
idee specifiche e gli argomenti che fanno parte della sua forma di conoscenza. Dunque, si afferma
che i dati sono carichi di teoria.

Per quanto riguarda l’interpretativismo, le critiche maggiori sono rivolte ai filoni


sviluppatisi dalla teoria originale di Weber, i quali hanno portato alle estreme conseguenze
l’originario weberiano “orientamento verso l’individuo”.
Weber, pur affermando che il meccanismo centrale per la comprensione della realtà sociale
è rappresentato dalla capacità di saper cogliere l’intenzione individuale e soggettiva che si trova
dietro ad ogni azione sociale, non esclude la possibilità di arrivare a delle forme di generalizzazione
conoscitiva (tipi ideali); inoltre cerca di conciliare causalità e comprensione.
I nuovi filoni di riflessione sociologica sviluppatisi dagli anni ’60 del ‘900, definiti
sociologia neocomprendente, hanno all’opposto sottolineato il carattere soggettivista
dell’impostazione weberiana e hanno spostato l’attenzione al mondo della vita quotidiana e
all’interazione intersoggettiva. Tale spostamento ha dato origine a due critiche:
1. la prima critica sostiene che l’estremo soggettivismo esclude la possibilità
dell’esistenza della scienza sociale, perché se tutto è soggettivo e unico, non c’è la
possibilità di andare oltre la persona e non si possono fare generalizzazioni sovraindividuali,
e quindi si nega l’oggettività della conoscenza. Nel momento in cui si afferma la non
separazione fra studioso e studiato, si nega il meccanismo attraverso il quale si realizza la
conoscenza sociologica. Dunque non è possibile per il ricercatore una conoscenza oggettiva
se non può oltrepassare (trascendere) l’oggetto dall’indagine.

2. La seconda critica riguarda il fatto che l’interpretativismo esclude dai


propri interessi le istituzioni, cioè gli oggetti per eccellenza della riflessione sociologica.
Così facendo tale movimento rischia di lasciare al di fuori del suo ambito problematico gli
aspetti della società, che, pur essendosi originati nell’interazione, hanno successivamente
assunto autonomia rispetto ai singoli e alle loro scelte.

CAPITOLO 2 – Ricerca quantitativa e ricerca qualitativa pp. 39-71


11

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Le ricerche mostrate nei paragrafi successivi fanno riferimento ad una stessa tematica, quella
della delinquenza minorile e sono analizzate secondo l’approccio neopositivista e interpretativo.

PARAGRAFO 1 – Paradigma neopositivista: “Crime in the Making”, di Sampson e Laub p.


40
Questa ricerca parte dal ritrovamento, nelle cantine dell’Università di Harvard, di 60
scatoloni contenenti il materiale di un’importante ricerca longitudinale o diacronica, raccolto in
24 anni, tra il 1939 e il 1963, da due coniugi e utilizzato solo parzialmente per le loro ricerche.
Sampson e Laub decidono, così, di rianalizzare tali dati utilizzando l’analisi secondaria per
rispondere ai nuovi interrogativi che si sono creati a seguito degli sviluppi della teoria e della
ricerca negli studiosi della devianza minorile.

PARAGRAFO 1.1 – Ipotesi pp. 40-41


Gli autori Sampson e Laub partono dal fatto che, essendo i reati commessi da adolescenti
più che proporzionali alla loro presenza nella popolazione, gli studi di sociologia criminale si sono
concentrati maggiormente su questa età, trascurando sia l’infanzia, in cui secondo alcuni si debbano
ricercare le origini del comportamento antisociale, sia l’età adulta, in cui momenti fondamentali
come l’età lavorativa e il matrimonio possono contribuire a produrre cambiamenti radicali
nell’atteggiamento sociale dell’individuo.
Tale punto di partenza implica la necessità di sostituire l’impostazione sincronica o
trasversale, utilizzata per studi condotti su individui in un dato momento, con l’impostazione
diacronica o longitudinale, la quale viene usata per condurre uno studio in un determinato periodo
di tempo.
Sampson e Laub abbozzano, prima di affidarsi ai dati, una possibile teoria articolata per
età del controllo sociale informale, dove per ogni età vengono discusse sia le variabili considerate
le cause del comportamento deviante (povertà, famiglia disgregata, infanzia antisociale, etc.), sia i
meccanismi informali di controllo sociale operanti in quel momento del ciclo di vita.

PARAGRAFO 1.2 – Disegno della ricerca pp. 41-42


La ricerca è stata condotta dal 1939 al 1963 ed è stata condotta su 500 “autori di reato”
giovani, maschi, bianchi, aventi, all’inizio dell’indagine, fra i 10 e i 17 anni, e su 500 “non autori
di reato”.
I primi furono individuati nelle case di correzione, mentre i secondi nelle public schools,
sulla base di un progetto di corrispondenza, cioè per ognuno dei 500 autori di reato venne
individuato un ragazzo non autore di reato con le stesse caratteristiche di età, origine etnica,
quartiere e quoziente di intelligenza.
I ragazzi sono stati seguiti sistematicamente con interviste a loro stessi, alle famiglie, agli
insegnanti o ai datori di lavoro dal 1939 al 1948. Sono stati inoltre intervistati vicini, operatori
sociali, poliziotti, giudici e consultati gli atti ufficiali del sistema giudiziario per registrare eventuali
reati commessi.
Successivamente furono condotti due studi sugli stessi soggetti, aventi ormai 25 e 32 anni.
Da tale ricerca emerge che non c’è una mancanza di serie infrazioni della legge nell’età
adulta.
Fra i 17 e i 32 anni, dei 500 autori di reato iniziali 90 furono arrestati per rapina, 225 per
furto con scasso e più di 250 per furto.
I 500 non autori di reato non rappresentavano un gruppo atipico di ragazzi osservanti della
legge, infatti 100 di essi cominciarono a commettere reati da adulti. Tale dato è importante per lo
studio dell’insorgenza del comportamento deviante in età matura.

PARAGRAFO 1.3 – Rilevazione empirica e risultati dell’analisi pp. 42-45


12

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

I dati raccolti sono il risultato di informazioni disomogenee e provenienti da differenti fonti


di informazioni.
La procedura di quantificazione usata è l’indice di comportamento deviante non
ufficiale. Si è cominciato col registrare tutti i comportamenti sia legali (borseggio, furto, gioco
d’azzardo, etc.), sia di cattiva condotta (fumare, bere, scappare di casa, etc.). Le informazioni
provenienti dalle diverse fonti sono state fuse e sono stati costruiti sia degli indici di devianza per
ogni comportamento, sia un indice di devianza complessiva. Ciò rappresenta la devianza non
ufficiale, mentre la devianza ufficiale è rappresentata dalla variabile dicotomica (autori di
reato/non autori di reato) posta alla base del campionamento dei 500+500 soggetti. Dunque, le
variabili dipendenti della ricerca sono i due indicatori di devianza, ossia la devianza non
ufficiale e la devianza ufficiale.
Per procedere all’analisi dei dati Sampson e Laub distinguono tra:
 variabili di base o strutturali: sono le variabili classiche usate in questo
genere di studi (povertà, disgregazione familiare, criminalità dei genitori, etc.);
 variabili di processo o processuali: si riferiscono a legami informali (con la
famiglia, con la scuola, con il lavoro, etc.), i quali hanno un ruolo fondamentale nel processo
che porta alla devianza.

Il modello teorico ipotizzato da Sampson e Laub si basa su due stadi, rappresentati dalle
variabili strutturali che influenzano il comportamento deviante non in modo diretto, ma in modo
mediato dalle variabili intervenienti rappresentante dal legame-controllo familiare.
Le variabili strutturali di base sono nove:
1. affollamento abitativo: si suddivide a sua volta in tre categorie:
1) confortevole;
2) medio;
3) sovraffollato;
2. disgregazione familiare: prevede due categorie con valore 1 quando il
ragazzo è cresciuto in una famiglia in cui uno o entrambi i genitori erano assenti per
divorzio, separazione, abbandono o decesso;
3. dimensione della famiglia: data dal numero di bambini;
4. status socio-economico: comprende tre categorie:
1) confortevole;
2) marginale;
3) dipendente;
5. nascita all’estero: si suddivide in due categorie con valore 1 se uno o
entrambi i genitori sono nati all’estero;
6. mobilità residenziale: definita dal numero di volte che la famiglia del
ragazzo ha cambiato abitazione durante la sua infanzia;
7. lavoro della madre: si suddivide a sua volta in due categorie (dicotomica);
8. devianza del padre: comprende tre categorie a seconda se il padre sia mai
stato arrestato o sia stato un alcolista;
9. devianza della madre: comprende tre categorie a seconda se la madre sia
mai stata arrestata o sia stata un’alcolista.

Le variabili processuali familiari sono cinque:


1. disciplina paterna erratica, severa e minacciosa: relativa allo stile
disciplinare paterno;
2. disciplina materna erratica, severa e minacciosa: relativa allo stile
disciplinare materno;
3. mancanza di supervisione materna: comprende tre categorie;
4. rifiuto da parte dei genitori: si riferisce all’ostilità dei genitori nei confronti
del ragazzo;
13

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

5. attaccamento ai genitori: si riferisce al legame emotivo del ragazzo verso i


genitori.

La variabile dipendente è il comportamento deviante e a seconda dei casi sarà devianza


ufficiale o non ufficiale.

Per quanto riguarda i risultati dell’analisi, gli autori utilizzano lo strumento statistico
della regressione multipla. Essi dispongono di tre blocchi di variabili:
1. variabili strutturali di base;
2. variabili processuali familiari;
3. variabile dipendente: comportamento deviante.

Mettono in relazione questi tre blocchi a due a due, riscontrando delle correlazioni:
1. relazione fra variabili di base e variabili processuali: le condizioni
strutturali della famiglia influenzano i legami affettivi e il rapporto pedagogico;
2. relazione fra variabili di base e devianza: la situazione familiare precaria,
povera, etc. favorisce il comportamento deviante;
3. relazione fra variabili processuali e devianza: è favorita dall’indebolimento
dei legami familiari.
Nel momento in cui si analizzano le variabili processuali e strutturali di base intese come
indipendenti, e il comportamento deviante, inteso come variabile dipendente, si nota che
sparisce l’effetto delle variabili strutturali.
Ciò sta a significare che le variabili strutturali non hanno un effetto diretto sul
comportamento deviante, ma la loro azione è mediata dalla variabili processuali. Le variabili
processuali, invece, influenzano il comportamento deviante.
Conclusasi la fase empirica si ritorna alla teoria. La conclusione degli autori è che i
processi familiari di controllo informale hanno un effetto inibitorio sulla delinquenza degli
adolescenti. È sorprendente che molte spiegazioni sociologiche del crimine ignorino la famiglia.
Sampson e Laub propongono il modello teorico dinamico di crimine, devianza e
controllo sociale informale lungo il ciclo di vita, nel quale dividono il corso dei primi 45 anni di
età in 5 fasi e per ogni fase evidenziano il ruolo dei fattori che favoriscono l’insorgere del
comportamento deviante e di quelli che lo inibiscono.

PARAGRAFO 2 – Paradigma interpretativo: “Islands in the Street”, di Jankowski p. 45

PARAGRAFO 2.1 – Disegno della ricerca e raccolta dei dati p. 46


La ricerca condotta da Jankowsky è un esempio di osservazione partecipante. Egli porta
avanti uno studio comparato in modo da poter capire cosa hanno in comune le gang e ciò che
invece è specifico di ognuna. Egli decide, dunque, di studiare 37 gang di città diverse, di diversa
connotazione etnica e di diversa dimensione. Ha dedicato a tale studio dieci anni, durante i quali ha
partecipato attivamente alla vita delle gang, inserendosi nelle loro attività.
I dati sono stati raccolti attraverso la registrazione di appunti su un taccuino, a cui si
aggiungevano riflessioni giornaliere e settimanali.

PARAGRAFO 2.2 – Ipotesi pp. 46-47


Mentre nella ricerca di Sampson e Laub la riflessione teorica porta all’elaborazione di
ipotesi da controllare empiricamente. Jankowski, invece, non avanza ipotesi o confronta le tesi
della letteratura esistente, ma attinge alla ricerca effettuata ed espone le conclusioni che ha ricavato
dalla sua esperienza. Tale modalità di operare è tipica dell’approccio interpretativo che procede in
modo induttivo, evitando il condizionamento teorico iniziale. La teoria sarà scoperta nel corso
dell’indagine.
Jankowski non ritiene che la gang sia una deviazione patologica dalle norme sociali, ma
14

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

sostiene che chi vi aderisce lo faccia per scelta razionale. La gang nasce come risposta
organizzativa per accrescere la competitività dei suoi membri.
Jankowski sviluppa la sua relazione su tre livelli:
1. l’individuo e il suo rapporto con la gang: riguardo l’individuo Jankowski
elabora il concetto di carattere individualistico e ribelle. L’individuo si caratterizza da un
forte senso della competizione, da sfiducia verso gli altri, da cui conseguono individualismo,
isolamento sociale e necessità di contare solo su se stessi, e da una visione esistenziale
darwinistica, secondo la quale la vita è una lotta in cui sopravvivono solo i più forti e dalla
quale discende un forte istinto di sopravvivenza.
L’autore definisce la gang come un sistema sociale quasi-privato e quasi-segreto,
governato da una struttura di leadership che ha ruoli definiti; il suo agire è finalizzato
all’erogazione di servizi sociali ed economici ai suoi membri e alla propria sopravvivenza
come organizzazione. Essa persegue i suoi obiettivi, a prescindere se questi siano legali o
meno; è priva di burocrazia.
L’individuo ribelle chiede di entrare nella gang affinché possa ottenere vantaggi
economici, di status e di potere. Egli sarà accettato dalla gang solo se è in grado di
soddisfare i bisogni dell’organizzazione.

2. La gang come organizzazione: si fa riferimento alle strategie messe in atto


per trattenere e coinvolgere i membri, la strutturazione della leadership e i meccanismi della
sua legittimazione, gli incentivi e le sanzioni per ottenere l’obbedienza dei componenti.

3. La gang e la comunità: la gang deve essere accettata dall’intera comunità


come parte integrante del quartiere, al quale deve fornire servizi. In cambio avrà protezione
dalla polizia e dai predatori rivali (le altre gang).

PARAGRAFO 2.3 – Interpretazione del materiale empirico pp. 47-49


Nel primo capitolo della sua ricerca, Jankowski si chiede quale sia il motivo per cui un
individuo entri in una gang. Egli ritiene che gli individui che vivono nei quartieri a basso reddito
entrino in una gang per varie ragioni, ma tutte relative a ciò che è meglio per loro in quel momento.
Le motivazioni che individua sono sei:
1. incentivi materiali: si entra in una gang per ricavare soldi in modo più
regolare che interpretando attività illegali da soli, per incontrare meno rischi, per avere delle
entrare anche in situazioni di emergenza;
2. divertimento: la gang è anche un luogo di svago e di passatempo. Ha al suo
interno bar, videogiochi, slot machine e offre la possibilità di incontrare ragazze;
3. rifugio e nascondiglio: la gang offre anonimato;
4. protezione fisica: offerta dalla gang nell’ambiente conflittuale dei sobborghi
metropolitani;
5. luogo di resistenza: molti individui entrano in una gang per sfuggire ad una
vita senza speranza come quella dei genitori;
6. impegno comunitario: per alcuni la gang risulta essere una forma
partecipativa che esprime il loro attaccamento alla comunità.

L’obiettivo della ricerca non è rappresentato da modelli causali dove le variabili sono
connesse da legami di causa-effetto, ma da classificazioni e tipologie, a partire dall’esperienza
vissuta, tipico del paradigma interpretativo.

Schema riassuntivo della struttura delle ricerche di Sampson e Laub e di Jankowski:


15

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

RICERCA QUANTITATIVA RICERCA QUALITATIVA


La ricerca di Sampson e Laub La ricerca di Jankowski
caratterizzata da una struttura geometrica caratterizzata da una teoria che emerge dai
circolare che parte dalla teoria e ritorna alla dati:
teoria: o non c’è separazione fra teoria e risultati
 esposizione della teoria; empirici;
 formulazione della teoria nella forma di o le ipotesi si costruiscono durante il
modello empiricamente controllabile; percorso di ricerca e non prima;
 pianificazione della ricerca; o mancanza di discussione sulle
 rilevazione dei dati; acquisizioni letterarie precedenti a tale
 analisi dei dati; ricerca;
 ritorno alla teoria. o mancanza di una teoria prima dell’inizio
Tale ordine concettuale nasce dalla visione della della ricerca.
ricerca intesa come processo razionale e
lineare.

PARAGRAFO 3 – Ricerca quantitativa e ricerca qualitativa: un confronto p. 50


Confronto fra ricerca qualitativa e quantitativa, secondo le quattro fasi della ricerca:
1. impostazione della ricerca;
2. rilevazione;
3. analisi dei dati;
4. risultati.

PARAGRAFO 3.1 – Impostazione della ricerca pp. 50-55

1. IMPOSTAZIONE DELLA RICERCA RICERCA


RICERCA QUANTITATIVA QUALITATIVA
 Relazione teoria-ricerca Il rapporto è strutturato in È aperta ed interattiva. Si
fasi logicamente evita volutamente di
sequenziali; segue formulare teorie prima di
un’impostazione deduttiva, cominciare il lavoro sul
cioè la teoria precede campo, perché si ritiene che
l’osservazione; si muove nel ciò possa condizionare la
contesto della comprensione del punto di
giustificazione, ovvero del vista del soggetto studiato.
sostegno, attraverso i dati Si usa l’impostazione
empirici, della teoria induttiva, cioè la teoria
formulata precedentemente. emerge dall’osservazione.
 Funzione della letteratura È importante per definire la Si dedica minore
teoria e le ipotesi da cui importanza alla letteratura,
partire. in quanto non si fa
riferimento alle precedenti
teorie.
 Concetti: sono gli elementi La chiarificazione e I concetti non vengono
costitutivi della teoria e l’operativizzazione dei operativizzati, ma sono
permettono alla teoria stessa concetti avvengono prima di considerati come
di essere sottoposta a controllo iniziare la ricerca. orientativi e si definiscono
empirico, attraverso la loro I concetti definiti forniscono nel corso della ricerca
trasformazione (o delle prescrizioni su cosa stessa.
operativizzazione) in vedere. I concetti orientativi
variabili empiricamente forniscono una guida di
16

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

osservabili. avvicinamento alla realtà


empirica.
 Rapporto con l’ambiente Non si ritiene il problema Si propone un approccio
studiato: la reattività della reattività del soggetto naturalistico secondo il
dell’oggetto studiato è uno dei possa rappresentare un quale il ricercatore si
maggiori problemi per un ostacolo o per lo meno si astiene da qualsiasi
ricercatore. Fare un’indagine accetta un margine di manipolazione,
sul comportamento umano manipolazione controllata. stimolazione, interferenza o
può comportare delle disturbo nei confronti della
alterazioni del comportamento Si utilizza l’esperimento. realtà, la quale viene
stesso. studiata nel corso del suo
naturale svolgimento.

Si utilizza l’osservazione
partecipante.
 Interazione psicologica Il ricercatore scientifico Il ricercatore assume un
studioso-studiato assume un punto di vista punto di vista interno al
neutrale, distaccato ed soggetto studiato, in modo
esterno al soggetto studiato; da vedere la realtà sociale
studia ciò che gli sembra con gli occhi dei soggetti
importante. studiati.
A questo punto si pone il
problema dell’oggettività
della ricerca.
 Interazione fisica studioso- Distanza e separazione. Prossimità e contatto.
studiato L’incontro fra studioso e
studiato è precondizione
per la comprensione.
 Ruolo del soggetto studiato L’individuo studiato viene L’individuo studiato viene
considerato come passivo. considerato come attivo.

PARAGRAFO 3.2 – Rilevazione pp. 55-57

RICERCA
2. RILEVAZIONE RICERCA QUANTITATIVA
QUALITATIVA
 Disegno della ricerca: Costruito prima dell’inizio della Destrutturato, aperto,
comprende le scelte di rilevazione; è strutturato, modellato nel corso della
carattere operativo con le chiuso e rigido. rilevazione.
quali si organizza la Dunque si tratta di un
raccolta dei dati. disegno libero da vincoli.
 Rappresentatività dei Il ricercatore si preoccupa della Il ricercatore non è
soggetti studiati rappresentatività statistica del interessato alla
pezzo di società che deve rappresentatività
studiare. statistica, ma a quella
sostantiva, sociologica,
che si stabilisce in base al
giudizio del ricercatore
stesso.
 Strumento di rilevazione È uniforme (questionario) o L’obiettivo non è la
uniformante (una scheda di standardizzazione. Le
codifica per uniformare domande informazioni devono

17

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

aperte o informazioni provenienti essere disomogenee.


da diverse fonti) per tutti, perché
l’obiettivo della raccolta di
informazioni è la costruzione di
una matrice dei dati.
 Natura dei dati I dati sono hard, cioè oggettivi, I dati sono soft, cioè dotati
standardizzati, affidabili, di ricchezza e profondità.
precisi, rigorosi.

PARAGRAFO 3.3 – Analisi dei dati pp. 58-61

3. ANALISI DEI DATI: RICERCA RICERCA QUALITATIVA:


è la fase in cui sono più QUANTITATIVA: assenza di un apparato
visibili le differenze fra uso di strumentazione statistico-matematico e ausilio
i due tipi di ricerca. matematica e statistica e di strumenti informatici solo
informatica per l’organizzazione del
materiale empirico
 Oggetto dell’analisi La variabile, dunque si parla L’individuo, dunque si parla di
di analisi per variabile, analisi per soggetti. Per questo
impersonale. motivo è detta case-based.
Le variabili sono le proprietà
individuali. Per questo motivo
è detta variable-based.
 Obiettivo dell’analisi Spiegare la varianza delle Comprendere le persone,
variabili dipendenti. interpretare il punto di vista
dell’attore sociale.
 Tecniche matematiche e Si operativizzano i concetti Le tecniche matematiche sono
statistiche in termini matematici e si considerate inutili, dannose e
utilizzano le tecniche riduttive.
statistiche per analizzare i dati.

PARAGRAFO 3.4 – Risultati pp. 61-68

RICERCA
4. RISULTATI RICERCA QUALITATIVA
QUANTITATIVA
o Presentazione dei Si utilizzano le tabelle e si Si usano brani di interviste o di testi
dati parla di prospettiva e a questo proposito si parla di
relazionale. Esse prospettiva narrativa. L’intervista,
forniscono informazioni riportando le parole dell’intervistato,
parsimoniose, succinte permette di vedere meglio la realtà con
(brevi, concise) e compatte. gli occhi del soggetto studiato.
La narrazione serve per scopi
illustrativi e per esemplificare i
risultati.
o Generalizzazioni La ricerca viene La ricerca viene sintetizzata
sintetizzata attraverso una attraverso l’individuazione di “tipi”,
correlazione fra variabili, in riferimento al concetto weberiano
un modello causale e di “tipo ideale”. Il “tipo ideale” è una
leggi. categoria concettuale che non ha un
corrispettivo nella realtà. È una
La ricerca quantitativa si costruzione che, pur nascendo

18

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

interroga sui perché. dall’osservazione di casi reali, li libera


Il modello causale dai dettagli e dagli accidenti della
raccorda fra loro le realtà per estrarne solo le
variabili secondo la logica caratteristiche essenziali, al fine di
della causazione. utilizzare il modello ottenuto come
concetto limite con cui interpretare la
realtà.

La ricerca qualitativa si interroga sui


come.
La tipologia rappresenta lo schema
teorico che lega i soggetti secondo la
logica della classificazione.
o Portata dei risultati Prende in considerazione Non prende in considerazione un
un ampio numero di casi. numero rilevante di casi. Spesso,
È possibile una maggiore infatti, si presenta lo “studio di caso”,
generalizzabilità dei cioè una ricerca condotta su una sola
risultati. situazione. È possibile una maggiore
specificità dei risultati.

PARAGRAFO 4 – Due diversi modi di conoscere la realtà sociale pp. 68-71


Alla domanda se è scientificamente più corretto fare ricerca sociale utilizzando la
ricerca quantitativa o quella qualitativa sono state date tre risposte che indicano tre posizioni
diverse:
1. la prima riguarda coloro che sostengono che sia l’approccio quantitativo che
qualitativo rappresentino due punti di vista incompatibili, in quanto caratterizzati da diverse
impostazioni filosofiche di fondo.

2. La seconda posizione si trova all’interno della componente quantitativa degli


scienziati sociali e non nega che la prospettiva qualitativa possa essere un valido contributo,
ma comunque tale prospettiva viene usata in un contesto esplorativo prescientifico.

3. La terza posizione, infine, sostiene la piena legittimità, utilità e pari dignità di


entrambi i metodi, e auspica lo sviluppo di una ricerca sociale che, a seconda delle
circostanze e delle opportunità, scelga uno o l’altro approccio oppure entrambi.

Piergiorgo Corbetta condivide questa terza posizione, ma aggiunge una differenziazione. I


due modi di fare ricerca differiscono fra loro perché sono l’espressione diretta e consequenziale di
due diverse visione epistemologiche, la declinazione in termini di metodi di ricerca di due diversi
paradigmi che implicano modi alternativi di intendere la realtà sociale, gli obiettivi della ricerca, il
ruolo del ricercatore, la strumentazione tecnologica. La scelta dell’approccio dipenderà
dall’obiettivo di ricerca.
Per la diversità delle procedure e degli strumenti usati, è impossibile utilizzare entrambe le
ricerche in uno stesso disegno di ricerca. Ricerca quantitativa e ricerca qualitativa portano a
conoscenze diverse, ma ciò non costituisce un limite, ma un arricchimento, in quanto è necessario
un approccio multiplo e differenziato alla realtà sociale per poterla effettivamente conoscere.

PARTE SECONDA – La rivelazione dei dati: tecniche quantitative

19

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

CAPITOLO 3 – La traduzione empirica della teoria pp. 77-121

PARAGRAFO 1 – Struttura “tipo” della ricerca quantitativa pp. 77-78


La ricerca scientifica è un processo creativo di scoperta che si sviluppa secondo un
itinerario prefissato e secondo procedure prestabilite e consolidate all’interno della comunità
scientifica.
L’attributo creativo fa riferimento alle capacità personali del ricercatore, alla sua perspicacia
e alla sua intelligenza intuitiva.
Reichenbach ha distinto due momenti della ricerca scientifica:
1. contesto della scoperta: fa riferimento alla concezione di una nuova idea.
Non ci sono né regole né procedure con cui poter costruire una macchina scopritrice che
assolva la funzione creativa del genio;
2. contesto della giustificazione: si riferisce alle modalità con cui l’idea viene
presentata, giustificata, difesa e messa alla prova.
La ricerca empirica deve svilupparsi in un quadro collettivamente condiviso, in quanto la
ricerca scientifica è un processo collettivo ed è pubblica. Tale aspetto collettivo-pubblica implica
due esigenze:
1. controllo: i concetti e i procedimenti usati devono essere standardizzati, e i
risultati devono essere verificabili anche da altri;
2. cumulatività: la scienza è intesa anche come accumulazione sistematica di
conoscenza.

Affinché una conoscenza sociologica sia oggettiva deve presentare determinate


caratteristiche:
 pubblicità;
 controllabilità;
 ripetibilità.
Nel momento in cui uno studioso intraprende una ricerca sociale deve attenersi ad un
approccio sistematico e utilizzare una strumentazione consolidata dall’esperienza di chi lo ha
preceduto e che è stata accettata dalla comunità scientifica.
Lo scienziato sociale che si trova ad effettuare la ricerca deve seguire un procedimento che
si articola in due momenti:
1. struttura logica dell’itinerario;
2. strumentazione tecnica da utilizzare.

PARAGRAFO 1.1 – Le cinque fasi del processo di ricerca pp. 78-81


L’itinerario tipo utilizzato da un ricercatore sociale nella realizzazione di una ricerca segue
un percorso ciclico, o meglio a spirale, che inizia dalla teoria, attraversa le fasi di raccolta e di
analisi dei dati, e ritorna alla teoria. Teoria e ricerca sono legate nel processo senza fine
dell’accumulazione della conoscenza sociologica.
Questo itinerario tipo si definisce ideale in quanto può subire delle variazioni
nell’applicazione concreta.

Tale percorso si compone di cinque fasi e di cinque processi:

20

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

FASI PROCESSI
1. TEORIA: è generale.
1. DEDUZIONE
2. IPOTESI: rappresenta
un’articolazione parziale della
teoria. È specifica.
2. OPERATIVIZZAZIONE: trasformazione delle
ipotesi in affermazioni empiricamente
osservabili. Si possono distinguere due
momenti:
1) operativizzazione dei concetti: consiste
nel trasformare i concetti in variabili,
cioè in entità rilevabili;
2) scelta dello strumento e delle
procedure di rilevazione;
Alla fine si definisce il disegno della ricerca,
cioè un piano di lavoro sul campo, che stabilisce
le varie fasi dell’osservazione empirica.
3. RACCOLTA DATI o
RILEVAZIONE EMPIRICA
3. ORGANIZZAZIONE DATI (matrice-dati): è il
processo che consiste nel trasformare le
informazioni in una matrice rettangolare, detta
matrice dei dati o matrice casi per variabili.
4. ANALISI DATI: consiste in
elaborazioni statistiche condotte
con l’aiuto di un calcolatore. Si
definiscono dati i materiali
organizzati in modo da poter
essere analizzati; invece si
definiscono informazioni i
materiali empirici grezzi non
ancora sistematizzati.
4. INTERPRETAZIONE delle analisi statistiche
5. RISULTATI
5. INDUZIONE: processo, attraverso il quale si
torna alla teoria, che a partire dalle risultanze
empiriche si confronta con le ipotesi teoriche di
partenza, per arrivare alla conferma o alla
riformulazione della teoria stessa.

PARAGRAFO 2 – Dalla teoria alle ipotesi pp. 81-87

PARAGRAFO 2.1 – Teoria pp. 81-82


Una teoria è un insieme di proposizioni organicamente connesse, che si pongono ad un
elevato livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali sono derivate da
regolarità empiriche e dalle quali possono essere derivate delle previsioni empiriche.
Insieme di proposizioni: si intende un sistema coerente, un insieme connesso tramite regole
logiche, di affermazioni che spesso assumono il carattere di proposizioni causali.
Astrazione e generalizzazione: la teoria supera (trascende) le espressioni empiriche sia dal

21

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

punto di vista concettuale (astrazione) sia da quello del campo di applicazione (generalizzazione).
Derivata da regolarità empirica: la teoria nasce dalla constatazione di ricorrenze nella realtà
osservata.
Produttiva di previsioni empiriche: da una teoria ricavata dall’osservazione di determinate
regolarità empiriche si possono dedurre accadimenti in altri e differenti contesti.
Un esempio di quanto appena detto è la teoria del suicidio di Durkheim. Egli distingue tre
tipi di suicidio:
1. suicidio egoistico;
2. suicidio altruistico;
3. suicidio anomico.
All’interno di questa teoria si deve isolare l’affermazione secondo la quale più elevato è il
tasso di individualismo in un determinato gruppo sociale, maggiore sarà il tasso di suicidi in quel
gruppo. Per individualismo si intende si intende una situazione sociale e culturale in cui la persona
è pianamente libera nelle scelte di vita. Opposto è, invece, il contesto di coesione sociale, nella
quale l’attività di una persona è sottoposta a controlli sociali e le scelte sono per lo più determinate
da norme collettive.
La proposizione teorica enunciata, che lega individualismo e suicidio, è una proposizione
causale, che rappresenta i caratteri di:
 astrazione: i concetti di individualismo, di coesione sociale e di suicidio sono
astratti rispetto alla realtà osservata;
 generalizzazione: la connessione proposta da Durkheim è valida per un vasto
insieme di società;
 deriva da uniformità empiriche: Durkheim ha dedotto e controllato
empiricamente la sua teoria attraverso l’analisi di fonti statiche del suo tempo;
 previsioni empiriche: la teoria da luogo a questo tipo di previsioni.

PARAGRAFO 2.2 – Ipotesi pp. 82-84


Un’ipotesi è una proposizione che implica una relazione fra due o più concetti, che si
colloca su un livello inferiore di astrazione e di generalità rispetto alla teoria e che permette una
traduzione della teoria in termini empiricamente controllabili.
Le caratteristiche dell’ipotesi rispetto alla teoria sono:
 minore astrazione o maggiore concretezza in termini concettuali;
 minore generalità o maggiore specificità in termini di estensione;
 provvisorietà o ipoteticità: l’ipotesi è un’affermazione provvisoria ancora
da provare che deriva dalla teoria, ma attende il controllo empirico per essere confermata.

Le ipotesi sono empiricamente controllabili attraverso le definizioni operative. La


validità di una teorizzazione dipende dalla sua trasformabilità in ipotesi empiricamente controllabili.
Il criterio della controllabilità empirica è il criterio stesso della scientificità. Se una teoria è vaga e
confusa, difficilmente sarà possibile di tali trasformazioni.
Merton distingue tra:
 generalizzazione empirica: è una proposizione isolata che riassume
uniformità relazionali osservate tra due o più variabili. È la semplice descrizione della realtà
e non permette di fare previsioni al di fuori della ripetizione dell’osservazione dalla quale
proviene;
 teoria: permette di avanzare ipotesi su campi diversi. Si può parlare di teoria
quando le uniformità, riassunte dalla generalizzazione, vengono collegate fra di loro e
sussunte1 in un sistema concettuale che si colloca in un livello superiore di astrazione.

PARAGRAFO 2.3 – La trasformazione della teoria in ipotesi pp. 84-87

1 Sussumere: ricondurre un concetto particolare nell’ambito dei un concetto più generale.


22

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

L’itinerario che lega teoria e ipotesi si suddivide in fasi: prima l’elaborazione della teoria
e poi la definizione delle ipotesi, le quali servono per definire il disegno della ricerca, cioè
l’organizzazione della rilevazione. È frequente però che le ipotesi vengano sviluppate dopo aver
raccolto i dati, e con questi confrontate a posteriori.
In altri casi, invece, si ricorre alla teoria dopo aver analizzato i dati. Si procede con
un’analisi secondaria nel momento in cui si analizzano dati raccolti da altri ricercatori in tempi
precedenti.

PARAGRAFO 3 – Dai concetti alle variabili pp. 87-90


Il termine concetto si riferisce al contenuto semantico, cioè al significato, dei segni
linguistici e delle immagini mentali. Concetto deriva dal latino cum capio, cioè prendere assieme e
sta a significare l’azione di ordinare il molteplice sotto un unico atto di pensiero, nonché l’atto di
staccare dall’immediatezza delle impressioni sensibili e dalle rappresentanze particolari
un’astrazione dal significato universale.
Da ciò deriva che il termine ha un significato generalissimo e può includere ogni specie di
segno o procedura semantica, quale che sia l’oggetto cui si riferisce, astratto o concreto, vicino o
lontano, etc.
Inoltre i concetti possono fare riferimento a costruzioni mentali astratte che non si
possono osservare direttamente, come il potere, la felicità o la classe sociale, oppure si possono
riferire ad entità concrete ed immediatamente osservabili, come il fiore o l’operaio.
La traduzione empirica di una teoria si realizza attraverso l’operativizzazione dei
concetti.
Il processo di operativizzazione si compone di diversi passaggi:
1. applicare i concetti ad oggetti concreti, cioè farli diventare attributo o
proprietà di oggetti, che si definiscono unità di analisi. Ad esempio, i concetti di classe
sociale e di autoritarismo possono essere proprietà di individui; il concetto di sottosviluppo
può essere proprietà delle nazioni. Tali proprietà assumono, sugli oggetti ai quali
afferiscono, stati diversi, cioè variano fra le unità di analisi;
2. dare una definizione operativa del concetto-proprietà, cioè stabilirne le
regole per la sua traduzione in operazioni empiriche. Ad esempio, si può dare una
definizione operativa del potere di un ruolo aziendale attraverso un numero di subordinati
che da esso dipendono;
3. applicare le due precedenti regole ai casi studiati. Questa è la fase di
operativizzazione in senso stretto.

Si definisce variabile la proprietà operativizzata; si definiscono modalità gli stati


operativizzati della proprietà; ad ogni proprietà viene assegnato un valore simbolico, solitamente
costituito da un numero.
Ad esempio, il concetto di “livello culturale” può essere rilevato attraverso la proprietà
“titolo di studio” riferita ad individui, la quale assume stati diversi nei vari soggetti studiati; questi
stati vengono registrati nelle cinque modalità di “senza titolo”, “licenza elementare”, “licenza
media”, “diploma”, “laurea”; ad esse vengono assegnati i valori 0,1,2,3,4.

PARAGRAFO 4 – Unità di analisi pp. 90-91


L’unità di analisi è una definizione astratta e singolare, che rappresenta l’oggetto sociale al
quale appartengono le proprietà studiate nella ricerca empirica. Tali proprietà vengono localizzate
nel tempo e nello spazio, definendo la popolazione di riferimento della ricerca.
I casi sono multipli e concreti, e costituiscono gli oggetti specifici della ricerca empirica.
Nel momento in cui si vuole controllare empiricamente una teoria attraverso una ricerca
empirica quantitativa, nel definire il disegno della ricerca, è necessario stabilire l’unità di analisi.
Quest’ultima, nelle ricerche sociologiche, può essere rappresentata da:
 evento;
23

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

 individuo;
 aggregato territoriale;
 gruppo-organizzazione-istituzione;
 prodotto culturale.

PARAGRAFO 4.1 – Differenti tipi di unità di analisi pp. 91-93


I differenti tipi di unità di analisi sono:
 individuo: la sociologia è spesso definita come la scienza dell’interazione
sociale, da cui consegue che l’unità di analisi sociologiche dovrebbe essere l’attore sociale,
cioè l’individuo umano;
 collettivo: rappresentato da:
 aggregato di individui: un esempio sono le fonti statistiche ufficiali,
basate su aggregati territoriali di individui (comuni, province, regioni, etc.). Le
variabili derivano da operazioni matematiche effettuate su variabili rilevate a
livello individuale (reddito medio, percentuale disoccupati, etc.);
 gruppo-organizzazione-istituzione: le variabili sono rappresentate
dalle variabili strutturali o globali e l’unità di rilevamento è il collettivo stesso.
Un esempio di unità di analisi appartenenti a questo gruppo sono famiglie,
associazioni, sette religiose, gruppi etnici, sindacati, partiti, organizzazioni
lavorative;
 evento: esempi di eventi-unità di analisi sono l’elezione politica, gli scioperi,
le guerre, i colpi di stato, etc.;
 rappresentazione simbolica/prodotto culturale: l’unità di analisi è
rappresentata da messaggi della comunicazione di massa, scritta, orale o audiovisiva: articoli
di quotidiani, testi letterari, programmi elettorali, fotografie, discorsi politici, etc.

PARAGRAFO 5 – Variabili pp. 93-101


Una variabile è una proprietà operativizzata di un oggetto. Un concetto può essere
operativizzato in diversi modi; può essere associato come proprietà a differenti unità di analisi e può
dare luogo a svariate variabili.
Una variabile può “variare” fra diverse modalità, ognuna di queste identificata da un
valore, corrispondenti a diversi stati della proprietà. Ad esempio, il genere è variabile poiché può
assumere gli stati di maschio e femmina.
Una variabile si può realizzare:
 fra gli oggetti (unità di analisi) studiati;
 nel tempo, sullo stesso caso: si parla di studio longitudinale o diacronico;
 fra i casi, nello stesso tempo: si parla di studio trasversale o sincronico.

Una variabile è l’elemento centrale della ricerca empirica.


I criteri di distinzione fra le variabili sono:
1. manipolabilità:
 variabili manipolabili: possono essere controllate e modificate dal
ricercatore;
 variabili non manipolabili: non sono modificabili dal ricercatore (genere,
età, istruzione, consumi culturali, etc.). La maggior parte delle variabili della ricerca sociale
e sociologica sono non manipolabili.

2. Distinzione fra variabili dipendenti e variabili indipendenti:


 variabili indipendenti: sono quelle che influenzano;
 variabili dipendenti: sono quelle influenzate.
Esempi: nella relazione fra classe sociale e orientamento politico, la classe è la
variabile indipendente e l’orientamento politico è la dipendente. Se la relazione di
24

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

dipendenza è di tipo causale, la causa è la variabile indipendente e l’effetto è la dipendente.

Si parla di relazione multivariata quando le variabili prese in considerazione sono


più di due. In questo caso la variabile dipendente è una sola ed è rappresentata dal fenomeno
che si vuole studiare, mentre le variabili indipendenti sono più di una e costituiscono le
spiegazioni.
o Variabile in stimolo: è la variabile manipolata “causa” o “trattamento”;
o variabile risposta: è la variabile “effetto” o “reazione allo stimolo”.

 Variabili esogene: indipendenti ed esterne al modello;


 variabili endogene: interne al modello, in alcune relazioni indipendenti e in
altre dipendenti.

3. Distinzione fra variabili latenti e variabili osservate:


 variabili latenti: non sono direttamente osservabili, in quanto rappresentano
concetti generali o complessi (status socioeconomico, intelligenze, coesione sociale, etc.),
per operativizzare i quali si ricorre a variabili osservate.

4. Distinzione fra variabili individuali e variabili collettive:


o variabili collettive: derivano da una operazione matematica fatta sulle
variabili individuali. Le variabili collettive attribuite agli individui sono dette variabili
contestuali. Si possono distinguere due gruppi:
1) variabili aggregate: le proprietà del collettivo derivano dalle proprietà dei
singoli componenti del gruppo (reddito medio di una certa categoria di lavoratori, consumi
per abbigliamento delle famiglie, etc.)
2) variabili globali: sono le caratteristiche esclusive del gruppo e non derivano
da proprietà dei membri che lo compongono. Ad esempio, la classificazione delle società
secondo che pratichino lo scambio monetario o il baratto.

La definizione operativa è un atto arbitrario e soggettivo; in essa trovano fondamento i


caratteri di scientificità e di oggettività della ricerca sociale.
Tale definizione fornisce le direttive affinché si possa replicare la stessa rilevazione anche da
altri ricercatori. In questo modo riduce la soggettività delle affermazioni del ricercatore, le quali non
sono più opinioni, ma affermazioni dotate di sostegno empirico.

PARAGRAFO 6 – Variabili nominali, ordinali e cardinali pp. 101-102


Le variabili vengono classificate in base alle loro caratteristiche logico-matematiche, in
quanto fanno riferimento alle operazioni logiche o matematiche. Con questa classificazione si
stabilisce quali procedure di elaborazione statistica si possano applicare a queste variabili.
In base a queste caratteristiche si distinguono:
1) variabili nominali;
2) variabili ordinali;
3) variabili cardinali.

PARAGRAFO 6.1 – Variabili nominali pp. 102-103


Si ha una variabile nominale quando la proprietà da registrare assume stati discreti non
ordinabili. Stati discreti vuol dire che la proprietà può assumere solo una serie di stati finiti (la
religione può essere cattolica o musulmana, ma non può darsi una via di mezzo fra le due). Stati non
ordinabili significa che non si può stabilire un ordine, una gerarchia fra di essi (si può dire che una
persona è di nazionalità italiana, svedese, cinese, ma non si possono ordinare tali stati secondo una
sequenza gerarchica).
Le uniche relazioni che si possono stabilire fra le modalità di una variabile nominale non
25

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

ordinabile sono le relazioni di uguale e di diverso (un cattolico è uguale, per ciò che riguarda la
religione, a un altro cattolico e diverso da un protestante).
Gli stati della variabile operativizzati sono detti modalità, i simboli assegnati alle
modalità sono detti valori. I valori hanno l’obiettivo di identificare la categoria e solitamente sono
espressi con un numero, che non ha alcun significato numerico.
In questo caso è la classificazione la procedura di operativizzazione, che permette di
passare dalla proprietà alla variabile.
Gli stati delle proprietà vengono classificati in categorie che devono avere determinati
requisiti:
a) esaustività: ogni caso studiato si deve poter collocare in una delle categorie
previste;
b) mutua esclusività: un caso non può essere classificato in più di una
categoria;
c) unicità del criterio di divisione: ad esempio non si può classificare la
nazionalità usando categorie come italiana, francese, cinese, etc.

Le variabili dicotomiche sono un caso particolare di variabili nominali. Sono esempi di


variabili dicotomiche: maschio e femmina, occupato e non occupato, sposato e non sposato, etc.

PARAGRAFO 6.2 – Variabili ordinali pp. 103-104


Una variabile è ordinabile quando la proprietà da registrare assume stati discreti ordinabili.
Sono esempi il titolo di studio (licenza elementare, licenza media, diploma, laurea), il ceto sociale
(alta borghesia, media borghesia, piccola borghesia, operai e contadini), un questionario in cui
l’intervistato deve scegliere le risposte fra categorie ordinate del tipo: molto, abbastanza, poco, per
nulla.
In queste variabili è dunque un ordinamento che permette di stabilire relazioni di
uguaglianza e disuguaglianza fra le modalità, e di instaurare relazioni di ordine, cioè di “maggiore
di” e “minore di”.
In questo caso la procedura di operativizzazione delle proprietà è l’ordinamento o
assegnazione a modalità ordinate, la quale tiene conto del requisito di ordinabilità degli stati
della proprietà. Dunque l’attribuzione dei valori alle singole modalità non potrà essere casuale, ma
dovrà rispettare un criterio che preservi l’ordine fra gli stati.

PARAGRAFO 6.3 – Variabili cardinali pp. 104-107


Sono cardinali le variabili per le i quali i numeri che ne identificano le modalità non sono
solo delle etichette, ma hanno un significato numerico, cioè i numeri hanno proprietà ordinali, ma
anche cardinali. Sono esempi di variabili cardinali l’età, il reddito, il numero dei figli.
Fra le modalità di una variabile di questo tipo si possono stabilire relazioni di uguaglianza e
di diversità (un’età di 20 è diversa da una di 22), relazioni di ordine (20 anni è minore di 22), si
possono effettuare operazioni di somma e di sottrazione fra i valori, e operazioni di moltiplicazione
e divisione fra le distanze esistenti fra due valori.
Le variabili cardinali si ottengono attraverso due processi base di operativizzazione delle
proprietà:
1. misurazione: si ha quando si verificano due condizioni:
1) la proprietà da misurare è continua, cioè può assumere infiniti stati
intermedi in un dato intervallo fra due stati qualsiasi;
2) si possiede un’unità di misura prestabilita e convenzionale che permette di
confrontare la grandezza da misurare con una grandezza di riferimento.
Un esempio di lunghezza misurata attraverso l’unità di misura convenzionale è il
metro;
2. conteggio: si ha quando si verificano due condizioni:
1) la proprietà da registrare è discreta, cioè assume stati finiti, non frazionati;
26

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

2) esiste un’unità di conto, cioè un’unità elementare e naturale che è


contenuta un numero finito di volte nella proprietà dell’oggetto. Sono esempi il numero di
figli, il numero di stanze in un appartamento, il numero di addetti in un’impresa, etc.

Importante è la caratteristica della cumulatività dei tre tipi di variabili che sono
immaginabili su livelli in cui ognuno include le proprietà dei livelli inferiori.
Un sottoinsieme delle variabili cardinali è quello delle variabili quasicardinali. Esse sono
proprietà continue, che variano in modo graduale fra gli individui, ma non riescono a passare dalla
condizione di proprietà continue a quella di variabile cardinale. Questo limite è causato da:
 la reattività dell’essere umano al processo di osservazione;
 l’interazione dell’osservatore con il soggetto studiato;
 l’irriducibile individualità dell’essere umano;
 la complessità delle variabili sociali.
Tale limite è stato superato attraverso l’applicazione della “tecnica delle scale” o “scaling”,
la quale si propone di misurare le opinioni, gli atteggiamenti e i valori.
Sono esempi la religiosità, l’autoritarismo, la depressione, la coesione sociale, il pregiudizio,
etc.

Per quanto riguarda le tecniche di elaborazione statistica applicabili alle variabili, si


distinguono le tecniche per le variabili cardinali e quelle per le variabili nominali. Per le variabili
ordinali vengono usate le tecniche per le variabili cardinali.

PARAGRAFO 7 – Concetti, indicatori e indici pp. 107-113


Nel processo di traduzione empirica, un concetto viene ancorato ad un oggetto (unità di
analisi), ne diviene una proprietà, quindi viene operativizzato, cioè rilevato in forma di variabile. Ad
esempio il concetto di pratica religiosa viene definito come proprietà dei soggetti umani e viene
operativizzato con il numero di volte che una persona va in chiesa in un mese. Se il concetto da
operativizzare è, invece, quello di religiosità sarà più difficile darne una definizione operativa.
Ci sono diverse varietà di concetti:
 concetti semplici: genere, occupazione, titolo di studio, razza, nazionalità,
partito votato, pratica religiosa, etc.
 concetti complessi: si definiscono anche costrutti, perché includono concetti
più semplici. Sono esempi l’alienazione, l’integrazione, la religiosità, il potere,
l’intelligenza, etc.

I concetti si possono classificare in base alla scala di generalità, cioè sulla base di un
continuum dato dal diverso grado di generalità-specificità.
La maggior parte dei concetti sociologici si pongono ad un elevato livello di generalità e
sono concetti astratti. Per definire in termini osservativi tali concetti (ad esempio, l’alienazione) si
fa ricorso agli indicatori.
Gli indicatori sono concetti più semplici, specifici, traducibili in termini osservativi, legati a
concetti generali dal rapporto di indicazione o rappresentanza semantica (cioè di significato).
Gli indicatori, proprio perché sono specifici, rilevano solo un aspetto della complessità di
un concetto generale. Da ciò la necessità di ricorrere a più indicatori per rilevare operativamente
lo stesso concetto. Lazarsfeld propone l’espressione universo degli indicatori e propone di
chiamare dimensioni le articolazioni in cui viene specificato un concetto.
Un indicatore può essere collegato a più concetti, dal contenuto semantico anche diverso. Ad
esempio, nelle società culturalmente e politicamente dominate dalle istituzioni ecclesiastiche, la
partecipazione ai riti religiosi può essere indicatore di conformismo sociale piuttosto che di
religiosità.
Si possono distinguere due parti di un indicatore:
1. parte indicante: è la parte del contenuto semantico che l’indicatore ha in
27

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

comune con il concetto del quale è assunto come indicatore;


2. parte estranea: è la parte del contenuto semantico del concetto estranea
all’indicatore.
La scelta di un indicatore è arbitraria.

La rilevazione empirica di un concetto non direttamente osservabile si svolge


attraverso quattro fasi:
1. articolazione del concetto in dimensioni: si opera una riflessione teorica, in
cui il concetto viene analizzato nelle sue componenti principali di significato, cioè sulle sue
dimensioni;
2. scelta degli indicatori: consiste nell’individuare gli indicatori afferenti ad
ogni dimensione;
3. operativizzazione degli indicatori: consiste nella loro trasformazione in
variabili;
4. formazione degli indici: tale fase interviene solo nel caso di concetti
complessi, che richiedono più indicatori. Quando un concetto si scompone in dimensioni e si
rileva attraverso una molteplicità di indicatori, si pone l’esigenza di sintetizzare in unico
indice la pluralità della variabili prodotte. Un indice può essere unidimensionale o
tipologico. Nel primo caso esso ha la funzione di ordinare, nel secondo la funzione di
classificare.

L’indice è una combinazione (logica o matematica) di indicatori, volta a ricostruire il


concetto generale.
L’itinerario di traduzione di un concetto in operazioni empiriche, che si costituisce dalla fase
di articolazione in dimensioni, dalla definizione degli indicatori e dalla loro definizione operativa,
non sempre si realizza seguendo tale ordine.

Esempio: Traduzione operativa del concetto di partecipazione politica

CONCETTO DIMENSIONI INDICATORI


Partecipazione 1. Partecipazione invisibile
politica (legata ad atteggiamenti o a
comportamenti privati):

o interesse alla politica; o discutere di politica;

 coinvolgimento  arrabbiarsi per la


emotivo; politica;

 informazione politica.  esposizione a


informazione politica;
 grado di conoscenza dei
fatti politici.

2. Partecipazione visibile
(implica comportamenti
pubblici):

 elettorale;  voto;

 partitica;  iscrizione ad un partito;


28

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

 dedicare tempo al
partito;
 versamenti di denaro al
partito;

 associativa;  partecipazione ad
associazioni;
 firme di referendum e di
petizioni;
 partecipazione ad
assemblee e cortei;

 partecipazione a comizi
 azioni sporadiche. e dibattiti;
 scrivere lettere ai
giornali e reclami ad
autorità pubbliche;
 rivolgersi a uomini
politici.

PARAGRAFO 8 – Errore di rilevazione pp. 113-117


L’errore di rilevazione rappresenta lo scarto fra il concetto teorico e la variabile empirica.
Tale errore viene distinto in due componenti:
1. errore sistematico o distorsione: è un errore costante, cioè si presenta in
tutte le rilevazioni. Il suo valore medio sul totale dei casi osservati non è pari a zero, ma
assume un valore positivo o negativo;
2. errore accidentale: è un errore variabile, che varia da rilevazione a
rilevazione. Varia in ipotetiche repliche della stessa rilevazione sullo stesso individuo, e
varia passando da un campione di individui ad un altro. Si tratta di oscillazioni che tendono
ad una media pari a zero.
Il valore osservato (variabile), cioè il valore della variabile empirica così come viene
rilevato, è la somma di tre elementi:
1. valore vero: è il valore non osservato né osservabile del concetto che la
variabile intende rilevare;
2. errore sistematico;
3. errore accidentale.

L’itinerario che dai concetti conduce alle variabili si compone di due fasi:
1. fase teorica o indicazione: è la fase in cui si scelgono gli indicatori che
devono rappresentare un concetto. In questa fase è ricorrente l’errore sistematico;
2. fase empirica o operativizzazione: si possono compiere sia errori
sistematici che accidentali. Il processo di operativizzazione si articola in diversi
momenti, in ognuno dei quali si possono commettere degli errori:
 fase di selezione delle unità studiate – errori di selezione: sono errori
dovuti al fatto che una determinata ricerca non viene operata su tutta la popolazione, ma su
un campione di soggetti. Si distinguono tre tipi di errori di selezione:
1) errore di copertura: è dovuto al fatto che la lista della popolazione che si
possiede e dalla quale si estraggono i casi del campione non è completa;
2) errore di campionamento: il fatto di condurre la ricerca su un campione,
invece che sull’intera popolazione, comporta un errore che, con un campione diverso,
sarebbe esso pure differente;
3) errore di non risposta: alcuni soggetti, anche se appartenenti al campione da
29

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

studiare, possono non essere raggiunti dall’intervistatore o possono rifiutarsi di rispondere.

 Fase di rilevazione dei dati o di osservazione – errori di osservazione:


possono derivare da quattro fonti:
1) errori dovuti all’intervistatore;
2) errori dovuti all’intervistato;
3) errori dovuti allo strumento;
4) errori dovuti al modo di somministrazione.

 Fase di trattamento dei dati – errori nel trattamento dei dati: si verificano
dopo che i dati sono stati raccolti e consistono in errori di codifica, di trascrizione, di
memorizzazione su supporto informatico, etc.

Tale modalità articolata di vedere l’errore si chiama approccio dell’errore globale, il quale
non è stimabile. Ciò che si può stimare è l’errore di campionamento, una componente dell’errore
globale, provocato dal fatto di operare su un campione invece che sull’intera popolazione.

PARAGRAFO 9 – Attendibilità e validità p. 117


L’attendibilità ha a che fare con la riproducibilità del risultato ed indica il grado con cui una
certa procedura di traduzione di un concetto in variabile produce gli stessi risultati in prove ripetute
con lo stesso strumento di rilevazione (stabilità), oppure con strumenti equivalenti (equivalenza).
Ad esempio, una bilancia è tanto più attendibile quanto più, replicando la pesata di uno stesso
oggetto, si ottiene un peso prossimo al primo, sia che la replica sia effettuata con la stessa bilancia,
sia con un’altra bilancia.
L’attendibilità viene associata all’errore accidentale, il quale è individuale attraverso
repliche della rilevazione sullo stesso soggetto.
La validità, invece, fa riferimento al grado con il quale una certa procedura di traduzione di
un concetto in variabile effettivamente rileva il concetto che intende rilevare. La validità viene
associata all’errore sistematico, il quale si presenta costantemente ad ogni rilevazione e, quindi,
rende lo stato effettivo della proprietà studiata non conoscibile.

PARAGRAFO 9.1 – Attendibilità pp. 118-119


La prima forma per misurare l’attendibilità è la stabilità nel tempo della rilevazione, la
quale si può misurare attraverso la tecnica di test-retest, consistente nel replicare la rilevazione
sugli stessi soggetti e nel calcolare la correlazione fra i due risultati. Tale soluzione è, però,
difficilmente applicabile alle scienze sociali per due motivi:
1) la reattività del soggetto umano;
2) il cambiamento che può intervenire nel soggetto fra prima e seconda
rilevazione.

La seconda forma per misurare l’attendibilità è l’equivalenza, dove l’attendibilità è


misurata attraverso la correlazione fra due procedure diverse, ma simili:
1) suddivisione a metà: l’attendibilità è data dalla correlazione fra due metà
dello stesso test. Le domande di un test costituito da una batteria di domande vengono
suddivise in due gruppi, ad esempio domande pari e domande dispari;
2) forme equivalenti: due test sono detti paralleli quando si presuppone che
misurino lo stesso valore sottostante. Solitamente si tratta di test della stessa lunghezza, con
domande formulate nello stesso modo, sulla stessa domanda, etc. Ad esempio, due test di
intelligenza, dove le capacità matematiche sono rappresentate dalla soluzione di due blocchi
di problemi fra loro simili.

La terza forma per misurare l’attendibilità è quella che si basa sul presupposto che gli
30

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

errori accidentali variano fra test e test, e fra domanda e domanda all’interno di uno stesso test.
Sono state così proposte le misure basate sulla coerenza interna, in cui l’attendibilità è stimata
attraverso la correlazione delle risposte ad ogni domanda con le risposte a tutte le altre domande.

PARAGRAFO 9.2 – Validità pp. 119-121


Il concetto di validità è articolabile in due procedure di convalida:
1. validità di contenuto: indica il fatto che l’indicatore o gli indicatori prescelti
per un concetto coprano l’intero dominio di significato del concetto. Tale tipologia di
convalida può avvenire solo su un piano logico e per questo motivo è detta anche convalida
logica. Essa consiste in una scomposizione analitica del concetto studiato con l’obiettivo
finale di assicurarsi che tutte le dimensioni siano coperte dagli indicatori prescelti. La
convalida si fonda sulla corrispondenza interna fra indicatore e concetto;
2. validità per criterio: la convalida si fonda sulla corrispondenza fra
l’indicatore e un criterio esterno, correlato al concetto. Si distinguono diverse tipologie
di validità per criterio:
 validità predittiva: consiste nel correlare il dato dell’indicatore con un
evento successivo ad esso connesso. Ad esempio, il risultato di un test di accesso
all’università può essere correlato con i successivi voti agli esami degli studenti, per vedere
quanto sia stato un buon predittore del rendimento negli studi;
 validità concomitante: l’indicatore è correlato con un altro indicatore
rilevato nello stesso momento temporale. Ad esempio, un indicatore di conservatorismo
politico può essere correlato con una domanda sul partito votato;
 validità per gruppi noti: l’indicatore viene applicato a soggetti dei quali è
nota la posizione sulla proprietà da rilevare. Ad esempio, un indicatore di religiosità si può
applicare a persone appartenenti a gruppi religiosi e assidui frequentatori della chiesa, per
controllare se effettivamente l’indicatore registra per queste persone valori alti di religiosità;
 validità di costrutto: si intende la rispondenza di un indicatore alle attese
teoriche in termini di relazioni con altre variabili. Ad esempio, si sa che esiste una
correlazione inversa fra livello di istruzione e pregiudizio razziale. Se si mette a punto un
nuovo indicatore di pregiudizio, la sua validità per costrutto può essere valutata sulla base
della sua rispondenza a queste attese. Se tali attese non sono confermate, si può concludere
che probabilmente l’indicatore considerato non è un valido indicatore di pregiudizio, ma
rileva altro.

CAPITOLO 4 – Causalità ed esperimento pp. 123-158

PARAGRAFO 1 – Concetto di “causa” pp. 123-125


Nonostante il concetto di “causa” appartenga all’idea stessa di “scienza”, rimane uno dei più
controversi sul piano filosofico e uno dei più difficili da tradurre in termini operativi. Tale problema
è presente in tutte le scienze, ma soprattutto nelle scienze sociali, che solo raramente possono
utilizzare l’esperimento, lo strumento principe per valutare empiricamente una relazione causale.
Per secoli i filosofi hanno trattato il concetto di causa:
 per Aristotele la nozione di “causa” rappresentava il fondamento della
scienza e il suo principio di intelligibilità (che può essere comprensibile attraverso la pura
ragione), al punto che “conoscenza e scienza consistono nel rendersi conto delle cause e non
sono nulla fuori di questo”;
 Hume, invece, ha proposto la critica dell’indimostrabilità della connessione
31

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

causale necessaria, la non deducibilità dell’effetto dalla causa e l’arbitrarietà di ogni


previsione;
 di recente i concetti di “funzione” e di “probabilità” hanno sostituito il
concetto di “causazione deterministica”.

In generale si può affermare che “il pensiero causale appartiene completamente al livello
teoretico e che le leggi causali non possono mai essere dimostrate empiricamente”.

Mario Bunge sostiene che per esprimere il concetto di “causazione” non è sufficiente
l’enunciato:

Se C, allora E

poiché tale affermazione comporta che la relazione fra C (causa) ed E (effetto) possa valere
sia “talvolta” che “sempre”, mentre il principio causale deve sostenere il realizzarsi di E tutte le
volte che si realizza C.

Secondo Bunge, dunque, ciò che serve è un enunciato che esprima l’idea che quella causale
è una categoria di connessione genetica e che designa una modalità di produzione di cose a partire
da altre cose. L’enunciato finale per esprimere il nesso causale è:

Se C, allora (e soltanto allora) E sempre prodotto da C

L’elemento che emerge in questo enunciato è l’idea di produzione: cioè non ci si limita ad
affermare l’esistenza di una “congiunzione costante” fra due fenomeni, ma si afferma che “oltre ad
essere accompagnato dalla causa, l’effetto viene da essa generato”.
L’azione di produzione si riferisce ad un processo ontologico; ha una realtà indipendente
dall’osservatore e dalle sue percezioni; non si possono osservare e misurare le azioni di produzione.
Probabilmente, si possono osservare solo alcune covariazioni e serie temporali. Il semplice fatto che
X e Y varino insieme in modo prevedibile, e che una trasformazione di X preceda sempre una
trasformazione di Y, non ci assicura mai che X produca una trasformazione in Y.
Sul piano empirico non si può provare l’esistenza di una legge causale, cioè non si può
provare che la variazione di X produce la variazione di Y. Ciò è invece possibile sul piano teorico,
ma sono necessari dei fatti osservativi. Dunque, se osserviamo empiricamente che una variazione di
X è regolarmente seguita da una variazione di Y, tenendo costanti tutte le altre possibili cause di Y,
abbiamo un forte elemento empirico di corroborazione (confermare, avvalorare) dell’ipotesi che X
sia causa di Y.

PARAGRAFO 2 – Corroborazione empirica della relazione causale pp. 125-127


Per poter corroborare (affermare, avvalorare) empiricamente un’ipotesi di relazione causale
fra due variabili sono necessari elementi che appartengono a tre aspetti:
1. covariazione fra variabile indipendente e dipendente: in primis è
necessario osservare la variazione della variabile indipendente, di quella cioè che sul
piano teorico si ipotizza essere la causa. Contemporaneamente al variare della variabile
indipendente, si osserva una variazione della variabile dipendente. Nel linguaggio
statistico si dice che bisogna osservare la covariazione fra le due variabili: al variare
dell’una varia anche l’altra. Questo aspetto, però, non è sufficiente, da solo, per poter
parlare di causazione. C’è uno slogan in proposito: correlation is not causation, cioè
covariazione non significa causazione. Il concetto di covariazione appartiene all’ambito
empirico; quello di causazione, invece, all’ambito teorico. Una covariazione non può mai
essere presentata come unica prova empirica dell’esistenza di una relazione causale;
32

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

2. direzione della causalità: si deve osservare che al variare della variabile


indipendente consegua una variazione della variabile dipendente, ma non è vero il
contrario. È possibile stabilire ciò in due modi:
1. attraverso la manipolazione della variabile indipendente: ciò è possibile
solo mediante l’esperimento, poiché esso prevede una variazione artificiale
(manipolazione) di una delle due variabili. Se il ricercatore riesce a far variare con la sua
azione la variabile X e, a seguito di ciò, osserva una variazione della variabile Y, non ci sono
dubbi sul fatto che la sua direzione va da X a Y e non viceversa;
2. attraverso il criterio della successione temporale, il quale nasce
dall’osservazione che la variazione della variabile indipendente X precede la variazione
della dipendente Y. Ad esempio, se si sostiene che una socializzazione impregnata di valori
religiosi (X) genera in età adulta un atteggiamento più intollerante verso le ideologie diverse
(Y). Il fatto che la prima variabile (X) preceda nel tempo la seconda (Y) stabilisce la
direzione del nesso causale;

3. controllo sulle altre possibili variabili: si deve escludere la variazione


simultanea al variare della variabile indipendente, di altre variabili ad essa correlate
che potrebbero essere loro stesse, invece che la variabile indipendente studiata, le cause del
variare della dipendente. Tale elemento è necessario per poter parlare di controllo empirico
della relazione causale.

CAPITOLO 5 – L’inchiesta campionaria: parte prima pp. 159-200

PARAGRAFO 1 – L’inchiesta campionaria nella ricerca sociale pp. 159-164


Per inchiesta campionaria si intende un modo di rilevare informazioni interrogando gli
stessi individui oggetto della ricerca, appartenenti ad un campione rappresentativo, mediante una
procedura standardizzata di interrogazione, la quale garantisce la comparabilità delle risposte e
la possibilità di analizzarle con gli strumenti della statistica, allo scopo di studiare le relazioni
esistenti tra le variabili.
L’inchiesta campionaria richiede la formulazione di domande, più frequentemente in forma
orale, talvolta in forma scritta. Tali domande sono direttamente poste agli individui, i quali
costituiscono l’oggetto della ricerca.
Poiché normalmente la popolazione oggetto di studio è rappresentata da numero elevato di
soggetti, è impossibile interrogarli tutti e quindi si presenta la necessità di scegliere un campione
sul quale raccogliere le informazioni.
33

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Il campione scelto deve essere rappresentativo, cioè deve essere in grado di riprodurre le
caratteristiche dell’intera popolazione oggetto di studio, per cui deve essere scelto seguendo regole
statistiche prestabilite e deve essere di dimensioni consistenti.
Affinché i dati possano essere analizzati con tecniche statistiche è necessario che anche le
risposte, oltre alle domande, siano standardizzate e cioè organizzate sulla base di uno schema di
classificazione comune a tutti i soggetti, chiamato matrice-dati.
La matrice-dati è una tabella, le cui righe si compongono dai casi e le colonne dalle
variabili, in ogni cella è presente un dato, cioè il valore assunto da una particolare variabile su un
particolare caso.
Ciò porta a distinguere l’inchiesta campionaria dal sondaggio:

INCHIESTA CAMPIONARIA SONDAGGIO


 il ricercatore non si limita a rilevare  è un’indagine esplorativa volta ad accertare
l’esistenza e la consistenza di un l’esistenza e la consistenza di un fenomeno;
determinato fatto sociale, ma vuole
anche controllare empiricamente le
ipotesi;

 ha alle spalle un’ampia problematica


teorica, la quale regola la struttura
della rilevazione dei dati;

 tratta una grande varietà di tematiche  gli argomenti non sono trattati in profondità,
e consiste in una lunga e articolata perché si mira solo a conoscere le opinioni
intervista; che emergono in superficie. Si compone di
poche domande, a volte anche da una, e può
durare pochi minuti;

 i dati vengono analizzati in modo  i dati vengono analizzati in modo


descrittivo, ma si aggiungono descrittivo.
correlazioni fra variabili, modelli
causali, etc.

L’interrogazione di un individuo si compone di domande e di risposte, ognuna delle quali


possono essere formulate in maniera standardizzata o libera. La combinazione delle caratteristiche
standardizzate/libera della domanda e della risposta porta alla definizione di tre strumenti di
rilevazione:
1. questionario: domande e risposte standardizzate;
2. intervista strutturata: domande standardizzate e risposte libere;
3. intervista libera: né domande né risposte standardizzate.

L’inchiesta campionaria è la ricerca condotta attraverso un questionario. Essa è stata


applicata fin dall’antichità nella ricerca sociale.
La diffusione dell’inchiesta campionaria ha avuto grande successo soprattutto negli Stati
Uniti, perché caratterizzati dal pensiero neopositivista e perché nella società americana mancavano
dati statistici sulla popolazione, quindi tale strumento ha permesso di conoscere il reale stato della
popolazione.

34

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

PARAGRAFO 2 – La standardizzazione ovvero l’invarianza dello stimolo pp. 164-168


PARAGRAFO 2.1 – Approccio oggettivista “versus” approccio costruttivista pp. 164-166

APPROCCIO OGGETTIVISTA APPROCCIO COSTRUTTIVISTA


 il dato sociale può essere rilevato oggettivamente,  il dato sociale non viene né
cioè con una procedura simile a quella osservato né raccolto né
dell’osservazione; registrato, ma viene costruito o
 il rapporto intervistato-intervistatore deve generato nell’interazione fra i
essere spersonalizzato. L’intervistatore non deve due soggetti studiante e
alterare lo stato dell’oggetto studiato. Egli non studiato.
deve essere freddo e distaccato, ma attraverso dei
segnali, deve indicare all’intervistato che sta
facendo un buon lavoro con le sue risposte; deve
mostrarsi interessato ai problemi della persona con
cui parla, ma non deve eccedere nella familiarità e
deve avvicinare l’intervistato con molta fiducia.

PARAGRAFO 2.2 – Approccio uniformista “versus” approccio individualista pp. 166-167

APPROCCIO UNIFORMISTA APPROCCIO INDIVIDUALISTA


 esistono delle uniformità empiriche, delle  si sottolinea la rilevanza delle
regolarità nei fenomeni sociali e nei differenze interindividuali,
comportamenti umani, i quali sono l’irriducibilità del soggetto umano
classificabili e standardizzabili. Esistono, a qualsiasi forma di
cioè, delle uniformità alle quali può essere generalizzazione e
ricondotto l’agire dei singoli soggetti standardizzazione, e la sua
individuali; comprensibilità al ricercatore nella
 prevede la standardizzazione dello misura in cui questi riesca ad
strumento di rilevazione-interrogazione: instaurare un rapporto empatico
il questionario con domande e risposte con i singoli individui. Ogni azione
prefissate. sociale viene considerata un evento
Il questionario presenta però dei limiti: unico.
- è uguale per tutti e va somministrato
a tutti nello stesso modo;
- l’oggetto non può raccontare la
realtà in cui vive al di sopra e al di
sotto del livello consentito dal
questionario.

PARAGRAFO 2.3 – L’obiettivo del minimo comun denominatore pp. 167-168


L’obiettivo della posizione oggettivista-uniformista è ottenere la neutralità dello
strumento di rilevazione, cioè ottenere l’invarianza dello stimolo. Ciò è finalizzato alla
comparabilità delle risposte, le quali risultano comparabili perché gli intervistati sono stati tutti
sottoposti alle stesse domande.
Nonostante gli stimoli siano uniformi, non è detto che siano tali anche i significati delle
espressioni. Il linguaggio comune della domanda standardizzata non assicura comunanza di
significato per tutti gli intervistati. A questo punto il ricercatore si trova a dover scegliere fra il
questionario, cioè la tecnica che di interrogazione che massimizza la standardizzazione e la ricerca
di uniformità, e l’intervista non strutturata, ossia la tecnica che massimizza l’individualità del
soggetto studiato e del suo rapporto con il soggetto studiante.
Nel momento in cui il ricercatore sceglie la tecnica del questionario e dell’inchiesta
campionaria, egli privilegia la ricerca di uniformità rispetto all’inseguimento dell’individualità,
35

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

cioè sceglie la ricerca di ciò che accumuna gli individui piuttosto che di ciò che li distingue.
Dunque, il ricercatore privilegia lo studio del minimo comun denominatore nel comportamento
umano che può essere classificato, uniformato e confrontato.

PARAGRAFO 3 – L’affidabilità del comportamento verbale pp. 168-173


Riguardo il fatto se il comportamento verbale possa essere un’affidabile fonte di
esplorazione della realtà sociale, molti scienziati si mostrano pessimisti sulla possibilità di
comprendere tale realtà attraverso le risposte delle interrogazioni degli uomini.
Le risposte alle interrogazioni degli uomini possono non essere attendibili per due
motivi:
1. desiderabilità sociale delle risposte o domande di prestigio o risposte
normative: la desiderabilità sociale è la valutazione, socialmente condivisa, che in una
determinata cultura viene data ad un determinato atteggiamento o comportamento
individuale. Se un atteggiamento o un comportamento è fortemente connotato in senso
positivo o negativo in una cultura, una domanda che abbia questo come oggetto può
generare risposte distorte, poiché l’intervistato si può mostrare riluttante 2 a rilevare opinioni
indesiderabili e può essere tentato di dare la migliore immagine di sé, anche se non veritiera.
Di fronte ad un intervistatore sconosciuto, il soggetto intervistato teme di essere giudicato
negativamente e cerca così di apparire come una persona rispettabile.

Alla desiderabilità sociale si aggiunge la menzogna inconscia. Gli psicologi hanno


riconosciuto nella negazione dei fatti non coincidenti con l’immagine che uno ha di se stesso
un meccanismo ricorrente nei processi mentali. Si definisce processo di razionalizzazione
l’inconscia propensione a negare l’evidenza dei fatti quando questi entrano in
contraddizione con le credenze di fondo del soggetto intervistato. Per cui la risposta, che non
riferisce il vero comportamento, rivela l’immagine che l’intervistato ha di se stesso.

2. Mancanza di opinioni (non-attitudes) o pseudo-opinioni: nelle ricerche


sociali i soggetti vengono spesso interrogati su tematiche complesse e le domande sono
proposte nella forma di batterie, cioè si presenta all’intervistato una sequenza di
affermazioni, per ognuna delle quali egli deve esprime il suo disaccordo o il suo accordo. È
chiaro che su alcune tematiche gli intervistati non hanno mai riflettuto e quindi non hanno
un opinione in proposito. Dunque si crea nella dinamica dell’intervista una sorta di pressione
a rispondere per la quale molti intervistati scelgono a caso una delle possibili risposte.
A questi due concetti se ne aggiunge un altro:
3. intensità: si riferisce al fatto che una domanda standardizzata rileva
l’opinione, ma non la sua intensità e il suo radicamento. La domanda del questionario
produce risposte indifferenziate fra di loro e il ricercatore non è in grado di distinguere al
loro interno le opinioni profondamente radicate ed emotivamente coinvolgenti, da quelle
superficiali. Dunque la tecnica del questionario non è in grado di distinguere le opinioni
intense e stabili da quelle deboli e volubili.

PARAGRAFO 4 – Sostanza e forma delle domande pp. 173-179


Per la stesura di un questionario sono necessari:
a) l’esperienza del ricercatore;
b) conoscenza della popolazione alla quale il questionario viene
somministrato;
c) la chiarezza delle ipotesi di ricerca.

PARAGRAFO 4.1 – Dati socio grafici, atteggiamenti e comportamenti pp. 173-175

2 Riluttante: che non vuole, che esita a fare qualcosa; restio.


36

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Si distinguono diverse tipologie di domande:


 domande relative a proprietà sociografiche di base: si riferiscono alla
descrizione delle caratteristiche sociali di base dell’individuo (genere, età, luogo di nascita,
classe sociale d’origine, professione, stato civile, localizzazione geografica).

 Domande relative ad atteggiamenti: fanno riferimento all’area delle


motivazioni, dei sentimenti, delle valutazioni, dei giudizi, dei valori. Gli atteggiamenti sono
complessi e multidimensionali. Ad esempio, il soggetto interrogato può essere favorevole
all’aborto in certe situazioni e contrario in altre. Inoltre gli atteggiamenti variano fra le
persone in termini di intensità e tale elemento è difficile da rilevare con un questionario.

 Domande relative a comportamenti: si fa riferimento al campo dell’azione.


I comportamenti sono inequivoci e per questo motivo una domanda relativa ad un’azione
avrà necessariamente una risposta esatta. In secondo luogo i comportamenti sono
osservabili. Un’azione può essere osservata da una terza persona e può lasciare una traccia
oggettiva.

 Domande fattuali: riguardano i fatti e tutto ciò che è osservabile dall’esterno.


Rappresentano le domande relative a proprietà sociografiche di base e quelle relative ai
comportamenti.

 Domande motivazionali: riguardano le opinioni, gli atteggiamenti e le


motivazioni. Rappresentano le domande relative agli atteggiamenti.

PARAGRAFO 4.2 – Domande aperte e domande chiuse pp. 175-179

DOMANDA APERTA DOMANDA CHIUSA


 l’intervistatore ha piena libertà  l’intervistatore pone all’intervistato sia la
nella formulazione della domanda che una serie di risposte tra cui
risposta; scegliere quella che più rappresenta il suo modo
di vedere;
 costrizione delle risposte precodificate;
 risposta spontanea;  le risposte precodificate fanno sì che si arrivi già
 risposte devono essere codificate all’obiettivo della rilevazione e permettono di
in un numero finito e limitato di costruire subito la matrice-dati;
categorie per poter costruire la  offre a tutti uno stesso quadro di riferimento;
matrice dati;  facilita il ricordo: ogni alternativa proposta è
 le risposte aperte sono spesso come un promemoria per l’intervistato;
contraddittorie, tautologiche,  stimola l’analisi e la riflessione;
incomprensibili, confuse,  costringe ad abbandonare vaghezza e
generiche e ambigue; ambiguità;
 l’intervistatore si rende conto se  richiede una duplice interpretazione-
l’intervistato ha realmente comprensione da parte dell’intervistato;
compreso il senso della  nasconde l’incomprensione grossolana della
domanda oppure no. domanda;
 non è praticabile quando le possibili alternative di
risposta non sono chiare al ricercatore, quando
esse sono troppo numerose o riguardano
argomenti complessi, quando gli intervistati
hanno un basso livello culturale, etc.

Tre sono i limiti della domanda aperta: Tre sono i limiti della domanda chiusa:
37

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

1. vaghezza delle espressioni; 1. la domanda chiusa lascia fuori tutte le alternative


2. mancanza di omogeneità negli di risposta non previste dal ricercatore;
interventi degli intervistatori; 2. le alternative di risposta influenzano la risposta
3. difficoltà al momento definitiva dell’intervistato, agevolano le pseudo-
dell’interpretazione e della opinioni e inducono la risposta a caso;
codifica delle risposte. 3. le risposte offerte non hanno lo stesso significato
per tutti.

PARAGRAFO 5 – Formulazione delle domande pp. 180-193


Caratteristiche della struttura delle domande:
 semplicità di linguaggio: il linguaggio deve essere:
- accessibile;
- adeguato alle caratteristiche del campione studiato;
- semplice in un questionario autocompilato, in quanto durante la compilazione
non è presente l’intervistatore;
- semplice anche in un questionario con intervistatore, perché gli intervistati
possono non ammettere di non aver capito.

 Lunghezza delle domande: le domande devono essere concise, sia per


ridurre il tempo dell’intervista, sia per evitare che l’intervistato perda l’attenzione. È
preferibile, però, utilizzare domande lunghe nel caso di problematiche più complesse, dando
così modo all’intervistato di riflettere di più durante la lettura della domanda e di fornire una
risposta più articolata.

 Numero delle alternative di risposta: nelle domande chiuse le alternative di


risposta non devono essere troppo numerose, soprattutto se vengono presentate a voce. Nel
caso le alternative siano numerose, è bene presentarle in forma scritta.

 Definizioni ambigue: non bisogna usare termini dal significato non ben
definito.

 Parole dal forte connotato negativo: evitare termini carichi di significato


emotivo, soprattutto se negativo. Ad esempio, “Lei picchia suo figlio?”, la parola
“picchiare” ha un forte contenuto negativo.
 Domande sintatticamente complesse (per esempio, doppia negazione): è
meglio evitare di sottoporre al giudizio dell’intervistato una frase negativa, che contenga
disapprovazione o condanna verso un certo oggetto, personaggio, comportamento.
L’intervistato che approva quel comportamento o quel personaggio deve esprimersi
negativamente.

 Domande con risposta non univoca: sono da evitare le domande multiple


e le domande la cui problematica non è ben articolata. Sono multiple le domande
formulate in modo tale che in una domanda ce ne siano più di una.

 Domande non discriminanti: le domande devono essere formulate in modo


da operare delle discriminazioni nel campione degli intervistati. Una domanda che ottiene
il 90% delle risposte risulta inutile. Per questo motivo, nel formulare le alternative di
risposta è bene evitare risposte che attirino ovviamente una quota elevata di consensi.

 Domande tendenziose o viziate o a risposta pilotata: a volte,


inconsapevolmente, il ricercatore costruisce una domanda, la quale, per gli aggettivi usati,
per gli esempi che riporta, orienta l’intervistato verso una delle possibili alternative di
38

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

risposta, invece di presentarle in modo equilibrato.

 Comportamenti presunti: non si devono dare per scontati comportamenti


che non lo sono. Ad esempio, non chiedere all’intervistato per chi ha votato nelle ultime
elezioni, senza prima chiedergli se è andato a votare. A questo punto bisogna distinguere tra:
- domande filtro: permettono di selezionare gli intervistati prima di porre una
domanda;
- domande condizionate: poste solo se alla domanda filtro il soggetto ha
risposto in un determinato modo.

 Focalizzazione nel tempo: è importante perché facilita il ricordo e rende più


difficile la sovrapposizione del comportamento ideale a quello reale. Ad esempio, le
domande “Con che frequenza lei abitualmente legge il giornale?” oppure “Quante volte va
al cinema al mese?” sono esposte al rischio che l’intervistato risponda in base al “dover
essere”, all’immagine che ha di sé e che vuole dare. A queste domande, dunque, è bene
aggiungerne una seconda riferita ad un preciso momento temporale.

 Concretezza/astrazione: la domanda astratta può dare luogo a risposte


generiche o superficiali. La concretezza, invece, facilita la riflessione,
l’immedesimazione nel problema reale; rende più difficile il fraintendimento.

 Comportamenti e atteggiamenti: gli atteggiamenti risultano essere più


ambigui ed esposti a risposte normative rispetto ai comportamenti. È, quindi, opportuno,
quando è possibile, focalizzare la domanda su un comportamento invece di restare
nell’ambito dell’opinione.

 Desiderabilità sociale delle risposte: è meglio formulare domande


legandole il più possibile a casi concreti e in modo da rendere accettabile anche la risposta
meno desiderabile. Oppure si possono formulare domande equilibrando la desiderabilità
delle risposte. Oppure si possono formulare domande in terza persona, spostando così
l’attenzione su una persona diversa dall’intervistato. Nonostante ciò, tali accorgimenti non
eliminano del tutto gli effetti della desiderabilità sociale.

 Domande imbarazzanti: ci sono determinate questioni delicate, come il


comportamento sessuale, il reddito, i comportamenti devianti (droga, alcolsmo), etc. difficili
da studiare con il questionario somministrato dall’intervistatore. In questi casi si può
chiedere all’intervistato di autocompilare il questionario.

 Mancanza d’opinione e non so: la risposta “non so” è legittima come tutte
le altre e può essere inserita nelle alternative proposte. Bisogna, però, tener presente che il
soggetto insicuro, che non ha un’opinione sull’argomento che gli è stato proposto o che si
sente a disagio a rispondere “non so”, risponderà a caso oppure ricercherà un indizio
qualunque per scoprire la risposta giusta.

 Intensità degli atteggiamenti: sugli atteggiamenti gli intervistati non si


distinguono solo in favorevoli e contrari, ma è importante anche saper cogliere la gradazione
di intensità di tali posizioni, in quanto è l’intensità a determinare il comportamento.

 Distorsione sistematica delle risposte: si distinguono due tipi di errore, cioè


due tipi di distorsione:
1. acquiescenza: consiste nella tendenza da parte degli intervistati a scegliere le
39

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

risposte che esprimono accordo, cioè a dare risposte affermative piuttosto che negative.
Tipico atteggiamento di persone con basso livello culturale;
2. uniformità delle risposte: consiste nel fatto che, di fonte ad una batteria di
domande tutte con lo stesso tipo di alternative di risposta, ci possono essere intervistati che,
per pigrizia o per mancanza di opinioni, rispondono sempre allo stesso modo. Tale problema
si risolve formulando le risposte in modo che un individuo coerente debba rispondere in
modo positivo ad alcune domande e in modo negativo ad altre.

 Effetto memoria: le domande relative a fatti e comportamenti avvenuti nel


passato comportano difficoltà dovute a incompletezze o distorsioni nel ricordo. Per
rafforzare la validità di domande basate sul ricordo, si usano alcuni accorgimenti:
 stabilire limiti temporali al ricordo;
 utilizzare punti di riferimento temporali relativi ad eventi più salenti di quello
studiato, per fissare la data di un avvenimento passato;
 presentare all’intervistato liste di possibili risposte.
Un comportamento riferito al passato difficile da ricostruire attraverso il ricordo è
quello relativo al voto. È frequente l’effetto del salto sul carro del vincitore, cioè, nel periodo
successivo al voto, la maggior parte degli intervistati tende a dichiarare di aver votato i
vincitori delle elezioni, anche se magari hanno votato diversamente.

 Sequenza delle domande: in merito a questo punto si devono seguire


determinati criteri:
1. rapporto intervistatore-intervistato: tale rapporto è asimmetrico, perché
l’intervistatore ha dimestichezza con l’intervista e ne conosce le finalità. L’intervistato,
invece, non sa perché viene interrogato, non capisce perché sia stato scelto proprio lui e ha
paura di sbagliare le risposte. L’intervistatore deve rassicurare l’intervistato e fargli capire,
con le prime domande facili, non troppo invadenti né personali, come funziona il
questionario.

2. Stanchezza dell’intervistato: il questionario deve essere strutturato in modo


da non far perdere concentrazione e attenzione all’intervistato. Per questo motivo le
domande più impegnative saranno collocate nella parte centrale dell’intervista, lasciando
alla fine le domande che non richiedono riflessione. La durata media di un questionario deve
essere di circa 45 minuti nel caso dell’intervista faccia-a-faccia e di 25 minuti nel caso
dell’intervista telefonica.

3. Sequenzialità dell’intervista: l’intervista deve fluire in modo naturale e i


temi trattati devono essere sviluppati in sequenza logica. Nella sequenza delle domande, si
rispetta il criterio a imbuto, cioè del passaggio da domande generali a domande
particolari.

4. Effetto contaminazione: in alcuni casi la risposta ad una domanda è


influenzata dalle domande precedenti.

PARAGRAFO 6 – Batterie di domande pp. 194-196


Spesso nei questionari le domande sono tutte formulate nello stesso modo, cioè stessa
domanda introduttiva e stesse alternative di risposta, ma varia l’oggetto a cui si riferiscono.
Tali domande vengono presentate all’intervistato in unico blocco e prendono il nome di batterie di
domande. Gli obiettivi di questa tipologia di domande sono:
 risparmiare spazio sul questionario e tempo di intervista;
 facilitare la comprensione del meccanismo di risposta, il quale una volta
compreso per la prima domanda è uguale anche per altre;
40

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

 migliorare la validità della risposta;


 permettere al ricercatore, durante l’analisi dei dati, di costruire indici sintetici
che riassumono in unico punteggio le diverse domande della batteria.

Una stessa domanda, applicata a diversi oggetti, può essere formulata in:
 termini assoluti: ogni elemento della batteria è un’entità autosufficiente, alla
quale l’intervistato può rispondere indipendentemente dalle altre domande;
 termini relativi: la risposta è il risultato di un confronto con le altre possibili
risposte. È migliore agli effetti della valutazione del punto di vista dell’intervistato, perché
permette di differenziare meglio le diverse posizioni.

Nella ricerca sociale, una ricerca che usa la tecnica delle batterie di domande è la tecnica
delle scale o scaling, applicata soprattutto all’area della misura degli atteggiamenti.
Un limite delle batterie di domande è quello di produrre pseudo-opinioni e risposte
meccanicamente tutte uguali fra loro.

PARAGRAFO 7 – Organizzazione della rilevazione pp. 196-200


Le fasi che precedono la rilevazione dei dati sono:
 studio esplorativo preliminare: il ricercatore, prima di poter formulare
delle domande, deve conoscere l’oggetto del suo studio. Nel caso del questionario
standardizzato, formato da domande chiuse, il ricercatore deve conoscere le questioni e gli
interrogativi, ma anche le possibili risposte. È bene che gli intervistatori comincino con
interviste a domande aperte, condotte su campioni appartenenti alla stessa popolazione
oggetto di studio e utilizzino le loro risposte per costruire le alternative alle domande chiuse.

 Pre-test: una volta preparato il questionario, è necessario collaudarlo con la


tecnica del pre-test. Il questionario per la sua rigidità, una volta stampato e una volta iniziata
la rilevazione, non può più essere modificato. La prova generale o pre-test è, quindi,
necessaria per rendersi conto delle eventuali modifiche da fare prima dell’inizio della
rilevazione vera e propria. È sufficiente condurre tale prova generale su poche decine di
casi, su un campione di soggetti aventi le stesse caratteristiche appartenenti alla popolazione
studiata. Le interviste saranno effettuate dagli intervistatori e nelle stesse condizioni
dell’intervista vera e propria.
Il pre-test ha anche l’obiettivo di determinare la durata dell’intervista, in quanto
spesso il questionario ha una sovrabbondanza di domande, le quali saranno eliminate dal
questionario definitivo.

 Preparazione e supervisione degli intervistatori: la fase di preparazione


consiste in un primo incontro fra équipe di ricerca e intervistatori, con lo scopo di presentare
la ricerca, descrivere il suo disegno ed illustrare lo strumento di rilevazione (questionario). A
seguito di questo incontro ci saranno le interviste di prova (pre-test), alla fine delle quali ci
sarà un ulteriore incontro per discutere sul funzionamento dello strumento. Una volta
formulato il questionario definitivo, si inizia la rilevazione vera e propria. Contestualmente
alla rilevazione, i supervisori si occuperanno della consulenza (risoluzione di problemi nati
in corso di rilevazione) e del controllo.

 Contatto iniziale con i soggetti intervistati: sono importanti le modalità con


cui l’intervistatore si presenta, sia in termini di aspetto esteriore che di motivazioni. Nel
momento in cui si presenta, l’intervistatore deve chiarire alcuni punti all’intervistato:
- chi è il committente delle ricerca;
- obiettivi della ricerca;
- motivo per cui ci si è rivolti a lui;
41

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

- importanza della collaborazione del soggetto intervistato;


- assicurare l’anonimato delle risposte.

 Forma grafica del questionario:


o è importante distinguere nelle domande il testo che deve essere letto
dall’intervistato e le indicazioni riservate al ricercatore. Solitamente le istruzioni vengono
scritte con caratteri maiuscoli;
o indicare chiaramente i passaggi da una domanda all’altra, le domande da
saltare, etc.;
o il questionario deve essere compatto graficamente, cioè non deve comporsi di
troppe pagine, in modo da non impressionare l’intervistato, ma anche per facilitare il
passaggio da una domanda alla successiva;
o è bene numerare ogni risposta, in modo da rendere più facile l’operazione di
codifica.

Per quanto riguarda i questionari autocompilati, è necessario integrare altri accorgimenti:


o devono essere autocompilativi, cioè l’intervistato non deve leggersi le
istruzioni preliminari;
o le domande devono essere semplici e brevi;
o l’impostazione grafica deve essere compatta e chiara;
o si devono evitare salti di domande e domande condizionate.

CAPITOLO 6 – L’inchiesta campionaria: parte seconda pp. 201-250

PARAGRAFO 1 – Modalità di rilevazione pp. 201-202

PARAGRAFO 1.1 – Interviste faccia-a-faccia pp. 202-205


Nella storia della ricerca sociale inizialmente le informazioni sui soggetti da studiare
venivano reperite attraverso una conversazione personale, cioè faccia-a-faccia, fra intervistatore e
intervistato. La rivoluzione informatica ha sostituito la registrazione carta-e-penna con un
computer in cui l’intervistatore legge le domande e registra le risposte (Capi è l’acronimo di
Computer Aided Personal Interviewing).

VANTAGGI
 il testo dell’intervista scorre sul video di fronte all’intervistatore;
 la risposta viene subito digitata e messa in memoria;
 il computer gestisce lo svolgimento dell’intervista e segnala le incongruenze;
 si eliminano le fasi di codifica e di immissione dati;
 l’intervistatore può trasmettere via internet il suo file di interviste al centro di rilevazione;
 l’investimento della dotazione di un computer ad ogni intervistatore viene ammortizzato dai
risparmi sulle fasi di codifica e immissione dati.
42

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Nonostante tutte queste innovazioni, la figura dell’intervistatore rimane centrale e una


parte della qualità dell’intervista dipende dalla sua prestazione e dal modo in cui imposta il rapporto
con l’intervistato.

CARATTERISTICHE DELL’INTERVISTATORE
 l’intervistatore segue un approccio oggettivista, cioè deve mantenersi neutrale e
distaccato;
 non può influenzare con nessun comportamento l’intervistato;
 non può esprimere approvazione o disapprovazione per le affermazione rilasciate
dall’intervistato;
 deve rispondere con frasi o gesti ambigui;
 deve fare in modo che l’intervistato cooperi positivamente e quindi che non perda
l’attenzione o l’interesse, che capisca il significato delle domande e che non si verifichino
fraintendimenti;
 dovrà costruire un rapporto amichevole con l’intervistato, ma nello stesso tempo
neutrale, in grado di trasmettere l’idea che non ci siano risposte giuste o sbagliate;
 si preferiscono intervistatori donne di mezza età, appartenenti ad un ceto sociale superiore,
ma non troppo, a quello degli intervistati;
 l’intervistatore non deve avere grandi aspirazioni professionali, deve abituarsi ad un lavoro
discontinuo e part-time, modestamente retribuito e collocato negli intervalli della giornata e
non nelle ore centrali;
 l’intervistatore deve possedere un aspetto esteriore e optare per un abbigliamento neutrali,
non vistosi né eccentrici;
 le aspettative degli intervistatori hanno il potere di influenzare le risposte degli intervistati.
Le distorsioni delle risposte possono essere provocate dall’ideologia e dalla struttura dei
valori degli intervistatori e generate dalle aspettative che l’intervistatore ha sull’intervistato.
Tali aspettative sono spesso trasmesse in modo inconscio dall’intervistatore, attraverso le
espressioni del viso oppure tramite le sottolineature e l’enfasi nel leggere le domande e le
alternative di risposta;
 è importante che l’intervistatore sia preparato e quindi consapevole del tipo di interazione
che si crea tra lui e l’intervistato; deve essere formato su come rispondere ad eventuali
richieste di chiarimento o fraintendimenti. Da qui la necessità di organizzare corsi di
formazione per l’intervistatore;
 l’intervistatore deve mostrarsi convinto dell’importanza del suo lavoro e della ricerca, deve
essere coinvolto nelle finalità della rilevazione.

L’approccio contrario a quello oggettivista è l’approccio costruttivista, in cui


l’intervistatore interagisce con l’intervistato.

PARAGRAFO 1.2 – Questionari autocompilati pp. 205-208


Sono i questionari che il soggetto si compila da solo, senza che ci sia un intervistatore.
Sono esempi di questionari autocompilati quelli distribuiti agli studenti di una classe, alle persone
riunite in un’assemblea, alle famiglie e i questionari postali.

VANTAGGI SVANTAGGI
 risparmio nei costi di  bassa percentuale di risposte;
rilevazione;  mentre le altre tipologie di questionari vengono
 l’intervistato può compilarlo compilati da un intervistatore formato ed istruito, i
quando vuole, anche a più questionari autocompilati spesso vengono svolti da
riprese; persone che magari non ne hanno mai compilato
 è privo di elementi che uno, o magari sono scarsamente motivati a farlo o
43

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

identificano l’intervistato e, a farlo bene;


quindi, garantisce maggiore  è opportuno realizzare questionari semplici, che
garanzia dell’anonimato; prevedono una compilazione lineare;
 non ci sono distorsioni da parte  la lunghezza del questionario non può superare
dell’intervistatore; determinati limiti;
 possibilità di compilazione  distorsione del campione a causa
anche da parte di intervistati dell’autoselezione, poiché non c’è certezza della
residenti in zone distanti dal casualità della scelta degli intervistati e quindi i
centro di rilevazione o isolate. risultati non sono effettivamente estensibili a tutta
la popolazione oggetto di studio;
 è necessario intervistare persone con una livello di
istruzione medio-alto;
 mancanza di controlli sulla compilazione;
 ritorno dei questionari, ossia è molto difficile
superare il 50% di risposte.

Si distinguono due tipologie di rilevazione e quindi di autocompilazione:


1. rilevazione di gruppo: un esempio è il questionario rivolto agli studenti e
distribuito in classe, alla presenza di un operatore che si occupa di controllare la buona
compilazione e si mostra disponibile ad eventuali chiarimenti. In questo modo è più facile
evitare errori grossolani e autoselezione;

2. rilevazione individuale: bisogna distinguere fra due situazioni di


restituzione del questionario compilato:
1) restituzione vincolata: un esempio è il censimento, perché un rilevatore
deposita il questionario presso le famiglie e poi lo ritira una volta compilato. In questo modo
si evitano gli errori grossolani di compilazione e l’autoselezione, visto che non è il rilevatore
a decidere a chi lasciare il questionario;

2) restituzione non vincolata: un esempio è il questionario postale, il quale


consiste nell’inviare per posta il questionario alla lista di nominativi che rappresentano la
popolazione studiata, con allegati una lettera di presentazione della ricerca e una busta per il
ritorno.

La riuscita di un questionario dipende da quattro fattori:


1) istituzione che patrocina l’indagine: l’importanza, il prestigio e il credito
per cui l’istituzione stessa è conosciuta. Il questionario sarà preso maggiormente in
considerazione se effettuato da una università che da uno sconosciuto istituto di ricerca;
2) una lunghezza media, un’ordinata forma grafica e risposte semplici;
3) questionario rivolto ad una parte della popolazione con qualche
caratteristica in comune (laureati in una università, soci di una associazione, etc.);
4) tipologia di sollecito: le risposte vanno sollecitate una o due volte, attraverso
l’invio di una prima lettera di sollecito, di una seconda lettera di sollecito accompagnata da
una copia del questionario e, infine, di una telefonata di sollecito.

PARAGRAFO 1.3 – Interviste telefoniche pp. 208-212


Negli ultimi due decenni del secolo scorso l’intervista telefonica ha sostituito l’intervista
faccia-a-faccia.

VANTAGGI SVANTAGGI
 grande rapidità di rilevazione su  la mancanza del contatto personale, fa sì che
44

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

un campione nazionale di l’intervistato si senta meno coinvolto


dimensioni consistenti; nell’intervista e ciò genera risposte superficiali
 costi molti più bassi dell’intervista e date a caso;
faccia-a-faccia;  la mancanza del contatto personale genera
 maggiori concessioni da parte presto il logoramento del rapporto
degli intervistati, che non si intervistatore-intervistato e per questo motivo
fiderebbero a far entrare un l’intervista deve essere breve;
estraneo in casa, e maggiormente  è impossibile usare materiale visivo per
l’anonimato, anche se dal numero facilitare la comprensione delle opzioni di
telefonico è identificabile ricerca;
l’intervistatore;  l’intervistatore non può raccogliere dati non
 permette di raggiungere, a parità verbali. Nell’intervista faccia-a-faccia, invece,
di costi, intervistati presenti su si registravano anche il tipo di abitazione, il
ogni territorio della nazione; contesto dell’intervista, etc.
 facilita la preparazione degli  non è possibile raggiungere tutti i settori sociali,
intervistatori e la loro poiché non tutte le famiglie sono munite di
supervisione; telefono e alcune lo hanno sostituito con il
 consente di utilizzare il computer telefono cellulare. Ciò genera degli errori di
in fasi di rilevazione (Cati è copertura che inficiano (invalidano) la
l’acronimo di Computer Aided rappresentatività dei campioni ottenuti via
Telephone Inerviewing). telefono;
 molto spesso anziani e persone con un titolo di
studio inferiore sono sottorappresentate nelle
interviste telefoniche, in quanto vengono
sostituiti da un membro della famiglia più
giovane e più istruito;
 il poco tempo a disposizione fa sì che si
presentino domande semplici, sintetiche,
essenziali ed elementari e non è possibile
chiedere all’intervistato di ampliare le proprie
risposte.

Vengono condotti telefonicamente anche i sondaggi politico-elettorali, ma anche questi


subiscono l’errore di copertura e di non risposta.

PARAGRAFO 1.4 – Questionari telematici pp. 212-217


Nel primo decennio di questo secolo si sono affermate nella ricerca sociale la distribuzione, la
compilazione e la raccolta dei questionari via internet.
Tipologie di questionari telematici:
 inchieste via web o web surveys: bisogna distinguere tra:
 email surveys o internet come semplice veicolo di trasmissione delle
informazioni: il questionario viene preparato attraverso un word processor, viene
spedito al destinatario in allegato ad una mail, viene compilato dal destinatario
stesso, il quale lo rispedisce al mittente sempre come allegato ad una mail;
 web surveys o internet come gestore-amministratore della raccolta di
informazioni: l’intervistato accede ad un sito web sul quale compila il questionario
online. Il ricercatore ha creato precedentemente il questionario utilizzando un
software specifico.

VANTAGGI SVANTAGGI
 il questionario presenta una  non tutte le persone possiedono
grafica più elegante ed è un accesso ad internet oppure se
45

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

direttamente compilabile online; lo possiedono, hanno capacità


 sono implementati diverse ad utilizzarlo.
automaticamente i meccanismi
delle domande filtro (se si
risponde in certo modo si passa
alla domanda “x”, altrimenti alla
domanda “y”);
 si possono inserire degli
esperimenti;
 il questionario è compilabile a più
riprese, una volta salvate le
risposte già date;
 le risposte vengono direttamente
scaricate in un datatest, senza la
mediazione di una codifica.

Ogni volta che si possiede una lista di destinatari della ricerca e si possiedono i loro
recapiti telefonici, postali e mail è possibile effettuare una ricerca utilizzando sistemi
misti di rilevazione, in cui oltre al questionario online, si procede anche con
questionari telefonici e faccia-a-faccia.

 Panel online: è un gruppo stabile di persone che accetta di partecipare attraverso la


connessione internet ad inchieste telematiche per un certo periodo di tempo, su temi anche
diversi. Il suo scopo non è quello di monitorare il cambiamento, ma quello di offrire al
ricercatore un campione di persone disponibili ad essere ripetutamente intervistate. Il panel
online viene usato anche per la rilevazione ripetuta delle stesse domande sulle stesse persone
in tempi diversi. Il problema di un panel online è la sua rappresentatività, per cui è
importante il modo in cui si reclutano le persone che vi appartengono. A questo punto si
può distinguere tra:
o campione probabilistico: le persone che faranno parte del panel sono scelte
indipendente dalla loro volontà e dalla dimestichezza che hanno con internet. In
questo caso nel panel non possono entrare amici o familiari di chi ne fa già parte, a
meno che questi non siano stati selezionati casualmente;

o campione non probabilistico: le persone che vogliono entrare a far parte di un


panel si candidano volontariamente. Gli inviti per partecipare ad una ricerca si
possono trovare sui siti internet, sui social networks oppure si ricevono per posta
elettronica. Un panel costruito da persone volontarie non garantisce la casualità e la
rappresentatività del campione, cioè non ci sono basi scientifiche che giustificano la
generalizzazione di ciò che è emerso dal campione.

46

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

CAPITOLO 8 – Le fonti statistiche ufficiali pp. 283-315

PARAGRAFO 2 – Le statistiche ufficiali pp. 286-287


La parola “statistica” deriva da stato e il suo significato iniziale era quello di “scienza che
descrive gli stati”. L’attributo “statistica”, per indicare tale scienze, fu istituito da Gerolamo
Ghilini nel 1589; successivamente tale attributo divenne sostantivo per poter designare la disciplina
e aveva per oggetto la descrizione quantitativa delle caratteristiche più importanti di una
nazione. Con il passare del tempo e con lo sviluppo degli aspetti matematici legati alla disciplina e,
soprattutto, con l’introduzione del calcolo delle probabilità, il termine “statistica” assunse il
significato di “scienza del collettivo”, di metodo scientifico per l’analisi quantitativa dei fenomeni
collettivi. Oggi nel termine statistica si possono distinguere due significati:
1. scienza statistica: scienza che studia, con metodi matematici fondati sul
calcolo delle probabilità, fenomeni collettivi e di massa;
2. dati statici: raccolta di dati che dà una visione d’insieme, anche solo
orientativa, su determinati fatti o fenomeni.

L’attributo “ufficiali”, che potrebbe essere sostituito dall’attributo “pubbliche”, indica che
queste raccolte di dati vengono effettuate dall’amministrazione pubblica. L’origine dei censimenti è
antichissima, in quanto l’esigenza di “contare” la popolazione, le famiglie, i beni si è presentata fin
dalle prime forme organizzative dello stato e si è affermata con la nascita dei grandi imperi
47

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

centralizzati dell’antichità.
La fonte statistica ufficiale ha come obiettivi studiare un fatto sociale, controllare
empiricamente una teoria, individuare le possibili cause di un fenomeno, ma la funzione
principale rimane quella descrittiva.
Il dato statistico si distingue dall’inchiesta campionaria per quattro aspetti:
1. produzione;
2. unità di analisi;
3. contenuto;
4. ampiezza delle rilevazione.

PARAGRAFO 2.1 – La produzione pp. 287-289


Riguardo la produzione dei dati da parte della pubblica amministrazione, è importante
distinguere tra due tipologie di dati:
1. dati generati dall’attività amministrativa: in ogni amministrazione
vengono prodotti degli atti amministrativi per finalità burocratiche che lasciano una traccia,
la quale se ben organizzata e raccolta produce dati statistici (ad esempio le statistiche
demografiche: al momento della nascita, della morte, di un matrimonio, è necessario
compilare dei moduli che, una volta registrati, costituiscono l’informazione di base che porta
alla costituzione del dato statistico);
2. dati raccolti a fine conoscitivo: tale tipologia di dato non è generalizzabile a
tutte le società moderne. Si tratta di una tradizione tipica degli stati europei.

Si parla di rilevazione indiretta tutte quelle volte che il dato statistico è il sottoprodotto di
un dato amministrativo.
Si parla, invece, di rilevazione diretta quando l’informazione viene raccolta per poter
conoscere un determinato fenomeno sociale. È questo il caso del censimento, che viene
organizzato dallo stato per conoscere le caratteristiche delle popolazione. I censimenti moderni
nascono nel 1800 e si svolgono ogni 10 anni. In Italia il primo è stato svolto nel 1861. Oltre al
censimento sono stati inaugurate anche altre forme di rilevazione diretta dei dati: indagini
campionarie ad hoc, volte a studiare aspetti particolari della società, e l’ISTAT ha promosso il
“Sistema di indagini multiscopo sulle famiglie”, il quale offre alla ricerca sociale nuove
opportunità grazie alle risorse informatiche.
PARAGRAFO 2.2 – Le unità di analisi pp. 289-291
Le statistiche ufficiali si distinguono dall’inchiesta campionaria perché la loro unità di
analisi non è costituita dall’individuo, bensì dal territorio (sezioni elettorali o censuarie, comuni,
province, regioni, contee, nazioni, etc.). Nonostante inizialmente il dato sia stato raccolto su
individui e quindi in base ad unità di rilevamento, il dato stesso si può analizzare solo se è
proposto a livello aggregato, cioè in base ad un’unità di analisi.
Se le unità di analisi riguardano un singolo individuo, si parla allora di dati individuali.
Se l’unità di analisi riguarda un collettivo, si parla di dati aggregati, i quali derivano da una
operazione di conteggio effettuata sugli individui di un collettivo, che porta ad un totale. A ciò
segue una normalizzazione basata sulla popolazione totale del collettivo per poter annullare le
differenze di ampiezza dei collettivi e poterli confrontare.
Nel caso delle statistiche ufficiali il collettivo è rappresentato da un territorio. In questo
modo si possono contare i matrimoni civili, il numero di voti ad un partito, il numero di biglietti
cinematografici venduti; si ottiene, così, un rapporto statistico che permette di confrontare i casi e
costituisce la variabile aggregata.
A seguito della rivoluzione informatica i dati provenienti da statistiche ufficiali non sono
disponibili solo in forma tabellare e aggregata, ma anche in forma di record individuali. In Italia ciò
è oggi possibile per indagini particolari e per i censimenti. Si tratta dei microdati e quindi
dell’analisi secondaria, cioè il ricercatore applica le tecniche di analisi dei dati individuali a
informazioni già raccolte.
48

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

PARAGRAFO 2.3 – Il contenuto p. 291


L’informazione proveniente da un dato amministrativo non nasce né da un’osservazione
né da un’interrogazione, ma dalla registrazione di uno stato di fatto (nascita, acquisto, cambio di
residenza, iscrizione scolastica, etc.) e proprio per questo si parla di dati fattuali. Questi dati non
rilevano opinioni, atteggiamenti e motivazioni.
Questa caratteristica delle informazioni delle fonti statistiche rimane tale anche quando le
informazioni derivano da indagini campionarie condotte ad hoc, per fini conoscitivi.
Questa autolimitazione è dovuta al fatto che le statistiche in origine riguardavano solo
azioni, comportamenti e dati di fatto; ma anche perché, trattandosi di materia gestita dallo stato, il
suo gestore non può invadere la sfera privata.

PARAGRAFO 2.4 – L’ampiezza della rilevazione pp. 291-292


Il dato statistico viene rilevato sull’intera popolazione. Si possono distinguere due
tipologie di rilevazione:
1. rilevazione esaustiva (o totale): usata dal dato statistico prodotto dalle
pubbliche amministrazioni, in quanto è il risultato di una registrazione condotta su tutta la
popolazione (tutte le nascite, tutti i decessi, tutti i ricoveri ospedalieri, etc.). Anche i
censimenti, considerati inventari delle risorse umane e materiali di una nazione, sono stati
condotti sull’intera popolazione. Tale rilevazione permette di spingere l’analisi ai livelli
minori di disaggregazione territoriale ed è necessaria per conoscere, ad esempio, le
caratteristiche della popolazione dei singoli comuni;
2. rilevazione campionaria (o parziale): permette di ridurre i costi di
rilevazione; di ridurre i tempi di raccolta e di elaborazione dei dati; di ridurre il carico
organizzativo, nel senso che non è necessario addestrare i rilevatori per la rilevazione totale;
di approfondire, poiché il minor numero di rilevatori consente di formarli per rilevazioni più
complesse. Tale rilevazione si usa, ad esempio, per conoscere la popolazione di un’intera
nazione.

CAPITOLO 9 – Il campionamento pp. 317-364

PARAGRAFO 1 – Popolazione e campione pp. 317-319


Campionare vuol dire osservare una parte per trarne informazioni sul tutto.
Il campionamento è un procedimento tramite il quale si estrae, da un insieme di unità
(popolazione) costituenti l’oggetto dello studio, un numero ridotto di casi (campione) scelti con
criteri tali da permettere la generalizzazione all’intera popolazione dei risultati ottenuti studiando il
campione.
La teoria dei campioni è una branca della statistica che si occupa di studiare i campioni
nelle loro formulazioni matematiche.

PARAGRAFO 2 – Errore di campionamento pp. 319-321


Per popolazione si intende un insieme N (ampiezza della popolazione) di unità (unità
statistiche o unità di analisi) che costituiscono l’oggetto di studio.
Il termine popolazione evoca un insieme di esseri umani; in statistica, invece, ha un
significato molto più generale e si riferisce ad un qualsiasi insieme di oggetti: uomini, abitazioni,
aziende, territori, manufatti, organismi viventi, oggetti inanimati, eventi, etc.
Di tali unità si studiano le variabili (proprietà) X, Y, Z, dette anche parametri, per
conoscerne i valori caratteristici che queste assumono sull’intera popolazione, i quali descrivono la
distribuzione complessiva delle variabili o le relazioni fra le variabili stesse.
49

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Si definisce campione l’insieme delle n (ampiezza del campione) unità campionarie


(casi) selezionate tra le N unità che compongono la popolazione, al fine di rappresentarla (da qui
l’uso dell’espressione “campione rappresentativo”) per il condurre al termine lo studio.
Dunque, la popolazione è l’oggetto da conoscere e il campione è lo strumento della
conoscenza.
Per campionamento si intende la procedura per scegliere le n unità campionarie dal
complesso delle N unità della popolazione.
Per stima si intende un valore approssimato.

PARAGRAFO 3 – Campioni probabilistici: il campione casuale semplice pp. 321-329


Si dice probabilistico un campione quando ogni unità di misura è estratta con una
probabilità nota e diversa da zero.
Il caso più elementare di campione probabilistico è il campionamento casuale semplice.
Si ha un campionamento casuale semplice quando tutte le unità della popolazione hanno la stessa
probabilità di essere inserite nel campione.
Per poter realizzare questo piano di campionamento, il ricercatore deve disporre della lista
della popolazione, poi deve associare ad ogni unità N dell’elenco un numero ed estrarre
casualmente n numeri fra gli N totali.

PARAGRAFO 3.1 – Errore di campionamento pp. 322-326


Nel caso del campionamento casuale semplice, la statistica permette di individuare
l’errore (e) di campionamento, il quale è dato da:

e=z s/√n √1-f

Formula dell’errore di campionamento delle variabili cardinali.

z = è un coefficiente che dipende dal livello di fiducia che il ricercatore vuole avere nella
stima; dipende cioè dal grado di certezza, ovvero dall’affidabilità che si vuole dare alle stime. Tale
coefficiente aumenta all’aumentare del livello di fiducia che si vuole avere.

e = indica l’errore che ci si concede e cioè l’ampiezza dell’intervallo di fiducia. È


direttamente proporzionale al coefficiente z. L’errore di campionamento è direttamente
proporzionale al livello di fiducia che si vuole dare alla stima e alla variabilità del fenomeno
studiato, mentre è inversamente proporzionale all’ampiezza del campione.

s = rappresenta la deviazione standard campionaria della variabile studiata, della quale


si vuole stimare la media. La deviazione standard è una misura della dispersione (o variabilità)
della distribuzione di una variabile. Essa consiste nella media degli scarti dei valori sui singoli casi
dalla media e indica quanto i valori assunti dalla variabile sui singoli casi siamo prossimi al valore
medio oppure variabili attorno ad esso. La deviazione standard è tanto maggiore quanto più la
variabile è dispersa, cioè quanto più varia fra i casi.
Ad esempio, se si vuole stimare la media della variabile del reddito degli abitanti di un
quartiere di una città, essa risulterà esser più dispersa in un quartiere misto e sarà meno dispersa in
quartiere omogeneo.

Maggiore è la variabilità del fenomeno studiato, maggiore è l’errore di campionamento.

n = rappresenta l’ampiezza del campione. È collocato al denominatore dell’espressione e


ciò significa che tanto più numeroso è il campione, tanto minore è l’errore di campionamento.

√1-f = è definito fattore di correzione per popolazioni finite. f = indica la frazione di


50

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

campionamento, cioè il rapporto fra l’ampiezza del campione e l’ampiezza della popolazione.
Più che la frazione di campionamento, è l’ampiezza del campione a determinare l’entità
dell’errore.

La formula dell’errore di campionamento delle variabili nominali è:

e=z√pq/n-1√1-f

z, n e f hanno gli stessi significati che assumono nella formula per le variabili cardinali.

p = proporzione nel campione per la categoria in esame.

q = 1-p.

pq = variabilità del fenomeno studiato.

PARAGRAFO 3.2 – Ampiezza del campione pp. 326-329


Dalle precedenti due espressioni si può risalire alle dimensioni del campione sostituendo ad
e l’errore che si è disposti ad accettare e risolvere l’equazione rispetto ad n:

n=(zs/e)2

z = coefficiente dipendente dal livello di fiducia che si vuole avere nella stima. Valore
stabilito dal ricercatore.

s o √pq = variabilità del fenomeno studiato. Valori non noti.

e = errore della stima. Valore stabilito dal ricercatore.

Dunque, l’ampiezza del campione è direttamente proporzionale al livello di fiducia


desiderato per la stima (z) e alla variabilità del fenomeno studiato; ed è inversamente proporzionale
all’errore che il ricercatore è disposto ad accettare.
L’ampiezza del campione è determinata dalla dispersione s (oppure √pq) della variabile
studiata.

PARAGRAFO 6 – Campioni non probabilistici pp. 345-353


Alcune tipi di campioni non probabilistici:
 campionamento per quote: è il disegno campionario più diffuso. Come per
il campionamento stratificato, si comincia dividendo la popolazione in sottogruppi sulla
base di alcune variabili. Per quote si intende il numero di interviste da effettuare su ogni
strato. L’intervistatore è libero di scegliere a sua discrezione i soggetti da intervistare. Si
tratta, dunque, di un campionamento stratificato con scelta rimessa all’intervistatore, nel
quale l’entità della quota impedisce una totale libertà di scelta e fa sì che il campione
complessivo, limitatamente alle variabili poste alla base delle quote, riproduca la
distribuzione della popolazione. I limiti di questo campionamento si riferiscono alla libertà
concessa all’intervistatore che fa sì che egli segua criteri utilitaristici di selezione,
privilegiando i casi di più facile reperimento (conoscenti, soggetti residenti nella stesa area
territoriale), evitando così qualsiasi situazione che comporti difficoltà, e non insistendo
troppo con gli individui che non vogliono sottoporsi all’intervista.
Gli statistici considerano tale metodo poco raccomandabile per la sua scarsa
scientificità.

51

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

 Disegno fattoriale: agevola l’analisi delle relazioni fra la variabile


dipendente e le variabili indipendenti che sono poste alla base della definizione degli
strati. La logica di tale piano di campionamento non è quella del campione, bensì quella
dell’esperimento. Le variabili indipendenti poste alla base del disegno non sono scelte a
partire dalle informazioni che si hanno sulla popolazione, ma sono scelte per la loro
rilevanza esplicativa agli effetti del fenomeno studiato. Il disegno fattoriale si colloca a
metà via fra la ricerca campionaria e l’esperimento; non è adatto per ricerche condotte su
grandi campioni, mentre è adatto per ricerche su piccoli campioni. L’obiettivo del
disegno fattoriale non è quello di descrivere la popolazione, ma quello di cogliere le
relazioni esistenti al suo interno.

 Campionamento a scelta ragionata: viene utilizzato quando l’ampiezza del


campione è molto limitata e si vogliono evitare le oscillazioni casuali che allontanino il
campione dalle caratteristiche della popolazione. Ad esempio, nella scelta dei quartieri di
una città si può decidere di includere nel campione uno stesso numero di quartieri centrali e
periferici, di quartieri operai e borghesi.

 Campionamento bilanciato: è una forma di campionamento ragionato, in


cui si selezionano le unità in modo che la media del campione sia prossima alla media della
popolazione. Tale campionamento viene utilizzato nel caso di campioni molto piccoli
(soprattutto quando le unità di analisi non sono individui, ma istituzioni, comuni, etc.).

 Campionamento a valanga: è un disegno campionario utile nel caso delle


popolazioni clandestine, per la quali si intendono gruppi sociali i cui membri, per motivi di
carattere morale, ideologico o politico tendono ad occultare la loro identità: immigrati
illegali, membri di sette religiose, di gruppi politici fuorilegge, etc. Tale disegno viene usato
anche nel caso in cui la popolazione studiata si componga di elementi rari, cioè gruppi
poco numerosi e dispersi sul territorio: appartenenti a religioni minoritarie, a gruppi
particolari, ad associazioni, etc. Si procede individuando i soggetti da inserire nel campione
a partire dagli stessi soggetti intervistati. Si parte da un piccolo numero di individui aventi i
requisiti richiesti, i quali sono utilizzati per trovare altri individui con le stesse
caratteristiche.
 Campionamento telefonico: in questa procedura sia l’intervista telefonica
che il campionamento stesso sono gestiti dal computer. I casi possono essere selezionati sia
a partire dagli elenchi telefonici, sia a partire dai numeri generati a random dal computer. In
Italia viene utilizzata la prima procedura. È il computer a gestire le chiamate: ad esempio in
caso di non risposta, esso registra le ragioni del mancato contatto, gestisce l’esclusione del
numero o la ripetizione della chiamata.

 Campionamento di convenienza: non si tratta di un disegno di


campionamento, ma si usa questa espressione ogni volta che manca un qualsivoglia disegno.
Dunque, un campione di convenienza è un gruppo di persone scelte perché più facilmente
accessibili. Spesso si tratta di volontari che si offrono per essere intervistati (ad esempio, gli
studenti degli esperimenti in psicologia). Quindi, tale tipologia di campionamento sarebbe
da evitare oppure si può utilizzare per studi particolari, e non per stime sulla popolazione.

52

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

PARTE TERZA – La rilevazione dei dati: tecniche qualitative

CAPITOLO 10 – L’osservazione partecipante pp. 365-399

PARAGRAFO 1 – Osservazione e osservazione partecipante pp. 365-368

OSSERVAZIONE OSSERVAZIONE PARTECIPANTE


 con questo termine si intende la tecnica  con questo termine si intende non una
principale di raccolta dati sul semplice osservazione, ma un
comportamento non verbale; coinvolgimento diretto del ricercatore
con l’oggetto studiato;

 è una strategia di ricerca in cui il


ricercatore si inserisce in maniera
diretta per un periodo di tempo
relativamente lungo in un determinato
gruppo sociale preso nel suo ambiente
naturale, instaurando un rapporto di
interazione personale con i suoi membri,
allo scopo di descriverne le azioni e di
comprenderne, mediante un processo di
53

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

immedesimazione, le motivazioni;

 questo tipo di osservazione si rifà al


paradigma interpretativo;

 si utilizzano il termine osservazione, in


quanto questa tecnica implica il guardare
e l’ascoltare; e il termine partecipante,
perché tale tecnica comporta un contatto
personale e intenso fra soggetto
studiante e soggetto studiato,
un’interazione prolungata, con un
coinvolgimento/partecipazione del
ricercatore nella situazione oggetto di
studio;

 il ricercatore non entra a far parte del  il ricercatore osserva la vita e


fenomeno sociale studiato; partecipa della vita dei soggetti
studiati;

 il ricercatore scende sul campo,


immergendosi nel contesto sociale che
vuole studiare, vive come e con le
persone oggetto del suo studio, le
interroga al fine di sviluppare una
visione dal di dentro che è il presupposto
della comprensione;

 principi fondamentali:
1. è possibile raggiungere una piena
conoscenza sociale solo
attraverso la comprensione del
punto di vista degli attori sociali,
immedesimandosi nelle loro vite;
2. tale immedesimazione è
realizzabile con una piena e
completa partecipazione alla
quotidianità degli attori sociali,
un’interazione continua e diretta
con i soggetti studiati.

 Il ricercatore deve condurre


l’osservazione in prima persona, deve
interagire con le persone che studia e
deve riuscire a vedere il mondo con gli
occhi dei soggetti studiati;

 le caratteristiche di questa osservazione


sono soggettività, coinvolgimento ed
immedesimazione;

 in questo processo di coinvolgimento il


54

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

ricercatore deve tenere in equilibrio due


casi estremi, definiti da Davis
“marziano” e “convertito”:
 il “marziano” si fa coinvolgere
il meno possibile nella situazione
sociale studiata, ritiene fuorvianti
i resoconti che i membri della
società fanno di se stessi e del
loro mondo. Ritiene che il
ricercatore sociale debba
abbandonare tutti i suoi
presupposti cognitivi e culturali
per comprendere la reale essenza
dei processi sociali;
 il “convertito” sostiene che solo
l’immersione totale nella società,
cioè l’identificazione con gli
schemi di vita degli altri, possa
fornire gli strumenti necessari
per la sua comprensione.

 la tecnica dell’osservazione partecipante


non procede secondo un percorso
lineare, ma come un flusso irregolare di
decisioni. Dunque è una tecnica
difficilmente codificabile e difficilmente
insegnabile. Essa è un’esperienza, il cui
svolgimento dipende dall’interazione,
ogni volta nuova, che si instaura tra
problema studiato, soggetto studiante e
soggetti studiati;

 la tecnica dell’osservazione partecipante


nasce nella ricerca antropologica a
cavallo fra il XIX e il XX secolo.
L’antropologo inglese Bronislaw
Malinowski codifica i principi di tale
approccio. Tale visione introduceva
l’obiettivo di afferrare il punto di vista
dell’indigeno, il suo rapporto con la vita,
per rendersi conto della sua visione del
suo mondo. Malinowski condusse le sue
ricerca nelle isole Trobriand, a Nord-est
della Nuova Guinea e il suo modello
consisteva nel soggiornare per lungo
tempo nelle società primitive,
condividendo la loro vita ed
interrompendo per tutta la durata
dell’osservazione i contatti con il mondo
occidentale;

 nel contesto di ricerca di tipo


55

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

antropologico-etnografico o studio sul


campo l’osservazione partecipante non è
l’unico strumento usato dal ricercatore.
L’osservatore partecipante deve
osservare, ascoltare e chiedere, e nel
chiedere utilizza lo strumento
dell’intervista, deve documentarsi sui
fatti che accadono e su quelli già
accaduti, devi esplorare i documenti di
cui dispone. In questo caso tale indagine
prevede l’utilizzo degli strumenti
dell’analisi documentaria.

PARAGRAFO 2 – Campi di applicazione e sviluppi dell’osservazione partecipante pp. 368-


373
Si può utilizzare l’osservazione partecipante su tutte le attività umane e su tutti i
raggruppamenti di esseri umani quando si vuole scoprire dall’interno la visione del loro mondo.
Jorgensen elenca quattro settori in cui è molto utile tale tecnica:
1. quando si sa poco di un certo fenomeno: un nuovo movimento politico, un
evento sociale imprevisto come una ribellione, etc.;
2. quando esistono differenze fra il punto di vista interno ed esterno : gruppi
etnici, organizzazioni sindacali, gruppi professionali come medici, avvocati, etc.;
3. quando il fenomeno si svolge lontano da sguardi estranei : rituali religiosi, vita
familiare, rapporto tra medico e paziente, etc.;
4. quando il fenomeno è deliberatamente occultato agli sguardi degli estranei :
comportamenti illegali o devianti, associazioni segrete, sette religiose, etc.

La sociologia autobiografica consiste nel fatto che il ricercatore studia una realtà della
quale fa o ha fatto parte. In questo ambito l’osservazione partecipante è considerata lo strumento
naturale di indagine.
ESEMPI:
 la ricerca di Scott sui giocatori d’azzardo, avendo lui stesso partecipato alle
bische clandestine;
 la ricerca di Becker, musicista, sui suonatori di jazz;
 la ricerca della Hall sulla socializzazione delle bambine alla professione di
ballerina, essendo stata essa stessa per 16 anni allieva delle scuole di ballo.

La sociologia autobiografica può contenere anche esperienze di vita trasformate in


occasioni di ricerca, anche se questa non si può considerare il caso ideale di osservazione
partecipante. In questo caso si parla di ricerca con impostazione etnografica.

L’osservazione partecipante è una tecnica di ricerca usata soprattutto per studiare le


culture. Nella ricerca sociologica essa è stata applicata a due studi:
1. studi di comunità;
2. studi di subculture.

 STUDI DI COMUNITÀ 
Si studia ogni aspetto della vita dei microcosmi sociali autonomi collocati in ambiti
territorialmente definiti e dotati di un loro universo culturale chiuso, che investe tutti gli aspetti
della vita: una comunità contadina, una città di provincia, etc.
Tali studi risentono fortemente del modello etnografico e consistono in ricerche condotte su
piccole comunità sociali, territorialmente localizzate, che comportano il trasferimento del
56

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

ricercatore nella comunità studiata.


ESEMPIO:
 lo studio condotto dai coniugi Lynd, i quali hanno compreso che non sono
molti i generi di cose che fa la gente e che, dunque, il comportamento umano consiste di
variazioni lungo poche direzioni principali di attività: farsi una famiglia, guadagnarsi da
vivere, educare i giovani, impiegare il tempo libero, etc.

L’universo esistenziale di una società viene studiato come un antropologo studia una tribù
primitiva.

 STUDI DI SUBCULTURE 
Si studiano subculture nate all’interno di segmenti sociali delle società complesse, che
rappresentano aspetti della cultura dominante: la cultura dei giovani, dei ricchi, degli avvocati, dei
militari, di un partito politico, etc.
Inizialmente i sociologi furono attirati dalle culture diverse e alternative alla cultura
dominante. Gli studi della Scuola di Chicago degli anni ’20 e ’30 del ‘900 si concentrarono
soprattutto sulle sacche di marginalità sociale prodotte dall’immigrazione e
dall’urbanizzazione: i vagabondi, le gang, le prostitute, i ghetti neri, gli slums (quartieri poveri),
le comunità di immigrati, etc.
ESEMPI:
 la ricerca condotta da William Foote Whyte in uno slum della periferia di
Boston. Whyte decise di trattare nella sua tesi di dottorato la piccola criminalità organizzata
e così si trasferì nel quartiere più degradato della sua città.
 La ricerca condotta da Jankowski su 37 gang appartenenti a tre diverse città
e osservate nel corso di 10 anni.
 La ricerca The Hobo (Il vagabondo) di Nels Anderson, la quale ha come
oggetto il proletariato marginale sviluppatosi intorno alla costruzione della grande rete
ferroviaria americana. Gli hobos erano i lavoratori migranti, senza fissa dimora, che si
spostavano a seconda delle nuove opportunità di lavoro. Tale ricerca è sia il risultato
dell’osservazione partecipante che il prodotto della biografia stessa dell’autore, poiché suo
padre fu un hobo e anche Anderson visse questa realtà nei primi anni della sua vita
lavorativa.

Successivamente si utilizzò l’osservazione partecipante anche per studiare la cultura di


settori sociali appartenenti alla società ufficiale: gli studi sulla vita e la condizione sociale di
determinate categorie di lavoratori, condotti facendosi assumere in una posizione professionale
per descriverne gli stili di vita, la visione del mondo e le condizioni esistenziali.
ESEMPIO:
 La ricerca di Donald Roy, il quale studiò il lavoro operaio e soprattutto la
questione dell’autolimitazione della produttività. Per capire il problema si fece assumere per
10 mesi in un’officina che costruiva componenti di vagoni ferroviari.

Il filone di studi dell’etnografia organizzativa racchiude le ricerche condotte per studiare i


valori, la rete di relazioni sociali e le dinamiche interpersonali che si sviluppano nelle istituzioni e
nelle organizzazioni sociali. Le organizzazioni vengono studiate come culture, dove l’oggetto di
studio sono la cultura dell’organizzazione e le modalità con cui questa cultura si esplicita
nell’azione e nell’interazione sociale.
ESEMPIO:
 due ricerche condotte da Gouldner per tre anni in uno stabilimento
minerario americano. Gouldner si concentra sull’organizzazione aziendale, a partire dal tipo
ideale di burocrazia, e sull’osservazione dal vivo di un episodio sociale inusuale, uno
sciopero spontaneo, dalla quale poté partire per elaborare una teoria generale sulle tensioni
57

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

di gruppo.

Un altro settore della società contemporanea studiato attraverso l’osservazione


partecipante è quello delle istituzioni sanitarie.
ESEMPIO:
 lo studio di Atkinson sulla cultura dei medici e i modi con cui viene costruita
e definita la malattia nella situazione di estrema specializzazione della medicina moderna.
Per condurre tale studio Atkinson si fece inserire per 10 settimane nel reparto di
ematologia-oncologia di un ospedale di Boston.

L’osservazione partecipante è stata utilizzata anche per studiare le istituzioni politiche.


ESEMPIO:
 la ricerca di Dahl, Polsby e Wolfinger sulla democrazia e sul potere della
città americana New Haven, nel Connecticut, al fine di analizzare i luoghi effettivi del
potere, la dinamica delle decisioni, l’origine sociale e gli itinerari di selezione dei leader più
influenti, il ruolo dei gruppi di pressione, il rapporto fra rappresentanti e rappresentati, etc.

Un’ulteriore applicazione dell’osservazione partecipante è costituita dagli studi sulla


“cultura dei bambini”.
ESEMPIO:
 le ricerche condotte negli Stati Uniti e in Italia dallo studioso americano
William Corsaro, le quali vengono realizzate con l’inserimento dell’osservatore nelle
classi, in cui poter osservare i bambini, ma anche dove poter interagire con loro, cercando di
diventare membro del gruppo, al fine di cogliere la visione e le interpretazioni dei bambini.

CAPITOLO 11 – L’intervista qualitativa pp. 401-430

PARAGRAFO 1 – Rilevazione mediante interrogazione pp. 401-402


PARAGRAFO 2 – Intervista quantitativa e intervista qualitativa pp. 402-407
Intervista è un termine ambiguo che si riferisce all’atto di interrogare.

INTERVISTA QUALITATIVA INTERVISTA QUANTITATIVA


 intervista o interrogazione qualitativa:  intervista quantitativa o questionario:
è libera, non strutturata, ma comunque strutturata rigidamente nelle domande e
guidata dall’intervistatore, che lascia nelle risposte.
all’intervistato la libertà di strutturare la
sua risposta o tutta la conversazione;

 è una conversazione provocata


dall’intervistatore, rivolta a soggetti
scelti sulla base di un piano di
rilevazione, nel senso che l’intervistato
non è occasionale, e in numero
consistente, avente finalità di tipo
conoscitivo, guidata
dall’intervistatore, sulla base di uno
schema flessibile e non standardizzato
di interrogazione;

 tale conversazione ha come obiettivo lo


scopo conoscitivo dell’intervistatore.
58

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Quindi non sono occasionali l’evento,


l’intervistato e gli argomenti
dell’intervista;

 non appartengono a questa concezione


di intervista il colloquio dello psicologo
con il paziente o il colloquio-intervista
aziendale che precede un’assunzione.

CARATTERISTICHE

RICERCA QUALITATIVA RICERCA QUANTITATIVA


 Assenza di standardizzazione: si mira  Presenza di standardizzazione:
a conoscere le categorie mentali l’intervistato viene collocato entro
dell’intervistato, senza partire da idee e schemi prestabiliti dal ricercatore; il
concezioni predefinite; la voce questionario è infatti organizzato con
dell’intervistato sovrasta quella domande a risposta chiusa; l’intervistato
dell’intervistatore. L’intervista non può è costretto a limitare le proprie risposte;
essere standardizzata, ma deve essere l’intervistatore deve porre a tutti le
flessibile e deve potersi adattare alle stesse domande e l’intervistato non può
diverse personalità degli intervistati. far deviare la conversazione su temi che
meglio rispondono alla sua personalità;
la voce dell’intervistatore sovrasta quella
dell’intervistato.
 Comprensione e contesto della  Documentazione e contesto della
scoperta: nel contesto qualitativo giustificazione: nel contesto
l’interrogazione viene usata per quantitativo l’interrogazione viene
comprendere le persone e per farle usata come strumento per rilevare
parlare; dunque c’è differenza anche sul dati, cioè per raccogliere informazioni
numero dei soggetti intervistati: in sulle persone riguardo le loro opinioni, i
questo caso si tratta di una raccolta loro comportamenti e i loro tratti sociali;
intensiva, cioè l’intervistatore prende in dunque c’è differenza anche sul numero
considerazione un solo caso con il quale dei soggetti intervistati: in questo caso si
instaura un rapporto di empatia. tratta di una raccolta estensiva (ad
L’interrogazione qualitativa preferisce il esempio un campione di cento persone),
contesto della scoperta (il momento poiché lo scopo è quello di avere un
della concezione di una nuova idea) quadro rappresentativo della situazione e
per poter comprendere il fenomeno poi analizzare i dati raccolti attraverso
studiato. gli strumenti della statistica.
L’interrogazione standardizzata
preferisce il contesto della
giustificazione (il momento del
controllo empirico).

 Assenza di campione rappresentativo:  Presenza di campione


l’intervista qualitativa non mira a rappresentativo: l’intervista
costruire un campione rappresentativo, quantitativa o campionaria ha come
in quanto se il campione utilizzato si punto qualificante il fatto di essere
compone di cento elementi, è condotta su un campione costruito in
insufficiente per poter essere definitivo modo da essere “rappresentativo”, cioè
59

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

“rappresentativo”; inoltre lo scopo di in modo da riprodurre in piccolo le


tale intervista è coprire le varietà delle caratteristiche della popolazione.
situazioni sociali. Le persone da
intervistare vengono scelte in base alle
caratteristiche sociografiche ai fini del
tema studiato e vengono scelte con la
tecnica del campionamento per quote,
lasciando all’intervistatore la
discrezionalità nella scelta di chi
intervistare. Il ricercatore sceglie le
persone da intervistare seguendo un
criterio, ad esempio per l’interesse che
gli sembrano esprimere, interesse che
può variare nel corso della ricerca.

 Approccio centrato sul soggetto:  Approccio centrato sulle variabili:


nell’analisi dei dati provenienti da nell’analisi dei dati provenienti da
interviste qualitative, non si interviste quantitative, gli individui
frammentano gli individui in variabili e vengono frammentati in variabili e
non si producono frequenze e l’obiettivo è quello di cogliere le
correlazioni, ma si ricostruiscono delle relazioni fra variabili.
storie. L’obiettivo rimane quello di
capire le manifestazioni nella loro
individualità.

PARTE QUARTA – L’analisi dei dati

CAPITOLO 14 – L’analisi bivariata pp. 547-614

PARAGRAFO 1 – Relazioni fra variabili pp. 547-549


Affermare che c’è una relazione tra due o più variabili significa dire che c’è una
variazione concomitante tra i loro valori, cioè una covariazione. Ad esempio, al variare del titolo
di studio varia il reddito.
A questo punto si possono fare due osservazioni:
1. si tratta di relazioni statistiche, ovvero probabilistiche;
2. interpretazione causale, nel senso di nesso causa-effetto: la statistica può
dire solo che esiste una relazione tra le variabili esaminate, ma non può affermare che tale
relazione sia causale (covariazione non significa causazione). Sarà il ricercatore a conferire
a tale relazione il significato di nesso causale, sulla base di una teoria preesistente che non
ha alcun legame con l’analisi statistica.

Di solito l’obiettivo finale dell’analisi dei dati è rappresentato dall’analisi multivariata,


cioè dall’analisi delle relazioni esistenti fra il fenomeno da studiare (variabile dipendente) e
molteplici altri (variabili indipendenti). Il termine multivariata fra riferimento al fatto che ogni
variabile sociale è correlata con un’infinità di altre variabili che interagiscono, si intrecciano e si
influenzano reciprocamente.
La variabile dipendente è la variabile influenzata o effetto; la variabile indipendente è la
variabile influenza o causa.
L’analisi bivariata consiste nella relazione esistente fra due variabili. Le tecniche di analisi
bivariata dipendono in maniera determinante dal tipo di variabili considerate. Se le
dicotomizziamo in variabili nominali e cardinali e le distinguiamo in variabile dipendente e

60

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

indipendente, si generano tre combinazioni, per ognuna delle quali è usata una tecnica di analisi
della relazione:
1. entrambe le variabili nominali  tecnica delle tavole di contingenza;
2. entrambe le variabili cardinali  tecnica della regressione-correlazione;
3. variabile indipendente nominale e variabile dipendente cardinale 
tecnica dell’analisi della varianza.

PARAGRAFO 2 – Tavole di contingenza pp. 549-569


PARAGRAFO 2.1 – Direzione delle percentuali (percentuali di riga e percentuali di colonna)
pp. 549-555
La tavola di contingenza (o tabella a doppia entrata, incrocio, tabulazione incrociata)
consiste in una tabella a doppia entrata in cui è collocata in riga una variabile (variabile di riga) e
l’altra in colonna (variabile di colonna), mentre nelle celle, definite dall’incrocio fra le righe e le
colonne, si trova il numero di casi che presentano le corrispondenti modalità delle due variabili, i
cui valori sono detti frequenze.
A volte nella tabella così organizzata, si aggiungono anche i totali di riga e di colonna delle
frequenze, che sono detti “frequenze marginali” o marginali e corrispondono alle frequenze delle
variabili singolarmente prese.
L’ordine di una tavola di contingenza è il prodotto delle righe per le colonne; mentre la
dimensione è il numero di variabili in essa implicate. L’analisi bivariata utilizza, quindi, solo
tabelle bidimensionali.
Tale tabella è quella dei valori assoluti, in quanto riporta il numero dei casi aventi un certo
valore sulla variabile di colonna e un certo valore sulla variabile di riga, prima di ogni
percentualizzazione.

Su questa tabella si possono ricavare tre diverse tabelle percentuali:


1. percentuali di riga: si ottengono ponendo uguale a 100 la variabile di
colonna e registrando quindi i corrispondenti valori percentuali della variabile di riga,
2. percentuali di colonna: si ottengono ponendo uguale a 100 la variabile di
riga e registrando quindi i corrispondenti valori percentuali della variabile di colonna;
3. percentuali sul totale: si ottengono percentualizzando tutte le frequenze di
cella sul totale generale.

Nell’analisi della relazione fra due variabili nominali:


- si sceglie la percentuale di colonna quando si vuole analizzare l’influenza che
la variabile di colonna ha su quella di riga;
- si sceglie la percentuale di riga quando si vuole analizzare l’influenza che la
variabile di riga ha su quella di colonna.
In altri termini, si definisce qual è la variabile indipendente e si percentualizza all’interno
delle sue modalità.
Quando l’obiettivo della ricerca è studiare la relazione causale esistente fra variabile
indipendente e dipendente, il criterio guida è quello del principio della percentualizzazione
all’interno delle modalità della variabile indipendente.
Talvolta, quando gli obiettivi sono diversi, può essere utile calcolare invece l’altra
percentualizzazione oppure calcolarle entrambe.
Per stabilire la relazione fra le variabili della tabella, il confronto fra la distribuzione della
variabile indipendente nell’intera popolazione e nelle modalità della variabile dipendente è
laborioso e meno diretto, ma è l’unica soluzione quando l’indagine non riguarda tutta la
popolazione, ma solo una parte di essa.

PARAGRAFO 2.2 – Presentazione delle tavole pp. 555-558


61

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Gli elementi caratterizzanti di una tavola di contingenza sono cinque:


1. parsimoniosità: la tabella deve riportare solo le percentuali che servono
all’analisi (es. solo quelle di riga);
2. totali: ogni riga o colonna finisce con il totale 100 per far capire
immediatamente al lettore in che direzione sono state calcolate le percentuali;
3. basi delle percentuali: deve essere sempre riportata la base percentuale (N),
cioè il numero assoluto di casi sui quali è stata operata la percentualizzazione;
4. cifre decimali, decimale zero, arrotondamenti, quadratura;
5. intestazione: le tabelle devono sempre essere intestate per poter essere
autoesplicative, cioè contenenti tutte le informazioni necessarie per la sua comprensione.
L’intestazione aiuta il lettore ad interpretare la tabella.

Altri elementi caratteristici sono:


 tabella con valori assoluti: aggiungere i valori assoluti oltre alle percentuali
si può, ma risulta inutile, in quanti tali valori non servono per interpretare i dati;
 tabella con distribuzione marginale della variabile dipendente: è utile
aggiungere questo elemento se si è interessati all’analisi di una particolare modalità della
variabile indipendente, soprattutto nel caso in cui tali modalità siano numerose;
 somma di percentuali: è legittima se i valori sommati appartengono alla
stessa distribuzione percentuale, ma risulta errata se le percentuali sommate appartengono a
due diverse distribuzioni.

PARAGRAFO 2.3 – Interpretazione delle tavole pp. 558-562


I passaggi fondamentali dell’interpretazione delle tavole sono:
 selezione delle modalità significative della variabile dipendente:
nell’interpretazione e commento delle tabelle è opportuno selezionare le modalità più
significative della variabile dipendente e centrare su queste l’analisi; inoltre è preferibile
trascurare differenze percentuali esigue (inferiori ai 5 punti percentuali);
 errori comuni nell’interpretazione della tabella: un commento inutile è
quello di tipo descrittivo. Un commento efficace è quello in cui si prende una modalità
significativa della variabile dipendente e si vede come la sua percentuale varia al variare
della variabile indipendente. La scelta della modalità da commentare dipende dalla linea
argomentativa del ricercatore;
 aggregazione delle modalità della variabile dipendente: nel caso di
variabili ordinali risulta utile aggregare le modalità estreme e contigue della variabile
dipendente per una maggiore chiarezza. Ad esempio, si possono unire i “per nulla
soddisfatti” e i “poco soddisfatti” nella categoria “insoddisfatti”;
 indice di differenza percentuale: un sistema spesso utilizzato per
interpretare le tabelle consiste nell’indice di differenza percentuale, cioè nella differenza tra
due modalità di risposta o tra le risposte positive e negative. Esso permette di leggere i dati
tenendo conto simultaneamente dell’andamento di più modalità della variabile dipendente;
 forma della relazione fra variabili: una relazione è monotonica o lineare
positiva se al crescere di una variabile cresce anche l’altra; è negativa se al crescere di una
variabile diminuisce l’altra.

PARAGRAFO 2.4 – Presentazione compatta di tavole pp. 563-564


Spesso, per economizzare lo spazio e per facilitare il confronto tra domande aventi la stessa
struttura, si compattano più tavole semplici a doppia entrata in un’unica tavola, presentando

62

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

un’unica modalità. Si possono incrociare diverse variabili dipendenti con la stessa variabile
indipendente oppure viceversa.

PARAGRAFO 2.5 – Tavole di contingenza a più di due variabili pp. 565-566


Una tabella a quattro variabili si costituisce di una variabile dipendente e di tre variabili
indipendenti.

PARAGRAFO 2.6 – Tavole di mobilità sociale pp. 566-568


Nelle tavole di mobilità sociale su una dimensione si colloca la classe sociale dei soggetti
studiati e sull’altra quella dei loro padri. La sua struttura è quella di una tabella a doppia entrata,
ma presenta delle particolarità che derivano dalle molteplici linee di lettura che offre.
Poiché le due variabili (classe sociale padre e classe sociale figlio) hanno le stesse modalità,
nelle celle sulla diagonale si trovano i soggetti immobili, cioè quelli che restano nella stessa classe
sociale dalla quale provengono, mentre nel triangolo superiore alla diagonale ci sono i soggetti
mobili, cioè quelli che hanno sperimentato un processo di mobilità ascendente e nel triangolo sotto
alla diagonale ci sono invece i soggetti che hanno sperimentato un processo di mobilità
discendente.
In questo le percentuali entro le modalità della variabile indipendente ci dicono qual è
l’influenza della classe sociale di partenza su quella di arrivo. Le percentuali per riga ci danno
informazioni sull’origine sociale dei ceti attuali e infine la percentualizzazione sul totale ci dà
informazione sul processo generale di mobilità sociale. Sommando le percentuali delle celle sulla
diagonale del triangolo superiore della matrice e del triangolo inferiore si ottengono rispettivamente
i tassi di mobilità sociale, di mobilità ascendente e di mobilità discendente.
Lo stesso approccio viene impiegato nelle tavole di movimento elettorale, nelle quali
vengono presentati i dati su come i soggetti studiati hanno votato in una determinata elezione e
nell’elezione precedente.
PARAGRAFO 2.7 – Rappresentazioni grafiche della relazione fra due variabili nominali pp.
568-569
Per rappresentare graficamente la relazione fra due variabili nominali si utilizzano i
diagrammi a barre o quelli a linee spezzate che congiungono i punti di interesse.
In un piano cartesiano, si riportano sull’asse orizzontale le modalità della variabile
indipendente e sull’asse verticale le frequenze percentuali relative alla modalità della variabile
dipendente.
Se la variabile è nominale si utilizza il diagramma a barre. Nel caso in cui si trattasse di
variabile cardinale e ordinale si utilizza il diagramma a linee spezzate che unisce i punti
corrispondenti ai valori delle percentuali.

PARAGRAFO 3 – Significatività della relazione fra due variabili nominali: il test del chi-
quadrato pp. 569-576
Il test statistico del chi-quadrato (χ2) è un criterio oggettivo sulla base del quale è possibile
dire che tra due variabili esiste o meno una relazione.
La ricerca empirica non può ambire a verificare (dimostrare vero) un’ipotesi, ma può solo
arrivare a falsificare (dimostrare falso). Il test statistico delle ipotesi, applicato al caso della
relazione fra due variabili, consiste nel formulare l’ipotesi nulla H 0 secondo la quale nella
popolazione non esiste relazione fra le due variabili e dimostrare che essa è falsa, cioè non
compatibile con i dati che si possiedono. Respinta l’ipotesi H 0 di assenza di relazione, si accetta
l’ipotesi H1 che sostiene l’esistenza della relazione. Tale conclusione è la conseguenza del fatto di
aver scartato le ipotesi false.
Partendo da tali ipotesi si costruisce una tabella teorica riportante le frequenze attese e le
frequenze osservate. Le prime si hanno in caso di assenza di relazione, le seconde sono quelle
trovate nei dati. La differenza di queste due frequenze permette di dichiarare o meno la presenza
di incompatibilità fra i nostri dati e l’ipotesi nulla. Tale differenza viene sintetizzata con un unico
63

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

numero, il χ2, con il calcolo: si fa la differenza fra la frequenza osservata e quella attesa per ogni
cella della tabella, la si eleva al quadrato e la si divide per la frequenza attesa, infine si sommano
per tutte le celle questi valori, sintetizzando in un unico numero le differenze fra le celle.
Il valore del χ2 è tanto maggiore quanto maggiore è la distanza fra la tabella delle frequenze
attese e quella delle frequenze osservate.
L’ipotesi che il χ2=0 non si verificherà mai è quindi si dice che il χ 2 è significativo, nel
senso che è significativamente diverso da zero.
Il valore del χ2 dipende dalla numerosità del campione: se il campione raddoppia, il valore
del χ2 raddoppia; se triplica il campione, anche il χ2 triplica, e così via. Questa caratteristica è
negativa perché riduce l’utilità di questo strumento quando il numero dei casi presi in esame è
elevato.
Il test del χ2 fornisce una segnalazione di importanza globale e sintetica della relazione fra
variabili, senza entrare nel merito del comportamento delle singole modalità. Per questo motivo può
succedere che una relazione fra due variabili risulti statisticamente significativa solo perché una
delle modalità si discosta in modo anomalo dall’andamento medio. Dunque, tale test, essendo
basato sulla differenze fra le frequenze osservate e attese, può risultare significativo anche solo per
l’anomalia di una sola cella, la quale presenta valori devianti rispetto al valore atteso.

PARAGRAFO 4 – Misure della forza della relazione fra variabili nominali e ordinali pp. 576-
584
Il ricercatore oltre ad affermare l’esistenza di una relazione fra due variabili, vuole valutare
anche l’intensità o la forza di tale relazione.

PARAGRAFO 4.1 – Misure di associazione fra variabili nominali pp. 577-580


La statistica propone due tipologie di misure di associazione fra due variabili nominali:
1. misure di associazione basate sul chi-quadrato: il valore del chi-quadrato è
tanto maggiore quanto più la tabella osservata si allontana da quella attesa in caso di
indipendenza; tale valore è influenzato dai gradi di libertà (le dimensioni) della tabella. Esso
è direttamente proporzionale al numero dei casi della tabella;

2. Caso particolare della tabella 2x2;

VEDI:
https://www.ibm.com/support/knowledgecenter/it/SSLVMB_22.0.0/com.ibm.spss.statistics.help/sps
s/base/idh_xtab_statistics.htm

3. misure di associazione basate sulla riduzione proporzionale dell’errore: si


basano sulla riduzione di errore che si fa nel predire una variabile conoscendo il valore
dell’altra. Se le variabili X e Y sono indipendenti, il fatto di conoscere per una certa unità di
analisi il valore assunto su di essa da X non aiuta a predire il valore di Y; al contrario, se
sono correlate, il fatto di conoscere X permette di predire senza errore il valore di Y. Le più
note misure di associazione fra variabili nominali basate su tale criterio sono state proposte
dagli statistici Goodman e Kruskal e vengono chiamate λ (lambda) e τ (tau). Tali misure
assumono un valore differente a seconda della variabile che viene scelta come dipendente e
per questo motivo sono definite misure di associazione asimmetriche.

PARAGRAFO 4.2 – Misure di cograduazione fra variabili ordinali pp. 581-583


Un’altra proprietà della relazione fra variabili, oltre alla forza, è il segno: una relazione è
positiva o diretta se a valori alti di una variabile corrispondono valori alti dell’altra; una relazione è
negativa o inversa quando a valori alti dell’una corrispondono valori bassi dell’altra.
Le misure di cograduazione fra variabili ordinali si basano sul confronto fra i valori assunti
dalle variabili X e Y su tutte le possibili coppie di casi.
64

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

Una coppia di casi è detta concordante se su un caso i valori di X e di Y sono entrambi


maggiori o minori dei valori delle stesse variabili sull’altro caso.
Una coppia è detta discordante quando una variabile assume su un caso un valore maggiore
mentre l’altra un valore minore rispetto ai valori assunti sull’altro caso.
Una coppia di casi è detta, invece, appaiata se i due casi presentano lo stesso valore su una o
entrambe le variabili.
Se la maggioranza delle coppie sono concordanti si ha una cograduazione (relazione)
positiva fra le variabili; se la maggioranza delle coppie è invece discordante si ha una
cograduazione negativa fra le variabili.
Sono state proposte diverse misure di cograduazione:
 tau-c (τc) di Kendall;
 gamma (γ) di Goodman e Kruskal;
 d di Somers.

PARAGRAFO 4.3 – Conclusioni su misure di associazione e di cograduazione pp. 583-584


Le misure di forza delle relazioni fra variabili nominali ed ordinali non sono molto usate
nella ricerca sociale per diversi motivi:
 la loro pluralità non ha facilitato la diffusione e la polarità: non c’è un unico
indice, dal significato chiaro ed intuitivo, da poter utilizzare in tutte le situazioni;
 quando le variabili sono nominali ha poco senso calcolare un’unica misura
sintetica di associazione;
 tali misure sono difficili da interpretare.

PARAGRAFO 5 – Rapporti di probabilità pp. 584-588


Il rapporto di probabilità (ω) è il rapporto tra la frequenza di una categoria e la frequenza
della categoria alternativa. Esso si può definire anche come il rapporto fra la probabilità che un
individuo, preso a caso, appartenga ad una categoria della variabile considerata e la probabilità che
non vi appartenga.
Il rapporto di probabilità ha come valore 1 quando le due categorie hanno lo stesso peso; ha
come valore minimo 0 e come valore superiore +∞ (più infinito).
Per proporzioni condizionate si intendono i rapporti tra frequenze parziali e totali; invece
i rapporti di probabilità condizionati sono i rapporti favorevoli/contrari per le due categorie
prese in esame.
Il rapporto di associazione fra due variabili è il rapporto fra i prodotti incrociati, poiché
corrisponde al rapporto fra i prodotti delle frequenze (o delle corrispondenti probabilità) delle celle
opposte sulle due diagonali. Tale rapporto di associazione può assumere un valore compreso fra 0 e
+∞, passando per il valore 1, che si verifica nel caso di indipendenza fra le due variabili. Più il
valore è distante da 1 e maggiore è la forza della relazione.
Un’associazione è positiva quando i valori sono superiori a 1, è negativa quando sono
inferiori a 1.
Il valore del rapporto di associazione non risente della dimensione del campione ed è in
grado di cogliere la struttura della relazione fra le due variabili.

PARAGRAFO 6 – Analisi della varianza pp. 589-595


PARAGRAFO 6.1 – Principi e calcoli pp. 589-593
La tecnica dell’analisi della varianza (detta anche Anova) si usa per studiare la relazione fra una
variabili nominale e una cardinale.
In questa analisi, si definisce gruppo la categoria della variabile nominale indipendente.

Il teorema fondamentale della varianza


65

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

La devianza o somma totale dei quadrati è il risultato dell’addizione della somma interna dei
quadrati (o devianza non spiegata) e della somma esterna dei quadrati (o devianza spiegata).

VEDI: http://www00.unibg.it/dati/corsi/64023/73447-Analisi%20della%20varianza.pdf

PARAGRAFO 6.2 – Significatività della relazione pp. 593-594


Il test di significatività nell’analisi della varianza consiste nel verificare l’ipotesi nulla secondo la
quale le medie provengono da una stessa popolazione e quindi i dati nella popolazione dalla quale
derivano sono uguali fra loro.
Dividendo la devianza per i gradi di libertà si ottiene la stima della varianza (o quadrato medio)
della popolazione da cui derivano i dati del campione studiato.
Se l’ipotesi nulla è vera le due stime sono uguali, se l’ipotesi nulla è falsa la seconda stima è
maggiore della prima. Il rapporta fra prima e seconda stima si definisce rapporto F.

VEDI: http://docenti.unimc.it/monica.raiteri/teaching/2013/12316/files/slides-i-parte-per-studenti-
frequentanti/interpretazione-del-test-f-distribuzione-f-di

PARAGRAFO 6.3 – Forza della relazione pp. 594-595


La forza della relazione fra una variabile nominale e una cardinale è data dal confronto
fra le media di gruppo e il coefficiente che rappresenta questa forza è l’eta-quadrato (η2) (o
rapporto di correlazione di Pearson), il quale consiste nel rapporto fra la somma dei quadrati
esterna (o devianza spiegata) e la somma dei quadrati totale (devianza totale).
Il coefficiente η2 fornisce la produzione di devianza generale che è dovuta alla variabile
indipendente. Il suo valore è compreso fra 0 (nessuna relazione tra le due variabili) e 1 (relazione
perfetta, cioè la devianza della variabile dipendente è attribuibile alla variabile indipendente).
PARAGRAFO 7 – Regressione e correlazione pp. 595-607
PARAGRAFO 7.1 – Diagramma di dispersione pp. 595-597
La rappresentazione grafica della relazione fra due variabili cardinali si può
rappresentare attraverso il piano cartesiano. L’assegnazione delle variabili ai due assi non è
indifferente e nella tecnica della regressione la distinzione tra le due variabili influisce su i valori
del coefficiente di regressione. Per convenzione la variabile indipendente corrisponde ad X e
quella dipendente ad Y e si collocano sul piano i casi studiati, ognuno rappresentato da un punto
aventi come coordinate i suoi valori sulle due variabili.
L’insieme di questi punti viene detto “nuvola di punti” e la rappresentazione grafica si
chiama diagramma di dispersione.
Nel diagramma di dispersione si possono creare quattro situazioni base:
1. relazione lineare positiva fra le due variabili: nell’angolo in basso a sinistra
del grafico sono basse entrambe le variabili, al centro del grafico le variabili hanno valori
medi, nell’angolo in alto a destra entrambe le variabili sono alte;
2. relazione lineare negativa fra le due variabili: se la variabile indipendente (X)
cresce, diminuisce quella dipendente (Y) e viceversa;
3. nessuna relazione: non esiste una relazione fra le due variabili e, infatti, i
punti sono disposti sul grafico in modo uniforme;
4. relazione curvilinea: variabili dipendente e indipendente alte e variabile
indipendente bassa e dipendente alta.

PARAGRAFO 7.1 – Retta di regressione pp. 597-600


Quando c’è una relazione lineare, i punti del diagramma di dispersione si allineano lungo
una retta, detta retta interpolante. Una retta in generale si esprime attraverso la relazione:

Y = a + bX

66

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

a = è l’intercetta della retta sull’asse delle Y, cioè l’ordinata della retta quando l’ascissa è 0;
b = è l’inclinazione della retta, cioè la variazione dell’ordinata quando l’ascissa varia di
un’unità.

Tale retta è anche detta retta di regressione, in cui b è il coefficiente di regressione e a è


l’intercetta della retta.
La retta di regressione passa per i punto definito dalle medie delle due variabili e non dà una
rappresentazione perfetta della nuvola dei punti. Essa permette di calcolare Y se è noto X
nell’ipotesi di una relazione perfetto, nel caso cioè che tutti i punti siano sulla retta:

Y = a + bX + e

e = è l’errore o residuo, cioè lo scarto fra il valore predetto dall’equazione di regressione e il


valore effettivamente osservato nei dati.

PARAGRAFO 7.3 – Coefficiente di correlazione pp. 600-605


La retta di regressione ci dice la forma della relazione fra X e Y, ma non ci dice la sua forza
o intensità.
Per misurare la forza di una relazione fra le due variabili cardinali si utilizza il
coefficiente di correlazione lineare r, detto anche coefficiente di correlazione di Pearson. Esso è
il rapporto di la covarianza fra X e Y e il prodotto delle deviazioni standard di X e Y.
Tale coefficiente assume il valore di +1 in caso di relazione perfetta positiva, il valore di
-1 in caso di relazione perfetta negativa.
Le caratteristiche del coefficiente di correlazione (r) sono:
 standardizzazione: r è un numero puro e non risente dell’unità di misura delle
due variabili;
 normalizzazione: assume i valori fra 0 e 1.

Per iniziare a studiare la relazione fra due variabili cardinali è preparare la loro matrice di
correlazione, cioè la presentazione sotto forma di matrice dei coefficiente di correlazione fra tutte le
coppie di variabili. La matrice di correlazione presenta una diagonale costituita di valori 1 e dei
valori corrispondenti alle correlazioni fra tutte le coppie di variabili, disposti su uno dei due
triangoli della matrice.

PARAGRAFO 7.4 – La correlazione ecologica pp. 606-607


Si definisce correlazione ecologica la correlazione fra due variabili aggregate, in cui
l’attributo ecologico fa riferimento alla diminuzione territoriale del fenomeno studiato. Quindi
l’unità di analisi della correlazione ecologica è un aggregato di individui. Al contrario, l’unità di
analisi della correlazione individuale è l’individuo.
Per fallacia ecologica si intende l’ingannevolezza che le correlazioni sui dati aggregati
portano con sé quando si vuole interpretarle in termini di correlazioni individuali.
È bene, inoltre, diffidare delle correlazioni ecologiche perché sono esposte al rischio di
essere correlazioni spurie.

PARAGRAFO 8 – Introduzione di una terza variabile pp. 607-608


Nel caso delle relazioni bivariate, è indubitabile che esista la covariazione o relazione fra
due variabili. In termini di relazione causale questa covariazione può essere dovuta all’azione di una
terza variabile.
L’azione di Z, cioè della terza variabile, si può eliminare in due modi:
1. controllo: si analizza la relazione fra le variabile X e Y in sub campioni in cui
Z rimane costante;
2. depurazione: si effettua per via matematica, cioè note le covariazioni fra X, Y
67

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)


lOMoARcPSD|8096210

e Z, si calcola quello che sarebbe il coefficiente di correlazione fra X e Y se non ci fosse


l’azione di Z.

PARAGRAFO 8.1 – Relazione spuria pp. 608-612


Il caso della relazione spuria rappresenta la presenza di covariazione pur in assenza di
causazione. La covariazione fra le due variabili X e Y è provocata da una terza variabile Z, che
agisce casualmente su X e Y. La variabile Z (o variabile di controllo) è connessa causalmente con
la X e la Y, mentre queste due variabili covariano a causa della loro relazione con Z, ma non hanno
un legame causale fra loro e per questo motivo si dice che la loro relazione è spuria, cioè errata,
inesistente.
La covariazione di X e di Y è dovuta a Z e ciò è spiegato dal fatto che se sparisce la
variazione di Z, sparisce anche la loro relazione. Se la Z da variabile diventa costante, cioè se non
varia più, cessa anche la covariazione fra X e Y.

PARAGRAFO 8.2 – Relazione indiretta pp. 613-614


Si ha una relazione indiretta fra due variabile X e Y quando il loro legame causale è
mediato da una terza variabile Z. In questo caso Z fa da ponte fra le due variabili, che attraverso Z
risultano causalmente connesse.
La terza variabile Z è detta interveniente perché interviene nel rapporto fra X e Y e si può
dire che c’è un nesso causale fra le due variabili.

PARAGRAFO 8.3 – Relazione condizionata pp. 614


La relazione fra due variabili è condizionata quando cambia a seconda del valore assunto
da una terza variabile. La relazione fra le variabile X e Y assume un segno diverso a seconda del
valore della terza variabile.

68

Scaricato da Emanuele Palermo (emanueleplrm@gmail.com)

Potrebbero piacerti anche