Sei sulla pagina 1di 86

Testo di riferimento: “metodi della ricerca sociale”, Mario Lucchini.

6 ottobre 2022

I paradigmi della ricerca sociale.

Metodologia? Riflessione sul metodo impiegati dagli scienziati per raccogliere evidenze
empiriche, delle ipotesi formulate. Bisogna conoscere diversi metodi per conferma delle loro
ipotesi. Gli scienziati hanno sviluppato un nuovo metodo scientifico, un momento di
affinamento di un senso comune.

Che cos’è la scienza?

● Figlia della curiosità umana, attitudine degli uomini a realizzare scoperte, mappe; tale
capacità l’abbiamo noi come homo sapiens, poi il nostro cervello ha un sistema più
complesso. La curiosità umana, rappresenta un metodo utile per scoprire metodi di
sopravvivenza, scopi utili per vivere. La scienza non tira in ballo entità ideologiche, e
concezioni aprioristiche. Il metodo scientifico si configura come una serie di
procedure che portano ad un progressivo affinamento al senso comune
● Generalmente noi riponiamo fiducia nella scienza e negli scienziati, pur non avendo
chiara consapevolezza di cosa sia il metodo scientifico e dei contenuti delle teorie
scientifiche, di cosa facciano gli scienziati. È escluso che la scienza contemporanea
sia un’impresa intellettuale di grande importanza per l’umanità. Le applicazioni di tale
materia in diversi campi hanno comportato cambiamenti impressionanti; grazie alla
scienza la vita è raddoppiata, e questo è l’indicatore più importante di quanto sia
avanzato il processo scientifico. Pertanto ogni giorno facciamo uso di prodotti della
scienza. Nei decenni che ci separano dalla 2 guerra mondiale, possiamo osservare la
riduzione drastica del tasso di mortalità.
● Nel passato non c’era il ragionamento scientifico e tanto meno la spiegazione
scientifica. Si ricorreva ad una forma di pensiero ingenua. Per spiegare gli
accadimenti si faceva riferimento alla religione, entità invisibili, allo sciamano. Era
importante accattivarsi le simpatie delle divinità, e così gli uomini pregavano gli dei e
offrivano loro doni per assicurarsi raccolti abbondanti, tempo propizio e molti figli.
● Dovrà passare molto tempo prima di inaugurare un nuovo stile di pensiero scientifico;
tale scoperta venne fatta in Grecia 2500 anni fa, con i presocratici. Qui possiamo fare
riferimento a Talete, quando pensò che ogni cosa in natura si fondasse sull’acqua.
Oggi sappiamo che non è così, ma si pose comunque una domanda scientifica; ebbe
quindi un approccio materialista, senza affidarsi a entità divine. Talete credeva che
uomini, animali, piante fossero fatti di acqua, e che la terra fosse un disco piatto che
galleggiava sul mare immenso. Per questo definiva l’acqua il principio di tutte le cose.
Talete si era posto una domanda molto importante, ma gli scienziati che vennero
dopo hanno scoperto che Talete si sbagliava.
● Nel medioevo si ha un periodo di stasi, ci si limita a confermare in modo acritico i
contenuti, e a leggere i testi e le sacre scritture di Aristotele; nessuno tentava sfidare
tali testi. Si parla quindi di appiattimento.
● Il grande mutamento nel ragionamento scientifico si ha nel 500/600, quando con
Copernico, accade la rivoluzione copernicana. Si passa da un sistema
geocentrico/tolemaico/aristotelico, fino ad arrivare ad un sistema
eliocentrico/copernicano. Galileo, nel 600, propone il metodo sperimentale.
Copernico e Galileo sfidano il principio di autorità. Sfidare l’autorità comporta delle
conseguenze, ma vi fu comunque un cambiamento di rotta.
● Newton che elabora la legge di gravitazione universale.
● Maxwell unifica elettricità, magnetismo e luce.
● Einstein che combina spazio e tempo entro un unico costrutto “spazio-tempo”
deformabile per effetto della forza di gravitazione. Prima di lui, Newton, considerava
lo spazio e il tempo come categorie distinte.
● La meccanica quantistica ci dà una nuova concezione di causalità.
● Il principio di indeterminazione di Heisenberg.
● La rivoluzione scientifica del 900 stravolge i vecchi concetti della scienza newtoniana.
Oggigiorno, sappiamo che un modello scientifico non è un modello veritiero. Il
modello come mappa semplificata della realtà.
● Gli scienziati propongono delle mappe che legano i concetti, e producono dei modelli,
che sono comunque delle mappe, che non è la realtà. Un modello è una versione
semplificata della realtà, e ha degli scostamenti teorici. Il modello è una sorte di ponte
tra teoria e realtà.
● La conoscenza di ciò che accade fuori non la conosciamo mai al 100%.
● Nella scienza non ci sono certezze, ma un bravo scienziato è in grado di confrontarsi
con le incertezze.
● Karl Popper afferma che non possiamo conoscere bene la realtà. Diceva che il vero
metodo scientifico è andare a caccia di confutazioni

Gli ingredienti della scienza

➢ L’impresa scientifica è definita collettiva, cioè condotta in gruppo, da persone con


competenze interdisciplinari, matematici, fisici, ingegneri. Non è come prima come ai
tempi di Copernico, Galileo ecc, che si lavorava in solitaria; oggi le scoperte vengono
fatte in gruppo. I risultati vengono pubblicati su riviste scientifiche. La scienza non si
trasmette in modo orale, bisogna pubblicare tutto ciò che viene scoperto.
➢ Ciascuno di noi se è competente può adottare il metodo scientifico e sfidare l’autorità,
ossia un soggetto altamente competente, in un certo campo disciplinare.
➢ Generalmente osserviamo un mutamento graduale, anche se si possono verificare
delle rivoluzioni scientifiche, detti secondo Kuhn, scossoni, quando un vecchio
paradigma viene spazzato via da un nuovo paradigma. Tali scossoni, solitamente,
sono rari nell’ambito della scienza contemporanea.

Affinamento e chiarificazione concettuale.

● Una disciplina si consolida attraverso un processo di operativizzazione dei costrutti


che devono essere tradotti in entità matematiche, prive di ambiguità semantiche.
● Le scienze mature si fondano su modelli matematici, procedure rigorosamente
formalizzate. Quando si fa scienza quantitativa bisogna misurare le parole.
● L’attività scientifica deve essere formale e pubblica; pertanto occorre rispettare regole
formali, condivise all’interno di una comunità scientifica, formata dagli stessi scienziati
e il metodo scientifico può subire dei progressi. E pubblicare i risultati delle ricerche.
● Le scienze mature sono definite tali in quanto sono capaci di predire eventi reali,
dispongono modelli che sono in grado di predire il futuro.
● Il metodo scientifico si configura come una serie di procedure che portano ad un
progressivo affinamento del senso comune. Il metodo scientifico è a sé.

Filosofia della scienza.

Tra i filosofi della scienza ricordiamo Cartesio, che era razionalista e si colloca nella
tradizione filosofica di Socrate e Platone; mentre Bacone propende per un approccio
induttivo, un metodo quindi sperimentale.

Ci sono filosofi come Locke e Hume che si collocano nel filone della filosofia empirista di
Aristotele.

Secondo Hume, la mente è tabula rasa, e la conoscenza è derivabile dai sensi piuttosto che
da principi innati in opposizione a Platone.

Empirismo, positivismo, e metodo sperimentale.

La tradizione empirista scozzese ha avuto un ruolo nello sviluppo del positivismo, momento
filosofico che nasce in Francia, e si estende poi in tutta l’Europa e nell’America settentrionale
grazie ai contributi di Comte Spencer, John Stuart Mill e Darwin. Il positivismo si radica al
metodo sperimentale, si oppone alla filosofia idealista.

Positivismo.

La filosofia si concentra su entità metafisiche. Con il positivismo si ha una separazione tra


filosofia e scienza; la prima si dedicherà ad entità metafisiche e a spiegazioni finalistiche.
(NB: per Platone esiste un’intelligenza ordinatrice che governa ogni singola cosa e tutta la
realtà indirizzandola nel modo migliore)

La scienza positivista adotterà un metodo quantitativo, empirico-analitico per descrivere i


fenomeni della natura e del mondo sociale. Mentre la scienza adotta una visione
meccanicistica di causa-effetto, la teleologia vede la possibile esistenza di un principio
organizzativo trascendente o immanente nell’ordine naturale delle cose.

C’è un primo positivismo induttivo alla conoscenza. Si parte da dati empirici e


successivamente si giunge alla scoperta di leggi universalmente vere, grazie ai fondamenti
matematici, fisici ecc. in definitiva si segue la massima galileiana che combina sensate
esperienze a certe dimostrazioni. Il proficuo metodo sperimentale consente di scoprire leggi
universali che hanno carattere deterministico.

L’approccio ermeneutico interpretativo come reazione al positivismo.

Weber, Simmel e Windelband, propongono una metodologia specifica per le scienze sociali,
che si basa sulla comprensione di valori, ragioni, desideri.

Si propone la distinzione tra: 1) scienze nomotetiche che sono le scienze naturali, esempio
matematica, fisica, chimica, che vanno a caccia di leggi universalmente vere. 2) scienze
idiografiche, che hanno carattere storico, descrittivo; studiano fenomeni che hanno il
carattere dell’unicità ed irripetibilità.

Per Weber i fatti sociali sono intelligibili, riconducibili ad entità psicologiche, spirituali piuttosto
che a fatti biologici. C’è bisogno di una metodologia particolare per studiare tali entità di
carattere spirituale e l’armamentario della scienza naturale non si dimostra adeguato per
cogliere motivazioni, sentimenti, valori, entità irriducibili a processualità fisiche.

Neopositivismo.

Si sviluppa nei primi decenni del 900. Il suo proposito è quello di sviluppare un linguaggio
scientifico libero dall’ambiguità del linguaggio di senso comune, cioè tradurre il linguaggio in
modo matematico. Per realizzare una conoscenza scientifica si parte dall’alto delle
proposizioni teoriche, si formulano ipotesi, ossia tentativi di spiegazione, e si raccolgono dati
per confermare o rifiutare le ipotesi.

Principio di falsificazione di Karl Popper.

Era un filosofo austriaco. Secondo lui, l’atteggiamento corretto è quello di ricercare


confutazioni. La scienza progredisce attraverso falsificazione, piuttosto che conferme. Una
proposizione è scientifica se è deduttivamente falsificabile. Quando sottoponiamo a verifica
un’ipotesi o un modello, esso supera un dato controllo diremo che l’ipotesi è corroborata, non
verificata, vale a dire momentaneamente non falsificata.

Kuhn, il concetto di paradigma e la struttura delle rivoluzioni scientifiche.

Il paradigma non è uno specchio del mondo ma un paio di occhiali attraverso cui
ricostruiamo la realtà. Paradigma “way of thinking”, ossia un modo di pensare, è uno schema
ordinatore che indirizza una certa area di investigazione scientifica.
La scienza progredisce in modo graduale, ma avanza in momenti di normalità e periodi
rivoluzionari. In tempi normali l’impresa scientifica mostra continuità con il passato e gli
scienziati adottano un dato paradigma che non viene messo in discussione. È la comunità
scientifica che decide se soppiantare o meno un certo paradigma, a seguito del verificarsi di
anomalie recalcitranti.

Lakatos.

Secondo Imre Lakatos occorre distinguere le grandi teorie programmatiche dalle ipotesi
ausiliarie. Dalle grandi teorie si derivano ipotesi che possono essere confermate o rifiutate.
Se un’ipotesi viene rifiutata non necessariamente comporta la confutazione di una teoria.
Inoltre, Lakatos, distingue i programmi di ricerca progressivi (quando lo sviluppo della teoria
precede i risultati empirici) e quelli regressivi (quando la teoria segue la crescita empirica-
spiegazioni a posteriori).

Laudan.

Filosofo pragmatista, introduce il concetto di tradizione di ricerca. La tradizione di ricerca è


un sinonimo di paradigma, tale termine introduce idee, regole metodologiche condivise dalla
comunità scientifica. È possibile che gli scienziati adottino anche diverse prospettive
paradigmatiche trovando interessanti convergenze, accordi e soluzioni condivise. Ciò che è
importante è risolvere problemi pratici e per raggiungere questo obiettivo si può attingere
anche a diversi paradigmi.

Secondo Laudan, gli scienziati non perdono tempo in dispute per stabilire se una
proposizione è scientifica oppure no, come alcuni filosofi della scienza ci lasciano supporre.
Gli scienziati si comportano in modo pragmatico, adottano teorie e modelli che consentono
loro di spiegare e prevedere i fenomeni in modo da risolvere problemi pratici.

Epistemologia anarchica.

Il riferimento principale è Paul Feyerabend che nega alla scienza la capacità di conseguire
livelli di conoscenza superiori rispetto al senso comune. Nella versione più estreme si giunge
ad affermare che non esiste alcuna realtà esterna, tutto dipende da un punto di vista.
Famoso è il motto “anything goes” qualsiasi metodo vada bene e può essere utilizzato per
accumulare conoscenza, che è sempre soggettiva, riflessiva. Ne deriva che non si possono
stabilire criteri di demarcazione tra scienza e non scienza. Non esiste una realtà oggettiva a
prescindere dalla percezione che ne ha il singolo osservatore.
Epistemologia neutralizzata.

È un approccio post-positivista che si interessa a quel che succede nel cervello biologico per
spiegare come si realizza un processo conoscitivo. La psicologia popolare non rappresenta
una fonte legittima di conoscenza. I soggetti commettono molti errori cognitivi. Le cose che
osserviamo non sono rappresentazioni oggettive ma sono ricostruzioni biochimiche del
nostro sistema nervoso.

10 ottobre 2022

Epistemologia-metodologia-tecniche.

Metodologia: una riflessione sul metodo, si colloca tra l’epistemologia e la tecnica; essa
comporta una tensione continua tra due poli (quello della riflessione filosofica, e quello della
pratica procedurale). La metodologia è meno rigorosa della logica formale. Ha meno
contenuto sostantivo ed è più formale della psicologia e della sociologia. Il metodologo non è
un tecnico (Lazarsfeld e Rosenberg 1955). La metodologia può essere definita come il
discorso o la riflessione o la critica sul metodo o sui metodi.

Tecnica: deriva dal greco "techne" e designa una capacità artistica, la capacità domestica,
tramandabile di padre in figlio dell’artigiano (gasperoni e Marradi 1996). Le tecniche non
sono dotate di minor nobiltà rispetto alla metodologia. Le tecniche sono temporalmente
antecedenti alla riflessione sul metodo. La metodologia sta nelle tecniche (metodi) come la
critica letteraria sta alla letteratura. La prima è meno utile delle seconde.

Qualità/quantità: conflitto o complementarietà?

Le tecniche quantitative sono radicalmente diverse dalle tecniche qualitative??

Si può parlare di feconda complementarietà?

In economia non c’è scontro tra qualitativo e quantitativo, è appiattita; nelle scienze sociali
troviamo questo scontro. La ricerca quantitativa ha cumulato nel corso del XX secolo
un’imponente mole evidenza empirica raccolta tramite disegni di campionamento
probabilistici. Le basi di microdati vengono analizzate tramite tecniche statistiche sempre più
raffinate.

Il paradigma.

Sistema di idee, schema ordinatore, modello, struttura concettuale, finestra concettuale,


prospettiva teorica, “way of thinking” tramite cui gli scienziati (e profani) guardano il mondo.

Il concetto di paradigma, lo ritroviamo già negli scritti di Platone; ripreso poi da Kuhn. È un
modo di vedere, pensare, uno schema ordinatore. Kuhn nel suo libro definisce la scienza
come una sequenza di scienza normale, qui c’è una continuità con il passato, e scienza
rivoluzionaria, quando la continuità con il passato si interrompe. Inoltre Kuhn, rifiuta la
concezione tradizionale di scienza come impresa cumulativa, lineare, di progressiva
accumulazione di sapere. In tempi normali, l’impresa scientifica mostra una continuità col
passato; in tempi rivoluzionari la continuità col passato si interrompe. Il passaggio dalla
vecchia alla nuova struttura conoscitiva può essere reso possibile da elementi irrazionali,
arbitrarie, accidentalità storiche e personali, (Kuhn nel 1962).

Perché è importante il paradigma?

Designa un “framework” teorico, metodologico, empirico, condiviso da una comunità di


scienziati. La partecipazione a congressi, convegni, la pubblicazione dei risultati su riviste
specialistiche, rappresentano importanti occasioni per aderire ad un paradigma e rafforzare
un’identità professionale condivisa.

Un paradigma si basa su acquisizioni teoriche ed empiriche nel senso di:

1) condizionare la formulazione e l’ipotesi.

2) condizionare la scelta dei fatti di indagare.

3) condizionare le modalità di acquisizione dell’evidenza empirica.

4) condizionare la scelta delle tecniche da impiegare.

Quanti paradigmi nelle scienze sociali?

Uno, nessuno, centomila? Le scienze sociali come discipline quasi paradigmatiche o


pluriparadigmatiche?

La molteplicità di paradigmi può essere distesa lungo un continuo delimitato dal polo del
positivismo e da quello del costruttivismo sociale.

L’economia può essere considerata una disciplina paradigmatica? Secondo Kuhn “gli
economisti sono d’accordo su che cos’è l’economia”; ma ciò non basta, mancano modelli in
grado di fare accurate previsioni. Tutte le scienze sociali possono essere considerate come
discipline immature, economia inclusa!!

Le due prospettive paradigmatiche più importanti nelle scienze sociali.

Nelle scienze sociali il paradigma viene inteso come concezione generale sulla natura della
realtà sociale.

➔ Visione empirista: Durkheim; VS visione umanista: Weber.


➔ Oggettivismo vs soggettivismo.
➔ Positivismo vs soggettivismo.
➔ Quantità vs qualità.
➔ Metodi empirici-analitici vs metodi ermeneutico-interpretativi.

Antinomie inconcludenti? È possibile transitare ad un approccio unificato di scienza?

Come i due paradigmi rispondono a tre questioni intrecciate tra loro:

1) Questione ontologica: o del “che cosa”, o della natura dei fatti sociali (oggetti in sé o
rappresentazioni di cose?), di che sono fatti i fenomeni sociali; per Durkheim sono cose,
mentre per Weber sono rappresentazioni di cose.

2) Questione epistemologica: del rapporto tra “il chi” e il “che cosa”; riguarda la
conoscibilità della realtà sociale, il rapporto tra lo studioso e a realtà studiata.

3) Questione metodologica: “del come” la realtà sociale può essere conosciuta; va


studiata la realtà sociale, quali sono gli strumenti che servono per studiare la realtà
sociale. Lo facciamo attraverso i mezzi che usano gli scienziati naturali.

Ontologia, epistemologia, metodologia.

Dimensioni che si implicano vicendevolmente: gli assunti ontologici (qual è la sostanza di ciò
che esiste) si riverberano sulle questioni epistemologiche (come devo pormi nei confronti
dell’oggetto di indagine?) e queste ultime condizionano la metodologia impiegata (quali
strumenti devo impiegare per raccogliere prove empiriche di buona qualità?).

➢ Nel primo positivismo parleremo di realismo ingenuo. L’esperimento fa una sorta di


miracolo.
➢ Se devo ricostruire un esperimento, si basa sulla manipolazione della x e vedere
cosa succede alla y.
➢ Sfruttare le variabili, raccogliere dati. Lavoriamo con ampie basi di microdati. Molti
dati= poche variabili.
➢ I dati sono caratteristiche di attributi.
Quadro sinottico Positivismo Post-positivismo Interpretativismo

Ontologia
Realismo ingenuo: la realtà Realismo critico: la realtà sociale è “reale” ma
Costruttivismo: il mondo conoscibile è
sociale è “reale” e conoscibile solo in maniera imperfetta e quello dei significati attribuiti dagli
conoscibile come si probabilistica. individui.
trattasse di una “cosa”.
Relativismo (realtà multiple): queste
realtà costruite variano nella forma e nel
contenuto fra individui, gruppi e culture.

Epistemologia Dualismo/oggettività. Dualismo/oggettività. Non dualismo/non oggettività.

Risultati veri. Risultati in termini probabilistici. Non separazione fra ricercatore e


oggetto dello studio, ma
Scienza sperimentale in Scienza sperimentale in cerca di leggi. interdipendenza.
cerca di leggi universaliMolteplicità
ed di teorie per lo stesso fatto. Obiettivo:
invarianti. Obiettivo:
spiegazione. Generalizzazione: leggi provvisorie, Scienza interpretativa in cerca di
spiegazione, aperto alla revisione.significato. Obiettivo: comprensione.
generalizzazione; leggi
“naturali” immutabili. Generalizzazione: enunciati di
possibilità, tipi ideali.
Positivismo Neopositivismo Interpretativismo

Metodologia Sperimentale: Sperimentale: Interpretazione empirica tra


manipolativa manipolativa studioso e studiato.

Interpretazione/interazione:
osservato-osservatore
Osservazione/dista Osservazione/dista
cco: osservatore- cco: osservato-
osservato osservatore
Induzione (conoscenza emerge
dalla realtà studiata).

Prevalentemente Prevalentemente Tecniche qualitative.


induzione. deduzione
(falsificazione delle Analisi per soggetti.
Tecniche ipotesi).
quantitative.
Tecniche
Analisi per quantitative.
variabili.
Analisi per
variabili.

Durkheim: i fatti sociali come “cose”.

Durkheim tratta i fatti sociali come “cose”, come dati esterni, non modificabili dalla volontà del
ricercatore. Esiste una realtà sociale, al di fuori dell’individuo oggettivamente conoscibile;
che è studiabile mediante gli stessi metodi delle scienze naturali. L’ideale è l’esperimento
(manipolazione e controllo delle variabili e distacco fra osservatore e osservato). Il mondo
sociale come il mondo naturale è regolato da leggi (fisica sociale). Le leggi del sociale
assumono i caratteri di un nesso causa-effetto. Ci si affida all’induzione: dall’osservazione
empirica si perviene a generalizzazioni e dalle generalizzazioni si ricavano le leggi universali.
Compito della scienza è scoprire ordine e uniformità della natura tramite procedimenti
induttivi.

Durkeim dice che il suicidio è un fatto sociale, è una relazione sociale tra anomia e suicidio.
Anomia è un concetto astratto. La causa sociale di un fatto sociale va ricercata in fatto
sociale antecedente, secondo Durkheim.

Neopositivismo (1) e linguaggio delle variabili.


Il senso di un’affermazione deriva dalla sua verificabilità empirica. Una congettura è definita
scientifica se è formulata come proposizione empiricamente falsificabile. Ogni oggetto
sociale, a cominciare dall’individuo, viene analiticamente definito sulla base di una serie di
attributi e proprietà. I fenomeni sociali sono analizzati in termini di relazioni fra variabili. Una
teoria viene tradotta in modello: il modello costituisce un ponte tra proposizioni teoriche e
verifica empirica.

Neopositivismo (2) e formalizzazione del senso comune.

Il “senso comune” deve essere purificato da ambiguità e riformulato nei termini di congetture
verificabili. Misurazione/operativizzazione dei concetti (validità/attendibilità). Distinzione tra
variabili causa ed effetto. I modelli hanno carattere probabilistico. I risultati (le stime dei
parametri) sono circondati da incertezza e non assurgono a leggi deterministiche. I modelli
possono essere corroborati o falsificati (Popper) (logica top-down).

Non esiste un modello vero, ma tanti modelli compatibili con una stessa base dati (evidenza
empirica).

12 ottobre 2022

Tratto distintivo dell’approccio quantitativo/positivistico.

È il ricorso al riduzionismo concettuale e al riduzionismo sostanziale. Per riduzionismo


concettuale si intende il processo di traduzione di concetti ambigui e astratti in indicatori
empirici. Per riduzionismo sostantivo o materiale si intende il procedimento di comprensione
degli enti di natura a partire dalle loro componenti fondamentali o parti meno complesse.

Consilience di Wilson.

Lo scienziato sociale dovrebbe ridurre un fenomeno collettivo ai comportamenti dei soggetti


coinvolti. Il comportamento individuale, a sua volta, dovrebbe essere spiegato in termini di
processi mentali (credenze e desideri) e questi ultimi in termini di schemi di attivazione
neuronale e di trasmissione sinaptica. Il riduzionismo, nelle parole di Boncinelli, non è altro
che l’espressione della fiducia dello scienziato nell’unità della natura.

The “Coleman boat”: la spiegazione dei meccanismi sociali.

Il disegno di ricerca praticato nell’ambito della scienza sociale quantitativa.


Secondo Weber, ciascuno sceglie in funzione dei propri valori, ma bisogna poi essere
costanti. Le ipotesi sono proposizioni che legano concetti, che sono confutati.

Interpretativismo.

➔ Se vogliamo comprendere un fenomeno sociale dobbiamo porre al centro dell’analisi:


➔ L’azione individuale dotata di senso
➔ L’iterazione
➔ Il mondo della vita quotidiana

Sociologia americana anni ‘60= interazionismo simbolico, fenomenologia, etnometodologia,


sulle orme della sociologia weberiana, dell’idealismo tedesco (Dilthey).

La realtà sociale non può venire semplicemente osservata ma va interpretata. La vita


psichica non può essere spiegata ma semmai compresa. L’oggetto delle scienze sociali è un
mondo interno fatto di credenze, desideri e fatti intenzionali. L’intendere viene variamente
declinato come, empatia, intuizione, introspezione, ricostruzione immaginativa, ermeneutica
o più semplicemente come esperienza vissuta (Verstehen o Erlebnis).

Scienze nomotetiche e scienze idiografiche.

Windelband introduce la separazione fra:

➢ Scienze nomotetiche, finalizzate all’individuazione di leggi generali.


➢ Scienze idiografiche, invece, sono orientate a cogliere l’individualità dei fenomeni, la
loro unicità ed irripetibilità.

Per Weber il compito della scienza sociale è comprendere la razionalità intima che guida
l’agire sociale.

Tipo ideale (guscio vuoto, modello teorico che aiuta il ricercatore ad interpretare la realtà)
che nasce da un’astrazione, da un’accentuazione unilaterale di uno o di alcuni punti di vista.

➢ Si afferma non solo l’autonomia e la diversità delle scienze storico-sociali da quelle


naturali, ma viene ribadita la superiorità.
➢ Solo il metodo del Verstehen permetterebbe quella intelligibilità dall’interno.
➢ Il senso non può venire colto e quantificato con gli strumenti della logica, della
matematica, della statistica.
➢ Unico strumento che abbiamo a disposizione è l’empatia.

Ricerca empirica quantitativa e qualitativa.


Annosa antinomia che risale a tempi lontani. Entrambi gli approcci hanno contribuito allo
sviluppo della disciplina.

Anni ’20-‘30= scuola di Chicago (qualità).

Anni ’40-‘60= predominio della prospettiva quantitativa.

Anni ’60-’70-‘80= interazionismo simbolico, etnometodologia, fenomenologia.

A partire dagli anni ‘70= sia qualità che quantità. Lo scontro è tra quantità e qualità; tra
positivismo e neopositivismo.

Ricerca quantitativa Ricerca qualitativa

Relazione teoria-ricerca Strutturata Aperta, interattiva

Deduzione (la teoria Induzione (la teoria emerge


precede l’osservazione). dall’osservazione). La
La letteratura è cruciale. letteratura è ausiliaria.

Concetti Operativizzati Orientativi, aperti in


costruzione

Approccio naturalistico
Rapporto con l’ambiente Approccio manipolativo
(distacco) Empatia
(prossimità/contatto)

Rappresentatività Campione rappresentativo Singoli casi non


statisticamente
rappresentativi

Variano a seconda
dell’interesse dei soggetti
Strumenti di rilevazione Uniforme per tutti i
soggetti.

Matrice dati (casi x var)


Ricerca quantitativa Ricerca qualitativa

Natura dei dati Hard, oggettivi e Soft ricchi e profondi


standardizzati

Le variabili (molti casi e


Oggetto dell’analisi poche variabili cruciali) L’individuo (pochi casi
cruciali e molte variabili)

Obiettivo dell’analisi Spiegare la variazione ( la Comprendere i soggetti


varianza delle variabili
dipendenti)

Tecniche matematiche Nessun uso

Presentazione dei dati Tabelle Brani di interviste

Prospettiva narrativa

Generalizzazioni Modelli causali Tipi ideali

Portata dei risultati Generalizzabilità specificità

Criticità a cui va incontro l’approccio positivista e l’approccio interpretativo.

In uno studio quantitativo a tavolino è possibile che le categorie concettuali impegnate dal
ricercatore e riversate nello strumento di rilevazione (il questionario) non riflettano
accuratamente le categorie percettive dei partecipanti all’indagine.

Lo studio qualitativo è ampiamente de-standardizzato, ragion per cui non è possibile ripetere
lo stesso procedimento per confermare gli stessi risultati, o confutarli come nell’approccio
quantitativo. Diversi ricercatori posti di fronte allo stesso fenomeno giungeranno,
plausibilmente, a risultati diversi.

Il terzo approccio.

● È nominato “mixed methods” o approccio basato su metodi misti; possiamo quindi


studiare una cosa prima in un modo poi in un altro. Si possono applicare
simultaneamente o in sequenza metodi qualitativi o quantitativi in modo da illuminare
aspetti differenti del fenomeno oppure in modo di giungere ad una sorta di
convergenza dei risultati. Viene impiegato il termine triangolazione, che deriva dalla
topografia, che è l’atto di partire da due o più punti di vista differenti, combinando
diversi metodi di ricerca, in modo da realizzare una conoscenza più approfondita del
comportamento umano. Va da sé che i risultati ottenuti possono convergere,
divergere oppure risultare complementari. Tale approccio si basa su una corrente
filosofica denominata pragmatismo. E si basa sul presupposto che si possono
utilizzare diverse cornici concettuali e paradigmatiche, ma anche diversi metodi
(apparentemente incommensurabili) per risolvere problemi pratici.
● L’approccio dei metodi misti può concretizzarsi nella messa a punto di strategie
sequenziali oppure di strategie parallele. Adottiamo strategie sequenziali se l'obiettivo
è verificare la corrispondenza tra i risultati ottenuti con un metodo e quelli ottenuti con
un metodo concorrente, in un momento successivo. (esempio: facciamo un’indagine
esplorativa con metodo qualitativo e poi sviluppiamo un’indagine campionaria.
Oppure facciamo un’inchiesta campionaria e poi realizziamo un’indagine qualitativa
per cogliere i significati connessi a un dato comportamento. In alternativa i due
metodi possono essere applicati simultaneamente. Se si ottengono gli stessi risultati
possiamo sostenere con maggior forza le nostre ipotesi e teorie.
● L’incoerenza nei risultati che derivano dall’applicazione di due metodi differenti può
essere un indizio di distorsione, nel senso che uno o entrambi i metodi adottati non
sono in grado di rappresentare correttamente il fenomeno. Oppure l’incoerenza può
essere riconducibile al semplice fatto che metodi diversi intercettino aspetti differenti
del fenomeno.

La struttura di una ricerca.

“La ricerca scientifica è un processo creativo di scoperto, ma anche confermativo, che si


sviluppa secondo un itinerario prefissato e secondo procedure prestabilite che si sono
consolidate all’interno della comunità scientifica” (Corbetta 1999).

Logica della scoperta/logica della giustificazione (Windelband).

Teorie ed ipotesi.
➢ La teoria è un insieme di proposizioni organicamente connesse, che si pongono ad
un elevato livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali
sono derivate da regolarità empiriche e dalle quali possono essere derivate delle
previsioni empiriche. Nelle scienze mature, come la fisica, la chimica, la teoria si
concretizza in equazioni matematiche che formalizzano principi fondamentali da cui è
possibile fare previsioni molto precise. Nelle scienze sociali invece le teorie si
configurano come proposizioni che mettono in relazione concetti astratti.
➢ L’ipotesi è una proposizione che implica una relazione tra due o più concetti che si
colloca su un livello inferiore di astrazione e di generalità rispetto alla teoria e che
permette una traduzione della teoria in termini empiricamente controllabili.

La teoria dell’evoluzione per selezione naturale.

Vi consiglio di leggere la teoria dell’evoluzione di Darwin e la teoria del capitale umano


per capire meglio cosa si intende per teoria. La teoria dell’evoluzione per selezione
naturale ci dice che tutti i sistemi viventi sono imparentati, discendono da un antenato
comune. Che i sistemi viventi sono il prodotto di processi di variazione e di selezione. I
sistemi viventi che presentano varianti vantaggiose, hanno maggiori chances di
riproduzione. Tale teoria scaturisce da un misto di ragionamento induttivo e deduttivo.

La teoria del capitale umano.

Il capitale umano rappresenta una dotazione molto importante che influisce sul salario e
quindi sulle possibilità/condizioni di vita dei soggetti. Concetto astratto che comprende abilità
e competenze di varia natura che vengono riconosciute e premiate sul mercato del lavoro
(Becker 1964). Generalmente viene utilizzato come indicatore l’istruzione ma questo
indicatore non è sufficiente per realizzare copertura semantica di questo concetto che è
molto ampio. Dovremo tener conto anche della struttura di personalità, dell’intelligenza, della
forza di volontà, dell’esperienza lavorativa, dell’influenza dei pari ecc.

Esempio. La teoria del suicidio di Durkheim: “più elevato è il tasso di individualismo (o di


anomia) in un determinato gruppo sociale, maggiore sarà il tasso di suicidi in quel gruppo”.

· Hp1: ci si aspetta un minor tasso di suicidi fra le persone sposate e con figli (maggior
coesione sociale).

· Hp2: ci si aspetta un maggior tasso di suicidi tra i soggetti più acculturati o più
benestanti.
I concetti.

Con il termine “concetto” ci si riferisce al contenuto semantico dei segni linguistici. I concetti
come entità semantiche, immagini della mente, idee, disposizioni cognitive. Un concetto è
una percezione, un significato ampiamente condiviso entro una comunità (Marradi). Il
concetto è un ritaglio operato in un flusso di esperienze. Il ritaglio si realizza unificando
sensazioni visive, tattili, olfattive, uditive, gustative o una mescolanza di tutto ciò. Il concetto
sta ad indicare l’azione di ordinare il molteplice (le impressioni sensoriali) sotto un unico atto
astratto di pensiero. I concetti sono “i mattoni della teoria”. Per la moderna neuroscienza i
concetti sono strutture o processi fisici incarnati nei circuiti neuronali che ottemperano a
qualche funzione adattiva. I concetti non sono osservabili direttamente a meno che non si
faccia uso di qualche tecnica di neuroimaging ma sono inferibili attraverso espressioni
fenotipiche, parole, comportamenti, prodotti culturali.

17 ottobre 2022

La logica del processo di ricerca.

A cosa serve la ricerca?

Cis sono diversi modi per rispondere alle domande che affastellano la nostra mente:
possiamo affidarci al nostro intuito, al senso comune, al ragionamento logico oppure al
parere di soggetti che ricoprono ruoli di autorità. se tutto ciò ci lasciasse dubbiosi e
insoddisfatti avremmo ancora un’altra importante opportunità:l’adozione del metodo
scientifico. Quest’ultimo si concretizza nell’impiego di una serie di procedure sistematiche,
rigorose, controllate, che portano a un progressivo affinamento del senso comune (
Lundberg 1942; Burns 1944; Kerlinger 1986).

La ricerca scientifica “way of thinking”.

E’ bene inoltre sottolineare che il saper fare ricerca non si riduce al fatto di esibire una buona
cassetta degli attrezzi; fuor di metafora, non basta mostrarsi componenti nell’analisi dei dati o
nella costruzione di un questionario; occorre semmai una competenza più ampia, un modo di
pensare critico - way of thinking- che si concretizza nella capacità cognitiva di collegare le
astrazioni teoriche ai dati empirici. Una ricerca ben progettata si configura come un circolo
virtuoso che porta a un accrescimento delle conoscenze sul mondo (Tranfield e Starkey,
1998).
Le fasi del processo di ricerca.

1- Scelta dell’interrogativo di ricerca 5- Stesura del progetto di ricerca

2- Teoria e rassegna della letteratura 6- Plot testing o raccolta dei dati

- 3- Formulazione delle ipotesi 7- Analisi dell'evidenza empirica

4- Il disegno della ricerca: 8- Scrittura del rapporto e comunicazione


- individuazione/costruzione dello dei risultati
strumento di misura
- scelta delle unità su cui raccogliere
le informazioni

La formulazione dell’interrogativo.

La formulazione di un problema di ricerca costituisce il primo passo dell’investigazione


scientifica e merita un’attenzione particolare. Tale fase rappresenta il fondamento su cui si
definisce l’intero disegno di ricerca. Quanto più chiaro e specifico è l’interrogativo tanto meno
problematiche saranno le fasi successive, ovvero le procedure di costruzione, rilevazione e
analisi dei dati fino alla stesura del rapporto di ricerca. Alla fase di scelta del problema di
ricerca segue quella della costruzione dell'ipotesi che rappresenta un momento di
chiarimento della domanda e un tentativo di dare risposta all’interrogativo che ci si è posti.
Un’ipotesi è una proposizione che deve essere formulata in forma semplice e
concettualmente chiara in modo da poter essere sottoposta a verifica empirica. Nell’ambito
dell’approccio quantitativo, dopo aver sviluppato l’ipotesi è importante definire un modello
statistico che rappresenta la traduzione formalizzata di una teoria e al tempo stesso un ponte
di coniugazione con l’evidenza empirica.

L’importante funzione della rassegna teorica nello sviluppo dell’interrogativo.

Per sviluppare un interrogativo in modo appropriato è indispensabile fare una buona


rassegna teorica sull’argomento prescelto, che ci tuteli dallo scoprire l’acqua calda e ci
permetta di conoscere cosa hanno fatto altri ricercatori prima di noi. Qualora non ci fosse
sufficiente letteratura su un dato fenomeno sarebbe auspicabile confrontarsi con altri
ricercatori, interrogare testimoni privilegiati, fare dell’osservazione partecipante, organizzare
un focus group. Una rassegna bibliografica che tenga in dovuta considerazione i principali
contributi nazionali e internazionali costituisce un valido ausilio alla buona riuscita della
ricerca.

La domanda di ricerca deve tener conto dei vincoli di tempo e denaro.

La definizione della domanda di ricerca costituisce un momento alquanto delicato in quanto


mette in moto una serie di scelte teoriche, tecniche, organizzative che devono risultare
compatibili con i vincoli di tempo e denaro. Se conviene rivedere l’interrogativo e
ridimensionare le aspettative.

Gli interrogativi possono avere diversa natura.

Chi fa ricerca sociale può sviluppare interrogativi di una varia natura, può essere interessato
a esplorare un nuovo fenomeno, a descrivere quale forma assume un dato fenomeno entro
la popolazione, oppure può essere interessato a studiare l’effetto causale di una certa
circostanza o evento su un comportamento, oppure ancora può essere interessato a
catturare i principi generativi di regolarità osservate (Bryman 2012; Denscombe 2010).

Interrogativo di natura esplorativa.

Lo studioso che sviluppa un interrogativo di natura esplorativa si pone nell’ottica di fare una
prima ricognizione su un dato fenomeno di cui si sa poco o nulla, in modo da realizzare una
comprensione provvisoria. Un interrogativo esplorativo si presenta come una domanda vaga
e generica da cui il ricercatore non è in grado di derivare delle vere e proprie ipotesi né un
disegno di ricerca strutturato. Un esempio di interrogativo di natura esplorativa potrebbe
essere lo studio delle motivazioni che spingono un gruppo di amici e conoscenti ad
acquistare prodotti on-line.

Interrogativo di natura descrittiva.

Se l’interrogativo è di natura descrittiva il fuoco sarà puntato sulla forma che assume un
fenomeno, ovvero sulla distribuzione di una certa proprietà a livello di popolazione. Un
esempio di studio descrittivo è rappresentato dall’indagine sulla povertà condotta ogni anno
dalla Banca d’Italia, utilizzando un campione rappresentativo di circa 8000 famiglie (circa
24.000 individui), distribuire in circa 300 comuni italiani. In tale studio ci si pone l'obiettivo di
stimare la percentuale di soggetti e di famiglie che si collocano al di sotto della soglia di
povertà.

Interrogativa di natura associativa.

A un maggior livello di profondità si potrebbe studiare l’esistenza o meno di un’associazione


sistematica tra due variabili di interesse. Tornando all’esempio precedente, si potrebbe
studiare l’associazione tra la povertà e il titolo di studio, descrivendo come la percentuale di
individui al di sotto della soglia di povertà varia all’interno dei gruppi dei soggetti laureati,
diplomati e in possesso della licenza dell’obbligo.
Interrogativo di natura causale.

Interrogativi più complessi sono la stima degli effetti causali e la ricostruzione dei
meccanismi generativi delle regolarità empiriche. Un interrogativo di natura causale punta a
fornire una stima dell’effetto esercitato da una particolare caratteristica manipolabile
(denominata stimolo o trattamento) su un certo esito o comportamento (l’outcome). Per
esemplificare, la stima dell’effetto causale esercitato dall’introduzione della legge Sirchia,
entrata in vigore nel gennaio 2005, che vieta il fumo nei locali pubblici, sulla decisione di
smettere di fumare rappresenta un interrogativo di natura causale di grande interesse per il
policy maker.

Interrogativo di natura predittiva.

Gli interrogativi predittivi mirano, invece, a predire i valori ignoti di un dato fenomeno a partire
da valori noti di altri fenomeni. Per semplificare, si potrebbe predire il reddito dei soggetti
impiegando come predittori un certo numero di indicatori che fanno riferimento al possesso
di beni durevoli e allo stile di vita.

Interrogativi di natura previsiva.

Gli interrogativi previsivi mirano alla previsione delle tendenze future di un dato fenomeno a
partire da informazioni passate sullo stesso fenomeno o su altri fenomeni. La previsione del
rischio di fallimento di imprese attualmente attive sulla base di indici di bilancio e di variabili
macroeconomiche oppure la stima del rischio di caduta delle persone anziane sulla base
dell’età, delle condizioni fisiologiche, della presenza di malattie e del consumo di determinati
farmaci, rappresentano interrogativi di natura previsiva.

La diversa natura degli interrogativi di ricerca.

Interrogativo di natura esplorativa Le interazioni su Facebook, Twitter,


Whatsapp contribuiscono allo sviluppo di
un’identità sociale?

Interrogativo di natura descrittiva Qual è la percentuale di elettori che intende


votare alle prossime elezioni politiche per la
coalizione di sinistra?

Interrogativo di natura associativa La propensione ad andare in vacanza varia


dal titolo di studio?

Interrogativo di natura causale Qual è l’impatto delle pratiche di


responsabilità sociale sul fatturato
dell’azienda?
Interrogativo di natura predittiva In che misura il ruolo professionale predice
il livello di reddito?

Interrogativo di natura previsiva Il numero di bocciature e il voto alla maturità


ci consentono di prevedere con sufficiente
precisione il fenomeno dell’abbandono
scolastico al primo anno di università?

Interrogativo di natura esplicativa Quali sono i processi sociali, psicologici e


fisiologici che spingono i soggetti a
sviluppare la dipendenza da sostanze
stupefacenti?

Rassegna della letteratura.

Dalla rassegna possiamo conoscere quanto si sa su un certo argomento, quali teorie e


ipotesi sono state formulate, quali metodi di misurazione sono stati impiegati, quali disegni di
campionamento e quali strategie analitiche sono state adottate.

Per fare una buona rassegna dovremmo selezionare gli articoli pubblicati su riviste
specialistiche, i contributi più recenti, eventualmente anche articoli di rassegna che
sintetizzano i risultati di precedenti ricerche negli ultimi anni. Meglio trovare articoli di
rassegna sistematica.

Oggigiorno abbiamo importanti strumenti informatici per realizzare rassegne in poco tempo
messi a disposizione dalle biblioteche. Come ad esempio:

● I cataloghi online opac ad accesso pubblico;


● Altri strumenti di consultazione sono ERIC, JSTOR, Cochrane Collaboration;
● Potete utilizzare Google Scholar ma anche Wikipedia;
● E tra le librerie on-line segnaliamo ovviamente Amazon.

Il disegno della ricerca.

Per disegno di ricerca intendiamo una serie di procedure che riguardano quale popolazione
studiare e con quali metodi al fine di rispondere all’interrogativo che ci siamo posti. Col
disegno di ricerca ci poniamo nell’ottica di raccogliere l’evidenza empirica di miglior qualità
per verificare le ipotesi teoriche. Quando disegnano una ricerca dobbiamo tener conto delle
nostre capacità e delle risposte disponibili (vincoli temporali e finanziari).

● Dopo aver formulato un interrogativo (la domanda di ricerca) il ricercatore deve


disegnare una ricerca;
● Aumento del livello di disuguaglianza nella società, implica l’aumento della
criminalità;
● E’ il momento in cui decidiamo come operativizzare ciò che stiamo studiando,
dichiarare le operazioni e le tecniche da usare per valutare i nostri concetti
fondamentali;
● E’ il momento in cui decidiamo chi o che cosa studiare, quante persone, luoghi o
cose campionare.
● E’ il momento in cui decidiamo dove collocare la nostra ricerca, in termini sia
temporali, sia spaziali (quando condurre la ricerca e per quanto tempo).
● Per realizzare un buon disegno di ricerca è bene confrontarsi con la letteratura
esistente;
● La rassegna della letteratura è un momento di cruciale importanza per vedere come
altri ricercatori hanno affrontato un dato tema con quali strategie analitiche, con quali
tecniche di raccolta dei dati).

● Un disegno di ricerca non deve essere per forza originale e può concretizzarsi:
1) nella replicazione di un disegno precedente ma con nuovi dati;
2) in un approfondimento di aspetti di un fenomeno che sono stati trascurati;
3) nell’applicazione di un diverso metodo di indagine (l’esperimento in alternativa
all’indagine campionaria o all’osservazione partecipante).

● Quale metodo di indagine? Dipende dall’interrogativo.


1) indagine qualitativa (significati)/indagine quantitativa (comportamento)
2) indagine descrittiva/associativa/esplicativa
3) quantificare un parametro a livello di popolazione
4) quantificare l’intensità della relazione tra Y e X
5) stimare l’impatto causale di X su Y

● La dimensione temporale.
1) studi trasversali (cross-sectional)
2) studi longitudinali
3) studi trend
4) studi coorte
5) studi panel

Gli elementi di una proposta di ricerca.

Il disegno della ricerca: quali metodi, strategie analitiche e procedure utilizzate per
rispondere all’interrogativo che ci siamo posti. Dopo aver dichiarato che posa si intende
scoprire si deve trovare il modo migliore per farlo. A tal scopo è necessario prendere una
serie di decisioni riguardo ai seguenti punti:

● la popolazione di riferimento, quali soggetti selezionare (definizione del campione)?


● lo strumento di misurazione, come operativizzare i concetti e quali variabili utilizzare?
● le tecniche di raccolta dei dati, ci poniamo l’obiettivo di descrivere un fenomeno? Di
studiare la relazione associativa tra le variabili? Valutare l’impatto causale?

Il piano della ricerca, è appropriato redigere uno scadenziario o piano delle varie fasi della
ricerca.

Il costo della ricerca, è necessario redigere un bilancio in cui specifichiamo come


spenderemo i fondi. Progetti ampi e costosi comprendono più categorie di spesa: quelle per
il personale, le attrezzature, gli spostamenti, la raccolta dei dati ecc.

Dai concetti alle proprietà operativizzate (variabili 1).

I concetti devono essere tradotti in proprietà di oggetti empiricamente “rilevabili” e queste


ultime in variabili. Gli oggetti (cose, persone, gruppi, istituzioni, eventi ecc.) sono le unità di
analisi. Esempi di operativizzazione dei concetti/costrutti:

● Il concetto di partecipazione politica > in partecipazione al voto, militanza politica;


● La ricchezza di un paese può essere misurata tramite PIL;
● Qualità della vita nelle città misurata tenendo conto di
- sicurezza
- istruzione
- infrastrutture
- sanità
- cultura e ambiente

Dai concetti alle proprietà operativizzate (variabili 2).

Gli indicatori possono assumere stati diversi sugli oggetti dell’analisi: variano passando da
caso a caso.

Per trasformare un indicatore in variabile dobbiamo assegnare agli stati dell’indicatore un


valore numerico.

Una variabile è una caratteristica o un attributo di persone, oggetti o eventi che può
assumere diversi valori numerici.

Chiamiamo modalità (o spazio degli stati o degli attributi), gli stati operativizzati della
proprietà, a ognuna delle quali viene assegnato un differente valore simbolico, normalmente
costituito da un numero.

Operativizzazione= Concetto> proprietà> variabile.


I concetti astratti devono essere ricondotti ad attributi o proprietà di oggetti concreti. Una
proprietà si configura come una distribuzione di stati (o di categorie).

Ne segue che:

➔ il processo di operativizzazione si concretizza nell’assegnazione di valori numerici


agli stati di una proprietà.
➔ il processo di operativizzazione, vale a dire di attribuzione di valori numerici alle
categorie che definiscono lo spazio degli stati di una proprietà viene variamente
definito:
- classificazione (var. nominali)
- ordinamento (var. ordinali)
- misurazione (var. metriche)
- conteggio

Le variabili.

Una variabile è un concetto operativizzato. Una variabile varia passando da caso a caso;
oppure negli studi longitudinali una variabile può variare anche in riferimento ad uno stesso
caso misurato in momenti differenti. Le variabili possono essere distinte in:

➔ dipendente/indipendente
➔ manipolabili/non manipolabili
➔ latenti/osservate
➔ individuali/collettive
➔ nominali/ordinali/a intervalli/di rapporti

Le scale ad intervalli non possiedono uno zero assoluto, quelle di rapporti posseggono uno
zero assoluto (le scale assolute sono per esempio quelle ottenute mediante conteggio).

Variabili nominali.

Variabile nominale: la proprietà di registrare assume stati discreti non ordinabili. Esempio:
genere, religione praticata, nazionalità.

● Le categorie sono gli stati di una proprietà.


● Le modalità sono le categorie operativizzare, ovvero i valori assegnati alle modalità
(di solito si tratta di numeri).
● La procedura di operativizzazione che permette di passare dalla proprietà alla
variabile è la classificazione.
● Le categorie devono essere esclusive ed esaustive. Possiamo stabilire solo relazioni
di uguaglianza, disuguaglianza fra le modalità.
Variabili ordinali.

● La proprietà da registrare assume stati discreti ordinabili;


● Esempio: titolo di studio, gerarchia occupazionale, ceto, atteggiamenti misurati su
scale di likert (molto, abbastanza, poco, per nulla d’accordo);
● L'esistenza di un ordinamento permette di stabilire relazioni di uguaglianza,
disuguaglianza fra le modalità, ma anche di instaurare relazioni d’ordine, vale a dire
“maggiore di”, "minore di”.
● Non è nota la distanza tra le diverse modalità.

La modalità di operativizzazione è l’ordinamento.

Variabili cardinali.

● I numeri che identificano le modalità della variabile non sono semplici etichette ma
hanno un significato numerico (designano quantità). Esempio: età, reddito, numero
dei figli, altezza, peso, indice, massa corporea.
● E’ nota la distanza tra due valori, dunque si possono effettuare operazioni
matematiche di somma, sottrazione, moltiplicazione e divisione.
● Parliamo di misurazione quando la proprietà da misurare è continua (può assumere
infiniti stati intermedi in un dato intervallo); esempio, lunghezza espressa in metri.
● Parliamo di conteggio quando la proprietà da registrare è discreta, assume cioè stati
finiti, non frazionabili (esempio: il numero dei figli, numero di volte che una persona
va in vacanza in un anno, ecc).

19 ottobre 2022

Variabili.

➔ Variabile nominale= qualitativa; con essa si può calcolare la moda.

Variabili quantitative: metriche, quantitative, i numeri hanno un significato quantitativo.


Possiamo calcolare la media. Possiamo calcolare diverse misure. Le variabili quantitative
possono essere trasformate in variabile quantitative.
La traduzione empirica di un concetto complesso.

Benessere: stare bene. Si può intendere il benessere come la salute, il reddito, la


dimensione culturale, dello svago, dimensione relazionale.

La dimensione della salute è possibile misurarla attraverso dati oggettivi, come il colesterolo,
pressione, ecc. Il reddito è possibile invece, misurarlo attraverso il guadagno.

Gli indicatori, esempio altezza, peso, quindi delle variabili che insieme formano un indice.

Inferenza semantica e differenza statistica: dalle misurazioni dei costrutti alle


descrizioni degli attributi della popolazione.

Esistono due tipi di inferenza:

1) Di tipo semantico, dalle risposte date, verranno estrapolate le semantiche del


concetto.

2) Di tipo statistico, stimiamo un parametro su un campione, cioè una parte, e il nostro


obiettivo è quello di estendere ad esso, dell’informazione.

L’errore di rilevazione/misurazione.

L’errore di rilevazione o misurazione è uno scarto, uno spostamento tra il valore vero e il
valore osservato; quindi tra il valore teorico e il valore empirico. Il valore osservato è intriso di
errore, di distorsione.

Dobbiamo conoscere tale errore e cercare di sistemarlo. Tale errore può essere diviso in
sistematico e occidentale.

Valore osservato (che conosciamo): valore vero (che non conosciamo) + errore sistematico
+ errore accidentale.

24 ottobre 2022

L’errore sistematico.

E’ quell’errore che si presenta sempre, nel corso delle varie rilevazioni.


● L'errore sistematico è una distorsione o errore costante, nel senso che si
presenta in tutte le rilevazioni; sia che si tratti di rilevazioni su individui diversi,
sia che si tratti di repliche della rilevazione sugli stessi individui.
●Il suo valore medio sul totale dei casi osservati non è pari a zero, ma assume
un valore positivo o negativo nel senso che il “valore osservato” tende
sistematicamente a sovrastimare o sottostimare il “valore vero”.
● L'errore accidentale o random, varia nel corso di successive rilevazione.
Avremmo spostamenti in positivo che saranno bilanciati in spostamenti in
negativo; è un errore che ritroveremo alla base quando calcoleremo l’errore di
campionamento.
Esempi di errori accidentali.

Esempio. la pressione del sangue di un individuo se rilevata in tempi differenti, avremo valori
differenti. La ripetizioni della stessa misurazione sullo stesso soggetto e nelle stesse
condizioni non darà mai un risultato assolutamente identico alla misurazione precedente.
Le risposte ad un medesimo questionario da parte di un medesimo soggetto possono
differire nel corso di successive somministrazioni.
Avremo variazioni dovute allo stato psicofisico dell’intervistato al momento dell’intervista, alla
differente interpretazione della domanda, alla differente reazione di fronte all'intervistatore,
ecc.
Il modo più semplice per disegnare un errore probabilistico è avere una lista di abitanti,
estraiamo a caso 1000 soggetti e somministriamo loro il questionario, in cui gli viene chiesto
il reddito mensile annuale. otteniamo un valore circa 1200 euro. Facciamo la stessa cosa
con altri 1000 soggetti, ma la statistica del reddito sarà sicuramente diversa

L’errore accidentale: componente di errore specifica di ogni singola


rilevazione.

● E’ un errore variabile, che varia da rilevazione a rilevazione. Varia in ipotetiche


repliche della stessa rilevazione sullo stesso individuo, e varia passando da un
campione di individui ad un altro.

● Si tratta di oscillazioni che, su tutte le possibili repliche della rilevazione e su tutti i


possibili campioni, tendono ad una media (valore atteso) pari a zero.

● Errore dovuto all'imperfezione dello strumento di misura e alla riproducibilità di ogni


fenomeno biologico e sociale.

● L’errore accidentale varia passando da un campione di casi ad un altro.

● Questa variabilità dell’errore fra i campioni è alla base dell’errore di campionamento:


infatti effettuando una rilevazione su un campione differente di soggetti, si ottiene un
valore differente della statistica oggetto dello studio (una media, una proporzione).

Le sorgenti dell’errore.

1- Sorgente teorica: errore di indicazione, che porta alla scelta degli indicatori;
2- Sorgente empirica: errore che consiste nella rilevazione degli indicatori stessi.
Un indicatore può essere scelto male oppure rilevato male.

L’errore nella fase di indicazione.

E’ un errore sistematico. Esempio, la partecipazione volontaria entro organizzazioni


ricreative come indicatore di altruismo.
● La parte indicante dell’indicatore può ricoprire parzialmente la semantica del
concetto.
● Se la parte estranea sovrasta la parte indicante, l’indicatore è affetto da errore
sistematico.

L’errore compiuto nella fase di rilevazione.

Può essere sia sistematico che accidentale.


➔ errori di selezione:
- errore di copertura ossia quando abbiamo una lista di campionamento, da cui
dobbiamo estrarre il campione che non è esaustiva
- errore di campionamento, è di errore accidentale, quantificabile applicando
una certa formula;
- errore di non risposta, può essere un errore sistematico; random, può
capitare;
➔ errori di osservazione:
- intervistatore, quando non si comporta in modo corretto; deve minimizzare le
forme di distrazione; deve rilevare il dato in modo tendenzialmente oggettivo,
limitare il comportamento emotivo, essere simpatico, ma non dare troppa
confidenza. soprattutto l’intervistatore non deve influenzare la risposta.
- intervistato, può essere onesto, oppure dare delle risposte false per fare bella
figura.
- modo, bisogna fare attenzione alla modalità di somministrazione del
questionario, come ad esempio bisognerebbe evitare il cellulare; magari
spedire un questionario per e-mail, o per posta; o ancora avere un
intervistatore che compila il questionario, mentre l’intervistato risponde alle
domande.
➔ errore nel trattamento dei dati

★ L’errore accidentale introduce un bias? no


★ L’errore sistematico introduce un bias ? si

Errori di selezione.

➢ L’errore di copertura: quando la lista della popolazione (sampling frame) dalla quale
estraiamo i casi del campione non è completa. Esempio: rubrica telefonica per
stimare il reddito medio delle famiglie.
➢ L’errore di campionamento: la stima ottenuta su un dato campione è diversa rispetto
a quella ottenuta su un campione differente.

➢ L’errore di non risposta: alcuni soggetti pur appartenendo al campione possono non
essere raggiunti dall’intervistatore (non rispondenti) oppure possono rifiutarsi di
rispondere all’intero questionario o ad alcuni item.

Errori nel trattamento dei dati.

Errori di codifica, di trascrizione, di memorizzazione su un supporto informatico, di


elaborazione, ecc.

In conclusione.

Gli errori di
- selezione
- osservazione
- e nel trattamento dei dati
possono essere sia sistematici che accidentali.

Esempio. Una domanda sul reddito comporterà una sottostima costante del reddito vero
(errore sistematico); nello stesso modo una domanda può implicare fraintendimenti o parziali
incomprensivi variabili da soggetto a soggetto (errore accidentale).

L’approccio dell’errore globale (Groves 1989).

L’errore globale di una ricerca non è stimabile: troppe componenti sfuggono al nostro
controllo.
L’errore sistematico, per definizione si presenta in tutte le possibili repliche della rilevazione e
sfugge a qualsiasi rilevazione.
Ciò che possiamo misurare è una componente di questo errore globale, e cioè l’errore di
campionamento.

Attendibilità.

L’attendibilità ha a che fare con la “riproducibilità/ripetizione” del risultato, es segnala il grado


con il quale una certa procedura di traduzione di un concetto in variabile produce gli stessi
risultati in prove ripetute con lo stesso strumento di rilevazione (stabilità) oppure con
strumenti equivalenti (equivalenza).

Attendibilità tra valutatori (inter-rater reliability).


Si verifica la congruenza delle valutazioni espresse da due o più rilevatori in riferimento ad
uno o più indicatori di un tratto latente che si intende misurare. Esempio: due psichiatri che
valutano il livello di depressione di un gruppo di pazienti.

Attendibilità test-retest.

Esprime la congruenza tra due misurazioni dello stesso costrutto effettuate sugli stessi
individui, nelle medesime circostanze e in momenti temporali diversi, nell’ipotesi che il
fenomeno di studio mostri una certa stabilità. Per avere una stima della test-retest reliability
basta calcolare una correlazione statistica tra le due misurazioni. Quanto più ampio è
l’intervallo temporale tanto più basso è il livello di attendibilità.

Metodo dello split-half.

Si verifica la coerenza tra due gruppi di indicatori che rappresentano forme parallele di un
medesimo costrutto.
Si divide lo strumento di misurazione in due metà e si considerano le due metà come
strumenti tendenzialmente equivalenti.
Esempio. 20 indicatori di salute mentale (10 indicatori estratti casualmente formeremo un
indice, gli altri 10 un altro indice). La correlazione tra i punteggi totali delle misure
rappresenta una stima della split-half reliability.

Metodo della coerenza interna.

Si valuta un certo numero di indicatori, che formano un dato strumento di misura.


Gli items vengono giudicati attendibili se si muovono nella stessa direzione e se sono
fortemente correlati uno all’altro.
Si stima l’attendibilità facendo una media delle correlazioni bivariate tra gli indicatori prescelti
oppure calcolando l’Alpha di Cronbach.

Attendibilità (Reliability).

● Attendibilità: una misura è perfettamente attendibile se è affidabile ovvero se non è


affetta da errore random e(r), ovvero e(r)=0;
● Attendibilità verificata in prove ripetute (test-retest reliability): ai soggetti campionati è
somministrato un dato strumento di misura in due o più momenti diversi. Il grado di
similarità tra le due misurazioni esprime l'attendibilità.
● Attendibilità verificata con strumenti equivalenti (alternative form/split-half reliability):
due o più strumenti di misura che sono tendenzialmente equivalenti sono
somministrati ai soggetti rispondenti. La correlazione tra due o più misure riferite a
due o più strumenti esprime il grado di attendibilità.

La validità (validity).

Uno strumento è valido se misura la validità di un oggetto, cioè quello che intendiamo
misurare. La validità fa invece riferimento al grado col quale una certa procedura di
traduzione di un concetto in variabile effettivamente rileva il concetto che si intende rilevare.
- Il QI misura effettivamente l’intelligenza?
- Il PIL misura effettivamente la ricchezza di una nazione?
Attenzione! Una certa procedura operativa può essere perfettamente stabile in successive
applicazioni (cioè attendibile), senza per questo essere valida!!

Esempio: misurazione dell’intelligenza sulla base del numero di scarpe oppure non posso
utilizzare la bilancia per misurare l’altezza delle persone.
Esempio: per misurare l’obesità non è sufficiente raccogliere informazioni sul peso, ma devo
costruire l’indice di massa corporea rapportando il peso al quadrato dell’altezza (p/h*2).

Validità di contenuto.

Indica il fatto che che l’indicatore o gli indicatori prescelti per un certo concetto coprano

effettivamente l’intero dominio di significato del concetto → giudizio di un esperto/processo

intuitivo.
La convalida avviene su un piano logico/teorico/intuitivo piuttosto che empirico.

Validità per criterio.

La convalida si basa sulla corrispondenza tra l’indicatore ed un criterio esterno ( di cui è


stata accertata la correlazione con il concetto).
- Validità concorrente: la nuova misura e il criterio sono empiricamente disponibili
(correlazione tra il punteggio della scala di autostima da parte degli studenti e il
punteggio di autostima degli scolari fatta dagli insegnanti).
- Validità predittiva: le informazioni sulla variabile criterio non sono ancora disponibili
(correlazione tra il punteggio conseguito all’esame di maturità e il punteggio che gli
stessi studenti conseguiranno all’esame di laurea).

Validità di costrutto.

Rappresenta una combinazione dei due precedenti tipi di validità.


E’ la rispondenza di un indicatore alle attese teoriche in termini di relazioni con altre variabili.
E’ un procedimento che si basa su considerazioni teoriche e sul riferimento ad altri indicatori
già accettati come validi.

Construct validity.

Si valuta il grado di accordo tra indicatori che misurano uno stesso concetto teorico (validità
convergente) e il grado di disaccordo tra indicatori che misurano costrutti differenti (validità
divergente). Qualità del lavoro (stipendio, opportunità di carriera). Benessere mentale
(soddisfazioni verso la vita, energia).

Attendibilità vs Validità → errore accidentale vs errore sistematico.

In genere si associa
- l’attendibilità all’errore accidentale
- e la validità all’errore sistematico
Per questo l’attendibilità è più facilmente rilevabile della validità, in quanto l’errore

accidentale è individuabile attraverso repliche della rilevazione sullo stesso soggetto (le

variazioni di valore fra le repliche sono dovute all’errore accidentale) → test-retest,

→correlazione fra x(t) e x(t+1).

Oppure la correlazione tra due o più misure diverse ma pur tuttavia simili →split-half

(suddivisione a metà) e forme equivalenti di batterie di items.


Correlazione tra x(t) e y(t).

La relazione tra Attendibilità e Validità.

Se una misura è perfettamente valida, essa è anche perfettamente attendibile. In questo


caso si delinea: X0 = Xt → 0 & E sistematico = 0

● Se una misura non è perfettamente attendibile, non può essere perfettamente valida,
dal momento che si delineerà che X0 = Xt + E random.
● In aggiunta può essere presente anche l’errore sistematico i.e., E sistematico =/da 0.
In questo caso, la non attendibilità implica non validità.
● Una misura perfettamente attendibile può rivelarsi non valida, poiché può essere
presente l’errore sistematico (X0 = Xt + E sistematico).
● L’attendibilità è una condizione necessaria ma non sufficiente per la validità.

Che cos’è la “survey methodology”.


E una disciplina che stabilisce quali sono le regole corrette per:
● Raccogliere informazioni sul mondo economico e sociale;
● per rilevare, misurare e minimizzare gli errori che si presentano in ogni step della
ricerca.

In particolare si occupa di come:


● disegnare una richiesta campionaria;
● collezionare i dati raccolti;
● analizzare l’evidenza empirica;
● valutare le stime dei parametri e l’incertezza attorno alle stime.

26 ottobre 2022

L’inchiesta campionaria.

E’ un metodo per:
1) rilevare informazioni
2) interrogando individui ( in forma orale o scritta) oggetto della ricerca;
3) appartenenti ad un campione rappresentativo (deve riprodurre su scala ridotta le
caratteristiche della popolazione di riferimento);
4) mediante procedure standardizzate
- standardizzare dello stimolo (a tutti i soggetti devono venire poste le stesse
domande);
- standardizzazione delle categorie di risposta ( questionario con domande
chiuse);
- standardizzazione della raccolta dei dati (matrice casi per variabili).
5) allo scopo di studiare non solo la consistenza di un dato fenomeno (sondaggio) ma
anche le relazioni tra le variabili (investigazione sui meccanismi causali) e le relazioni
tra casi (analisi dei raggruppamenti).
NB: a cosa serve un’inchiesta campionaria? quando viene fatta? serve per stimare la
prevalenza di un fenomeno e studiarne i dati.
ps.(associazione non significa causazione).

L'invarianza dello stimolo.

Posizione oggettivistica: il dato sociale può essere rilevato oggettivamente → il rapporto

intervistato-intervistatore deve essere spersonalizzato.


➢ L’intervistatore deve apparire interessato, simpatico ma non deve eccedere nella
familiarità. Un corto grado di formalità burocratica è preferibile.
Posizione costruttivista: il dato sociale non viene osservato, raccolto e registrato, ma
costruito o generato nell’interazione fra osservatore e osservato.
➢ L’asetticità del rapporto è un mito privo di fondamento. Nessun intervistatore può
recitare il ruolo di “registratore naturale”. Anche l'intervistato subisce una qualche
alterazione nel momento in cui viene sottoposto ad un'intervista.

Obiettivo della posizione oggettivista-uniformista e criticità.

● Messa a punto di uno strumento di rilevazione standardizzato in modo da garantire

l’invarianza dello stimolo → precondizione fondamentale al fine di rendere

comparabile le risposte. Le risposte sono ritenute comparabili se gli intervistati sono

stati sottoposti tutti alle stesse domande ed in situazioni di intervista pressoché


uniformi.
Criticità: chi ci garantisce che ad uniformità degli stimoli corrisponda l’uniformità dei
significati?
Le domande standardizzate non assicurano comunanza di significato per tutti gli intervistati.
Torna la contrapposizione tra due paradigmi fondamentali, ovvero l’alternativa tra
questionario ed intervista non strutturata (o in profondità).
● Ultima provocazione!!! Il comportamento verbale è un’affidabile fonte di esplorazione
della realtà sociale? L’intervistato può dare risposte socialmente desiderabili (per fare
bella figura), oppure pur non avendo una precisa opinione in merito ad un dato
argomento, può rispondere a caso (le categorie “non so” o “non sono a conoscenza”
possono essere percepite come confessioni di ignoranza). Pertanto, il
comportamento verbale è un’affidabile fonte di esplorazione della realtà sociale?
L’intervistato può dare risposte socialmente desiderabili (per fare bella figura);
oppure, pur non avendo una precisa opinione in merito ad un dato argomento, può
rispondere a caso.

Giochi linguistici e fluttuazione dei significati.

Il sociologo si trova a dare la stessa importanza


- ad opinioni passeggere, volubili, increspature superficiali destinate a cambiare
dall’oggi al domani;
- e ad opinioni consolidate che affondano le loro radici nella stessa biografia
dell’intervistato.
La tecnica del questionario non è capace di distinguere:
- le opinioni intense e stabili
- da quelle deboli e volubili
La formulazione del questionario.

● E’ un’impresa complicata e difficile, richiede impegno e attenzione; un cattivo

strumento di rilevazione può precludere la buona riuscita dell’indagine: garbage in →

garbage out.
● Per analizzare un buon protocollo di rilevazione si può fare affidamento a precedenti
inchieste e impostare le medesime domande di cui è stata già accertata la validità e
attendibilità.
Attenzione!!! Non è plagio copiare le domande da altri questionari (Sudman e Bradburn
1982).
● Si cumula conoscenza.

Le proprietà rilevate.

Proprietà sociografiche di base:


➔ di tipo individuale (età, genere, istruzione, origine sociale)
➔ e contestuale (area di residenza, tipo di famiglia, ecc.)
➔ facili da rilevare;
➔ fungono da potenziali fattori esplicativi o perlomeno var. di controllo.
Atteggiamenti (opinioni, motivazioni, orientamenti, sentimenti, valori, disposizioni cognitive, in
una parola l’habitus).
➔ possono risultare inconsci, ambigui, ambivalenti, variare da persona a persona in
termini di intensità.
➔ le domande relative agli atteggiamenti sono difficili da formulare, somministrare e
rilevare (domande motivazionali).
➔ fungono da microfondamenti dei fatti sociali e meccanismi esplicativi dei
comportamenti.
Comportamenti (azioni, pratiche sociali, eventi)
➔ che siano facili da ricordare, siano non equivoci, empiricamente osservabili e
controllabili;
➔ è più facile rispondere a domande su comportamenti che a domande su
atteggiamenti (domande fattuali).

Domande aperte e domande chiuse.

La domanda aperta è quella nella quale l'intervistato è libero di rispondere come meglio

crede → La risposta viene integralmente trascritta dall’intervistatore e successivamente

codificata (forzatura a posteriori).


La domanda chiusa è quella, invece, nella quale all’intervistato, oltre alla domanda, viene
anche presentato un ventaglio di possibili risposte entro le quali è invitato a scegliere quella
più appropriata al suo modo di vedere (forzatura a priori).

● la domanda chiusa può in talune circostanze:


- facilitare il ricordo
- stimolare l’analisi e la riflessione
● di contro può:
- lasciare fuori alcune modalità
- le alternative proposte possono influenzare le risposte
- una data modalità di risposta può significare “cose” differenti nelle menti dei
singoli soggetti intervistati.
E’ possibile immaginare che in un’inchiesta basata sul questionario ci siano domande aperte
e domande chiuse.

Come formulare le domande in modo da non influenzare le risposte.

➔ Semplicità di linguaggio, formulate in un linguaggio chiaro, conciso e non


ambiguo;
➔ Poche alternative di risposta (non più di 5 se vengono presentate a voce);
➔ Evitare parole dal forte connotato emotivo (negativo o positivo);
➔ Evitare domande multiple (tali domande vanno sdoppiate);
➔ Evitare domande non discriminanti;
➔ Evitare domande tendenziose (dette anche viziate o a risposta pilotata);
➔ Evitare domande a cui il soggetto non dovrebbe rispondere (inserire domande

filtro) → prima di chiedere per chi ha votato occorre mettere la domanda filtro

se il soggetto è maggiorenne, se è andato a votare oppure no.


➔ E’ preferibile rilevare informazioni su comportamenti che su atteggiamenti.
➔ Evitare domande che suscitano risposte socialmente desiderabili (domande di
prestigio, risposte normative).
➔ Studiare attentamente la formulazione di domande potenzialmente
imbarazzanti (comportamento sessuale, reddito, comportamenti devianti) →

meglio rincorrere a domande a domande aperte, collocate a metà

questionario o nella parte finale.


➔ Spiegare all’intervistato che anche la mancanza di opinione è una modalità di
risposta legittima.
➔ Saper cogliere l’intensità, la gradazione degli atteggiamenti, delle prese di
posizione ecc.
➔ Evitare batterie di domande che inducano all’acquiescenza, ovvero la
tendenza a rispondere sempre allo stesso modo (a causa della pigrizia, per
mancanza di opinione, per deferenza).
➔ Effetto memoria (utilizzare punti di riferimento temporali, ancoraggi). Quando
si rilevano eventi entro una data finestra temporale.

La sequenza delle domande.

Dal momento che il rapporto intervistato-intervistatore è asimmetrico è bene che


l’intervistatore prima di rivolgere le domande metta l’intervistato a suo agio e gli faccia capire
come funziona l’intervista.
Conviene somministrare all’inizio domande facili, non troppo invadenti e non troppo personali
(domande che hanno lo scopo di rassicurare ed istruire).
Le domande imbarazzanti (comportamenti illegali, rischiosi, socialmente stigmatizzati) è
bene inserire a metà questionario, dopo che l’intervistatore è riuscito a conquistarsi la fiducia
dell’intervistato. Forse è meglio inserirle alla fine in modo da minimizzare i danni di
un’eventuale interruzione dell’intervista.
Il questionario deve essere strutturato in modo che si mantenga vivo l’interesse e l'attenzione
dell’intervistato.
Le domande che fanno riferimento agli argomenti che si intende sondare devono essere

somministrate seguendo una sequenza logica → tecnica dell’imbuto (dal generale al

particolare).
Le domande che non richiedono sforzi cognitivi (es. le socio demografiche) possono essere
rivolte nella fase finale (nel momento in cui cala l’attenzione).
Il tempo medio di intervista dovrebbe attestarsi a 45 minuti nel caso dell'intervista faccia a
faccia e a 25 minuti nel caso di intervista telefonica.

Tecnica delle scale.

Un procedura che fa uso delle batterie di domande è la tecnica delle scale (scaling), che si
applica per l’area della cosiddetta “misura degli atteggiamenti”.

Le modalità di rilevazione e di somministrazione del questionario.

Ci sono tre modi di somministrazione di un questionario:


- intervista faccia a faccia
- intervista telefonica
- questionario autocompilato (via posta, via internet, in loco).
Dagli anni ‘30 agli anni ‘70 → intervista faccia a faccia; dagli anni ‘80 →intervista telefonica in

conseguenza della diffusione del telefono.

L’identikit dell'intervistatore ideale.


Innanzitutto va precisato che le caratteristiche dell’intervistatore dipendono dalla
composizione sociale dei soggetti intervistati. In linea di massima:
- donne
- lo status sociale medio (non troppo superiore a quello dell’intervistato)
- età (persone di mezza età)
- istruzione (media, tipo diploma)
- abbigliamento non vistoso
- congruenza di razza o di etnia
Per riassumere, l'intervistatore ideale è una donna, sposata, di mezza età, diplomata,
casalinga, di ceto medio, con abbigliamento non vistoso né eccentrico.

Interviste faccia a faccia.

L'intervistatore ricopre una posizione centrale; legge le domande e le opzioni di risposta


nell'esatto ordine, riportando le risposte così come sono fornite dal rispondente.
Il ricercatore deve organizzare (briefing) incontri nel corso dei quali addestra gli intervistatori,
limitandone i margini di discrezionalità.
L'intervistatore deve apparire neutrale, deve tenere viva l’attenzione dell’interessato e non
deve condizionarlo con parole, il tono di voce, sguardi di approvazione o disapprovazione.

Vantaggi/svantaggi dell’intervista (faccia a faccia).

Vantaggi:
➔ interviste di maggior durata;
➔ possibilità di utilizzare immagini, video, oggetti (test del prodotto, test della
confezione)
➔ il rispondente è identificato con certezza
➔ è più facile contattare e convincere il rispondente a collaborare
➔ possibilità di istruire il rispondente sul significato delle domande
➔ possibilità di raccogliere informazioni sul contesto

Svantaggi:
➔ molto costosa
➔ necessità di organizzare capillare sul territorio
➔ lunghi tempi di raccolta
➔ maggiori rischi di condizionamento da parte dell’intervistatore

Interviste telefoniche: i vantaggi.

● Rilevazione:
- su ampi campioni
- in tempi rapidi
- a basso costo (risparmi fino al 75% dell'intervista faccia a faccia)
● Maggior garanzia di anonimato;
● Raggiungimento di soggetti residenti in aree periferiche;
● Miglior controllo e addestramento degli intervistatori;
● Computer Assisted Telephone Interviewing (CATI);

Interviste telefoniche: svantaggi

● Il rapporto con l'intervistatore si logora prima (il testo del questionario deve essere più
breve);
● Non è possibile utilizzare materiale visivo;
● L'intervistatore non è in grado di contestualizzare il comportamento dell’intervistato
(non vede il suo ambiente familiare e non può registrare comportamenti non verbali);
● Certe categorie sociali possono risultare sotto-rappresentate in quanto hanno una
minor probabilità di disporre il telefono;
● La limitatezza del tempo a disposizione costringe ad una semplificazione dei quesiti e
a domande essenziali.

Questionari autocompilati.

● Il soggetto intervistato compila il questionario per proprio conto senza l'aiuto


dell'intervistatore;
● La compilazione può essere con vincolo di restituzione (censimento) oppure senza
vincolo di restituzione (postale);
● E’ importante che i questionari autocompilati siano concisi e semplici.
Svantaggi:
- bassa percentuale di ritorni (10%);
- distorsione del campione dovuta all’auto-selezione di coloro che rispondono;
- è più facile che si commettano errori di compilazione, mancanza di controlli nella fase
di compilazione;
- non sappiamo da chi è compilato il questionario.

Vantaggi:
- enorme risparmi nei costi di rilevazione;
- l'intervistato può scegliere quando compilare il questionario;
- maggior garanzia di anonimato;
- assenza di distorsioni dovute all’intervistatore;
- accessibilità anche a intervistati residenti in zone isolate;

Per incrementare il tasso dei rispondenti.


● Ricorrere ad un ente patrocinante;
● Limitare la lunghezza (minimizzare il tempo di compilazione, costi, sforzi e ansie);
● Prevedere qualche provvedimento di sollecito (lettera o telefonata);
● Pensare a qualche ricompensa materiale o simbolica.

Tipi di supporto.

➔ Cartaceo
➔ CAPI (computer assisted personal interviewing)
➔ CATI (computer assisted telephone interviewing)
➔ CAWI (computer assisted web interviewing)
Vantaggi di CAPI, CATI e CAWI → si limitano gli errori di rilevazione (controlli incrociati).

Organizzazione della rilevazione.

● Studio esplorativo (per formulare le domande occorre aver maturato una conoscenza

di un dato fenomeno → interviste ad osservatori privilegiati → toccare con mano il

mondo)
● Pretest: dopo la fase esplorativa si procede alla stesura del questionario, dunque lo si
collauda nell’ambito di una fase che definiamo pre-test.
● Briefing: la preparazione e la supervisione degli intervistatori.
● Contatto iniziale: con i soggetti intervistati e il problema dei rifiuti → per ottenere

accesso a campo occorre chiarire all’intervistato:


- chi è il committente
- quali sono gli obiettivi
- perchè abbiamo selezionato l'intervistato in questione
- sottolineare l’importanza della sua collaborazione
- rassicurato in merito all’anonimato
- richiedere il consenso informato (leggere la normativa sulla privacy)

L’indagine campionaria può essere più accurata del censimento.

● Maggior accuratezza rispetto al censimento (al censimento sfugge da mezzo milione


a un milione di persone);
● Economicità della realizzazione (per un censimento sono necessari 100.000
rilevatori);
● Tempestività nell’ottenimento dei risultati;
● Maggiore profondità delle analisi.
La criticità del questionario.

Errori e distorsioni dovute all’ordine delle domande (question wording).

Esempio.
Ordini dei quesiti: prima il generale o prima lo specifico? (da uno studio americano del 1981)
Generale: “pensa che si debba concedere a una donna incinta la possibilità di ottenere un
aborto legale se è sposata e non vuole altri figli?”
Specifico: “pensa che si debba concedere a una donna incinta la possibilità di ottenere un
aborto legale de esiste un’altra possibilità che il bambino nasca manomato?”

% di risposte positive a: Prima specifico, poi Prima generale, poi


generale specifico

-specifico 84 83

-generale 48.1 60.7

Ordine delle modalità di risposte: “primacy effect” e “effetto sonoro”.

Nei questionari autocompilati, la modalità al primo posto viene scelta da un numero di


rispondenti superiore rispetto alle modalità che si trovano in altre posizioni: ‘effetto primazia’
(o primacy effect).
Nelle indagini telefoniche, le modalità all’ultimo posto (pronuncia per ultima) gode di una
“rendita di posizione”: effetto sonoro.

2 novembre 2022

Distorsione dovuta alle “mancate risposte”.

Quando si realizza un’indagine campionaria c’è sempre una proporzione (più o meno
grande) di soggetti che pur facendo parte del campione, volontariamente o
involontariamente, non rispondono.
Generalmente in questi casi si opera una sostituzione (con nominativi di riserva).
Le mancate risposte non danno luogo a distorsione se i soggetti che si sottraggono
all’indagine non sono sistematicamente diversi dai soggetti che vi partecipano.

Quanto è forte la distorsione dovuta alle mancate risposte?

➢ La distorsione è tanto più forte quanto maggiore è la quota di non rispondenti. Quindi
dovremmo fare qualsiasi sforzo per ridurre i non rispondenti
➢ Ipotizziamo che la quota di soggetti fumatori stimata nel campione sia del 30%.
➢ Supponiamo che il 40% del nostro campione non abbia risposto.
➢ Ipotizziamo due casi limite:
- in quel 40% erano tutti fumatori; in questo caso la vera percentuale di fumatori
sarebbe 0.30*0.60+1*0.40=0.58 ( la distorsione sarebbe di -28 punti %).
- in quel caso la vera percentuale di fumatori sarebbe 0.30*0.60+0.40=0.18 (la
distorsione sarebbe di +12 punti %).

Cosa fare?
La quota di mancate risposte deve essere la più risicata possibile (una quota non oltre il 20%
può essere considerata accettabile).
Occorre convincere i soggetti selezionati di quanto sia importante la loro partecipazione ai
fini della buona riuscita dell’indagine.
E’ importante verificare il grado di allineamento tra campione effettivo e popolazione di
riferimento in relazione ad alcune variabili rilevanti (età, sessso, titolo di studio, area
geografica, ecc). Sviluppare un vettore di post-stratificazione.

Che cos’è la “survey methodology".

E’ una disciplina che stabilisce quali sono le regole corrette per:


- raccogliere informazioni sul mondo economico e sociale
- e per rilevare, misurare e minimizzare gli errori che si presentano in ogni step della
ricerca
In particolare si occupa di come:
- disegnare una richiesta campionaria, quali metodo di analisi dei dati dobbiamo
utilizzare
- rilevare i dati raccolti
- analizzare l’evidenza empirica
- e valutare le stime dei parametri e l’incertezza attorno alle stime

Survey Methodology.

La survey methodology ci indica quali sono i canoni che dobbiamo seguire per realizzare
rilevazioni empiriche (nell’ambito della survey) da cui originano “numeri” (stime di parametri)
che siano credibili a livello di popolazione (tasso di povertà, tasso di disoccupati, % di
laureati ecc).
La qualità di una buona ricerca è definita all’interno di un framework concettuale/analitico
etichettato come “paradigma dell’errore globale”.
La survey methodology è sia un campo scientifico che professionale.

La survey methodology ha natura multidisciplinare.

Per formulare le domande si ricorre all’aiuto di sociologi, psicologi, antropologi, matematici,


informatici, ecc, perché possono insegnare in che modo possono essere modi diversi di
conoscere le cose.
Per la costruzione di database c’è bisogno di esperti, come ad esempio, ingegneri
informatici.
La messa a punto di una survey di qualità richiede l’applicazione di principi che derivano da
diverse discipline accademiche:
- la matematica ( e in particolare la teoria matematica della probabilità);
- la statistica (e in particolare i principi del campionamento e dell'inferenza, ovvero la
generalizzazione dei risultati del campione alla popolazione di riferimento);
- la psicologia (le tecniche di costruzione del questionario, lo sviluppo di procedure di
scaling, ci dice in che misura l’interazione tra intervistatore e intervistato può fluire sui
risultati) oggi potremmo includere anche neuroscienze.
- la sociologia (in che misura l’appartenenza a particolari gruppi sociali e la diversità
culturale può fluire sulla comprensione delle domande sull’esito dell’intervista);
- la computer science che ci fornisce i principi per disegnare i database, per
processare i file (interazione uomo-computer).

7 novembre 2022

DA ITALIAN LIVES

Disegno di campionamento.

Gli obiettivi dell’indagine prevedono stime a livello nazionale e un campione di circa 5000
famiglie distribuite in circa 280 comuni.
Lo schema di seguito descritto ricalca lo schema generale alla base di tutte le indagini Istat
sulle famiglie, comprese quelle che hanno una componente longitudinale (Eu-silc e forze di
lavoro).
§Sono definiti 46 uomini individuati in base alla concatenazione della regione e del grado di
urbanizzazione.
Nell’ambito di ciascun dominio, i comuni vengono ulteriormente stratificati con strati di uguale
ampiezza demografica.

Procedura di contatto con la famiglia.

● Data e ora del contatto


● Modalità di contatto adottata (visita di persona, telefono)
● Esito del tentativo di contatto (contatto effettuato, contatto non effettuato, rifiuto)
● Eventuale materiale informativo lasciato alla famiglia

Informazione e consenso: il materiale.

- scopo dello studio


- attività richiesta
- incentivi
- dati personali
- titolare/responsabile
- finalità principale
- sicurezza e protezione
- ulteriori finalità

Modalità geografica.

Si ricostruisce la storia residenziale di ciascun intervistato/a.


Un episodio abitativo è definito dall’abitare ininterrottamente nella stessa abitazione per un
periodo di almeno un mese.
Si raccolgono informazioni a partire dall’abitazione in cui l’intervistato/a viveva al momento
della nascita (su tutti i comuni italiani/paesi esteri).

Per ciascun episodio abitativo vengono rilevati:


- mese e anno di inizio e fine
- comune italiano o estero dove si trova/va l’abitazione
- il titolo di godimento dell’abitazione (affitto, proprietà, altro)
- superficie in metri quadrati dell’abitazione

Istruzione.

Scopo di questa sezione è ricostruire:


❖ L’intera carriera scolastica di ciascun intervistato/a (scheda istruzione generale). la
carriera scolastica si articola nei seguenti livelli:
- istruzione prescolastica
- istruzione primaria
- istruzione secondaria di primo grado
- istruzione secondaria di secondo grado
- istruzione terziaria
Si raccolgono informazioni su: frequenza, durata, tipo di percorso, eventuale conseguimento
del titolo e voto/punteggio attribuito a ciascun titolo.
➢ L’eventuale esperienza di servizio militare di leva o di servizio civile sostitutivo
(scheda servizio militare/civile).
➢ Non viene rilevata la partecipazione al servizio civile nazionale volontario (registrata
nella sezione lavoro).

Lavoro.

● Lavoro attuale: questa scheda apre la sezione e contiene una serie di domande
finalizzate a individuare l’attuale posizione dell’intervistato/a rispetto al lavoro e a
rilevare alcune informazioni supplementari sulle caratteristiche del lavoro attualmente
svolto:
- lavora attualmente oppure no;
- se non lavora attualmente, ha mai lavorato in passato oppure no;
- se non lavora attualmente, in qualche condizione si trova e sé è alla ricerca di
un lavoro.
● Episodi lavorativi: il suo obiettivo è quello di rilevare una serie di informazioni su
ciascun episodio lavorativo vissuto dall’intervistato/a durante la sua carriera.
● Episodi di non occupazione/interruzione del lavoro: il suo obiettivo è quello di rilevare
alcune informazioni di base su ciascun episodio di interruzione (temporanea o
definitiva) della ricerca lavorativa dell'intervistato/a.

Aree tematiche (sezione prospettica).

Qualità della vita ⇒ tutti i membri eleggibili della famiglia

Internet ⇒ tutti i membri eleggibili della famiglia

Deprivazione e benessere ⇒ persona di riferimento

Tratti di personalità ⇒ tutti i membri eleggibili della famiglia

Salute ⇒ tutti i membri eleggibili della famiglia

Risorse e debiti familiari ⇒ persona di riferimento

Sostegni ⇒ persona di riferimento

Partecipazione politica ⇒ tutti i membri eleggibili della famiglia

Qualità della vita.

Lo scopo è quello di raccogliere alcune informazioni di base sulla percezione che i soggetti
hanno riguardo la soddisfazione di:
● vita in generale
● relazioni familiari
● relazioni con amici
● tempo libero
● alloggio
● presenza o meno di problemi ambientali nel quartiere di residenza
● situazione economia familiare

Internet.

Si raccolgono informazioni sull’accesso e l’uso di tecnologie dell’informazioni e nuovi media


da parte degli intervistati. In particolare vengono indagati i seguenti temi:
● accesso ad internet;
● uso di tecnologie connesse alla rete;
● possesso di tecnologia mobile;
● uso dello smartphone e l’accesso ai social e frequenza d’uso.
Deprivazione e benessere.

Lo scopo è quello di raccogliere alcune informazioni di base sulla percezione che la persona
di riferimento ha riguardo:
● le condizioni e l’adeguatezza dello spazio abitativo
● l’impossibilità di disporre di beni durevoli ampiamente diffusi
● le difficoltà incontrate nel far fronte alle spese per la casa e ad arrivare alla fine del
mese
● la possibilità di permettersi una settimana di vacanza all’anno
● la possibilità di mangiare carne o pesce almeno una volta ogni due gironi
● la possibilità di riscaldare adeguatamente l’abitazione
● la possibilità di far fronte a spese impreviste
● l’impossibilità di recarsi dal dentista per motivi economici

Tratti di personalità.

Lo scopo della presente sezione è quello di raccogliere alcune informazioni di base sui tratti
di personalità dei soggetti intervistati. I 15 temi item presenti all’interno della batteria saranno
ricondotti a 5 dimensioni che descrivono le differenze individuali più salienti e socialmente
rilevanti:
● energia, orientamento fiducioso ed entusiasta verso le relazioni interpersonali;
● amicalità, orientamento verso l’altruismo e la presa in carico dell’altro;
● coscienziosità, tendenza a essere precisi, accurati e perseveranti;
● stabilità emotiva, orientamento verso il controllo degli stati emotivi e degli impulsi;
● apertura mentale, si riferisce all’apertura verso nuove idee, verso i valori degli altri e
verso i propri sentimenti.

Salute.

Lo scopo della sezione è quello di raccogliere alcune informazioni sulla percezione che i
soggetti hanno riguardo le proprie condizioni di salute e su alcuni loro comportamenti e stili di
vita. Le prime domande appartengono al SF-12, uno strumento di misura della qualità di vita
correlata alla salute ampiamente utilizzato nelle indagini nazionali e internazionali. Le
domande intendo raccogliere informazioni in merito:
● alla salute auto percepita;
● alle limitazioni nello svolgimento della attività quotidiane e/o lavorative e/o sociali a
causa di uno stato fisico o mentale compromesso;
● alle emozioni positive e negative sperimentate nelle ultime 4 settimane.

La seconda parte della sezione raccoglie invece informazioni su:


● la presenza di malattie croniche o invalidanti a lungo termine;
● le aree della vita in cui la salute crea difficoltà, come muovere oggetti, controllare la
vescica, sentire, vedere, comunicare;
● la gravità dei problemi indicati.
Risorse e debiti familiari.

Lo scopo della sezione è quello di raccogliere alcune informazioni di base sulla situazione
economico-finanziaria dell’intero nucleo familiare. Più nello specifico vengono raccolte
informazioni riguardo a:
● il valore dell’abitazione di proprietà;
● sull’importo del mutuo per l’acquisto della casa che il soggetto sta ancora pagando;
● sul reddito medio mensile della famiglia;
● sulle componenti di reddito da lavoro, da pensione e da beni immobili, espresse
come percentuale del reddito totale;
● sulla capacità di risparmio della famiglia;
● sull’ammontare totale dei debiti che la famiglia ha contratto nei confronti di banche o
società finanziarie.

Sostegni e sussidi.

Lo scopo è quello di rilevare l’ammontare complessivo di risorse economiche e di aiuti in


denaro che gli intervistati hanno ricevuto nel corso dell’anno 2018 da alcune particolari
categorie di persone o dal sistema pubblico:
● assegno sociale
● rei
● reddito di cittadinanza/inclusione
● minimo vitale
● minimo alimentare
Per tali risorse viene chiesto di indicare l’importo complessivo ricevuto.

Partecipazione politica.

Lo scopo è quello di rilevare informazioni su:


● l'orientamento politico dell’intervistato/a sulla stessa scala destra-sinistra;
● l’intenzione di voto alle future elezioni;
● il comportamento di voto alle elezioni passate.

Fine Italian lives.


Il concetto di causa.

E’ uno dei più controversi sul piano filosofico ed uno dei più difficili da tradurre in termini
operativi. Sul concetto di causa si sono arrovellati filosofi e scienziati sociali e scienziati
naturali (Aristotele, Hume, Durkheim, Weber).
“Il pensiero causale appartiene completamente al livello teoretico. Le leggi causali non
possono mai essere dimostrate empiricamente” (Blalock 1961).

Sul concetto di causa.

Causalità deterministica ⇒ possiamo parlare di causa se vale l’enunciato:


se X, allora (e soltanto allora) Y sempre
Le caratteristiche del nesso causale sono:
- associazione tra X e Y
- successione temporale
- costanza/univocità (assenza di confondenti)

La relazione causale più che una relazione è una connessione genetica. Essa designa una
modalità di produzione di cose a partire da altre (Bunge 1959).
Se X, allora (e soltanto allora) Y sempre prodotto da X.

➢ Perché un evento costituisca una variabile causa nell’eccezione scientifica occorre


che tale evento produca un effetto (sia cioè spazialmente e materialmente connesso
con una variabile dipendente).

➢ Nell’ambito delle scienze naturali un meccanismo causale si esprime nei termini della
propagazione di una quantità (di energia) conservata (Salmon 1985; Dowe 2001).

➢ Le spiegazioni sociologiche il più delle volte fanno dipendere i comportamenti sociali


dai fatti intenzionali. I fatti intenzionali rispetto il criterio di generatività (o di
produttività materiale) e di antecedenza temporale??

Criticità connesse alla misurazione della causa.

● Nell’ambito sociale tutto ciò che ci è permesso fare è osservare covariazioni e serie
temporali.
● Il concetto di causa resta però confinato nel regno della teoria e dobbiamo
rassegnarci all’impossibilità di verificare empiricamente le leggi causali.
● Possiamo dire però che l’esistenza teorica di un meccanismo causale comporta delle
conseguenze (teoriche) osservabili sul piano empirico.
● La corroborazione del meccanismo causale non va confusa con la certificazione
dell’esistenza di un nesso causale.
Requisiti per poter “corroborare” un effetto causale.

Per poter corroborare l’esistenza di una relazione causale tra due variabili noi dobbiamo
accertare:
- la covariazione tra variabile indipendente e dipendente;
- la direzione della causalità (al variare della variabile indipendente consegue una
variazione della variabile dipendente ma non è vero il contrario).

Se vogliamo vedere il nesso causale, dobbiamo accertare che al variare di X deve variare Y;
quindi dobbiamo manipolare prima la x, vedere cosa succede all y e stimare la causalità.
Fatto accertabile tramite:
➔ manipolazione della variabile indipendente (esperimento);
➔ o sulla base del criterio della successione temporale;
➔ o per impossibilità logica (la classe può condizionare l'orientamento politico ma non
viceversa??)
➔ il controllo su altre possibili cause (es. l’effetto dello studio sul reddito è condizionato
da una componente spuria che è l’origine sociale oppure il genere).
Se è vera l’affermazione teorica che X è la causa di Y, allora dovremmo poter osservare, sul
piano empirico, che una variazione di X - tenendo costanti tutte le altre possibili cause du Y -
è accompagnata da una variazione di Y (Corbetta 1999).

Analisi della covariazione ed esperimento esperienza osservativa vs


esperienza provocata.

In che cosa differiscono i due approcci?


In entrambi i casi si studia la covariazione tra una variabile X ipotizzata causa (indipendente)
ed una variabile Y ipotizzata effetto (dipendente).

● Nell’analisi di covariazione il ricercatore osserva ed analizza come le variazioni di X si


accompagnano a quelle di Y in un contesto naturale.
● Nel caso dell’esperiemnto il ricercatore produce una variazione di X in una situazione
controllata (contesto artificiale) e misura quanto varia Y.
● Ne deriva che: manipolazione della variabile indipendente e controllo delle terze
variabili sono quindi i due elementi caratterizzanti l'esperimento, che lo distinguono
dall’analisi della covariazione.

“Randomizzazione” come espediente per controllare l’effetto di variabili di


“disturbo”.

Nell’esperimento, col fatto di assegnare per sorteggio i soggetti al gruppo sperimentale e al


gruppo di controllo, si tengono sotto controllo tutte le possibili variabili di disturbo, anche
quelle non rilevate o addirittura sconosciute al ricercatore, ed effettivamente i due gruppi
confrontati si differenziano solo in merito alla variazione sperimentale.
Attenzione!!! La maggior parte delle variabili sociali non è manipolabile, e quindi raramente il
ricercatore è in condizione di provocare una variazione della variabile indipendente.
Randomizzare è il processo di assegnazione casuale (per sorteggio) dei soggetti ai gruppi.

Come realizzare un esperimento.

Non è possibile misurare l’effetto causale a livello individuale ⇒ avremmo bisogno di due

individui identici (gemelli) da sottoporre a un trattamento il primo e ad un trattamento il

secondo. Possiamo però misurare l’effetto causale medio o a livello di popolazione,


confrontando due gruppi di individui mediamente equivalenti (differenti solo per aspetti

accidentali) da sottoporre l’uno a trattamento e l’altro no.


L’indice causale medio T(trattamento, è una differenza di medie) = E (Yt) - E(Yc).

9 novembre 2022

Domande che ci saranno anche all’esame.

E’ possibile un effetto causale a livello individuale? no


E’ possibile farlo a livello medio di gruppi.

Gruppi bilanciati, differiscono solo per il trattamento, per metodo sperimentale.

Assegnazione tramite accoppiamento.

Quando l’assegnazione casuale non è possibile, un criterio alternativo che può essere
seguito è quello dell’accoppiamento, consiste nel formare coppie di soggetti identici (gemelli)
su caratteristiche che si ritiene siano rilevanti per il problema studiato, assegnando poi un
componente della coppia al primo gruppo e l’altro al secondo gruppo. Così facendo
possiamo garantire l’equivalenza dei due gruppi solo per quanto concerne le variabili prese
in considerazione, mentre non possiamo sapere se i soggetti costituenti la coppia
differiscono o meno rispetto ad altre caratteristiche non esplicitate.

➔ matching = accoppiamento statistico


Esempio: Se abbiamo pochi casi è meglio il matching, perchè se abbiamo 20 casi, 10 al g di
controllo, 10 al g sperimentale, le differenze diventano tanto più ampie quante sono le
osservazioni.
Dai 40 casi in su, va bene la randomizzazione.
Ci deve essere sempre il gruppo di controllo, è fondamentale.
Randomizzazione o gemellaggio?

La randomizzazione produce gruppi che differiscono tra loro solo per le oscillazioni

accidentali ⇒ tali oscillazioni sono inversamente proporzionali all’ampiezza dei gruppi

⇒ dunque possono essere elevate se questi sono di più piccole dimensioni.


Può essere allora conveniente puntare al controllo completo di poche variabili importanti
(mediante accoppiamento) piuttosto che avere oscillazioni accidentali piuttosto elevate su
tutte le variabili.

Disegno “solo dopo” a due o più gruppi.

X1 ⇒ Y1

R⇒

X2 ⇒ Y2
I soggetti vengono suddivisi in due gruppi mediante randomizzazione. Si manipola la
variabile indipendente di modo che assuma lo stato x1 in un gruppo e lo stato x2 nell’altro.
Viene rilevato il valore medio della variabile dipendente Y nei due gruppi. Si calcola l’effetto
casuale facendo : T =Y2 (medio) - Y1 (medio).

Disegno “prima - dopo” a due o più gruppi.

Y1 ⇒ X1 ⇒ Y2

R⇒

Y3 ⇒ X2 ⇒ Y4
I soggetti vengono suddivisi in due gruppi mediante “randomizzazione”. Si manipola la
variabile indipendente di modo che assuma lo stato x1 in un gruppo e lo stato x2 nell’altro;
viene rilevato il valore medio della variabile dipendente y nei due gruppi prima (pre-test) e
dopo (post-test) la somministrazione dello stimolo.
Calcola l’effetto causale facendo T= (Y4m - Y3m) - (Y2m - Y1m) ⇒ differenza della

differenza, post-test e pre-test.


Alla variazione nel tempo di Y rilevata nel gruppo sperimentale sottraiamo la variazione nel
tempo di Y rilevata nel gruppo di controllo.
Se non c’è il pre-test, l’effetto causale, sarà uguale alla stima dell’effetto causale solo dopo.
★ Il pre-test si misura prima per vedere se i due gruppi divergono sulla Y. Il pre-test può
cambiare atteggiamento a coloro cui viene dato il test vero e proprio.

Disegno prima-dopo a due o più gruppi.

Tale disegno presenta i seguenti vantaggi:


- il pretest aggiunge un controllo sull’equivalenza, anche se già la randomizzazione
dovrebbe garantire l’equivalenza.
- il pre-test permette di valutare l'impatto causale dello stimolo anche se i due gruppi
non sono equivalenti, dato che mette a confronto la variazione in Y intervenuta nei
due gruppi a seguito dello stimolo, invece del valore in assoluto.

Tale disegno presenta i seguenti svantaggi:


- il pre-test può far cambiare atteggiamento o comportamento ai soggetti selezionati;
- lo svantaggio è che il pre-test può influenzare i due gruppi in maniera differente con
conseguenze sul post-test che non sono distinguibili dalle differenze prodotte
dall’esposizione allo stimolo.

Disegno di Solomon a quattro gruppi.

Y1 X1 Y2
Y3 X2 Y4
X1 Y5
R ⇒ X2 Y6

Somma i vantaggi del primo (nessuna interferenza da parte del pre-test) a quelli del secondo
(disponibilità del pre-test). Ci consente di separare l'effetto dello stimolo da quello
dell’interazione tra pre-test e stimolo stesso.

Disegno con misure ripetute a due gruppi con pre-test e post-test.

Y1 ⇒ X1 ⇒ Y2

R⇒

Y3 ⇒ X2 ⇒ Y4

➢ tale disegno è simile al diff & diff, prevede però misure ripetute;
➢ Ciascun individuo viene sottoposto a tutti i livelli della variabile indipendente
(causale);
➢ I singoli partecipanti sono valutati nel corso di più occasioni, tante quante sono le
categorie della x.
➢ si sfrutta la variazione entro i soggetti per la stima del parametro causale
T = E(Yi|T=1) - (Yi|T=0).

Quasi esperimenti.

Nei quasi esperimenti può:


- mancare la randomizzazione
- o manca il gruppo di controllo
- o il confronto viene fatto su gruppi non equivalenti
- o la x non è manipolabile (Cook e Campbell 1979).
Dunque non possiamo isolare l’effetto dello stimolo sperimentale da tutti gli altri effetti.
Le differenze tra gruppo sperimentale e di controllo possono essere dovute alla non
equivalenza iniziale, allo stimolo o una loro combinazione.

Disegno con un solo gruppo e una sola prova.

➢ In questo disegno è previsto un solo gruppo e una singola misurazione sulla Y dopo
la somministrazione dello stimolo;
➢ E’ un disegno che può avere un’utilità in fase esplorativa;
➢ Es. Selezioniamo un gruppo di giovani, mostriamo loro un documentario sui danni
causati dall’alcol e a distanza di una settimana rileviamo la propensione al consumo
di alcol sugli stessi soggetti.

Disegno “prima - dopo” ad un solo gruppo.

Y1 X X2
Effetto rilevato: Y2(medio) - Y1(medio)

Osserviamo il valore medio della Y prima e dopo il trattamento. La nostra variabile


dipendente varia nel tempo ma entro lo stesso gruppo. Dobbiamo assumere che la prima
rilevazione (pre-test) risulti influente (assunto di invarianza) sulla rilevazione successiva
(post-test). Tale disegno risulta potenzialmente sensibile all’occorrenza di eventi esterni.

Disegno a serie temporale interrotta.

Y1 Y2 Y3 X Y4 Y5 Y6

Si tratta di un disegno su un solo gruppo. Questo disegno mette a confronto le tendenze di Y


prima e dopo lo stimolo. Si mette in luce l’effetto tendenza già in atto al momento della
somministrazione del trattamento. Questo disegno presenta il vantaggio di risultare poco
disturbato dall’occorrenza di eventi esterni incontrollati e dall’influenza del pre-test sul post-
test.
Disegno “prima-dopo” a due gruppi senza assegnazione causale.

Y1 X1 Y2
⇒ effetto rilevato (Y4 - Y3) - (Y2 - Y1)
Y3 X2 Y4

Scompare la R e compare la riga orizzontale che indica la non equivalenza tra i due gruppi. Il
vantaggio: si lavora sulla variazione post-test/pre-test piuttosto che su valori assoluti. La
presenza del gruppo di controllo elimina gli effetti di disturbo dovuti ad accadimenti tra pre-
test e post-test. Resta il fatto che i due gruppi non sono equivalenti.

Disegno “ex post facto”.

X1/X2 accoppiamento ⇒ Y1/Y2

In questo disegno non è possibile randomizzare i casi né manipolare la variabile

indipendente ⇒ ci troviamo nella logica dell’analisi della covariazione.

Soluzione ⇒ dato che il trattamento è stato già effettuato, si realizza un gemellaggio

(accoppiamento statistico) tra individui esposti allo stimolo e individui non esposti sulla base

della loro similarità computata su una serie di caratteristiche ritenute rilevanti ⇒ in seguito si

confrontano le medie di Y nei due gruppi così formati.

Disegno con base multipla.

Gruppo A Y1 T=1 Y2 T=1 Y3

Gruppo B Y4 T=0 Y5 T=1 Y6


t1 t2 t3

● Si estende su un periodo temporale più ampio;


● Manca la randomizzazione;
● Sia il gruppo sperimentale che il gruppo di controllo ricevono il trattamento;
Il gruppo A viene trattato due volte mentre il gruppo B una volta sola. Se c’è effetto causale
dovremmo osservare una differenza statisticamente significativa tra Y2 e Y5.

Disegno fattoriale completamente randomizzato.

● Piano di ricerca più complesso;


● Si studia l’effetto congiunto di due o più variabili indipendenti;
● Ciascun fattore causale si configura come una variabile categoriale connotata da due
o più stati, di cui una condizione di controllo e l’altra o le altre sperimentali;
● Ciascun fattore può esercitare sull’outcome un effetto principale e/o un effetto di
interazione;
● Si ha effetto di interazione quando l’effetto di una variabile in relazione ai livelli di
un’altra variabile.

Criticità e vantaggi.

Svantaggi:
- artificialità dell’ambiente;
- reattività dei soggetti sperimentali (materia animata);
- applicabile a problematiche micro (non rappresentatività);
Vantaggi:
- misurazione della relazione causale;
- isolamento della variabile trattamento da altre interferenze (rumore di fondo).

14 novembre 2022

L’esperimento.

E’ possibile ottenere informazioni scientifiche sul comportamento umano manipolando le


persone in un ambiente sperimentale (artificiale) controllato?

La logica dell’esperimento.

L'esperimento permette di sottoporre a controllo le relazioni causali. L’esperimento può


essere condotto:
- in laboratorio
- oppure sfruttando eventi naturali o sociali (si parla a tal proposito di esperimenti
naturali o esperimenti sul campo).
Esempio⇒ un uragano che devasta un’area. Alcuni abitanti subiranno gravi perdite
economiche, per altri i danni saranno relativamente più lievi. Per questo, potremmo chiederci
quali sono le conseguenze nei comportamenti degli abitanti in seguito al disastro naturale.

Quando fare l’esperimento.

L’esperimento si adatta a progetti di ricerca centrati su interrogativi relativamente limitati e


ben definiti. Per esempio il controllo di ipotesi ben formalizzate del tipo “se…allora”.
L’esperimento è adatto per la stima dell’effetto di una causa e non per lo studio delle cause
di un effetto.
Le componenti dell’esperimento classico.

➔ Variabili indipendenti/variabili dipendenti


➔ Pre-test/post-test
➔ Gruppo sperimentale/gruppo di controllo (randomizzazione)
➔ Manipolazione della x

Variabili indipendenti e dipendenti.

La variabile indipendente è uno stimolo sperimentale che può essere presente (valore 1) o
assente (valore 0). Lo stimolo generalmente è una variabile dicotomica composta da due
attributi: presente o non presente.
In questo modello, il ricercatore calcola l’effetto causale confrontando quello che succede
(outcome) quando lo stimolo è presente (Yt) con quello che accade (outcome) quando lo
stimolo è assente (Yc).

Esempio:
● variabile dipendente o effetto ⇒ consumo di bevande alcoliche (birra, vino, liquori)

misurato secondo una scala o indice composito ottenuto combinando le risposte di un

questionario attentamente strutturato e standardizzato.

● variabile indipendente o variabile causale ⇒ documentario sugli incidenti

automobilistici del sabato sera dovuto al consumo di bevande alcoliche (video shock)

la cui somministrazione interessa solo il gruppo sperimentale.


Come si calcola l’effetto causale?? Differenza nel consumo di alcolici tra gruppo di soggetti
trattati e non trattati.

Pre-test e post-test.

Nel disegno sperimentale il pre-test ha luogo in un tempo (t) prima della somministrazione
dello stimolo sperimentale (trattamento). Il pre-test serve per definire la posizione dei
soggetti in riferimento alla variabile dipendente.
Lo stimolo viene somministrato successivamente al pre-test (vale a dire al tempo t+1). Nel
post-test, che viene effettuato successivamente alla somministrazione dello stimolo (t+2), la
variabile dipendente viene misurata nuovamente.
Il pre-test può esercitare un’influenza sugli intervistati (i quali non sono oggetti fisici,
impassibili, ma soggetti riflessivi e reattivi), ovvero può far cambiare atteggiamento o
comportamento.

Gruppo sperimentale e di controllo.


Un vero esperimento si costituisce di due gruppi: gruppo “sperimentale” e gruppo di
“controllo”. Senza il gruppo di controllo non possiamo sapere se una differenza rilevata prima
e dopo lo stimolo è per davvero imputabile allo stimolo causale piuttosto che ad una qualche
altro fattore esterno. Il gruppo di controllo deve accorpare soggetti che siano il più possibile
simili a quelli che popolano il gruppo sperimentale.
● Esempio: solo se la riduzione del consumo di bevande alcoliche è più pronunciata nel
gruppo sperimentale rispetto a quello di controllo, possiamo dire che un dato
trattamento, ossia il video, ha esercitato un qualche effetto causale.

Effetto Hawthorne: effetto imputabile alla presenza dell'intervistatore.

● Effetto rilevato presso la fabbrica di apparecchiature telefoniche Western Electric


Works di Hawthorne, nella periferia di Chicago.
● Trattamento ⇒ migliorando le condizioni di illuminazione aumenta la produttività.

Successivamente i ricercatori ridussero l’illuminazione e, ciononostante, o la

produttività continuò ad aumentare.


● Con la presenza di un gruppo di controllo nel quale si modificano le condizioni di
lavoro si riesce a catturare l’effetto imputabile alla presenza dello sperimentatore.
● L’esigenza di un gruppo di controllo è evidente nella ricerca medica. A volte le
condizioni dei pazienti migliorano a prescindere dal trattamento sperimentale ovvero
dalla somministrazione di un nuovo farmaco.
● Tale miglioramento potrebbe essere imputabile alla reazione positiva del paziente per

essere stato selezionato, per essere parte di un esperimento ( ⇒ effetto esperimento

in sé).
● Per testare gli effetti nuovi farmaci i ricercatori somministrano al gruppo di controllo
un placebo - vale a dire un medicinale che non ha alcun effetto. In questo modo i
pazienti del gruppo di controllo sono convinti di ricevere lo stesso farmaco del gruppo
sperimentale.
● Un nuovo farmaco verrà valutato efficace se in media le condizioni dei pazienti
sottoposti a trattamento sono significativamente migliori rispetto a quelle del gruppo a
cui è stato somministrato il placebo.

Disegni a più gruppi.

Per studiare i fenomeni complessi utilizzando il disegno sperimentale può essere utile
costruire diversi gruppi sperimentali e diversi gruppi di controllo. Con più gruppi sperimentali
è possibile quantificare l’effetto causale di diversi tipi di trattamento. Con un disegno
sperimentale di questo tipo è possibile quantificare l'effetto di singoli stimoli ma anche
l’effetto combinato di stimoli distinti (o effetto interazione).

Esperimenti in doppio cieco (double - blinded).


Negli esperimenti in doppio cieco né i soggetti esaminati, né lo sperimentatore sanno quale
sia il gruppo sperimentale e quale quello di controllo.
Con tale disegno si intende ridurre al minimo le distorsioni imputabili alla presenza dello
sperimentatore (il quale potrebbe avere pregiudizi, aspettative che lo portano a compiere
errori di rilevazione, come misurazioni imprecise).

Selezione dei soggetti, effetto locale, validità interna ed esterna.

Attenzione: Se decidiamo di somministrare uno stimolo sperimentale ad un sottoinsieme


della società (esempio: gruppo dei giovani in età tra i 14 e i 18 anni), non possiamo avanzare
pretese di generalizzazione dei risultati al di là di tale segmento di popolazione (validità
esterna).
In definitiva, ci è permesso di stimare un effetto locale (LATE).

Come si selezionano i casi?

1) Tramite campionamento probabilistico o randomizzazione (sorteggio) ⇒ l’assunto di

somiglianza fra i due gruppi dipenderà in ampia misura dal numero di soggetti

campionati. E’ buona prassi verificare la compatibilità dei due gruppi sulla base di un

certo numero di variabili rilevanti.

2) Tramite matching: il ricercatore decide un certo numero di caratteristiche rilevanti


(età, sesso, etnia, titolo di studio) sulla base delle quali costriusce fìdei gemelli
statistici: il primo gemello viene assegnato al gruppo sperimentale, il secondo al
gruppo di controllo.

Quando usare la randomizzazione e quando il matching?

Se disponiamo di un campione abbastanza ampio di osservazioni (80/100 casi) meglio la

randomizzazione. Se disponiamo di pochi soggetti meglio il matching ⇒ l'entità delle

oscillazioni tra i due gruppi è inversamente proporzionale alla dimensione del campione.

❖ Campbell e Stanley (1963) descrivono 16 diversi tipi di disegni sperimentali,


non sperimentali e quasi sperimentali.
Mancanza di validità interna.

Ci sono due fatto al di fuori dello stimolo sperimentale che esercitano un impatto sulla
variabile dipendente e che minacciano la validità interna:
- effetto storia (quando la finestra temporale dell’esperimento è ampia)
- effetto maturazione
- effetto periodo
- effetto pretest
- cambio di strumento di misurazione di Y
- errori di selezione (randomizzazione non andata a buon fine)
- demotivazione
- mortalità o attrition durante l’esperimento
- effetto regressione sulla media (i cambiamenti che si verificano su oggetti che si
trovano in condizioni di partenza estreme vengono erroneamente attribuite agli effetti
dello stimolo sperimentale).

Può capitare che i soggetti optino per uno stato di trattamento diverso rispetto a quando
deciso (imperfect compliance). Può capitare che i soggetti si influenzino vicendevolmente
(effetto contaminazione).

Mancanza di validità esterna.

La mancanza di “validità esterna” riguarda la generalizzazione dei risultati al mondo “reale”.


Gli esperimenti non possono essere effettuati senza l’adesione volontaria. Coloro che
accettano possono differire sistematicamente rispetto a coloro che non accettano.

Punti di forza e di debolezza dell’esperimento.

Gli esperimenti richiedono poco tempo e poche risorse economiche. Si possono disegnare
esperimenti con pochi soggetti.
➔ la maggior debolezza sta nella loro artificialità. I processi sociali che hanno luogo nel
contesto di un laboratorio potrebbero non accadere in quello naturale.
➔ Gli esperimenti hanno un’applicazione limitata (LATE).
➔ Gli esperimenti potrebbero in alcuni casi violare norme etiche, invadere la vita dei
soggetti, danneggiarli psicologicamente.

Esperimenti con trattamenti/interventi complessi.


● Applicati in medicina ma anche nelle scienze sociali. Quando il trattamento si
configura come una scatola nera, un pacchetto di molteplici elementi interagenti
(aggregato di ingredienti attivi).
● Nel testo presentiamo uno studio di un trattamento complesso rivolto ad un campione
di pazienti affetti da disturbi psichiatrici. Un gruppo di questi soggetti viene trattato a
casa piuttosto che in clinica. Siamo di fronte ad un trattamento complesso.
● L’effetto che viene misurato non è riconducibile ad un singolo elemento o principio
attivo di un dato farmaco ma ad una serie di fattori interagenti.
● Vogliamo sapere se il trattamento a casa è più efficace rispetto a quello in clinica (in
termini di salute del paziente, di benessere dei familiari e di costi sanitari). Dunque ci
sono più outcome che si intendono misurare (outcome primari e secondari).
● Il benessere psicofisico che è un outcome primario si misura utilizzando diverse scale
(Honos e BSCL).
● Gli outcome non solo sono differenti ma sono anche misurati in differenti momenti
temporali.
● Un disegno sperimentale o quasi sperimentale con intervento complesso richiede una
rigida pianificazione:
- si parte con la rassegna teorica
- e poi segue una fase pilota
- la costruzione del modello
- l’esecuzione dello studio
- la stesura del rapporto finale
- e l’implementazione dello studio su larga scala

● Dalla teoria e precedenti ricerche si può intuire come gli ingredienti del trattamento
interagiscono tra loro impattando sugli outcome di interesse.
● La fase pilota ci fa avere un’idea della fattibilità del progetto:
- se il reclutamento funziona
- se è adeguato il numero di oggetti leggibili
- se i soggetti partecipano (bassa attrition/propensione alla partecipazione)
- ma si può avere un’idea approssimativa del segno e dell’intensità dell’effetto
causale
● Quando si progetta un intervento complesso occorre specificare in modo accurato
quali sono gli ingredienti attivi che connotano il trattamento.
● E’ importante che ci sia una teoria di riferimento che spieghi come gli ingredienti attivi
interagiscono e condizionano l’outcome di interesse.
● Quando viene implementato un trial randomizzato è importante seguire e compilare il
diagramma CONSORT che trovate a pag 177 del manuale.

Esther Duflo: esperimenti in campo naturale.

Economista del MIT, recentemente premio nobel, ha condotto esperimenti sul campo, in
regioni poverissime dell’Africa e dell’India per capire in che misure certi interventi/trattamenti
sono efficaci nel far cambiare certi comportamenti. Nell’esperimento proposto viene dato un
incentivo materiale (1 Kg di lenticchie per fare in modo che le famiglie sottopongano i loro
figli alla vaccinazione). C’è una randomizzazione, alcuni villaggi vengono sottoposti a
trattamenti, altri no.
Il campionamento: popolazione e campione.

➢ Campionare significa osservare una parte del trarne informazioni sul tutto.
➢ L’estrazione casuale (probability sample) non va confusa con l’estrazione a casaccio
(haphazard sample).
➢ Il caso è un fenomeno esprimibile nel linguaggio della matematica (possiamo
calcolare la probabilità di ottenere una coppia di “sei” da dieci lanci di una coppia di
dadi) (prob=0.28).
➢ Il campionamento è un procedimento di estrazione di un numero ridotto di casi
(campione) da un insieme di unità (popolazione).
➢ Se il campione è probabilistico i risultati ottenuti a livello di campione sono
generalizzabili all’intera popolazione.

Perchè campionare: i vantaggi del campionamento rispetto alla rilevazione


totale.

● Abbattimento nei costi di rilevazione;


● Tempi più rapidi di raccolta dati;
● Reclutamento di un numero ridotto di intervistatori ben addestrati;
● Possibilità di approfondire molteplici aspetti in modo accurato in conseguenza della
minor complessità organizzativa.

L’errore di campionamento secondo l’approccio dell’errore globale (total


survey error).

Si colloca nel quadro degli errori di selezione che includono:


- l’errore di copertura ⇒ lista incompleta della popolazione;

- l’errore di campionamento vero e proprio ⇒ dovuto al fatto di operare su un

sottoinsieme di popolazione;
- l’errore di non risposta ⇒ alcuni soggetti non vengono raggiunti oppure si rifiutano di

rispondere;

Errore di campionamento.

● Definiamo campione l’insieme delle n unità campionarie (casi) selezionate tra le N


unità che compongono la popolazione, allo scopo di rappresentarla (campionamento
rappresentativo).
● L’indagine sul totale dei casi fornisce il valore vero del parametro.
● L’indagine campionaria ne dà solo una stima ovvero un valore approssimato.
➔ esempio. parametro vero: reddito della popolazione = 700
➔ esempio. parametro stimato: c’è il 95% di probabilità che il reddito medio della
popolazione sia di euro = 690 euro + 25 euro.

Due elementi di interminazione.

● Un elemento di probabilità ⇒ non siamo certi che il parametro vero (es. il reddito

medio) si collochi entro l’intervallo di credibilità, c’è il 5% di probabilità che il valore

vero del parametro a livello di popolazione sia al di fuori di questo intervallo.

● Un intervallo di approssimazione ⇒ non siamo in grado di dire che il reddito medio a

livello di popolazione sia di euro “tot”, ma possiamo solo determinare un intervallo

entro il quale si colloca il parametro di interesse.

La stima comporta un certo livello di fiducia (attorno ad una stima c’è sempre incertezza) e
consiste nella determinazione di un intervallo di fiducia nel quale si colloca il valore della
statistica della popolazione.

16 novembre 2022

La scomposizione del parametro vero.

La stima del campione sarà circondata da un certo grado di incertezza, attorno alle stime c’è
sempre incertezza, che chiamiamo errore di campionamento. Quanto più ampio è l’errore
tanto più ampio è l'incertezza, quindi poco precisa.

V = v+-e

In cui:
- V è il parametro della popolazione (incognito)
- v è la stima del campione
- e l’errore di campionamento

Campione probabilistico: il campione casuale semplice.

Un campione si dice probabilistico quando ogni unità è estratta con una probabilità nota (e
diversa da zero). Il campionamento casuale semplice si ha quando tutte le unità della
popolazione hanno la stessa probabilità di essere incluse nel campione.
L’errore di campionamento se il campione è casuale semplice.

Dove:
- z: coefficiente dipendente dal livello di fiducia della stima (1.96=95%; 2.58=99%);
- s: deviazione standard campionaria della variazione studiata;
- n: ampiezza del campione;
- 1-f: fattore di correzione per popolazioni finite, dove f = frazione di campionamento =
n/N;
- p: proporzione di soggetti che rispondono affermativamente;
- q: proporzioni di soggetti che non rispondono affermativamente.
(p*q = è la varianza della variabile)

➔ Quando la dimensione del campione è superiore alla dimensione della popolazione⇒

popolazione finita.

➔ Quando la dimensione del campione è inferiore alla dimensione della popolazione ⇒

popolazione infinita.

Il coefficiente z.

Se vogliamo aumentare la probabilità di essere nel giusto aumenteremo l’ampiezza


dell’intervallo di fiducia. Dunque l’errore di campionamento è direttamente proporzionale al
coefficiente z.

La deviazione standard campionaria (s).

Si riferisce alla dispersione o variabilità della distribuzione di una variabile. Essa risulta tanto
maggiore quanto più la variabile d'interesse risulta dispersa. Maggiore è la variabilità del
fenomeno studiato, maggiore è - a parità di altre condizioni - l’errore di campionamento.
Visto che non conosciamo s - che è la deviazione standard della distribuzione della variabile
nella popolazione - dobbiamo ricorrere ad una sua stima che è per l’appunto s.

L’ampiezza del campione n.


n⇒ si trova al denominatore, il che sta a significare che tanto più numeroso è il campione,
tanto minore è il campionamento.

Il fattore di correzione per popolazioni finite radq (1-f).

Se la popolazione è infinita o comunque molto maggiore di n (quando il campione è inferiore


al 5% della popolazione), il fattore di correzione diventa vicino a 1 che si può trascurare. In
questo caso la dimensione N della popolazione neppure interviene nella formula. Conta la
dimensione del campione. E’ l’ampiezza del campione, più che la frazione di campionamento
a determinare l’entità dell’errore.

In conclusione.

L’errore di campionamento è direttamente proporzionale:


- al livello di fiducia che vogliamo avere nella stima
- ed alla variabilità del fenomeno studiato
Mentre l’errore di campionamento è inversamente proporzionale all’ampiezza del campione.

Ampiezza del campione.

E’ fondamentale sapere in via preventiva quanto deve essere ampio il campione. Sulla base

dell’ampiezza del campione dobbiamo stimare i costi della rilevazione. Basta sostituire ad ⇒

e, l’errore che siamo disposti ad accettare e risolvere l’equazione rispetto ad ⇒ n.

PS: Se il prof non ci dice la varianza dobbiamo mettere il massimo livello di varianza,
ovvero 0.50.

Esempio.
● Supponiamo che la popolazione sia talmente grande rispetto al campione che si
possa trascurare il fattore di correzione per popolazioni finite;
● L’ampiezza del campione è direttamente proporzionale:
- al livello di fiducia desiderato per la stima (z)
- ed alla variabilità del fenomeno studiato
● Ed inversamente proporzionale:
- all’errore che il ricercatore è disposto ad accettare
● Attenzione.
- z ed e sono stabilite dal ricercatore;
- mentre s, p q sono sono noti.
Soluzione: ricorrere a valutazioni approssimate di s e p ricavate da studi precedenti, dal
parere di esperti, da uno studio pilota. Se si stimano proporzioni si può assumere il massimo
valore di dispersione (p=0.50).

PROBLEMI (svolti in aula).

Esercizio 1.
Dato un campione 2000 casi, in riferimento alla variabile dummy “essere andato o meno in
vacanza lo scorso anno”, si calcoli l’errore di campionamento, adottando un livello di fiducia
nella stima pari al 95% e ipotizzando il massimo valore di varianza nell’uotcome.

Esercizio 2.
Si calcoli ora l’errore di campionamento in riferimento alla stessa variabile ipotizzando che la
propensione al viaggio sia pari al 30% ed il campione sia pari a 600 casi.

Esercizio 3.
Qual è l’errore di campionamento per la stima del reddito medio annuale degli italiani
ottenuta su un campione di 6659 osservazioni, pari a 16.513 euro, con deviazione standard
campionaria pari a 17.557?

Esercizio 4.
Per ottenere un errore di campionamento pari o inferiore a +- 4 punti percentuali (0.04) quale
deve essere la dimensione del campione nel caso in cui il fenomeno di interesse si configuri
come una variabile dummy?

Esercizio 5.
Per ottenere un errore di campionamento pari o inferiore a 400 euro sulla stima del reddito
medio annuale quale deve essere la dimensione del campione? (la stima della deviazione
standard campionaria in un precedente studio si attestava a 17557).

21 novembre 2022

Attenzione!!!

E’ opinione diffusa ritenere che l’ampiezza del campione debba essere proporzionale a

quella della popolazione ⇒ sbagliato.


In prima approssimazione l’ampiezza della popolazione non interviene nella formula che
definisce l’ampiezza del campione.
Vi interviene in seconda approssimazione solo nel caso in cui per il campione sia richiesta
un’ampiezza non trascurabile rispetto alla dimensione della popolazione (cioè superiore al
5% di N).

In sintesi.

● 2000 casi sono sufficienti per avere stime di notevole precisione (+/- 2.2%);
● con 600 casi possiamo avere stime con una certa precisione (+/-4%), quale che sia

l’ampiezza della popolazione ⇒ potrebbe trattarsi anche dell’intera popolazione

mondiale!
Unica difficoltà per questo tipo di disegno è riuscire a stilare la lista di tutti gli abitanti del
globo.

Campioni probabilistici:

● campionamento casuale semplice;


● campionamento sistematico;
● campionamento stratificato;
● campionamento multistadio;
● campionamento a grappoli;
● campionamento per aree;

Campionamento sistematico.

Le unità campionarie non vengono estratte tramite sorteggio (o talvolta dei numeri casuali),
ma si scorre la lista dei soggetti, selezionandone sistematicamente uno ogni dato intervallo.
Si sceglie un’unità ogni K=N/n unità della popolazione … dove K è l’intervallo di
campionamento.
Es. se N=10.000 e n=100 l’intervallo di campionamento sarà pari a 100.

Tale campionamento consente di ottenere campioni casuali anche nella situazione in cui
manchi la lista della popolazione ed N sia sconosciuto.
Nelle ricerche di marketing si intervista un cliente ogni tot che escono dal negozio. E’

necessario che tutte le unità abbiano la stessa probabilità di venire estratte ⇒ dunque la

rilevazione deve coprire l’intero orario di apertura del negozio.


Campionamento stratificato.

La procedura consiste:
- nel suddividere la popolazione in sottopopolazioni (strati) il più possibile omogenee
rispetto alla variabile da stimare, utilizzando una variabile ad essa correlata.
- estrarre mediante un procedimento casuale semplice un campione da ogni strato;
- usare i campioni dei singoli strati per ottenere il campione globale.

Con questa procedura posso ottenere una maggiore efficienza, cioè un minore errore di
campionamento a parità di ampiezza del campione.
Il campione può essere stratificato proporzionale oppure stratificato non proporzionale.
Nel primo caso a differenza che nel secondo il peso degli strati del campione riflette il peso
degli strati nella popolazione.
Il campione stratificato non proporzionale ottimale si contraddistingue per il fatto che
l’ampiezza degli strati nel campione è proporzionale alla variabilità S nello strato della
variabile oggetto di stima.

Campionamento a stadi.

Rappresenta una scelta forzata quando manca la lista completa della popolazione.
La popolazione viene suddivisa in più livelli gerarchicamente ordinati, i quali vengono estratti
in successione con un procedimento ad imbuto.

Svantaggi ⇒ nessun miglioramento di efficienza rispetto al campionamento casuale semplice

(anzi a parità di dimensione > errore di campionamento).

Vantaggi ⇒ semplificazione della procedura di estrazione e diminuzione di costi di

rilevazione.

Esempio. al primo stadio si seleziona un campione di unità primarie (comuni) mentre al


secondo stadio, all'interno delle unità primarie, si seleziona un campione di unità secondarie
(i soggetti).
È necessario disporre della lista dei soggetti solo per le unità primarie selezionate al primo
stadio.

Campionamento a grappoli.

● Procedura simile al campionamento a stadi;


● Si ricorre a tale procedura quando la popolazione è naturalmente suddivisa in gruppi
di unità spazialmente contigue.
● Tali gruppi vengono chiamati grappoli.
● Non vengono estratte le unità elementari (gli individui) ma i grappoli. Tutte le unità
elementari appartenenti ai grappoli estratti sono incluse nel campione.
Esempio. L'indagine multiscopo ISTAT combina un campionamento a stadi con uno a
groppoli. Viene prima scelto un campione di comuni, all'interno del quale viene estratto un
campione di famiglie, i cui componenti vengono poi tutti intervistati.
Campionamento per aree.

● Utile quando mancano le liste della popolazione (le liste delle unità secondarie

presenti in ognuna delle unità primarie prescelte ⇒ esempio: anagrafe comunale).


● Si definiscono aree territoriali gerarchicamente nidificate (dalle province ai comuni,
dai comuni agli isolati/quartieri, da questi ultimi alle singole abitazioni).
● Campionamento utile quando le liste di unità secondarie sono incomplete (es. si
possono in tal modo rilevare i clandestini, i residenti temporanei ecc).

Errore di non risposta: mancati contatti e rifiuti.

Gli esseri umani differiscono dalle palline dell'urna per due aspetti essenziali: non sono a
portata di mano del ricercatore e sono pienamente liberi di non rispondere (Marradi 1989).

Ci sono soggetti che abitano in zone difficili da raggiungere.


In genere poche ricerche riportano il tasso di caduta o tasso di sostituzione riferito ai rifiuti
oppure alla irreperibilità, allo sbaglio di indirizzo.
Di norma il tasso di caduta si attesta al 25% per le interviste faccia a faccia.
In alcuni casi può raggiungere il 50% (nelle interviste telefoniche).
Le cadute vanno rimpiazzate con nominativi di riserva, pure essi estratti a sorte dalla

popolazione ⇒ il problema è che “ i sostituti assomigliano ai rispondenti più che ai non

rispondenti” (Kish).
Talvolta conviene disegnare un campione più ampio e ipotizzare un più alto tasso di cadute.

● NB: (noi possiamo fare inferenza solo con campionamento probabilistico, se non c'è
l'estrazione, il campione non è probabilistico) (campionamento telefonico = no
probabilistico)

Campioni non probabilistici:


● campionamento per quote
● disegno fattoriale
● campionamento a scelta ragionata
● campionamento bilanciato
● campionamento a valanga
● campionamento telefonico
● campionamento di convenienza
La media aritmetica di una data variabile quantitativa X è definita come segue:

𝑋 = ∑𝑛𝑡=1 /𝑛 x1

Dove:
- x1 denota il valore assunto dalla variabile X in corrispondenza dell’osservazione i;
- n denota il numero totale di osservazioni;
- e i = 1, …n.

Quantili:

I quantili di una data variabile quantitativa X sono i K-1 valori che dividono la distribuzione di
quella variabile in K gruppi di osservazioni ordinati e di uguali dimensioni.
● Quando K = 2, il quantile corrispondente equivale alla mediana di X.
● Quando K=4, i tre quantili corrispondenti sono detti quartili e indicati con i simboli
Q1(X), Q2(X) e Q3(X).

Altri quantili di uso comune sono:


- i decili (D1(X), D2(X),...., D9(X)), che dividono la distribuzione di X in K=10 parti
uguali;
- i percentili (P1(X), P2(X),...,P99)), che dividono la distribuzione di X in K = parti
uguali;
- si noti che mediana (X) = Q2(X) D5(X) P50(X)

Variabili quantitative: indici di variabilità.

Il campo di variazione di una data variabile quantitativa X è definito come segue:


CV(X) = max(X) - min(X)

dove
- max(X) denota il valore più elevato della variabile X; e min(X) denota il valore più
basso di X.

Differenza interquartile.

La differenza interquartile di una data variabile quantitativa X è definita come segue:


DIQ(X) = Q3(X) - Q1(X)

In pratica, la differenza interquartile equivale al campo di variazione di X entro il 50%


centrale della popolazione.
Deviazione standard.
La deviazione standard di una data variabile quantitativa X è definita come segue

S(X)= √∑𝑛𝑡=1 (x1 𝑥)² /n

La deviazione standard ci dice in quale misura la distribuzione di X si discosta, in media, dal


suo valore medio aritmetico.

Varianza.

La varianza di un a data variabile quantitativa X equivale al quadrato della sua deviazione


standard:

V(X)= S²(X) = ∑𝑛𝑖=1 (x1 - 𝑥)² /n

Omogeneizzazione dei campi di variazione.

Quando vogliamo confrontare le distribuzioni di due o più variabili quantitative espresse in


unità di misura diverse… o quando vogliamo confrontare le distribuzioni della stessa
variabile osservata in contesti diversi, per rendere più agevoli i confronti si può ricorrere alla
omogeneizzazione dei campi di variazione. Le procedure di omogeneizzazione dei campi di
variazioni più comunemente utilizzate sono:
- normalizzazione
- standardizzazione

Normalizzazione.

● La normalizzazione consiste nel trasformare i valori di una variabile quantitativa in


modo che, qualunque sia l’unità di misura originaria, essi varino entro un dato campo
di variazione.
● La procedura di normalizzazione più diffusa consiste nel trasformare i valori della
variabile di interesse in modo che possano variare fra 0 e 1 o fra 0 e 100.

Normalizzazione formula.

In termini matematici, la normalizzazione di una data variabile quantitativa X entro il campo


di variazione (0;M) è definita come segue:
(val(var.) - min(var)) / (max(var) - min(var)).
Standardizzazione.

La standardizzazione consiste nel trasformare i valori di una variabile quantitativa in modo


che, qualunque sia l’unità di misura originaria, essi siano espressi in una unità di misura
universale. Tale unità di misura universale è detta punto standard.

Standardizzazione - Formula

In termini matematici, la standardizzazione di una data variabile quantitativa X è definita


come segue:
(val.var - media(var))//s.d.(var))

● La formula precedente implica che, indipendentemente dall’unità di misura originaria,


la distribuzione di ogni variabile standardizzata è sempre caratterizzata da media pari
a 0 e deviazione standard pari a 1.
● Dunque, il valore assunto da una variabile standardizzata in corrispondenza di ogni
dato soggetto ci dice di quante deviazioni standard quel soggetto si discosta dalla
media complessiva del campione o della popolazione oggetto di studio.

28 novembre 2022

L’Alpha di Cronbach.

● L’attendibilità di una scala viene generalmente espressa mediante il coefficiente alfa


di Cronbach;
● Il coefficiente Alpha di Cronbach assume valori compresi fra 0 e 1, dove 1
rappresenta la situazione di perfetta attendibilità, cioè di completa assenza di errore
casuale.
● Valori dell’Alpha di Cronbach uguali o superiori a 0.8 indicano livelli di attendibilità
pienamente soddisfacenti; valori compresi fra 0.7 e 0.8 indicano livelli di attendibilità
meno soddisfacenti ma ancora accettabili; valori inferiori a 0.7 corrispondono a bassi
livelli di attendibilità.

Il coefficiente Alpha di Cronbach.

● Il coefficiente Alpha si basa sulla matrice di correlazione fra tutti gli elementi e sul loro
numero.
● Dove n è il numero degli elementi della scala mentre r è la loro correlazione media
● Assume valore positivo, fra 0 e 1; più alti sono i valori maggiore è la coerenza interna
della scala
𝑛𝑟
α=
1+ 𝑟 (𝑛−1)

Accettiamo la scala se ha un valore Alpha superiore a 0.70, è più che soddisfacente;


0.80/0.90 è un valore molto soddisfacente; 0.40 non è per nulla soddisfacente
L’Alpha di Cronbach misura l’unidimensionalità della scala.

Tipologia.

● Le classificazioni derivanti dalla combinazione di due o più dimensioni di un dato


fenomeno sono spesso chiamate tipologie.
● I gruppi che formano una tipologia sono detti “tipi”.
● La combinazione di due o più dimensioni distinte di un dato fenomeno dà luogo a uno
spazio delle proprietà (o spazio degli attributi).
● Spesso le tipologie sono ottenute mediante un'appropriata riduzione di un dato spazio
delle è proprietà (cluster analysis).

30 novembre 2022

La logica dell’analisi bivariata.

Quando il ricercatore è interessato a studiare un dato fenomeno, la prima cosa che deve fare
è analizzarne la distribuzione complessiva (analisi univariata).
Quindi fare l’analisi bivariata, vuol dire studiare la distribuzione congiunta di due variabili.

Analisi bivariata.

Nella maggior parte dei casi, però, il ricercatore è interessato soprattutto a verificare se e in
quale misura la distribuzione del fenomeno oggetto di studio varia a seconda di una seconda
o più caratteristiche dei soggetti presenti in esame.
In generale possiamo dire che fra due variabili esiste una relazione o associazione quando i
rispettivi valori covariano, cioè variano insieme in modo sistematico.

Relazione bivariata.

Simbolicamente, la relazione fra una qualsiasi coppia di variabili V1 V2 può essere espressa
come segue:
V2 f(V1)
Questa espressione si legge così: la distribuzione della variabile V2 varia a seconda del
valore assunto dalla variabile V1.
In termini matematici, diciamo che i valori assunti dalla variabile V2 sono funzione dei valori
assunti dalla variabile V1.

Variabile dipendente e indipendente.

In questa prospettiva, la variabile che rappresenta il fenomeno di interesse viene detta


variabile dipendente e indicata con il simbolo y.
A sua volta, la variabile assunta come fattore di eterogeneità della distribuzione del
fenomeno di interesse viene detta variabile indipendente e indicata con il simbolo X.

La funzione di regressione.

● Usando tale notazione, la relazione fra qualsiasi coppia di variabili può essere
espressa simbolicamente come segue:
y=f(X)
● Questa espressione è detta funzione di regressione di y rispetto a x e si legge così: i
valori assunti dalla variabile dipendente y sono funzione dei valori assunti dalla
variabile indipendente. Con una funzione di regressione posso certificare un nesso
causale.
● Generalizzando, è possibile esprimere i valori assunti da una data variabile
dipendente y come funzione dei valori assunti da qualsiasi numero j di variabili
indipendenti x. Formalmente: y= (X1, X2, …Xj)
● Questa espressione si legge così: la distribuzione della variabile dipendente y varia a
seconda della combinazione dei valori assunti dalle variabili indipendenti X1, X2…Xj
● In termini matematici, diciamo che i valori assunti dalla variabile dipendente y sono
funzione dei valori assunti dalle variabili indipendenti X1, X2…Xj.
● Nella sua semplicità, l’espressione precedente racchiude interamente la logica della
regressione,vale a dire: il valore assunto dalla variabile dipendente di interesse in
corrispondenza di ogni caso osservato può essere espresso in forma matematica
come risultato della combinazione dei valori assunti da un determinato insieme di
variabili indipendenti in corrispondenza di quel caso.
● In questi termini, la regressione rappresenta uno strumento finalizzato a descrivere le
mutevoli manifestazioni di un dato fenomeno di interesse (la variabile dipendente)
sulla base di una o più caratteristiche dei membri della popolazione di riferimento (le
variabili indipendenti).

Interrogativi sul piano sostanziale.

Sul piano sostanziale, ciò significa affrontare interrogativi di ricerca del seguente tipo:
- qual è l’associazione esistente fra la propensione degli italiani al gioco d’azzardo (y) e
la classe sociale di appartenenza (x)?
- in quale misura l’uso/abuso di sostanze stupefacenti (y) varia secondo il genere (x)?

L’influenza degli astri sul comportamento umano.

Supponiamo che il nostro obiettivo sia quello di analizzare le credenze di un gruppo di


studenti universitari nei confronti dell’influenza esercitata dagli astri sul comportamento
umano.
A questo scopo, utilizziamo la seguente domanda: “credi che gli astri possano influenzare il
comportamento delle persone”?

Distribuzione di probabilità incondizionata.

Supponiamo che, all’interno della popolazione di riferimento, il 70% dei soggetti non crede
nell’influenza degli astri sul comportamento umano, mentre il rimanente 30% ci crede.
In termini leggermente diversi, possiamo dire che i membri della popolazione di riferimento
hanno:
- una propensione a credere che gli astri non influiscono sul comportamento umano
pari a p1= 0.7
- una propensione a credere che gli altri influiscono sul comportamento umano pari a
p2 = 0.3
Nel loro insieme i valori p1 e p2, la cui somma deve essere uguale a 1, costituiscono la:
distribuzione di probabilità incondizionata della variabile dicotomica di interesse y (credenza
nell’influenza degli astri sul comportamento umano).

Esiste un’unica distribuzione di probabilità o più distribuzioni?

Di fronte alla distribuzione di probabilità incondizionata di y costituita dai valori p1 = 0.7 e


p2 = 0.3 possiamo chiederci:
- descrive correttamente tutti membri della popolazione di riferimento
oppure
- è una combinazione di due o più distribuzioni di probabilità diverse, ognuna delle
quali descrive correttamente il fenomeno entro uno specifico sottoinsieme della
popolazione di riferimento.

Omogeneità/eterogeneità.

Nel primo caso dovremmo concludere che il fenomeno di interesse si manifesta in modo
perfettamente omogeneo all’interno dell’intera popolazione di riferimento. La situazione di
perfetta omogeneità, tuttavia, è molto rara nei fenomeni sociali.
➔ Se (a) i membri della popolazione di riferimento si differenziano fra loro in termini di
una o pi8ù caratteristiche,
➔ e (b) alcune di queste caratteristiche sono associate alle manifestazioni del fenomeno
di interesse,
➔ allora ( c ) è legittimo aspettarsi che la distribuzione di probabilità della variabile Y
oggetto di studio non sia uguale per tutti, ma vari in misura maggiore o minore da
individuo a individuo o, almeno, da gruppo di individui a gruppo di individui.
Genere ⇒ credenza negli astri.

Tornando al nostro esempio, sulla base di studi precedenti possiamo ritenere che la
propensione a credere nell’influenza degli astri sul comportamento umano vari a seconda del
genere.
E’ così anche fra gli studenti oggetto di analisi?

Probabilità condizionate.

Poniamo che la distribuzione di probabilità della variabile y oggetto di studio non è uguale
per tutti, ma varia in misura sostanzialmente significativa a seconda del sesso degli
intervistati.

Frequenze assolute - rappresentazione numerica.

distribuzione di frequenza marginale (di riga)


non crede crede

maschi 24 6 30

femmine 53 27 80

totale 77 33 110 casi

Probabilità - frequenze relative (distribuzioni di probabilità condizionate).

distribuzione di probabilità condizionate


non crede crede

maschi 0.8 0.2 1 30

femmine 0.66 0.34 1 80

totale 0.7 0.3 1 110

Precisamente, le ragazze risultano più propense dei ragazzi a credere nell’influenza degli
astri (0.34 vs 0.20).
Esempio:
24/30 = 0.80
53/80 = 0.66
6/30 = 0.2
33/80= 0.34
★ per trovare la propensione a non credere basta sottrarre 0.2 - 0.34 = 0.14 e
0.80 - 0.66= 0.14. In entrambi i casi esce 0.14, cioè i punti di differenza in
percentuale. Questa differenza è l’effetto della x su y.

Probabilità (frequenze relative).

distribuzione di probabilità condizionate


non crede crede

maschi p1 | X=1 p2 |X=1 1

femmine p1 | X=2 p2 |X=2 1

totale p1 p2 1

Probabilità condizionate.

Ogni elemento
p🇰 | X=x
della tabella precedente rappresenta la probabilità (condizionata) di avere una certa
credenza e, quindi, rappresenta una propensione assoluta.
Ad esempio, la probabilità p 2 | X=2 può essere interpretata come:
- la propensione assoluta delle regazze a credere nell’influenza degli astri sul
comportamento umano;
- analogamente, la probabilità di p 1 | X=2 può essere interpretata come la propensione
assoluta delle ragazze a non credere nell’influenza degli astri sul comportamento
umano.

Odds come misura di propensione relativa.

Le probabilità di condizione sono propensioni assolute. Gli odds sono propensioni relative.

Se calcoliamo il rapporto fra le due probabilità p2|X=2 e p1|X=2 otteniamo una misura della
propensione relativa a credere anziché non credere nella mia influenza degli astri attribuibile
alle ragazze intervistate. Questa misura è detta odds e può essere espressa formalmente
𝑃2| 𝑋=2
come segue: 𝑥=2 =
𝜔2:1
𝑃1| 𝑋=2
Misure di intensità della relazione.

Confrontando:
- la propensione a credere/non credere nell’influenza degli astri attribuibile alle
ragazze (cioè la distribuzione di probabilità condizionata di y dato che x=2);
-
con l’analoga propensione attribuibile ai ragazzi (cioè la distribuzione di
probabilità condizionata di y dato che x=1).
➔ possiamo otteuna o più misure ndell’intensità della relazione esistente a livello
bivariato fra sesso e credenza nell’influenza degli astri.

Intensità della relazione fra due variabili dicotomiche.

I confronti che si possono fare sono sostanzialmente tre:


➔ la differenza fra la propensione assoluta a credere attribuibile alle ragazze e l’analoga
propensione assoluta attribuibile ai ragazzi;
➔ la differenza fra la propensione assoluta a non credere attribuibile alle ragazze e
l’analoga propensione assoluta attribuibile ai ragazzi;
➔ il rapporto fra la propensione relativa a credere anziché non credere attribuibile alle
ragazze e l’analoga propensione relativa attribuibile ai ragazzi.

Odds ratio.

L’odds, è la probabilità che l’evento si verifichi, sulla probabilità che non si verifichi. L’odds è
una misura simmetrica che varia da 0 a infinito; l’1 rappresenta il baricentro. Se non c’è
relazione tra x e y, l’odds ratio si avvicina 1.
A sua volta, il rapporto fra la propensione relativa a credere anziché non credere attribuibile
alle ragazze e l’analoga propensione relativa attribuibile ai ragazzi dà luogo a una misura
detta odd ratio. In formula:
2∶ 1 (𝑃2|𝑋=2 / 𝑃1|𝑋=2)
𝟐:𝟏 𝜔𝑥=2
𝛺𝟐/𝟏 = = (𝑃2|𝑋=1 / 𝑃1|𝑋=1) (rapporto tra odds condizionati, detti odds ratio)
𝜔2∶1
𝑥=1
NB: Odds ratio = modello dell'intensità della relazione; è un rapporto di propensione
relativa.

Differenze di probabilità.

Ciascuno dei primi due confronti dà luogo a una misura detta differenza di probabilità.
In formula:
𝛥²2−1 = P2 | X=2 - P2 | X=1
𝛥12−1 = P1 | X=2- P2 | X=1

Relazione fra x qualitativa e y quantitativa.

La relazione fra una variabile indipendente qualitativa X articolata in R categorie e una


variabile dipendente quantitativa Y può essere rappresentata mediante R distribuzioni di
probabilità condizionale di Y, una per ogni categoria di X.
Se, ad esempio, R=3, allora la relazione fra X e Y sarà rappresentata dalle seguenti
distribuzioni di probabilità condizionale di y:
P(y|x=1)
P(y|x=2)
P(y|x=3)

Relazione fra due variabili quantitative.

Quando si analizza la relazione fra due variabili quantitative, il primo passo consiste nel
rappresentare graficamente tale relazione mediante il cosiddetto: diagramma di dispersione.

Se x e y sono qualitative, si calcola il test del chi quadrato.

Retta di regressione.

Con tale modello calcoliamo medie condizionate in riferimento al valore assunto dalla x. Il
test più appropriato è il T test.
(Calcoliamo medie della y entro gruppi formati sulla base dei valori assunti dalla x o dalla y).
Serve a minimizzare i valori osservati e i valori che sono collocati sulla retta, in modo da
“avvicinare i pallini”. A sua volta, questa linea retta, detta interpolante, può essere
rappresentata numericamente mediante un’equazione lineare, la cui forma generale è la
seguente:
y=β0+ β1x
➔ b1 è la pendenza, l’intensità, il segno dell’effetto

L’equazione lineare esprime il valore della variabile y come somma di due componenti:
- il parametro a;
- il prodotto fra il parametro b e il valore della variabile x.

5 dicembre 2022

Coefficiente di determinazione: varia da 0 a 1, è una misura della bontà di adattamento ai dati.


Il coefficiente di determinazione quando è 0? quando è 1?
0= quando abbiamo una nube di punti messi così a caso; zero significa che il nostro modello non
contribuisce alla spiegazione del fenomeno, non lo spiega.
1= quando il nostro caso si presenta sotto forma di linea.
Se ad esempio otteniamo 0.20, significa che il 20% è spiegato dal modello.
Il coefficiente di determinazione è espresso come R².

Coefficiente di correlazione di Pearson: varia da -1 (perfetta correlazione negativa, rappresentati in


una retta interpolante) a +1 (perfetta correlazione positiva, rappresentati in una retta interpolanti).
Se è =0 è rappresentato come una nuvola indistinta di punti.
(Esempio. Per una unità di variazione sull’indice della salute, io osservo una variazione di 0.4
nell’indice della felicità).
14 dicembre 2022

Tecniche qualitative.

Piccola digressione sullo studio quantitativo ⇒ Studiamo rappresentazioni di fatti sociali, non

fatti sociali. Non esiste una realtà oggettiva, ma tutto dipende da un punto di vista,

soprattutto dal punto di vista dell’osservatore. Egli deve comportarsi come un osservatore

neutro. E’ tutto standardizzato, dall’inizio alla fine, per garantire l’invarianza dello stimolo,

sennò non si possono comparare le risposte date dai soggetti intervistati.

Studio qualitativo ⇒ Rifiuta una rigida standardizzazione dei metodi di raccolta e di analisi dei
dati. Qui non c’è niente di standardizzato, ci sono diversi metodi che possono raccogliere

dati empirici. Commentiamo gli effetti. Ci sono molte componenti soggettive da parte

dell’osservatore. L'obiettivo non è quello di fare inferenza, cioè generalizzare i dati dal

campione all’universo di riferimento, nel qualitativo non è importante. Si utilizzano disegni di

campionamento non probabilistici.


Approccio olistico: si basa sulle variabili, e ciascun soggetto è portatore di un set di
caratteristiche, selezioniamo le caratteristiche frequenti, che poi diventeranno le domande
del questionario.

Diversi tipi di analisi qualitativa.

● Osservazione partecipante, ricerca etnografia, ricerca sul campo, studi di comunità,

ricerca naturalistica ⇒ talvolta considerate come sintomi;

● Interviste in profondità, interviste libere, interviste non strutturate, interviste cliniche,

storie di vita, approccio biografico, ⇒ si differenziano tra loro per delle sfumature;
● Uso dei documenti, cioè i prodotti della cultura, possono essere i documenti
personali, ma anche quelli prodotti dalle istituzioni.

Lo schema della ricerca qualitativa.

Il percorso della ricerca qualitativa è difficilmente schematizzabile in fasi separate e distinte:


raccolta dei dati, analisi, elaborazione concettuale spesso si intersecano e si
sovrappongono.
La ricerca qualitativa si configura una confusa interazione fra il mondo concettuale e quello
empirico (Bryman e Burgess 1994).
Le tre grandi teorie.

Le tecniche di rilevazione della ricerca qualitativa sono raggruppabili in tre grandi categorie
riconducibili a tre azioni elementari:
- osservazione diretta
- interviste in profondità
- uso dei documenti
Riconducibili a tre azioni elementari:
- osservazione
- integrazione
- lettura

Osservazione partecipante.

Il ricercatore si inserisce in un microcosmo, tocca il mondo con le proprie mani, si inserisce in


un gruppo che intende studiare un determinato fatto, vedere il mondo immedesimandosi in
determinato fatto, e per farlo c’è bisogno dell’empatia.
Strategia di ricerca nella quale il ricercatore si inserisce in un determinato gruppo sociale:
- in maniera diretta,
- per un periodo di tempo relativamente lungo,
- preso nel suo ambiente naturale,
- instaurando un rapporto di interazione personale con i suoi membri,
- allo scopo di descriverne le azioni e di comprenderne, mediante un processo di
immedesimazione, le motivazioni.
- la finalità è descrivere e comprendere in senso weberiano, cioè di riuscire a “vedere il
mondo con gli occhi dei soggetti studiati”.
In questa prospettiva il ricercatore non deve temere di contaminare i dati attraverso un
processo di interpretazione soggettiva e personale. Vanno ricercati coinvolgimento e
immedesimazione. Un bravo ricercatore troverà un equilibrio tra l’essere eccessivamente
distaccato e eccessivamente coinvolto (il caso del ‘marziano’ e il caso del ‘convertito’).
● Nasce dalla ricerca antropologica: Bronislaw, Malinowski.
● In campo sociologico va ricordata l’esperienza della Scuola di Chicago (anni ‘20 e ‘30
⇒ Robert Ezra Park ⇒ studi sulla società urbana americana/devianza e marginalità).

Campi di applicazione e sviluppi dell’osservazione partecipante.

Tale tecnica è utile quando:


➔ si sa poco di un certo fenomeno;
➔ il fenomeno si svolge al riparo da sguardi estranei, ad esempio, rituali religiosi, vita
familiare, rapporto medico - paziente, comportamenti devianti e illegali,
l’appartenenza a sette di vario tipo, associazioni segrete.
Il ruolo della teoria.

Alcuni approcci qualitativi (grounded theory) enfatizzano la dimensione della scoperta della
teoria nel corso della ricerca al punto da invitare il ricercatore ad ignorare la letteratura
sociologica sul problema studiato, per evitare che idee preconcette possano esercitare un
condizionamento.
Altri approcci più moderati fanno appello ai “concetti sensibilizzati” (Blumer). L’attività di
ricerca del ricercatore è guidata soprattutto all’inizio, da una particolare sensibilità verso certi
concetti piuttosto che verso altri.

Fasi dell’analisi: la descrizione.

La prima fase è quella della descrizione. La descrizione deve essere una “descrizione
densa” nelle parole di Clifford Geertz, ovvero la percezione sensoriale deve essere arricchita
dei significati e delle interpretazioni di un dato contesto culturale e storico di riferimento.
La descrizione dell’osservatore partecipante non è fatta del solo racconto di ciò che egli ha
visto. E’ una vera e propria “costruzione”, risultante dall’assemblaggio di materiale diverso:
“narrazioni” (provenienti da interviste in profondità, storie di vita, registrazioni della viva voce
dei protagonisti), cronache giornalistiche, testi di discorsi, materiale documentario d’ogni
genere ecc.

Le fasi dell’analisi: la classificazione.

Dopo la descrizione viene la classificazione. Il ricercatore deve imprimere un ordine alla


massa di informazioni raccolte, individuando ricorrenze, similitudini, tipi.

Fasi della ricerca: lo stile di scrittura.

Lo stile di scrittura che caratterizza il rapporto conclusivo di una ricerca condotta con
osservazione partecipante deve essere riflessivo e narrativo.
Per riflessività della ricerca si intende il fatto che il ricercatore è parte del mondo che sta
studiando.
Lo stile narrativo è uno stile simile a quello del racconto e della cronaca giornalistica.

Note conclusive.

Nell’osservazione partecipante il ricercatore è lo strumento della ricerca, nel senso che tutta
la rilevazione viene filtrata attraverso i suoi occhi ed i suoi sensi. Ai condizionamenti
personali si aggiungono condizionamenti culturali. La ricerca etnografica è “una cultura che
studia un’altra cultura” (Spradley). Ciò che chiamiamo i nostri dati sono in realtà le nostre
interpretazioni delle interpretazioni di altri su ciò che fanno loro e i loro compatrioti (Clifford
Geertz). Ne consegue che ricercatori diversi posti di fronte allo stesso oggetto di studio ne
possono dare descrizioni profondamente diverse.
Note generalizzabilità.

Le difficoltà di generalizzazione sono imputabili alla soggettività del ricercatore e alla


soggettività dei casi studiati.
L’osservazione partecipante consiste in genere nello studio di un caso o pochi casi; si tratta
di studi intensi, ma su piccola scala.

Non standardizzazione (delle procedure).

Non ci sono procedure standardizzate, universalmente applicabili.


Ogni percorso di ricerca è unico e specifico.
Ne deriva la non replicabilità degli studi.
Questo approccio afferma che solo attraverso il coinvolgimento personale si può arrivare alla
comprensione, e che la conoscenza autentica è solo quella che passa per l’esperienza
diretta.

Intervista qualitativa.

● L’obiettivo di fondo è accedere alla prospettiva del soggetto studiato, interrogandolo.


● Si intende cogliere le sue categorie mentali, le sue interpretazioni, le sue percezioni e
i suoi sentimenti, i motivi delle sue azioni.
● L'intervista qualitativa è una conversazione provocata dall’intervistatore, rivolta a
soggetti scelti sulla base di un piano di rilevazione e in numero consistente, avente
finalità di tipo conoscitivo, guidata dall’intervistatore, sulla base di uno schema
flessibile e non standardizzato di interrogazione.
● Nell’intervista qualitativa la voce sovrastante deve essere quella dell'intervistato: nella
situazione estrema l’intervistatore parla pochissimo, si limita a stimolare ed
incoraggiare l’intervistato.
● Lo strumento di raccolta delle informazioni deve adattarsi alle diverse personalità
degli intervistati, deve concedere all’intervistato piena libertà di espressione.
● L'intervista qualitativa non mira ad avere un campione rappresentativo. In genere si
ricorre al disegno fattoriale non probabilistico. Si individuano alcune caratteristiche
socio-grafiche di base importanti ai fini del tema studiato, e nelle celle generate
dell'incrocio di queste variabili si intervista un ugual numero di persone.
● Queste vengono scelte col criterio del campionamento per quote, lasciando
all’intervistatore la discrezionalità nella scelta di chi intervistare, fermo restando il
vincolo posto dalla quota.
● Altre volte - specie se si sta studiando una popolazione "clandestina" - si ricorre alla
tecnica del campionamento “a valanga”.
● L’obiettivo non è cogliere relazioni tra variabili, ma capire le manifestazioni nella loro
individualità. Si vogliono ricostruire dei modelli, delle tipologie, delle sequenze, a
partire da casi analizzati nella loro interezza.
Interviste strutturate, semistrutturate e non strutturate.

● Nelle interviste strutturate a tutti gli intervistati sono poste le stesse domande nella
stessa sequenza. Lo stimolo è uguale per tutti.
● Gli intervistati hanno però libertà nell'esprimere la loro risposta. Si tratta in definitiva di
domande aperte.
● La strutturazione del questionario garantisce un certo grado di standardizzazione
delle informazioni raccolte.

Intervista semi - strutturata.

In questo caso l’intervistatore dispone di una “traccia”, che riporta gli argomenti che deve
toccare nel croso dell’intervista.
L’ordine col quale i vari temi sono affrontati e il modo di formulare le domande sono tuttavia
lasciati alla libera decisione e valutazione dell’intervistatore.

Intervista non strutturata.

● Nell'intervista strutturata le domande fatte dall’intervistatore sono prestabilite, nella


forma e nel contenuto.
● Nell'intervista semi - strutturata il contenuto è prestabilito, mentre non lo è la forma
delle domande.
● Nell’intervista non - strutturata, neppure il contenuto delle domande è prestabilito, e
può variare da soggetto a soggetto.
● L’intervistatore ha il solo compito di porre sul tavolo della conversazione i temi che
vuole toccare.
● L’intervistatore svolge una funzione di incoraggiamento e di stimolo, e anche un
compito di controllo, arginando divagazioni eccessive.

Analisi del materiale empirico.

● L’analisi dei dati è centrata sui soggetti (case - based) invece che sulle variabili
(variable - based).
● L’approccio deve essere di tipo olistico, nel senso che l’individuo viene osservato e
studiato nella sua interezza.
● La presentazione dei risultati avviene secondo una prospettiva narrativa, nel senso
che si sviluppa attraverso racconti di episodi, descrizione di vasi, spesso utilizzando
le stesse parole degli intervistati per non alterare il materiale raccolto e trasmettere al
lettore l’immediatezza delle situazioni immediate.
● Le sintesi e le generalizzazioni assumono spesso la forma di classificazioni e
tipologie.
L’uso dei documenti.

Si tratta di leggere i documenti che l’uomo e le istituzioni hanno prodotto.


Per documento intendiamo materiale informativo su un determinato fenomeno sociale che
esiste indipendentemente dall’azione del ricercatore.
Esso viene prodotto per finalità diverse da quelle della ricerca sociale.

Diversi tipi di documenti.

Lettere, articoli di giornale, diari, autobiografie, organigrammi di società, verbali di consigli di


amministrazione, atti parlamentari, sentenze di tribunali, bilanci di società, certificati di
matrimonio, regolamenti, contratti commerciali, ecc.

Documenti personali.

I documenti personali hanno un carattere privato, d’intimità, possono essere lettere, chat,
autobiografie; le memorie sono visioni dal di dentro e in quanto tali si iscrivono a pieno titolo
nell’approccio interpretativo.

Autobiografie.

● L’autobiografia è il resoconto scritto dell’intera vita di una persona, da lei stessa


compilato (una visione retrospettiva).
● Chi scrive un’autobiografia è certamente una persona al di fuori della norma.
● L’autobiografia spesso comprende soltanto quello che l’autore ritiene interessante.
● Inoltre essa presenta il rischio di una razionalizzazione a posteriori degli avvenimenti
passati.

Diari.

● Documenti personali per eccellenza, scritti per uso strettamente personale e


simultaneamente agli avvenimenti descritti.
● Un caso particolare di diario, utilizzato nella ricerca sociale è rappresentato da

resoconti giornalieri compilati su richiesta del ricercatore (bilanci del tempo ⇒

consistenti in schede consegnate ai soggetti studiati, nelle quali la giornata viene

suddivisa in frazioni di tempo e per ciascuna di esse si chiede a ognuno di annotare


che cosa ha fatto per un certo periodo).
Lettere.

● Una delle prime e più note ricerche della sociologia, Il contadino polacco in Europa e
in America di William Thomas e Florian Znaniecki (1918 - 1920) è in buona parte
basata su lettere.
● Si tratta di una corrispondenza scambiata fra emigrati polacchi negli Stati Uniti e loro
congiunti rimasti in Polonia, che gli autori reperirono mettendo un annuncio sul
giornale della comunità polacca di Chicago nel quale offrivano un compenso per ogni
lettera.
● Le lettere sono importanti strumenti di espressione dell’interiorità degli individui, della
loro soggettiva definizione delle situazioni.
● La lettera non esprime solo il mondo dello scrivente, ma anche la percezione dello
scrivente da parte del destinatario (Plummer 1983).
● Essa pertanto interpretata come il prodotto dell’interazione fra due persone.

Testimonianze orali.

● Si tratta di raccontare la propria vita (in genere l’intera vita trascorsa).


● Il ricercatore si comporta come puro e semplice registratore.
● Non si preoccupa della numerosità dei casi studiati.
● In un certo senso intervistare le persone sulla loro vita trascorsa è come “leggere i
documenti (documenti viventi)”, le persone sono “libri ambulanti”.
● Potendo interrogare le persone e servirsi di racconti orali ci consente di evitare che la
base informativa sia limitata o che sia riferita solo agli strati sociali superiori.

Documenti istituzionali.

● Anche la sfera pubblica di ogni società produce una serie infinita di documenti, che
sono il riflesso di una data cultura di un dato contesto storico e sociale.
● Questi documenti sono il prodotto della nostra vita istituzionalista (documenti
istituzionali).
● I documenti istituzionali possono diventare dati per la ricerca, materiale empirico per
studiare i più diversi fenomeni sociali.

Analisi dei documenti.

Un testo può essere analizzato sia in maniera qualitativa, interpretandolo nella sua globalità
e dal punto di vista dei suoi significati; sia in maniera quantitativa, suddividendolo in elementi
omogenei da mettere poi in relazione fra di loro. In particolare l’approccio quantitativo ha
dato luogo ad una branca della ricerca sociale, la cosiddetta analisi del contenuto, che
utilizza procedure di scomposizione dei testi, al fine di codificarli in una “matrice dei dati” da
sottoporre poi all’analisi statistica.

Vari tipi di documenti.

● Mezzi di comunicazione di massa;


● Narrativa;
● Testi pedagogici, libretti di precettistica religiosa o morale;
● Racconti della cultura popolare, la morfologia della fiaba dello studioso russo Vladimir
Propp;
● Materiale giudiziario, sentenze emesse dai tribunali;
● Documenti della politica, atti parlamentari, programmi dei partiti, discorsi e
propaganda elettorale;
● Documenti aziendali e amministrativi, organigrammi, bilanci delle amministrazioni
pubbliche;
● Fotografie, video, cinema, televisione
Tipo particolare di analisi documentaria ⇒ tracce fisiche (tracce di erosione e tracce di

accrescimento); analisi della composizione della spazzatura per inferire lo stile di vita (Rathje

e Murphy 1992).

Note conclusive sull’analisi dei documenti istituzionali.

I vantaggi più evidenti sono:


- non reattività
- Possibilità di analisi diacronica
- Costi ridotti
Gli svantaggi più evidenti sono:
- incompletezza dell’informazione (i documenti sono prodotti per fini diversi dagli
obiettivi della ricerca);
- ufficialità della rappresentazione (non sono rappresentazioni oggettive della realtà ma
ne danno una rappresentazione ufficiale.

Potrebbero piacerti anche