Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
6 ottobre 2022
Metodologia? Riflessione sul metodo impiegati dagli scienziati per raccogliere evidenze
empiriche, delle ipotesi formulate. Bisogna conoscere diversi metodi per conferma delle loro
ipotesi. Gli scienziati hanno sviluppato un nuovo metodo scientifico, un momento di
affinamento di un senso comune.
● Figlia della curiosità umana, attitudine degli uomini a realizzare scoperte, mappe; tale
capacità l’abbiamo noi come homo sapiens, poi il nostro cervello ha un sistema più
complesso. La curiosità umana, rappresenta un metodo utile per scoprire metodi di
sopravvivenza, scopi utili per vivere. La scienza non tira in ballo entità ideologiche, e
concezioni aprioristiche. Il metodo scientifico si configura come una serie di
procedure che portano ad un progressivo affinamento al senso comune
● Generalmente noi riponiamo fiducia nella scienza e negli scienziati, pur non avendo
chiara consapevolezza di cosa sia il metodo scientifico e dei contenuti delle teorie
scientifiche, di cosa facciano gli scienziati. È escluso che la scienza contemporanea
sia un’impresa intellettuale di grande importanza per l’umanità. Le applicazioni di tale
materia in diversi campi hanno comportato cambiamenti impressionanti; grazie alla
scienza la vita è raddoppiata, e questo è l’indicatore più importante di quanto sia
avanzato il processo scientifico. Pertanto ogni giorno facciamo uso di prodotti della
scienza. Nei decenni che ci separano dalla 2 guerra mondiale, possiamo osservare la
riduzione drastica del tasso di mortalità.
● Nel passato non c’era il ragionamento scientifico e tanto meno la spiegazione
scientifica. Si ricorreva ad una forma di pensiero ingenua. Per spiegare gli
accadimenti si faceva riferimento alla religione, entità invisibili, allo sciamano. Era
importante accattivarsi le simpatie delle divinità, e così gli uomini pregavano gli dei e
offrivano loro doni per assicurarsi raccolti abbondanti, tempo propizio e molti figli.
● Dovrà passare molto tempo prima di inaugurare un nuovo stile di pensiero scientifico;
tale scoperta venne fatta in Grecia 2500 anni fa, con i presocratici. Qui possiamo fare
riferimento a Talete, quando pensò che ogni cosa in natura si fondasse sull’acqua.
Oggi sappiamo che non è così, ma si pose comunque una domanda scientifica; ebbe
quindi un approccio materialista, senza affidarsi a entità divine. Talete credeva che
uomini, animali, piante fossero fatti di acqua, e che la terra fosse un disco piatto che
galleggiava sul mare immenso. Per questo definiva l’acqua il principio di tutte le cose.
Talete si era posto una domanda molto importante, ma gli scienziati che vennero
dopo hanno scoperto che Talete si sbagliava.
● Nel medioevo si ha un periodo di stasi, ci si limita a confermare in modo acritico i
contenuti, e a leggere i testi e le sacre scritture di Aristotele; nessuno tentava sfidare
tali testi. Si parla quindi di appiattimento.
● Il grande mutamento nel ragionamento scientifico si ha nel 500/600, quando con
Copernico, accade la rivoluzione copernicana. Si passa da un sistema
geocentrico/tolemaico/aristotelico, fino ad arrivare ad un sistema
eliocentrico/copernicano. Galileo, nel 600, propone il metodo sperimentale.
Copernico e Galileo sfidano il principio di autorità. Sfidare l’autorità comporta delle
conseguenze, ma vi fu comunque un cambiamento di rotta.
● Newton che elabora la legge di gravitazione universale.
● Maxwell unifica elettricità, magnetismo e luce.
● Einstein che combina spazio e tempo entro un unico costrutto “spazio-tempo”
deformabile per effetto della forza di gravitazione. Prima di lui, Newton, considerava
lo spazio e il tempo come categorie distinte.
● La meccanica quantistica ci dà una nuova concezione di causalità.
● Il principio di indeterminazione di Heisenberg.
● La rivoluzione scientifica del 900 stravolge i vecchi concetti della scienza newtoniana.
Oggigiorno, sappiamo che un modello scientifico non è un modello veritiero. Il
modello come mappa semplificata della realtà.
● Gli scienziati propongono delle mappe che legano i concetti, e producono dei modelli,
che sono comunque delle mappe, che non è la realtà. Un modello è una versione
semplificata della realtà, e ha degli scostamenti teorici. Il modello è una sorte di ponte
tra teoria e realtà.
● La conoscenza di ciò che accade fuori non la conosciamo mai al 100%.
● Nella scienza non ci sono certezze, ma un bravo scienziato è in grado di confrontarsi
con le incertezze.
● Karl Popper afferma che non possiamo conoscere bene la realtà. Diceva che il vero
metodo scientifico è andare a caccia di confutazioni
Tra i filosofi della scienza ricordiamo Cartesio, che era razionalista e si colloca nella
tradizione filosofica di Socrate e Platone; mentre Bacone propende per un approccio
induttivo, un metodo quindi sperimentale.
Ci sono filosofi come Locke e Hume che si collocano nel filone della filosofia empirista di
Aristotele.
Secondo Hume, la mente è tabula rasa, e la conoscenza è derivabile dai sensi piuttosto che
da principi innati in opposizione a Platone.
La tradizione empirista scozzese ha avuto un ruolo nello sviluppo del positivismo, momento
filosofico che nasce in Francia, e si estende poi in tutta l’Europa e nell’America settentrionale
grazie ai contributi di Comte Spencer, John Stuart Mill e Darwin. Il positivismo si radica al
metodo sperimentale, si oppone alla filosofia idealista.
Positivismo.
Weber, Simmel e Windelband, propongono una metodologia specifica per le scienze sociali,
che si basa sulla comprensione di valori, ragioni, desideri.
Si propone la distinzione tra: 1) scienze nomotetiche che sono le scienze naturali, esempio
matematica, fisica, chimica, che vanno a caccia di leggi universalmente vere. 2) scienze
idiografiche, che hanno carattere storico, descrittivo; studiano fenomeni che hanno il
carattere dell’unicità ed irripetibilità.
Per Weber i fatti sociali sono intelligibili, riconducibili ad entità psicologiche, spirituali piuttosto
che a fatti biologici. C’è bisogno di una metodologia particolare per studiare tali entità di
carattere spirituale e l’armamentario della scienza naturale non si dimostra adeguato per
cogliere motivazioni, sentimenti, valori, entità irriducibili a processualità fisiche.
Neopositivismo.
Si sviluppa nei primi decenni del 900. Il suo proposito è quello di sviluppare un linguaggio
scientifico libero dall’ambiguità del linguaggio di senso comune, cioè tradurre il linguaggio in
modo matematico. Per realizzare una conoscenza scientifica si parte dall’alto delle
proposizioni teoriche, si formulano ipotesi, ossia tentativi di spiegazione, e si raccolgono dati
per confermare o rifiutare le ipotesi.
Il paradigma non è uno specchio del mondo ma un paio di occhiali attraverso cui
ricostruiamo la realtà. Paradigma “way of thinking”, ossia un modo di pensare, è uno schema
ordinatore che indirizza una certa area di investigazione scientifica.
La scienza progredisce in modo graduale, ma avanza in momenti di normalità e periodi
rivoluzionari. In tempi normali l’impresa scientifica mostra continuità con il passato e gli
scienziati adottano un dato paradigma che non viene messo in discussione. È la comunità
scientifica che decide se soppiantare o meno un certo paradigma, a seguito del verificarsi di
anomalie recalcitranti.
Lakatos.
Secondo Imre Lakatos occorre distinguere le grandi teorie programmatiche dalle ipotesi
ausiliarie. Dalle grandi teorie si derivano ipotesi che possono essere confermate o rifiutate.
Se un’ipotesi viene rifiutata non necessariamente comporta la confutazione di una teoria.
Inoltre, Lakatos, distingue i programmi di ricerca progressivi (quando lo sviluppo della teoria
precede i risultati empirici) e quelli regressivi (quando la teoria segue la crescita empirica-
spiegazioni a posteriori).
Laudan.
Secondo Laudan, gli scienziati non perdono tempo in dispute per stabilire se una
proposizione è scientifica oppure no, come alcuni filosofi della scienza ci lasciano supporre.
Gli scienziati si comportano in modo pragmatico, adottano teorie e modelli che consentono
loro di spiegare e prevedere i fenomeni in modo da risolvere problemi pratici.
Epistemologia anarchica.
Il riferimento principale è Paul Feyerabend che nega alla scienza la capacità di conseguire
livelli di conoscenza superiori rispetto al senso comune. Nella versione più estreme si giunge
ad affermare che non esiste alcuna realtà esterna, tutto dipende da un punto di vista.
Famoso è il motto “anything goes” qualsiasi metodo vada bene e può essere utilizzato per
accumulare conoscenza, che è sempre soggettiva, riflessiva. Ne deriva che non si possono
stabilire criteri di demarcazione tra scienza e non scienza. Non esiste una realtà oggettiva a
prescindere dalla percezione che ne ha il singolo osservatore.
Epistemologia neutralizzata.
È un approccio post-positivista che si interessa a quel che succede nel cervello biologico per
spiegare come si realizza un processo conoscitivo. La psicologia popolare non rappresenta
una fonte legittima di conoscenza. I soggetti commettono molti errori cognitivi. Le cose che
osserviamo non sono rappresentazioni oggettive ma sono ricostruzioni biochimiche del
nostro sistema nervoso.
10 ottobre 2022
Epistemologia-metodologia-tecniche.
Metodologia: una riflessione sul metodo, si colloca tra l’epistemologia e la tecnica; essa
comporta una tensione continua tra due poli (quello della riflessione filosofica, e quello della
pratica procedurale). La metodologia è meno rigorosa della logica formale. Ha meno
contenuto sostantivo ed è più formale della psicologia e della sociologia. Il metodologo non è
un tecnico (Lazarsfeld e Rosenberg 1955). La metodologia può essere definita come il
discorso o la riflessione o la critica sul metodo o sui metodi.
Tecnica: deriva dal greco "techne" e designa una capacità artistica, la capacità domestica,
tramandabile di padre in figlio dell’artigiano (gasperoni e Marradi 1996). Le tecniche non
sono dotate di minor nobiltà rispetto alla metodologia. Le tecniche sono temporalmente
antecedenti alla riflessione sul metodo. La metodologia sta nelle tecniche (metodi) come la
critica letteraria sta alla letteratura. La prima è meno utile delle seconde.
In economia non c’è scontro tra qualitativo e quantitativo, è appiattita; nelle scienze sociali
troviamo questo scontro. La ricerca quantitativa ha cumulato nel corso del XX secolo
un’imponente mole evidenza empirica raccolta tramite disegni di campionamento
probabilistici. Le basi di microdati vengono analizzate tramite tecniche statistiche sempre più
raffinate.
Il paradigma.
Il concetto di paradigma, lo ritroviamo già negli scritti di Platone; ripreso poi da Kuhn. È un
modo di vedere, pensare, uno schema ordinatore. Kuhn nel suo libro definisce la scienza
come una sequenza di scienza normale, qui c’è una continuità con il passato, e scienza
rivoluzionaria, quando la continuità con il passato si interrompe. Inoltre Kuhn, rifiuta la
concezione tradizionale di scienza come impresa cumulativa, lineare, di progressiva
accumulazione di sapere. In tempi normali, l’impresa scientifica mostra una continuità col
passato; in tempi rivoluzionari la continuità col passato si interrompe. Il passaggio dalla
vecchia alla nuova struttura conoscitiva può essere reso possibile da elementi irrazionali,
arbitrarie, accidentalità storiche e personali, (Kuhn nel 1962).
La molteplicità di paradigmi può essere distesa lungo un continuo delimitato dal polo del
positivismo e da quello del costruttivismo sociale.
L’economia può essere considerata una disciplina paradigmatica? Secondo Kuhn “gli
economisti sono d’accordo su che cos’è l’economia”; ma ciò non basta, mancano modelli in
grado di fare accurate previsioni. Tutte le scienze sociali possono essere considerate come
discipline immature, economia inclusa!!
Nelle scienze sociali il paradigma viene inteso come concezione generale sulla natura della
realtà sociale.
1) Questione ontologica: o del “che cosa”, o della natura dei fatti sociali (oggetti in sé o
rappresentazioni di cose?), di che sono fatti i fenomeni sociali; per Durkheim sono cose,
mentre per Weber sono rappresentazioni di cose.
2) Questione epistemologica: del rapporto tra “il chi” e il “che cosa”; riguarda la
conoscibilità della realtà sociale, il rapporto tra lo studioso e a realtà studiata.
Dimensioni che si implicano vicendevolmente: gli assunti ontologici (qual è la sostanza di ciò
che esiste) si riverberano sulle questioni epistemologiche (come devo pormi nei confronti
dell’oggetto di indagine?) e queste ultime condizionano la metodologia impiegata (quali
strumenti devo impiegare per raccogliere prove empiriche di buona qualità?).
Ontologia
Realismo ingenuo: la realtà Realismo critico: la realtà sociale è “reale” ma
Costruttivismo: il mondo conoscibile è
sociale è “reale” e conoscibile solo in maniera imperfetta e quello dei significati attribuiti dagli
conoscibile come si probabilistica. individui.
trattasse di una “cosa”.
Relativismo (realtà multiple): queste
realtà costruite variano nella forma e nel
contenuto fra individui, gruppi e culture.
Interpretazione/interazione:
osservato-osservatore
Osservazione/dista Osservazione/dista
cco: osservatore- cco: osservato-
osservato osservatore
Induzione (conoscenza emerge
dalla realtà studiata).
Durkheim tratta i fatti sociali come “cose”, come dati esterni, non modificabili dalla volontà del
ricercatore. Esiste una realtà sociale, al di fuori dell’individuo oggettivamente conoscibile;
che è studiabile mediante gli stessi metodi delle scienze naturali. L’ideale è l’esperimento
(manipolazione e controllo delle variabili e distacco fra osservatore e osservato). Il mondo
sociale come il mondo naturale è regolato da leggi (fisica sociale). Le leggi del sociale
assumono i caratteri di un nesso causa-effetto. Ci si affida all’induzione: dall’osservazione
empirica si perviene a generalizzazioni e dalle generalizzazioni si ricavano le leggi universali.
Compito della scienza è scoprire ordine e uniformità della natura tramite procedimenti
induttivi.
Durkeim dice che il suicidio è un fatto sociale, è una relazione sociale tra anomia e suicidio.
Anomia è un concetto astratto. La causa sociale di un fatto sociale va ricercata in fatto
sociale antecedente, secondo Durkheim.
Il “senso comune” deve essere purificato da ambiguità e riformulato nei termini di congetture
verificabili. Misurazione/operativizzazione dei concetti (validità/attendibilità). Distinzione tra
variabili causa ed effetto. I modelli hanno carattere probabilistico. I risultati (le stime dei
parametri) sono circondati da incertezza e non assurgono a leggi deterministiche. I modelli
possono essere corroborati o falsificati (Popper) (logica top-down).
Non esiste un modello vero, ma tanti modelli compatibili con una stessa base dati (evidenza
empirica).
12 ottobre 2022
Consilience di Wilson.
Interpretativismo.
Per Weber il compito della scienza sociale è comprendere la razionalità intima che guida
l’agire sociale.
Tipo ideale (guscio vuoto, modello teorico che aiuta il ricercatore ad interpretare la realtà)
che nasce da un’astrazione, da un’accentuazione unilaterale di uno o di alcuni punti di vista.
A partire dagli anni ‘70= sia qualità che quantità. Lo scontro è tra quantità e qualità; tra
positivismo e neopositivismo.
Approccio naturalistico
Rapporto con l’ambiente Approccio manipolativo
(distacco) Empatia
(prossimità/contatto)
Variano a seconda
dell’interesse dei soggetti
Strumenti di rilevazione Uniforme per tutti i
soggetti.
Prospettiva narrativa
In uno studio quantitativo a tavolino è possibile che le categorie concettuali impegnate dal
ricercatore e riversate nello strumento di rilevazione (il questionario) non riflettano
accuratamente le categorie percettive dei partecipanti all’indagine.
Lo studio qualitativo è ampiamente de-standardizzato, ragion per cui non è possibile ripetere
lo stesso procedimento per confermare gli stessi risultati, o confutarli come nell’approccio
quantitativo. Diversi ricercatori posti di fronte allo stesso fenomeno giungeranno,
plausibilmente, a risultati diversi.
Il terzo approccio.
Teorie ed ipotesi.
➢ La teoria è un insieme di proposizioni organicamente connesse, che si pongono ad
un elevato livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali
sono derivate da regolarità empiriche e dalle quali possono essere derivate delle
previsioni empiriche. Nelle scienze mature, come la fisica, la chimica, la teoria si
concretizza in equazioni matematiche che formalizzano principi fondamentali da cui è
possibile fare previsioni molto precise. Nelle scienze sociali invece le teorie si
configurano come proposizioni che mettono in relazione concetti astratti.
➢ L’ipotesi è una proposizione che implica una relazione tra due o più concetti che si
colloca su un livello inferiore di astrazione e di generalità rispetto alla teoria e che
permette una traduzione della teoria in termini empiricamente controllabili.
Il capitale umano rappresenta una dotazione molto importante che influisce sul salario e
quindi sulle possibilità/condizioni di vita dei soggetti. Concetto astratto che comprende abilità
e competenze di varia natura che vengono riconosciute e premiate sul mercato del lavoro
(Becker 1964). Generalmente viene utilizzato come indicatore l’istruzione ma questo
indicatore non è sufficiente per realizzare copertura semantica di questo concetto che è
molto ampio. Dovremo tener conto anche della struttura di personalità, dell’intelligenza, della
forza di volontà, dell’esperienza lavorativa, dell’influenza dei pari ecc.
· Hp1: ci si aspetta un minor tasso di suicidi fra le persone sposate e con figli (maggior
coesione sociale).
· Hp2: ci si aspetta un maggior tasso di suicidi tra i soggetti più acculturati o più
benestanti.
I concetti.
Con il termine “concetto” ci si riferisce al contenuto semantico dei segni linguistici. I concetti
come entità semantiche, immagini della mente, idee, disposizioni cognitive. Un concetto è
una percezione, un significato ampiamente condiviso entro una comunità (Marradi). Il
concetto è un ritaglio operato in un flusso di esperienze. Il ritaglio si realizza unificando
sensazioni visive, tattili, olfattive, uditive, gustative o una mescolanza di tutto ciò. Il concetto
sta ad indicare l’azione di ordinare il molteplice (le impressioni sensoriali) sotto un unico atto
astratto di pensiero. I concetti sono “i mattoni della teoria”. Per la moderna neuroscienza i
concetti sono strutture o processi fisici incarnati nei circuiti neuronali che ottemperano a
qualche funzione adattiva. I concetti non sono osservabili direttamente a meno che non si
faccia uso di qualche tecnica di neuroimaging ma sono inferibili attraverso espressioni
fenotipiche, parole, comportamenti, prodotti culturali.
17 ottobre 2022
Cis sono diversi modi per rispondere alle domande che affastellano la nostra mente:
possiamo affidarci al nostro intuito, al senso comune, al ragionamento logico oppure al
parere di soggetti che ricoprono ruoli di autorità. se tutto ciò ci lasciasse dubbiosi e
insoddisfatti avremmo ancora un’altra importante opportunità:l’adozione del metodo
scientifico. Quest’ultimo si concretizza nell’impiego di una serie di procedure sistematiche,
rigorose, controllate, che portano a un progressivo affinamento del senso comune (
Lundberg 1942; Burns 1944; Kerlinger 1986).
E’ bene inoltre sottolineare che il saper fare ricerca non si riduce al fatto di esibire una buona
cassetta degli attrezzi; fuor di metafora, non basta mostrarsi componenti nell’analisi dei dati o
nella costruzione di un questionario; occorre semmai una competenza più ampia, un modo di
pensare critico - way of thinking- che si concretizza nella capacità cognitiva di collegare le
astrazioni teoriche ai dati empirici. Una ricerca ben progettata si configura come un circolo
virtuoso che porta a un accrescimento delle conoscenze sul mondo (Tranfield e Starkey,
1998).
Le fasi del processo di ricerca.
La formulazione dell’interrogativo.
Chi fa ricerca sociale può sviluppare interrogativi di una varia natura, può essere interessato
a esplorare un nuovo fenomeno, a descrivere quale forma assume un dato fenomeno entro
la popolazione, oppure può essere interessato a studiare l’effetto causale di una certa
circostanza o evento su un comportamento, oppure ancora può essere interessato a
catturare i principi generativi di regolarità osservate (Bryman 2012; Denscombe 2010).
Lo studioso che sviluppa un interrogativo di natura esplorativa si pone nell’ottica di fare una
prima ricognizione su un dato fenomeno di cui si sa poco o nulla, in modo da realizzare una
comprensione provvisoria. Un interrogativo esplorativo si presenta come una domanda vaga
e generica da cui il ricercatore non è in grado di derivare delle vere e proprie ipotesi né un
disegno di ricerca strutturato. Un esempio di interrogativo di natura esplorativa potrebbe
essere lo studio delle motivazioni che spingono un gruppo di amici e conoscenti ad
acquistare prodotti on-line.
Se l’interrogativo è di natura descrittiva il fuoco sarà puntato sulla forma che assume un
fenomeno, ovvero sulla distribuzione di una certa proprietà a livello di popolazione. Un
esempio di studio descrittivo è rappresentato dall’indagine sulla povertà condotta ogni anno
dalla Banca d’Italia, utilizzando un campione rappresentativo di circa 8000 famiglie (circa
24.000 individui), distribuire in circa 300 comuni italiani. In tale studio ci si pone l'obiettivo di
stimare la percentuale di soggetti e di famiglie che si collocano al di sotto della soglia di
povertà.
Interrogativi più complessi sono la stima degli effetti causali e la ricostruzione dei
meccanismi generativi delle regolarità empiriche. Un interrogativo di natura causale punta a
fornire una stima dell’effetto esercitato da una particolare caratteristica manipolabile
(denominata stimolo o trattamento) su un certo esito o comportamento (l’outcome). Per
esemplificare, la stima dell’effetto causale esercitato dall’introduzione della legge Sirchia,
entrata in vigore nel gennaio 2005, che vieta il fumo nei locali pubblici, sulla decisione di
smettere di fumare rappresenta un interrogativo di natura causale di grande interesse per il
policy maker.
Gli interrogativi predittivi mirano, invece, a predire i valori ignoti di un dato fenomeno a partire
da valori noti di altri fenomeni. Per semplificare, si potrebbe predire il reddito dei soggetti
impiegando come predittori un certo numero di indicatori che fanno riferimento al possesso
di beni durevoli e allo stile di vita.
Gli interrogativi previsivi mirano alla previsione delle tendenze future di un dato fenomeno a
partire da informazioni passate sullo stesso fenomeno o su altri fenomeni. La previsione del
rischio di fallimento di imprese attualmente attive sulla base di indici di bilancio e di variabili
macroeconomiche oppure la stima del rischio di caduta delle persone anziane sulla base
dell’età, delle condizioni fisiologiche, della presenza di malattie e del consumo di determinati
farmaci, rappresentano interrogativi di natura previsiva.
Per fare una buona rassegna dovremmo selezionare gli articoli pubblicati su riviste
specialistiche, i contributi più recenti, eventualmente anche articoli di rassegna che
sintetizzano i risultati di precedenti ricerche negli ultimi anni. Meglio trovare articoli di
rassegna sistematica.
Oggigiorno abbiamo importanti strumenti informatici per realizzare rassegne in poco tempo
messi a disposizione dalle biblioteche. Come ad esempio:
Per disegno di ricerca intendiamo una serie di procedure che riguardano quale popolazione
studiare e con quali metodi al fine di rispondere all’interrogativo che ci siamo posti. Col
disegno di ricerca ci poniamo nell’ottica di raccogliere l’evidenza empirica di miglior qualità
per verificare le ipotesi teoriche. Quando disegnano una ricerca dobbiamo tener conto delle
nostre capacità e delle risposte disponibili (vincoli temporali e finanziari).
● Un disegno di ricerca non deve essere per forza originale e può concretizzarsi:
1) nella replicazione di un disegno precedente ma con nuovi dati;
2) in un approfondimento di aspetti di un fenomeno che sono stati trascurati;
3) nell’applicazione di un diverso metodo di indagine (l’esperimento in alternativa
all’indagine campionaria o all’osservazione partecipante).
● La dimensione temporale.
1) studi trasversali (cross-sectional)
2) studi longitudinali
3) studi trend
4) studi coorte
5) studi panel
Il disegno della ricerca: quali metodi, strategie analitiche e procedure utilizzate per
rispondere all’interrogativo che ci siamo posti. Dopo aver dichiarato che posa si intende
scoprire si deve trovare il modo migliore per farlo. A tal scopo è necessario prendere una
serie di decisioni riguardo ai seguenti punti:
Il piano della ricerca, è appropriato redigere uno scadenziario o piano delle varie fasi della
ricerca.
Gli indicatori possono assumere stati diversi sugli oggetti dell’analisi: variano passando da
caso a caso.
Una variabile è una caratteristica o un attributo di persone, oggetti o eventi che può
assumere diversi valori numerici.
Chiamiamo modalità (o spazio degli stati o degli attributi), gli stati operativizzati della
proprietà, a ognuna delle quali viene assegnato un differente valore simbolico, normalmente
costituito da un numero.
Ne segue che:
Le variabili.
Una variabile è un concetto operativizzato. Una variabile varia passando da caso a caso;
oppure negli studi longitudinali una variabile può variare anche in riferimento ad uno stesso
caso misurato in momenti differenti. Le variabili possono essere distinte in:
➔ dipendente/indipendente
➔ manipolabili/non manipolabili
➔ latenti/osservate
➔ individuali/collettive
➔ nominali/ordinali/a intervalli/di rapporti
Le scale ad intervalli non possiedono uno zero assoluto, quelle di rapporti posseggono uno
zero assoluto (le scale assolute sono per esempio quelle ottenute mediante conteggio).
Variabili nominali.
Variabile nominale: la proprietà di registrare assume stati discreti non ordinabili. Esempio:
genere, religione praticata, nazionalità.
Variabili cardinali.
● I numeri che identificano le modalità della variabile non sono semplici etichette ma
hanno un significato numerico (designano quantità). Esempio: età, reddito, numero
dei figli, altezza, peso, indice, massa corporea.
● E’ nota la distanza tra due valori, dunque si possono effettuare operazioni
matematiche di somma, sottrazione, moltiplicazione e divisione.
● Parliamo di misurazione quando la proprietà da misurare è continua (può assumere
infiniti stati intermedi in un dato intervallo); esempio, lunghezza espressa in metri.
● Parliamo di conteggio quando la proprietà da registrare è discreta, assume cioè stati
finiti, non frazionabili (esempio: il numero dei figli, numero di volte che una persona
va in vacanza in un anno, ecc).
19 ottobre 2022
Variabili.
La dimensione della salute è possibile misurarla attraverso dati oggettivi, come il colesterolo,
pressione, ecc. Il reddito è possibile invece, misurarlo attraverso il guadagno.
Gli indicatori, esempio altezza, peso, quindi delle variabili che insieme formano un indice.
L’errore di rilevazione/misurazione.
L’errore di rilevazione o misurazione è uno scarto, uno spostamento tra il valore vero e il
valore osservato; quindi tra il valore teorico e il valore empirico. Il valore osservato è intriso di
errore, di distorsione.
Dobbiamo conoscere tale errore e cercare di sistemarlo. Tale errore può essere diviso in
sistematico e occidentale.
Valore osservato (che conosciamo): valore vero (che non conosciamo) + errore sistematico
+ errore accidentale.
24 ottobre 2022
L’errore sistematico.
Esempio. la pressione del sangue di un individuo se rilevata in tempi differenti, avremo valori
differenti. La ripetizioni della stessa misurazione sullo stesso soggetto e nelle stesse
condizioni non darà mai un risultato assolutamente identico alla misurazione precedente.
Le risposte ad un medesimo questionario da parte di un medesimo soggetto possono
differire nel corso di successive somministrazioni.
Avremo variazioni dovute allo stato psicofisico dell’intervistato al momento dell’intervista, alla
differente interpretazione della domanda, alla differente reazione di fronte all'intervistatore,
ecc.
Il modo più semplice per disegnare un errore probabilistico è avere una lista di abitanti,
estraiamo a caso 1000 soggetti e somministriamo loro il questionario, in cui gli viene chiesto
il reddito mensile annuale. otteniamo un valore circa 1200 euro. Facciamo la stessa cosa
con altri 1000 soggetti, ma la statistica del reddito sarà sicuramente diversa
Le sorgenti dell’errore.
1- Sorgente teorica: errore di indicazione, che porta alla scelta degli indicatori;
2- Sorgente empirica: errore che consiste nella rilevazione degli indicatori stessi.
Un indicatore può essere scelto male oppure rilevato male.
Errori di selezione.
➢ L’errore di copertura: quando la lista della popolazione (sampling frame) dalla quale
estraiamo i casi del campione non è completa. Esempio: rubrica telefonica per
stimare il reddito medio delle famiglie.
➢ L’errore di campionamento: la stima ottenuta su un dato campione è diversa rispetto
a quella ottenuta su un campione differente.
➢ L’errore di non risposta: alcuni soggetti pur appartenendo al campione possono non
essere raggiunti dall’intervistatore (non rispondenti) oppure possono rifiutarsi di
rispondere all’intero questionario o ad alcuni item.
In conclusione.
Gli errori di
- selezione
- osservazione
- e nel trattamento dei dati
possono essere sia sistematici che accidentali.
Esempio. Una domanda sul reddito comporterà una sottostima costante del reddito vero
(errore sistematico); nello stesso modo una domanda può implicare fraintendimenti o parziali
incomprensivi variabili da soggetto a soggetto (errore accidentale).
L’errore globale di una ricerca non è stimabile: troppe componenti sfuggono al nostro
controllo.
L’errore sistematico, per definizione si presenta in tutte le possibili repliche della rilevazione e
sfugge a qualsiasi rilevazione.
Ciò che possiamo misurare è una componente di questo errore globale, e cioè l’errore di
campionamento.
Attendibilità.
Attendibilità test-retest.
Esprime la congruenza tra due misurazioni dello stesso costrutto effettuate sugli stessi
individui, nelle medesime circostanze e in momenti temporali diversi, nell’ipotesi che il
fenomeno di studio mostri una certa stabilità. Per avere una stima della test-retest reliability
basta calcolare una correlazione statistica tra le due misurazioni. Quanto più ampio è
l’intervallo temporale tanto più basso è il livello di attendibilità.
Si verifica la coerenza tra due gruppi di indicatori che rappresentano forme parallele di un
medesimo costrutto.
Si divide lo strumento di misurazione in due metà e si considerano le due metà come
strumenti tendenzialmente equivalenti.
Esempio. 20 indicatori di salute mentale (10 indicatori estratti casualmente formeremo un
indice, gli altri 10 un altro indice). La correlazione tra i punteggi totali delle misure
rappresenta una stima della split-half reliability.
Attendibilità (Reliability).
La validità (validity).
Uno strumento è valido se misura la validità di un oggetto, cioè quello che intendiamo
misurare. La validità fa invece riferimento al grado col quale una certa procedura di
traduzione di un concetto in variabile effettivamente rileva il concetto che si intende rilevare.
- Il QI misura effettivamente l’intelligenza?
- Il PIL misura effettivamente la ricchezza di una nazione?
Attenzione! Una certa procedura operativa può essere perfettamente stabile in successive
applicazioni (cioè attendibile), senza per questo essere valida!!
Esempio: misurazione dell’intelligenza sulla base del numero di scarpe oppure non posso
utilizzare la bilancia per misurare l’altezza delle persone.
Esempio: per misurare l’obesità non è sufficiente raccogliere informazioni sul peso, ma devo
costruire l’indice di massa corporea rapportando il peso al quadrato dell’altezza (p/h*2).
Validità di contenuto.
Indica il fatto che che l’indicatore o gli indicatori prescelti per un certo concetto coprano
intuitivo.
La convalida avviene su un piano logico/teorico/intuitivo piuttosto che empirico.
Validità di costrutto.
Construct validity.
Si valuta il grado di accordo tra indicatori che misurano uno stesso concetto teorico (validità
convergente) e il grado di disaccordo tra indicatori che misurano costrutti differenti (validità
divergente). Qualità del lavoro (stipendio, opportunità di carriera). Benessere mentale
(soddisfazioni verso la vita, energia).
In genere si associa
- l’attendibilità all’errore accidentale
- e la validità all’errore sistematico
Per questo l’attendibilità è più facilmente rilevabile della validità, in quanto l’errore
accidentale è individuabile attraverso repliche della rilevazione sullo stesso soggetto (le
Oppure la correlazione tra due o più misure diverse ma pur tuttavia simili →split-half
● Se una misura non è perfettamente attendibile, non può essere perfettamente valida,
dal momento che si delineerà che X0 = Xt + E random.
● In aggiunta può essere presente anche l’errore sistematico i.e., E sistematico =/da 0.
In questo caso, la non attendibilità implica non validità.
● Una misura perfettamente attendibile può rivelarsi non valida, poiché può essere
presente l’errore sistematico (X0 = Xt + E sistematico).
● L’attendibilità è una condizione necessaria ma non sufficiente per la validità.
26 ottobre 2022
L’inchiesta campionaria.
E’ un metodo per:
1) rilevare informazioni
2) interrogando individui ( in forma orale o scritta) oggetto della ricerca;
3) appartenenti ad un campione rappresentativo (deve riprodurre su scala ridotta le
caratteristiche della popolazione di riferimento);
4) mediante procedure standardizzate
- standardizzare dello stimolo (a tutti i soggetti devono venire poste le stesse
domande);
- standardizzazione delle categorie di risposta ( questionario con domande
chiuse);
- standardizzazione della raccolta dei dati (matrice casi per variabili).
5) allo scopo di studiare non solo la consistenza di un dato fenomeno (sondaggio) ma
anche le relazioni tra le variabili (investigazione sui meccanismi causali) e le relazioni
tra casi (analisi dei raggruppamenti).
NB: a cosa serve un’inchiesta campionaria? quando viene fatta? serve per stimare la
prevalenza di un fenomeno e studiarne i dati.
ps.(associazione non significa causazione).
garbage out.
● Per analizzare un buon protocollo di rilevazione si può fare affidamento a precedenti
inchieste e impostare le medesime domande di cui è stata già accertata la validità e
attendibilità.
Attenzione!!! Non è plagio copiare le domande da altri questionari (Sudman e Bradburn
1982).
● Si cumula conoscenza.
Le proprietà rilevate.
La domanda aperta è quella nella quale l'intervistato è libero di rispondere come meglio
filtro) → prima di chiedere per chi ha votato occorre mettere la domanda filtro
particolare).
Le domande che non richiedono sforzi cognitivi (es. le socio demografiche) possono essere
rivolte nella fase finale (nel momento in cui cala l’attenzione).
Il tempo medio di intervista dovrebbe attestarsi a 45 minuti nel caso dell'intervista faccia a
faccia e a 25 minuti nel caso di intervista telefonica.
Un procedura che fa uso delle batterie di domande è la tecnica delle scale (scaling), che si
applica per l’area della cosiddetta “misura degli atteggiamenti”.
Vantaggi:
➔ interviste di maggior durata;
➔ possibilità di utilizzare immagini, video, oggetti (test del prodotto, test della
confezione)
➔ il rispondente è identificato con certezza
➔ è più facile contattare e convincere il rispondente a collaborare
➔ possibilità di istruire il rispondente sul significato delle domande
➔ possibilità di raccogliere informazioni sul contesto
Svantaggi:
➔ molto costosa
➔ necessità di organizzare capillare sul territorio
➔ lunghi tempi di raccolta
➔ maggiori rischi di condizionamento da parte dell’intervistatore
● Rilevazione:
- su ampi campioni
- in tempi rapidi
- a basso costo (risparmi fino al 75% dell'intervista faccia a faccia)
● Maggior garanzia di anonimato;
● Raggiungimento di soggetti residenti in aree periferiche;
● Miglior controllo e addestramento degli intervistatori;
● Computer Assisted Telephone Interviewing (CATI);
● Il rapporto con l'intervistatore si logora prima (il testo del questionario deve essere più
breve);
● Non è possibile utilizzare materiale visivo;
● L'intervistatore non è in grado di contestualizzare il comportamento dell’intervistato
(non vede il suo ambiente familiare e non può registrare comportamenti non verbali);
● Certe categorie sociali possono risultare sotto-rappresentate in quanto hanno una
minor probabilità di disporre il telefono;
● La limitatezza del tempo a disposizione costringe ad una semplificazione dei quesiti e
a domande essenziali.
Questionari autocompilati.
Vantaggi:
- enorme risparmi nei costi di rilevazione;
- l'intervistato può scegliere quando compilare il questionario;
- maggior garanzia di anonimato;
- assenza di distorsioni dovute all’intervistatore;
- accessibilità anche a intervistati residenti in zone isolate;
Tipi di supporto.
➔ Cartaceo
➔ CAPI (computer assisted personal interviewing)
➔ CATI (computer assisted telephone interviewing)
➔ CAWI (computer assisted web interviewing)
Vantaggi di CAPI, CATI e CAWI → si limitano gli errori di rilevazione (controlli incrociati).
● Studio esplorativo (per formulare le domande occorre aver maturato una conoscenza
mondo)
● Pretest: dopo la fase esplorativa si procede alla stesura del questionario, dunque lo si
collauda nell’ambito di una fase che definiamo pre-test.
● Briefing: la preparazione e la supervisione degli intervistatori.
● Contatto iniziale: con i soggetti intervistati e il problema dei rifiuti → per ottenere
Esempio.
Ordini dei quesiti: prima il generale o prima lo specifico? (da uno studio americano del 1981)
Generale: “pensa che si debba concedere a una donna incinta la possibilità di ottenere un
aborto legale se è sposata e non vuole altri figli?”
Specifico: “pensa che si debba concedere a una donna incinta la possibilità di ottenere un
aborto legale de esiste un’altra possibilità che il bambino nasca manomato?”
-specifico 84 83
2 novembre 2022
Quando si realizza un’indagine campionaria c’è sempre una proporzione (più o meno
grande) di soggetti che pur facendo parte del campione, volontariamente o
involontariamente, non rispondono.
Generalmente in questi casi si opera una sostituzione (con nominativi di riserva).
Le mancate risposte non danno luogo a distorsione se i soggetti che si sottraggono
all’indagine non sono sistematicamente diversi dai soggetti che vi partecipano.
➢ La distorsione è tanto più forte quanto maggiore è la quota di non rispondenti. Quindi
dovremmo fare qualsiasi sforzo per ridurre i non rispondenti
➢ Ipotizziamo che la quota di soggetti fumatori stimata nel campione sia del 30%.
➢ Supponiamo che il 40% del nostro campione non abbia risposto.
➢ Ipotizziamo due casi limite:
- in quel 40% erano tutti fumatori; in questo caso la vera percentuale di fumatori
sarebbe 0.30*0.60+1*0.40=0.58 ( la distorsione sarebbe di -28 punti %).
- in quel caso la vera percentuale di fumatori sarebbe 0.30*0.60+0.40=0.18 (la
distorsione sarebbe di +12 punti %).
Cosa fare?
La quota di mancate risposte deve essere la più risicata possibile (una quota non oltre il 20%
può essere considerata accettabile).
Occorre convincere i soggetti selezionati di quanto sia importante la loro partecipazione ai
fini della buona riuscita dell’indagine.
E’ importante verificare il grado di allineamento tra campione effettivo e popolazione di
riferimento in relazione ad alcune variabili rilevanti (età, sessso, titolo di studio, area
geografica, ecc). Sviluppare un vettore di post-stratificazione.
Survey Methodology.
La survey methodology ci indica quali sono i canoni che dobbiamo seguire per realizzare
rilevazioni empiriche (nell’ambito della survey) da cui originano “numeri” (stime di parametri)
che siano credibili a livello di popolazione (tasso di povertà, tasso di disoccupati, % di
laureati ecc).
La qualità di una buona ricerca è definita all’interno di un framework concettuale/analitico
etichettato come “paradigma dell’errore globale”.
La survey methodology è sia un campo scientifico che professionale.
7 novembre 2022
DA ITALIAN LIVES
Disegno di campionamento.
Gli obiettivi dell’indagine prevedono stime a livello nazionale e un campione di circa 5000
famiglie distribuite in circa 280 comuni.
Lo schema di seguito descritto ricalca lo schema generale alla base di tutte le indagini Istat
sulle famiglie, comprese quelle che hanno una componente longitudinale (Eu-silc e forze di
lavoro).
§Sono definiti 46 uomini individuati in base alla concatenazione della regione e del grado di
urbanizzazione.
Nell’ambito di ciascun dominio, i comuni vengono ulteriormente stratificati con strati di uguale
ampiezza demografica.
Modalità geografica.
Istruzione.
Lavoro.
● Lavoro attuale: questa scheda apre la sezione e contiene una serie di domande
finalizzate a individuare l’attuale posizione dell’intervistato/a rispetto al lavoro e a
rilevare alcune informazioni supplementari sulle caratteristiche del lavoro attualmente
svolto:
- lavora attualmente oppure no;
- se non lavora attualmente, ha mai lavorato in passato oppure no;
- se non lavora attualmente, in qualche condizione si trova e sé è alla ricerca di
un lavoro.
● Episodi lavorativi: il suo obiettivo è quello di rilevare una serie di informazioni su
ciascun episodio lavorativo vissuto dall’intervistato/a durante la sua carriera.
● Episodi di non occupazione/interruzione del lavoro: il suo obiettivo è quello di rilevare
alcune informazioni di base su ciascun episodio di interruzione (temporanea o
definitiva) della ricerca lavorativa dell'intervistato/a.
Lo scopo è quello di raccogliere alcune informazioni di base sulla percezione che i soggetti
hanno riguardo la soddisfazione di:
● vita in generale
● relazioni familiari
● relazioni con amici
● tempo libero
● alloggio
● presenza o meno di problemi ambientali nel quartiere di residenza
● situazione economia familiare
Internet.
Lo scopo è quello di raccogliere alcune informazioni di base sulla percezione che la persona
di riferimento ha riguardo:
● le condizioni e l’adeguatezza dello spazio abitativo
● l’impossibilità di disporre di beni durevoli ampiamente diffusi
● le difficoltà incontrate nel far fronte alle spese per la casa e ad arrivare alla fine del
mese
● la possibilità di permettersi una settimana di vacanza all’anno
● la possibilità di mangiare carne o pesce almeno una volta ogni due gironi
● la possibilità di riscaldare adeguatamente l’abitazione
● la possibilità di far fronte a spese impreviste
● l’impossibilità di recarsi dal dentista per motivi economici
Tratti di personalità.
Lo scopo della presente sezione è quello di raccogliere alcune informazioni di base sui tratti
di personalità dei soggetti intervistati. I 15 temi item presenti all’interno della batteria saranno
ricondotti a 5 dimensioni che descrivono le differenze individuali più salienti e socialmente
rilevanti:
● energia, orientamento fiducioso ed entusiasta verso le relazioni interpersonali;
● amicalità, orientamento verso l’altruismo e la presa in carico dell’altro;
● coscienziosità, tendenza a essere precisi, accurati e perseveranti;
● stabilità emotiva, orientamento verso il controllo degli stati emotivi e degli impulsi;
● apertura mentale, si riferisce all’apertura verso nuove idee, verso i valori degli altri e
verso i propri sentimenti.
Salute.
Lo scopo della sezione è quello di raccogliere alcune informazioni sulla percezione che i
soggetti hanno riguardo le proprie condizioni di salute e su alcuni loro comportamenti e stili di
vita. Le prime domande appartengono al SF-12, uno strumento di misura della qualità di vita
correlata alla salute ampiamente utilizzato nelle indagini nazionali e internazionali. Le
domande intendo raccogliere informazioni in merito:
● alla salute auto percepita;
● alle limitazioni nello svolgimento della attività quotidiane e/o lavorative e/o sociali a
causa di uno stato fisico o mentale compromesso;
● alle emozioni positive e negative sperimentate nelle ultime 4 settimane.
Lo scopo della sezione è quello di raccogliere alcune informazioni di base sulla situazione
economico-finanziaria dell’intero nucleo familiare. Più nello specifico vengono raccolte
informazioni riguardo a:
● il valore dell’abitazione di proprietà;
● sull’importo del mutuo per l’acquisto della casa che il soggetto sta ancora pagando;
● sul reddito medio mensile della famiglia;
● sulle componenti di reddito da lavoro, da pensione e da beni immobili, espresse
come percentuale del reddito totale;
● sulla capacità di risparmio della famiglia;
● sull’ammontare totale dei debiti che la famiglia ha contratto nei confronti di banche o
società finanziarie.
Sostegni e sussidi.
Partecipazione politica.
E’ uno dei più controversi sul piano filosofico ed uno dei più difficili da tradurre in termini
operativi. Sul concetto di causa si sono arrovellati filosofi e scienziati sociali e scienziati
naturali (Aristotele, Hume, Durkheim, Weber).
“Il pensiero causale appartiene completamente al livello teoretico. Le leggi causali non
possono mai essere dimostrate empiricamente” (Blalock 1961).
La relazione causale più che una relazione è una connessione genetica. Essa designa una
modalità di produzione di cose a partire da altre (Bunge 1959).
Se X, allora (e soltanto allora) Y sempre prodotto da X.
➢ Nell’ambito delle scienze naturali un meccanismo causale si esprime nei termini della
propagazione di una quantità (di energia) conservata (Salmon 1985; Dowe 2001).
● Nell’ambito sociale tutto ciò che ci è permesso fare è osservare covariazioni e serie
temporali.
● Il concetto di causa resta però confinato nel regno della teoria e dobbiamo
rassegnarci all’impossibilità di verificare empiricamente le leggi causali.
● Possiamo dire però che l’esistenza teorica di un meccanismo causale comporta delle
conseguenze (teoriche) osservabili sul piano empirico.
● La corroborazione del meccanismo causale non va confusa con la certificazione
dell’esistenza di un nesso causale.
Requisiti per poter “corroborare” un effetto causale.
Per poter corroborare l’esistenza di una relazione causale tra due variabili noi dobbiamo
accertare:
- la covariazione tra variabile indipendente e dipendente;
- la direzione della causalità (al variare della variabile indipendente consegue una
variazione della variabile dipendente ma non è vero il contrario).
Se vogliamo vedere il nesso causale, dobbiamo accertare che al variare di X deve variare Y;
quindi dobbiamo manipolare prima la x, vedere cosa succede all y e stimare la causalità.
Fatto accertabile tramite:
➔ manipolazione della variabile indipendente (esperimento);
➔ o sulla base del criterio della successione temporale;
➔ o per impossibilità logica (la classe può condizionare l'orientamento politico ma non
viceversa??)
➔ il controllo su altre possibili cause (es. l’effetto dello studio sul reddito è condizionato
da una componente spuria che è l’origine sociale oppure il genere).
Se è vera l’affermazione teorica che X è la causa di Y, allora dovremmo poter osservare, sul
piano empirico, che una variazione di X - tenendo costanti tutte le altre possibili cause du Y -
è accompagnata da una variazione di Y (Corbetta 1999).
Non è possibile misurare l’effetto causale a livello individuale ⇒ avremmo bisogno di due
9 novembre 2022
Quando l’assegnazione casuale non è possibile, un criterio alternativo che può essere
seguito è quello dell’accoppiamento, consiste nel formare coppie di soggetti identici (gemelli)
su caratteristiche che si ritiene siano rilevanti per il problema studiato, assegnando poi un
componente della coppia al primo gruppo e l’altro al secondo gruppo. Così facendo
possiamo garantire l’equivalenza dei due gruppi solo per quanto concerne le variabili prese
in considerazione, mentre non possiamo sapere se i soggetti costituenti la coppia
differiscono o meno rispetto ad altre caratteristiche non esplicitate.
La randomizzazione produce gruppi che differiscono tra loro solo per le oscillazioni
X1 ⇒ Y1
R⇒
X2 ⇒ Y2
I soggetti vengono suddivisi in due gruppi mediante randomizzazione. Si manipola la
variabile indipendente di modo che assuma lo stato x1 in un gruppo e lo stato x2 nell’altro.
Viene rilevato il valore medio della variabile dipendente Y nei due gruppi. Si calcola l’effetto
casuale facendo : T =Y2 (medio) - Y1 (medio).
Y1 ⇒ X1 ⇒ Y2
R⇒
Y3 ⇒ X2 ⇒ Y4
I soggetti vengono suddivisi in due gruppi mediante “randomizzazione”. Si manipola la
variabile indipendente di modo che assuma lo stato x1 in un gruppo e lo stato x2 nell’altro;
viene rilevato il valore medio della variabile dipendente y nei due gruppi prima (pre-test) e
dopo (post-test) la somministrazione dello stimolo.
Calcola l’effetto causale facendo T= (Y4m - Y3m) - (Y2m - Y1m) ⇒ differenza della
Y1 X1 Y2
Y3 X2 Y4
X1 Y5
R ⇒ X2 Y6
Somma i vantaggi del primo (nessuna interferenza da parte del pre-test) a quelli del secondo
(disponibilità del pre-test). Ci consente di separare l'effetto dello stimolo da quello
dell’interazione tra pre-test e stimolo stesso.
Y1 ⇒ X1 ⇒ Y2
R⇒
Y3 ⇒ X2 ⇒ Y4
➢ tale disegno è simile al diff & diff, prevede però misure ripetute;
➢ Ciascun individuo viene sottoposto a tutti i livelli della variabile indipendente
(causale);
➢ I singoli partecipanti sono valutati nel corso di più occasioni, tante quante sono le
categorie della x.
➢ si sfrutta la variazione entro i soggetti per la stima del parametro causale
T = E(Yi|T=1) - (Yi|T=0).
Quasi esperimenti.
➢ In questo disegno è previsto un solo gruppo e una singola misurazione sulla Y dopo
la somministrazione dello stimolo;
➢ E’ un disegno che può avere un’utilità in fase esplorativa;
➢ Es. Selezioniamo un gruppo di giovani, mostriamo loro un documentario sui danni
causati dall’alcol e a distanza di una settimana rileviamo la propensione al consumo
di alcol sugli stessi soggetti.
Y1 X X2
Effetto rilevato: Y2(medio) - Y1(medio)
Y1 Y2 Y3 X Y4 Y5 Y6
Y1 X1 Y2
⇒ effetto rilevato (Y4 - Y3) - (Y2 - Y1)
Y3 X2 Y4
Scompare la R e compare la riga orizzontale che indica la non equivalenza tra i due gruppi. Il
vantaggio: si lavora sulla variazione post-test/pre-test piuttosto che su valori assoluti. La
presenza del gruppo di controllo elimina gli effetti di disturbo dovuti ad accadimenti tra pre-
test e post-test. Resta il fatto che i due gruppi non sono equivalenti.
(accoppiamento statistico) tra individui esposti allo stimolo e individui non esposti sulla base
della loro similarità computata su una serie di caratteristiche ritenute rilevanti ⇒ in seguito si
Criticità e vantaggi.
Svantaggi:
- artificialità dell’ambiente;
- reattività dei soggetti sperimentali (materia animata);
- applicabile a problematiche micro (non rappresentatività);
Vantaggi:
- misurazione della relazione causale;
- isolamento della variabile trattamento da altre interferenze (rumore di fondo).
14 novembre 2022
L’esperimento.
La logica dell’esperimento.
La variabile indipendente è uno stimolo sperimentale che può essere presente (valore 1) o
assente (valore 0). Lo stimolo generalmente è una variabile dicotomica composta da due
attributi: presente o non presente.
In questo modello, il ricercatore calcola l’effetto causale confrontando quello che succede
(outcome) quando lo stimolo è presente (Yt) con quello che accade (outcome) quando lo
stimolo è assente (Yc).
Esempio:
● variabile dipendente o effetto ⇒ consumo di bevande alcoliche (birra, vino, liquori)
automobilistici del sabato sera dovuto al consumo di bevande alcoliche (video shock)
Pre-test e post-test.
Nel disegno sperimentale il pre-test ha luogo in un tempo (t) prima della somministrazione
dello stimolo sperimentale (trattamento). Il pre-test serve per definire la posizione dei
soggetti in riferimento alla variabile dipendente.
Lo stimolo viene somministrato successivamente al pre-test (vale a dire al tempo t+1). Nel
post-test, che viene effettuato successivamente alla somministrazione dello stimolo (t+2), la
variabile dipendente viene misurata nuovamente.
Il pre-test può esercitare un’influenza sugli intervistati (i quali non sono oggetti fisici,
impassibili, ma soggetti riflessivi e reattivi), ovvero può far cambiare atteggiamento o
comportamento.
in sé).
● Per testare gli effetti nuovi farmaci i ricercatori somministrano al gruppo di controllo
un placebo - vale a dire un medicinale che non ha alcun effetto. In questo modo i
pazienti del gruppo di controllo sono convinti di ricevere lo stesso farmaco del gruppo
sperimentale.
● Un nuovo farmaco verrà valutato efficace se in media le condizioni dei pazienti
sottoposti a trattamento sono significativamente migliori rispetto a quelle del gruppo a
cui è stato somministrato il placebo.
Per studiare i fenomeni complessi utilizzando il disegno sperimentale può essere utile
costruire diversi gruppi sperimentali e diversi gruppi di controllo. Con più gruppi sperimentali
è possibile quantificare l’effetto causale di diversi tipi di trattamento. Con un disegno
sperimentale di questo tipo è possibile quantificare l'effetto di singoli stimoli ma anche
l’effetto combinato di stimoli distinti (o effetto interazione).
somiglianza fra i due gruppi dipenderà in ampia misura dal numero di soggetti
campionati. E’ buona prassi verificare la compatibilità dei due gruppi sulla base di un
oscillazioni tra i due gruppi è inversamente proporzionale alla dimensione del campione.
Ci sono due fatto al di fuori dello stimolo sperimentale che esercitano un impatto sulla
variabile dipendente e che minacciano la validità interna:
- effetto storia (quando la finestra temporale dell’esperimento è ampia)
- effetto maturazione
- effetto periodo
- effetto pretest
- cambio di strumento di misurazione di Y
- errori di selezione (randomizzazione non andata a buon fine)
- demotivazione
- mortalità o attrition durante l’esperimento
- effetto regressione sulla media (i cambiamenti che si verificano su oggetti che si
trovano in condizioni di partenza estreme vengono erroneamente attribuite agli effetti
dello stimolo sperimentale).
Può capitare che i soggetti optino per uno stato di trattamento diverso rispetto a quando
deciso (imperfect compliance). Può capitare che i soggetti si influenzino vicendevolmente
(effetto contaminazione).
Gli esperimenti richiedono poco tempo e poche risorse economiche. Si possono disegnare
esperimenti con pochi soggetti.
➔ la maggior debolezza sta nella loro artificialità. I processi sociali che hanno luogo nel
contesto di un laboratorio potrebbero non accadere in quello naturale.
➔ Gli esperimenti hanno un’applicazione limitata (LATE).
➔ Gli esperimenti potrebbero in alcuni casi violare norme etiche, invadere la vita dei
soggetti, danneggiarli psicologicamente.
● Dalla teoria e precedenti ricerche si può intuire come gli ingredienti del trattamento
interagiscono tra loro impattando sugli outcome di interesse.
● La fase pilota ci fa avere un’idea della fattibilità del progetto:
- se il reclutamento funziona
- se è adeguato il numero di oggetti leggibili
- se i soggetti partecipano (bassa attrition/propensione alla partecipazione)
- ma si può avere un’idea approssimativa del segno e dell’intensità dell’effetto
causale
● Quando si progetta un intervento complesso occorre specificare in modo accurato
quali sono gli ingredienti attivi che connotano il trattamento.
● E’ importante che ci sia una teoria di riferimento che spieghi come gli ingredienti attivi
interagiscono e condizionano l’outcome di interesse.
● Quando viene implementato un trial randomizzato è importante seguire e compilare il
diagramma CONSORT che trovate a pag 177 del manuale.
Economista del MIT, recentemente premio nobel, ha condotto esperimenti sul campo, in
regioni poverissime dell’Africa e dell’India per capire in che misure certi interventi/trattamenti
sono efficaci nel far cambiare certi comportamenti. Nell’esperimento proposto viene dato un
incentivo materiale (1 Kg di lenticchie per fare in modo che le famiglie sottopongano i loro
figli alla vaccinazione). C’è una randomizzazione, alcuni villaggi vengono sottoposti a
trattamenti, altri no.
Il campionamento: popolazione e campione.
➢ Campionare significa osservare una parte del trarne informazioni sul tutto.
➢ L’estrazione casuale (probability sample) non va confusa con l’estrazione a casaccio
(haphazard sample).
➢ Il caso è un fenomeno esprimibile nel linguaggio della matematica (possiamo
calcolare la probabilità di ottenere una coppia di “sei” da dieci lanci di una coppia di
dadi) (prob=0.28).
➢ Il campionamento è un procedimento di estrazione di un numero ridotto di casi
(campione) da un insieme di unità (popolazione).
➢ Se il campione è probabilistico i risultati ottenuti a livello di campione sono
generalizzabili all’intera popolazione.
sottoinsieme di popolazione;
- l’errore di non risposta ⇒ alcuni soggetti non vengono raggiunti oppure si rifiutano di
rispondere;
Errore di campionamento.
● Un elemento di probabilità ⇒ non siamo certi che il parametro vero (es. il reddito
La stima comporta un certo livello di fiducia (attorno ad una stima c’è sempre incertezza) e
consiste nella determinazione di un intervallo di fiducia nel quale si colloca il valore della
statistica della popolazione.
16 novembre 2022
La stima del campione sarà circondata da un certo grado di incertezza, attorno alle stime c’è
sempre incertezza, che chiamiamo errore di campionamento. Quanto più ampio è l’errore
tanto più ampio è l'incertezza, quindi poco precisa.
V = v+-e
In cui:
- V è il parametro della popolazione (incognito)
- v è la stima del campione
- e l’errore di campionamento
Un campione si dice probabilistico quando ogni unità è estratta con una probabilità nota (e
diversa da zero). Il campionamento casuale semplice si ha quando tutte le unità della
popolazione hanno la stessa probabilità di essere incluse nel campione.
L’errore di campionamento se il campione è casuale semplice.
Dove:
- z: coefficiente dipendente dal livello di fiducia della stima (1.96=95%; 2.58=99%);
- s: deviazione standard campionaria della variazione studiata;
- n: ampiezza del campione;
- 1-f: fattore di correzione per popolazioni finite, dove f = frazione di campionamento =
n/N;
- p: proporzione di soggetti che rispondono affermativamente;
- q: proporzioni di soggetti che non rispondono affermativamente.
(p*q = è la varianza della variabile)
popolazione finita.
popolazione infinita.
Il coefficiente z.
Si riferisce alla dispersione o variabilità della distribuzione di una variabile. Essa risulta tanto
maggiore quanto più la variabile d'interesse risulta dispersa. Maggiore è la variabilità del
fenomeno studiato, maggiore è - a parità di altre condizioni - l’errore di campionamento.
Visto che non conosciamo s - che è la deviazione standard della distribuzione della variabile
nella popolazione - dobbiamo ricorrere ad una sua stima che è per l’appunto s.
In conclusione.
E’ fondamentale sapere in via preventiva quanto deve essere ampio il campione. Sulla base
dell’ampiezza del campione dobbiamo stimare i costi della rilevazione. Basta sostituire ad ⇒
PS: Se il prof non ci dice la varianza dobbiamo mettere il massimo livello di varianza,
ovvero 0.50.
Esempio.
● Supponiamo che la popolazione sia talmente grande rispetto al campione che si
possa trascurare il fattore di correzione per popolazioni finite;
● L’ampiezza del campione è direttamente proporzionale:
- al livello di fiducia desiderato per la stima (z)
- ed alla variabilità del fenomeno studiato
● Ed inversamente proporzionale:
- all’errore che il ricercatore è disposto ad accettare
● Attenzione.
- z ed e sono stabilite dal ricercatore;
- mentre s, p q sono sono noti.
Soluzione: ricorrere a valutazioni approssimate di s e p ricavate da studi precedenti, dal
parere di esperti, da uno studio pilota. Se si stimano proporzioni si può assumere il massimo
valore di dispersione (p=0.50).
Esercizio 1.
Dato un campione 2000 casi, in riferimento alla variabile dummy “essere andato o meno in
vacanza lo scorso anno”, si calcoli l’errore di campionamento, adottando un livello di fiducia
nella stima pari al 95% e ipotizzando il massimo valore di varianza nell’uotcome.
Esercizio 2.
Si calcoli ora l’errore di campionamento in riferimento alla stessa variabile ipotizzando che la
propensione al viaggio sia pari al 30% ed il campione sia pari a 600 casi.
Esercizio 3.
Qual è l’errore di campionamento per la stima del reddito medio annuale degli italiani
ottenuta su un campione di 6659 osservazioni, pari a 16.513 euro, con deviazione standard
campionaria pari a 17.557?
Esercizio 4.
Per ottenere un errore di campionamento pari o inferiore a +- 4 punti percentuali (0.04) quale
deve essere la dimensione del campione nel caso in cui il fenomeno di interesse si configuri
come una variabile dummy?
Esercizio 5.
Per ottenere un errore di campionamento pari o inferiore a 400 euro sulla stima del reddito
medio annuale quale deve essere la dimensione del campione? (la stima della deviazione
standard campionaria in un precedente studio si attestava a 17557).
21 novembre 2022
Attenzione!!!
E’ opinione diffusa ritenere che l’ampiezza del campione debba essere proporzionale a
In sintesi.
● 2000 casi sono sufficienti per avere stime di notevole precisione (+/- 2.2%);
● con 600 casi possiamo avere stime con una certa precisione (+/-4%), quale che sia
mondiale!
Unica difficoltà per questo tipo di disegno è riuscire a stilare la lista di tutti gli abitanti del
globo.
Campioni probabilistici:
Campionamento sistematico.
Le unità campionarie non vengono estratte tramite sorteggio (o talvolta dei numeri casuali),
ma si scorre la lista dei soggetti, selezionandone sistematicamente uno ogni dato intervallo.
Si sceglie un’unità ogni K=N/n unità della popolazione … dove K è l’intervallo di
campionamento.
Es. se N=10.000 e n=100 l’intervallo di campionamento sarà pari a 100.
Tale campionamento consente di ottenere campioni casuali anche nella situazione in cui
manchi la lista della popolazione ed N sia sconosciuto.
Nelle ricerche di marketing si intervista un cliente ogni tot che escono dal negozio. E’
necessario che tutte le unità abbiano la stessa probabilità di venire estratte ⇒ dunque la
La procedura consiste:
- nel suddividere la popolazione in sottopopolazioni (strati) il più possibile omogenee
rispetto alla variabile da stimare, utilizzando una variabile ad essa correlata.
- estrarre mediante un procedimento casuale semplice un campione da ogni strato;
- usare i campioni dei singoli strati per ottenere il campione globale.
Con questa procedura posso ottenere una maggiore efficienza, cioè un minore errore di
campionamento a parità di ampiezza del campione.
Il campione può essere stratificato proporzionale oppure stratificato non proporzionale.
Nel primo caso a differenza che nel secondo il peso degli strati del campione riflette il peso
degli strati nella popolazione.
Il campione stratificato non proporzionale ottimale si contraddistingue per il fatto che
l’ampiezza degli strati nel campione è proporzionale alla variabilità S nello strato della
variabile oggetto di stima.
Campionamento a stadi.
Rappresenta una scelta forzata quando manca la lista completa della popolazione.
La popolazione viene suddivisa in più livelli gerarchicamente ordinati, i quali vengono estratti
in successione con un procedimento ad imbuto.
rilevazione.
Campionamento a grappoli.
● Utile quando mancano le liste della popolazione (le liste delle unità secondarie
Gli esseri umani differiscono dalle palline dell'urna per due aspetti essenziali: non sono a
portata di mano del ricercatore e sono pienamente liberi di non rispondere (Marradi 1989).
rispondenti” (Kish).
Talvolta conviene disegnare un campione più ampio e ipotizzare un più alto tasso di cadute.
● NB: (noi possiamo fare inferenza solo con campionamento probabilistico, se non c'è
l'estrazione, il campione non è probabilistico) (campionamento telefonico = no
probabilistico)
𝑋 = ∑𝑛𝑡=1 /𝑛 x1
Dove:
- x1 denota il valore assunto dalla variabile X in corrispondenza dell’osservazione i;
- n denota il numero totale di osservazioni;
- e i = 1, …n.
Quantili:
I quantili di una data variabile quantitativa X sono i K-1 valori che dividono la distribuzione di
quella variabile in K gruppi di osservazioni ordinati e di uguali dimensioni.
● Quando K = 2, il quantile corrispondente equivale alla mediana di X.
● Quando K=4, i tre quantili corrispondenti sono detti quartili e indicati con i simboli
Q1(X), Q2(X) e Q3(X).
dove
- max(X) denota il valore più elevato della variabile X; e min(X) denota il valore più
basso di X.
Differenza interquartile.
Varianza.
Normalizzazione.
Normalizzazione formula.
Standardizzazione - Formula
28 novembre 2022
L’Alpha di Cronbach.
● Il coefficiente Alpha si basa sulla matrice di correlazione fra tutti gli elementi e sul loro
numero.
● Dove n è il numero degli elementi della scala mentre r è la loro correlazione media
● Assume valore positivo, fra 0 e 1; più alti sono i valori maggiore è la coerenza interna
della scala
𝑛𝑟
α=
1+ 𝑟 (𝑛−1)
Tipologia.
30 novembre 2022
Quando il ricercatore è interessato a studiare un dato fenomeno, la prima cosa che deve fare
è analizzarne la distribuzione complessiva (analisi univariata).
Quindi fare l’analisi bivariata, vuol dire studiare la distribuzione congiunta di due variabili.
Analisi bivariata.
Nella maggior parte dei casi, però, il ricercatore è interessato soprattutto a verificare se e in
quale misura la distribuzione del fenomeno oggetto di studio varia a seconda di una seconda
o più caratteristiche dei soggetti presenti in esame.
In generale possiamo dire che fra due variabili esiste una relazione o associazione quando i
rispettivi valori covariano, cioè variano insieme in modo sistematico.
Relazione bivariata.
Simbolicamente, la relazione fra una qualsiasi coppia di variabili V1 V2 può essere espressa
come segue:
V2 f(V1)
Questa espressione si legge così: la distribuzione della variabile V2 varia a seconda del
valore assunto dalla variabile V1.
In termini matematici, diciamo che i valori assunti dalla variabile V2 sono funzione dei valori
assunti dalla variabile V1.
La funzione di regressione.
● Usando tale notazione, la relazione fra qualsiasi coppia di variabili può essere
espressa simbolicamente come segue:
y=f(X)
● Questa espressione è detta funzione di regressione di y rispetto a x e si legge così: i
valori assunti dalla variabile dipendente y sono funzione dei valori assunti dalla
variabile indipendente. Con una funzione di regressione posso certificare un nesso
causale.
● Generalizzando, è possibile esprimere i valori assunti da una data variabile
dipendente y come funzione dei valori assunti da qualsiasi numero j di variabili
indipendenti x. Formalmente: y= (X1, X2, …Xj)
● Questa espressione si legge così: la distribuzione della variabile dipendente y varia a
seconda della combinazione dei valori assunti dalle variabili indipendenti X1, X2…Xj
● In termini matematici, diciamo che i valori assunti dalla variabile dipendente y sono
funzione dei valori assunti dalle variabili indipendenti X1, X2…Xj.
● Nella sua semplicità, l’espressione precedente racchiude interamente la logica della
regressione,vale a dire: il valore assunto dalla variabile dipendente di interesse in
corrispondenza di ogni caso osservato può essere espresso in forma matematica
come risultato della combinazione dei valori assunti da un determinato insieme di
variabili indipendenti in corrispondenza di quel caso.
● In questi termini, la regressione rappresenta uno strumento finalizzato a descrivere le
mutevoli manifestazioni di un dato fenomeno di interesse (la variabile dipendente)
sulla base di una o più caratteristiche dei membri della popolazione di riferimento (le
variabili indipendenti).
Sul piano sostanziale, ciò significa affrontare interrogativi di ricerca del seguente tipo:
- qual è l’associazione esistente fra la propensione degli italiani al gioco d’azzardo (y) e
la classe sociale di appartenenza (x)?
- in quale misura l’uso/abuso di sostanze stupefacenti (y) varia secondo il genere (x)?
Supponiamo che, all’interno della popolazione di riferimento, il 70% dei soggetti non crede
nell’influenza degli astri sul comportamento umano, mentre il rimanente 30% ci crede.
In termini leggermente diversi, possiamo dire che i membri della popolazione di riferimento
hanno:
- una propensione a credere che gli astri non influiscono sul comportamento umano
pari a p1= 0.7
- una propensione a credere che gli altri influiscono sul comportamento umano pari a
p2 = 0.3
Nel loro insieme i valori p1 e p2, la cui somma deve essere uguale a 1, costituiscono la:
distribuzione di probabilità incondizionata della variabile dicotomica di interesse y (credenza
nell’influenza degli astri sul comportamento umano).
Omogeneità/eterogeneità.
Nel primo caso dovremmo concludere che il fenomeno di interesse si manifesta in modo
perfettamente omogeneo all’interno dell’intera popolazione di riferimento. La situazione di
perfetta omogeneità, tuttavia, è molto rara nei fenomeni sociali.
➔ Se (a) i membri della popolazione di riferimento si differenziano fra loro in termini di
una o pi8ù caratteristiche,
➔ e (b) alcune di queste caratteristiche sono associate alle manifestazioni del fenomeno
di interesse,
➔ allora ( c ) è legittimo aspettarsi che la distribuzione di probabilità della variabile Y
oggetto di studio non sia uguale per tutti, ma vari in misura maggiore o minore da
individuo a individuo o, almeno, da gruppo di individui a gruppo di individui.
Genere ⇒ credenza negli astri.
Tornando al nostro esempio, sulla base di studi precedenti possiamo ritenere che la
propensione a credere nell’influenza degli astri sul comportamento umano vari a seconda del
genere.
E’ così anche fra gli studenti oggetto di analisi?
Probabilità condizionate.
Poniamo che la distribuzione di probabilità della variabile y oggetto di studio non è uguale
per tutti, ma varia in misura sostanzialmente significativa a seconda del sesso degli
intervistati.
maschi 24 6 30
femmine 53 27 80
Precisamente, le ragazze risultano più propense dei ragazzi a credere nell’influenza degli
astri (0.34 vs 0.20).
Esempio:
24/30 = 0.80
53/80 = 0.66
6/30 = 0.2
33/80= 0.34
★ per trovare la propensione a non credere basta sottrarre 0.2 - 0.34 = 0.14 e
0.80 - 0.66= 0.14. In entrambi i casi esce 0.14, cioè i punti di differenza in
percentuale. Questa differenza è l’effetto della x su y.
totale p1 p2 1
Probabilità condizionate.
Ogni elemento
p🇰 | X=x
della tabella precedente rappresenta la probabilità (condizionata) di avere una certa
credenza e, quindi, rappresenta una propensione assoluta.
Ad esempio, la probabilità p 2 | X=2 può essere interpretata come:
- la propensione assoluta delle regazze a credere nell’influenza degli astri sul
comportamento umano;
- analogamente, la probabilità di p 1 | X=2 può essere interpretata come la propensione
assoluta delle ragazze a non credere nell’influenza degli astri sul comportamento
umano.
Le probabilità di condizione sono propensioni assolute. Gli odds sono propensioni relative.
Se calcoliamo il rapporto fra le due probabilità p2|X=2 e p1|X=2 otteniamo una misura della
propensione relativa a credere anziché non credere nella mia influenza degli astri attribuibile
alle ragazze intervistate. Questa misura è detta odds e può essere espressa formalmente
𝑃2| 𝑋=2
come segue: 𝑥=2 =
𝜔2:1
𝑃1| 𝑋=2
Misure di intensità della relazione.
Confrontando:
- la propensione a credere/non credere nell’influenza degli astri attribuibile alle
ragazze (cioè la distribuzione di probabilità condizionata di y dato che x=2);
-
con l’analoga propensione attribuibile ai ragazzi (cioè la distribuzione di
probabilità condizionata di y dato che x=1).
➔ possiamo otteuna o più misure ndell’intensità della relazione esistente a livello
bivariato fra sesso e credenza nell’influenza degli astri.
Odds ratio.
L’odds, è la probabilità che l’evento si verifichi, sulla probabilità che non si verifichi. L’odds è
una misura simmetrica che varia da 0 a infinito; l’1 rappresenta il baricentro. Se non c’è
relazione tra x e y, l’odds ratio si avvicina 1.
A sua volta, il rapporto fra la propensione relativa a credere anziché non credere attribuibile
alle ragazze e l’analoga propensione relativa attribuibile ai ragazzi dà luogo a una misura
detta odd ratio. In formula:
2∶ 1 (𝑃2|𝑋=2 / 𝑃1|𝑋=2)
𝟐:𝟏 𝜔𝑥=2
𝛺𝟐/𝟏 = = (𝑃2|𝑋=1 / 𝑃1|𝑋=1) (rapporto tra odds condizionati, detti odds ratio)
𝜔2∶1
𝑥=1
NB: Odds ratio = modello dell'intensità della relazione; è un rapporto di propensione
relativa.
Differenze di probabilità.
Ciascuno dei primi due confronti dà luogo a una misura detta differenza di probabilità.
In formula:
𝛥²2−1 = P2 | X=2 - P2 | X=1
𝛥12−1 = P1 | X=2- P2 | X=1
Quando si analizza la relazione fra due variabili quantitative, il primo passo consiste nel
rappresentare graficamente tale relazione mediante il cosiddetto: diagramma di dispersione.
Retta di regressione.
Con tale modello calcoliamo medie condizionate in riferimento al valore assunto dalla x. Il
test più appropriato è il T test.
(Calcoliamo medie della y entro gruppi formati sulla base dei valori assunti dalla x o dalla y).
Serve a minimizzare i valori osservati e i valori che sono collocati sulla retta, in modo da
“avvicinare i pallini”. A sua volta, questa linea retta, detta interpolante, può essere
rappresentata numericamente mediante un’equazione lineare, la cui forma generale è la
seguente:
y=β0+ β1x
➔ b1 è la pendenza, l’intensità, il segno dell’effetto
L’equazione lineare esprime il valore della variabile y come somma di due componenti:
- il parametro a;
- il prodotto fra il parametro b e il valore della variabile x.
5 dicembre 2022
Tecniche qualitative.
Piccola digressione sullo studio quantitativo ⇒ Studiamo rappresentazioni di fatti sociali, non
fatti sociali. Non esiste una realtà oggettiva, ma tutto dipende da un punto di vista,
soprattutto dal punto di vista dell’osservatore. Egli deve comportarsi come un osservatore
neutro. E’ tutto standardizzato, dall’inizio alla fine, per garantire l’invarianza dello stimolo,
Studio qualitativo ⇒ Rifiuta una rigida standardizzazione dei metodi di raccolta e di analisi dei
dati. Qui non c’è niente di standardizzato, ci sono diversi metodi che possono raccogliere
dati empirici. Commentiamo gli effetti. Ci sono molte componenti soggettive da parte
dell’osservatore. L'obiettivo non è quello di fare inferenza, cioè generalizzare i dati dal
storie di vita, approccio biografico, ⇒ si differenziano tra loro per delle sfumature;
● Uso dei documenti, cioè i prodotti della cultura, possono essere i documenti
personali, ma anche quelli prodotti dalle istituzioni.
Le tecniche di rilevazione della ricerca qualitativa sono raggruppabili in tre grandi categorie
riconducibili a tre azioni elementari:
- osservazione diretta
- interviste in profondità
- uso dei documenti
Riconducibili a tre azioni elementari:
- osservazione
- integrazione
- lettura
Osservazione partecipante.
Alcuni approcci qualitativi (grounded theory) enfatizzano la dimensione della scoperta della
teoria nel corso della ricerca al punto da invitare il ricercatore ad ignorare la letteratura
sociologica sul problema studiato, per evitare che idee preconcette possano esercitare un
condizionamento.
Altri approcci più moderati fanno appello ai “concetti sensibilizzati” (Blumer). L’attività di
ricerca del ricercatore è guidata soprattutto all’inizio, da una particolare sensibilità verso certi
concetti piuttosto che verso altri.
La prima fase è quella della descrizione. La descrizione deve essere una “descrizione
densa” nelle parole di Clifford Geertz, ovvero la percezione sensoriale deve essere arricchita
dei significati e delle interpretazioni di un dato contesto culturale e storico di riferimento.
La descrizione dell’osservatore partecipante non è fatta del solo racconto di ciò che egli ha
visto. E’ una vera e propria “costruzione”, risultante dall’assemblaggio di materiale diverso:
“narrazioni” (provenienti da interviste in profondità, storie di vita, registrazioni della viva voce
dei protagonisti), cronache giornalistiche, testi di discorsi, materiale documentario d’ogni
genere ecc.
Lo stile di scrittura che caratterizza il rapporto conclusivo di una ricerca condotta con
osservazione partecipante deve essere riflessivo e narrativo.
Per riflessività della ricerca si intende il fatto che il ricercatore è parte del mondo che sta
studiando.
Lo stile narrativo è uno stile simile a quello del racconto e della cronaca giornalistica.
Note conclusive.
Nell’osservazione partecipante il ricercatore è lo strumento della ricerca, nel senso che tutta
la rilevazione viene filtrata attraverso i suoi occhi ed i suoi sensi. Ai condizionamenti
personali si aggiungono condizionamenti culturali. La ricerca etnografica è “una cultura che
studia un’altra cultura” (Spradley). Ciò che chiamiamo i nostri dati sono in realtà le nostre
interpretazioni delle interpretazioni di altri su ciò che fanno loro e i loro compatrioti (Clifford
Geertz). Ne consegue che ricercatori diversi posti di fronte allo stesso oggetto di studio ne
possono dare descrizioni profondamente diverse.
Note generalizzabilità.
Intervista qualitativa.
● Nelle interviste strutturate a tutti gli intervistati sono poste le stesse domande nella
stessa sequenza. Lo stimolo è uguale per tutti.
● Gli intervistati hanno però libertà nell'esprimere la loro risposta. Si tratta in definitiva di
domande aperte.
● La strutturazione del questionario garantisce un certo grado di standardizzazione
delle informazioni raccolte.
In questo caso l’intervistatore dispone di una “traccia”, che riporta gli argomenti che deve
toccare nel croso dell’intervista.
L’ordine col quale i vari temi sono affrontati e il modo di formulare le domande sono tuttavia
lasciati alla libera decisione e valutazione dell’intervistatore.
● L’analisi dei dati è centrata sui soggetti (case - based) invece che sulle variabili
(variable - based).
● L’approccio deve essere di tipo olistico, nel senso che l’individuo viene osservato e
studiato nella sua interezza.
● La presentazione dei risultati avviene secondo una prospettiva narrativa, nel senso
che si sviluppa attraverso racconti di episodi, descrizione di vasi, spesso utilizzando
le stesse parole degli intervistati per non alterare il materiale raccolto e trasmettere al
lettore l’immediatezza delle situazioni immediate.
● Le sintesi e le generalizzazioni assumono spesso la forma di classificazioni e
tipologie.
L’uso dei documenti.
Documenti personali.
I documenti personali hanno un carattere privato, d’intimità, possono essere lettere, chat,
autobiografie; le memorie sono visioni dal di dentro e in quanto tali si iscrivono a pieno titolo
nell’approccio interpretativo.
Autobiografie.
Diari.
● Una delle prime e più note ricerche della sociologia, Il contadino polacco in Europa e
in America di William Thomas e Florian Znaniecki (1918 - 1920) è in buona parte
basata su lettere.
● Si tratta di una corrispondenza scambiata fra emigrati polacchi negli Stati Uniti e loro
congiunti rimasti in Polonia, che gli autori reperirono mettendo un annuncio sul
giornale della comunità polacca di Chicago nel quale offrivano un compenso per ogni
lettera.
● Le lettere sono importanti strumenti di espressione dell’interiorità degli individui, della
loro soggettiva definizione delle situazioni.
● La lettera non esprime solo il mondo dello scrivente, ma anche la percezione dello
scrivente da parte del destinatario (Plummer 1983).
● Essa pertanto interpretata come il prodotto dell’interazione fra due persone.
Testimonianze orali.
Documenti istituzionali.
● Anche la sfera pubblica di ogni società produce una serie infinita di documenti, che
sono il riflesso di una data cultura di un dato contesto storico e sociale.
● Questi documenti sono il prodotto della nostra vita istituzionalista (documenti
istituzionali).
● I documenti istituzionali possono diventare dati per la ricerca, materiale empirico per
studiare i più diversi fenomeni sociali.
Un testo può essere analizzato sia in maniera qualitativa, interpretandolo nella sua globalità
e dal punto di vista dei suoi significati; sia in maniera quantitativa, suddividendolo in elementi
omogenei da mettere poi in relazione fra di loro. In particolare l’approccio quantitativo ha
dato luogo ad una branca della ricerca sociale, la cosiddetta analisi del contenuto, che
utilizza procedure di scomposizione dei testi, al fine di codificarli in una “matrice dei dati” da
sottoporre poi all’analisi statistica.
accrescimento); analisi della composizione della spazzatura per inferire lo stile di vita (Rathje
e Murphy 1992).