Sei sulla pagina 1di 41

lOMoARcPSD|22700486

Metodologia della ricerca sociale

metologia della ricerca sociale (Università telematica Unitelma Sapienza)

Studocu non è sponsorizzato o supportato da nessuna università o ateneo.


Scaricato da Lil M00llY (marco.disfunzione@gmail.com)
lOMoARcPSD|22700486

Sommario

PARADIGMA .............................................................................................................................................2

POSITIVISMO ............................................................................................................................................2

NEOPOSITIVISMO-POSTPOSITIVISMO .......................................................................................................3

INTERPRETATIVISMO ................................................................................................................................3

RICERCA QUANTITATIVA E RICERCA QUALITATIVA ....................................................................................4

TEORIA ......................................................................................................................................................5

IPOTESI .....................................................................................................................................................6

CONCETTO ................................................................................................................................................6

UNITA’ D’ANALISI ......................................................................................................................................7

VARIABILI ..................................................................................................................................................7

L’INCHIESTA CAMPIONARIA ......................................................................................................................9

IL CAMPIONAMENTO ..............................................................................................................................19

L’OSSERVAZIONE PARTECIPANTE ............................................................................................................24

L’INTERVISTA QUALITATIVA ....................................................................................................................26

IL FOCUS GROUP .....................................................................................................................................28

INTERVISTA BIOGRAFICA .........................................................................................................................29

TECNICA DELLE SCALE ..............................................................................................................................29

TIPOLOGIA DI DOMANDE ........................................................................................................................30

SCALA DI LIKERT (SCALA ADDITIVA) .........................................................................................................30

SCALA DI DISTANZA SOCIALE BOGARDUS ................................................................................................32

SCALOGRAMMA DI GUTTMANN - O CUMULATIVA ..................................................................................32

DIFFERENZIALE SEMANTICO SCALA DI OSGOOD ......................................................................................33

LE FONTI DI DATI .....................................................................................................................................34

UNITA’ DI ANALISI TERRITORIALI .............................................................................................................36

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

PARADIGMA
Il paradigma in campo filosofico a origini antichissime Platone utilizza il termine nell’accezione di
modello mentre Aristotele nell’accezione di esempio. Nella sociologia il primo ad aver introdotto il
paradigma è stato Kuhn con la sua opera “la struttura della rivoluzione scientifica” in cui rifiuta la
tradizionale concezione della scienza come accumulazione progressiva di nuove scoperte affermando
che in certi momenti detti rivoluzionari si interrompe il rapporto di continuità con il passato e si inizia
un nuovo corso, in modo non completamente razionale. Con il termine paradigma ci si riferiva ad una
prospettiva teorica con i seguenti requisiti:
1. Che è condivisa e riconosciuta da tutti gli scienziati di una certa disciplina;
2. Che è fondata sulle acquisizioni precedenti della stessa disciplina;
3. Che indirizza la ricerca individuando i fatti da studiare formulando ipotesi su un determinato
fenomeno e approntando le tecniche di ricerca empirica necessaria. Senza un paradigma una
scienza non ha i criteri, né tecniche né problemi, perché tutti i criteri, le tecniche e i problemi
diventano ugualmente rilevanti. Il paradigma è una guida e fornisce agli scienziati un
modello e le indicazioni per costruirlo, con esso acquisisce contemporaneamente, teorie,
metodi e criteri.
Il paradigma è qualcosa di più ampio di una teoria, è una visione del mondo, una finestra mentale,
una griglia di lettura che precede l’elaborazione teorica.

POSITIVISMO
Il paradigma positivista studia la realtà sociale utilizzando gli apparati concettuali le tecniche di
osservazione e misurazione, gli strumenti di analisi matematica e i procedimenti di inferenza delle
scienze naturali. Per apparati concettuali intendiamo le categorie di legge naturale, di causa effetto,
di verifica empirica, di spiegazione; per tecniche di osservazione e misurazione intendiamo l’uso di
variabili quantitative anche per fenomeni qualitativi, le procedure di misurazione applicate a
orientamenti ideologici, capacità mentali, stati psichici. Per strumenti di analisi matematica
intendiamo l’uso della statistica, dei modelli matematici. Procedimenti di inferenza cioè il passaggio
dall’osservazione particolare alla legge generale.
Il primo vero sociologo positivista è stato Durkheim, il quale ha tradotto i principi del positivismo in
prassi empirica, la quale si fonda sulla teoria del fatto sociale. I fatti sociali sono modi di agire, di
pensare, di sentire che presentano la proprietà di esistere al di fuori delle coscienze individuali, ad
esempio, quando si assolvono i doveri di marito o di cittadino, i quali sono doveri definiti, al di fuori
di sé stessi e dei propri atti, nel costume nel diritto. Tali doveri non sono stati fatti dall’essere umano,
ma sono stati ricevuti attraverso l’educazione, analogamente per quanto riguarda le credenze e le
pratiche della vita religiosa il sistema dei segni il sistema monetario. I fatti sociali anche se non sono
entità materiali hanno le stesse proprietà delle cose del mondo naturale, essi non sono soggetti alla
volontà dell’uomo anzi resistono al suo intervento, lo condizionano e lo limitano. Il mondo sociale
così come il mondo naturale e regolato da leggi, studiabili oggettivamente. Da qui nasce l’assunto di
una unità metodologica fra mondo naturale e mondo sociale, in quanto si possono studiare con la
stessa logica e lo stesso metodo.
• Esiste una realtà sociale al di fuori dell’individuo;
• Questa realtà sociale è oggettivamente è conoscibile;
• Essa è studiabile con gli stessi metodi delle scienze naturali.
L’obiettivo delle regole di Durkheim è di estendere alla condotta umana il razionalismo scientifico.
Nel positivismo il razionalismo è induttivo, per induzione si intende il passaggio dal particolare
all’universale il processo per il quale dall’osservazione empirica si arriva a generalizzazioni o a leggi
universali. Alla base del positivismo c’è sempre l’entusiasmo per la conoscenza positiva di tipo
scientifico e la considerazione della scienza e del suo mezzo come unica conoscenza valida ed
efficace in tutti i campi del sapere umano.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

NEOPOSITIVISMO-POSTPOSITIVISMO
Per poter superare i limiti intrinseci del positivismo nasce un nuovo movimento filosofico
chiamato il neopositivismo e successivamente il post positivismo. In questo movimento di
pensiero sono centrali le questioni epistemologiche e uno dei postulati è la convinzione che il
senso di un’affermazione derivi dalla sua verificabilità empirica. La conseguenza della diffusione
del neo positivismo fu lo sviluppo di un nuovo modo di parlare della realtà sociale, utilizzando un
linguaggio tipico della matematica e della statistica, detto linguaggio delle variabili. Ogni oggetto
sociale a cominciare dall’individuo veniva definito sulla base di attributi e proprietà cioè le
variabili, i fenomeni sociali analizzati in termini di relazione fra variabili. In questo modo la
variabile diveniva la protagonista dell’analisi sociale, con tale metodo tutti i fenomeni sociali
potevano essere rilevati, misurati, correlati, elaborati e formalizzati e le teorie convalidate o
falsificate in modo oggettivo e senza ambiguità. Le teorie neo positivisti abbandonano la
caratteristica di leggi deterministica e per assumere quella della probabilità. Dunque le teorie
scientifiche non devono più spiegare i fenomeni sociali attraverso schemi di natura logica
necessitante e la legge deterministica viene sostituita dalla legge probabilistica, la quale prevede
elementi di accidentalità, la presenza di disturbi e fluttuazioni. Nel neo positivismo è stata
aggiunta una nuova categoria quella della falsificabilità, usata come criterio di validazione empirica
di una teoria. Tale categoria stabilisce che il confronto fra teoria e ritrovato empirico non può
avvenire in positivo cioè attraverso la prova o verifica che la teoria è confermata dei dati, ma si
realizza in negativo con la non falsificazione della teoria da parte dei dati mediante cioè la
constatazione che i dati non contraddicono l’ipotesi. Dunque il metodo di ricerca consiste nel
rovesciare le anticipazioni e provare la loro falsità, allo scopo di avanzare pregiudizi affrettati e
prematuri, da ciò deriva la provvisorietà di ogni ipotesi teorica, mai definitivamente valida. In
questo modo l’ideale scientifico dell’episteme, cioè della conoscenza certa e dimostrabili, si è
rilevato un mito. Il post positivismo afferma che l’osservazione empirica non è una fotografia
oggettiva bensì dipende dalla teoria, nel senso che anche la semplice registrazione della realtà
dipende dalla finestra mentale del ricercatore, da condizionamenti sociali e culturali. Fermo
restando che la realtà esiste indipendentemente dall’attività conoscitiva e dalla capacità
percettiva dell’uomo, l’atto del conoscere rimane condizionato dalle circostanze sociali e dal
quadro teorico in cui si colloca. La tesi della teoricità delle osservazioni empiriche, l’affermazione
cioè che non esiste una separazione netta fra concetti teorici e dati osservati, fa venir meno anche
le ultime certezze del positivismo l’oggettività del dato rilevato, la neutralità e l’Inter soggettività
del linguaggio osservativo. Il post positivismo non ripudia il fondamento empirista e continua ad
accettare la centralità del metodo scientifico nella ricerca sociale e l’analogia fra il metodo delle
scienze naturali e delle scienze sociali. Tale movimento afferma, inoltre, che le leggi naturali e
sociali sono probabili aperte a revisioni e che provvisoria la natura della conoscenza scientifica.
Esso ridefinisce i presupposti iniziali e gli obiettivi della ricerca sociale ma non il modo di procedere
empiricamente che ha alla base il linguaggio osservativo di sempre, fondato sull’operativizzazione,
sulla quantificazione e sulla generalizzazione.

INTERPRETATIVISMO
L’interpretativismo comprende tutte quelle visioni teoriche per cui la realtà non può essere solo
osservata, ma è necessario che venga interpretata. Con il filosofo tedesco Weber entra nel campo
della sociologia egli porta il concetto di scienza dello spirito (non è presente la separazione tra
studioso e oggetto studiato e quindi la conoscenza può avvenire solo attraverso la comprensione)
all’interno della sociologia e vuole mantenere l’oggettività della scienza sociale sia in termini di
avalutatività, cioè indipendenza da giudizi di valore, sia in quelli della possibilità di arrivare ad
enunciati aventi un carattere di generalità. L’avalutatività delle scienze storico-sociali, cioè la loro

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

libertà da qualsiasi giudizio di valore, rimane un caposaldo il rinunciabile, cioè fa riferimento alla
capacità di saper distinguere tra conoscere e valutare ossia tra l’adempimento del dovere
scientifico di vedere la realtà di fatti e l’adempimento del dovere pratico di difendere i propri
ideali. Quindi il ricercatore deve tenere distinte la constatazione dei fatti empirici e la sua presa di
posizione pratica che valuta tali fatti. L’avalutatività è la prima condizione per l’oggettività delle
scienze sociali. Secondo Weber le scienze sociali si distinguono da quelle naturali perché hanno
come obiettivo quello di studiare i fenomeni sociali nella loro individualità, il metodo usato è la
comprensione la quale è una comprensione razionale delle motivazioni dell’agire, quindi tale
metodo consiste nell’intendere lo scopo dell’azione, cogliere le dimensioni di proposito ed
intenzionalità dell’agire umano, si tratta di interpretazioni e non di intuizioni. Per comprendere
un’azione individuale bisogna procurarsi i mezzi di informazione sufficienti per analizzare le
motivazioni che hanno ispirato l’azione, l’osservatore comprende l’azione del soggetto osservato
solo quando può concludere che nella stessa situazione, egli avrebbe agito nel medesimo modo.
Quindi la comprensione Weberiana presuppone che l’osservatore si metta al posto dell’attore ma
la soggettività del secondo non è necessariamente subito trasparente per il primo. Da questo
orientamento verso l’individualità è necessario arrivare all’oggettività e a questo punto
intervengono i tipi di ideali. I tipi di ideali sono forme di agire che possono essere riscontrate in
modo ricorrente nel modo di comportarsi degli individui umani, sono uniformità tipiche di
comportamento, costruite attraverso un processo astrattivo che coordina diversi elementi in un
quadro coerente e privo di contraddizioni, i tipi ideali sono dunque, un’astrazione che nasce dalla
rilevazione empirica di uniformità.

RICERCA QUANTITATIVA E RICERCA QUALITATIVA


La ricerca quantitativa:
è caratterizzata da una struttura geometrica circolare che parte dalla teoria e ritorna alla teoria:
• Esposizione della teoria;
• Formulazione della teoria nella forma di modello empiricamente controllabile;
• Pianificazione della ricerca;
• Rilevazione dei dati;
• Analisi dei dati;
• Ritorno alla teoria;
tale ordine concettuale nasce dalla ricerca intesa come processo razionale e lineare.
Il rapporto è strutturato in fasi logicamente sequenziali, segue un’impostazione deduttiva cioè la
teoria precede l’osservazione e si muove nel contesto della giustificazione, ovvero del sostegno,
attraverso i dati empirici, della teoria formulata precedentemente. La letteratura svolge un ruolo
importante poiché si utilizza per definire la teoria e le ipotesi da cui partire. I concetti sono gli elementi
costitutivi della teoria e permettono alla teoria stessa di essere sottoposta al controllo empirico
attraverso la chiarificazione e operativizzazione in variabili empiricamente controllabili, questo
avviene prima della ricerca e i concetti definiti forniscono delle prescrizioni su cosa vedere. Per
quanto riguarda il rapporto con l’ambiente studiato nella ricerca quantitativa non si ritiene che il
problema della reattività del soggetto studiato possa rappresentare un ostacolo o per lo meno si accetta
un margine di manipolazione controllata il metodo utilizzato è l’esperimento. Il ricercatore scientifico
assume un punto di vista neutrale, distaccato ed esterno al soggetto studiato, studia ciò che gli sembra
importante. Mentre il soggetto studiato assume un ruolo passivo e l’interazione fisica tra i due soggetti
è la separazione e la distanza.
Il disegno della ricerca è costruito prima dell’inizio della rilevazione è strutturato, chiuso e rigido, il
ricercatore si preoccupa della rappresentatività statistica del campione di società che viene studiato,
vengono utilizzati come strumento della rilevazione i questionari uniformi o schede di codifica per

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

uniformare le domande aperte o informazioni provenienti da fonti diverse, l’obiettivo della raccolta
delle informazioni è quello di formare una matrice di dati. I dati raccolti vengono definiti hard cioè
oggettivi, standardizzati, affidabili, precisi e rigorosi. L’analisi dei dati nell’approccio quantitativo
viene effettuata con l’uso di strumentazione scientifica matematica e informatica, l’oggetto
dell’analisi sono le variabili per questo si parla di analisi variabile. Le variabili sono le proprietà
individuali per questo motivo è detta variable-based, mentre l’obiettivo dell’analisi è spiegare la
varianza delle variabili dipendenti, attraverso tecniche matematiche operativizzando i concetti in
termini matematici. I risultati vengono presentati attraverso delle tabelle che forniscono informazioni
parsimoniose, succinte e compatte. La ricerca quantitativa si interroga sui perché e prende in
considerazione un ampio numero di casi per poter avere una maggiore generalizzazione dei risultati.
La ricerca qualitativa:
è caratterizzata da una teoria che emerge dai dati:
• Non c’è separazione tra teoria e risultati empirici;
• Le ipotesi si costruiscono durante il percorso di ricerca e non prima;
• Mancanza di discussioni sulle acquisizioni letterarie precedenti a tale ricerca;
• Mancanza di una teoria prima dell’inizio della ricerca.
La ricerca qualitativa è aperta ed interattiva si evita volutamente di formulare teorie prima di
cominciare il lavoro sul campo, perché si ritiene che questo possa condizionare il punto di vista del
soggetto studiato, per questo viene usata un’impostazione induttiva ovvero che la teoria emerge
dall’osservazione. Nell’approccio qualitativo si da minore importanza alla letteratura in quanto non
si fa riferimento alle precedenti teorie. A differenza della ricerca quantitativa nella ricerca qualitativa
i concetti non sono operativizzati, ma sono considerati come orientativi, poiché forniscono una guida
di avvicinamento alla realtà empirica e vengono definiti nel corso della ricerca. Si utilizza
l’osservazione partecipante e si propone un approccio naturalistico dove il ricercatore si astiene da
qualsiasi manipolazione, stimolazione interferenza o disturbo nei confronti della realtà, la quale viene
studiata nel corso del suo naturale svolgimento. Proprio per questo motivo il ricercatore assume un
punto di vista interno al soggetto studiato, in modo da vedere la realtà sociale con gli occhi dei soggetti
studiati, a questo punto si pone il problema dell’oggettività della ricerca. L’individuo studiato viene
considerato attivo e l’interazione fisica tra soggetto studiato e studioso è di prossimità e di contatto,
l’incontro tra i due soggetti è precondizione per la comprensione. Il disegno della ricerca qualitativa
è destrutturato, aperto, modellato nel corso della rilevazione, si tratta dunque di un disegno libero da
vincoli. Il ricercatore non è interessato alla rappresentatività statistica a quella sostantiva, sociologica
che si stabilisce in base al giudizio del ricercatore stesso. I dati raccolti sono definiti soft cioè dotati
di ricchezza e profondità, infatti l’obiettivo della ricerca non è la standardizzazione. L’analisi dei dati
viene fatta senza l’ausilio di un appartato statistico matematico, l’oggetto dell’analisi non sono più le
variabili ma l’individuo, dunque si parla di analisi per soggetti ed è detta case-based e il suo obiettivo
è comprendere le persone interpretare il punto di vista dell’attore sociale. Per presentare i risultati si
usano brani di interviste o di testi, vengono riportate le parole esatte dell’intervistato per meglio
comprendere la realtà con gli occhi del soggetto studiato. La ricerca qualitativa si interroga sui come
e rappresenta lo schema teorico che lega i soggetti secondo la logica della classificazione. Nella
ricerca qualitativa non viene preso in considerazione un numero elevato di casi per aver una maggiore
specificità dei risultati.

TEORIA
La teoria è un insieme di proposizioni organicamente connesse, che si propongono ad un elevato
livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali sono derivate da
regolarità empiriche e dalle quali possono essere derivate delle previsioni empiriche. Le diverse
strategie di ricerca (quantitativa e qualitativa) sono rinviabili a una più generale distinzione tra
APPROCCIO STANDARD (la scienza formula asserti su relazioni (causali o di associazione) fra

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

proprietà, che non dipendono da conoscenze e valutazioni dello scienziato) e APPROCCIO NON
STANDARD (La scienza sociale non può prescindere dalle conoscenze personali dello scienziato e
deve massimamente valorizzare gli oggetti studiati come soggetti) alla scienza
Nell’approccio quantitativo(standard) la Teoria viene considerata come guida del processo di
comparazione: definizione di ipotesi; individuazione di indicatori e casi; analisi comparativa, mentre
nell’approccio qualitativo (non standard) la Teoria emerge dal campo di analisi; definizione a
posteriori di un quadro interpretativo del fenomeno studiato.
Possiamo trovare nei due approcci due diverse concezioni della teoria uno di tipo deduttivo e uno di
tipo induttivo.
Nell’approccio deduttivo la teoria guida l’osservazione e troveremo le
seguenti fasi:

• Costruzione di una teoria esplicita (o di un modello).


• Derivazione di implicazioni osservabili (ipotesi).
• Disegno della ricerca per verificare le ipotesi.
• Verifica empirica delle ipotesi.
• Se le ipotesi risultano falsificate, modificare la teoria.
• Se le ipotesi sono validate, selezionare altre implicazioni per rivedere, qualificare o
precisare la teoria.

Nell’approccio induttivo la teoria emerge dall’osservazione e troveremo le


seguenti fasi:

• Osservazione di fatti dalla realtà.


• Formulazione di concetti e modelli interpretativi aperti, costruiti nel corso della ricerca.
• Studio empirico dei concetti (‘sensitizing concepts’)
• Continua autocorrezione della teoria in relazione al mondo empirico.

Una classificazione rispetto al grado di copertura dei fenomeni:

• Teorie speciali o micro à relative a fenomeni specifici (es. flusso a due fasi della
comunicazione di massa, ...)
• Teorie di medio raggioà trattano aspetti circoscritti dei fenomeni sociali ma sono estensibili
a contesti diversi (es. deprivazione relativa, dissonanza cognitiva, ...)
• Teorie di ampio raggio o macroteorie à studiano i grandi sistemi sociali e i processi sociali
generali (marxismo, struttural-funzionalismo,...)

IPOTESI
L’ipotesi è una proposizione che implica una relazione fra due o più concetti si colloca ad un livello
inferiore di astrazione e generalizzazione rispetto alla teoria e può essere tradotta in termini
empiricamente controllabili. Più concreta e specifica di una teoria, ma ipotetica, da dimostrare con
controllo empirico. La validità di una teorizzazione dipende dalla sua trasformabilità in ipotesi
empiricamente controllabili, se non c’è riscontro empirico una teoria rimane nell’ambito preteorico
delle supposizioni.

CONCETTO
Il concetto è un contenuto semantico (significato) dei segni linguistici e delle immagini mentali nel
suo significato etimologico, indica l’azione che ordina il molteplice sotto un unico atto di pensiero.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Proprio per questa sua generalità può includere ogni specie, disegno, procedura semantica astratta,
concreta, universale… I concetti possono riferirsi ad astrazioni impossibili da verificare
empiricamente (potere, felicità…) Oppure ad entità concrete (oggetti, persone…). Per verificare una
teoria è necessario passare attraverso i concetti astratti applicati come proprietà degli oggetti studiati
(unità di analisi), per analizzare un concetto è necessario compiere la sua operativizzazione, ovvero
la sua scomposizione in proprietà riferite agli oggetti studiati. I concetti sono i mattoni della teoria
perché attraverso la loro operativizzazione che si può arrivare ad una traduzione empirica della teoria.
L’operativizzazione si effettua in tre passaggi:
1. Applicare i concetti ad oggetti concreti facendoli diventare un attributo o una proprietà di
tali oggetti (unità d’analisi);
2. Dare al concetto-proprietà una definizione operativa, ossia individuare la sua misura abilità
oggettiva.
3. Traduzione del concetto-proprietà operativizzato in variabili, le quali possono assumere
diverse modalità ossia Stati a cui viene assegnato un valore.
La decisione su come operativizzare è totalmente affidata alla discrezionalità del ricercatore, al quale
può essere chiesto di esplicitare le scelte fatte e giustificarle per ridurre la soggettività.
La definizione operativa non elimina l’arbitrarietà, ma la rende esplicita e quindi controllabile.

UNITA’ D’ANALISI
L’unità di analisi rappresenta l’oggetto sociale al quale afferiscono, nella ricerca empirica le proprietà
studiate. Le unità d’analisi possono essere rappresentate concretamente dall’individuo, dall’aggregato
di individui, dal gruppo-organizzazione-istituzione, dagli eventi sociali e dalla rappresentazione
simbolica-prodotto culturale.
1. Individuo: la sociologia è spesso definita come la scienza dell’interazione sociale, da cui
consegue che l’unità d’analisi sociologiche dovrebbero essere l’attore sociale, cioè
l’individuo umano.
2. Aggregato collettivo rappresentato da:
• aggregato di individui un esempio sono le fonti statistiche ufficiali basate su aggregati
territoriali di individui le variabili derivano da operativizzazione matematiche effettuate su
variabili rilevate a livello individuale.
3. Gruppo-organizzazione-istituzioni le unità d’analisi sono rappresentate dalle variabili
strutturali o globali e l’unità di rilevamento è il collettivo stesso (le famiglie associazioni
sette)
4. Evento esempi di evento di unità di analisi sono le elezioni politiche gli scioperi le guerre…
5. Rappresentazione simbolica-prodotto culturale l’unità d’analisi è rappresentata da
messaggi della comunicazione di massa in forma scritta, orale, audiovisiva (articoli di
quotidiani, testi letterari, programmi elettorali, fotografie…).

VARIABILI
Una variabile è un concetto operativizzato o meglio la propria operativizzazione di un oggetto, ossia
tradotta in un elemento che può essere osservato empiricamente. Scaturisce a seguito del processo
concatenato di operativizzazione di concetto -> proprietà-> variabile.
Una variabile può essere:
1. Invariata (costante);
2. Variabile nel tempo studio longitudinale o diacronico sullo stesso caso;
3. Variabile nei casi studio trasversale o sincronico nello stesso tempo (metodo più utilizzato).
Classificazione delle variabili:

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

4. Manipolabili-non manipolabili (dal ricercatore) le prime possono essere modificate e


controllate mentre le seconde non possono essere né controllate, né modificate;
5. Dipendenti-indipendenti in una relazione asimmetrica tra due variabili cioè quando uno
influenza l’altra, la variabile indipendente e ciò che influenza (causa), mentre la variabile
dipendente è ciò che è influenzato (effetto). Nel caso in cui ci siano più variabili indipendenti
abbiamo una relazione multivariata. L’identificazione della dipendente (explicandum ciò che
vogliamo spiegare) e delle indipendenti (explicans i fattori esplicativi) rappresenta una
chiarificazione concettuale fondamentale ai fini dell’analisi di un fenomeno sociale.
6. Latenti-osservate la distinzione si basa sulla osservabilità, ossia sulla possibilità di
rilevazione empirica, le prime sono non direttamente osservabili in quanto rappresentano
concetti molto generali e complessi, mentre le seconde sono facilmente rilevabili, in ogni
caso entrambe possono essere operativizzate.
7. Individuali-collettive le prime sono quelle specifiche dell’individuo, mentre le seconde sono
propri di un gruppo sociale. Le variabili collettive si dividono allora volta in:
• Variabili aggregate dove la proprietà del collettivo deriva dalle proprietà dei singoli
componenti del gruppo (reddito medio di una categoria di lavoratori);
• Variabili globali quando le caratteristiche esclusive del gruppo non derivano da
proprietà dei membri che lo compongono (la classificazione della società seconda
che pratichino lo scambio monetario il baratto)
Classificazione in base alle caratteristiche logico-matematiche
Con questa classificazione si stabilisce quali procedure di elaborazione statistica si possono applicare
a queste variabili.
1. Variabili nominali: quando la proprietà da registrare assume stati discreti non ordinabili,
stati discreti vuol dire che la proprietà può assumere solo una serie di stati finiti, stati non
ordinabili significa che non si può stabilire un ordine, una gerarchia fra di essi. Le uniche
relazioni che si possono stabilire fra le modalità di una variabile nominale non ordinale sono
le relazioni di uguale e di diverso. Gli Stati delle variabili operativizzati sono detti modalità
e i simboli assegnati alle modalità sono detti valori, questi ultimi hanno l’obiettivo di
identificare la categoria e solitamente sono espressi con un numero che non ha alcun
significato numerico nel caso delle variabili nominali la procedura di operativizzazione è la
classificazione che permette di passare dall’unità di analisi alla variabile.
Gli Stati delle proprietà vengono classificati in categorie:
• Esaustiva: ogni caso studiato deve poter essere collocato in una delle categorie
previste
• Mutua esclusività: un caso non può essere classificato in più di una categoria
• Unicità del criterio di divisione ad esempio non si può classificare la nazionalità
usando categorie come italiana francese cinese…
Un caso particolare di variabili nominali sono le variabili dicotinomiche (si/no maschio/femmina).
2. Variabili ordinale quando la proprietà da registrare assume stati discreti ordinabili, in
queste variabili è dunque un ordinamento che permette di stabilire relazioni di uguaglianza
e disuguaglianza e di stabilire relazioni di ordine “maggiore di” e “minore di” tra le
modalità. La procedura di operativizzazione è l’ordinamento o assegnazione a modalità
ordinate, la quale tiene conto del requisito di ordinabilità degli stadi delle proprietà, dunque
l’attribuzione dei valori alle singole modalità non potrà essere casuale ma dovrà rispettare
un criterio che preservi l’ordine fra gli stati.
3. Variabili cardinali per le quale i numeri nei identificano le modalità non sono solamente
etichette, ma hanno significato numerico cioè i numeri hanno proprietà ordinale, ma anche
cardinale (età numero dei figli il reddito). Fra le modalità di questo tipo si possono stabilire
relazioni di uguaglianza e diversità, di maggiore e minore ma anche tutte le operazioni logico

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

matematiche (addizione sottrazione moltiplicazione divisione). L’operativizzazione delle


variabili cardinali si può ottenere in due modi differenti:
1) Misurazione: si ha quando si verificano due condizioni:
1.1 la proprietà da misurare e continua cioè può assumere infiniti stati intermedi
di un dato intervallo tra due stati qualsiasi;
1.2 Si possiede un’unità di misura prestabilita e convenzionale che permette di
confrontare la grandezza da misurare con una grandezza di riferimento;
2) Conteggio: si ha quando si verificano due condizioni:
2.1 la proprietà da registrare è discreta cioè assume stati finiti non frazionati;
2.2 esiste un’unità di conto che è un’unità elementare e naturale che è contenuta
un numero finito di volte nella proprietà dell’oggetto.
Un’importante caratteristica delle tre variabili è la cumulatività immaginabile sui livelli in cui ognuno
include la proprietà dei livelli inferiori.
4. Variabili quasi cardinali sono proprietà continue che variano in modo graduale tra gli
individui ma non riescono a passare da proprietà continue a quelli di variabili cardinali,
questo limite è causato da:
- La reattività dell’essere umano al processo di osservazione;
- L’interazione dei ricercatori con il soggetto studiato;
- L’irriducibile individualità dell’essere umano
- La complessità delle variabili sociali.
Tale limite è stato superato attraverso l’applicazione delle tecniche delle scale la quale si propone di
misurare le opinioni di atteggiamenti e valori.

L’INCHIESTA CAMPIONARIA
E’ una rilevazione di informazioni relative ad un certo fenomeno:
mediante interrogazione (solitamente in forma orale, faccia a faccia o telefoniche, oppure compilando
schede informative);
- rivolta direttamente agli individui oggetto della ricerca; se l'intervista fosse fatta per es a una
categoria di persone che conosce l'universo indagato ma non le persone oggetto della ricerca - per es
ricerca sulle carceri condotta non intervistando i carcerati ma le guardie, assistenti sociali o i direttori
- non sarebbe indagine campionaria
- facenti parte di un campione statisticamente rappresentativo della popolazione, esigenza che nasce
dall'impossibilità di consultare l'intera popolazione, campione creato con criteri ben precisi vedi cap
8, e di consistenti dimensioni;
- effettuata mediante una procedura standardizzata di interrogazione (cioè vengono poste le stesse
domande con la stessa formulazione in modo da poter confrontare le risposte date dai vari soggetti e
analizzarle con gli strumenti della statistica); a questo scopo di studio tramite la statistica anche le
risposte devono essere standardizzate, cioè organizzate sulla base di uno schema di classificazione
comune a tutti i soggetti, il che significa produrre la matrice dei dati, base di ogni successiva
elaborazione. Per es. nella matrice casi x variabili (CxV) in riga abbiamo i casi e in colonna le variabili
e in ogni cella un dato, cioè il valore assunto da una particolare variabile su un particolare caso. es.
matrice di 200 righe e 350 colonne presuppone 200 casi su cui si siano rilevate le stesse 50 variabili
- un individuo per ogni riga, una variabile per ogni colonna della matrice
- allo scopo di studiare le relazioni esistenti tra le variabili. Questa affermazione rappresenta il
discrimine tra inchiesta campionaria e sondaggio. Il sondaggio è un'indagine altamente esplorativa
volta ad accertare l'esistenza e la consistenza di un fenomeno. Nell'inchiesta campionaria il ricercatore
in più si interroga sulle origini di un fenomeno, sulle interrelazioni con altri fenomeni sociali ecc.
Quindi non solo esplora e descrive ma controlla empiricamente delle ipotesi. Es un sondaggio sul
comportamento elettorale sonderà gli orientamenti di voto della popolazione studiata mentre
l'indagine campionaria vorrà capire i motivi delle scelte, i motivi degli spostamenti dalle precedenti
elezioni, l'influenza di fattori generazionali, religiosi, di classe ecc

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Bisogna distinguere dunque:


- il sondaggio, che mira ad accertare l’esistenza e la consistenza di un fenomeno
(indagine puramente esplorativa);
- l’inchiesta campionaria, che mira a determinare le ragioni di un fenomeno, le
origini, le connessioni, ecc.; non si limita ad esplorare bensì tende a controllare empiricamente le
ipotesi. Prevede maggiore ampiezza di temi toccati, una diversa impostazione teorica e impostazione
della stessa rilevazione dei dati, maggiore approfondimento dello studio dei dati raccolti - correlazioni
tra variabili, modelli causali, tecniche di analisi multivariata ecc
Chiariamo anche la differenza tra indagine campionaria e intervista qualitativa.
QUESTIONARIO: prevede domande e riposte standardizzate INTERVISTA STRUTTURATA:
domande standardizzate, risposte libere INTERVISTA LIBERA: nè domanda nè risposta sono
standardizzate.
Inchiesta campionaria corrisponde all'inglese SURVEY (condotta tramite questionario), mentre
sondaggio è poll; è la procedura di rilevazione più diffusa e più nota della ricerca sociologica.
L’inchiesta campionaria ha origini antiche: venne applicata già da Marx e Weber. Il vero salto di
qualità si è avuto con l’affermarsi delle tecniche statistiche di campionamento e del concetto di
RAPPRESENTATIVITA'. Un ulteriore e rapido sviluppo si è avuto con la diffusione dei Personal
Computer (CON CUI PROCESSARE ampie masse di dati raccolti) e del telefono che ha atto
abbassare i costi delle interviste dirette. Internet, infine ha aperto la strada anche alle interviste
telematiche, ancora meno costose.
A seconda del grado di libertà previsto per le domande e per le risposte di una interrogazione si
ha:
- un questionario, se sia le domande che le risposte sono standardizzate;
- un’intervista strutturata, quando la domanda è standardizzata e la risposta è
libera;
- un’intervista libera, se la domanda e la risposta sono libere.
I problemi di fondo relativi alla rilevazione tramite interrogazione sono riconducibili alla
contrapposizione fra l’approccio “positivista” e quello “interpretativo”. In particolare due dilemmi
sono rilevanti:
• contrapposizione tra:
- posizione oggettivista: il dato sociale può essere rilevato oggettivamente;
- posizione costruttivista: il dato sociale deve essere costruito attraverso l’interazione fra
ricercatore e soggetto studiato;
• contrapposizione tra:
- posizione uniformista: per la quale esistono delle regolarità nei fenomeni e nei comportamenti;
- posizione individualista: per la quale esistono ineliminabili differenze interindividuali.
L’inchiesta campionaria si colloca in una prospettiva:
- oggettivista: il rapporto intervistato-intervistatore deve essere impersonale al massimo; la
preoccupazione è quella di non alterare lo stato dell’oggetto studiato;
- uniformista: infatti lo strumento di rilevazione è standardizzato.
Critiche a questa prospettiva:
1. un ruolo totalmente neutrale per l’intervistatore non è pensabile;
2. l’intervistato vuole fare bella figura nell’intervista, anche a costo di mentire,
3. il questionario standardizzato tratta i soggetti come se fossero tutti uguali.
La standardizzazione ovvero l’invarianza dello stimolo
I problemi che si pongono nella rilevazione tramite interrogazione si possono ricondurre ai due
paradigmi fondamentali della ricerca sociale: approccio positivista (neo- e post-) e approccio
interpretativo o del Verstehen. In particolare, si contrappongono coloro che ritengono che la realtà
sociale sia esterna all’individuo e pienamente conoscibile (posizione oggettivista) e coloro che
sostengono che il dato sociale viene generato dall’interazione tra i soggetti studiante e studiato
(posizione costruttivista). Qui dunque diventa centrale il rapporto tra intervistatore e intervistato, dove
si contrappone la rilevazione asettica e spersonalizzata a quella empatica studioso-studiato. (vedi
pagg 165-166). l’approccio oggettivista ritiene che il rapporto tra intervistatore e intervistato debba

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

essere il più possibile spersonalizzato per non alterare lo stato dell’oggetto studiato. Tuttavia non è
possibile instaurare un rapporto neutro tra intervistato e intervistatore, esiste sempre un certo grado
di interazione.
In secondo luogo, esiste una diatriba tra chi ritiene che esistano uniformità empiriche nei fenomeni
sociali, che quindi possono esser misurati classificati e standardizzati (posizione uniformista) e chi
sottolinea la fondamentale irriducibilità del soggetto umano a qualsiasi forma di generalizzazione e
standardizzazione (posizione individualista): cioè ogni caso, ogni azione sociale è un evento unico.
Questa questione riguarda la standardizzazione dello strumento di informazione e dell’informazione
rilevata. l’approccio uniformista prevede l’uniformità dello strumento della rilevazione-
interrogazione (questionario con domande e risposte prefissate). I limiti di questo approccio e del
questionario sono due: non tiene conto della disuguaglianza sociale e uniforma l’individuo al livello
dell’uomo medio. Inoltre lascia fuori la periferia sociale (vecchi, clandestini, vagabondi, analfabeti
ecc).
L’obiettivo della posizione oggettivista-uniformista è quindi quello di ottenere la neutralità dello
strumento di rilevazione, cioè ottenere l’invarianza dello stimolo. Ma non è sicuro che all’invarianza
dello stimolo corrisponda l’uniformità dei significati, infatti una stessa domanda o parola possono
avere diversi significati per lo stesso individuo, sia per motivi culturali che per le circostanze stesse
in cui si svolge l’intervista. A questo punto il ricercatore deve scegliere se appoggiarsi ad una tecnica
che massimizza la ricerca di uniformità (questionario) e una che predilige l’individualità del soggetto
studiato (intervista strutturata). Se si sceglie il questionario, bisogna essere consapevoli che studiando
solo le uniformità del comportamento delle persone (ciò che esse hanno in comune) si limita
inevitabilmente la piena comprensione dei fatti sociali. Si sceglie di lavorare sui grandi numeri in
superficie piuttosto che in profondità sui piccoli numeri.
L’affidabilità del comportamento verbale
Molti scienziati sociali hanno espresso dubbi sulla possibilità che la realtà sociale possa essere
compresa attraverso i resoconti verbali. Le risposte alle domande (standardizzate) degli intervistatori
possono non essere attendibili per due motivi: la desiderabilità sociale delle risposte e la mancanza
di opinioni. La desiderabilità sociale è la valutazione, socialmente condivisa, che in una certa cultura
viene data ad un certo atteggiamento o comportamento individuale. Se uno di questi è valutato
positivamente o negativamente, una domanda che abbia questo come oggetto può dare risposte
distorte, perché l’intervistato può essere riluttante a rivelare opinioni o comportamenti che ritiene
indesiderabili e può essere tentato di dare di sé la migliore immagine possibile, anche se non veritiera,
in modo volontario o anche involontario. Opinioni ufficiali spesso sono diverse dalle opinioni
personali. (pag 169 170). Vedi anche la cosiddetta menzogna inconscia: inconscia propensione a
negare l'evidenza dei fatti quando questi non coincidono con le nostre credenze di fondo
La mancanza di opinioni concerne domande su tematiche complesse, sulle quali è plausibile che un
certo numero di intervistati non abbia mai riflettuto, e quindi molti rispondono a caso oppure
formulano sul momento un’opinione che può essere solo passeggera. Questo fenomeno è accentuato
anche dal fatto che spesso la risposta “non so” viene percepita come un’ammissione di incapacità
mentale.
Un altro problema delle domande standardizzate è che esse misurano l’opinione, ma non la sua
intensità né il suo radicamento. La tecnica del questionario non è in grado di distinguere le opinioni
intense e stabili da quelle deboli e volubili.
Sostanza e forma delle domande
Formulare un buon questionario è impresa per niente facile; occorrono:
• l’esperienza del ricercatore (o, in alternativa, l’attenta consultazione del lavoro di altri);
• la conoscenza della popolazione a cui viene somministrato;
• la chiarezza delle ipotesi di ricerca
Dati sociografici, atteggiamenti e comportamenti

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Le domande di un questionario possono essere riconducibili alla tripartizione tra proprietà


sociografiche di base, atteggiamenti e comportamenti. Domande relative alle proprietà sociografiche
di base: riguardano le caratteristiche sociali di base di un individuo (genere, età, luogo di nascita),
quelle ereditate dalla famiglia (classe sociale di origine, titolo di studio), quelle temporanee
(professione, stato civile, comune di residenza). Queste domande seguono delle formulazioni
standard a cui conviene uniformarsi.
Domande relative agli atteggiamenti (opinioni, motivazioni, sentimenti, giudizi, valori): interrogare
direttamente gli individui è l’unica via per ottenere queste informazioni, ma questo è anche il campo
più difficile da esplorare, e le risposte sono influenzate dal modo in cui sono poste le domande e dal
fatto che si riferiscano a una esperienza diretta piuttosto che a una opinione (es è più facile chiedere
se uno ha votato a un referendum sull'aborto piuttosto che chiedere se sia favorevole o no). Le
opinioni come già detto variano nel tempo e nell'intensità. Domande relative ai comportamenti, che
rilevano quello che il soggetto dice di fare o di aver fatto. Questo è un aspetto più facile da indagare
rispetto agli altri. I comportamenti sono inequivoci (un'azione o c'è stata o non c’è stata) e sono
empiricamente osservabili. Le domande possono essere fattuali (riguradano fatti) o motivaizoniali
(riguardano opinioni, atteggiamenti, motivazioni)
Domande aperte e domande chiuse
Di fondamentale importanza è la decisione da parte del ricercatore di ricorrere a domande aperte o
chiuse. Si TRATTA di decidere se standardizzare la domanda e a priori anche la risposta.
Le domande aperte sono quelle in cui si lascia piena libertà all’intervistato nella formulazione della
risposta; si rivolgono di solito ad un campione ridotto. Il vantaggio della domanda aperta è quello di
concedere una maggiore libertà di espressione e spontaneità, ma la risposta deve essere trascritta per
intero. Lo svantaggio consiste nel fatto che la risposta è difficile da classificare successivamente in
categorie predeterminate. Si rende necessaria una postcodifica per permettere i confronti e le analisi
questo crea dei problemi di codifica, perché le risposte possono essere generiche o imprecise. Solo
un buon intervistatore può sollecitare a precisare meglio il significato delle risposte, ma questo
comporta un maggiore impegno dell’intervistato e quindi un maggior rischio di rifiuti, senza contare
l’aggravio dei costi.
I problemi da considerare sono:
• la standardizzazione della rilevazione;
• pre-codifica o post-codifica delle risposte;
• la riconduzione della risposta ad una domanda aperta in un determinato quadro di riferimento
necessita della sensibilità di un bravo intervistatore;
• la domanda aperta è improponibile quando il campione è molto numeroso.
Le domande chiuse offrono la possibilità di scegliere tra risposte prefissate, quindi la risposta sarà
standard.
Sono il solo tipo di domande che si possono utilizzare con un campione di grandi dimensioni. I
vantaggi delle domande chiuse consistono nella maggiore facilità di codifica, nello stimolo
dell’analisi e della riflessione e nella maggiore economicità (in un campione ampio). Le domande
sono poste a tutti con lo stesso schema di risposte e chiariscono all’intervistato qual è il piano di
riferimento della ricerca, evitando così risposte vaghe. Gli svantaggi sono il rischio di non considerare
tutte le altre possibili alternative di risposta non previste e di influenzare la risposta con le alternative
proposte. A volte l’intervistato sceglie una delle alternative anche se non è convinto. Le risposte,
inoltre, non hanno significato uguale per tutti, e tutte le alternative possono essere troppe per essere
ricordate.
I vantaggi delle domande chiuse sono:
• offrono a tutti gli intervistati lo stesso quadro di riferimento;
• facilitano il ricordo;
• stimolano l’analisi.
Gli svantaggi delle domande chiuse sono:

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

• per evitare una sorta di “chiusura prematura dell’orizzonte teorico”, il ricercatore deve essere
abile a prevedere tutte le possibili risposte (escamotage della voce “altro”);
• le alternative di risposta proposte possono suggerire una risposta anche a chi non ha
un’opinione sul tema;
• le risposte offerte possono essere intese con significato diverso dagli intervistatori.
Formulazione delle domande
La formulazione delle domande è importantissima perché può influenzare pesantemente la risposta;
bisogna quindi porre molta attenzione al linguaggio, alla sintassi e al contenuto stesso delle domande.
Semplicità di linguaggio: il linguaggio del questionario deve essere adatto alle caratteristiche del
campione studiato, il questionario autocompilato deve essere più semplice rispetto a quello con
intervistatore e in ogni caso non bisogna far conto sulle sue spiegazioni, perché di solito gli intervistati
si vergognano di ammettere di non capire le domande.
Lunghezza delle domande: di solito le domande devono essere concise, ma nel caso di tematiche
complesse sono preferibili le domande lunghe perché facilitano il ricordo, danno più tempo per
pensare e agevolano una risposta più articolata.
Numero delle alternative di risposta: non devono essere troppo numerose; se presentate a voce non
devono superare il numero di cinque. altrimenti, se il questionario è somministrato oralmente, usare
un cartoncino scritto con le alternative di risposta per facilitare il ricordo delle stesse da parte
dell’intervistato.
DA EVITARE:
• Espressioni in gergo: è preferibile non utilizzare espressioni gergali perché potrebbero irritare
l’intervistato.
• Definizioni ambigue: occorre fare molta attenzione a non utilizzare termini dal significato non
ben definito.
• Parole dal forte connotato negativo: è bene evitare anche i termini carichi di significato
emotivo, soprattutto se questo è negativo.
• Domande sintatticamente complesse: la domanda deve avere una sintassi chiara e semplice,
evitando ad esempio la doppia negazione.
• Domande con risposta non univoca: bisogna evitare le domande esplicitamente multiple
(domande in cui ne sia inclusa un’altra) e quelle dalla problematica non sufficientemente
articolata.
• Domande non discriminanti: le domande devono esser costruite in modo tale da operare delle
discriminazioni significative nel campione degli intervistati. che non discriminano gli
intervistati (ad esempio il 90% di risposte uguali da parte degli intervistati non è molto
significativo per il ricercatore).
• Domande tendenziose (viziate o a risposta pilotata): è necessario presentare le domande in
modo equilibrato, senza orientare l’intervistato verso una possibile risposta.
• Comportamenti presunti: è indispensabile evitare di dare per scontati comportamenti che non
lo sono, in cui è dato scontato un certo comportamento che di fatto non lo è (il rischio della
profezia che si auto-adempie); per esempio chiedere per chi hanno votato senza prima
chiedere se sono andati a votare.
Domande filtro selezionano un intervistato prima di porre una domanda che non riguarda tutti, e
domande condizionate sono quelle sono quelle poste se alla domanda filtro si è risposto ad un certo
modo. Senza questi filtri potrebbe succedere che l'intervistato dia una risposta anche a una domanda
che non lo riguarda (risposta a caso in base alla desiderabilità sociale).
• Focalizzazione nel tempo: occorre sempre definire con precisione l’arco temporale al quale si
riferisce la domanda. Facilita il ricordo e rende più difficile la sovrapposizione del
comportamento ideale a quello reale concretezza – astrazione, la domanda astratta può dare
facilmente luogo a risposte generiche o normative, mentre la domanda concreta facilita la
riflessione e rende più difficile il fraintendimento.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

• Comportamenti e atteggiamenti: data la difficoltà di determinare gli atteggiamenti


(sfumati,ambigui, esposti a risposte normative - es lei legge libri?), è buona regola, quando
possibile, limitarsi ai comportamenti (quanti libri legge in un anno?) piuttosto che restare
nell’ambito dell’opinione.
• Desiderabilità sociale delle risposte: per evitare risposte normative bisogna formulare
domande il più possibile concrete. Altre indicazioni sono quelle di giustificare anche la
risposta meno accettabile; considerare normale e diffuso anche il comportamento negativo (es
a tutti capita nella vita di sentirsi depresso e di desiderare la morte..."); equilibrare la
desiderabilità delle risposte (“Alcuni dicono che... altri pensano che...”); attribuire
all’intervistato il comportamento condannato, lasciandogli il compito dell’eventuale smentita
(dai manuali , iperbole: "quante volte ha picchiato sua moglie questa settimana?"); formulare
le domande in terza persona; e così via. In ogni caso è impossibile eliminare del tutto gli effetti
della desiderabilità sociale. Per quanto riguarda la desiderabilità sociale delle risposte:
formulare la domanda in modo da rendere accettabile ed ugualmente legittima anche la
risposta meno desiderabile; considerare normale il comportamento negativo o addirittura
attribuirlo all’intervistato e vedere se smentisce; formulare la domanda in terza persona
(esempio: “Molti giovani oggi sono dediti alla droga. Secondo te perché?”);
• Domande imbarazzanti: andrebbero studiate attraverso domande aperte e con interviste non-
strutturate, con le quali si può conquistare la fiducia degli intervistati. Altra soluzione, far
compilare quella parte di questionario tramite busta chiusa.
• Mancanza di opinione e non so: bisogna far presente all’intervistato che “non so” è una
risposta legittima come le altre, per esempio includendola espressamente tra le alternative
possibili. Bisogna inoltre evitare di indirizzarlo, anche in maniera indiretta o inconsapevole,
fronteggiare il problema dello “yeah-saying” (risposte affermative) e del “response set”
(risposte tutte uguali) alternando la “polarità” delle risposte.
Intensità degli atteggiamenti: è importante cogliere anche l’intensità degli atteggiamenti, perché è
quest’ultima che determina i comportamenti. Negli USA risulta dai sondaggi che i 3 quarti della
popolazione è favorevole a un controllo delle armi, ma la legge non riesce a passare, si ritiene che la
minoranza contraria al controllo sia più agguerrita e attiva della maggioranza favorevole. La
rilevazione dell’intensità degli atteggiamenti necessita di solito di domande ulteriori cosa che incide
su costi e tempi, pertanto spesso la misurazione dell'intensità viene tenuta da parte.
DISTORSIONE SISTEMATICA DELLE RISPOSTE
Acquiescenza: si riferisce alla tendenza di scegliere risposte che esprimono accordo piuttosto che
disaccordo(yeasaying), spesso fatto per deferenza delle persone con basso status sociale verso gli
intervistatori.
Un problema simile è quello dell’uniformità delle risposte (response set), quando si tende a scegliere
la stessa risposta per una serie di domande che contemplano lo stesso tipo di alternativa.
Effetto memoria: per ovviare alla inevitabile distorsione causata dalla memoria si possono stabilire
limiti temporali al ricordo (negli ultimi 12 mesi ha fatto...); utilizzare punti di riferimento temporali
relativi ad eventi più salienti rispetto a quello studiato; presentare all’intervistato liste di possibili
risposte; utilizzare diari o strumenti analoghi; ecc. tenere di conto dell’effetto memoria, stabilendo
limiti temporali al ricordo ed ancorando la domanda nel tempo ad eventi molto importanti per
l’intervistato (esempio: la nascita di un figlio, ha i comprato casa prima o dopo la nascita del figlio);
Sequenza delle domande: prima di tutto cercare di mettere l'intervistato a suo agio, e poi spiegargli
rapidamente il meccanismo dell'intervista; nel disporre le domande all’interno del questionario
occorre considerare: che la durata massima deve essere di 45 minuti (25 se l’intervista è telefonica);
la iniziale diffidenza dell’intervistato (quindi le domande iniziali dovranno essere semplici per poi
passare a quelle più complesse ed infine a quelle più “intime”); l’attenzione dell’intervistato che dal
basso sale e poi ridiscende come in una curva “normale” (“a campana”); disporre le domande in
sequenza logica, dalle generali alle particolari; è meglio mettere all’inizio domande facili, che
abbiano lo scopo di rassicurare l’intervistato e di metterlo a proprio agio. Le domande imbarazzanti

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

si posizioneranno quindi a metà questionario, in modo che l’intervistatore abbia avuto un po’ di tempo
per conquistare la fiducia dell’intervistato. Anche le domande impegnative dovranno essere collocate
a metà dell’intervista, in modo tale da assecondare la curva di interesse dell’intervistato. Alla fine si
potranno porre le domande più noiose ma che non richiedono riflessione come quelle sociometriche.
Attenzione alla stanchezza dell'intervistato, lasciare in fondo all'intervista le domande che non
richiedono riflessione.
Nella sequenza delle domande tenere uno schema a imbuto, da domande generali a particolari è bene
seguire anche il passaggio da domande generali a domande particolari, stringendo progressivamente
sugli aspetti più specifici. Bisogna tenere conto infine dell’effetto contaminazione, cioè del fatto che
in certi casi la risposta ad una domanda può essere influenzata dalle domande che l’hanno preceduta.
Sarebbe buona norma, nella pubblicazione dei risultati della ricerca, citare anche la fedele
formulazione delle domande.
Batterie di domande
Le batterie di domande sono domande che essendo, tutte formulate nello stesso modo (stessa
domanda introduttiva e stesse alternative di risposta, varia solo l’oggetto al quale si riferiscono),
vengono presentate all’intervistato in un unico blocco. Le batterie di domande hanno gli obiettivi di
risparmiare spazio sul questionario e tempo dell’intervista, facilitare la comprensione del meccanismo
di risposta, migliorare la validità della risposta e permettere al ricercatore di costruire indici sintetici
che riassumono in un unico punteggio le diverse domande della batteria. Gli svantaggi delle batterie
di domande consistono nel pericolo che le riposte siano date a caso e che le risposte siano
meccanicamente tutte uguali tra di loro.
Vantaggi delle batterie di domande:
• risparmio di spazio (sul foglio del questionario) e di tempo (nella somministrazione);
• migliora la validità delle risposte perché l’intervistato tiene implicitamente conto delle
risposte precedenti;
• agevola la costruzione di indici sintetici per il ricercatore.
Svantaggi (originati dal ritmo incalzante dell’intervista):
• pericolo di “response set” (risposte meccanicamente tutte uguali);
• pericolo di risposte date a caso.
Le domande di una batteria possono essere formulate in termini assoluti (cioè le risposte sono entità
auto-sufficienti) o in termini relativi (la risposta da dare alla domanda dipende anche da quella data
alle altre). Uso particolare delle batterie di domande è la tecnica delle scale, tipicamente utilizzata per
la misura degli atteggiamenti, dove si condensano le risposte in un unico punteggio atto a
operativizzare quel particolare atteggiamento in esame.
Modalità di rilevazione
Le principali modalità di rilevazione sono: l’intervista “faccia a faccia”, l’intervista telefonica e il
questionario “auto-compilato” + oggi il questionario telematico (in ordine di diffusione e successiva
sostituzione). Non sono modalità di rilevazione equivalenti, perchè generano dati di qualità differente,
così come quantità e costi di rilevazione.
INTERVISTA FACCIA A FACCIA
La rivoluzione informatica ha modificato questo tipo di indagine, sostituendo la registrazione carta e
penna con un personal computer su cui l'intervistatore legge le domande e registra le risposte. Un
grosso vantaggio è che il pc gestisce lo svolgimento dell'intervista (per es nelle domande a imbuto o
condizionate passa automaticamente alla domanda necessaria) e segnala incongruenze palesi. Così si
tagliano step intermedi fra rilevazione ed elaborazione. Ma in ogni caso non cambia il meccanismo
base di interazione tra intervistatore e intervistato, dove l'intervistatore è figura centrale.
Nel caso che stiamo trattando, vale a dire quello dell’intervista con questionario standardizzato
(approccio oggettivista dell'intervistatore), tipicamente con circa un migliaio di interviste, e alcune
decine di intervistatori - e quindi ricercatore e intervistatore non coincidono - l’obiettivo è quello di

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

limitare l’effetto dell’intervistatore, standardizzandone il comportamento e limitandone i margini di


discrezionalità attraverso una fase di addestramento. In altre parole, l’intervistatore deve inibirsi
qualsiasi comportamento che può influenzare l’intervistato; per questo motivo gli intervistatori
devono presentare alcuni tratti particolari per raggiungere questo scopo.
Solitamente comporta la somministrazione del questionario ad un cospicuo numero di soggetti, per
cui l’impiego di un gruppo di intervistatori (debitamente informati ed istruiti dal ricercatore) è
pressoché indispensabile. Il ruolo dell’intervistatore è centrale. Lo scopo è quello di limitare al
massimo l’effetto dell'intervistatore, cercando di standardizzarne il comportamento e limitarne la
discrezionalità attraverso una fase di addestramento (l’intervistatore NON deve incidere sui risultati
dell’intervista). Per raggiungere questi obbiettivi alcuni manuali suggeriscono di prestare attenzione
ad alcuni aspetti relativi proprio all’intervistatore:
• caratteristiche: intervistatore ideale è donna, sposata, di mezza età, di istruzione media,
diplomata o casalinga, atta ad un lavoro come quello di intervistatrice di tipo part-time,
discontinuo, modestamente retribuito, senza aspirazioni di carriera. Relativamente ad aspetto
esteriore ed abbigliamento si raccomanda un look neutrale, non vistoso né eccentrico;
• aspettative: gli intervistatori devono essere consapevoli del fatto che le loro aspettative,
trasmesse in modo anche inconscio tramite il tono della voce, l’enfasi o le espressioni facciali,
possono influire negativamente ed in maniera indesiderata sull’intervistato; es intervistatore
con valori e credenze conformiste tendono a interpretare le risposte ambigue in maniera
coerente con le lo stesse opinioni, se ritiene che una domanda sia difficile, otterrà
probabilmente un alto tasso di NON SO
• preparazione: sono necessari incontri preliminari di formazione ed incontri intermedi (durante
la rilevazione) di controllo delle modalità di svolgimento del lavoro;
• motivazione: devono essere adeguatamente motivati, mettendoli a conoscenza dei fini e
dell’importanza del loro lavoro.
QUESTIONARI AUTOCOMPILATI
Il vantaggio principale è il risparmio nei costi di rilevazione. Limite: possibilità che la qualità dei dati
raccolti sia scarsa. quindi i questionari devono essere brevi e concisi. Inoltre il campione che
solitamente aderisce a questi questionari (per es all'uscita di una mostra) è formato da persone più
motivate, istruite, o più giovani ecc. L'autocompilazione può avvenire tramite rilevazioni di gruppo
(es questionario somministrato a una classe, in questo caso un addetto può essere presente per
chiarimenti e tutto il gruppo viene censito senza eccezioni), oppure rilevazione indivisuale, con o
senza vincoli. Restituzione vincolata è per es il censimento (il questionario si restituisce tempo dopo
e viene sommariamente controllato, o addirittura ripassa l'intervistatore a ritirarlo). Restituzione senza
vincoli è quello del questionario postale, che a fronte di bassi costi, presenza di anonimato e assenza
di distorsioni dell'intervistatore presenta una bassa % di risposte, distorsione del campione che
risponde, di solito risponde chi ha livello di istruzione più alto...Il tasso di riuscita dipende
dall'istituzione che patrocina l'indagine (censimento ISTAT avrà più ritorno di Pinco Pallino
Ricerche), dalla lunghezza del quesitonario, dalle caratteristiche degli intervistati, dal tipo di sollecito
(di solito almeno uno o due solleciti)
INTERVISTE TELEFONICHE
L’intervista telefonica (che a partire dagli anni 90 aveva quasi completametne sostituito la tecnica del
faccia a faccia) presenta numerosi vantaggi: permette una grande velocità di rilevazione; ha costi
ridotti; presenta minori resistenze alla concessione dell’intervista e maggiore garanzia di anonimato;
permette di raggiungere a parità di costo anche gli intervistati della periferia del paese; facilita
enormemente il lavoro di preparazione degli intervistatori e la loro supervisione; consente di
utilizzare direttamente il computer in fase di rilevazione.
I suoi svantaggi sono: il minore coinvolgimento dell’intervistato che porta a una maggiore incidenza
di risposte superficiali; il più rapido logoramento del rapporto con l’intervistato; l’impossibilità di
utilizzare materiale visivo; l’impossibilità di raccogliere dati non verbali come accade nel faccia a
faccia; l’impossibilità di raggiungere tutti gli strati sociali; il fatto che anziani e persone poco istruite

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

risultano sottorappresentate; il fatto che le domande sono spesso elementari a causa della ristrettezza
del tempo a disposizione. I limiti più gravi sono comunque l’assenza di contatto e la mancanza di
tempo, che non rendono adatta l’intervista telefonica quando si vogliono analizzare tematiche
complesse.
Oggi moltissime linee telefoniche fisse sono state chiuse a favore dei telefoni cellulari quindi questo
taglia via una fetta importante della possibile popolazione raggiungibile. Poi tramite il registro delle
opposizioni si possono rifiutare le telefonate commerciali (entrando in un elenco che le società di
sondaggi devono rispettare). Consideriamo anche il fattore insofferenza verso questo tipo di contatto,
che ha prodotto un tasso di non risposta fino al 90%.
Vantaggi:
• rapidità di rilevazione e costi ridotti;
• minori resistenze dell’intervistato;
• facilita la preparazione e la supervisione degli intervistatori (pensiamo ad un call-center dove
sono concentrati tutti gli intervistatori telefonici);
• consente il C.A.T.I. (Computer Assisted Telephone Interviewing), ma anche l’intervista
faccia a faccia consente il C.A.P.I. (Computer Assisted Personal Interviewing) (l’altra
modalità di utilizzo dei P.C. è la tele-intervista, con l’intervistato collocato direttamente
davanti al monitor);
Svantaggi:
• sono più probabili le risposte a caso o superficiali;
• l’intervista deve durare al massimo 20-25 minuti;
• non può essere utilizzato materiale “ausiliario” di tipo visivo;
• non sono rilevabili dati non verbali;
• non tutti hanno il telefono: quindi si ha una sorta di campione auto-selezionato;
• anziani e persone sotto istruite che si sottraggono all’intervista (magari passando la telefonata
a qualche altro convivente) e dunque risultano sotto rappresentati;
• il tempo a disposizione ridotto costringe ad una semplificazione delle domande.
QUESTIONARI TELEMATICI
INCHIESTE VIA WEB (WEB SURVEYS): le email surveys sono inviate via email, con le web
surveys si accede a un sito web e compila il questionario online - le risposte vengono direttamente
scaricate in un dataset, senza la mediazione di una codifica che prenderebbe tempo e potrebbe
comportare errori. Quindi molto efficace a patto che il campione considerato sia dotato di connessione
alla rete. Si utilizzano anche tecniche miste (per es lettera inviata per posta dove si invita a compilare
questionario online, chi non risponde viene contattato per telefono e infine intervistato a domicilio
(le interviste pù costose, quelle faccia a faccia, sono numericamente molto ridotte).
PANEL ONLINE: è ancora molto difficile costruire un campione rappresentativo di tutta la
popolazione basandosi solo su persone che hanno accesso a internet. Il panel online è un gruppo di
persone che accetta di partecipare tramite internet a inchieste telematiche per un certo periodo di
tempo. Quindi gruppo stabile di persone, ripetutamente interpellate via internet, su temi di vario
genere. Come si reclutano queste persone, al fine di rendere il campione rappresentativo? Due
situazioni: campione probabilistico e non.
Col campione non probabilistico si aderisce in modo volontario (magari vedendo un banner su un
sito), annunci sui social networks ecc. Qui non c'è garanzia di casualità e quindi di rappresentatività
del campione: cioè non c'è base scientifica per giustificare la generalizzazione di quanto emerso dal
campione alla popolazione di riferimento. Il campione avrà due distorsioni: riflette le stesse diversità
rispetto alla popolazione degli utenti di internet (giovani, istruzione superiore ecc), distorsione che si
rimedia con un processo di ponderazione. Poi i volontari della ricerca sociale sono una specie
particolare (vedi es pag 215), che creano distorsioni non controllabili sulle variabili oggetto dello
studio.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Campione probabilistico è formato da lista di perosne scelte indipendentemente dalla volontà e


dimestichezza con internet, per es sulla base delle liste elettorali di un certo numero di comuni a loro
volta selezionati mediante campionamento probabilistico - trattasi di campionamento a stadi.
Poichè costruire un serio e affidabile panel online è impresa costosa e impegnativa, così come
mantenerlo, al momento viene utilizzato solo da grandi organizzazioni. Nel campo del marketing
sono una realtà importantissima.
INCHIESTE DIACRONICHE (lo studio del cambiamento nel tempo)
Gli studi diacronici sono quelli protratti nel tempo, in contrapposizione a quelli sincronici.
Per studiare il cambiamento sociale si dispone di due strade: replicare nel tempo la stessa ricerca,
oppure rilevare ripetutamente le stesse informazioni sugli stessi soggetti. Nel primo caso i soggetti
cambiano, nel secondo non cambiano. I primi sono gli studi TRASVERSALI (cross sectional) che
danno luogo alle inchieste trasversali replicate, i secondi sono i longitudinali (longitudinal) che danno
luogo alle inchieste longitudinali.
INCHIESTE TRASVERSALI REPLICATE: es come cambia la religiosità degli italiani negli
ultimi vent'anni rifacciamo oggi la stessa rilevazione di vent'anni fa con la stessa popolazione di r
riferimento (es giovani tra i 18 e i 35 anni).
INCHIESTE LONGITUDINALI: in questo tipo di inchiesta le stesse persone vengono intervistate
a distanza di tempo, con le stesse domande. Qui conta un fattore importante che è la mortalità del
campione (decremento di ampiezza del campione che si verifica ad ogni nuova rilevazione) per rifiuti,
trasferimenti, decesso ecc., cosa che richiede ad ogni ondata di inserire nel campione nuovi soggetti
con caratteristiche che neutralizzano le distorsioni dovute alle uscite. vedi pag 220-221
L’inchiesta retrospettiva è invece una normale inchiesta trasversale nella quale si pongono agli
intervistati domande sul loro passato, con gli evidenti limiti che l’affidamento alla memoria può
comportare.
Analisi secondaria
L’analisi secondaria è una ricerca che viene condotta su dati di inchiesta campionaria già
precedentemente raccolti e disponibili nella forma di matrice-dati originale, quindi una "rianalisi" di
dati già esistenti. L’analisi secondaria nasce nell’ambito di un maggiore approfondimento dei dati già
raccolti sulla base di successive scoperte o di nuove teorie avanzate nelle scienze sociali; a questo
punto i dati già raccolti possono essere suscettibili di nuove elaborazioni e approfondimenti. Inoltre,
a causa dell’estrema onerosità della fase di raccolta dei fatti, sono nate apposite agenzie che riescono
risorse comuni mettendo poi i dati a disposizione di tutti i ricercatori; ovviamente queste agenzie non
raccolgono i dati per un unico tema, ma si rivolgono ad un ampio spettro di problematiche sociali.
I vantaggi di questi sviluppi si possono riassumere in un generale risparmio economico, nella garanzia
del rigore della rilevazione stessa e nella possibilità anche per i ricercatori con poche risorse di
effettuare ricerche di ampio respiro. L'analisi secondaria valorizza il criterio della cumulabilità, nel
senso che anche un piccolo risultato empirico assume valore quando lo si pone in continuità con il
corpus complessivo di conoscenze di quel settore, contribuendo alla crescita cumulativa della
conoscenza.
Gli svantaggi sono legati alla qualità dei dati, in quanto i dati raccolti nel passato possono non essere
stati trattati in modo corretto; altri svantaggi sono la limitazione degli interrogativi e il fatto che
possano nascere ricerche a partire dai dati disponibili piuttosto che dalle ipotesi teoriche, e questo
può incidere sui risultati che possono essere scontati.
La meta-analisi si differenzia dall’analisi secondaria perché non riesamina i vecchi dati ma si propone
di “analizzare le analisi”, applicando metodi statistici per giungere a delle sintesi dei risultati delle
ricerche considerate. Partono dai risultati degli studi invece che dai dati, integrandone i risultati.
Si parla di analisi secondaria quando il ricercatore si serve di dati raccolti da altri e disponibili nella
matrice-dati originale. Per molto tempo la ricerca sociale è rimasta fedele allo schema classico:
problema -> disegno della ricerca -> raccolta dei dati -> analisi.
Poi si sono iniziate a manifestare due tendenze:

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

1. ci si è resi conto che le ricerche condotte in passato offrivano spunti per ulteriori
approfondimenti (a causa del progresso della teoria o della messa a punto di nuove tecniche
statistiche);
2. si sono affermate le c.d. rilevazioni multi-scopo esplicitamente dedicate alle analisi
secondarie.
Vantaggi delle analisi secondarie:
• risparmio: anche i ricercatori con poche risorse possono effettuare ricerche di ampio respiro;
• rigorosità della rilevazione;
Limiti delle analisi secondarie:
• non è valutabile la qualità dei dati;
• può causare una limitazione degli interrogativi da porsi per mancanza di dati idonei;
• può causare ricerche fatte a partire dai dati disponibili invece che dalla teoria e da ipotesi da
verificare.
La meta-analisi non è una ri-analisi dei dati, bensì una integrazione dei risultati.

IL CAMPIONAMENTO
Anche se può sembrare strano, la scelta casuale (tipica del campionamento) deve segueire regole ben
precise.
NELLA STATISTICA SI STUDIA LA TEORIA DEI CAMPIONI è il procedimento con il quale si
estrae, da un insieme di unità (popolazione) costituenti l’oggetto dello studio, un ridotto numero di
casi (campione) scelti con criteri tali da poter generalizzare i risultati ottenuti dal campione stesso
all’intera popolazione.
Vantaggi:
- vantaggio: tempi e costi della rilevazione si riducono;
- vantaggi organizzativi per il minor numero di rilevatori richiesti
- sono possibili maggior approfondimenti ed una maggiore accuratezza;
- ci sono casi in cui operare il campionamento non è una scelta ma una necessità
(per es studio sulla durata delle lampadine, si può fare solo su un campione). vedi esempio storico
pag 318 -319
Errore di campionamento vedi anche pagg 319-320 premessa
La tecnica del campionamento presenta tuttavia anche degli svantaggi. Infatti, se l’indagine totale
fornisce il valore esatto del parametro che si vuole conoscere, l’indagine campionaria ne fornisce solo
una stima, cioè un valore approssimato. Ciò significa che il valore in questione non è certo, ma solo
probabile, e inoltre questa probabilità può variare entro un certo intervallo (detto intervallo di fiducia
-es c'è il 95% di probabilità che il reddito medio della popolazione sia di euro 1200 +- 50.000). La
stima del campione sarà quindi sempre affetta da un errore, che si chiama errore di campionamento.
Difficile misurare questo errore di campionamento! Se però il campione è probabilistico (cioè scelto
secondo una procedura rigorosamente casuale), la statistica ci permette di calcolare l’entità di tale
errore.
Campioni probabilistici: il campione casuale semplice (probabilistico e
causale sono sinonimi)
Nei campioni probabilistici l’unità d’analisi è estratta con una probabilità nota e diversa da zero. È
necessario conoscere la popolazione (nell'esempio del libro "LITERARY DIGEST" il campione non
era probabilistico perchè le persone senza tel e senza auto avevano probabilità zero di essere incluse
nel campione, chi aveva entrambe aveva probabilità doppia).
Il caso più semplice del campione probabilistico è quello del campionamento casuale semplice, in cui
ogni individuo della popolazione ha uguali possibilità di essere scelto per il campione.
Si devono estrarre gli individui senza riferimento a caratteristiche individuali; si assegna un numero

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

a ciascuna persona e si sceglie a caso. Se N sono i componenti dell'intera popolazione si estrae n


numeri tra gli N totali. L’errore di campionamento del campione casuale semplice è direttamente
proporzionale al livello di fiducia che vogliamo avere nella stima (cioè il grado di certezza) ed alla
variabilità del fenomeno studiato (cioè la dispersione della distribuzione della variabile), mentre è
inversamente proporzionale all’ampiezza del campione.
Analogamente si parla di ampiezza del campione. L’ampiezza del campione è direttamente
proporzionale al livello di fiducia desiderato per la stima ed alla variabilità del fenomeno studiato, ed
inversamente proporzionale all’errore che il ricercatore è disposto ad accettare.
Questo significa che la dimensione della popolazione non ha grande importanza per determinare
l’ampiezza del campione, infatti ad esempio un campione di 1.000 casi può essere sufficiente per
arrivare a stime della stessa precisione per popolazioni di 10.000 o 100.000 elementi. Al limite, se si
desidera avere stime della precisione di due punti percentuali, sono sufficienti 2.500 casi per
qualunque dimensione della popolazione, anche a livello mondiale.
Altri campioni probabilistici
Campionamento sistematico: produce anche questo un campione casuale semplice, ma con diversa
tecnica di estrazione. Non c'è sorteggio, I soggetti si scelgono secondo un intervallo stabilito. Si usa
quando non c’è periodicità e quando la lista non è completa (ad esempio nei controlli di qualità sui
prodotti oppure negli exit polls). In ogni caso deve essere rispettato il requisito che tutte le unità
abbiano la stessa probabilità di essere incluse nel campione (se il campione è di clienti del
supermercato bisogna terminare l'estrazione all'ora di chiusura, non prima) e inoltre deve essere
evitata ogni forma di scelta diversa da quella predeterminata dall’intervallo di campionamento. vedi
pag 331 per gli esempi.
Campionamento stratificato: la popolazione è divisa in strati omogenei rispetto alla variabile da
stimare e si estrae un campione casuale semplice da ciascuno strato; in seguito si uniscono i campioni
dei singoli strati per ottenere il campione finale. Questa procedura richiede che per tutte le unità della
popolazione sia nota la variabile posta alla base della stratificazione. Il campione ottenuto può essere
stratificato proporzionale (se si decide di riprodurre la stessa composizione degli strati nella
popolazione) oppure stratificato non proporzionale (se si decide di sovrarappresentare alcuni strati e
sottorappresentare altri).
Campionamento a stadi: la popolazione è suddivisa su più livelli gerarchicamente ordinati, i quali
vengono estratti in successione con un procedimento ad “imbuto”. Se presumiamo di avere due stadi,
il campionamento si effettua in due momenti: prima si estraggono le unità primarie (gruppi di soggetti
che costituiscono le unità di analisi vere e proprie) e successivamente si estrae casualmente un
campione di unità secondarie (le unità di analisi) in ognuna delle unità primarie selezionate dalla prima
estrazione.
I vantaggi di questa tecnica consistono nel fatto che non è necessario avere la lista di tutta la
popolazione, ma solo delle unità primarie; inoltre la rilevazione viene concentrata sulle unità estratte,
con notevole riduzione dei costi.
Campionamento per aree: è molto simile al campionamento a stadi e si utilizza quando mancano del
tutto i dati sulla popolazione oppure quando le liste sono incomplete.
Campionamento a grappoli: si usa quando la popolazione risulta naturalmente suddivisa in gruppi di
unità spazialmente contigue (grappoli). Al posto delle unità elementari vengono estratti i grappoli, e
poi tutte le unità elementari appartenenti ai grappoli vengono incluse nel campione. Questa tecnica
semplifica di molto la rilevazione ed è molto utile quando manca la lista delle unità elementari mentre
esiste la possibilità di estrarre con procedura probabilistica i grappoli.
Campioni complessi: sono quelli in cui si utilizzano congiuntamente le tecniche ora presentate.
Il campionamento nella ricerca sociale
L’errore nella ricerca sociale può essere distinto in tre parti: errore di selezione, errore di osservazione
ed errore di trattamento dati. La procedura di campionamento produce un errore del primo tipo
(poichè si lavora solo su una parte della popolazione), che a sua volta può essere distinto in ulteriori

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

tre componenti: errore di copertura, errore di campionamento ed errore di trattamento dati. Finora ci
siamo occupati del solo errore di campionamento; tratteremo ora anche gli altri.
Errore di copertura. Lista della popolazione
Nel caso in cui si conosce la lista della popolazione, è possibile procedere con campionamenti
probabilistici. Questo accade di solito quando l’oggetto di studio è l’intera popolazione (anche
nazionale), perché esistono anagrafi e liste elettorali che forniscono l’elenco completo della
popolazione. Il problema si pone per i sottoinsiemi della popolazione, perché di solito non si è in
possesso di una lista completa della popolazione. Quando invece l’unità di analisi non è un individuo
ma un collettivo, la situazione è migliore perché in genere un aggregato di individui esiste in forma
istituzionalizzata e registrata.
Se non c’è la possibilità di conoscere la lista della popolazione bisogna rinunciare a tecniche di
campionamento probabilistico, perché in questi casi non è possibile assegnare a tutte le unità della
popolazione una certa probabilità di estrazione. Ma non è sufficiente che le liste esistano, bisogna
anche che siano aggiornate, complete ed esenti da duplicazioni. Il problema della completezza è il
più grave; in questo caso il ricercatore può ridefinire la popolazione, trascurare gli esclusi oppure
procedere ad un’integrazione del campione (pag 337-338)
Errore di campionamento. Ampiezza del campione
Il campionamento nel settore della ricerca sociale è una tecnica di difficile applicazione; essa genera
un errore di selezione ulteriormente scomponibile in:
• errore di copertura = spesso non si dispone né della lista della popolazione né di un luogo in
cui procedere ad un campionamento sistematico. Il problema non è solo quello di avere una
lista, ma di averla aggiornata, priva di duplicazioni e completa. La difficoltà non riguarda le
omissioni di per sé, bensì il fatto che chi rimane escluso è tendenzialmente diverso da chi è
compreso nel campione. Il ricercatore ha tre possibilità: ridefinire la popolazione, trascurare
gli esclusi oppure integrare il campione;
• errore di campionamento = quando si sceglie l’ampiezza del campione occorre tenere presente
che le stime relative ad analisi monovariate sono affette da errori più piccoli rispetto ad analisi
bivariate o multivariate; occorre prevedere in anticipo dunque se la nostra analisi si svilupperà
in questo senso;
• errore di non risposta = può essere dovuto al mancato contatto con i soggetti facenti parte del
campione (per difficoltà di raggiungimento o per irreperibilità dei soggetti) oppure al rifiuto
a farsi intervistare (questa evenienza è di più difficile gestione perché chi non risponde è
diverso da chi risponde, solitamente).
E’ difficile quantificare i tassi di non risposta, ma si può dire che sono più alti nelle interviste
telefoniche che in quelle faccia a faccia e che in Italia si oscilla tra il 20 ed il 50% di mancate
interviste.
Sostituire le non risposte è spesso un errore perché i sostituti assomigliano più ai rispondenti che ai
non rispondenti. I consigli sono quelli di ritornare ripetutamente sulle persone non raggiunte e di
ricorrere alle tecniche di ponderazione.
Se consideriamo il caso di una ricerca monovariata (quando si stimano le variabili ad una ad una) la
dimensione del campione può essere adeguata, ma se nella stessa ricerca studiamo le relazioni tra le
variabili (analisi bivariata o multivariata) - esempio voglio vedere la relazione tra due varibili, se la
pratica religiosa varia al variare dell'istruzione - l’errore cresce subito fino a livelli inaccettabili (pag
339). Diminuendo l'ampiezza del campione l'errore di campionamento aumenta.
Solo raramente la stima di singole variabili esaurisce l'interesse del ricercatore, a lui interessano le
relazioni tra variabili. La dimensione del campione non può più essere determinata a priori dal
ricercatore sulla base delle distribuzioni delle singole variabili studiate, ma dovrà far riferimento al
tipo di analisi che egli intende utilizzare, a partire dalla considerazione dei frazionamenti ai quali egli
sottoporrà il campione per analizzarlo. La dimensione ideale del campione dipende dalla

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

distribuzione delle variabili studiate e dal tipo di analisi che si intende fare. In generale l’ampiezza
del campione dovrà essere tanto maggiore quanto più il fenomeno da studiare è minoritario (es. pag
340).
Errore di non-risposta. Mancati contatti e rifiuti (da 341 in avanti, molti
esempi)
L’errore di non-risposta consiste nel fatto che i soggetti selezionati dal campionamento non sono
contattabili o si rifiutano di rispondere. (Marradi: "il concetto di estrazione casuale è in teoria
semplicissimo, ma è una semplicità illusoria, perchè gli esseri umani differiscono dalle palline estratte
dall'urna per due aspetti essenziali: non sono a portata di mano del ricercatore e sono liberi di non
rispondere".
Il problema del mancato contatto con i soggetti può essere causato dalla difficoltà di raggiungerli
oppure dalla loro irreperibilità; in ogni caso si tratta di problemi fastidiosi ma risolvibili.
Molto più grave è il problema dei rifiuti a rispondere (diffidenza verso l'intervistatore, l'intervista o
parti di essa), in quanto spesso coloro che non vogliono rispondere sono diversi da quelli che
rispondono (anziani, basso titolo di studio, donne, persone sole, persone indaffarate…timore di come
venga gestita l'informazione data se riferita a convinzioni politiche per es)e quindi non rappresentano
una selezione casuale del campione originario.
In questo modo si compromette la validità del campione stesso, che sovra-rappresenterà alcune
categorie di persone a scapito di altre. La percentuale di mancate risposte in Italia varia dal 20% al
50%, a seconda della diversa forma di contatto utilizzata (ad esempio di solito le interviste faccia a
faccia hanno un tasso di risposta superiore a quelle telefoniche).
Una soluzione per rimediare alle mancate risposte può essere quella di sostituire i soggetti con altri
scelti a caso, ma questa tecnica spesso non è efficace perché i sostituti assomigliano più ai rispondenti
che non ai non rispondenti. Per contrastare efficacemente il problema delle mancate risposte ci sono
due metodi: il primo è quello di tornare il più possibile dalla persone che non rispondono per
incontrarle o convincerle; il secondo consiste nella ponderazione, cioè nell’attribuire alle persone non
raggiunte dall’intervista le risposte medie date dal gruppo sociale al quale esse appartengono.
L'errore di non risposta è probabilmente il più imperscrutabile degli errori di rilevazione, il risultato
del comportamento di persone che sono al di fuori del controllo del ricercatore e mette in crisi la
proprietà unica dell'indagine campionaria rispetto ad altri metodi di indagine: l'inferenza statistica dal
campione alla popolazione. Inoltre è in crescita in tutte le società occidentali (per tutela privacy,
saturazione verso le indagini, per diffidenza verso gli estranei ecc). Conclusione: LA RICERCA
SOCIALE NELLA SUA PRATICA APPLICAZIONE PONE DEI LIMITI VERAMENTE SEVERI
ALLA TRADUZIONE IN PRATICA DELLA TEORIA DEL CAMPIONE.
Campioni non probabilistici (da 345 in poi...c'è molto da leggere)
Quando il disegno probabilistico non può essere impostato (ES MANCA LA LISTA DELLA
POPOLAZIONE) si ricorre sin dall’inizio ai campioni non probabilistici.
Campionamento per quote: disegno campionario più diffuso specie nelle ricerche di mercato e
sondaggi di opinione; si divide la popolazione in strati rilevanti e il ricercatore sceglie a sua
discrezione i soggetti all’interno degli strati rispettando la proporzione (non c’è casualità). I limiti di
questa procedura consistono nel fatto che il ricercatore cerchi i soggetti più facilmente raggiungibili,
enfatizzando in questo modo l’errore di non-risposta.
Disegno fattoriale: il disegno fattoriale si colloca a mezza strada tra una tecnica di campionamento
e un esperimento. Il suo scopo è quello di cogliere le relazioni che vigono all’interno della
popolazione; per far questo i gruppi che si creano dalle combinazioni delle variabili (es.: istruzione,
età e genere) hanno tutti dimensione uguale e non proporzionale alla popolazione. Il disegno fattoriale
non arreca alcun vantaggio allo studio della relazione tra variabile dipendente e indipendente.
Campionamento a scelta ragionata: in questo caso le unità campionarie non sono scelte in maniera
probabilistica, ma sulla base di alcune loro caratteristiche.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Campionamento bilanciato: è una forma di campionamento ragionato, nel quale si selezionano la


unità di modo che la media del campione, per determinate variabili, sia prossima alla media della
popolazione (deve trattarsi quindi di variabili delle quali sia nota la distribuzione nella popolazione).
Esso viene usato soprattutto in caso di campioni molto piccoli.
Campionamento a valanga: è caratterizzato da fasi successive: prima si intervistano le persone che
hanno le giuste caratteristiche, da queste si ricevono indicazioni per rintracciare altre persone con le
stesse caratteristiche, e così via. Per questo è particolarmente utile in caso di popolazioni clandestine.
Campionamento telefonico: la particolarità di questo campionamento consiste nel fatto che la
selezione è fatta automaticamente tramite computer, a partire da elenchi telefonici oppure da numeri
generati direttamente dal computer (random digit dialing). Questa tecnica presenta il vantaggio che
il computer registra i motivi dei mancati contatti e gestisce l’esclusione del numero o la ripetizione
della chiamata. Questo tipo di campionamento presenta il difetto che chi vive da solo ha maggiore
possibilità di essere estratto di chi vive in una famiglia numerosa.
Campionamento di convenienza: l’unico criterio di questa tecnica è che si scelgono le persone più
facilmente accessibili; naturalmente va il più possibile evitato.
Ponderazione
La ponderazione è quella procedura con la quale modifichiamo artificialmente la composizione del
campione onde renderla più prossima alla distribuzione della popolazione. Essa si realizza
attribuendo un “peso” alle unità campionarie che varia a seconda delle loro caratteristiche.
Le procedure di ponderazione sono essenzialmente tre e si basano sulle probabilità di inclusione delle
unità nel campione, sulle conoscenze che si hanno sulla popolazione e sulle conoscenze che si hanno
sulle non-risposte.
1- Il caso che si basa sulle probabilità di inclusione delle unità nel campione consiste nel campionare
negli strati in modo deliberatamente non proporzionale alla loro presenza nella popolazione per avere
un numero di soggetti sufficiente per l’analisi statistica. In questo caso la probabilità di inclusione
non è uguale per tutti i soggetti, ma è nota; si resta quindi tra i campioni probabilistici.
2- Il caso più comune che si basa sulle conoscenze che si hanno sulla popolazione è detto della post-
stratificazione e consiste nel correggere la distribuzione nella popolazione del campione di alcune
variabili in modo da farla corrispondere alla distribuzione della popolazione totale, assegnando a ogni
caso un coefficiente di ponderazione (peso) pari al rapporto quota teorica /quota rilevata della
categoria di appartenenza. Esso copre l’errore di copertura. In questo caso non siamo più in presenza
di campioni probabilistici.
3- Il caso che si basa sulle conoscenze che si hanno sulle non-risposte copre invece l’errore di non-
risposta e consiste nel classificare le persone che si rifiutano di rispondere sulla base di un certo
numero di variabili e quindi le risposte raccolte vengono ponderate attribuendo loro un peso che tiene
conto dei rifiuti. Lo scopo di questa procedura è quello di attribuire ai non rispondenti il
comportamento medio delle persone appartenenti al loro stesso gruppo sociale. Anche in questo caso
non si tratta di una tecnica probabilistica. Un ulteriore intervento, che si usa per attenuare la
distorsione prodotta dalla mancata risposta solo a qualche domanda del questionario, consiste nel
procedere ad una stima delle mancate risposte a partire dalle informazioni che si hanno sugli
intervistati parzialmente reticenti.
La ponderazione è una procedura con la quale si modifica artificialmente la composizione del
campione in sede di elaborazione dei dati tramite operazioni matematiche tese a dare un diverso peso
alle unità sulla base delle loro caratteristiche. Ci sono tre possibilità di ponderazione:
• a partire dalle probabilità di inclusione dei soggetti nel campione;
• sulla base della conoscenza che si ha della popolazione;
• sulla base della conoscenza delle caratteristiche dei non rispondenti.
E’ opportuno che l’artificio della ponderazione venga esplicitamente dichiarato nei risultati della
ricerca.
Bontà di un campione

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

E' praticamente impossibile nelle scienze sociali evitare del tutto errori di copertura e di non risposta,
ma si possono minimizzare cercando di avvicinare la procedura di campionamento al modello del
campionamento probabilistico. Se definiamo con accuratezza della procedura di campionamento la
minimizzazione di questi errori possiamo dire che ampiezza del campione e accuratezza della
procedura di campionamento sono le due caratteristiche che definiscono la bontà di un campione, con
un equilibrio tra i due.
Alla validità di un campione concorrono due fattori: la sua rappresentanza e la sua ampiezza.
Un campione è rappresentativo quando fornisce un’immagine in piccolo ma senza distorsioni della
popolazione; la rappresentatività dipende dalla casualità della procedura con la quale è stato costruito.
Questa rappresentatività è valida per tutte le variabili della popolazione. Possiamo infine dire che se
le stime del campione sono sufficientemente piccole, il campione è rappresentativo.
Ma è praticamente impossibile realizzare una procedura completamente casuale, per cui la
rappresentatività del campione è un obiettivo limite al quale ci si può solo avvicinare minimizzando
gli errori di copertura e di non-risposta (accuratezza). In parte l’ampiezza del campione è condizione
della rappresentatività: se il campione è troppo piccolo, allora l’errore di campionamento è troppo
elevato e il campione non può essere definito rappresentativo. In parte invece l’ampiezza del
campione è un requisito autonomo dalla rappresentatività, e dipende dal tipo di analisi che vogliamo
fare sui dati (monovariata, bivariata o multivariata). Tra i due requisiti dovrebbe essere privilegiata
l’ampiezza per la sua maggiore importanza. È importante anche la finalità della ricerca: se si tratta di
uno studio descrittivo, il campione deve essere il più possibile rappresentativo, se invece l’obiettivo
è di tipo relazionale, il campione può anche non essere perfettamente rappresentativo. In ogni caso il
ricercatore può trascurare l’accuratezza della rilevazione, applicando il più possibile il
campionamento casuale nonostante la sua difficoltà.
La bontà di un campione riguarda due aspetti:
1. la rappresentatività: il campione rappresentativo fornisce un’immagine in scala ridotta
ma non distorta della popolazione; il campione casuale è statisticamente rappresentativo; la
rappresentatività riguarda tutte le variabili. Nelle scienze sociali non è possibile garantire
la casualità a causa del fatto che gli errori di copertura e quelli di non-risposta possono
essere minimizzati (a seconda del grado di accuratezza) ma mai eliminati;
2. l’ampiezza: se il campione è piccolo l’errore di campionamento è elevato.
Talvolta non è possibile avere contemporaneamente accuratezza ed ampiezza. Il ricercatore dovrebbe
fornire nella pubblicazione dei risultati tutti gli elementi necessari per valutare l’entità
dell’ineliminabile errore.

L’OSSERVAZIONE PARTECIPANTE
Nella ricerca di tipo qualitativo è difficile ricorrere a schematizzazioni, ossia rendere le fasi che la
compongono ben separate e distinte. Le principali tecniche qualitative utilizzate sono quelle
dell’osservazione partecipante (dove c'è non solo osservazione ma coinvolgimento diretto del
ricercatore con l'oggetto studiato), delle interviste in profondità e dell’uso di documenti.
Ricordiamoci che ci troviamo nel contesto del paradigma interpretativo e che lo scopo è la
comprensione (Versethen), quindi è necessario un processo di immedesimazione nella vita dei
soggetti studiati ed una piena e completa partecipazione alla loro quotidianità, con un'interazione che
può anche durare anni. Il ricercatore qui scende sul campo, vive come e con le persone oggetto del
suo studio, ne condivide la quotidianità, sviluppa una visione dal di dentro, è questo il senso del
Verstehen (vedere il mondo con gli occhi dei soggetti studiati).
L’osservazione partecipante è una strategia di ricerca nella quale il ricercatore si inserisce in maniera
diretta (cioè in prima persona) e per un periodo di tempo piuttosto lungo, in un determinato gruppo
sociale, preso nel suo ambiente naturale, instaurando un rapporto di interazione personale con i suoi
membri, allo scopo di descriverne le azioni e di comprendere, mediante un processo di
immedesimazione, le motivazioni.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Quindi, mentre nell’approccio quantitativo si cercava l’oggettività ed il distacco, nell’approccio


qualitativo si ricerca il coinvolgimento e l’immedesimazione con il soggetto studiato.
E' una tecnica difficilmente codificabile ed insegnabile, è un'esperienza più che un insieme di
procedure.
Questa tecnica deriva dall’antropologia, in cui venne utilizzata per primo da Malinowski. Si ricorre
all’osservazione partecipante quando:
• si sa poco di un certo fenomeno;
• il punto di vista esterno è fortemente diverso da quello interno;
• il fenomeno è occultato volutamente o comunque si svolge al riparo di sguardi estranei (es
una SETTA) -.
Inizialmente si applicava in studi condotti su piccole comunità sociali territorialmente localizzate e
in studi di sub-culture (ad esempio sacche di marginalità sociale). Progressivamente è stata estesa
anche a studi sulla società “ufficiale” (pagg 368-369-370) L'approccio è del tutto simile a quello
dell'antropolgo che studia una tribu primitiva.
Problemi:
1. l’osservatore deve esplicitare o meno il suo ruolo? E’ il c.d. paradosso dell’osservatore, che
vuole osservare come si comporta la gente quando non è osservata. Occorre considerare:
- l’aspetto morale;
- il disagio che può cogliere l’osservatore dissimulato;
- le conseguenze negative di essere scoperti;
- la dichiarata “incompetenza” può essere sfruttata per fare le domande più ingenue;
- l’iniziale diffidenza si attenua con il tempo;
- se l’ambiente osservato è pubblico ed aperto non è necessario rendere manifesta
l’osservazione (oppure quando l’osservatore si trova già nel gruppo).
2. come ottenere l’accesso all’ambiente? Spesso si ricorre al c.d. mediatore culturale: è una
persona che gode della fiducia della popolazione studiata e contemporaneamente è in grado
di comprendere le esigenze del ricercatore. Se l’istituzione è formale è necessario seguire
delle regole precise per avere l’accesso;
3. come ottenere la fiducia degli osservati? Entrano in gioco le capacità del ricercatore, in
termini di sensibilità e di gestione del rapporto. Si dicono informatori quelle persone
utilizzate dal ricercatore per acquisire informazioni dall’interno della cultura studiata.
Che cosa osservare? (pag 378 e segg)
Ricordando che spesso, in una ricerca qualitativa, il ricercatore si lancia alla scoperta ed ignora
volutamente la letteratura esistente per evitare idee preconcette limitatrici del suo orizzonte teorico
(spesso dunque il ricercatore seleziona gli oggetti di osservazione e forgia i suoi interessi nel corso
della ricerca), i possibili oggetti di osservazione sono:
• il contesto fisico: descrivere la conformazione degli spazi in cui si svolge l’azione;
• il contesto sociale: descrivere l’ambiente umano;
• le interazioni formali: cioè le interazioni tra ruoli prestabiliti ed i vincoli prefissati all’interno
del gruppo studiato;
• le interazioni informali: sono le più importanti, spesso, ma anche le più difficili da studiare;
• le interpretazioni degli attori sociali: descrivere le interazioni verbali tra i soggetti studiati, ma
anche le risposte ad esplicite domande del ricercatore, sia formali che informali.
La registrazione dell’osservazione è fondamentale, perché la memoria è volatile e selettiva
(inconsapevolmente). Deve essere effettuata prima possibile rispetto allo svolgersi dell’accadimento
e deve riguardare la descrizione, l’interpretazione del ricercatore (riflessioni teoriche e reazioni
emotive) e l’interpretazione dei soggetti studiati. Le tre componenti devono essere tenute distinte (per
il principio della distinzione) e devono essere precise (per il principio della fedeltà della
registrazione). Indubbiamente utile risulta l’uso di strumenti come il taccuino, un registratore vocale,
una videocamera o un P.C. portatile.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Per quanto riguarda l’analisi del materiale empirico e la stesura del rapporto finale non esistono regole
precise ed il materiale raccolto è solitamente molto corposo.
• l’analisi è un processo continuo che si sviluppa anche nel corso dell’osservazione stessa;
• il dramma della selezione: solitamente, in fase di analisi, viene abbandonata la maggior parte
del materiale raccolto;
• le fasi sono la descrizione (assemblando il materiale di varia origine), la classificazione
(individuando le sequenze temporali e raggruppando in classi similari o dissimili) e
l’individuazione delle dimensioni della tipologia (mediante l’individuazione dei temi culturali
che attraversano la comunità studiata);
• lo stile di scrittura deve essere riflessivo (nel senso di non distaccato) e narrativo (tipo racconto
o cronaca giornalistica); lo scopo è quello di trasmettere la parte più grande possibile della
propria esperienza;
• il fine ultimo è naturalmente quello di elaborare qualche generalizzazione o teorizzazione.
vedi anche pagg 385 a 391.
MICROSOCIOLOGIA
In sociologia l’osservazione partecipante è stata applicata allo studio dei momenti banali della
quotidianità, ritenuti carichi di significati per lo più sfuggenti agli stessi attori sociali. Contributi nel
campo della micro-sociologia sono giunti da parte dell’interazionismo simbolico con Blumer, Mead
e Goffman e da parte dell’etnometodologia con Garfinkel (allarga! pag391-397)
I problemi e gli aspetti negativi dell’osservazione partecipante sono:
• risulta essere estremamente soggettiva, ossia troppo dipendente dagli occhi e dalla mente del
ricercatore;
• l’esiguità del numero di casi studiati rende improponibile una generalizzazione dei risultati;
• la non standardizzazione delle procedure rende difficile descrivere ed insegnare la tecnica;
• la difficoltà di realizzazione, in termini di risorse e tempi necessari.
A prescindere da tutto ciò l’osservazione partecipante ha arricchito in maniera incredibile il panorama
della ricerca sociale.

L’INTERVISTA QUALITATIVA
Consiste in una conversazione provocata dall’intervistatore, rivolta ad un consistente numero di
soggetti scelti sulla base di un piano di rilevazione, avente finalità conoscitive e guidata
dall’intervistatore, sulla base di uno schema flessibile.
Le differenze tra l’intervista quantitativa e l’intervista qualitativa sono molte e rilevanti:
1. assenza di standardizzazione: la voce predominante deve essere quella dell’intervistato, lo
strumento deve essere flessibile e produce dati disomogenei e difficilmente confrontabili
(403);
2. comprensione contro documentazione, contesto della scoperta contro contesto della
giustificazione es. pag 404;
3. assenza del campione rappresentativo: i casi sono scelti non per la loro rappresentatività ma
per l’interesse che suscitano al ricercatore (405);
4. approccio case-based (sul soggetto) contro approccio variable-based; il punto di partenza è
rappresentato dall'individuo non dalla variabile, perchè si vogliono capire le manifestazioni
nella loro individualità, costruire dei modelli, delle tipologie, delle sequenze, a partire dai
casi analizzati nella loro interezza.
Tipi di intervista qualitativa:
• intervista strutturata: le domande sono sempre le stesse e nello stesso ordine; le risposte sono
libere (è una tecnica ibrida, media i due approcci quanti e quali, pertanto raggiunge minori
capacità di standardizzazione e non va in profondità quanto un'intervista non strutturata);407
e 409

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

• intervista semi-strutturata: vi è solo una traccia recante gli argomenti da toccare, è un


perimetro entro cui stare ma entro cui muoversi liberamente;
• intervista non strutturata: non è fissato neppure il contenuto delle domande (intervista in
profondità); l’intervistatore presenta un tema che vuole trattare e lascerà parlare l’individuo,
incoraggiandolo ad approfondire, arginando le divagazioni. I tempi sono calibrati su quelli
dell’intervistato: la durata può essere di diverse ore e richiedere più sedute; ogni colloquio è
un caso a sé e i dati raccolti saranno diversi da caso a caso la scelta dei vari metodi dipende
dagli obiettivi della ricerca, 414
• intervista non direttiva (non è fissato neppure l’argomento, originaria dalla psicoterapia) e
intervista clinica (fortemente guidata da per es uno psicologo o assistente sociale, ha finalità
di tipo terapeutico più che conoscitivo, si scava nella personalità del paziente); queste
metodiche interessano poco il sociologo che vuole capire i fatti sociali.
• intervista ad osservatori privilegiati: sono persone esperte riguardo al fenomeno studiato,
anche se possono far parte o meno del gruppo (es gli avvocati in uno studio sulla delinquenza).
Può essere particolarmente utile nel momento esplorativo, di definizione dell’oggetto di
studio; molto utile nelle ricerche di tipo etnografico (vedi gli informatori del capitolo
precedente)
• intervista di gruppo: può essere produttiva di approfondimenti, nel senso che dall’arrabbiatura
dei partecipanti e dal loro contraddittorio può emergere l’intensità delle motivazioni e la carica
emotiva (vedi es sui simpatizzanti della Lega).
In genere c’è un focus group (mini gruppo di 6-12 persone tendenzialmente omogenee e che hanno
familiarità col tema in oggetto) ed un intervistatore professionista che si preoccupa di sviscerare il
problema (sul quale si è accuratamente preparato) in ogni suo aspetto e di controllare la dinamica
dell’interazione. Con questa tecnica si guadagna tempo. Esistono oggi anche focus group virtuali,
cioè componenti collegati tramite internet, che ovviamente consente vantaggi in termini di tempi e di
costi, ma essendo la relazione virtuale diversa da quella face to face anche i risultati potrebbero essere
diversi.
CONDUZIONE DELL'INTERVISTA
Realizzare una buona intervista qualitativa è un’arte difficile: l’intervistatore deve far parlare
l’intervistato, limitandosi a qualche cauto intervento, e deve riuscire ad accedere al mondo del
soggetto. Deve stabilire un rapporto di fiducia non facile da instaurare (PAG 418 419).
Altri aspetti importanti:
• IL PUNTO è FARGLI CAPIRE COSA VOGLIAMO DA QUESTA persona; le spiegazioni
preliminari: essendo generalmente ridotto il numero di casi da studiare, è possibile curare
maggiormente l’aspetto della presentazione, con lettere e telefonate preliminari. E’ importante
far capire al soggetto che cosa si vuole da lui;
• domande primarie (impostano il tema) e domande secondarie (lo approfondiscono); 419 420
• domande sonda: in realtà sono stimoli attraverso i quali si cerca di far parlare il soggetto,
abbassare le sue difese, a dare più dettagli, i modi sono vari: ripetizione della domanda in
forma differente, ripetizione della risposta con invito a chiarire, espressione di interesse,
pausa, richiesta di approfondimento esplicita;
• linguaggio: può variare sulla base del soggetto che ci si trova di fronte; non è indispensabile
parlare lo stesso linguaggio, ma talvolta è importante far capire che si è avuto modo di
sperimentare sulla propria pelle quel mondo;
• ruolo dell’intervistatore: è determinante e complesso; è importante incoraggiare senza alterare
il pensiero; sono necessari “conforto e comprensione”; più lo strumento di rilevazione è aperto
e poco standardizzato e più è necessaria l’abilità dell’intervistatore.421 422
Le interviste qualitative devono essere sempre condotte faccia a faccia e possibilmente devono essere
registrate e integralmente trascritte, è necessario, eventualmente, far accettare l’uso del registratore.
ANALISI DEL MATERIALE EMPIRICO

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

E’ caratterizzata dai seguenti aspetti:


• l’approccio è di tipo olistico: l’individuo è studiato nella sua interezza, non è “scomposto in
variabili”;
• la presentazione dei risultati è di tipo narrativo, facendo seguire a paragrafi di
un’argomentazione dei brani di intervista a sostegno ed a illustrazione pag 424;
• nel caso di intervista strutturata è possibile azzardare un procedimento di codifica a posteriori,
dopo avere esaminato tutte le risposte ottenute; naturalmente ciò che viene codificato è solo
una parte dell’intervista, una sorta di minimo comune denominatore che verrà presentato in
tabelle (ha senso solo se il numero di casi considerato è consistente). La parte specifica
dell’intervista, diversa da caso a caso, non verrà perduta, ma sarà presentata sotto forma di
narrazione;pag 426
• la mancanza di standardizzazione (punto di forza e debolezza delle interviste qualitative)
consente all’intervistatore di andare alla scoperta di nuove ed inattese ipotesi, consente
all’intervistato di far risaltare il suo punto di vista, rende problematica la valutazione
quantitativa e rende difficile sia confrontare che inferire (vedi pag 428 - 429). Effettivamente
la profondità dell’intervista richiede un numero di casi limitato che rende praticamente
impossibile la questione dell’inferenza;
• nonostante i limiti pochi studiosi negano l’utilità dell’analisi in profondità;
• l’approccio qualitativo può essere utile anche al servizio dell’analisi quantitativa, ad esempio
per approfondire temi emersi da quest’ultima oppure in sede di studio esplorativo.

IL FOCUS GROUP
Il focus group è una tecnica di raccolta delle informazioni che coinvolge più intervistati
contemporaneamente (intervista di gruppo).
Normalmente, si tratta di persone che condividono una situazione o un’esperienza particolare, che è
oggetto della ricerca.
I partecipanti al focus group vengono invitati a discutere tra loro di un particolare argomento o
insieme di argomenti tra di essi collegati (focus), quello o quelli che la ricerca ha interesse a «mettere
a fuoco» e ad approfondire.
ORGANIZZARE UN FOCUS GROUP
IL GRUPPO
Deve essere composto da 6-10 persone (abbastanza grande da generare una discussione ampia, non
tanto grande da escludere qualcuno). Le persone sono selezionate in base agli obiettivi di ricerca
(random, membri di una organizzazione, esperti su un particolare tema, ecc.).
Il Gruppo deve essere un gruppo di pari o dove le differenze di status non siano immediatamente
visibili. (NO a persone in livelli gerarchici diversi e nella stessa organizzazione!!)
LA TRACCIA DI INTERVISTA
Traccia simile all’intervista focalizzata. Una serie di domande articolate in aree tematiche, che
servono a stimolare e guidare la conversazione. Un buon moderatore può limitarsi a porre ben poche
domande!
IL MODERATORE
ha il compito di:
• Presentare l’oggetto della discussione,
• definire le regole e aprire la discussione con una domanda generica ma che favorisce il
coinvolgimento.
• Guidare la conversazione evitando che si perda di vista il focus tematico.
• Agevolare la partecipazione di tutti ed evitare che la discussione sia dominata da un leader.
• Mantenere una posizione di neutralità, evitando di esprimere le proprie opinioni e valutazioni.
VANTAGGI

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

L’assunto su cui il focus group si basa è che nell’interazione diretta con altre persone sia più facile
far emergere ed esprimere in modo immediato e spontaneo non solo opinioni, ma anche sentimenti,
motivazioni, riferimenti a valori, immagini di realtà.
Il confronto con gli altri agevola i partecipanti nel definire, chiarire, approfondire e comunicare in
modo articolato e coerente la propria posizione, l’interazione con gli altri favorisce la riflessione e
l’analisi, e può stimolare l’emergere di idee nuove, di «cose» che altrimenti non sarebbero venute in
mente e la discussione può sollecitare il ricordo e far affiorare elementi che, diversamente,
rimarrebbero inespressi. L’interazione tra «pari» indebolisce i meccanismi di difesa che spesso sono
a monte di sospetti, timori, esitazioni, reticenze e più in generale, della tendenza a non rispondere in
modo sincero e collaborativo all’intervistatore.
Il rapporto di complicità e di reciproco sostegno tra i partecipanti aiuta ad affrontare argomenti
particolarmente delicati e imbarazzanti, riducendo in tal modo la propensione di alcuni a dare
informazioni su di sé in termini di «desiderabilità sociale».
Si tratta di un metodo efficiente in termini di risorse temporali ed economiche.
SVANTAGGI
Può favorire il group-think e la conformità sociale, può creare inibizioni nei singoli soggetti a causa
di una diseguale distribuzione di conoscenze, di competenze dialogiche e di potere, può favorire un
approccio superficiale ai problemi a spese dell’approfondimento. E’ molto più complesso da gestire
da parte del ricercatore/facilitatore.
Discussione di casi concreti in ambienti e su temi diversi.

INTERVISTA BIOGRAFICA
Intervista condotta sulla base di una traccia più o meno strutturata – in certi casi analoga a quella di
un’intervista libera non strutturata, in altri a quella di un’intervista focalizzata - partendo da un invito
volutamente generico, rivolto dall’intervistatore all’intervistato, a raccontare la vicenda della propria
esistenza, iniziando da un momento qualunque e seguendo un percorso discorsivo che egli stesso può
liberamente scegliere.
Alcuni autori distinguono tra resoconto storico (life history) e storia di vita (life story).
Il primo è mirato a cogliere un aspetto specifico della vita di una persona (la famiglia, il lavoro, ecc.),
mentre la seconda investe la vita intera.
Da qui il ricorso, da parte dell’intervistatore, a tracce diversamente strutturate per la conduzione
dell’intervista: una traccia più strutturata per il resoconto storico e una, invece, meno strutturata nel
caso della storia di vitaàin questo modo si pone maggior enfasi sulla libera «creatività» del narratore
à l’intervistatore assume un semplice ruolo di guida e di facilitatore in un processo aperto e di
prioritaria competenza dell’intervistato.

TECNICA DELLE SCALE


La tecnica delle scale consiste in un insieme di procedure messe appunto per misurare concetti
complessi e non direttamente osservabili, per operativizzare concetti complessi è necessario utilizzare
concetti specifici chiamati indicatori che sono legati da un rapporto di indicazione con il concetto
originale, cioè una sovrapposizione parziale di significato.
L’unico modo per misurare concetti complessi è quello di usare un insieme coerente ed organico di
indicatori, mettendo anche appunto criteri intersoggettivi per controllare l’effettiva sovrapposizione
fra indicatori e concetto e la completezza della procedura. Possiamo dire che la scala è un insieme
coerente di elementi (item) che sono considerati indicatori di un concetto generale, il risultato finale
delle scale è un punteggio basato sulle risposte. La tecnica delle scale è usata soprattutto per misurare
l’atteggiamento, dove l’unità di analisi è l’individuo il concetto generale è un atteggiamento (credenze
di fondo non rilevabili direttamente) e i concetti specifici sono le opinioni, concetto generale uguale
atteggiamento indicatori uguale opinioni. Le variabili prodotte dalla tecnica delle scale sono quasi
cardinali perché benché la proprietà studiata sia spesso è un continuum, non si è capaci di definire

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

un’unità di misura convenzionale. Le scale sono costituite da una batteria di domande, ossia da
domande formulate allo stesso modo e presentate in un unico blocco.
Principali vantaggi:
Risparmio di spazio e tempo, facilitare la comprensione del meccanismo di risposta, consentire la
costruzione di indici sintetici.

TIPOLOGIA DI DOMANDE
Risposte semanticamente autonome
• Ogni risposta ha un significato compiuto;
• Non è necessario conoscere il significato di tutte le alternative;
• È garantito solo l’ordine delle modalità non è nota la distanza tra loro;
• L’intervistato sceglie una categoria per il suo contenuto, indipendentemente dalla
posizione nei confronti delle altre.
Risposte a parziale autonomia semantica
• Il significato di ogni categoria è solo parzialmente autonomo dalle altre;
• Non si può affermare che le diverse modalità di risposta sono fra loro equidistanti;
Scale auto-ancoranti
• Solo le due categorie estreme sono dotate di significato;
• All’interno di un continuum l’intervistato colloca la sua posizione;
• L’unità di misura della scala è soggettiva.

SCALA DI LIKERT (SCALA ADDITIVA)


Scala del punteggio complessivo deriva dalla somma dei punteggi ai singoli elementi, il formato delle
domande è rappresentato da una serie di affermazioni per ognuna delle quali l’intervistato devi dire
in che misura è d’accordo, di solito ci sono cinque alternative di risposta da “molto d’accordo” a
“fortemente contrario” queste sono domande con parziale autonomia semantica. La costruzione della
scala avviene in quattro fasi:
1. Formulazione delle domande si individuano le dimensioni dell’atteggiamento e si formulano
le affermazioni che coprano i vari aspetti del concetto generale che si vuole rilevare.
Scomporre il concetto originario (atteggiamento) in varie dimensioni. Individuazione
affermazioni (numero elevato) per cui l’intervistato dovrà esprimere accordo o disaccordo.
Gli items vanno ripartiti tra favorevoli e contrari. Fonti: interviste in profondità a gruppo
rappresentativo, pubblicazioni di vario tipo (libri, articoli), ricerche affini. Definire le
modalità di risposta (quattro-sette) le alternative deve essere bilanciate, ad ogni modalità di
risposta è assegnato un punteggio si presuppone l’equidistanza tra le categorie di risposta.
2. Somministrazione delle domande sottoposta ad un campione di intervistati e per ciascun
soggetto viene calcolato il punteggio complessivo (somma di punteggi riportati in ogni
singolo item).
3. Analisi degli elmenti si selezionano le domande si valuta il grado di coerenza interna della
scala cioè se misura effettivamente il concetto in esame, il presupposto è che tutti gli elementi
siano correlati con uno stesso concetto sottostante e che questa sia anche la percezione degli
intervistati, si valuta l’unidimensionalità della scala ovvero che tutti i vari elementi non
sottintendono a concetti estranei a quello studiato, se così non fosse vanno eliminati dalla
scala. Verifica che tutte le affermazioni inserite nella scala discriminano gli individui con
atteggiamenti differenti e l’unidimensionalità della scala, ossia che le stesse affermazioni
sono relative ad uno stesso oggetto: correlazione item-scala, alfa di Cronebach, analisi
fattoriale.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

4. Controllo di validità (più usati nella ricerca psicologica).


I vantaggi della scala di Likert sono:
1. semplicità di costruzione;
2. basata su dati empirici raccolti da indagini pilota.
I limiti della scala Likert sono:
1. Scala ordinale cioè risposta con parziale autonomia semantica trattata come cardinale
(sommando i punteggi)
2. Non riproducibilità della scala, il punteggio totale di un individuo può dipendere da
combinazioni diverse di risposte date alle affermazioni (si possono avere uguali punteggi ma
dati con risposte diverse)
3. Fenomeno della curvilinearità, si ha quando un elemento è disapprovato sia da chi ha un
atteggiamento positivo-favorevole, sia da chi ha un atteggiamento opposto, ciò comporta una
equivalenza numerica ma non sostanziale. Esempio la migliore forma di governo è quella
democratica-rappresentativa, può essere respinto sia da chi è favorevole ad un regime
autoritario sia da chi preferisce delle forme di democrazia dirette.
Tabella 1 Scala Likert

Esprima il suo grado di accordo/disaccordo rispetto alle seguenti affermazioni:


Completamente D’accordo Incerto In disaccordo Completamente
d’accordo in disaccordo
1. Il mio lavoro attuale 5 4 3 2 1
è gratificante, da
soddisfazioni

2. Il mio lavoro attuale 1 2 3 4 5


è caotico e
disorganizzato

3 Il mio lavoro attuale 1 2 3 4 5


è stressante, procura
angoscia, tensione

4 Il mio lavoro attuale 5 4 3 2 1


è interessante

5 Il mio lavoro attuale 5 4 3 2 1


è ricco di contatti
umani

6 Il mio lavoro attuale 1 2 3 4 5


è anonimo,
impersonale

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

SCALA DI DISTANZA SOCIALE BOGARDUS


Con questa scala si vuole studiare il modo e l’intensità con cui le persone percepiscono e sono portate
ad accettare relazioni sociali in differenti situazioni di interazione sociale. Se l’individuo è disposto
ad accettare più punti di contatto sociale sarà favorevole verso la tipologia di individui analizzati o
viceversa.
Tabella 2Scala Bogardus

Visitatore Vicino Amico Coniuge Punteggio Tot


1 1 1 1 4
1 1 1 0 3
1 1 0 0 2
1 0 0 0 1
0 0 0 0 0

Scalogramma di Guttmann - O CUMULATIVA


La scala di Guttmann nasce con l’obiettivo di fornire una soluzione al problema
dell’unidimensionalità della scala di Likert e consiste in una sequenza di gradini, una successione di
elementi aventi difficoltà crescente, in modo che chi ha risposto affermativamente ad una certa
domanda deve aver risposto affermativamente anche a quelle che la precedono nella scala di
difficoltà. In questo modo, se gli elementi della scala sono perfettamente scalati, solo alcune sequenze
di risposte sono possibili; inoltre dal risultato finale è possibile risalire alle risposte date dal soggetto
ai singoli elementi della scala (riproducibilità). Questa tecnica prevede solo elementi dicotomici, cioè
ogni domanda può avere solo due risposte opposte e distinte (es solo sì/no, a differenza delle scale di
Likert). Le due risposte possibili vengono di solito contrassegnate con i numeri 0 e 1.
Tabella 3 Scala di Guttmann

Lei sarebbe disposto ad avere una persona di colore…


Come visitatore Come vicino Come amico Come sposo Punteggio
1 1 1 1 4
1 1 1 0 3
1 1 0 0 2
1 0 0 0 1
0 0 0 0 0
Se gli elementi sono scalati perfettamente, alcune sequenze di risposta non dovrebbero verificarsi
(non dovrebbe accadere quindi che, facendo riferimento all’esempio precedente, una persona
risponde che sarebbe disposto ad avere una persona di colore come sposo ma non come vicino di
casa); da qui ne consegue una certa riproducibilità delle singole risposte.
Anche la scala di Guttmann segue tre-quattro fasi nella sua costruzione. La prima è quella della
formulazione delle domande, con considerazioni analoghe a quelle relative alla scala di Likert tranne
che le domande devono essere dicotinomiche e disposte secondo un ordine crescente di forza. Anche
la seconda fase (Somministrazione) è simile a quella della scala di Likert con il vantaggio che la
forma binaria agevola le risposte rende più veloce la compilazione (anche se talvolta la forte
semplificazione indotta dal carattere binario delle scelte può creare problemi all’intervistato infatti la
compilazione risulta più veloce ma l’intervistato non ho la possibilità di graduare l’intensità delle
proprie posizioni. Terza fase la specificità della scala di Guttmann sta nell’analisi dei risultati quando
si valuta la scalabilità degli elementi, si scartano quelli meno concreti con il modello, si stabilisce un
indice di scalabilità della scala e se accettarla o meno. In primo luogo si devono individuare gli errori
della scala, cioè le risposte che non si inseriscono nelle sequenze previste nel modello, per questo si
utilizza un indice (coefficiente di riproducibilità) che misura il grado di scostamento della scala
osservata dalla scala perfetta. Questo indice può variare da zero a uno; per poter essere accettabile, il

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

valore dell’indice deve essere maggiore o uguale a 0,90 (Cioè errori pari o inferiori al 10% delle
risposte). CR =1- n°errori/n°totale risposte
Esiste anche un altro indice, detto di minima riproducibilità marginale, che segnala il valore minimo
al di sotto del quale il coefficiente riproducibilità non può scendere, quali che siano le sequenze delle
risposte. Esso deve essere confrontato con il coefficiente di riproducibilità, solo se il secondo, oltre
ad essere maggiore di 0,90, e anche nettamente superiore al primo si può affermare che la buona
riproducibilità della scala è dovuta ad un’effettiva scalabilità dei suoi elementi e non alla distribuzione
marginale delle risposte. Quarta fase analisi dei risultati procedura di individuazione degli errori,
riordinando le righe e le colonne della matrice dati delle risposte sulla base del punteggio ottenuto e
del numero di risposte affermative ottenuto, gli errori sono facilmente individuabili.
Il coefficiente di riproducibilità misura il grado di scostamento della scala osservata dalla scala
perfetta cioè proporzione di risposte esatte (teoriche) sul totale delle risposte.
Suggerimenti: evitare elementi poco discriminanti (troppe risposte sì o troppe risposte no); numero
sufficientemente elevato di elementi; ispezionare attentamente le sequenze erronee;
I limiti dello scalo gramma di Guttmann:
1. Il punteggio finale che si ottiene sulla variabile latente resta una variabile ordinale (o quasi
cardinale);
2. Quando l’atteggiamento diventa complesso può essere difficile riuscire a scalarlo in
sequenze cumulative per cui gli errori possono risultare numerosi;
3. Il modello risulta essere rigidamente deterministico, mentre la realtà sociale può essere
correttamente interpretata solo attraverso modelli probabilistici che contemplino la
possibilità di errore e il passaggio graduale fra le posizioni.

DIFFERENZIALE SEMANTICO SCALA DI OSGOOD


La tecnica del differenziale semantico si propone di rilevare con il massimo della standardizzazione
il significato che i concetti assumono per gli individui (che cosa questo concetto-patria, madre,
guerra-significa per te). Il modo più semplice per scoprire cosa significa una certa cosa per una certa
persona è quello di chiederglielo direttamente, ma solo le persone intelligenti, istruite e con eccellenti
capacità verbali possono fornire dati utilizzabili. La tecnica del differenziale semantico supera questi
limiti in quanto si basa sulle associazioni che l’intervistato instaura tra il concetto in esame e altri
concetti proposti in maniera standardizzata a tutti gli intervistati. È una tecnica che si propone di
rilevare il significato che certi concetti assumono per gli intervistati basandosi sull’associazione fatta
dal soggetto con altri concetti proposti a tutti in maniera standardizzata. Osgood propone 50 coppie
di attributi polari (esempio: dolce-amaro) E sette posizioni per graduare l’intensità del giudizio la
lista degli attributi non deve variare in base all’oggetto di studio; il test risulta facile ed accettato dai
soggetti. Vi sono attributi in grado di far risaltare la valutazione, la potenza e l’attività di un certo
concetto. In concreto si utilizzano una serie di scale auto-ancoranti nelle quali solo le categorie
estreme hanno significato autonomo, mentre il significato graduato delle categorie intermedie viene
stabilito dal giudizio dell’intervistato. La lista di questi attributi bipolari non deve avere
necessariamente relazione con l’oggetto valutato e quindi deve essere sempre la stessa. Il numero
delle domande di solito va dalle 12 alle 50, in base al disegno della ricerca. Il modo più importante
per utilizzare il differenziale semantico è rappresentato dall’esplorazione delle dimensioni dei
significati. Si ritiene cioè che attraverso l’analisi fattoriale sia possibile determinare quali sono le
dimensioni fondamentali che stanno dietro al giudizio di un certo campione di soggetti intervistati, in
linea generale, si possono trovare tre dimensioni fondamentali: la valutazione, la potenza e l’attività,
in ordine di importanza. La valutazione sembra rappresentare l’atteggiamento verso un certo oggetto.
Il contributo più importante della tecnica del differenziale semantico è proprio quello di aver
introdotto la multidimensionalità dei significati nella struttura degli atteggiamenti.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Tale tecnica non si basa sulla descrizione soggettiva e diretta del significato da parte dell’intervistato
ma sulle associazioni che gli instaura tra ciascun concetto ed altri proposti in maniera standardizzata.
Il concetto viene così valutato su una serie di aggettivi contrapposti, separati da una scala grafica.
Tabella 4 Scala di OsGood

Dove collocherebbe il politico X rispetto alle coppie di qualità riportate sotto?


1 2 3 4 5 6 7
Conservatore Innovatore
Democratico Autoritario
Disonesto Onesto
Sincero Mentitore
Ateo Religioso
Debole Forte

I limiti della scala di Osgood:


• Definire ed identificare coppie di aggettivi completamente bipolari dal punto di vista
semantico;
• Trovare aggettivi che siano ugualmente significativi per il ricercatore e l’intervistato.
Accorgimenti:
• Utilizzare coppie aggettivi “apparentemente” estranee al tema in esame.
• Richiedere all’intervistato di non riflettere a lungo ma di rispondere d’istinto (reazione
emozionale).
• Proporre in modo casuale la polarità alterando gli aggettivi con direzione diversa.

Le fonti di dati
Nella ricerca sociale il concetto di fonte può avere una pluralità di significati.
In termini generali rappresenta un qualunque tipo di documento o di procedimento che consenta di
acquisire notizie, informazioni o dati che si riferiscono a fenomeni, avvenimenti, gruppi sociali,
collocati in un certo contesto e relativi a un certo momento temporale.
Schematicamente, i dati che il ricercatore sociale utilizza possono provenire da fonte orale o da fonte
scritta.
Per fonte orale intendiamo le notizie emerse nel corso di colloqui, interviste, incontri.
Per fonte scritta, invece, assumiamo tutti i documenti scritti, sia di carattere narrativo (per es.
documenti di archivio, biografie, lettere personali, storie di piccoli gruppi, etc.), sia di natura
statistica, vale a dire documentazioni, pubblicazioni con informazioni quantitative inerenti gruppi di
popolazione e caratteri economici, sociali, politici.
Le fonti statistiche
I possibili criteri di classificazione delle fonti statistiche sono molteplici.
Due fattori importanti da considerare per distinguere tra le diverse fonti sono:
• Natura dell’ente produttore
• Scopo della rilevazione
Scopo
Conoscitivo Amministrativo
Enti istituzionali X X
Strutture scientifiche X
Organismi privati X X
Tabella 5

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Le fonti istituzionali
Chiamiamo istituzionali quelle fonti che raccolgono informazioni statistiche in base a normative di
legge.
La principale fonte istituzionale italiana è l’Istat con i suoi uffici decentrati, che in base alla legge
istitutiva (1929), deve «provvedere alla compilazione, alla illustrazione e alla pubblicazione delle
statistiche generali e speciali, disposte dal governo e (deve) effettuare direttamente...indagini
statistiche che possano comunque interessare l’azione del governo».
Dal 1989 l'Istat svolge un ruolo di indirizzo, coordinamento, assistenza tecnica e formazione
all'interno del Sistema statistico nazionale (Sistan). Il Sistema è stato istituito con il d. lgs. 322/1989
come modificato dal dpr 166/2010 per razionalizzare la produzione e diffusione delle informazioni e
ottimizzare le risorse destinate alla statistica ufficiale.
Del Sistan fanno parte l'Istat, gli enti e organismi pubblici d'informazione statistica (Inea, Isfol); gli
uffici di statistica delle amministrazioni dello Stato e di altri enti pubblici, degli Uffici territoriali del
Governo, delle Regioni e Province autonome, delle Province, delle Camere di commercio (Cciaa),
dei Comuni, singoli o associati, e gli uffici di statistica di altre istituzioni pubbliche e private che
svolgono funzioni di interesse pubblico.
Questi enti, cui lo Stato ha delegato competenze funzionali, possono raccogliere informazioni di
supporto per l’espletamento di tali funzioni, per il controllo delle decisioni assunte e per l’erogazione
di servizi pubblici ai cittadini. Si tratta, pertanto, di enti che possono rilevare informazioni sia di
carattere conoscitivo che di natura amministrativa (process-produced data).
Le fonti private e scientifiche
Private
Questa categoria di fonti è costituita da società e strutture private: associazioni, consorzi,
organizzazioni sindacali di lavoratori dipendenti e dei datori di lavoro, uffici e studi di aziende private.
Scientifiche
Gli enti di natura scientifica, tra cui ricordiamo il Consiglio nazionale delle ricerche, le Università, il
Censis, alcune fondazioni, gli Istituti di ricerca (anche presso enti amministrativi), sono enti che
raccolgono dati primari e/o utilizzano, rielaborandole, le informazioni già disponibili presso altri enti
o strutture.
Alcune fonti scientifiche più accreditate sono anch’esse parte del Sistan.
Fonti per scopo della rilevazione: fonti amministrative
I dati di natura amministrativa sono prodotti dall’attività amministrativa (process-produced data)
delle istituzioni pubbliche o con funzione pubblica.
Consentono di acquisire informazioni regolarmente aggiornate su individui od enti.
Le più note di queste rilevazioni sono sicuramente le anagrafi o registri della popolazione. Esse sono
tenute dalle amministrazioni comunali ed hanno la funzione di registrare nominativamente gli abitanti
residenti nel comune.
Altri esempi di rilevazioni amministrative sono il registro delle imprese, il PRA (Pubblico registro
automobilistico) e le liste elettorali.
Fonti per scopo della rilevazione: fonti conoscitive
DATI CENSUARI
Censimento generale dell’agricoltura
Censimento generale dell’industria e dei servizi
Censimento generale della popolazione e delle abitazioni.
I censimenti generali sono indagini esaustive a cadenza decennale che descrivono le caratteristiche
demografiche, sociali, economiche del Paese microarea per microarea.
VANTAGGIàesaustività e copertura geografica completa.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

SVANTAGGI à costi elevati e scarsa tempestività. Nel 2011, la prima realizzazione web assistita.
Tuttavia:
I costi restano alti e concentrati nel tempo.
Lo sfruttamento dei dati amministrativi resta contenuto e inferiore alle potenzialità
offerte dal contesto italiano.
Il prodotto informativo censuario continua a invecchiare presto, limitando l’offerta di informazione
statistica per grandi dettagli territoriali a un momento raro nel tempo.
(art. 3 DL 179/2012) Censimento continuo della popolazione e delle abitazioni e Archivio Nazionale
delle Strade e dei Numeri Civici (ANSC).
DATI DA INDAGINI CAMPIONARIE
Si tratta di dati che provengono da rilevazioni rivolte non a tutte le unità della popolazione ma soltanto
a una parte e, in particolare, a un campione rappresentativo della popolazione stessa.
VANTAGGI àcosti inferiori e ampio approfondimento.
SVANTAGGI àminore attendibilità e rappresentatività
generalmente limitata a macroaree territoriali. Esempi importanti sono le indagini ISTAT su:
Le forze di lavoro (rilevazione trimestrale)
Il sistema di Indagini Sociali Multiscopo:
• Aspetti della vita quotidiana (annuale)
• Viaggi e vacanze (trimestrale)
• Condizioni di salute e ricorso ai servizi sanitari (quinquennale)
• I cittadini e il tempo libero(quinquennale)
• Sicurezza dei cittadini (quinquennale)
• Famiglie e soggetti sociali (quinquennale)
• Uso del tempo (quinquennale).

UNITA’ DI ANALISI TERRITORIALI


Oggetto della ricerca e unità di analisi
Gli OGGETTI del discorso scientifico sono i “soggetti” sociali della ricerca scientifica a cui si
riferiscono le proprietà studiate. Ciascuna disciplina scientifica ha i suoi “oggetti”:
Biologia —> cellule
Etologia —> animali
Scienze sociali —> individui, famiglie, organizzazioni, paesi, comuni
Le UNITA’ Di ANALISI sono quindi i tipi di oggetti di cui si occupa una determinata ricerca
scientifica:
Biologia —> unità- cellule
Etologia —> unità- animali
Scienze sociali —> unità- individuo, unità- famiglia, unità- comune, ecc.
I casi sono il referente concreto dell’unità di analisi (individuo - unità di analisiàMario Rossi - caso)
Principali tipi di unità di analisi
• INDIVIDUI
• AGGREGATO
o GRUPPI DI INDIVIDUI
o ENTE (IMPRESA, ASSOCIAZIONE, PARTITO…)
o TERRITORIO (UNITA’ ECOLOGICA)
• ALTRO
o TESTO (ARTICOLO DI GIORNALE DOCUMENTO…)
o IMMAGINE FILMATO
o EVENTI SOCIALI

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Unità di analisi e unità di rilevazione


L’unità di analisi può non coincidere con l’unità di rilevazione, ossia l’unità sulla quale viene
realizzata concretamente la raccolta dei dati.
Se la nostra unità di analisi è l’individuo, allora unità di analisi e di rilevazione coincidono:
(es. la proprietà genere si può rilevare su ciascun individuo-caso).
Se la nostra unità di analisi è ecologica, allora l’unità di rilevazione può essere diversa e le proprietà
rilevate riferite a un livello inferiore.
Un caso tipico sono i dati di censimento che hanno una unità di analisi territoriale (regione, provincia,
comune) che quindi corrisponde al caso in riga nella matrice dei dati, ma come unità di rilevazione
la famiglia o l’individuo:
(es. il Numero di soggetti senza titolo di studio è il dato aggregato costruito sommando gli individui
senza titolo di studio in quel dato territorio).
Tipi di aggregati territoriali

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Le unità territoriali sono mutevoli


Problema della comparabilità nel tempo

La scelta dell’unità di analisi


Le unità amministrative hanno il vantaggio di essere:
• Definite (territorialmente e temporalmente) dal legislatore
• Ordinate gerarchicamente
Tuttavia, l’identità tra unità amministrativa e entità sociologica va sempre problematizzata alla luce
dell’obiettivo di ricerca.
Es. Una analisi del contesto riferita al fabbisogno di servizi sociali della Provincia di Roma può usare
come unità di analisi la Provincia (ora Roma città metropolitana)?
O meglio i Comuni?
O ancora i distretti socio-sanitari?
O meglio individuare altre caratteristiche di aggregazione (es. corone metropolitane)?
E la città di Roma coincide con il Comune di Roma?
Le unità amministrative sub-comunali (Municipi) sono soddisfacenti ai nostri fini?
Le unità amministrative funzionali e quelle non amministrative possono rappresentare l’unità di
analisi migliore per specifici obiettivi di ricerca (es. Asl, parrocchie).
Tuttavia, possono sorgere problemi legati alla:
• diversa dimensionalità
• diversi criteri di costruzione
• non sovrapponibilità di tali unità con quelle amministrative (es. Asl e province; Sistemi locali
di Lavoro, province e Regioni).
La scala con la quale si studia un fenomeno influenza i risultati di ricerca.
La scelta dell’unità di analisi è già parte dell’analisi del contesto.
Ciascuna unità ecologica assume che la distribuzione delle proprietà indagate sia costante all’interno
di ciascun caso.
Inevitabilmente, qualsiasi livello territoriale nasconde una parte di variabilità del fenomeno.
Il giudizio di appropriatezza, o per meglio dire di utilità, può essere dato solo in riferimento allo
specifico contesto di ricerca e agli obiettivi della stessa.
Limiti dell’analisi territoriale: indicatori hard vs. indicatori soft
L’aggregazione può contribuire a fornire una parvenza di oggettività, nascondendo l’origine (anche
soggettiva) del dato.

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

(es. dati censuari su livello di istruzione e tasso di analfabetismo a livello comunale).


à Molti degli indicatori complessi riferiti a unità territoriali derivano dall’aggregazione di dati di
natura diversaàcd. dati «oggettivi» e dati «soggettivi»
In realtà, tutti i dati sono costruiti.
Importanza di conoscere il processo di costruzione degli indicatori
à Metadati ossia dati che descrivono e definiscono altri dati in un determinato contesto e permettono
agli utilizzatori di interpretarli ed usarli correttamente).
Limiti dell’analisi territoriale: la fallacia ecologica
Gli studi ecologici possono incorrere nella cosiddetta FALLACIA ECOLOGICA, cioè l’errata
attribuzione agli individui di una relazione che invece esiste soltanto a livello di aggregati di individui.
Un esempio classico di fallacia ecologica risale allo studio di Émile Durkheim sul suicidio (1897).
Durkheim notò che, nei paesi in cui era più alta la percentuale di protestanti, era anche più alta la
percentuale di suicidi.
Durkheim concluse che “l’essere protestanti” aumentava il rischio di suicidio.
Questo non è necessariamente vero. Anzi, potrebbe anche essere vero il contrario nei paesi
“protestanti” potrebbero essere proprio i cattolici che, sentendosi discriminati, tendono a suicidarsi di
più. In realtà, la relazione ecologica può suggerire ipotesi, che però vanno verificate a livello
individuale. In assenza di tale verifica, non è possibile inferire da una relazione individuata a livello
aggregato una relazione tra i fenomeni a livello individuale.
Fallacia ecologica: correlazioni ecologiche e individuali
L’esempio di Robinson (1950).
Correlazione rilevata empiricamente tra la percentuale di neri e la percentuale di analfabeti rilevate
nel Censimento del 1930 negli Stati Uniti.
Coefficiente di correlazione = 0,95 se calcolato su nove aree geografiche
Coefficiente di correlazione = 0,20 se calcolato a livello individuale
Non si può inferire dal livello aggregato a quello individuale perché:
La correlazione ecologica è superiore a quella individuale.
Più si aggrega l’unità di analisi più aumenta il valore del coefficiente di correlazione.
Altri esempi di relazioni suscettibili di fallacia ecologica
1. Osservazione di una forte correlazione statistica inversa tra redditi e criminalità in una
determinata zona geografica.
Deduzione à persone con bassi redditi hanno maggiore tendenza a commettere crimini.
Esistono però numerose spiegazioni alternative:
• famiglie con bassi redditi non possono permettersi sistemi antifurto e quindi subiscono più
furti
• zone con bassi redditi ospitano con frequenza maggiore di altre zone tossicodipendenti, più
propensi a commettere reati indipendentemente dal loro reddito.
2. Osservazione di una percentuale di detenuti stranieri superiore alla proporzione degli stranieri nella
popolazione.
Deduzione à gli stranieri hanno maggiore tendenza a commettere crimini Spiegazioni alternative:
• minore capacità di difesa degli stranieri durante l’iter processuale;
• tipo di reati commessi dai migranti che prevede in misura maggiore il carcere;
• minore capacità-possibilità degli stranieri di accedere alle misure alternative al carcere, non
possedendo spesso i requisiti per poterle chiedere (un quinto degli stranieri è condannato per
reati connessi alla condizione di immigrato irregolare).

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)


lOMoARcPSD|22700486

Le relazioni spurie
Spesso, gli studi ecologici traggono in inganno perché evidenziano relazioni che in realtà sono spurie.
Le relazioni spurie si hanno quando due fenomeni risultano correlati tra loro ma non sono
necessariamente legati da un rapporto causa-effetto.
La significatività delle relazioni non è semplicemente un problema statistico ma soprattutto un
problema di conoscenza sociologica del fenomeno;
L’analisi ecologica consente (con le dovute accortezze) di connotare i contesti aggregati entro i quali
si svolge la vita degli individui;
Sarà compito del ricercatore individuare le connessioni di senso tra i risultati, formulando opportune
ipotesi interpretative sulla base delle informazioni rilevate ai diversi livelli di analisi (individuale e
territoriale).
Vantaggi e limiti dei dati ecologici
Vantaggi
•Consentono lo studio della dimensione macro (il contesto)

•Si riferiscono alla totalità della popolazione

•Consentono analisi longitudinali

•Sono economici, perché utilizzano dati già disponibili


Limiti
•Non consentono inferenze a livello individuale (micro)

•Possono riferirsi a unità di analisi non rilevanti per il ricercatore

•Unità di analisi e indicatori possono cambiare nel tempo

•Variabili e indicatori non sono progettati dal ricercatore

Scaricato da Lil M00llY (marco.disfunzione@gmail.com)

Potrebbero piacerti anche