Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Sommario
PARADIGMA .............................................................................................................................................2
POSITIVISMO ............................................................................................................................................2
NEOPOSITIVISMO-POSTPOSITIVISMO .......................................................................................................3
INTERPRETATIVISMO ................................................................................................................................3
TEORIA ......................................................................................................................................................5
IPOTESI .....................................................................................................................................................6
CONCETTO ................................................................................................................................................6
VARIABILI ..................................................................................................................................................7
IL CAMPIONAMENTO ..............................................................................................................................19
PARADIGMA
Il paradigma in campo filosofico a origini antichissime Platone utilizza il termine nell’accezione di
modello mentre Aristotele nell’accezione di esempio. Nella sociologia il primo ad aver introdotto il
paradigma è stato Kuhn con la sua opera “la struttura della rivoluzione scientifica” in cui rifiuta la
tradizionale concezione della scienza come accumulazione progressiva di nuove scoperte affermando
che in certi momenti detti rivoluzionari si interrompe il rapporto di continuità con il passato e si inizia
un nuovo corso, in modo non completamente razionale. Con il termine paradigma ci si riferiva ad una
prospettiva teorica con i seguenti requisiti:
1. Che è condivisa e riconosciuta da tutti gli scienziati di una certa disciplina;
2. Che è fondata sulle acquisizioni precedenti della stessa disciplina;
3. Che indirizza la ricerca individuando i fatti da studiare formulando ipotesi su un determinato
fenomeno e approntando le tecniche di ricerca empirica necessaria. Senza un paradigma una
scienza non ha i criteri, né tecniche né problemi, perché tutti i criteri, le tecniche e i problemi
diventano ugualmente rilevanti. Il paradigma è una guida e fornisce agli scienziati un
modello e le indicazioni per costruirlo, con esso acquisisce contemporaneamente, teorie,
metodi e criteri.
Il paradigma è qualcosa di più ampio di una teoria, è una visione del mondo, una finestra mentale,
una griglia di lettura che precede l’elaborazione teorica.
POSITIVISMO
Il paradigma positivista studia la realtà sociale utilizzando gli apparati concettuali le tecniche di
osservazione e misurazione, gli strumenti di analisi matematica e i procedimenti di inferenza delle
scienze naturali. Per apparati concettuali intendiamo le categorie di legge naturale, di causa effetto,
di verifica empirica, di spiegazione; per tecniche di osservazione e misurazione intendiamo l’uso di
variabili quantitative anche per fenomeni qualitativi, le procedure di misurazione applicate a
orientamenti ideologici, capacità mentali, stati psichici. Per strumenti di analisi matematica
intendiamo l’uso della statistica, dei modelli matematici. Procedimenti di inferenza cioè il passaggio
dall’osservazione particolare alla legge generale.
Il primo vero sociologo positivista è stato Durkheim, il quale ha tradotto i principi del positivismo in
prassi empirica, la quale si fonda sulla teoria del fatto sociale. I fatti sociali sono modi di agire, di
pensare, di sentire che presentano la proprietà di esistere al di fuori delle coscienze individuali, ad
esempio, quando si assolvono i doveri di marito o di cittadino, i quali sono doveri definiti, al di fuori
di sé stessi e dei propri atti, nel costume nel diritto. Tali doveri non sono stati fatti dall’essere umano,
ma sono stati ricevuti attraverso l’educazione, analogamente per quanto riguarda le credenze e le
pratiche della vita religiosa il sistema dei segni il sistema monetario. I fatti sociali anche se non sono
entità materiali hanno le stesse proprietà delle cose del mondo naturale, essi non sono soggetti alla
volontà dell’uomo anzi resistono al suo intervento, lo condizionano e lo limitano. Il mondo sociale
così come il mondo naturale e regolato da leggi, studiabili oggettivamente. Da qui nasce l’assunto di
una unità metodologica fra mondo naturale e mondo sociale, in quanto si possono studiare con la
stessa logica e lo stesso metodo.
• Esiste una realtà sociale al di fuori dell’individuo;
• Questa realtà sociale è oggettivamente è conoscibile;
• Essa è studiabile con gli stessi metodi delle scienze naturali.
L’obiettivo delle regole di Durkheim è di estendere alla condotta umana il razionalismo scientifico.
Nel positivismo il razionalismo è induttivo, per induzione si intende il passaggio dal particolare
all’universale il processo per il quale dall’osservazione empirica si arriva a generalizzazioni o a leggi
universali. Alla base del positivismo c’è sempre l’entusiasmo per la conoscenza positiva di tipo
scientifico e la considerazione della scienza e del suo mezzo come unica conoscenza valida ed
efficace in tutti i campi del sapere umano.
NEOPOSITIVISMO-POSTPOSITIVISMO
Per poter superare i limiti intrinseci del positivismo nasce un nuovo movimento filosofico
chiamato il neopositivismo e successivamente il post positivismo. In questo movimento di
pensiero sono centrali le questioni epistemologiche e uno dei postulati è la convinzione che il
senso di un’affermazione derivi dalla sua verificabilità empirica. La conseguenza della diffusione
del neo positivismo fu lo sviluppo di un nuovo modo di parlare della realtà sociale, utilizzando un
linguaggio tipico della matematica e della statistica, detto linguaggio delle variabili. Ogni oggetto
sociale a cominciare dall’individuo veniva definito sulla base di attributi e proprietà cioè le
variabili, i fenomeni sociali analizzati in termini di relazione fra variabili. In questo modo la
variabile diveniva la protagonista dell’analisi sociale, con tale metodo tutti i fenomeni sociali
potevano essere rilevati, misurati, correlati, elaborati e formalizzati e le teorie convalidate o
falsificate in modo oggettivo e senza ambiguità. Le teorie neo positivisti abbandonano la
caratteristica di leggi deterministica e per assumere quella della probabilità. Dunque le teorie
scientifiche non devono più spiegare i fenomeni sociali attraverso schemi di natura logica
necessitante e la legge deterministica viene sostituita dalla legge probabilistica, la quale prevede
elementi di accidentalità, la presenza di disturbi e fluttuazioni. Nel neo positivismo è stata
aggiunta una nuova categoria quella della falsificabilità, usata come criterio di validazione empirica
di una teoria. Tale categoria stabilisce che il confronto fra teoria e ritrovato empirico non può
avvenire in positivo cioè attraverso la prova o verifica che la teoria è confermata dei dati, ma si
realizza in negativo con la non falsificazione della teoria da parte dei dati mediante cioè la
constatazione che i dati non contraddicono l’ipotesi. Dunque il metodo di ricerca consiste nel
rovesciare le anticipazioni e provare la loro falsità, allo scopo di avanzare pregiudizi affrettati e
prematuri, da ciò deriva la provvisorietà di ogni ipotesi teorica, mai definitivamente valida. In
questo modo l’ideale scientifico dell’episteme, cioè della conoscenza certa e dimostrabili, si è
rilevato un mito. Il post positivismo afferma che l’osservazione empirica non è una fotografia
oggettiva bensì dipende dalla teoria, nel senso che anche la semplice registrazione della realtà
dipende dalla finestra mentale del ricercatore, da condizionamenti sociali e culturali. Fermo
restando che la realtà esiste indipendentemente dall’attività conoscitiva e dalla capacità
percettiva dell’uomo, l’atto del conoscere rimane condizionato dalle circostanze sociali e dal
quadro teorico in cui si colloca. La tesi della teoricità delle osservazioni empiriche, l’affermazione
cioè che non esiste una separazione netta fra concetti teorici e dati osservati, fa venir meno anche
le ultime certezze del positivismo l’oggettività del dato rilevato, la neutralità e l’Inter soggettività
del linguaggio osservativo. Il post positivismo non ripudia il fondamento empirista e continua ad
accettare la centralità del metodo scientifico nella ricerca sociale e l’analogia fra il metodo delle
scienze naturali e delle scienze sociali. Tale movimento afferma, inoltre, che le leggi naturali e
sociali sono probabili aperte a revisioni e che provvisoria la natura della conoscenza scientifica.
Esso ridefinisce i presupposti iniziali e gli obiettivi della ricerca sociale ma non il modo di procedere
empiricamente che ha alla base il linguaggio osservativo di sempre, fondato sull’operativizzazione,
sulla quantificazione e sulla generalizzazione.
INTERPRETATIVISMO
L’interpretativismo comprende tutte quelle visioni teoriche per cui la realtà non può essere solo
osservata, ma è necessario che venga interpretata. Con il filosofo tedesco Weber entra nel campo
della sociologia egli porta il concetto di scienza dello spirito (non è presente la separazione tra
studioso e oggetto studiato e quindi la conoscenza può avvenire solo attraverso la comprensione)
all’interno della sociologia e vuole mantenere l’oggettività della scienza sociale sia in termini di
avalutatività, cioè indipendenza da giudizi di valore, sia in quelli della possibilità di arrivare ad
enunciati aventi un carattere di generalità. L’avalutatività delle scienze storico-sociali, cioè la loro
libertà da qualsiasi giudizio di valore, rimane un caposaldo il rinunciabile, cioè fa riferimento alla
capacità di saper distinguere tra conoscere e valutare ossia tra l’adempimento del dovere
scientifico di vedere la realtà di fatti e l’adempimento del dovere pratico di difendere i propri
ideali. Quindi il ricercatore deve tenere distinte la constatazione dei fatti empirici e la sua presa di
posizione pratica che valuta tali fatti. L’avalutatività è la prima condizione per l’oggettività delle
scienze sociali. Secondo Weber le scienze sociali si distinguono da quelle naturali perché hanno
come obiettivo quello di studiare i fenomeni sociali nella loro individualità, il metodo usato è la
comprensione la quale è una comprensione razionale delle motivazioni dell’agire, quindi tale
metodo consiste nell’intendere lo scopo dell’azione, cogliere le dimensioni di proposito ed
intenzionalità dell’agire umano, si tratta di interpretazioni e non di intuizioni. Per comprendere
un’azione individuale bisogna procurarsi i mezzi di informazione sufficienti per analizzare le
motivazioni che hanno ispirato l’azione, l’osservatore comprende l’azione del soggetto osservato
solo quando può concludere che nella stessa situazione, egli avrebbe agito nel medesimo modo.
Quindi la comprensione Weberiana presuppone che l’osservatore si metta al posto dell’attore ma
la soggettività del secondo non è necessariamente subito trasparente per il primo. Da questo
orientamento verso l’individualità è necessario arrivare all’oggettività e a questo punto
intervengono i tipi di ideali. I tipi di ideali sono forme di agire che possono essere riscontrate in
modo ricorrente nel modo di comportarsi degli individui umani, sono uniformità tipiche di
comportamento, costruite attraverso un processo astrattivo che coordina diversi elementi in un
quadro coerente e privo di contraddizioni, i tipi ideali sono dunque, un’astrazione che nasce dalla
rilevazione empirica di uniformità.
uniformare le domande aperte o informazioni provenienti da fonti diverse, l’obiettivo della raccolta
delle informazioni è quello di formare una matrice di dati. I dati raccolti vengono definiti hard cioè
oggettivi, standardizzati, affidabili, precisi e rigorosi. L’analisi dei dati nell’approccio quantitativo
viene effettuata con l’uso di strumentazione scientifica matematica e informatica, l’oggetto
dell’analisi sono le variabili per questo si parla di analisi variabile. Le variabili sono le proprietà
individuali per questo motivo è detta variable-based, mentre l’obiettivo dell’analisi è spiegare la
varianza delle variabili dipendenti, attraverso tecniche matematiche operativizzando i concetti in
termini matematici. I risultati vengono presentati attraverso delle tabelle che forniscono informazioni
parsimoniose, succinte e compatte. La ricerca quantitativa si interroga sui perché e prende in
considerazione un ampio numero di casi per poter avere una maggiore generalizzazione dei risultati.
La ricerca qualitativa:
è caratterizzata da una teoria che emerge dai dati:
• Non c’è separazione tra teoria e risultati empirici;
• Le ipotesi si costruiscono durante il percorso di ricerca e non prima;
• Mancanza di discussioni sulle acquisizioni letterarie precedenti a tale ricerca;
• Mancanza di una teoria prima dell’inizio della ricerca.
La ricerca qualitativa è aperta ed interattiva si evita volutamente di formulare teorie prima di
cominciare il lavoro sul campo, perché si ritiene che questo possa condizionare il punto di vista del
soggetto studiato, per questo viene usata un’impostazione induttiva ovvero che la teoria emerge
dall’osservazione. Nell’approccio qualitativo si da minore importanza alla letteratura in quanto non
si fa riferimento alle precedenti teorie. A differenza della ricerca quantitativa nella ricerca qualitativa
i concetti non sono operativizzati, ma sono considerati come orientativi, poiché forniscono una guida
di avvicinamento alla realtà empirica e vengono definiti nel corso della ricerca. Si utilizza
l’osservazione partecipante e si propone un approccio naturalistico dove il ricercatore si astiene da
qualsiasi manipolazione, stimolazione interferenza o disturbo nei confronti della realtà, la quale viene
studiata nel corso del suo naturale svolgimento. Proprio per questo motivo il ricercatore assume un
punto di vista interno al soggetto studiato, in modo da vedere la realtà sociale con gli occhi dei soggetti
studiati, a questo punto si pone il problema dell’oggettività della ricerca. L’individuo studiato viene
considerato attivo e l’interazione fisica tra soggetto studiato e studioso è di prossimità e di contatto,
l’incontro tra i due soggetti è precondizione per la comprensione. Il disegno della ricerca qualitativa
è destrutturato, aperto, modellato nel corso della rilevazione, si tratta dunque di un disegno libero da
vincoli. Il ricercatore non è interessato alla rappresentatività statistica a quella sostantiva, sociologica
che si stabilisce in base al giudizio del ricercatore stesso. I dati raccolti sono definiti soft cioè dotati
di ricchezza e profondità, infatti l’obiettivo della ricerca non è la standardizzazione. L’analisi dei dati
viene fatta senza l’ausilio di un appartato statistico matematico, l’oggetto dell’analisi non sono più le
variabili ma l’individuo, dunque si parla di analisi per soggetti ed è detta case-based e il suo obiettivo
è comprendere le persone interpretare il punto di vista dell’attore sociale. Per presentare i risultati si
usano brani di interviste o di testi, vengono riportate le parole esatte dell’intervistato per meglio
comprendere la realtà con gli occhi del soggetto studiato. La ricerca qualitativa si interroga sui come
e rappresenta lo schema teorico che lega i soggetti secondo la logica della classificazione. Nella
ricerca qualitativa non viene preso in considerazione un numero elevato di casi per aver una maggiore
specificità dei risultati.
TEORIA
La teoria è un insieme di proposizioni organicamente connesse, che si propongono ad un elevato
livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali sono derivate da
regolarità empiriche e dalle quali possono essere derivate delle previsioni empiriche. Le diverse
strategie di ricerca (quantitativa e qualitativa) sono rinviabili a una più generale distinzione tra
APPROCCIO STANDARD (la scienza formula asserti su relazioni (causali o di associazione) fra
proprietà, che non dipendono da conoscenze e valutazioni dello scienziato) e APPROCCIO NON
STANDARD (La scienza sociale non può prescindere dalle conoscenze personali dello scienziato e
deve massimamente valorizzare gli oggetti studiati come soggetti) alla scienza
Nell’approccio quantitativo(standard) la Teoria viene considerata come guida del processo di
comparazione: definizione di ipotesi; individuazione di indicatori e casi; analisi comparativa, mentre
nell’approccio qualitativo (non standard) la Teoria emerge dal campo di analisi; definizione a
posteriori di un quadro interpretativo del fenomeno studiato.
Possiamo trovare nei due approcci due diverse concezioni della teoria uno di tipo deduttivo e uno di
tipo induttivo.
Nell’approccio deduttivo la teoria guida l’osservazione e troveremo le
seguenti fasi:
• Teorie speciali o micro à relative a fenomeni specifici (es. flusso a due fasi della
comunicazione di massa, ...)
• Teorie di medio raggioà trattano aspetti circoscritti dei fenomeni sociali ma sono estensibili
a contesti diversi (es. deprivazione relativa, dissonanza cognitiva, ...)
• Teorie di ampio raggio o macroteorie à studiano i grandi sistemi sociali e i processi sociali
generali (marxismo, struttural-funzionalismo,...)
IPOTESI
L’ipotesi è una proposizione che implica una relazione fra due o più concetti si colloca ad un livello
inferiore di astrazione e generalizzazione rispetto alla teoria e può essere tradotta in termini
empiricamente controllabili. Più concreta e specifica di una teoria, ma ipotetica, da dimostrare con
controllo empirico. La validità di una teorizzazione dipende dalla sua trasformabilità in ipotesi
empiricamente controllabili, se non c’è riscontro empirico una teoria rimane nell’ambito preteorico
delle supposizioni.
CONCETTO
Il concetto è un contenuto semantico (significato) dei segni linguistici e delle immagini mentali nel
suo significato etimologico, indica l’azione che ordina il molteplice sotto un unico atto di pensiero.
Proprio per questa sua generalità può includere ogni specie, disegno, procedura semantica astratta,
concreta, universale… I concetti possono riferirsi ad astrazioni impossibili da verificare
empiricamente (potere, felicità…) Oppure ad entità concrete (oggetti, persone…). Per verificare una
teoria è necessario passare attraverso i concetti astratti applicati come proprietà degli oggetti studiati
(unità di analisi), per analizzare un concetto è necessario compiere la sua operativizzazione, ovvero
la sua scomposizione in proprietà riferite agli oggetti studiati. I concetti sono i mattoni della teoria
perché attraverso la loro operativizzazione che si può arrivare ad una traduzione empirica della teoria.
L’operativizzazione si effettua in tre passaggi:
1. Applicare i concetti ad oggetti concreti facendoli diventare un attributo o una proprietà di
tali oggetti (unità d’analisi);
2. Dare al concetto-proprietà una definizione operativa, ossia individuare la sua misura abilità
oggettiva.
3. Traduzione del concetto-proprietà operativizzato in variabili, le quali possono assumere
diverse modalità ossia Stati a cui viene assegnato un valore.
La decisione su come operativizzare è totalmente affidata alla discrezionalità del ricercatore, al quale
può essere chiesto di esplicitare le scelte fatte e giustificarle per ridurre la soggettività.
La definizione operativa non elimina l’arbitrarietà, ma la rende esplicita e quindi controllabile.
UNITA’ D’ANALISI
L’unità di analisi rappresenta l’oggetto sociale al quale afferiscono, nella ricerca empirica le proprietà
studiate. Le unità d’analisi possono essere rappresentate concretamente dall’individuo, dall’aggregato
di individui, dal gruppo-organizzazione-istituzione, dagli eventi sociali e dalla rappresentazione
simbolica-prodotto culturale.
1. Individuo: la sociologia è spesso definita come la scienza dell’interazione sociale, da cui
consegue che l’unità d’analisi sociologiche dovrebbero essere l’attore sociale, cioè
l’individuo umano.
2. Aggregato collettivo rappresentato da:
• aggregato di individui un esempio sono le fonti statistiche ufficiali basate su aggregati
territoriali di individui le variabili derivano da operativizzazione matematiche effettuate su
variabili rilevate a livello individuale.
3. Gruppo-organizzazione-istituzioni le unità d’analisi sono rappresentate dalle variabili
strutturali o globali e l’unità di rilevamento è il collettivo stesso (le famiglie associazioni
sette)
4. Evento esempi di evento di unità di analisi sono le elezioni politiche gli scioperi le guerre…
5. Rappresentazione simbolica-prodotto culturale l’unità d’analisi è rappresentata da
messaggi della comunicazione di massa in forma scritta, orale, audiovisiva (articoli di
quotidiani, testi letterari, programmi elettorali, fotografie…).
VARIABILI
Una variabile è un concetto operativizzato o meglio la propria operativizzazione di un oggetto, ossia
tradotta in un elemento che può essere osservato empiricamente. Scaturisce a seguito del processo
concatenato di operativizzazione di concetto -> proprietà-> variabile.
Una variabile può essere:
1. Invariata (costante);
2. Variabile nel tempo studio longitudinale o diacronico sullo stesso caso;
3. Variabile nei casi studio trasversale o sincronico nello stesso tempo (metodo più utilizzato).
Classificazione delle variabili:
L’INCHIESTA CAMPIONARIA
E’ una rilevazione di informazioni relative ad un certo fenomeno:
mediante interrogazione (solitamente in forma orale, faccia a faccia o telefoniche, oppure compilando
schede informative);
- rivolta direttamente agli individui oggetto della ricerca; se l'intervista fosse fatta per es a una
categoria di persone che conosce l'universo indagato ma non le persone oggetto della ricerca - per es
ricerca sulle carceri condotta non intervistando i carcerati ma le guardie, assistenti sociali o i direttori
- non sarebbe indagine campionaria
- facenti parte di un campione statisticamente rappresentativo della popolazione, esigenza che nasce
dall'impossibilità di consultare l'intera popolazione, campione creato con criteri ben precisi vedi cap
8, e di consistenti dimensioni;
- effettuata mediante una procedura standardizzata di interrogazione (cioè vengono poste le stesse
domande con la stessa formulazione in modo da poter confrontare le risposte date dai vari soggetti e
analizzarle con gli strumenti della statistica); a questo scopo di studio tramite la statistica anche le
risposte devono essere standardizzate, cioè organizzate sulla base di uno schema di classificazione
comune a tutti i soggetti, il che significa produrre la matrice dei dati, base di ogni successiva
elaborazione. Per es. nella matrice casi x variabili (CxV) in riga abbiamo i casi e in colonna le variabili
e in ogni cella un dato, cioè il valore assunto da una particolare variabile su un particolare caso. es.
matrice di 200 righe e 350 colonne presuppone 200 casi su cui si siano rilevate le stesse 50 variabili
- un individuo per ogni riga, una variabile per ogni colonna della matrice
- allo scopo di studiare le relazioni esistenti tra le variabili. Questa affermazione rappresenta il
discrimine tra inchiesta campionaria e sondaggio. Il sondaggio è un'indagine altamente esplorativa
volta ad accertare l'esistenza e la consistenza di un fenomeno. Nell'inchiesta campionaria il ricercatore
in più si interroga sulle origini di un fenomeno, sulle interrelazioni con altri fenomeni sociali ecc.
Quindi non solo esplora e descrive ma controlla empiricamente delle ipotesi. Es un sondaggio sul
comportamento elettorale sonderà gli orientamenti di voto della popolazione studiata mentre
l'indagine campionaria vorrà capire i motivi delle scelte, i motivi degli spostamenti dalle precedenti
elezioni, l'influenza di fattori generazionali, religiosi, di classe ecc
essere il più possibile spersonalizzato per non alterare lo stato dell’oggetto studiato. Tuttavia non è
possibile instaurare un rapporto neutro tra intervistato e intervistatore, esiste sempre un certo grado
di interazione.
In secondo luogo, esiste una diatriba tra chi ritiene che esistano uniformità empiriche nei fenomeni
sociali, che quindi possono esser misurati classificati e standardizzati (posizione uniformista) e chi
sottolinea la fondamentale irriducibilità del soggetto umano a qualsiasi forma di generalizzazione e
standardizzazione (posizione individualista): cioè ogni caso, ogni azione sociale è un evento unico.
Questa questione riguarda la standardizzazione dello strumento di informazione e dell’informazione
rilevata. l’approccio uniformista prevede l’uniformità dello strumento della rilevazione-
interrogazione (questionario con domande e risposte prefissate). I limiti di questo approccio e del
questionario sono due: non tiene conto della disuguaglianza sociale e uniforma l’individuo al livello
dell’uomo medio. Inoltre lascia fuori la periferia sociale (vecchi, clandestini, vagabondi, analfabeti
ecc).
L’obiettivo della posizione oggettivista-uniformista è quindi quello di ottenere la neutralità dello
strumento di rilevazione, cioè ottenere l’invarianza dello stimolo. Ma non è sicuro che all’invarianza
dello stimolo corrisponda l’uniformità dei significati, infatti una stessa domanda o parola possono
avere diversi significati per lo stesso individuo, sia per motivi culturali che per le circostanze stesse
in cui si svolge l’intervista. A questo punto il ricercatore deve scegliere se appoggiarsi ad una tecnica
che massimizza la ricerca di uniformità (questionario) e una che predilige l’individualità del soggetto
studiato (intervista strutturata). Se si sceglie il questionario, bisogna essere consapevoli che studiando
solo le uniformità del comportamento delle persone (ciò che esse hanno in comune) si limita
inevitabilmente la piena comprensione dei fatti sociali. Si sceglie di lavorare sui grandi numeri in
superficie piuttosto che in profondità sui piccoli numeri.
L’affidabilità del comportamento verbale
Molti scienziati sociali hanno espresso dubbi sulla possibilità che la realtà sociale possa essere
compresa attraverso i resoconti verbali. Le risposte alle domande (standardizzate) degli intervistatori
possono non essere attendibili per due motivi: la desiderabilità sociale delle risposte e la mancanza
di opinioni. La desiderabilità sociale è la valutazione, socialmente condivisa, che in una certa cultura
viene data ad un certo atteggiamento o comportamento individuale. Se uno di questi è valutato
positivamente o negativamente, una domanda che abbia questo come oggetto può dare risposte
distorte, perché l’intervistato può essere riluttante a rivelare opinioni o comportamenti che ritiene
indesiderabili e può essere tentato di dare di sé la migliore immagine possibile, anche se non veritiera,
in modo volontario o anche involontario. Opinioni ufficiali spesso sono diverse dalle opinioni
personali. (pag 169 170). Vedi anche la cosiddetta menzogna inconscia: inconscia propensione a
negare l'evidenza dei fatti quando questi non coincidono con le nostre credenze di fondo
La mancanza di opinioni concerne domande su tematiche complesse, sulle quali è plausibile che un
certo numero di intervistati non abbia mai riflettuto, e quindi molti rispondono a caso oppure
formulano sul momento un’opinione che può essere solo passeggera. Questo fenomeno è accentuato
anche dal fatto che spesso la risposta “non so” viene percepita come un’ammissione di incapacità
mentale.
Un altro problema delle domande standardizzate è che esse misurano l’opinione, ma non la sua
intensità né il suo radicamento. La tecnica del questionario non è in grado di distinguere le opinioni
intense e stabili da quelle deboli e volubili.
Sostanza e forma delle domande
Formulare un buon questionario è impresa per niente facile; occorrono:
• l’esperienza del ricercatore (o, in alternativa, l’attenta consultazione del lavoro di altri);
• la conoscenza della popolazione a cui viene somministrato;
• la chiarezza delle ipotesi di ricerca
Dati sociografici, atteggiamenti e comportamenti
• per evitare una sorta di “chiusura prematura dell’orizzonte teorico”, il ricercatore deve essere
abile a prevedere tutte le possibili risposte (escamotage della voce “altro”);
• le alternative di risposta proposte possono suggerire una risposta anche a chi non ha
un’opinione sul tema;
• le risposte offerte possono essere intese con significato diverso dagli intervistatori.
Formulazione delle domande
La formulazione delle domande è importantissima perché può influenzare pesantemente la risposta;
bisogna quindi porre molta attenzione al linguaggio, alla sintassi e al contenuto stesso delle domande.
Semplicità di linguaggio: il linguaggio del questionario deve essere adatto alle caratteristiche del
campione studiato, il questionario autocompilato deve essere più semplice rispetto a quello con
intervistatore e in ogni caso non bisogna far conto sulle sue spiegazioni, perché di solito gli intervistati
si vergognano di ammettere di non capire le domande.
Lunghezza delle domande: di solito le domande devono essere concise, ma nel caso di tematiche
complesse sono preferibili le domande lunghe perché facilitano il ricordo, danno più tempo per
pensare e agevolano una risposta più articolata.
Numero delle alternative di risposta: non devono essere troppo numerose; se presentate a voce non
devono superare il numero di cinque. altrimenti, se il questionario è somministrato oralmente, usare
un cartoncino scritto con le alternative di risposta per facilitare il ricordo delle stesse da parte
dell’intervistato.
DA EVITARE:
• Espressioni in gergo: è preferibile non utilizzare espressioni gergali perché potrebbero irritare
l’intervistato.
• Definizioni ambigue: occorre fare molta attenzione a non utilizzare termini dal significato non
ben definito.
• Parole dal forte connotato negativo: è bene evitare anche i termini carichi di significato
emotivo, soprattutto se questo è negativo.
• Domande sintatticamente complesse: la domanda deve avere una sintassi chiara e semplice,
evitando ad esempio la doppia negazione.
• Domande con risposta non univoca: bisogna evitare le domande esplicitamente multiple
(domande in cui ne sia inclusa un’altra) e quelle dalla problematica non sufficientemente
articolata.
• Domande non discriminanti: le domande devono esser costruite in modo tale da operare delle
discriminazioni significative nel campione degli intervistati. che non discriminano gli
intervistati (ad esempio il 90% di risposte uguali da parte degli intervistati non è molto
significativo per il ricercatore).
• Domande tendenziose (viziate o a risposta pilotata): è necessario presentare le domande in
modo equilibrato, senza orientare l’intervistato verso una possibile risposta.
• Comportamenti presunti: è indispensabile evitare di dare per scontati comportamenti che non
lo sono, in cui è dato scontato un certo comportamento che di fatto non lo è (il rischio della
profezia che si auto-adempie); per esempio chiedere per chi hanno votato senza prima
chiedere se sono andati a votare.
Domande filtro selezionano un intervistato prima di porre una domanda che non riguarda tutti, e
domande condizionate sono quelle sono quelle poste se alla domanda filtro si è risposto ad un certo
modo. Senza questi filtri potrebbe succedere che l'intervistato dia una risposta anche a una domanda
che non lo riguarda (risposta a caso in base alla desiderabilità sociale).
• Focalizzazione nel tempo: occorre sempre definire con precisione l’arco temporale al quale si
riferisce la domanda. Facilita il ricordo e rende più difficile la sovrapposizione del
comportamento ideale a quello reale concretezza – astrazione, la domanda astratta può dare
facilmente luogo a risposte generiche o normative, mentre la domanda concreta facilita la
riflessione e rende più difficile il fraintendimento.
si posizioneranno quindi a metà questionario, in modo che l’intervistatore abbia avuto un po’ di tempo
per conquistare la fiducia dell’intervistato. Anche le domande impegnative dovranno essere collocate
a metà dell’intervista, in modo tale da assecondare la curva di interesse dell’intervistato. Alla fine si
potranno porre le domande più noiose ma che non richiedono riflessione come quelle sociometriche.
Attenzione alla stanchezza dell'intervistato, lasciare in fondo all'intervista le domande che non
richiedono riflessione.
Nella sequenza delle domande tenere uno schema a imbuto, da domande generali a particolari è bene
seguire anche il passaggio da domande generali a domande particolari, stringendo progressivamente
sugli aspetti più specifici. Bisogna tenere conto infine dell’effetto contaminazione, cioè del fatto che
in certi casi la risposta ad una domanda può essere influenzata dalle domande che l’hanno preceduta.
Sarebbe buona norma, nella pubblicazione dei risultati della ricerca, citare anche la fedele
formulazione delle domande.
Batterie di domande
Le batterie di domande sono domande che essendo, tutte formulate nello stesso modo (stessa
domanda introduttiva e stesse alternative di risposta, varia solo l’oggetto al quale si riferiscono),
vengono presentate all’intervistato in un unico blocco. Le batterie di domande hanno gli obiettivi di
risparmiare spazio sul questionario e tempo dell’intervista, facilitare la comprensione del meccanismo
di risposta, migliorare la validità della risposta e permettere al ricercatore di costruire indici sintetici
che riassumono in un unico punteggio le diverse domande della batteria. Gli svantaggi delle batterie
di domande consistono nel pericolo che le riposte siano date a caso e che le risposte siano
meccanicamente tutte uguali tra di loro.
Vantaggi delle batterie di domande:
• risparmio di spazio (sul foglio del questionario) e di tempo (nella somministrazione);
• migliora la validità delle risposte perché l’intervistato tiene implicitamente conto delle
risposte precedenti;
• agevola la costruzione di indici sintetici per il ricercatore.
Svantaggi (originati dal ritmo incalzante dell’intervista):
• pericolo di “response set” (risposte meccanicamente tutte uguali);
• pericolo di risposte date a caso.
Le domande di una batteria possono essere formulate in termini assoluti (cioè le risposte sono entità
auto-sufficienti) o in termini relativi (la risposta da dare alla domanda dipende anche da quella data
alle altre). Uso particolare delle batterie di domande è la tecnica delle scale, tipicamente utilizzata per
la misura degli atteggiamenti, dove si condensano le risposte in un unico punteggio atto a
operativizzare quel particolare atteggiamento in esame.
Modalità di rilevazione
Le principali modalità di rilevazione sono: l’intervista “faccia a faccia”, l’intervista telefonica e il
questionario “auto-compilato” + oggi il questionario telematico (in ordine di diffusione e successiva
sostituzione). Non sono modalità di rilevazione equivalenti, perchè generano dati di qualità differente,
così come quantità e costi di rilevazione.
INTERVISTA FACCIA A FACCIA
La rivoluzione informatica ha modificato questo tipo di indagine, sostituendo la registrazione carta e
penna con un personal computer su cui l'intervistatore legge le domande e registra le risposte. Un
grosso vantaggio è che il pc gestisce lo svolgimento dell'intervista (per es nelle domande a imbuto o
condizionate passa automaticamente alla domanda necessaria) e segnala incongruenze palesi. Così si
tagliano step intermedi fra rilevazione ed elaborazione. Ma in ogni caso non cambia il meccanismo
base di interazione tra intervistatore e intervistato, dove l'intervistatore è figura centrale.
Nel caso che stiamo trattando, vale a dire quello dell’intervista con questionario standardizzato
(approccio oggettivista dell'intervistatore), tipicamente con circa un migliaio di interviste, e alcune
decine di intervistatori - e quindi ricercatore e intervistatore non coincidono - l’obiettivo è quello di
risultano sottorappresentate; il fatto che le domande sono spesso elementari a causa della ristrettezza
del tempo a disposizione. I limiti più gravi sono comunque l’assenza di contatto e la mancanza di
tempo, che non rendono adatta l’intervista telefonica quando si vogliono analizzare tematiche
complesse.
Oggi moltissime linee telefoniche fisse sono state chiuse a favore dei telefoni cellulari quindi questo
taglia via una fetta importante della possibile popolazione raggiungibile. Poi tramite il registro delle
opposizioni si possono rifiutare le telefonate commerciali (entrando in un elenco che le società di
sondaggi devono rispettare). Consideriamo anche il fattore insofferenza verso questo tipo di contatto,
che ha prodotto un tasso di non risposta fino al 90%.
Vantaggi:
• rapidità di rilevazione e costi ridotti;
• minori resistenze dell’intervistato;
• facilita la preparazione e la supervisione degli intervistatori (pensiamo ad un call-center dove
sono concentrati tutti gli intervistatori telefonici);
• consente il C.A.T.I. (Computer Assisted Telephone Interviewing), ma anche l’intervista
faccia a faccia consente il C.A.P.I. (Computer Assisted Personal Interviewing) (l’altra
modalità di utilizzo dei P.C. è la tele-intervista, con l’intervistato collocato direttamente
davanti al monitor);
Svantaggi:
• sono più probabili le risposte a caso o superficiali;
• l’intervista deve durare al massimo 20-25 minuti;
• non può essere utilizzato materiale “ausiliario” di tipo visivo;
• non sono rilevabili dati non verbali;
• non tutti hanno il telefono: quindi si ha una sorta di campione auto-selezionato;
• anziani e persone sotto istruite che si sottraggono all’intervista (magari passando la telefonata
a qualche altro convivente) e dunque risultano sotto rappresentati;
• il tempo a disposizione ridotto costringe ad una semplificazione delle domande.
QUESTIONARI TELEMATICI
INCHIESTE VIA WEB (WEB SURVEYS): le email surveys sono inviate via email, con le web
surveys si accede a un sito web e compila il questionario online - le risposte vengono direttamente
scaricate in un dataset, senza la mediazione di una codifica che prenderebbe tempo e potrebbe
comportare errori. Quindi molto efficace a patto che il campione considerato sia dotato di connessione
alla rete. Si utilizzano anche tecniche miste (per es lettera inviata per posta dove si invita a compilare
questionario online, chi non risponde viene contattato per telefono e infine intervistato a domicilio
(le interviste pù costose, quelle faccia a faccia, sono numericamente molto ridotte).
PANEL ONLINE: è ancora molto difficile costruire un campione rappresentativo di tutta la
popolazione basandosi solo su persone che hanno accesso a internet. Il panel online è un gruppo di
persone che accetta di partecipare tramite internet a inchieste telematiche per un certo periodo di
tempo. Quindi gruppo stabile di persone, ripetutamente interpellate via internet, su temi di vario
genere. Come si reclutano queste persone, al fine di rendere il campione rappresentativo? Due
situazioni: campione probabilistico e non.
Col campione non probabilistico si aderisce in modo volontario (magari vedendo un banner su un
sito), annunci sui social networks ecc. Qui non c'è garanzia di casualità e quindi di rappresentatività
del campione: cioè non c'è base scientifica per giustificare la generalizzazione di quanto emerso dal
campione alla popolazione di riferimento. Il campione avrà due distorsioni: riflette le stesse diversità
rispetto alla popolazione degli utenti di internet (giovani, istruzione superiore ecc), distorsione che si
rimedia con un processo di ponderazione. Poi i volontari della ricerca sociale sono una specie
particolare (vedi es pag 215), che creano distorsioni non controllabili sulle variabili oggetto dello
studio.
1. ci si è resi conto che le ricerche condotte in passato offrivano spunti per ulteriori
approfondimenti (a causa del progresso della teoria o della messa a punto di nuove tecniche
statistiche);
2. si sono affermate le c.d. rilevazioni multi-scopo esplicitamente dedicate alle analisi
secondarie.
Vantaggi delle analisi secondarie:
• risparmio: anche i ricercatori con poche risorse possono effettuare ricerche di ampio respiro;
• rigorosità della rilevazione;
Limiti delle analisi secondarie:
• non è valutabile la qualità dei dati;
• può causare una limitazione degli interrogativi da porsi per mancanza di dati idonei;
• può causare ricerche fatte a partire dai dati disponibili invece che dalla teoria e da ipotesi da
verificare.
La meta-analisi non è una ri-analisi dei dati, bensì una integrazione dei risultati.
IL CAMPIONAMENTO
Anche se può sembrare strano, la scelta casuale (tipica del campionamento) deve segueire regole ben
precise.
NELLA STATISTICA SI STUDIA LA TEORIA DEI CAMPIONI è il procedimento con il quale si
estrae, da un insieme di unità (popolazione) costituenti l’oggetto dello studio, un ridotto numero di
casi (campione) scelti con criteri tali da poter generalizzare i risultati ottenuti dal campione stesso
all’intera popolazione.
Vantaggi:
- vantaggio: tempi e costi della rilevazione si riducono;
- vantaggi organizzativi per il minor numero di rilevatori richiesti
- sono possibili maggior approfondimenti ed una maggiore accuratezza;
- ci sono casi in cui operare il campionamento non è una scelta ma una necessità
(per es studio sulla durata delle lampadine, si può fare solo su un campione). vedi esempio storico
pag 318 -319
Errore di campionamento vedi anche pagg 319-320 premessa
La tecnica del campionamento presenta tuttavia anche degli svantaggi. Infatti, se l’indagine totale
fornisce il valore esatto del parametro che si vuole conoscere, l’indagine campionaria ne fornisce solo
una stima, cioè un valore approssimato. Ciò significa che il valore in questione non è certo, ma solo
probabile, e inoltre questa probabilità può variare entro un certo intervallo (detto intervallo di fiducia
-es c'è il 95% di probabilità che il reddito medio della popolazione sia di euro 1200 +- 50.000). La
stima del campione sarà quindi sempre affetta da un errore, che si chiama errore di campionamento.
Difficile misurare questo errore di campionamento! Se però il campione è probabilistico (cioè scelto
secondo una procedura rigorosamente casuale), la statistica ci permette di calcolare l’entità di tale
errore.
Campioni probabilistici: il campione casuale semplice (probabilistico e
causale sono sinonimi)
Nei campioni probabilistici l’unità d’analisi è estratta con una probabilità nota e diversa da zero. È
necessario conoscere la popolazione (nell'esempio del libro "LITERARY DIGEST" il campione non
era probabilistico perchè le persone senza tel e senza auto avevano probabilità zero di essere incluse
nel campione, chi aveva entrambe aveva probabilità doppia).
Il caso più semplice del campione probabilistico è quello del campionamento casuale semplice, in cui
ogni individuo della popolazione ha uguali possibilità di essere scelto per il campione.
Si devono estrarre gli individui senza riferimento a caratteristiche individuali; si assegna un numero
tre componenti: errore di copertura, errore di campionamento ed errore di trattamento dati. Finora ci
siamo occupati del solo errore di campionamento; tratteremo ora anche gli altri.
Errore di copertura. Lista della popolazione
Nel caso in cui si conosce la lista della popolazione, è possibile procedere con campionamenti
probabilistici. Questo accade di solito quando l’oggetto di studio è l’intera popolazione (anche
nazionale), perché esistono anagrafi e liste elettorali che forniscono l’elenco completo della
popolazione. Il problema si pone per i sottoinsiemi della popolazione, perché di solito non si è in
possesso di una lista completa della popolazione. Quando invece l’unità di analisi non è un individuo
ma un collettivo, la situazione è migliore perché in genere un aggregato di individui esiste in forma
istituzionalizzata e registrata.
Se non c’è la possibilità di conoscere la lista della popolazione bisogna rinunciare a tecniche di
campionamento probabilistico, perché in questi casi non è possibile assegnare a tutte le unità della
popolazione una certa probabilità di estrazione. Ma non è sufficiente che le liste esistano, bisogna
anche che siano aggiornate, complete ed esenti da duplicazioni. Il problema della completezza è il
più grave; in questo caso il ricercatore può ridefinire la popolazione, trascurare gli esclusi oppure
procedere ad un’integrazione del campione (pag 337-338)
Errore di campionamento. Ampiezza del campione
Il campionamento nel settore della ricerca sociale è una tecnica di difficile applicazione; essa genera
un errore di selezione ulteriormente scomponibile in:
• errore di copertura = spesso non si dispone né della lista della popolazione né di un luogo in
cui procedere ad un campionamento sistematico. Il problema non è solo quello di avere una
lista, ma di averla aggiornata, priva di duplicazioni e completa. La difficoltà non riguarda le
omissioni di per sé, bensì il fatto che chi rimane escluso è tendenzialmente diverso da chi è
compreso nel campione. Il ricercatore ha tre possibilità: ridefinire la popolazione, trascurare
gli esclusi oppure integrare il campione;
• errore di campionamento = quando si sceglie l’ampiezza del campione occorre tenere presente
che le stime relative ad analisi monovariate sono affette da errori più piccoli rispetto ad analisi
bivariate o multivariate; occorre prevedere in anticipo dunque se la nostra analisi si svilupperà
in questo senso;
• errore di non risposta = può essere dovuto al mancato contatto con i soggetti facenti parte del
campione (per difficoltà di raggiungimento o per irreperibilità dei soggetti) oppure al rifiuto
a farsi intervistare (questa evenienza è di più difficile gestione perché chi non risponde è
diverso da chi risponde, solitamente).
E’ difficile quantificare i tassi di non risposta, ma si può dire che sono più alti nelle interviste
telefoniche che in quelle faccia a faccia e che in Italia si oscilla tra il 20 ed il 50% di mancate
interviste.
Sostituire le non risposte è spesso un errore perché i sostituti assomigliano più ai rispondenti che ai
non rispondenti. I consigli sono quelli di ritornare ripetutamente sulle persone non raggiunte e di
ricorrere alle tecniche di ponderazione.
Se consideriamo il caso di una ricerca monovariata (quando si stimano le variabili ad una ad una) la
dimensione del campione può essere adeguata, ma se nella stessa ricerca studiamo le relazioni tra le
variabili (analisi bivariata o multivariata) - esempio voglio vedere la relazione tra due varibili, se la
pratica religiosa varia al variare dell'istruzione - l’errore cresce subito fino a livelli inaccettabili (pag
339). Diminuendo l'ampiezza del campione l'errore di campionamento aumenta.
Solo raramente la stima di singole variabili esaurisce l'interesse del ricercatore, a lui interessano le
relazioni tra variabili. La dimensione del campione non può più essere determinata a priori dal
ricercatore sulla base delle distribuzioni delle singole variabili studiate, ma dovrà far riferimento al
tipo di analisi che egli intende utilizzare, a partire dalla considerazione dei frazionamenti ai quali egli
sottoporrà il campione per analizzarlo. La dimensione ideale del campione dipende dalla
distribuzione delle variabili studiate e dal tipo di analisi che si intende fare. In generale l’ampiezza
del campione dovrà essere tanto maggiore quanto più il fenomeno da studiare è minoritario (es. pag
340).
Errore di non-risposta. Mancati contatti e rifiuti (da 341 in avanti, molti
esempi)
L’errore di non-risposta consiste nel fatto che i soggetti selezionati dal campionamento non sono
contattabili o si rifiutano di rispondere. (Marradi: "il concetto di estrazione casuale è in teoria
semplicissimo, ma è una semplicità illusoria, perchè gli esseri umani differiscono dalle palline estratte
dall'urna per due aspetti essenziali: non sono a portata di mano del ricercatore e sono liberi di non
rispondere".
Il problema del mancato contatto con i soggetti può essere causato dalla difficoltà di raggiungerli
oppure dalla loro irreperibilità; in ogni caso si tratta di problemi fastidiosi ma risolvibili.
Molto più grave è il problema dei rifiuti a rispondere (diffidenza verso l'intervistatore, l'intervista o
parti di essa), in quanto spesso coloro che non vogliono rispondere sono diversi da quelli che
rispondono (anziani, basso titolo di studio, donne, persone sole, persone indaffarate…timore di come
venga gestita l'informazione data se riferita a convinzioni politiche per es)e quindi non rappresentano
una selezione casuale del campione originario.
In questo modo si compromette la validità del campione stesso, che sovra-rappresenterà alcune
categorie di persone a scapito di altre. La percentuale di mancate risposte in Italia varia dal 20% al
50%, a seconda della diversa forma di contatto utilizzata (ad esempio di solito le interviste faccia a
faccia hanno un tasso di risposta superiore a quelle telefoniche).
Una soluzione per rimediare alle mancate risposte può essere quella di sostituire i soggetti con altri
scelti a caso, ma questa tecnica spesso non è efficace perché i sostituti assomigliano più ai rispondenti
che non ai non rispondenti. Per contrastare efficacemente il problema delle mancate risposte ci sono
due metodi: il primo è quello di tornare il più possibile dalla persone che non rispondono per
incontrarle o convincerle; il secondo consiste nella ponderazione, cioè nell’attribuire alle persone non
raggiunte dall’intervista le risposte medie date dal gruppo sociale al quale esse appartengono.
L'errore di non risposta è probabilmente il più imperscrutabile degli errori di rilevazione, il risultato
del comportamento di persone che sono al di fuori del controllo del ricercatore e mette in crisi la
proprietà unica dell'indagine campionaria rispetto ad altri metodi di indagine: l'inferenza statistica dal
campione alla popolazione. Inoltre è in crescita in tutte le società occidentali (per tutela privacy,
saturazione verso le indagini, per diffidenza verso gli estranei ecc). Conclusione: LA RICERCA
SOCIALE NELLA SUA PRATICA APPLICAZIONE PONE DEI LIMITI VERAMENTE SEVERI
ALLA TRADUZIONE IN PRATICA DELLA TEORIA DEL CAMPIONE.
Campioni non probabilistici (da 345 in poi...c'è molto da leggere)
Quando il disegno probabilistico non può essere impostato (ES MANCA LA LISTA DELLA
POPOLAZIONE) si ricorre sin dall’inizio ai campioni non probabilistici.
Campionamento per quote: disegno campionario più diffuso specie nelle ricerche di mercato e
sondaggi di opinione; si divide la popolazione in strati rilevanti e il ricercatore sceglie a sua
discrezione i soggetti all’interno degli strati rispettando la proporzione (non c’è casualità). I limiti di
questa procedura consistono nel fatto che il ricercatore cerchi i soggetti più facilmente raggiungibili,
enfatizzando in questo modo l’errore di non-risposta.
Disegno fattoriale: il disegno fattoriale si colloca a mezza strada tra una tecnica di campionamento
e un esperimento. Il suo scopo è quello di cogliere le relazioni che vigono all’interno della
popolazione; per far questo i gruppi che si creano dalle combinazioni delle variabili (es.: istruzione,
età e genere) hanno tutti dimensione uguale e non proporzionale alla popolazione. Il disegno fattoriale
non arreca alcun vantaggio allo studio della relazione tra variabile dipendente e indipendente.
Campionamento a scelta ragionata: in questo caso le unità campionarie non sono scelte in maniera
probabilistica, ma sulla base di alcune loro caratteristiche.
E' praticamente impossibile nelle scienze sociali evitare del tutto errori di copertura e di non risposta,
ma si possono minimizzare cercando di avvicinare la procedura di campionamento al modello del
campionamento probabilistico. Se definiamo con accuratezza della procedura di campionamento la
minimizzazione di questi errori possiamo dire che ampiezza del campione e accuratezza della
procedura di campionamento sono le due caratteristiche che definiscono la bontà di un campione, con
un equilibrio tra i due.
Alla validità di un campione concorrono due fattori: la sua rappresentanza e la sua ampiezza.
Un campione è rappresentativo quando fornisce un’immagine in piccolo ma senza distorsioni della
popolazione; la rappresentatività dipende dalla casualità della procedura con la quale è stato costruito.
Questa rappresentatività è valida per tutte le variabili della popolazione. Possiamo infine dire che se
le stime del campione sono sufficientemente piccole, il campione è rappresentativo.
Ma è praticamente impossibile realizzare una procedura completamente casuale, per cui la
rappresentatività del campione è un obiettivo limite al quale ci si può solo avvicinare minimizzando
gli errori di copertura e di non-risposta (accuratezza). In parte l’ampiezza del campione è condizione
della rappresentatività: se il campione è troppo piccolo, allora l’errore di campionamento è troppo
elevato e il campione non può essere definito rappresentativo. In parte invece l’ampiezza del
campione è un requisito autonomo dalla rappresentatività, e dipende dal tipo di analisi che vogliamo
fare sui dati (monovariata, bivariata o multivariata). Tra i due requisiti dovrebbe essere privilegiata
l’ampiezza per la sua maggiore importanza. È importante anche la finalità della ricerca: se si tratta di
uno studio descrittivo, il campione deve essere il più possibile rappresentativo, se invece l’obiettivo
è di tipo relazionale, il campione può anche non essere perfettamente rappresentativo. In ogni caso il
ricercatore può trascurare l’accuratezza della rilevazione, applicando il più possibile il
campionamento casuale nonostante la sua difficoltà.
La bontà di un campione riguarda due aspetti:
1. la rappresentatività: il campione rappresentativo fornisce un’immagine in scala ridotta
ma non distorta della popolazione; il campione casuale è statisticamente rappresentativo; la
rappresentatività riguarda tutte le variabili. Nelle scienze sociali non è possibile garantire
la casualità a causa del fatto che gli errori di copertura e quelli di non-risposta possono
essere minimizzati (a seconda del grado di accuratezza) ma mai eliminati;
2. l’ampiezza: se il campione è piccolo l’errore di campionamento è elevato.
Talvolta non è possibile avere contemporaneamente accuratezza ed ampiezza. Il ricercatore dovrebbe
fornire nella pubblicazione dei risultati tutti gli elementi necessari per valutare l’entità
dell’ineliminabile errore.
L’OSSERVAZIONE PARTECIPANTE
Nella ricerca di tipo qualitativo è difficile ricorrere a schematizzazioni, ossia rendere le fasi che la
compongono ben separate e distinte. Le principali tecniche qualitative utilizzate sono quelle
dell’osservazione partecipante (dove c'è non solo osservazione ma coinvolgimento diretto del
ricercatore con l'oggetto studiato), delle interviste in profondità e dell’uso di documenti.
Ricordiamoci che ci troviamo nel contesto del paradigma interpretativo e che lo scopo è la
comprensione (Versethen), quindi è necessario un processo di immedesimazione nella vita dei
soggetti studiati ed una piena e completa partecipazione alla loro quotidianità, con un'interazione che
può anche durare anni. Il ricercatore qui scende sul campo, vive come e con le persone oggetto del
suo studio, ne condivide la quotidianità, sviluppa una visione dal di dentro, è questo il senso del
Verstehen (vedere il mondo con gli occhi dei soggetti studiati).
L’osservazione partecipante è una strategia di ricerca nella quale il ricercatore si inserisce in maniera
diretta (cioè in prima persona) e per un periodo di tempo piuttosto lungo, in un determinato gruppo
sociale, preso nel suo ambiente naturale, instaurando un rapporto di interazione personale con i suoi
membri, allo scopo di descriverne le azioni e di comprendere, mediante un processo di
immedesimazione, le motivazioni.
Per quanto riguarda l’analisi del materiale empirico e la stesura del rapporto finale non esistono regole
precise ed il materiale raccolto è solitamente molto corposo.
• l’analisi è un processo continuo che si sviluppa anche nel corso dell’osservazione stessa;
• il dramma della selezione: solitamente, in fase di analisi, viene abbandonata la maggior parte
del materiale raccolto;
• le fasi sono la descrizione (assemblando il materiale di varia origine), la classificazione
(individuando le sequenze temporali e raggruppando in classi similari o dissimili) e
l’individuazione delle dimensioni della tipologia (mediante l’individuazione dei temi culturali
che attraversano la comunità studiata);
• lo stile di scrittura deve essere riflessivo (nel senso di non distaccato) e narrativo (tipo racconto
o cronaca giornalistica); lo scopo è quello di trasmettere la parte più grande possibile della
propria esperienza;
• il fine ultimo è naturalmente quello di elaborare qualche generalizzazione o teorizzazione.
vedi anche pagg 385 a 391.
MICROSOCIOLOGIA
In sociologia l’osservazione partecipante è stata applicata allo studio dei momenti banali della
quotidianità, ritenuti carichi di significati per lo più sfuggenti agli stessi attori sociali. Contributi nel
campo della micro-sociologia sono giunti da parte dell’interazionismo simbolico con Blumer, Mead
e Goffman e da parte dell’etnometodologia con Garfinkel (allarga! pag391-397)
I problemi e gli aspetti negativi dell’osservazione partecipante sono:
• risulta essere estremamente soggettiva, ossia troppo dipendente dagli occhi e dalla mente del
ricercatore;
• l’esiguità del numero di casi studiati rende improponibile una generalizzazione dei risultati;
• la non standardizzazione delle procedure rende difficile descrivere ed insegnare la tecnica;
• la difficoltà di realizzazione, in termini di risorse e tempi necessari.
A prescindere da tutto ciò l’osservazione partecipante ha arricchito in maniera incredibile il panorama
della ricerca sociale.
L’INTERVISTA QUALITATIVA
Consiste in una conversazione provocata dall’intervistatore, rivolta ad un consistente numero di
soggetti scelti sulla base di un piano di rilevazione, avente finalità conoscitive e guidata
dall’intervistatore, sulla base di uno schema flessibile.
Le differenze tra l’intervista quantitativa e l’intervista qualitativa sono molte e rilevanti:
1. assenza di standardizzazione: la voce predominante deve essere quella dell’intervistato, lo
strumento deve essere flessibile e produce dati disomogenei e difficilmente confrontabili
(403);
2. comprensione contro documentazione, contesto della scoperta contro contesto della
giustificazione es. pag 404;
3. assenza del campione rappresentativo: i casi sono scelti non per la loro rappresentatività ma
per l’interesse che suscitano al ricercatore (405);
4. approccio case-based (sul soggetto) contro approccio variable-based; il punto di partenza è
rappresentato dall'individuo non dalla variabile, perchè si vogliono capire le manifestazioni
nella loro individualità, costruire dei modelli, delle tipologie, delle sequenze, a partire dai
casi analizzati nella loro interezza.
Tipi di intervista qualitativa:
• intervista strutturata: le domande sono sempre le stesse e nello stesso ordine; le risposte sono
libere (è una tecnica ibrida, media i due approcci quanti e quali, pertanto raggiunge minori
capacità di standardizzazione e non va in profondità quanto un'intervista non strutturata);407
e 409
IL FOCUS GROUP
Il focus group è una tecnica di raccolta delle informazioni che coinvolge più intervistati
contemporaneamente (intervista di gruppo).
Normalmente, si tratta di persone che condividono una situazione o un’esperienza particolare, che è
oggetto della ricerca.
I partecipanti al focus group vengono invitati a discutere tra loro di un particolare argomento o
insieme di argomenti tra di essi collegati (focus), quello o quelli che la ricerca ha interesse a «mettere
a fuoco» e ad approfondire.
ORGANIZZARE UN FOCUS GROUP
IL GRUPPO
Deve essere composto da 6-10 persone (abbastanza grande da generare una discussione ampia, non
tanto grande da escludere qualcuno). Le persone sono selezionate in base agli obiettivi di ricerca
(random, membri di una organizzazione, esperti su un particolare tema, ecc.).
Il Gruppo deve essere un gruppo di pari o dove le differenze di status non siano immediatamente
visibili. (NO a persone in livelli gerarchici diversi e nella stessa organizzazione!!)
LA TRACCIA DI INTERVISTA
Traccia simile all’intervista focalizzata. Una serie di domande articolate in aree tematiche, che
servono a stimolare e guidare la conversazione. Un buon moderatore può limitarsi a porre ben poche
domande!
IL MODERATORE
ha il compito di:
• Presentare l’oggetto della discussione,
• definire le regole e aprire la discussione con una domanda generica ma che favorisce il
coinvolgimento.
• Guidare la conversazione evitando che si perda di vista il focus tematico.
• Agevolare la partecipazione di tutti ed evitare che la discussione sia dominata da un leader.
• Mantenere una posizione di neutralità, evitando di esprimere le proprie opinioni e valutazioni.
VANTAGGI
L’assunto su cui il focus group si basa è che nell’interazione diretta con altre persone sia più facile
far emergere ed esprimere in modo immediato e spontaneo non solo opinioni, ma anche sentimenti,
motivazioni, riferimenti a valori, immagini di realtà.
Il confronto con gli altri agevola i partecipanti nel definire, chiarire, approfondire e comunicare in
modo articolato e coerente la propria posizione, l’interazione con gli altri favorisce la riflessione e
l’analisi, e può stimolare l’emergere di idee nuove, di «cose» che altrimenti non sarebbero venute in
mente e la discussione può sollecitare il ricordo e far affiorare elementi che, diversamente,
rimarrebbero inespressi. L’interazione tra «pari» indebolisce i meccanismi di difesa che spesso sono
a monte di sospetti, timori, esitazioni, reticenze e più in generale, della tendenza a non rispondere in
modo sincero e collaborativo all’intervistatore.
Il rapporto di complicità e di reciproco sostegno tra i partecipanti aiuta ad affrontare argomenti
particolarmente delicati e imbarazzanti, riducendo in tal modo la propensione di alcuni a dare
informazioni su di sé in termini di «desiderabilità sociale».
Si tratta di un metodo efficiente in termini di risorse temporali ed economiche.
SVANTAGGI
Può favorire il group-think e la conformità sociale, può creare inibizioni nei singoli soggetti a causa
di una diseguale distribuzione di conoscenze, di competenze dialogiche e di potere, può favorire un
approccio superficiale ai problemi a spese dell’approfondimento. E’ molto più complesso da gestire
da parte del ricercatore/facilitatore.
Discussione di casi concreti in ambienti e su temi diversi.
INTERVISTA BIOGRAFICA
Intervista condotta sulla base di una traccia più o meno strutturata – in certi casi analoga a quella di
un’intervista libera non strutturata, in altri a quella di un’intervista focalizzata - partendo da un invito
volutamente generico, rivolto dall’intervistatore all’intervistato, a raccontare la vicenda della propria
esistenza, iniziando da un momento qualunque e seguendo un percorso discorsivo che egli stesso può
liberamente scegliere.
Alcuni autori distinguono tra resoconto storico (life history) e storia di vita (life story).
Il primo è mirato a cogliere un aspetto specifico della vita di una persona (la famiglia, il lavoro, ecc.),
mentre la seconda investe la vita intera.
Da qui il ricorso, da parte dell’intervistatore, a tracce diversamente strutturate per la conduzione
dell’intervista: una traccia più strutturata per il resoconto storico e una, invece, meno strutturata nel
caso della storia di vitaàin questo modo si pone maggior enfasi sulla libera «creatività» del narratore
à l’intervistatore assume un semplice ruolo di guida e di facilitatore in un processo aperto e di
prioritaria competenza dell’intervistato.
un’unità di misura convenzionale. Le scale sono costituite da una batteria di domande, ossia da
domande formulate allo stesso modo e presentate in un unico blocco.
Principali vantaggi:
Risparmio di spazio e tempo, facilitare la comprensione del meccanismo di risposta, consentire la
costruzione di indici sintetici.
TIPOLOGIA DI DOMANDE
Risposte semanticamente autonome
• Ogni risposta ha un significato compiuto;
• Non è necessario conoscere il significato di tutte le alternative;
• È garantito solo l’ordine delle modalità non è nota la distanza tra loro;
• L’intervistato sceglie una categoria per il suo contenuto, indipendentemente dalla
posizione nei confronti delle altre.
Risposte a parziale autonomia semantica
• Il significato di ogni categoria è solo parzialmente autonomo dalle altre;
• Non si può affermare che le diverse modalità di risposta sono fra loro equidistanti;
Scale auto-ancoranti
• Solo le due categorie estreme sono dotate di significato;
• All’interno di un continuum l’intervistato colloca la sua posizione;
• L’unità di misura della scala è soggettiva.
valore dell’indice deve essere maggiore o uguale a 0,90 (Cioè errori pari o inferiori al 10% delle
risposte). CR =1- n°errori/n°totale risposte
Esiste anche un altro indice, detto di minima riproducibilità marginale, che segnala il valore minimo
al di sotto del quale il coefficiente riproducibilità non può scendere, quali che siano le sequenze delle
risposte. Esso deve essere confrontato con il coefficiente di riproducibilità, solo se il secondo, oltre
ad essere maggiore di 0,90, e anche nettamente superiore al primo si può affermare che la buona
riproducibilità della scala è dovuta ad un’effettiva scalabilità dei suoi elementi e non alla distribuzione
marginale delle risposte. Quarta fase analisi dei risultati procedura di individuazione degli errori,
riordinando le righe e le colonne della matrice dati delle risposte sulla base del punteggio ottenuto e
del numero di risposte affermative ottenuto, gli errori sono facilmente individuabili.
Il coefficiente di riproducibilità misura il grado di scostamento della scala osservata dalla scala
perfetta cioè proporzione di risposte esatte (teoriche) sul totale delle risposte.
Suggerimenti: evitare elementi poco discriminanti (troppe risposte sì o troppe risposte no); numero
sufficientemente elevato di elementi; ispezionare attentamente le sequenze erronee;
I limiti dello scalo gramma di Guttmann:
1. Il punteggio finale che si ottiene sulla variabile latente resta una variabile ordinale (o quasi
cardinale);
2. Quando l’atteggiamento diventa complesso può essere difficile riuscire a scalarlo in
sequenze cumulative per cui gli errori possono risultare numerosi;
3. Il modello risulta essere rigidamente deterministico, mentre la realtà sociale può essere
correttamente interpretata solo attraverso modelli probabilistici che contemplino la
possibilità di errore e il passaggio graduale fra le posizioni.
Tale tecnica non si basa sulla descrizione soggettiva e diretta del significato da parte dell’intervistato
ma sulle associazioni che gli instaura tra ciascun concetto ed altri proposti in maniera standardizzata.
Il concetto viene così valutato su una serie di aggettivi contrapposti, separati da una scala grafica.
Tabella 4 Scala di OsGood
Le fonti di dati
Nella ricerca sociale il concetto di fonte può avere una pluralità di significati.
In termini generali rappresenta un qualunque tipo di documento o di procedimento che consenta di
acquisire notizie, informazioni o dati che si riferiscono a fenomeni, avvenimenti, gruppi sociali,
collocati in un certo contesto e relativi a un certo momento temporale.
Schematicamente, i dati che il ricercatore sociale utilizza possono provenire da fonte orale o da fonte
scritta.
Per fonte orale intendiamo le notizie emerse nel corso di colloqui, interviste, incontri.
Per fonte scritta, invece, assumiamo tutti i documenti scritti, sia di carattere narrativo (per es.
documenti di archivio, biografie, lettere personali, storie di piccoli gruppi, etc.), sia di natura
statistica, vale a dire documentazioni, pubblicazioni con informazioni quantitative inerenti gruppi di
popolazione e caratteri economici, sociali, politici.
Le fonti statistiche
I possibili criteri di classificazione delle fonti statistiche sono molteplici.
Due fattori importanti da considerare per distinguere tra le diverse fonti sono:
• Natura dell’ente produttore
• Scopo della rilevazione
Scopo
Conoscitivo Amministrativo
Enti istituzionali X X
Strutture scientifiche X
Organismi privati X X
Tabella 5
Le fonti istituzionali
Chiamiamo istituzionali quelle fonti che raccolgono informazioni statistiche in base a normative di
legge.
La principale fonte istituzionale italiana è l’Istat con i suoi uffici decentrati, che in base alla legge
istitutiva (1929), deve «provvedere alla compilazione, alla illustrazione e alla pubblicazione delle
statistiche generali e speciali, disposte dal governo e (deve) effettuare direttamente...indagini
statistiche che possano comunque interessare l’azione del governo».
Dal 1989 l'Istat svolge un ruolo di indirizzo, coordinamento, assistenza tecnica e formazione
all'interno del Sistema statistico nazionale (Sistan). Il Sistema è stato istituito con il d. lgs. 322/1989
come modificato dal dpr 166/2010 per razionalizzare la produzione e diffusione delle informazioni e
ottimizzare le risorse destinate alla statistica ufficiale.
Del Sistan fanno parte l'Istat, gli enti e organismi pubblici d'informazione statistica (Inea, Isfol); gli
uffici di statistica delle amministrazioni dello Stato e di altri enti pubblici, degli Uffici territoriali del
Governo, delle Regioni e Province autonome, delle Province, delle Camere di commercio (Cciaa),
dei Comuni, singoli o associati, e gli uffici di statistica di altre istituzioni pubbliche e private che
svolgono funzioni di interesse pubblico.
Questi enti, cui lo Stato ha delegato competenze funzionali, possono raccogliere informazioni di
supporto per l’espletamento di tali funzioni, per il controllo delle decisioni assunte e per l’erogazione
di servizi pubblici ai cittadini. Si tratta, pertanto, di enti che possono rilevare informazioni sia di
carattere conoscitivo che di natura amministrativa (process-produced data).
Le fonti private e scientifiche
Private
Questa categoria di fonti è costituita da società e strutture private: associazioni, consorzi,
organizzazioni sindacali di lavoratori dipendenti e dei datori di lavoro, uffici e studi di aziende private.
Scientifiche
Gli enti di natura scientifica, tra cui ricordiamo il Consiglio nazionale delle ricerche, le Università, il
Censis, alcune fondazioni, gli Istituti di ricerca (anche presso enti amministrativi), sono enti che
raccolgono dati primari e/o utilizzano, rielaborandole, le informazioni già disponibili presso altri enti
o strutture.
Alcune fonti scientifiche più accreditate sono anch’esse parte del Sistan.
Fonti per scopo della rilevazione: fonti amministrative
I dati di natura amministrativa sono prodotti dall’attività amministrativa (process-produced data)
delle istituzioni pubbliche o con funzione pubblica.
Consentono di acquisire informazioni regolarmente aggiornate su individui od enti.
Le più note di queste rilevazioni sono sicuramente le anagrafi o registri della popolazione. Esse sono
tenute dalle amministrazioni comunali ed hanno la funzione di registrare nominativamente gli abitanti
residenti nel comune.
Altri esempi di rilevazioni amministrative sono il registro delle imprese, il PRA (Pubblico registro
automobilistico) e le liste elettorali.
Fonti per scopo della rilevazione: fonti conoscitive
DATI CENSUARI
Censimento generale dell’agricoltura
Censimento generale dell’industria e dei servizi
Censimento generale della popolazione e delle abitazioni.
I censimenti generali sono indagini esaustive a cadenza decennale che descrivono le caratteristiche
demografiche, sociali, economiche del Paese microarea per microarea.
VANTAGGIàesaustività e copertura geografica completa.
SVANTAGGI à costi elevati e scarsa tempestività. Nel 2011, la prima realizzazione web assistita.
Tuttavia:
I costi restano alti e concentrati nel tempo.
Lo sfruttamento dei dati amministrativi resta contenuto e inferiore alle potenzialità
offerte dal contesto italiano.
Il prodotto informativo censuario continua a invecchiare presto, limitando l’offerta di informazione
statistica per grandi dettagli territoriali a un momento raro nel tempo.
(art. 3 DL 179/2012) Censimento continuo della popolazione e delle abitazioni e Archivio Nazionale
delle Strade e dei Numeri Civici (ANSC).
DATI DA INDAGINI CAMPIONARIE
Si tratta di dati che provengono da rilevazioni rivolte non a tutte le unità della popolazione ma soltanto
a una parte e, in particolare, a un campione rappresentativo della popolazione stessa.
VANTAGGI àcosti inferiori e ampio approfondimento.
SVANTAGGI àminore attendibilità e rappresentatività
generalmente limitata a macroaree territoriali. Esempi importanti sono le indagini ISTAT su:
Le forze di lavoro (rilevazione trimestrale)
Il sistema di Indagini Sociali Multiscopo:
• Aspetti della vita quotidiana (annuale)
• Viaggi e vacanze (trimestrale)
• Condizioni di salute e ricorso ai servizi sanitari (quinquennale)
• I cittadini e il tempo libero(quinquennale)
• Sicurezza dei cittadini (quinquennale)
• Famiglie e soggetti sociali (quinquennale)
• Uso del tempo (quinquennale).
Le relazioni spurie
Spesso, gli studi ecologici traggono in inganno perché evidenziano relazioni che in realtà sono spurie.
Le relazioni spurie si hanno quando due fenomeni risultano correlati tra loro ma non sono
necessariamente legati da un rapporto causa-effetto.
La significatività delle relazioni non è semplicemente un problema statistico ma soprattutto un
problema di conoscenza sociologica del fenomeno;
L’analisi ecologica consente (con le dovute accortezze) di connotare i contesti aggregati entro i quali
si svolge la vita degli individui;
Sarà compito del ricercatore individuare le connessioni di senso tra i risultati, formulando opportune
ipotesi interpretative sulla base delle informazioni rilevate ai diversi livelli di analisi (individuale e
territoriale).
Vantaggi e limiti dei dati ecologici
Vantaggi
•Consentono lo studio della dimensione macro (il contesto)