Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
1. Saper costruire in modo corretto alcuni strumenti di raccolta dei dati Acquisizione di capacità
professionali.
2. Saper valutare il lavoro di ricerca empirica fatto da altri Acquisizione di capacità di valutazione.
Capacità professionali
Capacità di valutazione
Cos’è il metodo?
Nella sua accezione più vicina al significato greco originario, possiamo intendere il metodo come strada per
raggiungere un certo fine. Il metodo scientifico è la modalità utilizzata dalla scienza per aumentare la nostra
conoscenza sul mondo.
Regole certe e facili, automatiche, che vanno osservate esattamente, seguendo le quali si raggiunge la
conoscenza scientifica su un qualsiasi argomento: il metodo scientifico è un insieme di passi rigorosamente
stabilito
METODO IPOTETICO-DEDUTTIVO
Per molto tempo, anche nelle scienze umane, ha prevalso la convinzione che il metodo ipotetico-deduttivo
sia l’unico metodo possibile per la scienza. Nella sua visione classica, l’applicazione del metodo scientifico a
un problema comporta i seguenti passi:
1) Si definisce il problema:
- Perché alcuni oggetti a parità di forza di spinta vanno più lontani?
2) Il problema è formulato nei termini di un particolare quadro teorico
- Meccanica classica ( branca della fisica che si occupa delle relazioni tra il movimento di un corpo e
gli enti che lo modificano.
3) Si immaginano uno o più ipotesi relative al problema, utilizzando i principi teorici più accettati
- Forse non dipende dall’oggetto, ma da ciò che incontra nel suo moto
4) Si determina la procedura da usare nel raccogliere dati per controllare l’ipotesi
- Prendiamo oggetti con la medesima spinta e li facciamo muovere su superfici diverse
5) Si raccolgono dati
- Tanto più è liscia una superficie tanto più l’oggetto va lontano
6) Si analizzano i dati per appurare se l’ipotesi è verificata o respinta
- Modello: velocità = attrito*tempo = 0
Se un corpo è soggetto ad un sistema di forze a risultante zero, allora rimane in quiete o in moto
rettilineo uniforme
Le conclusioni dello studio sono collegate al corpus precedente della teoria, che viene modificato
per accordarlo alle nuove risultanze.
Prima legge del moto: in assenza di attrito la velocità non si annulla
Quest’idea di metodo dipende in larga parte dall’orientamento scientista che dominava nelle scienze
umane, non condiviso nell’ambito delle scienze naturali.
Inoltre, identificare una serie di procedure con ‘’il metodo scientifico’’ contiene il rischio di spostare
l’attenzione dal contenuto alla forma.
Visione più contemporanea: in realtà il metodo è una scelta tra modi alternativi di procedere. La ricerca
scientifica impone di prendere decisioni e dunque il metodo è qualcosa di più di una semplice sequenza
unidimensionale di passi: come scrive marradi -> è come le massime di un’arte che lo scienziato applica in
modo originale ai suoi problemi.
Il metodo consiste nell’arte di scegliere le tecniche più adatte ad affrontare un problema cognitivo,
eventualmente combinandole, confrontandole, apportando modifiche e al limite proponendo qualche
soluzione nuova.
Il metodologo compie queste scelte alla luce delle sue competenze tecniche e delle esperienze di ricerca
sue e altrui, entrambe condizionate dalle sue opzioni gnoseo-epistemologiche
1) Riguarda l’insieme dei criteri (teorici ed operativi) sulla base dei quali un risultato può ritenersi
scientifico.
2) Si riferisce alla pratica adottata dalla comunità scientifica nella sua attività di ricerca.
COS’è LA METODOLOGIA
COS’è L’EPISTEMOLOGIA
È la disciplina che riflette sugli scopi, le condizioni, le possibilità e i limiti della conoscenza scientifica.
È la scienza che riflette in modo critico su se stessa, sulla propria struttura logica e la propria metodologia,
cioè indaga sulle condizioni di validità e giustificazione della conoscenza scientifica.
La metodologia deve essere collegata a entrambi i poli di questo continuum, perché se abbandona il suo
lato epistemologico, si appiattisce su una tecnologia o una pratica che non controlla intellettualmente. Se
abbandona il lato tecnico, si trasforma in una pura riflessione filosofica sulle scienze sociali, incapace di
incidere sulle attività di ricerca.
Sono gli strumenti che compongono la ‘’cassetta degli attrezzi’’ a disposizione dei ricercatori per realizzare
concretamente la ricerca empirica, per osservare e comprendere i fenomeni sociali: solo le specifiche
procedure operative di cui si serve per acquisire e controllare i risultati di ricerca empirica.
Le tecniche sono modi codificati di procedere riconosciuti da una collettività, trasmessi e trasmissibili per
apprendimento. Nel campo della ricerca sociale, esse permettono di conoscere aspetti della realtà sociale.
TECNICHE DI RILEVAZIONE
Sono le tecniche usate per raccogliere le informazioni alla base del prpocedimento scientifico, ad esempio:
le scale di rilevazione degli atteggiamenti impiegate nel questionario. La foto-stimolo come domanda di
un’intervista in profondità.
TECNICHE DI ANALISI
Sono le tecniche usare per elaborare le informazioni raccolte, ad esempio: la tabulazione incrociata per
rintracciare legami statisticamente significativi tra variabili di una matrice dati: l’analisi del contenuto per
catalogare le risposte a domande aperte di un’intervista.
Lezione 2
Nel capitolo 2 del Marradi si tratta del problema che sta alla base di ogni tipo di conoscenza: la mancata
corrispondenza tra realtà, pensiero e linguaggio.
Il pensiero non è una copia fotografica della realtà che vuole conoscere e il linguaggio non è la riduzione
esatta del pensiero. Per cui ogni nostra conoscenza della realtà è incerta, fallibile, rivedibile.
Lo stesso segmento della realtà può essere concettualizzato in modi radicalmente diversi da soggetti diversi
( esempio antropologo in Congo), il che significa che fra aspetti della realtà concetti che li rappresentano
non c’è un giunto rigido, una corrispondenza biunivoca ( del tipo: A corrisponde solo a B e B corrisponde
solo ad A)
Affermare che non c’è alcuna qualità inerente in un oggetto che ci costringa a percepirlo esattamente in
quel modo non significa che esiste una totale indipendenza della concettualizzazione dalle caratteristiche
del referente ( = qualunque cosa alla quali il soggetto pensi in quel determinato momento)
IL RUOLO DELL’ESPERIENZA
Ad esempio l’assenza di esperienza di un certo genere fa si che un soggetto non abbia elaborato concetti ad
essa collegati ( esempi: Maya e montagna, abitanti foresta amazzonica e stagione) Tuttavia, tale difficoltà
non comporta che l’esperienza ci detti il modo in cui dobbiamo concettualizzare.
IDEE E SENSAZIONI
L’empirismo è la corrente gnoseologica che sostiene una forte dipendenza delle nostre idee dalle nostre
sensazioni, per cui la conoscenza passa inevitabilmente dal piano esperienziale, e il fine dei concetti è di
costruire copie rappresentative della realtà oggettiva.
ORDINARE LA REALTA’
In realtà i concetti sono un mezzo che ci consente di dominare intellettualmente i fenomeni empirici: non
sono la realtà, né la copiano, ma permettono di ordinarla concettualmente in maniera valida.
Collaborazione soggetto e oggetto nel determinare ciò che viene effettivamente visto (Esempio Ticho e
Keplero)
Nelle attività irriflesse della vita quotidiana, specie quando i referenti sono oggetti, ognuno di noi si
comporta come se il giunto fra parole e cose fosse rigido.
Il pensiero greco è dominato dall’idea dell’oggettività del linguaggio e per la semantica estensionale i segni
traggono il loro significato dalla corrispondenza con gli oggetti esterni.
Comportamentismo (behaviorismo)
Si studiano solo im comportamenti. Nei primi del ‘900, anche in psicologia nasce un movimento che si
prefigge di eliminare il pensiero (e quanto altro abbia luogo nella mente) dai possibili oggetti di studio, per
limitarsi a registrare ciò che è percepibile con i cinque sensi, e parlare solo di comportamenti.
Operazionismo
Diffuso soprattutto in sociologia tra il 1930 e il 1950, afferma che con un qualunque concetto noi non
indichiamo nient’altro che una serie di operazioni, per cui il concetto è sinonimo della corrispondente serie
di operazioni: se abbiamo più di una serie di operazioni abbiamo più di un concetto, e dovrebbe esserci un
termine differente per ogni differente insieme di operazioni.
Tutte queste correnti affermano che c’è un nesso tra realtà e linguaggio
La svolta cognitivista
Nella seconda metà del ‘900 si inizia a criticare la tesi di un giunto rigido fra i termini e i loro referenti (fra
realtà e linguaggio). A riprova della natura elastica del giunto lo stesso oggetto fisico e denominato in
cento modi diversi da cento lingue diverse, e in molti modi diversi anche nella stessa lingua (esempio
dizionario dei sinonimi e contrari)
Riconoscere che il giunto tra referente e termine è elastico significa riconoscere il ruolo di mediazione
svolto dal pensiero nel connetterli: un termine è il simbolo di un concetto, per cui l’oggetto (referente di un
termine) non coincide mai col suo significato (esperimento sedie).
Corrispondenza biunivoca?
Anche in questo caso, non regge la tesi per cui la corrispondenza biunivoca tra concetti e termini sia di
origine naturale (altrimenti ci sarebbe tra gli uomini un solo linguaggio), ma è altrettanto impensabile che
sia avvenuta per imposizione volontaria, per cui una parola viene assunta arbitrariamente a contrassegno di
una tale idea (quando? E in che lingua?).
Il rapporto concetti-termini
Un concetto si delimita, si precisa, diventa afferrabile concretizzandosi in un qualche simbolo prima di tutto
per chi lo pensa (e poi per gli eventuali interlocutori): il linguaggio ha principalmente la funzione di fornire
un supporto stabile, in modo che i concetti possano essere richiamati alla mente ogni volta che è
necessario.
Si riconosce più facilmente di stare pensando oggi allo stesso (più o meno) referente al quale pensavamo
ieri se usiamo gli stessi termini, ma il fatto che usiamo gli stessi termini non garantisce che i concetti, e
neppure che i referenti, siano gli stessi.
Esempio: esercizi su definizioni dello stesso termine di uso comune a distanza di tempo.
In tal modo il pensiero si oggettivizza: spersonalizzati e codificati attraverso un codice intersoggettivo i pensieri
diventano comunicabili.
Da un lato contribuisce alla formazione dei concetti: la presenza di un certo termine nella mente di chi
pensa gli ricorda che ha già affrontato e risolto il compito di concettualizzare quel dato referente
(ancoraggio).
Tuttavia, ciò non significa che il linguaggio sia una condizione necessaria del ragionamento.
Conseguenze metodologiche
La rilevanza per la metodologia di quanto detto ha due ragioni:
1) esiste una profonda differenza tra la matematica (e la logica) che può raggiungere la certezza, ma
non si riferisce alla realtà, e le scienze, che si riferiscono a un segmento di realtà, ma non possono
raggiungere la certezza che le loro affermazioni siano vere.
1. Discipline formali
Le discipline formali (es. matematica), possono raggiungere la certezza per due motivi:
a) non si occupano della realtà, i loro concetti non hanno referenti percepibili con i cinque
sensi. Eliminando la realtà il giunto tra referenti e concetti può essere rigido;
b) istituiscono giunti rigidi fra i propri concetti e i segni corrispondenti (linguaggio artificiale):
tutti i suoi segni sono costruiti fin dall’inizio in modo da avere un solo significato. Ne
consegue che la coppia concettuale vero/falso non è correttamente applicabile alle
proposizioni della matematica (7+4=12 è sbagliato, non falso), in quanto le sue
affermazioni non richiedono controlli empirici per la loro convalida.
2. Matrice dati e realtà
Gran parte della ricerca sociale è condotta secondo criteri standard (analisi statistiche su una
matrice dati), ma la matrice dati non è affatto la realtà, tuttalpiù ne rappresenta alcuni segmenti
in modo tanto più fedele quanto più accurate sono state le operazioni di raccolta e trattamento
delle informazioni.
Purtroppo la gran parte dei ricercatori che seguono l’approccio standard dedica scarsa attenzione
alle operazioni di rilevazione e trasformazione in dati delle informazioni, preferendo dedicarsi
all’elaborazione statistica della matrice dati, ma con dati scadenti i risultati sono scientificamente
e sociologicamente irrilevanti.
Prendere troppo sul serio montagne di cifre fini a se stesse fa correre il rischio di perdere di vista la
sostanziale rozzezza di tutti gli strumenti a disposizione dello scienziato sociale; le tecniche non
vanno usate in modo meccanico, ma consapevole, perché solo un uso critico delle tecniche, solo
considerarle mezzi e non fini, rende possibile governarle.
Capitolo 3 Marradi
Concetto
Un concetto è un'unità non indivisibile, nel senso che se ne possono individuare vari aspetti, che
sono a loro volta dei concetti (esempio gatto).
L'insieme di questi aspetti viene detto intensione di un concetto, per cui un concetto è la sua
intensione, cioè l'insieme dei suoi aspetti (definitori e contingenti).
Estensione di un concetto
Se l'intensione di un concetto si riferisce all’insieme di proprietà condivise dagli oggetti che cadono
sotto il concetto ( se tutti gli oggetti cadono sotto il concetto di gatto, quindi miagolano, hanno il
pelo ecc.), con estensione di un concetto ci si riferisce alla classe di oggetti che cadono sotto il
concetto, ed è sempre relativa a un determinato spazio ambito-temporale (che può anche essere
l’intero universo). Vedi esempio sotto per capire.
Estensione del concetto GATTO Ha quattro zampe, miagola, è indipendente
Estensione del concetto GATTO I gatti del mio quartiere
Scala di generalità
I tre concetti precedenti si possono immaginare come situati su differenti gradini di un’ipotetica
scala di generalità, perché tutti i referenti di A (laureati in sociologia a Firenze) sono anche
referenti di B, mentre non tutti i referenti di B (laureati in sociologia) sono referenti di A.
In questo caso si può dire che B è un genere rispetto ad A, mentre A è una specie di B.
Scala di generalità
Esempio: i gatti sono una specie di felini, che a loro volta sono una specie di mammiferi.
Per ogni diverso modo di articolare l’intensione di un concetto si forma, quindi, una diversa scala
di generalità: a seconda degli aspetti che ne considero, posso inserire un concetto in innumerevoli
scale. Il criterio che si sta articolando si dice fundamentum divisionis (criterio di suddivisione).
Classificazione
L’esistenza di una coppia di concetti che stanno fra loro in rapporto di genere/specie implica la
possibilità di un’altra struttura più complessa: la classificazione.
Se tutti i gatti (concetto di specie) sono felini (concetto di genere), ma non tutti i felini sono gatti, i
referenti del concetto di felino si dividono (almeno) in due gruppi (detti classi): gatti e non-gatti.
Questa contrapposizione A/non A è la forma più elementare di classificazione.
Genere e specie
Nella dottrina classica i generi si suddividono in specie considerando un (solo) aspetto
dell'intensione del concetto di genere (criterio di suddivisione) e articolandolo.
Inoltre, i confini fra le classi sono rigidamente delimitati (mutua esclusività delle categorie): un
referente deve essere attribuibile a una sola classe.
Infine, il complesso delle classi dev'essere esaustivo: ogni possibile referente deve essere
assegnabile a una delle classi.
Schema di classificazione
La mutua esclusività è una proprietà di ciascuna coppia di classi, l’esaustività è un requisito
dell’insieme delle classi. Queste due proprietà considerate insieme garantiscono che ogni
referente del concetto di genere sia assegnato ad una ed una sola delle classi di uno schema di
classificazione.
Tassonomia
Ancora più complessa è la tassonomia, che viene prodotta se, dopo aver diviso l'estensione di un
concetto applicando un fundamentum divisionis, l'estensione di alcune (o tutte) le classi così
ottenute viene ulteriormente suddivisa applicando altri criteri.
Al contrario di quanto avviene nella tipologia, nella tassonomia l'ordine in cui i fundamenta
vengono considerati è determinante.
Esempio di tassonomia
Strutture concettuali
Classificazioni, tipologie, tassonomie hanno in comune una caratteristica: non sono né vere, né
false, non sono nemmeno pensabili come tali, sono strutture che creiamo per organizzare i nostri
referenti, ma ciò non implica che la realtà sia organizzata proprio in questo modo.
Pre-asserti
Concetti e strutture concettuali, pur non essendo pensabili come veri o falsi, sono però
componenti necessarie di tutte le affermazioni possibili, le predispongono, nel senso che
individuano oggetti cognitivi a proposito dei quali si potranno formulare affermazioni pensabili
come vere/false; per questo loro ruolo possiamo designarle con il termine pre-asserti
Criteri di valutazione
Pur non essendo veri/falsi, i pre-asserti non sono tutti equivalenti e fungibili (uno vale l’altro). I
criteri per valutarli sono:
• l'utilità (rilevanza dei fundamenta scelti per organizzare e rendere comprensibili le
esperienze);
• il grado di corrispondenza fra le soglie divisorie fra le classi e le zone di maggior
discontinuità nell'insieme dei referenti;
• il bilanciamento tra sensibilità e parsimonia (precisione/controllo concettuale).
Lezione 4
Asserti
L’asserto è l’unico strumento di pensiero che, almeno in linea di principio, può essere mostrato
vero o falso con un adeguato controllo empirico: questa è la fondamentale differenza rispetto a
concetti e strutture concettuali.
Per alcuni asserti il controllo empirico può presentare difficoltà pratiche anche insormontabili, ma
sono sempre pensabili e potenzialmente accertabili come veri o falsi.
Controllo empirico
Anche quando il controllo empirico di un asserto è possibile non è detto che abbia un esito
dicotomico, o vero o falso; in molte situazioni sono concepibili gradi intermedi (chiamati valori-di-
verità, truth values) fra i due giudizi estremi.
Spesso non è possibile ottenere una risposta univoca, in particolare per due motivi:
1. pur controllando, non abbiamo acquisito elementi sufficienti per pronunciarci in maniera
univoca;
2. l’asserto in questione è generale, cioè ascrive un certo attributo a una pluralità di oggetti,
che però non hanno tutti quell’attributo, per cui l’asserto risulta vero per alcuni e falso per
altri.
Asserti universali
È un genere di asserti che si riferisce a un numero illimitato di soggetti, e perciò ha uno status
particolare rispetto alla coppia concettuale vero/falso.
Forma classica: Tutti gli X sono a
esempio: Tutti i corvi sono neri
Gli asserti universali non possono essere accertati come veri nella pratica, dovuta al numero
indeterminato delle situazioni da controllare.
Asserti esistenziali
Sono asserti speculari a quelli universali, che contraddicono l’asserto universale.
Esiste (almeno) un X che non è a
Esiste un corvo che non è nero
In questo caso basta trovare un solo corvo grigio per concludere che l’asserto universale è falso e
l’asserto esistenziale è vero.
Definizioni descrittive
La frase: «La botte è un grande recipiente cilindrico, fatto di doghe di legno stagionato e incurvato,
nel quale si conserva il vino» riporta il significato abituale del termine ‘botte’ ed è un esempio di
definizione descrittiva, o lessicale, che si trova tipicamente nei dizionari.
Essa esprime un asserto che può essere sottoposto a un giudizio di falsità/verità (meglio: si può
giudicare se essa rispecchia più o meno fedelmente l’uso corrente).
Definizioni stipulative
La frase: «Con l’espressione ‘socializzazione anticipatoria’ intendiamo il fatto che molte persone
che vogliono immigrare nel paese X tendono ad adottarne i costumi ancor prima di esservisi
trasferite» enuncia il significato che l’autore intende dare all’espressione in questione, ed è un
esempio di definizione stipulativa, o nominale, che può riguardare termini nuovi, oppure già usati
con altri significati.
Essa non è suscettibile di un giudizio di falsità/verità (tuttalpiù può risultare inutile).
Si definiscono i termini
I due esempi dovrebbero aver chiarito che non si definiscono i concetti, si definiscono i termini (o
le espressioni), stabilendo una loro equivalenza semantica con altre espressioni, di solito più
complesse e articolate.
L’equivalenza è stabilita in base ai significati attribuiti da chi fornisce la definizione a tutti i
termini.
Spiegazioni causali
Gli asserti relativi agli enunciati A e B possono essere controllati empiricamente senza difficoltà, e
l’asserto relativo all’enunciato C non pone problemi di controllo diversi da quelli dei due asserti
considerati separatamente.
Diverso è se colleghiamo gli enunciati A e B con una congiunzione che esprime un legame causale
tra i fenomeni che descrivono:
In questo caso il secondo enunciato esprime una spiegazione causale dell’evento descritto dal
primo che è pensabile come vera o falsa, ma che per deciderla incontra difficoltà di ordine
diverso da quelle incontrate per decidere i due asserti A e B separatamente, o l’asserto C (come
escludere altre cause?).
Nozione astratta
La causazione non è un concetto osservativo (neppure nel senso più largo), ma piuttosto una
nozione altamente astratta: anche se non è osservabile, si suppone che esista un legame causale
tra i referenti, in base al quale viene proposta una certa spiegazione.
La spiegazione, perciò, è relativa alla sfera dei referenti (non alla sfera del linguaggio o del
pensiero).
Modello nomologico-deduttivo
Gli empiristi logici hanno aggirato il problema della non-decidibilità delle spiegazioni immaginando
la spiegazione nomologico-deduttiva (Hempel).
l’evento (E) si spiega correlando determinate condizioni (C) con delle leggi generali (L); un
fenomeno risulta spiegato se può venire dedotto da certe condizioni antecedenti connesse ad una
teoria (quindi i dati possono diventare rilevanti solo se esiste una teoria).
A è un asserto di portata universale (legge)
B è un asserto che attribuisce un referente a una classe (condizioni)
C è un asserto relativo a un tipo di referente (evento)
Tutti questi asserti sono controllabili empiricamente e decidibili; in tal modo l’operazione creativa
di imputazione delle cause (che abbiamo detto essere non decidibile) viene trasformata in
un’operazione meramente logica (sillogismo tautologico): la spiegazione diventa esemplificazione,
non fa che rinviare il compito della spiegazione (perché i gas si dilatano?).
Spiegazioni teleologiche
La fallacia assertoria
È importante aver presente la distinzione in tre livelli degli strumenti del pensiero (concetti e
strutture concettuali; asserti; spiegazioni) perché la riflessione sulla scienza, da Galilei in poi, si è
concentrata sul livello degli asserti trascurando gli altri due.
Come vedremo nel prossimo capitolo, per Galilei la scienza deve limitarsi a formulare asserti sulle
relazioni fra le proprietà degli oggetti, cioè formulare leggi.
Tradizione empirista
Nella tradizione empirista (positivista e neo-positivista) non si fa che riproporre l’idea che si possa
arrivare a formulare asserti veri attorno al mondo, conoscendoli con certezza come tali.
Tutto ciò attrae l’attenzione sulla dicotomia vero/falso e quindi sugli asserti, il cui principale
attributo è appunto l’accertabilità, in via di principio, come vero/falso
Incongruenza
Visto che gli asserti sono composti di concetti, com’è possibile ritenere importanti i primi e
trascurabili i secondi?
Perché l’epistemologia «certista» è accompagnata da una gnoseologia realista: i concetti non sono
problematici perché rispecchiano isomorficamente i loro referenti: poiché i concetti rispecchiano
fedelmente i loro referenti possiamo darli per scontati.
Rischi impliciti
In realtà non si può affatto dare per scontato che il nostro patrimonio concettuale aderisca
perfettamente alla realtà, che abbia raggiunto il massimo dell’adeguatezza; il suo miglioramento è
un compito epistemologico fondamentale.
Da questa impostazione deriva l’attenzione prevalente per le tecniche di analisi dei dati, perché
queste servono a produrre e controllare asserti sulle relazioni fra proprietà
Gli asserti sono ponti che collegano i piloni sui quali sono basati (i concetti).
Se ─ per colpa di un’inadeguata preparazione concettuale della ricerca empirica e della
superficialità con cui si affrontano compiti di classificazione e creazione di tipi ─ i piloni sono
basati sulla sabbia, il ponte potrà anche sembrare ardito ed elegante, ma crollerà al primo soffio di
vento.
Lezione 5
Approcci alla scienza
Metodo sperimentale
Per Galilei compito della scienza è formulare, controllare e decidere asserti, che descrivano le
relazioni matematiche che intercorrono tra le proprietà quantificabili degli oggetti.
Questi asserti devono essere controllati e decisi in modo impersonale, cioè senza alcun contributo
delle conoscenze e delle valutazioni dei singoli scienziati
La novità sta proprio nello spostare l’attenzione dagli oggetti alle relazioni sulle proprietà: lo
scienziato deve trovare la forma matematica che queste relazioni hanno in natura (leggi valide in
qualunque tempo e luogo).
Poiché tali relazioni non sono direttamente accessibili all’osservazione bisogna immaginare degli
esperimenti per comprovarle. Questa è la base del metodo sperimentale.
Logica dell’esperimento
Un esperimento si ottiene quando si osservano gli effetti che variazioni controllate in una
proprietà (operativa) hanno su un’altra proprietà (sperimentale) mentre si mantengono costanti
tutte le altre proprietà che potrebbero influenzare la seconda (impedendo variazioni degli stati
sulle proprietà che potrebbero offuscare la relazione tra operativa e sperimentale).
Struttura di un esperimento
La proprietà che considero causa la scelgo sulla base delle teorie esistenti in quel momento.
Struttura di un esperimento
La C diventa la proprietà Operativa e la P diventa la proprietà Sperimentale.
Realizzazione
Lo sperimentatore vuole isolare l’influenza della proprietà C, che diventa la proprietà operativa,
sulla proprietà P, che diventa la proprietà sperimentale.
Per isolare questa influenza deve tenere costanti tutte le alte proprietà che possono influenzare
(in base alle teorie vigenti) la proprietà sperimentale, il che presenta notevoli problemi tecnici.
Risultati
Realizzando un esperimento in questa forma ideale, lo scienziato può scoprire la ‘forma pura’
(senza influenze provenienti da altre fonti) della relazione tra proprietà operativa e proprietà
sperimentale, e può determinare la direzione di questa relazione, cioè sostenere che la proprietà
operativa ha un’influenza causale sulla proprietà sperimentale.
Oggetti fungibili
Le scienze fisiche (che studiano il mondo inanimato) si occupano di oggetti fungibili, cioè privi di
individualità, pertanto possono affermare, dopo un esperimento, che «il mutamento osservato
negli stati della proprietà sperimentale è causato dalle variazioni della proprietà operativa secondo
questa funzione matematica», perché possono dare per scontato che gli oggetti dello stesso tipo
si comportino sempre nello stesso modo nelle stesse condizioni
Questa caratteristica degli oggetti permette di estendere al di là del caso specifico il risultato di un
esperimento su oggetti di un certo tipo, generalizzandone i risultati a tutti gli oggetti considerati
del medesimo tipo.
Al contrario, gli oggetti delle scienze umane non sono fungibili.
Limite teorico
Il modello sperimentale ha un limite teorico e diversi limiti pratici.
1. Non si può mai escludere con sicurezza che proprietà non incluse nel modello perché
ritenute non influenti invece influenzino la proprietà sperimentale.
Data la presenza di innumerevoli proprietà che variano liberamente, non si può mai dare per
scontato che il modello sia definitivo e non abbia bisogno di modifiche
Limiti pratici
2. Non sempre è tecnicamente possibile controllare alla perfezione le variazioni che
produciamo nella proprietà operativa, e spesso non è possibile neutralizzare
perfettamente l’influenza delle proprietà che si vorrebbero tenere costanti.
3. Non sempre si può escludere che la proprietà sperimentale influenzi la proprietà operativa,
cioè che la relazione che si considera sia bi-direzionale.
Scienze umane
Nelle scienze umane non si può immaginare di isolare una coppia di proprietà bloccando tutte le
altre, che continueranno ad influenzare la proprietà sperimentale, e/o operativa e/o la relazione
tra loro.
Molte proprietà importanti nelle scienze umane non possono essere modificate a scelta del
ricercatore: o sono fisse (sesso) o variano secondo un processo in cui non si può intervenire (età).
I pochi casi di applicazione del metodo sperimentale ai problemi delle scienze umane che hanno
dato risultati interessanti sono comunque molto lontani dall’essenza del metodo sperimentale
nella concezione galileiana.
Anche credendo di essere riusciti ad isolare la relazione tra O e S dalle influenze esterne, il risultato
sarebbe relativo a quella situazione e non estendibile in altri tempi e luoghi.
Approccio standard
Lo strumento basilare dell’approccio standard è la matrice dati, una griglia rettangolare nella
quale
• ogni colonna rappresenta una variabile (trasformazione di proprietà)
• e ogni riga rappresenta un caso (un’unità d’analisi) tra quelli che rientrano nello studio
Esempio di matrice dati
Matrice dati
È uno strumento fondamentale per le scienze umane, in quanto permette di trattare la variabilità
tra oggetti dello stesso tipo (soggetti, istituzioni ecc.) senza rinunciare a forme di analisi statistica:
consente di mettere il relazione sistematicamente gli stati degli oggetti su due o più proprietà
controllando se esiste una qualche forma di associazione tra queste proprietà nella popolazione
studiata
Assunto atomista
Gli assunti su cui poggia sono:
• ogni caso su una riga della matrice si può scomporre perfettamente nei suoi stati sulle
diverse proprietà registrate nella matrice (individuo=carciofo);
• ogni stato su una proprietà, una volta trasformato in dato sulla matrice, è del tutto
separato dall’individuo che lo detiene;
• ogni stato su una proprietà è totalmente indipendente dagli altri stati dello stesso
individuo su tutte le altre proprietà;
• ogni stato su una proprietà al quale è stato assegnato un codice numerico, una volta
trasformato in dato sulla matrice, è trattato come perfettamente uguale a qualunque altro
stato su quella proprietà con il medesimo codice.
Solo questo complesso di assunti rende possibile l’analisi dei dati: nella fase di analisi, ogni tabella
o diagramma che riportino la relazione tra due variabili possono essere trattati come universi
chiusi.
Unità di misura
Durante il Settecento le comunità delle scienze umane acquisiscono lo strumento (matrice)
necessario per analizzare i dati nella forma tuttora abituale, ma ancora non possiedono unità di
misura specifiche per misurare le proprietà di propria pertinenza.
Le uniche variabili quantitative a disposizione erano il risultato di conteggi (numero di famiglie,
numero di suicidi ecc.)
Rilevare, non misurare
Il primo a cercare di mettere a punto tecniche per stabilire unità di misura degli atteggiamenti fu
Thurstone, ma per quanto ingegnose e complesse, erano molto lontane dall’impersonalità e
ripetibilità che sono i requisiti di un atto di misurazione. In seguito furono ideati altri strumenti di
rilevazione più semplici (es. Likert), così da poter quantificare, almeno in modo approssimativo,
proprietà come valori, atteggiamenti e opinioni, trasformandole in variabili quantitative.
Quantità e qualità
La tendenza a considerare quantitative tutte le proprietà ha caratterizzato l’approccio che nel
ventesimo secolo è divenuto standard nelle scienze sociali. Tuttavia, anche nello strumento più
utilizzato dai ricercatori ‘quantitativi’ (questionario) si incontrano variabili qualitative (aspetti non
quantificabili), e ricercatori ‘qualitativi’ della scuola di Chicago non disdegnavano aspetti
quantitativi.
Il metodo dell’associazione
Aspetti quantitativi e qualitativi si riscontrano in entrambi gli approcci, pertanto occorre trovare un
altro modo di definire l’approccio standard nelle scienze sociali, un approccio che adotta il
presupposto galileiano (compito della scienza è occuparsi delle relazioni fra proprietà degli
oggetti) in una situazione in cui non è applicabile il metodo sperimentale.
Nell’approccio standard alle scienze umane non si possono formulare asserti sulle relazioni causali
nella maniera ‘oggettiva’ postulata nella versione standard della scienza, ma si possono registrare
informazioni sulle proprietà trasformate in variabili in una matrice e rilevare tra esse la presenza di
associazioni, cioè il fatto che a certi valori della variabile A tendano a corrispondere certi valori
della variabile B
Scienze idiografiche
Nello stesso periodo, Windelband propose una distinzione netta tra:
• scienze nomotetiche, il cui obiettivo è cercare leggi, cioè relazioni tra proprietà valide
universalmente,
• scienze idiografiche, il cui obiettivo è ricostruire situazioni particolari individuando e
valorizzando la specificità di ciascuna di esse
Ruolo dei valori
Rickert, loro contemporaneo, sosteneva che il soggetto, nella sua attività intellettuale e nei suoi
giudizi, è guidato da relazioni ai valori; mentre il suo allievo Max Weber fu il primo a sottolineare
che ogni fenomeno sociale non ha una spiegazione unica: ogni scienziato ne dà una spiegazione
partendo dai suoi valori e interessi, e queste spiegazioni non si possono giudicare vere o false, ma
solo più o meno adeguate.
Orientamento non-standard
Mentre il metodo sperimentale e il metodo dell’associazione sono fortemente strutturati (strette
connessioni tra gli assunti che adottano, i concetti, i termini, le tecniche che usano e il tipo di
asserti che producono), l’approccio non-standard ispira forme di ricerca assai differenziate.
Prima conseguenza
Questa tendenza a seguire da vicino la vita quotidiana implica:
b) una forte dipendenza dal contesto: tutta la ricerca è rigorosamente confinata alla
situazione specifica che studia.
Questo a sua volta comporta alcuni criteri comuni:
Implicazioni contestualizzazione
f) la predilezione per la comprensione globale di situazioni specifiche (non per l’istituzione di
relazioni causali lineari tra variabili);
g) il considerare la causazione un processo che si ricostruisce attraverso le narrazioni (e non
attraverso le relazioni statistiche);
Conseguenze tecniche
La mancanza di un metodo scientifico codificato e ritualizzato al quale attenersi implica:
h) una grande importanza della qualità e capacità del ricercatore e dei suoi collaboratori
(considerati meri esecutori nella ricerca standard);
i) la difficoltà nello sviluppare questo genere di ricerca senza cadere nel banale,
nell’aneddotico e senza ‘diventare un nativo’.
Lezione 6 capitolo 5 Marradi
Controllo empirico di una teoria
Secondo Ricolfi il percorso che conduce al controllo empirico di una teoria è composto da
cinque livelli:
1. Disegno della ricerca. Vengono precisati gli interrogativi cui la ricerca intende dare
risposta, quali sono i concetti su cui si intende lavorare e di cui verrà data traduzione
empirica;
2. Costruzione della base empirica. Si decide quali informazioni servono per mettere alla
prova teorie e ipotesi, in quale modo esse verranno rilevate o dove saranno reperite;
3. Organizzazione dei dati. Le informazioni ottenute vengono organizzate in strutture più o
meno formalizzate (vengono trasformate in dati);
4. Analisi dei dati. Gli asserti o nessi di asserti rintracciati nei dati vengono messi a confronto
con la teoria e le ipotesi da cui ha preso avvio la ricerca;
5. Esposizione dei risultati. I risultati vengono sintetizzati e resi comunicabili agli altri,
esplicitando l’iter della ricerca, collegandoli alla letteratura e proponendo nuove direzioni
di ricerca
La parte iniziale di un percorso di ricerca, che grossomodo corrisponde alla prima fase (disegno
della ricerca), è comune ai diversi approcci alla scienza, mentre il percorso si divide in
corrispondenza della seconda fase, la costruzione della base empirica, nella quale si decide che
tipo di strumento utilizzare per la rilevazione delle informazioni, scelta che si rifletterà anche sulla
successiva organizzazione dei dati
Livelli della ricerca empirica
Cattive abitudini
Nelle scienze sociali attuali sono piuttosto diffuse tre cattive abitudini:
• parlare di inferenza dal campione all’universo, quando l’universo è per definizione infinito,
mentre qualsiasi popolazione può essere solo finita (per legittimare l’applicazione di
formule concepite per insiemi infiniti);
• estendere l’inferenza ben oltre la popolazione dalla quale è stato estratto il campione (es.
Rapporto Kinsey);
• legare la rappresentatività alla casualità.
Ponderazione
In tal modo si possono introdurre distinzioni nella quota di interviste da effettuare nelle diverse
aree del territorio nazionale (con l’unico obiettivo del risparmio economico).
La sottorappresentazione di alcune aree viene poi risolta con la ponderazione, che riporta alle
quote di popolazione quelle (inferiori) degli intervistati moltiplicando ogni rispondente per il
numero necessario a far tornare le proporzioni.
Assunto atomista
Così le informazioni rilevate su un misto di individui e di cloni vengono proiettate sull’intera
popolazione nazionale, ignorando non solo la specificità di ciascun individuo (assunto atomista),
ma anche l’influenza che esercita su di lui il contesto delle relazioni sociali in cui è inserito.
A fronte di queste distorsioni per le interviste faccia a faccia, i campioni telefonici non soddisfano
neppure i criteri più permissivi per essere considerato casuali.
Rappresentatività
La rappresentatività si giudica confrontando caratteristiche della popolazione con analoghe
caratteristiche del campione; quindi, come in una fotocopia in scala ridotta, il confronto si può fare
solo quando la copia è già stata prodotta.
Di conseguenza, al contrario di quanto avviene per giudicare se un campione è casuale, per
giudicare se un campione è rappresentativo dobbiamo considerare il risultato,
indipendentemente dal procedimento.
‘Sensibilmente diverso’
I testi di statistica non propongono una regola per decidere quale differenza nella distribuzione di
una proprietà tra campione e popolazione è accettabile e quale non lo è: per giudicare se un
campione è rappresentativo dobbiamo ricorrere a considerazioni vaghe e soggettive, al contrario
di quanto accade per giudicarne la casualità.
Conseguenze
• la rappresentatività va controllata, ed eventualmente affermata, per ogni proprietà
separatamente;
• la rappresentatività può essere giudicata solo per quelle proprietà di cui si conosce la
distribuzione nella popolazione (solo quelle rilevate attraverso il censimento);
• la frase ‘questo campione è rappresentativo’ non ha alcun senso se non è seguita da
‘rispetto alle proprietà X, Y, Z’ (e documentata).
Campione sistematico
Possiamo ottenere garanzie di rappresentatività maggiori (rispetto ad un numero limitato di
proprietà e ad alcune condizioni) ricorrendo al campionamento sistematico.
Supponiamo di dover estrarre un campione di 400 individui da una popolazione di 80.000, di cui
abbiamo un elenco completo in ordine alfabetico (ordine che non ha relazione con le proprietà
che ci interessano).
Per ottenere un campione sistematico si deve:
1) dividere l’elenco in 400 segmenti consecutivi, ciascuno composto da 200 membri (passo di
campionamento);
2) estrarre casualmente un numero da 1 a 200. supponiamo sia il 78. Il campione sarà
formato dal 78° individuo in ogni segmento (individui in posizione 78, 278, 478 … 79.878).
In tal modo otteniamo un campione casuale.
Per far sì che il campione sia anche rappresentativo della popolazione rispetto al genere e al
quartiere di residenza la condizione necessaria e sufficiente è di porre in cima alla lista tutti gli
uomini del quartiere A seguiti da tutte le donne del quartiere A, da tutti gli uomini del quartiere B,
da tutte le donne del quartiere B ecc.
Il risultato è che otteniamo un campione estratto casualmente, che tuttavia è rappresentativo
della popolazione della città rispetto al genere e al quartiere.
CAPITOLO 6 MARRADI
Concetti – proprietà
Una volta individuata l’unità e scelte le informazioni occorre mettere insieme questi due elementi,
cioè attribuire queste informazioni, espresse ancora in forma di concetti (risorse culturali della
famiglia d’origine), a degli «oggetti», quelli individuati dalle unità (intervistati). Questo perché i
concetti non ci interessano in sé, ma come proprietà degli oggetti del nostro studio (es.: colore
rosso in astratto, colore rosso che caratterizza questa tazzina).
Osservabilità delle proprietà
Qualsiasi «oggetto» può essere caratterizzato da un insieme praticamente infinito di proprietà,
anche se una ricerca non può riguardare tutte le proprietà che caratterizzano un determinato
oggetto.
Le proprietà non sono osservabili in quanto tali, ma lo sono i loro stati, cioè i modi in cui la
proprietà stessa può presentarsi: quando osserviamo la tazzina del caffè vediamo che è rossa o blu
(stati della proprietà colore riferito alla tazzina).
Aggregati territoriali
Quando l’unità di analisi è un aggregato territoriale (es. Comune) e la proprietà che ci interessa
• è attribuibile direttamente al Comune (es. ‘essere capoluogo di provincia’), l’unità di
raccolta coincide con l’unità di analisi. In questi casi le proprietà si chiamano globali.
• è riferita a un’unità di raccolta inferiore (es. il ‘numero di abitanti’), le proprietà si dicono
aggregate.
Individui
Quando l’unità di analisi è un individuo e la proprietà che ci interessa
• è riferibile direttamente a lui (es. ‘età’), l’unità di raccolta coincide con l’unità di analisi. In
questi casi le proprietà si chiamano individuali;
• è riferita a un’unità di raccolta di livello superiore (es. il ‘reddito pro-capite del comune in
cui risiede’), le proprietà si dicono contestuali.
Tipi di proprietà
Verso la matrice
Il percorso empirico inizia con l’individuazione dei concetti sui quali il ricercatore intende lavorare
e si conclude con la costruzione della matrice dati, cioè lo strumento che rende possibile l’analisi
statistico-matematica delle informazioni raccolte.
Questo percorso prevede due tappe intermedie: la trasformazione dei concetti in proprietà e la
trasformazione delle proprietà in variabili.
Definizione operativa
Il complesso di regole e convenzioni che permettono di trasformare una proprietà in una variabile
nella matrice si chiama definizione operativa, e le parti che la compongono variano a seconda
della natura della proprietà.
Le differenze più importanti sono legate al tipo di unità di analisi, e di conseguenza al tipo di
tecnica con cui si raccolgono i dati.
In pratica, la definizione operativa consente di:
1. definire la lista degli stati di una certa proprietà effettivamente distinguibili e rilevabili, che
vengono quindi detti modalità;
2. assegnare a ciascuna modalità un codice che la identifichi in modo chiaro e univoco;
3. definire quali procedure saranno adottate per assegnare ogni referente a una sola
modalità tra quelle individuate, stabilendo anche le regole per definire i casi dubbi.
Esempio 1 di definizione operativa
Se vogliamo raccogliere informazioni su una proprietà individuale (es. titolo di studio), la
definizione operativa include:
1. il testo della domanda con cui vogliamo raccogliere informazioni;
2. un piano di codifica (vedi oltre);
3. il fatto che sia l’intervistato a scegliere una delle alternative previste dal piano, o spetti
all’intervistatore collocare la risposta spontanea;
4. l’indicazione del vettore-colonna nel quale inserire le informazioni trasformate in dati
(punto 2);
5. un procedimento con quale controllare la sincerità delle dichiarazioni (es. documenti
ufficiali).
Piano di codifica
Una variabile è un vettore di segni che rappresentano gli stati dei casi sulle proprietà.
Abitualmente, ma non necessariamente, questi segni sono dei numeri; se si tratta di numeri reali,
come nel caso dell’età espressa in anni compiuti, la relazione tra lo stato sulla proprietà e il segno
che lo rappresenta è diretta e intuitiva, se invece la proprietà che dobbiamo trasformare in
variabile non ha stati che corrispondono a numeri reali, come il titolo di studio, abbiamo bisogno
di una convenzione che colleghi ciascun titolo di studio a un particolare numero.
… comprese le tecniche
Quindi anche le caratteristiche generali delle tecniche e dei procedimenti di raccolta dei dati
fanno parte della definizione operativa: la capacità di scrivere il testo delle domande in maniera
semplice ed efficace, il modo in cui si succedono dentro il questionario, la capacità degli
intervistatori nel contattare l’intervistato e porgli le domande ottenendo risposte sincere, il livello
di addestramento e di motivazione degli intervistatori
Procedure di controllo
La presenza di dati infedeli peggiora la qualità della ricerca e non è rimediabile nelle fasi
successive, per cui si dovrebbe dedicare molta attenzione al controllo della fedeltà dei dati.
Le forme di controllo possono essere:
• sulla matrice dati
• attraverso documenti ufficiali
• attraverso intervista sull’intervista
• attraverso coefficienti di attendibilità
Intervista sull’intervista
Un controllo che si può applicare a qualsiasi proprietà, ma richiede grandi investimenti di tempo e
denaro e, soprattutto, grande capacità ed esperienza di chi esercita i controlli, è l’intervista
sull’intervista, cioè un colloquio approfondito, condotto su un sotto-insieme di intervistati tramite
sondaggio, nel quale si chiede al soggetto di commentare liberamente i temi del questionario, in
modo da far emergere le sue vere opinioni.
Non praticabile nei sondaggi di massa, potrebbe essere molto utile in sede di studio pilota, per
trovare la formulazione più efficace delle domande.
Coefficienti di attendibilità
Il coefficiente di correlazione test-retest si calcola tra i punteggi ottenuti dalla prima
somministrazione e quelli ottenuti dalla seconda (ripetuta con lo stesso soggetto dopo qualche
settimana) e viene considerato una misura dell’attendibilità del test in esame. In realtà
nell’intervallo di tempo tra test e retest possono intervenire distorsioni date da innumerevoli
cause, e gli sforzi si sono concentrati sull’eliminazione dell’intervallo.
La soluzione trovata fu di somministrare due blocchi di domande sullo stesso tema, formulate in
maniera simile; i due blocchi, che costituiscono i due test, vengono definiti formulari paralleli: se
la correlazione tra loro risultava alta si riteneva confermata la supposta equivalenza tra i due test,
e quindi l’attendibilità di ciascuno.
In seguito, con lo split-half reliability coefficient, si somministra un solo test e i due vettori si
ottengono sommando separatamente i punteggi attribuiti a domande pari e domande dispari.
Una critica
È ben noto ai ricercatori che molti intervistati reagiscono alle domande in forme di batteria
tendendo a dare una serie di risposte uguali, in modo meccanico, senza soffermarsi sul significato
delle domande. Questo fenomeno, detto response set, fa lievitare il livello di qualsiasi coefficiente
di correlazione tra vettori di cifre, per cui un alto valore del coefficiente può dipendere
totalmente da distorsioni.
Difetti gnoseologici
Il problema riguarda la corrispondenza delle cifre con gli stati effettivi dei soggetti studiati.
Oltre a ciò, questi test risentono di un complesso di difetti relativi alla generalizzabilità:
• l’infondatezza con cui un risultato ottenuto su una popolazione specifica viene
generalizzato a tutte le possibili popolazioni in tutti i possibili tempi e situazioni;
• l’illegittimità di una generalizzazione persino entro lo stesso gruppo di soggetti a cui si
somministra il test, data la specificità e non fungibilità degli esseri umani.
La fedeltà richiede attenzione
Questi test, in conclusione, non riguardano l’attendibilità, in quanto un’alta correlazione non
aumenta necessariamente la fiducia in un test, piuttosto si dovrebbero chiamare test di
congruenza, cosa che effettivamente sono.
Anziché la correlazione matematica fra vettori, per controllare realmente la fedeltà dei dati
disponiamo degli altri tre procedimenti illustrati, ma il rimedio contro il rischio di raccogliere dati
infedeli rimane una grande attenzione nel formulare le definizioni operative e l’esperienza circa i
pericoli nel processo di raccolta dei dati.
Definizione operativa
Stabilire la definizione operativa di una proprietà, cioè fissare l'insieme di atti, regole e
convenzioni che permettono di trasformare una proprietà in una variabile nella matrice dati, non
pone solo problemi pratici.
A volte la natura della proprietà in esame non permette di immaginare una definizione operativa
diretta, altre volte la si può immaginare, ma sarebbe inadatta a registrare fedelmente gli stati sulla
proprietà in questione.
Esempio DO impossibile
Immaginiamo che la nostra unità di analisi sia lo Stato, il nostro ambito sia l’Europa e la proprietà
che ci interessa sia il livello di libertà politica di cui godono i cittadini di ciascuno Stato.
In un caso come questo non possiamo interrogare direttamente le nazioni (unità operativa),
chiedere al Presidente di ciascuno Stato non sarebbe affidabile e intervistare un campione di
cittadini non farebbe che rilevare la loro opinione in merito (e le opinioni possono essere errate).
DO diretta impossibile
Non si può immaginare una definizione operativa diretta ogni volta che:
1) l'unità di analisi è qualcosa che non si può interrogare (un ente, un aggregato territoriale
ecc.);
2) gli stati sulla proprietà indagata non si possono rilevare mediante osservazione diretta o
estrarre da documenti ufficiali.
Indicatori
Se non possiamo dare una definizione operativa diretta di una proprietà dobbiamo trovare una o
più proprietà che:
a) ammettano accettabili definizioni operative dirette;
b) abbiano una stretta relazione semantica con la proprietà che interessa.
Queste proprietà si chiamano indicatori della proprietà X, e la relazione che si stabilisce tra queste
e la proprietà X si chiama rapporto di indicazione.
Approccio standard
A differenza degli indicatori che utilizziamo nella vita quotidiana, nell'approccio standard alla
ricerca sociale l’indicatore esiste grazie alla necessità di registrare proprietà che non si possono
definire operativamente in forma diretta. Di conseguenza, la natura di un indicatore nelle scienze
sociali è strettamente vincolata alla natura dei vettori-colonna della matrice (variabili).
Nell'approccio standard alla ricerca sociale:
• si possono concepire come indicatori solo concetti che si riferiscono a proprietà;
• queste proprietà devono possedere stati in tutti gli esemplari delle unità di analisi in quella
ricerca, cioè in tutti i casi che occupano le righe di quella matrice (es. tipo di stazione di scii
preferita dagli italiani per status sociale).
Per scegliere un indicatore di un altro concetto queste sono condizioni necessarie ma non
sufficienti: la condizione essenziale è il rapporto di indicazione.
Rapporto di indicazione
Il rapporto che lega il concetto generale ‘libertà politica’ o ‘libertà di stampa’ e il concetto specifico
‘tempo totale trascorso in carcere…’ si dice rapporto di indicazione, perché il secondo concetto,
più specifico, indica (cioè rimanda a) il concetto generale.
Il concetto specifico viene quindi detto indicatore del concetto generale. Quindi la proprietà
‘tempo totale trascorso in carcere…’ non ci interessa tanto di per sé, quanto perché rimanda al
concetto generale di libertà politica.
Mentre libertà politica, libertà di stampa, libertà di pubblicare stampa anti-governativa possono
essere derivati dall’intensione del concetto di libertà, ‘tempo totale trascorso in carcere…’ è un
concetto che noi consideriamo semanticamente legato al concetto ‘libertà di pubblicare articoli e
riviste di opposizione’, ma che non deriva dalla sua intensione. È il ricercatore a stabilire, sulla
base dei significati sociali dei concetti coinvolti, che il ‘tempo totale trascorso in carcere…’ è un
indicatore di libertà di stampa e, quindi, di libertà politica.
Parte indicante
Una proprietà direttamente registrabile con una definizione operativa può essere considerata un
indicatore di due o più proprietà.
Ricordate ciò che abbiamo detto sul significato dei termini, che varia da soggetto a soggetto: ciò
significa che lo stesso termine designa concetti diversi per ogni soggetto (Es. autoritarismo:
fenomeni politici; atteggiamento dei maschi verso la propria partner ecc.), perché ogni soggetto
può dare molti significati, alcuni centrali, altri marginali, e la distribuzione degli aspetti centrali,
marginali e assenti varia da soggetto a soggetto.
Intensione di un concetto
L’insieme di questi aspetti si chiama intensione di un concetto (ad es. autoritarismo nei fenomeni
politici, nel matrimonio, nel lavoro). Chiarito questo, non dovrebbe stupire che un concetto A,
direttamente operativizzabile, sia scelto da differenti autori (o dallo stesso autore in situazioni
differenti) come indicatore di due o più differenti concetti non operativizzabili, poiché l’intensione
del concetto A varia da soggetto a soggetto e varia nel tempo.
Esempio: il tasso di aborti registrati in ciascuna provincia di una nazione a tradizione cattolica può
essere:
(1) indicatore di secolarizzazione (autonomia dai precetti della Chiesa);
(2) indicatore del livello di liberalizzazione dei costumi;
(3) indicatore della propensione all’obiezione di coscienza della classe medica.
Aspetti estranei
Per cui ogni ricercatore può considerare centrale un aspetto diverso dell'intensione del concetto, e
questo sarà l'aspetto indicante, mentre gli altri aspetti, che non servono a costruire il rapporto di
indicazione, sono gli aspetti estranei.
Gli aspetti estranei dell'indicatore scelto da un ricercatore sono comunque presenti, anche quando
non vengono considerati, motivo per cui il primo criterio da seguire nella scelta degli indicatori è
ridurre la prevedibile incidenza degli aspetti estranei.
Scelta di un indicatore
Nella scelta dell'indicatore è essenziale che il ricercatore percepisca una stretta
relazione semantica tra l'indicatore e il concetto indicato; ogni ricercatore stabilisce
la relazione tra concetto e indicatori a seconda delle sue conoscenze della relazione
studiata, dell'argomento e in base alle sue esperienze precedenti, altri ricercatori
possono scegliere indicatori diversi per rappresentare lo stesso concetto. Tutto ciò
non significa che la scelta sia arbitraria.
Il ricercatore ha il massimo interesse a scegliere indicatori che siano validi, cioè che
permettano di rilevare fedelmente almeno alcuni aspetti dell'intensione del
concetto indicato.
Per far questo la scelta va fatta conoscendo:
la popolazione oggetto della ricerca e
la letteratura sul problema che interessa.
Validità e attendibilità
Quanto più la parte indicante è ampia quanto più gli indicatori sono validi: la
validità è una proprietà del rapporto di indicazione, che si inserisce tra concetto
generale e indicatore; mentre l’attendibilità riguarda l’aspetto tecnico (la
definizione operativa): è il grado con cui posso attendermi che la procedura di
rilevazione descritta dalla definizione operativa porti alla rilevazione degli stati
effettivi nella proprietà in questione.
Scelta di un indicatore
Non c'è alcun obbligo a ripetere scelte fatte da altri, soprattutto se si studia lo stesso
fenomeno in un diverso ambito (es. tasso di partecipazione elettorale che può
essere indicatore di forza della vita democratica, della capacità di mobilitazione del
partito unico o di osservanza delle norme), mentre se l'ambito è il medesimo è bene
giustificare i motivi del rifiuto di indicatori tradizionalmente scelti per il concetto che
si sta studiando.
Doppia pluralità
I rapporti di indicazione sono quindi caratterizzati da una pluralità verso l'alto,
poiché un concetto operativizzabile può essere scelto come indicatore di vari altri
concetti, ma anche da una pluralità verso il basso, nel senso che per ogni concetto
che ci interessa è opportuno scegliere più di un indicatore.
Scale di generalità
Indicatori per ogni dimensione
Pluralità
Dato che gli aspetti dell'intensione di un concetto generale possono essere numerosi, per non
ridurre troppo la generalità di questo concetto è necessario cercare indicatori per molti aspetti:
l'ideale sarebbe trovare indicatori per ogni aspetto rilevante della sua intensione.
In sintesi:
• ogni concetto che non suggerisce direttamente una definizione operativa richiede una
pluralità di indicatori;
• ogni concetto che può essere direttamente operativizzato può essere scelto come
indicatore di una pluralità di altri concetti.
IL QUESTIONARIO , lezione 11 ottobre
Cos'è il questionario
È un'intervista strutturata che consiste in una serie di domande rigidamente formalizzate e
strandardizzate che, generalmente, discendono da ipotesi di ricerca. È particolarmente indicato
come strumento di rilevazione quando:
• è necessario lavorare su grandi numeri, quantificare e tradurre le informazioni nel codice
statistico;
• esiste un nesso diretto e ben definito con le ipotesi di ricerca.
Logica di fondo
La survey (inchiesta campionaria) tramite questionario è supportata dalla logica della
quantificazione: somministrando a un campione statisticamente significativo stimoli identici
(domande) si ottengono risposte comparabili, attraverso le quali si presume di poter quantificare,
in modo impersonale, opinioni, comportamenti, caratteristiche della popolazione studiata.
La comprensione
Il concetto di standardizzazione è, in realtà, ambiguo: i soggetti attribuiscono senso diverso a
domande formalmente identiche, rendendo differente ciò che il ricercatore ha concepito come
uguale. Si aprono, quindi, una serie di problemi relativi alla dimensione cognitiva (comprensione
della domanda e relativa selezione della risposta), e alla dimensione comunicativa (interazione
RE/TO, importanza delle condizioni psicologiche ed emozionali del soggetto, contesto
socioculturale).
Strutturazione di un questionario
Le ipotesi di ricerca, a livello operativo, vanno formulate in ambiti e in assi tematici:
• ambiti tematici: sono gli argomenti principali nei quali si può scomporre l’oggetto di studio
(es.: come gli intervistati vedono la criminalità);
• assi tematici: sono le dimensioni di indagine nelle quali ogni ambito può essere
ulteriormente suddiviso (es.: vicinanza al problema, percezione della diffusione dei crimini,
immagine della criminalità).
La formulazione delle domande del questionario deve seguire i criteri generali di:
economicità, necessità di limitare la lunghezza del questionario, ponendo solo le domande
ritenute centrali per i propri scopi conoscitivi;
individuazione di un bersaglio, al ricercatore deve essere chiaro quale obbiettivo intende
perseguire con ogni domanda, cioè cosa significherà, a livello interpretativo, ricevere un
tipo di risposta o un'altra.
Sequenza delle domande
a) Tenere conto dello stato emotivo dell’intervistato, per cui all’inizio del questionario si
metteranno le domande facili, non troppo invadenti né personali, basate su fatti (scopo di
rassicurare e istruire), a metà questionario quelle imbarazzanti;
b) Tenere conto dell’interesse e della stanchezza dell’intervistato, per cui è meglio inserire le
domande più importanti a metà e quelle che non richiedono riflessione (es. caratteristiche
socio-anagrafiche) alla fine;
c) Prestare attenzione alla sequenzialità dell’intervista, cioè evitare bruschi salti di soggetto o
di tempi, meglio seguire la tecnica ‘ad imbuto’ (dal generale al particolare);
d) Tener conto dell’effetto contaminazione, ovvero il fatto che la risposta ad una domanda
può essere influenzata dalle domande che l’hanno preceduta, in quanto vengono
richiamati alla mente temi che predispongono l’intervistato a un’interpretazione diversa da
quella che avrebbe dato se non ci fosse stata quella successione.
Formulazione delle domande
le domande devono essere espresse in un linguaggio semplice e chiaro (accessibile a tutti)
e devono essere sintetiche,
le domande non devono prevedere una lista di risposte troppo estesa,
le domande non devono contenere espressioni in gergo,
è necessario chiarire le espressioni potenzialmente ambigue (es. ‘stabilità’ lavoro),
si dovrebbero evitare termini connotati negativamente dal punto di vista morale, o
domande formulate in modo tendenzioso,
vanno evitate espressioni sintatticamente complesse (es. doppia negazione),
vanno evitate domande con risposte non univoche (doppio stimolo), es. i tuoi genitori
lavoravano? ( magari uno si e l’altro no)
le domande che riguardano azioni, comportamenti o situazioni collocate nel tempo
richiedono cautela,
porre limiti temporali agevola il ricordo,
le domande dovrebbero riferirsi a casi concreti anziché a principi generali,
bisognerebbe evitare di fare molte domande con lo stesso formato di risposta (batterie –
response set).
Modalità di rilevazione
• Intervista telefonica -> rischi di lasciare fuori una categoria di persone che magari possono
essere i giovani che non anno un telefono fisso ma solo un cellulare portatile e una rete
internet a parte.
• Interviste computerizzate
• Questionario auto-compilato
• Intervista faccia a faccia
Esempio 1: questionario per sondaggio telefonico
Uno degli usi più frequenti del questionario riguarda la necessità di cogliere velocemente un
orientamento dell'opinione pubblica, ad esempio sulle consultazioni elettorali
• Campione vasto e statisticamente rappresentativo
• Metodo CATI
• Questionario breve
• Rilevazione di comportamenti
CATI = Computer-Assisted Telephone Interviewing
L'intervistatore legge le domande all'intervistato e registra le risposte su un computer tramite un
apposito software: questo accorcia sensibilmente i tempi di somministrazione del questionario e di
immissione dati nella matrice (data entry).
CATI : svantaggi
Svantaggi della tecnica CATI:
• possibile “errore di copertura” dovuto alla diffusione della rete telefonica;
• necessità di rilevatori preparati;
• costi per la dotazione di computer e di software dedicato.
CATI : vantaggi
Vantaggi della tecnica nella rilevazione:
• esclusione degli errori sistematici nella rilevazione, perché le domande del questionario
vengono poste esattamente come appaiono sul video;
• riduzione degli errori materiali di rilevazione grazie a software per il controllo della validità
formale dei dati immessi (compatibilità e congruenza) che consente di rimediare in itinere;
Altri vantaggi della tecnica:
• controllo in tempo reale e coordinamento dell'attività di campionamento (postazioni
collegate in rete)
• disponibilità dei risultati in tempo reale che rende possibile anticipazioni dei risultati
parziali
Esempio sondaggio telefonico pre-elettorale
1. Si è recato a votare in occasione delle ultime consultazioni politiche?
Sì
No
2. Come ha votato?
Ho espresso un voto valido
Ho votato scheda bianca
Ho annullato la scheda
3. Se ha espresso un voto valido, può dirmi per quale partito?
Partito A
Partito B
Partito C
Partito D
Partito E
…
Altri
4. Andrà a votare alle prossime consultazioni politiche?
Sì
No
5. Come voterà?
Partito A
Partito B
Partito C
…
Non ho ancora deciso
6. Lei definirebbe la sua posizione politica di:
Estrema sinistra
Sinistra
Centro
Destra
Estrema destra
Tipologia di domande
In base alla loro formalizzazione tecnica, possiamo avere:
Problema dell’esaustività
Tutti i possibili casi su una proprietà devono poter essere assegnati a una categoria. Poiché spesso
non è possibile, o non serve, immaginare tutti i possibili casi su una proprietà, molte classificazioni
prevedono una classe residuale ‘altro’ alla quale si assegnano tutti gli stati che non sembrano
attribuibili alle categorie che hanno un significato specifico.
Esempio di domanda su una proprietà categoriale
Cosa preferisci fare nel tempo libero? (massimo due risposte)
Studio pilota
Questi difetti (domande che si occupano di temi delicati, poco interessanti, poco noti) si
potrebbero evitare con uno studio pilota, o pre-test, somministrando il questionario, prima di
realizzare la rilevazione, ad alcuni individui (il più possibile diversi tra loro) della stessa popolazione
che si intende studiare.
Riflettendo adeguatamente sui risultati dello studio pilota si possono introdurre preziosi
miglioramenti nel testo del questionario.
Successo |___|
Denaro |___|
Legalità |___|
Libertà |___|
Domande di scala
Scale tradizionali:
• Scala di Thurstone
• Scala Likert
• Scala di Guttman
Scaling:
• Differenziale semantico di Osgood
• Scala auto-ancorante
Scala Likert
Nel 1932 Likert ideò una scala molto più semplice:
1) il continuum viene diviso in un numero ridotto di intervalli;
2) gli intervalli sono ordinati, non uguali (equidistanti);
3) L’autonomia semantica dei ‘picchetti’ è molto ridotta, in quanto le etichette verbali
utilizzate esprimono vari gradi di approvazione/disapprovazione circa una frase di senso
compiuto che viene proposta.
Scala Likert
Le affermazioni che il soggetto deve approvare/disapprovare sono organizzate in
batterie che condividono lo stesso schema di risposta, il che semplifica il compito sia
dell’intervistato, che dell’intervistatore, accelerando il procedimento.
La scala Likert si è rapidamente diffusa, diventando la tecnica di rilevazione più
conosciuta e usata per decenni.
Eppure non è esente da problemi.
Polarità invertita
Likert suggerì la maniera tuttora adottata per individuare i response sets: mescolare
nella stessa batteria affermazioni di orientamento opposto (a polarità invertita), in
modo che un intervistato non possa razionalmente dichiararsi d’accordo con tutte.
Tuttavia, questo rimedio è efficace solo se gli intervistatori vengono addestrati ad
intervenire appena il fenomeno si manifesta, richiamando l’attenzione
dell’intervistato sulla contraddizione.
Intervistatori attenti
Gli intervistatori, oltre ad avere conoscenze metodologiche di base e specifiche
rispetto al questionario che stanno somministrando, dovrebbero aver interiorizzato
un ruolo attivo e un atteggiamento critico.
Se gli intervistatori non si attivano per evitare i response sets quando si producono,
la polarità invertita finisce per peggiorare le cose, e gli analisti si ritrovano a lavorare
su molti dati privi di senso.
Un campo è scalabile?
Il principale problema di questa tecnica risiede nel fatto che i soggetti
approvano/disapprovano le frasi senza sapere che devono essere ‘cumulativi’,
quindi si verificano parecchi casi di ‘errore’ (disapprovare frasi più facili e
approvarne di più difficili).
Guttman, rendendosi conto che l’assunto di cumulatività non sempre reggeva,
introdusse un coefficiente di riproducibilità (proporzione di risposte corrette sul
totale delle risposte) per stabilire se un certo campo è scalabile.
Rimedi possibili
Se una scala non raggiunge la soglia prevista dal coefficiente di riproducibilità
Guttman prevede due rimedi, alternativi e complementari:
a) togliere dal campione i soggetti responsabili di troppi errori;
b) eliminare dalla scala le frasi che causavano il più alto numero di errori.
Se il primo rimedio è una costrizione del mondo alle idee del ricercatore, il secondo
ha gravi inconvenienti tecnici.
Conseguenze
Più centrale è la posizione della frase nel continuum più è probabile che produca
‘errori’ nella scala di Guttman, giacché l’aspettativa è che le opinioni del campione si
dividano approssimativamente a metà. Inoltre, le opinioni su un qualunque
problema hanno generalmente una posizione campanulare, pertanto la
maggioranza di esse occupa una posizione centrale, quindi seguire i suggerimenti di
Guttman lascerebbe sguarnita la parte centrale della scala.
Quando usarla
La scala di Guttman raggiunge l’obiettivo di garantire un ordine condiviso dei
picchetti senza ridurre la loro autonomia semantica se applicata a proprietà per cui
è ragionevole l’assunto di cumulatività.
Inoltre, a differenza di tutte le altre tecniche illustrate, è una scala che, in
determinate occasioni, può essere applicata anche quando l’unità di analisi non è un
essere umano (es. sequenza di istituzioni nei comuni).
Tecniche di scaling
Vediamo tre tecniche di scala che producono variabili quasi-cardinali.
La più antica è il differenziale semantico di Osgood, formata da sette caselle lungo
un segmento, con due aggettivi opposti posti agli estremi del segmento. Al soggetto
viene chiesto di valutare un referente, mettendo una croce nella casella più vicina al
suo stato
Differenziale semantico di Osgood
Come giudica il servizio d'autobus cittadino?
Tecniche di scaling
Quasi contemporanea è la scala auto-ancorante, tecnica che segue lo stesso criterio
di ridurre drasticamente l’autonomia semantica delle categorie intermedie: si
presenta al soggetto una colonna di 10 o 11 caselle delle quali sono interpretate solo
la più alta e la più bassa (gli estremi).
Scala autoancorante
Quanto ritieni importante essere informato sulla politica estera?
Per nulla | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |10| Del tutto
Il termometro dei sentimenti è l’unico strumento di raccolta di opinioni e
atteggiamenti ideato da politologi (e non da psicologi) e consiste in un’evoluzione
della scala auto-ancorante nella quale si ricorre all’immagine di un termometro,
graduato da 0 a 100, mediante il quale l’intervistato è istruito a manifestare i suoi
sentimenti di simpatia/antipatia verso una serie di referenti.
Termometro dei sentimenti
Di seguito sono elencati 10 personaggi pubblici rispetto ai quali dovrebbe indicarci il
suo grado di favore o sfavore. La preghiamo di ordinare i soggetti lungo un
termometro nel quale la targhetta 0 indica il massimo di ostilità e 100 il massimo di
favore.
Deflazione
Se sottoponiamo agli intervistati un numero sufficientemente alto di oggetti, si può
applicare una correzione all’uso distorto della scala, ovvero alla tendenza
dell’intervistato di attribuire punteggi che si concentrano in una parte della scala
(alta, più raramente bassa o centrale).
La media di tutti i punteggi assegnati da ciascun soggetto può essere considerata un
indizio affidabile della sua tendenza ad assegnare punteggi più o meno alti
indipendentemente dalla natura dell’oggetto valutato.
Si può neutralizzare la tendenza generale sottraendo a ogni punteggio attribuito dal
soggetto la media di tutti i punteggi assegnati dal quel soggetto con il termometro:
in questo modo si trasformano tutti i punteggi grezzi in scarti da una media.
Se si vuole neutralizzare anche la propensione dei soggetti ad assegnare punteggi
estremi o centrali, si può dividere ogni scarto per lo scarto-tipo (deviazione Questa
divisione comprime ogni singolo scarto di chi preferisce assegnare punteggi estremi,
e dilata quelli di chi preferisce assegnare punteggi centrali, introducendo un
maggiore equilibrio nella distribuzione.
Questa procedura, chiamata deflazione, è analoga alla standardizzazione, con la
differenza che si fa separatamente sui dati di ciascuna riga (quindi sulle risposte del
soggetto) mentre la standardizzazione si applica su tutti i dati di una sola colonna
(quindi sulla variabile).
Domande aperte
L’intervistato è lasciato libero di scegliere il contenuto e la forma della risposta, per
cui sono domande che lasciano più spazio alla soggettività del rispondente. Vi sono
domande falsamente aperte (Quanti anni hai?); in tutti gli altri casi vanno usate con
parsimonia, sono indicate per gli eventi che presentano i maggiori problemi
comunicativi o per affrontare argomenti particolarmente scabrosi. È poi necessario
codificarle a posteriori, in sede di elaborazione, affinché possano essere trattate
statisticamente.
LEZIONE 18-10 , CAPITOLO 7
Stati sulle proprietà
In precedenza abbiamo considerato le proprietà globalmente, nel capitolo 7 invece
vengono considerati i vari stati di ciascuna proprietà, e le conseguenze della natura
di questi stati sul modo in cui si trasformano in dati e sul tipo di analisi applicabile
alle relative variabili.
La distinzione più importante nella raccolta e trasformazione in dati delle
informazioni è quella tra proprietà discrete e continue.
Proprietà discrete
Alcune proprietà hanno un numero finito di stati, chiaramente distinti, o
distinguibili, l’uno dall’altro.
Le proprietà discrete si dividono in tre classi a seconda della relazione che c’è tra i
loro stati.
• categoriali, se gli stati sono diversi l’uno dall’altro, ma non c’è alcuna
relazione quantitativa fra loro ES. (genere dell’intervistato , nazionalità ecc.);
• ordinali, se gli stati hanno relazione d’ordine (maggiore, minore) tra loro,
quindi si possono ordinare tutti secondo una scala (titolo di studio, gradi
militari ecc.);
• cardinali, se gli stati hanno relazioni cardinali tra loro, nel senso che si può
calcolare un quoziente tra loro (numero dei componenti di una famiglia,
numero di esami sostenuti ecc.)
Proprietà continue
Altre proprietà hanno un numero infinito di stati, impercettibilmente diversi l’uno
dall’altro, come i punti lungo una linea.
Le proprietà continue si dividono in due classi a seconda della procedura di raccolta
delle informazioni.
• misurabili, se i loro stati si possono registrare senza la collaborazione attiva
dell’individuo il cui stato si sta rilevando (peso, altezza ecc.);
• non misurabili, se la collaborazione attiva dell’individuo è necessaria per
registrare il suo stato sulla proprietà che si sta rilevando (opinioni,
atteggiamenti ecc.).
Proprietà categoriali
In alcune proprietà categoriali gli stati sulla proprietà (genere) appaiono
chiaramente distinti; in altri casi è in ricercatore che deve intervenire per
risolvere i casi dubbi, intermedi, misti. Le operazioni di creazione o delimitazione
delle categorie si attuano seguendo i principi della classificazione, il cui requisito
fondamentale è l’esaustività del complesso delle categorie.
Relazione monotonica
In termini tecnici si dice che la serie dei codici deve avere una relazione monotonica
diretta con l’ordine degli stati nella realtà: al crescere della posizione dello stato
deve aumentare anche il codice numerico.
La distanza tra i codici diventa rilevante soprattutto se pensiamo di applicare anche
tecniche di analisi adatte per variabili cardinali: se le categorie delle variabili non
sono equidistanti assegnare come codici dei numeri naturali introduce una
distorsione.
Scarsa autonomia semantica
In genere le proprietà discrete ordinali che si incontrano nella realtà hanno poche
categorie, e le categorie perdono autonomia semantica, poiché l’interesse passa da
esse alla loro sequenza. Di conseguenza perde di importanza il problema di unire
categorie semanticamente simili.
Una seconda conseguenza è che, in una tabella che include una o due variabili
ordinali, si tende ad osservare l’andamento globale più che le singole celle.
Proprietà cardinali naturali
Poiché sono cardinali anche le variabili che derivano da una proprietà continua
misurabile attraverso un’unità di misura, per distinguere le cardinali che derivano da
una proprietà discreta aggiungiamo l’aggettivo ‘naturale’, in quanto sia il punto zero
(assenza di uno stato sulla proprietà) sia l’unità di conto (il numero 1) di queste
variabili sono naturali, cioè non vengono da una decisione del ricercatore.
Conteggio
Tra gli stati di una proprietà discreta cardinale si possono stabilire rapporti: si può
dire che una famiglia di 8 persone ha un numero doppio di componenti di una di 4.
di solito queste cifre (reali) si usano anche come codici numerici degli stati sul
relativo vettore.
La definizione operativa tipica di questa proprietà è il conteggio, e nel piano di
codifica conviene privilegiare la sensibilità e il dettaglio, che si possono sempre
ricodificare a posteriori.
Raggruppare le categorie
Nel caso delle variabili cardinali l’unico motivo per raggruppare le categorie è di
rendere più leggibile la presentazione dei dati. Le singole categorie si raggruppano
in classi di ampiezza variabile a seconda degli obiettivi della ricerca, seguendo
l’unico criterio della vicinanza numerica, perché le categorie di una variabile
cardinale hanno un’autonomia semantica molto ridotta.
Di solito l’ampiezza delle categorie è crescente, perché in molte proprietà discrete
naturali le categorie più vicine allo zero hanno una maggiore autonomia semantica
delle altre. Il fenomeno è evidente per il numero dei figli: avere 2 figli non è
semplicemente il doppio di averne 1, e la distanza semantica tra non avere alcun
figlio e averne 1 è di gran lunga maggiore di quella tra avere 2 figli o averne 3.
4. Variabili cardinali metriche
Le proprietà continue hanno un numero infinito di stati impercettibilmente
differenti l’uno dall’altro. La maggior parte di queste proprietà appartengono al
mondo fisico; tra queste anche le proprietà fisiche degli individui, come età, peso ed
altezza.
Altre proprietà che pensiamo come continue appartengono alla sfera psichica degli
esseri umani, come opinioni, atteggiamenti e valori, ma non abbiamo accesso a
quegli stati sulle proprietà se non attraverso manifestazioni esteriori
(comportamenti, dichiarazioni).
Inferenza
Sia che si osservino comportamenti, sia che si sollecitino dichiarazioni, si pone un
problema di inferenza da ciò che si osserva e si ascolta agli stati reali. In entrambi i
casi l’inferenza è incerta, perché l’individuo che dichiara qualcosa può cercare, più o
meno consapevolmente, di dare l’immagine di sé che considera più accettabile,
alterando i suoi stati effettivi, e il soggetto che si rende conto di essere osservato
può modificare il proprio comportamento (effetto Hawthorne).
Misurazione
Ne consegue che non possiamo assolutamente ‘misurare’ le proprietà psichiche,
perché la misurazione è un codice che traduce un'informazione della realtà in un
simbolo numerico in grado di rappresentarla, ed è necessario che ciò avvenga
attraverso un sistema formale standardizzato che consenta di ottenere il medesimo
risultato ogni volta che si misura lo stesso oggetto con eguale strumento,
indipendentemente dal luogo, il tempo o la persona che effettua la misurazione.
Condizioni per la misurazione
Esistono tre condizioni fondamentali per la misurazione:
1) la proprietà deve essere continua, se non lo è non si misura, si classifica
oppure si conta;
2) deve essere stata stabilita e riconosciuta un'unità di misura della proprietà
ad essa relativa, ovvero un criterio di misurazione generale, standardizzato,
univoco (e deve esistere uno strumento di misurazione corrispondente);
3) si effettua un confronto tra l’unità di misura e lo stato dei vari oggetti sulla
proprietà che si sta misurando. Quando si misurano proprietà di oggetti
inanimati questo confronto lo esegue chi sta misurando, non c’è bisogno
della cooperazione attiva dell'oggetto di cui viene misurato lo stato sulla
proprietà (come avviene quando chiediamo a un intervistato di compiere il
confronto attraverso una risposta che colloca il suo stato su un segmento che
rappresenta la proprietà).
Arrotondamento
Poiché il risultato di un confronto tra uno stato sulla proprietà continua e l’unità
di misura stabilita per essa è un rapporto, il risultato è quasi sempre un numero
reale con infinite cifre. Poiché non si possono registrare infinite cifre nella cella
della matrice (e non è utile), ne consegue che si deve sempre stabilire un criterio
di arrotondamento, il che automaticamente divide il segmento in intervalli di
ampiezza uguale all’unità di misura (che è anche la procedura delle tecniche di
scaling).
5. Variabili ordinali (scale)
Atteggiamenti e opinioni si possono pensare come proprietà continue, ma
abbiamo visto che non sono misurabili.
Un primo tentativo di mettere a punto una scala per la ‘misurazione’ degli
atteggiamenti fu quello di Thurstone, ma oltre ad essere una tecnica molto
complessa non si avvicina al livello cardinale e non garantisce nemmeno il livello
ordinale.
6. Variabili quasi-cardinali
Le tecniche cardinali si possono applicare agli atteggiamenti rilevati attraverso
tecniche di scaling, perché queste riducono l’autonomia semantica delle
categorie intermedie, che sono cifre in un intervallo o caselle lungo un breve
segmento. Ciò rende legittimo presumere che le cifre dell’intervallo e le caselle
lungo il segmento siano percepite come equidistanti. Poiché l’equidistanza può
essere solo supposta chiamiamo queste variabili quasi-cardinali.
Perché quasi-cardinali?
A differenza di quanto accade con la misurazione, nella quale solo il limite
minimo è fissato (lo zero), ma non c’è alcun limite massimo, nelle tecniche di
scaling esiste un limite massimo, che ha una carica semantica che nella
misurazione non esiste.
Inoltre il ricercatore non ha accesso diretto alle proprietà psichiche, è il soggetto
stesso a valutare il suo stato sulla proprietà e ad esprimere questa valutazione
con uno strumento al quale non è abituato, per cui può produrre dati infedeli.
Cause di infedeltà
• ogni soggetto può percepire in modo diverso dal ricercatore la proprietà sulla
quale deve valutare il suo stato;
• può sbagliarsi in buona fede circa il suo stato;
• può alterare coscientemente il suo stato per dare un’immagine di sé che
considera più gradita;
• può capire male come funziona una scala;
pur capendone il funzionamento, ogni soggetto può usare la scala in modo
distorto
E disaggregare?
Talvolta per ottenere una distribuzione equilibrata sarebbe necessario disaggregare
una categoria che ha frequenze troppo alte, ma ciò è possibile solo se nella matrice
c’è un’altra variabile che può essere usata per disaggregare quella categoria (es. tipo
di comuni rurali/urbani).
Percentuale cumulata
Quando una modalità viene considerata solo un gradino della scala perde
autonomia semantica e non può essere confrontata isolatamente con altre cifre
isolate: si devono comparare le intere distribuzioni (esempio Lubolia).
Le tabelle di distribuzioni di frequenza, pertanto, devono presentare anche le
percentuali cumulate, calcolate tenendo conto anche delle frequenze delle modalità
che la precedono nell’ordine.
Esempio percentuali cumulate
La mediana
Un vantaggio nell’utilizzare distribuzioni con frequenze cumulate è di individuare
immediatamente la categoria mediana della distribuzione (misura di sintesi
applicabile solo a variabili ordinali).
In una sequenza di cifre, rappresenta il valore corrispondente al punto della
distribuzione che divide quest'ultima in due parti uguali; in una distribuzione di
frequenza la categoria mediana è quella in cui cade la percentuale cumulata del
50%.
Grafico percentuali cumulate
120
100
80 Laure
a
60
Super
40 iori
20
0
Lubolia Giappone
Presentazione dati
Vediamo ora l’utilità delle misure di sintesi e variabilità esaminate quando è
necessario presentare dati che confrontano lo stesso fenomeno in anni diversi. A
colpo d’occhio consentono un confronto esaustivo a partire da un numero ristretto
di parametri. Prendiamo la distribuzione dei voti del corso nelle prove scritte.
Confronto tra distribuzioni di frequenza
Esempio
Standardizzazione
I quattro valori caratteristici descritti sono valori globali, che si riferiscono a intere
distribuzioni, non a singoli casi, quindi non servono per confrontare la posizione
dello stesso individuo, o di due individui, nelle distribuzioni di due variabili diverse.
Per far questo occorre calcolare un punteggio standard per sapere quanto ciascun
caso si allontana, in termini relativi, dalla media della relativa variabile
Il procedimento da seguire, che si chiama standardizzazione, si realizza in due
passaggi:
1) si trasformano i punteggi in scarti dalla media della variabile in questione, e
2) si dividono gli scarti per lo scarto-tipo della stessa variabile.
Il risultato si chiama punteggio standard (standard score) e la variabile che ha subito
questa trasformazione si dice standardizzata
Esempio standardizzazione
Supponiamo di voler confrontare fra loro i voti in matematica ottenuti in pagella da
tre amici che frequentano classi diverse: tutti hanno ottenuto 7. I voti sono in
apparenza identici, in quanto il campo di variazione teorico è identico nelle tre
distribuzioni.
Vedremo, con la standardizzazione, che in realtà Costantino ha conseguito il voto
standardizzato più alto (perché il suo voto è superiore al voto medio della sua
classe).
Quando dobbiamo lavorare con variabili ordinali procediamo nel medesimo modo
utilizzato per le variabili categoriali. Poniamo di aver rilevato la partecipazione
dell'intervistato ad eventi culturali (cinema, teatro, concerti ecc.), tramite cinque
variabili che rilevano la frequenza mensile di alcuni comportamenti.
Possiamo costruire un indice che sintetizza la fruizione culturale dell'intervistato.
Indice tipologico su var. ordinali
L'indice di fruizione culturale avrà 4 categorie:
Nulla (1): riunisce i casi dei soggetti che non vanno mai ad eventi culturali dei cinque
tipi proposti (cinema, teatro, concerto, manifestazioni sportive, ballare);
Scarsa (2): riunisce i casi nei dei soggetti che vanno 1-2 volte al mese ad almeno 2
tipi di eventi;
Media (3): riunisce i casi di chi va almeno 1-2 volte o 3-4 volte al mese a tre tipi di
eventi;
Alta (4): riunisce i casi di chi va almeno 3-4 volte al mese a tre tipi di eventi.
Indici sommatori
Il lavoro è più semplice quando l'indice è costruito su variabili cardinali o quasi-
cardinali, perché è del tutto legittimo condurre operazioni matematiche su codici
numerici e perché tali operazioni sono molto semplici.
Per poter costruire un indice sommatorio devono sussistere quattro condizioni:
1) non devono mancare dati su uno o più indicatori (condizione fattuale). Si può
ovviare al problema attribuendo ad ogni caso la media dei suoi punteggi
validi;
2) tutte le variabili che si sommano (che siano metriche, cardinali naturali o
quasi-cardinali) devono avere la stessa estensione di scala, o almeno
un’estensione simile (condizione numerica);
3) prima di combinare in un indice degli indicatori occorre che siano resi
effettivamente equivalenti attraverso operazioni di standardizzazione,
normalizzazione o inversione della direzione semantica (prima condizione
semantica);
4) Quando il ricercatore considera alcuni indicatori più validi di altri e perciò
decide di attribuire ad essi un peso maggiore nella costruzione dell’indice
(seconda condizione semantica). Ad esempio si possono moltiplicare gli
indicatori considerati più validi per un coefficiente maggiore di uno, e gli
indicatori meno validi per un coefficiente minore di uno. Otteniamo così un
particolare indice sommatorio, in cui la somma è ponderata
Indici sommatori: esempio 1
L’associazione
All’epoca le variabili categoriali venivano ignorate (o trattate come cardinali); il
primo a riconoscere che esse hanno una natura diversa dalle cardinali, per cui
richiedono un trattamento particolare, fu Yule, che ritenne opportuno introdurre il
termine più generale di associazione per riferirsi alla relazione fra variabili
(indipendentemente dalla loro natura).
Relazioni tra variabili
Intensità e segno
Oltre all’esistenza o meno di un’associazione tra due variabili, si può accertare la sua
intensità, cioè il fatto che sia stretta o meno.
Se entrambe le variabili sono quantitative si può accertare anche il segno della loro
associazione (positivo o negativo).
Ciò che non si può accertare, con il metodo dell’associazione, è la direzione della
relazione.
Tipi di relazione
Nella realtà la relazione fra due proprietà può essere:
• Unidirezionale: A → B (es. l’età influenza il voto)
• bidirezionale asimmetrica: A ↔ B (es. il capitale culturale influenza
l’occupazione)
• bidirezionale simmetrica: A ↔ B (es. collegio elettorale, la percentuale di
voti per il partito a condiziona la percentuale di voti al partito b tanto quanto
ne è condizionata)
• Nella realtà le relazioni unidirezionali sono più frequenti di quelle bidirezionali
(in particolare di quelle simmetriche), ma nella matrice dati tutte le relazioni ci
appaiono come bidirezionali simmetriche: da un punto di vista tecnico
possiamo accertare solo se fra le variabili A e B esiste un’associazione e se è
forte o debole (se le variabili sono quantitative possiamo stabilire anche se
questa associazione è positiva o negativa).
Le scelte del ricercatore
Per andare oltre, cioè per decidere di che tipo di relazione si tratta, si deve fare
appello a qualcosa che sta fuori della matrice, cioè la nostra conoscenza, il buon
senso o le teorie accreditate nella nostra disciplina.
In base alle nostre convinzioni circa il tipo di relazioni che lega le variabili nella realtà
scegliamo la tecnica statistica adeguata (che presuppone relazioni unidirezionali o
bidirezionali) da applicare.
Relazioni unidirezionali
Esistono tecniche statistiche che assumono l’unidirezionalità (in base alla quale una
variabile indipendente produce effetti su una dipendente), applicando le quali si può
stabilire se le variabili sono effettivamente associate, quantificare la forza di questa
eventuale associazione e, se le variabili non sono categoriali, accertarne il segno, ma
la tecnica non può smentire l’ipotesi del ricercatore circa la direzione dell’influenza,
che dipende totalmente dalle decisioni del ricercatore.
Modelli
I modelli sono rappresentazioni grafiche delle nostre ipotesi sulle relazioni tra due
o più variabili.
A ↔ B : ipotizza una relazione bidirezionale
A → B : ipotizza una relazione unidirezionale, nella quale A influenza B senza
esserne a sua volta influenzata.
Influenze esterne
Nelle scienze sociali tanto il modello A → B quanto il modello A ↔ B non escludono
l’influenza di altre proprietà su A e B, influenza che può risultare anche da un’analisi
statistica, se queste altre proprietà sono state incluse, come variabili, nella matrice
dati.
Mentre è ipotizzabile in matematica, nelle scienze sociali un modello che collega tra
loro i valori di due variabili riducendo tutte le altre influenze a mere perturbazioni è
troppo lontano dalla realtà per essere utile
Modelli bivariati
Un modello bivariato è sempre una semplificazione estrema della realtà, perché
isola un singolo anello della rete di interrelazioni che legano ciascuna proprietà a
moltissime altre. Tuttavia:
a) è comunque un necessario punto di partenza, perché i modelli multivariati
(che considerano più di due variabili simultaneamente) si fondano sempre su
relazioni bivariate e sono scomponibili in esse;
b) spesso la natura delle variabili oggetto di studio non consente di esplorare
relazioni molto più complesse di quelle bivariate.
Relazioni tra v. categoriali
Abbiamo detto che ogni categoria di una variabile categoriale è dotata di piena
autonomia semantica, quindi quando mettiamo in relazione due variabili categoriali
bisogna analizzare separatamente ogni singola cella della tabella, e in casi come
questi un coefficiente che sintetizzi la forza dell’associazione tra le due variabili non
ha senso. Le tecniche di analisi multivariata ideate per rappresentare relazioni tra
variabili categoriali richiedono di essere lette da un utente esperto, e ricorrere
all’analisi bivariata costringe a un livello di analisi elementare che dà un’immagine
parziale e semplificata della realtà.
Distorsioni
Non solo i modelli bivariati danno una rappresentazione semplificata della realtà,
possono darne anche di gravemente distorte: rilevando una forte associazione dove
non c’è, celando la presenza di un’associazione che esiste o facendo apparire
negativa un’associazione positiva.
Lazarsfeld chiamò spurie (fittizie) le relazioni statistiche che un modello bivariato fa
apparire, ma che sono profondamente diverse dalle relazioni esistenti nella realtà.
Esempio di relazione spuria
Dagli annuari statistici del comune di Chicago Lazarsfeld notò una correlazione
positiva tra il numero di autobotti mandate a spegnere un incendio (x) e i danni
prodotti (y) dall’incendio stesso (valutati in dollari); il risultato è paradossale: più
autobotti, più danni. Questo perché il modello bivariato non considerava la variabile
delle dimensioni dell'incendio (t), e il legame tra questa e le altre prese
singolarmente: a parità di dimensioni dell'incendio, più autobotti si inviano a
spegnerlo, meno danni si registrano.
L'analisi a tre variabili
Per verificare se la relazione tra due variabili (X → Y) è sensata si può utilizzare
l’introduzione di una terza variabile (T) detta interveniente, allo scopo di:
• elaborare e chiarire la relazione originale tra due variabili,
• valutare la genuinità di una correlazione.
In questo caso una delle tre variabili dell’analisi viene mantenuta costante.
Indagine di Lazarsfeld
Esempio: ascolto dei programmi radiofonici di tipo religioso per età, relazione che,
attraverso il controllo con il livello d’istruzione, si rivela essere una relazione spuria
(fittizia).
È la conoscenza tacita del ricercatore che può decidere un controllo attraverso la
terza variabile per chiarire relazioni insensate da un punto di vista teorico.
Proporzione di ascoltatori in due gruppi di età [Lazarsfeld 1967: 393]
Relazione tra età e ascolto dei programmi religiosi a seconda del gruppo di
istruzione [Lazarsfeld 1967: 396
La proprietà di un modello di includere le variabili rilevanti si chiama specificazione,
e si persegue operando sugli elementi strutturali del modello:
a) quali variabili si considerano;
b) fra quali variabili considerate si stabiliscono relazioni;
c) quali relazioni intendiamo considerare unidirezionali.
Specificazione dei modelli
Per ogni relazione considerata unidirezionale definiamo una variabile indipendente
(quella che esercita un’influenza) e una dipendente (quella che la riceve). È possibile
che una variabile indipendente sia considerata dipendente in un’altra relazione dello
stesso modello: in tal caso viene chiamata interveniente.
Una variabile non è indipendente, interveniente o dipendente per natura, ma è
definita tale dal ricercatore nel momento in cui sceglie un dato modello. Inoltre, le
variabili incluse sono solo una piccola parte di quelle incluse nella matrice dati (e
ancor meno delle proprietà attribuibili a quella unità di analisi).
Successione di modelli
Naturalmente nelle situazioni reali tutte le variabili non considerate esercitano la
loro influenza, ma il modello non ne può tener conto, altrimenti diventerebbe
troppo complicato. Ciò significa che i risultati di un modello rappresentano solo un
punto di vista parziale.
La specificazione può essere migliorata se scegliamo bene le variabili da includere, e
questa scelta si ottiene attraverso un lavoro in profondità che passa per la
costruzione di una serie di modelli, interessante di per sé.
Riflessione preliminare
Può capitare, man mano che si affina il modello, di rendersi conto che non abbiamo
rilevato variabili che ora ci appaiono essenziali, il che sottolinea l’importanza di
un’accurata riflessione su tutte le proprietà che possono risultare rilevanti per gli
obiettivi di una ricerca (relative sia all’unità di analisi che al contesto), ma purtroppo
questo preliminare è spesso trascurato, inserendo in un questionario tutte le
domande che ci paiono interessanti in quel momento, o copiandone da altre
ricerche senza tener conto delle differenze spazio-temporali rispetto al nostro
contesto di studio.
Concetti rilevanti
Nel decidere quali dati rilevare, l’unica cosa che conta è se variabili del censimento,
domande del questionario, prove del test sono interessanti in sé o possono essere
usate come indicatori di concetti realmente importanti in riferimento all’oggetto
della nostra ricerca. Bisogna quindi chiedersi a cosa servirà aver operativizzato quel
dato concetto al momento dell’analisi dei dati, cioè in quali modelli sarà utile la sua
presenza, e se questo uso è sufficiente per includerne la rilevazione.
Mappa dei concetti
È consigliabile partire da una riflessione (meglio se di gruppo) sui concetti che
interessano il nostro problema di ricerca, e poi cercare le relative definizioni
operative, o i relativi indicatori nelle fonti ufficiali, o nelle domande di questionari
già redatti. Dovremo poi immaginare noi gli indicatori e stabilire le definizioni
operative per tutti quei concetti che non abbiamo trovato in forma adeguata e
soddisfacente.
Può aiutare ricorrere a una mappa dei concetti, cioè una specie di rete, o
diagramma di flusso, in cui tutti i concetti che scegliamo sono posti su un foglio e
collegati tra loro mediante frecce.
Stesura della mappa
La funzione svolta dalla mappa è quella di aiutarci a scegliere i concetti rilevanti per
la ricerca, prima di raccogliere i dati. In seguito possiamo riprendere alcune singole
maglie della rete concettuale costituita dalla mappa, e trasformarle in modelli, con
le variabili al posto dei concetti corrispondenti.
La stesura della mappa dei concetti è la prima fase di una ricerca, una volta stabiliti
l’obiettivo conoscitivo, l’unità di analisi e l’ambito spazio-temporale. Nella seconda
fase operativizziamo i concetti.
Operazioni preliminari
Raccolti i dati compiremo una serie di operazioni preliminari alla loro analisi:
controlli sulla fedeltà dei dati;
aggregazione delle categorie delle classificazioni che intendiamo inserire
nelle tabelle di contingenza;
costruzione di indici tipologici e indici sommatori per sintetizzare le
informazioni fornite dagli indicatori.
Poiché la scelta di concetti, indicatori e definizioni operative avviene tra possibilità
teoriche potenzialmente infinite dovrebbe essere giustificata nei resoconti di
ricerca, per consentire il giudizio e la critica della comunità scientifica e dei lettori.
Procedure empiriche
La ricerca sociale costruisce i propri asserti ricorrendo a tre diverse procedure
empiriche:
Osservazione;
Esperimento;
Simulazione.
Tutti questi modi sono basati sull’esperienza del mondo (e. osservativa o e.
provocata), attraverso percezioni sensoriali, in particolare vista e udito.
L’esperimento
L’esperimento è lo strumento principe per il controllo delle ipotesi causali.
Lo schema dell’esperimento classico risulta inapplicabile a molti campi della ricerca
sociale, per ragioni pratiche, etiche e metodologiche.
Esempio: studio di Liebert e Baron (1972) su due gruppi randomizzati di bambini
proporzionali per genere, età e ceti sociali, fattori che possono influenzare la
relazione causale tra esposizione a programmi televisivi violenti e adozione di
comportamenti aggressivi.
Il quasi-esperimento
Più frequente il ricorso a quasi-esperimenti, in particolare nell’ambito della ricerca
valutativa, nei quali viene mantenuta la logica, ma non si rispettano tutte le
prescrizioni dell’esperimento vero e proprio.
Ne esistono di due tipi, diversi per la distanza che li separa dal modello sperimentale
classico.
nel quasi-esperimento sul campo il ricercatore manipola la variabile
indipendente (il trattamento), ma non esercita un controllo pieno sulle
variabili terze (es. due classi di scuola elementare);
nel quasi-esperimento naturale vengono meno sia il controllo delle variabili
terze, sia la manipolazione della variabile indipendente (es. classe della sede e
della succursale).
Breaching Experiments
Nel campo della ricerca QL gli esempi più noti di quasi-esperimento sul campo sono i
breaching experiments utilizzati da Garfinkel, che hanno l’obiettivo di rendere visibili
gli assunti di fondo che governano l’interazione sociale, attraverso comportamenti
dei ricercatori che violano apertamente le regole costitutive della struttura
normativa (tacita) che governa l’interazione sociale.
Esperimento di LaPiere
LaPiere, anni ‘30, studio sul rapporto tra pregiudizio e discriminazione sociale (due
trattamenti). Negli Stati Uniti c’era ostilità verso persone dei paesi comunisti,
mandava due amici cinesi in visita da soli a prenotare in alberghi e ristoranti. Su 251
strutture solo una rifiutò la prenotazione. Dopo 6 mesi, tramite questionario
(risposero in 128), 118 di questi affermarono di non accettare clienti cinesi.
Processi di etichettamento
Rosenham (1988) ipotizza che l’attribuzione a un individuo dello status di malato
mentale sia una costruzione sociale, condizionata più dal contesto (ospedale
psichiatrico) che non dalle caratteristiche del soggetto. Otto collaboratori, in diverse
strutture, pur comportandosi normalmente vennero tutti ricoverati, poi dimessi con
diagnosi di «schizofrenia in remissione». Controprova in un ospedale preavvertito
(due gruppi sperimentali).
La simulazione
Il ricercatore osserva o sottopone a trattamento una copia dell’oggetto disegnata da
un insieme di algoritmi eseguiti al computer, un sostituto regolato dalle medesime
leggi formali dell’originale (es. scelte scolastiche).
Questi agenti, come i personaggi di un videogioco, dispongono di un patrimonio di
informazioni sull’ambiente in cui dovranno muoversi e di alcuni script procedurali
(«se, allora») che possono evolvere nel corso della simulazione (r. può osservare
effetti delle scelte).
Pregi della simulazione
Con la simulazione si studiano le rappresentazioni dei fenomeni sociali che possono,
così, essere costruite in modo più accurato, consentendo l’articolazione dei modelli
teorici concepiti e controllandone la coerenza. Principali pregi:
1) la messa a punto di modelli che raffigurano l’interazione sociale (la
medesima osservazione su persone reali sarebbe estremamente onerosa);
2) la possibilità di raffigurare i processi sociali, di elaborare modelli dinamici
(cosa varia nel tempo).
Applicazioni della simulazione
Principali applicazioni nelle scienze sociali:
1) Sperimentazione. Offre l’opportunità di condurre esperimenti sociali anche
arditi sul piano etico, o collocati nel passato (controllo di ipotesi sulle
modifiche date dalla soppressione di uno script).
2) Osservazione. Nello scenario sociale ricostruito il ricercatore ha l’opportunità
di focalizzare l’attenzione sugli aspetti che ritiene più rilevanti.
3) Proiezione. Consente di costruire ipotesi sugli stati futuri del sistema sociale a
partire dalle informazioni presenti e dalla loro evoluzione nel tempo (es.
proiezioni demografiche costruite con microsimulazione).
La simulazione implica la costruzione di un modello del fenomeno oggetto di studio,
nei suoi tratti essenziali, quindi comporta una semplificazione, da cui consegue una
portata delle conclusioni più limitata.
Vantaggi della simulazione
Tuttavia, la scelta dei tratti su cui costruire il modello presenta molti vantaggi sul
piano teorico, in primis:
• rendere espliciti gli assunti ontologici che guidano la ricerca,
• chiarire cos’è un attore sociale per il ricercatore.
Di solito le rappresentazioni QL sono narrazioni, la loro traduzione in algoritmi aiuta
a controllare la coerenza delle conclusioni e articolarle.
I modi della ricerca sociale
Documenti naturali
Si definiscono naturali i documenti prodotti da individui o collettivi con scopi diversi
da quelli della ricerca scientifica: lettere, diari, autobiografie, atti giudiziari,
documenti di tipo amministrativo o statistico.
I documenti naturali si dividono in due classi:
• documenti segnici, testi scritti, documenti iconici, audiovisivi, ipertesti;
• documenti non segnici, manufatti, l’insieme degli oggetti costitutivi della
cultura materiale di una società.
Individui e collettivi
Quando l’unità di osservazione è costituita da individui, i comportamenti rilevati
sono soprattutto comportamenti linguistici, di solito sollecitati dall’osservatore.
Nell’osservazione dei collettivi si aggiunge la rilevazione sistematica dei
comportamenti non linguistici, del linguaggio del corpo.
Tassonomia tecniche A
Esempio di elaborazione
A ogni intervistato viene attribuito un nome di fantasia, per contraddistinguerlo
dagli altri senza violarne la privacy, e vengono registrati i suoi dati anagrafici.
INTERVISTA A GIOVANNI
• Genere: M
• Età: 48
• Stato civile: Coniugato
• Livello d’istruzione: Licenza media inferiore
• Situazione occupazionale: Operaio specializzato industria
1. Socializzazione al gioco
Esempio di commento
La socializzazione al gioco
Lo scopo delle prime tre domande dell’intervista è quello di individuare la fase di
socializzazione al gioco d’azzardo, per analizzare come sia nata la passione per il
gioco, per mettere a fuoco la dimensione temporale e le cause dell’approccio al
gioco. La prima e la seconda domanda sono state volutamente tenute distinte nel
tentativo di comprendere se l’azzardo entra come dimensione successiva in un gioco
praticato per diletto.
Ad eccezione di due casi, tutti gli intervistati hanno risposto raccontando
direttamente il loro approccio al gioco d’azzardo, poi confermandolo (o fornendo
precisazioni) nella domanda successiva. Vediamo le eccezioni:
Ho sempre giocato sin da bambino con i miei amici, si giocava a nascondino, scacchi,
carte e si giocava a punti [Carmine, 51 anni, avvocato, coniugato].
Quando ero bambino con la nonna, giocavamo a sette e mezzo, senza soldi però,
avevo sei o sette anni [Gastone, 58 anni, disoccupato, coniugato].
Questa prima constatazione sembra lasciar intravedere una propensione a
intendere il gioco d’azzardo come la modalità normale di gioco, quella stessa
modalità con la quale i giocatori patologici intervistati hanno iniziato a giocare.
Ai due intervistati citati sopra possiamo aggiungere coloro che precisano in seguito
quali sono stati i prodromi al gioco d’azzardo:
In passato giocavo a carte anche a soldi, ma come si fa in tutte le famiglie durante le
festività natalizie, giocavamo a soldi, ma era per lo più un modo per stare insieme
agli altri e trascorrere il tempo [Riccardo, 36 anni, operaio comune industria, celibe].
A ulteriore conferma di una predilezione iniziale per l’azzardo nel gioco sono le
dichiarazioni circa le prime scommesse, che in sei casi sono avvenute durante
l’adolescenza, ancora da minorenni:
Da bambino (…) si giocava con gli amici a figurine, poi si vendevano le figurine in
cambio di soldi. (…) Non avevo nemmeno 10-12 anni [Giovanni, 48 anni, operaio
specializzato industria, coniugato].
Guardando le partite di calcio, a 17 anni, con degli amici nei punti SNAI [William, 18
anni, studente, celibe].
Ho iniziato a giocare con le carte a soldi all’età di 14 anni, con amici nei bar [Mario,
48 anni, operaio comune industria, coniugato].
In alcune risposte è rilevabile un cambiamento nei comportamenti ludici in seguito
alle maggiori possibilità economiche:
Ho iniziato quando ho avuto una disponibilità economica, a 14-15 anni [Carmine, 51
anni, avvocato, coniugato].
All’inizio quando giocavo a biliardo (15-16 anni) scommettevamo delle “bevute”, su
consumazioni, poi con l’arrivo dei videopoker, lavorando ed avendo dei soldi
disponibili, ho iniziato a scommetterli, all’età di 17 anni [Angelo, 47 anni, camionista,
coniugato].
Per quanto riguarda le modalità di approccio al gioco è interessante notare che gli
intervistati più anziani (6 intervistati che hanno dai 48 ai 70 anni) hanno iniziato a
scommettere intorno ai vent’anni giocando a carte con gli amici, o scommettendo
sui cavalli perché andavano in compagnia all’ippodromo.
In questi casi la dimensione del contesto amicale sembra aver giocato un ruolo
determinante, e si tratta di giochi che per essere esercitati richiedono una certa
competenza. Quasi tutte le risposte ottenute, infatti, rivelano che i soggetti hanno
avuto i primi contatti con il gioco ispirati dalle abitudini ludiche dei membri della
famiglia e nel vivere il gioco come attività di gruppo da praticare con amici e
conoscenti.
Al contrario, gli intervistati più giovani hanno iniziato a giocare presso i punti SNAI
con le scommesse sul calcio o con il Totocalcio; questo particolare dovrebbe far
aprire una riflessione sul ruolo giocato dallo Stato nell’impiantare o favorire attività
legali di scommesse che possono intercettare al gioco d’azzardo (che in alcuni casi si
trasforma in dipendenza) soggetti che, al contrario, nel proprio ambito relazionale
non sono a contatto con il gioco.
LEZIONE 15 NOVEMBRE
L’osservazione scientifica
Un diffuso stereotipo caratterizza l’osservazione scientifica come un’attività
esclusivamente oculare, come un vedere, disciplinato dal metodo e potenziato dalla
tecnica, come un guardare a distanza, come un’attività assolutamente impersonale.
L’osservazione partecipante, invece, utilizza i cinque sensi, è un’esperienza che
coinvolge tutto il corpo, l’osservatore è dentro l’oggetto di cui disegna il profilo e ciò
a cui partecipa e di cui può fare esperienza dipende dalle sue caratteristiche
personali
Punto di vista soggettivo
Due ricercatori che svolgono osservazione partecipante sul medesimo oggetto
difficilmente vedranno esattamente le stesse cose: ciascuno costruirà le proprie
rappresentazioni dell’oggetto di studio, il cui contenuto e plausibilità dipendono
dallo specifico itinerario di ricerca seguito.
Interazione sociale
L’osservazione partecipante è la principale tecnica per lo studio dell’interazione
sociale, ed è dalla composizione della sequenza infinita di interazioni sociali che la
società prende forma e si struttura.
Con l’OP l’interazione sociale viene studiata in un contesto naturale, che
l’osservatore impara a conoscere con, e talvolta come, i soggetti di studio.
La chiave di questa esperienza è la partecipazione, nei termini di osservazione
diretta, dialogo e assunzione di un ruolo.
Assunzione di ruolo
L’assunzione di ruolo implica per l’osservatore di compiere un processo di ri-
socializzazione, che consiste nell’apprendimento di valori, norme e precetti
comportamentali della cultura ospite.
L’osservatore impara dai propri ospiti e mette alla prova la propria comprensione
coordinando il proprio agire con quello degli altri (partecipazione alla vita
quotidiana).
Studiare i processi sociali
L’OP è un’esperienza che si sviluppa su un esteso periodo di tempo (mesi o anni), il
che consente di cogliere l’interazione e l’azione sociale nel loro farsi, cioè di ritrarre
processi sociali, di accedere a una rappresentazione dinamica dei fenomeni sociali,
che non è accessibile ad altre tecniche di osservazione che non hanno uno sviluppo
nel tempo.
Antropologia ed etnografia
I tratti essenziali dell’OP vennero delineati dagli antropologi tra il 1800 e il 1900, in
pieno positivismo. Nonostante sia frutto di un lavoro corale, i suoi principi
metodologici vennero sistematizzati per la prima volta da Malinowsky
nell’introduzione a Argonauti del Pacifico occidentale (1922).
L’OP è la tecnica principale della ricerca etnografica, anche se, di norma, in
combinazione con altre tecniche: l'osservazione documentale o naturalistica,
l'intervista discorsiva, i focus group ecc.
Gli scopi
L’OP, e più in generale la ricerca etnografica, consente di ricostruire dall’interno il
profilo culturale della società ospite, attraverso le rappresentazioni condivise delle
persone che ne fanno parte.
L’obiettivo è cogliere il punto di vista dei nativi, attraverso le loro parole e le loro
azioni, di cogliere le «definizioni della situazione» che orientano il loro agire, ma
anche di cogliere ciò di cui non hanno consapevolezza, la conoscenza tacita che fa
da sfondo all’interazione sociale.
Gli oggetti
Basandosi principalmente sull'osservazione in prima persona da parte del
ricercatore, l'etnografia deve darsi dei fenomeni situati o circoscrivibili entro
dimensioni percettive, fisiche e interattive, dei contesti sociali dai confini spaziali
delimitati.
Una volta ammesso, però, che dovremo accedere a un campo e parteciparvi
attivamente, nostro campo di studio può essere praticamente tutto.
I modi di applicazione
La forma assunta dall’OP dipende da una combinazione di diversi fattori:
• le caratteristiche dell’oggetto;
• le caratteristiche dello strumento osservativo;
• la persona dell’osservatore;
• gli eventi che accadono sul campo.
Esiste una pluralità di itinerari di ricerca etnografica, di metodi e di risultati, e poiché
cosa il ricercatore ci racconterà del suo oggetto dipende dal come ne ha fatto
esperienza, diventa cruciale la questione del metodo.
Metodo etnografico
Il metodo adottato è rilevante per:
• la qualificazione del punto di vista dal quale l’oggetto è ritratto;
• la valutazione della plausibilità dei risultati.
Il metodo etnografico non può essere standardizzato, mentre si possono mostrare le
implicazioni, sui risultati della ricerca, delle scelte nei passaggi obbligati del
percorso. Non si possono proporre regole, ma è necessario sviluppare una
personale consapevolezza metodologica.
Disegno della ricerca
Cardano illustra la sequenza delle decisioni metodologiche che spettano
all’osservatore in relazione alle quattro fasi della ricerca.
In una ricerca etnografica di solito l’elaborazione del disegno della ricerca procede
con la conduzione dello studio. L’insieme dei suoi elementi acquista una fisionomia
definita solo dopo che la ricerca è stata avviata. Tuttavia sono cruciali le decisioni
relative: all’identificazione dell’oggetto e alla scelta del ruolo osservativo.
L’oggetto
Esistono tre percorsi tipici che portano all’identificazione dell’oggetto:
1) a partire da una specifica domanda cognitiva (es. studio Cardano sui processi
di sacralizzazione della natura). Lo svantaggio di questo percorso è che la
teoria di sfondo può diventare un vincolo che riduce le possibilità di trovare
l’inatteso;
2) a partire dall’osservazione dell’oggetto, che suggerisce la domanda cognitiva
pertinente, o aiuta a definirla (es. studio Kunda sulla Tech, grande impresa ad
alta tecnologia).
3) Questo approccio apre più degli altri alla scoperta, ma rende difficile
prevedere tempi e risultati dello studio;
4) delineazione sommaria sia dell’oggetto che della domanda già all’inizio della
ricerca (studio sui tearoom di Humphreys). Questo percorso conduce dritto al
cuore del problema, ma lascia in ombra le differenze, le specificità del
fenomeno studiato che avvengono in altri luoghi e contesti.
L’individuazione dell’oggetto
Indipendentemente dalla via seguita, è opportuno tenere conto di due elementi:
1) Pratico. Sostenibilità emotiva della relazione osservativa nella quale verremo
coinvolti: le caratteristiche personali dell’osservatore e dei suoi ospiti non
pregiudichino la possibilità di una convivenza gradevole (attributi di maggior
visibilità dell’osservatore);
Epistemico. Generalizzabilità dei risultati ottenuti dallo studio di uno o di pochi
casi
Elemento epistemico
a) Lo scopo dello studio di un caso non è la produzione di conclusioni generali
(Intrinsic case study).
b) Agli studi intensivi spetta il compito di ricostruire in dettaglio i meccanismi che
legano la causa all’effetto (compito complementare alla generalizzazione).
c) Gli studi di caso hanno la funzione di enumerazione (accostato ad altri studi
analoghi).
d) Il sapere prodotto è estendibile a un altro contesto solo grazie al potere
persuasivo degli argomenti di cui si mostra la somiglianza
Forma della partecipazione
Si tratta di scegliere che risposta dare alla domanda: chi sono io per le persone che
sto studiando? Decidere la forma di partecipazione adeguata significa darsi
differenti possibilità di accesso e comprensione ai fenomeni che ci interessano. Si
può distinguere tra:
osservazione coperta, forma di partecipazione in cui è ignota a tutti, o quasi,
l'identità professionale del ricercatore e le sue finalità;
osservazione scoperta, nella quale il ricercatore comunica (a tutti o ad alcuni)
la sua identità e i suoi scopi.
Osservazione coperta
Punti di forza:
1) Nell’accesso al campo (setting) l’osservatore non è costretto a passare il vaglio
dei guardiani (gatekeepers), coloro che con un ruolo informale o formale
(istituzionale) hanno la responsabilità di proteggere il gruppo dall’intrusione
dei ficcanaso (consente di osservare delle attività alle quali altrimenti si
avrebbe difficoltà ad accedere, se non partecipandovi direttamente).
2) Riduce al minimo la reattività, l’alterazione del comportamento osservato
dovuta alla presenza dell’osservatore (effetto Hawthorne).
3) L’osservatore può acquisire, nel modo più completo possibile, la competenza
propria del ruolo che ricopre.
Punti di debolezza:
1. Rigidità. L’osservatore ha minori possibilità di movimento sul campo, limitate
dal ruolo che ha assunto.
2. Coinvolgimento. Riduce la capacità di distanziarsi cognitivamente ed
emotivamente dall’oggetto di studio.
3. Commiato. È difficile prendere commiato dai propri ospiti nei tempi e nei
modi previsti dal programma di ricerca.
4. Pubblicazione. Al momento della pubblicazione dei risultati della ricerca
l’osservatore deve svelarsi, e pagare il prezzo del ‘tradimento’ della fiducia
ottenuta (es. Schroeder).
Inoltre, trovarsi in una condizione di copertura implica il dover piegare la pratica
partecipativa alle contingenze delle situazioni sociali del momento
(ad es. costringe a prendere le note solo in un secondo momento e con alcune
cautele).
Osservazione scoperta
Punti di forza:
1) Flessibilità. La partecipazione offre all’osservatore la possibilità di raccogliere
una messe più ricca e più differenziata di informazioni ed esperienze.
Legittimato dal suo ruolo, può prendere note di campo apertamente, ricorrere
ad altre tecniche, alternare momenti di lavoro a casa e ricorrere al backtalk
(interpellare i nativi sulla correttezza delle proprie interpretazioni).
2) Distacco. Palesare il proprio ruolo consente all’osservatore di essere in
continua tensione tra la prospettiva cognitiva dell’insider e dell’outsider, di
mantenere un equilibrio tra coinvolgimento e distacco, avendo a disposizione
sia le risorse della vicinanza, sia quelle della lontananza.
Punti di debolezza:
1. L’osservatore deve persuadere i guardiani, compito più gravoso nelle
comunità piccole e chiuse, può aiutare un mediatore culturale.
2. Può verificarsi una manipolazione strumentale dell’osservatore da parte degli
osservati, al fine di diffondere un’immagine della loro cultura utile ai propri
scopi, adottando una rappresentazione inautentica della loro vita quotidiana.
3. Non elimina la reattività, anche se non è sempre un problema, e non per tutte
le comunità (ad es. quelle ospitali). Inoltre è indebolita dai tempi lunghi
richiesti dalla OP (non ci si può falsificare per anni).
4. La reputazione di cui gode l’osservatore può indurre ad attribuirgli il compito
di arbitro nelle dispute quotidiane, il che può compromettere la prosecuzione
della ricerca (non prendere posizione fino a che è possibile).
Grado di copertura
In sintesi:
la forma di partecipazione non è una scelta a priori o assoluta, ma dipende in
larga parte dai contesti e dai fenomeni che ci interessano, quindi è più efficace
adottare un approccio pragmatico;
la forma della partecipazione non è un contratto senza clausola di rescissione.
Bisogna distinguere tra l'accesso (può consentire o meno la possibilità di fare
ricerca), e la partecipazione all'interno del fenomeno che studiamo
(negoziazione con le persone).
Problemi etici
L’osservazione coperta implica un insieme di problemi etici, in quanto il ricercatore
ottiene la collaborazione degli osservati dando un’immagine di sé, e dei propri scopi,
difforme da quella che lui stesso ritiene autentica. È necessario valutare le
conseguenze che l’adozione di questa strategia di ricerca comporta per i soggetti di
studio, che potrebbero subirne danni, in particolare al momento della pubblicazione
dei risultati, qualora si riconoscano (sentendosi traditi) o vengano riconosciuti da
altri.
LEZIONE 17 NOVEMBRE
Costruzione della documentazione
Definiti l’oggetto e la forma di partecipazione inizia il lavoro sul campo, del quale
bisogna innanzitutto guadagnarsi l’accesso, che segue strade diverse per:
• l’osservatore coperto – trafila riservata a qualsiasi nuovo venuto;
• l’osservatore scoperto – negoziare con gli ospiti i tempi e i modi della propria
ricerca.
È bene che l’osservatore arrivi preparato, che conosca tutte le informazioni
disponibili sulla cultura che si accinge a studiare.
Accesso al campo
Consultare la letteratura scientifica inerente e i documenti naturali prodotti dalla
cultura in studio (es. home page di un’azienda, libro di preghiere di una comunità
religiosa ecc.) serve a due scopi:
• nell’incontro con i guardiani, ciò che l’osservatore mostrerà di sapere sulla
cultura in studio testimonierà il suo genuino interesse (strumento di
persuasione);
• l’analisi del materiale offre spunti utili a identificare alcuni possibili mediatori
culturali.
Mediatore culturale
È una persona che gode della fiducia della popolazione in studio e che è facilmente
avvicinabile dal ricercatore (per sue caratteristiche culturali e di personalità).
L’ideale sarebbe che avesse solidi legami con entrambe le culture, quella del
ricercatore e quella degli ospiti, nella pratica spesso ha un legame forte con una, e
più labile con l’altra. Può far parte della società in studio, o avere dall’esterno buoni
rapporti con i suoi membri. Poiché farà da tramite con i guardiani, dobbiamo essere
certi che goda della loro fiducia e deve avere fiducia in noi.
Negoziazione
All’inizio del lavoro sul campo è l’osservatore ad essere oggetto di osservazione dei
nativi, che cercano di capire in che misura possono fidarsi di lui; una buona
presentazione da parte del mediatore facilita il compito, ma è cruciale anche la
presentazione del sé: occorre che il ricercatore sia discreto, mostri un genuino
interesse e si prenda il tempo necessario (evitare decisione affrettata).
Di tutto questo occorre prendere nota con la massima cura.
Il lavoro sul campo
L’insieme di operazioni – domanda cognitiva, osservazione sul campo, analisi della
documentazione empirica, teorizzazione e scrittura – che compongono la ricerca
etnografica hanno tra loro un rapporto circolare, nel quale la domanda cognitiva
orienta il lavoro sul campo, ma a sua volta viene ridefinita e articolata da questa
esperienza, i materiali raccolti consentono l’analisi, che a sua volta ri-orienta il
lavoro sul campo, e la scrittura diventa essa stessa strumento di scoperta.
Perché questo meccanismo funzioni occorre che analisi e scrittura si aprano un
varco nel lavoro di osservazione, per rafforzarla, renderla più acuta e penetrante.
Ciò accade con la redazione delle note etnografiche, cioè gli appunti sul campo delle
esperienze dell’osservatore, che vanno scritte in modo metodico, quotidianamente,
e che costituiranno il corpus principale dell’analisi.
Cosa scrivere
La nota è descrittiva, racconta una serie di eventi, ancorandoli con particolari
significativi che riescono a riprodurre parte delle sensazioni vissute in quella
giornata. Ci sono dettagli su: la temporalità, la condizione emotiva dei presenti,
particolari che hanno attirato l'attenzione e agganci a situazioni precedenti.
Anche gli scambi verbali fanno parte della descrizione degli eventi. È necessario
riportare le esatte parole che le persone utilizzano nella vita quotidiana, stando
attenti a non sovrapporre ad esse le nostre riflessioni.
Backtalk
Dell’osservazione fa parte una forma speciale di dialogo con i nativi, il backtalk, cioè
l’insieme delle osservazioni e dei commenti dei nativi, che riguardano sia la relazione
osservativa, sia le interpretazioni della cultura elaborate dall’osservatore, che in tal
modo vengono sottoposte a uno scrutinio critico. Questi commenti possono essere
spontanei o sollecitati (es. interviste), espressi in forma orale o scritta, e
costituiscono nuovo materiale empirico sul quale riflettere, che siano a sostegno o
che mettano in discussione l’interpretazione proposta.
Forme di osservazione
Le forme di osservazione e partecipazione evolvono nel corso del lavoro sul campo.
Possiamo distinguere tre passi legati da un rapporto circolare, che si succedono
senza un ordine prestabilito, dettato dalle esigenze conoscitive che emergono:
(a) l’osservazione descrittiva, che avvia il lavoro sul campo, per acquisire
familiarità con la cultura ospite;
(b) l’osservazione focalizzata, con lo sguardo che si dirige su una forma
particolare di interazione sociale, su un aspetto specifico;
(c) l’osservazione selettiva, quando è necessario strutturare l’attività osservativa.
L’osservazione descrittiva
In questa fase osserviamo la vita quotidiana dei nostri ospiti attraverso una visione
d’insieme, sacrificando la nitidezza dei particolari. Poiché la descrizione è sempre
una scelta, una selezione di asserti descrittivi rilevanti tra i molti possibili, è bene
accompagnarla da una riflessione teorica che esplicita i criteri che orientano tale
scelta. Tale descrizione, che varia da ricerca a ricerca, deve comunque dar conto di:
(a) spazio; (b) tempo; (c) attori; (d) attività principali.
L’osservazione focalizzata
Delineati i contorni della cultura, si passa all’analisi più dettagliata di alcuni suoi
luoghi, scelti in base alla domanda conoscitiva.
Se l’osservazione descrittiva è stata ben condotta, la domanda conoscitiva iniziale è
cambiata, ed è questa nuova domanda conoscitiva a indirizzare lo sguardo su un
luogo specifico della cultura ospite, lungo due percorsi:
uno basato sulla salienza, che approfondisce un tema ritenuto rilevante (in
base alla teoria o dimensione cruciale per i nativi), riesaminando tutte le
principali scene della cultura ospite (oss. trans-situazionale) e approfondendo
luoghi specifici che ci sembrano promettenti;
uno basato sulla sineddoche, più affascinante, ma ricco di insidie, nel quale
l’analisi di un aspetto specifico della cultura ospite (es. il combattimento dei
galli di Geertz) è una parte che viene eletta a espressione del tutto, come
metafora di quella cultura.
L’osservazione selettiva
Quando l’osservatore vuole controllare un’ipotesi relativa ad aspetti ben circoscritti
dell’interazione sociale, cioè quando ha bisogno di procedure osservative
formalizzate e quantificabili, ricorre all’osservazione selettiva, molto simile all’o.
naturalistica strutturata, nella quale diventa un osservatore ‘completo’ escluso
dalla partecipazione delle interazioni che osserva. È condotta attraverso una griglia
di lettura dell’interazione ben definita nei tempi e nei modi, e i dati possono essere
analizzati con sofisticate procedure statistiche (es. network analysis).
Gli informatori
Sono ‘nativi’ con i quali stabilire un rapporto privilegiato e ottenere preziose
informazioni sulla cultura in studio. Possono essere:
istituzionali, persone incaricate del rapporto con gli esterni alla società ospite
(es. guardiani), che hanno forte identificazione con il gruppo dominante e non
sempre dotati di senso critico;
non istituzionali, persone che offrono spontaneamente la propria
collaborazione, che non sempre sono le più informate.
È bene consolidare la relazione solo dopo avere un’immagine più chiara della
società e avere chiare le ragioni che li spingono a collaborare.
Le note etnografiche
Le note sono la traduzione scritta della nostra esperienza di ricerca sul campo.
Le note devono essere fiorite, ricche ed esprimere appieno il nostro punto di vista
sulle esperienze che abbiamo vissuto con altre persone. Non sono un diario, sono
scritte pensando anche a un uditorio successivo, e la scrittura è generalmente in
prima persona. Dovrebbero contenere:
• la descrizione della cultura in studio;
• la descrizione della relazione osservativa.
Princìpi generali per le note
1) principio di distinzione: occorre separare, rendendoli riconoscibili, oggetti,
fonti, tipi di discorso, tipi di asserti, sfumature linguistiche, contesti
osservativi;
2) principio della concretezza: utilizzare un linguaggio estremamente concreto;
3) principio della ridondanza: le descrizioni non devono dare nulla per scontato,
vanno scritte come se dovessero essere lette 15 o 20 anni dopo, quando il
ricordo diretto dell’esperienza sarà sfuocato.
La descrizione della cultura
Le note etnografiche offrono una raffigurazione incompleta della cultura ospite,
sono il frutto di una continua mediazione fra il modo di pensare (la lingua, la cultura)
dell’osservatore e quello degli ospiti. Il principio della distinzione chiede di fare
quanto più ordine possibile all’interno del materiale, il principio di concretezza di
usare un linguaggio vicino all’esperienza quotidiana, il principio di ridondanza di
non fare troppo affidamento sulla propria memoria.
La descrizione della relazione
Perché la comunità scientifica possa valutare la plausibilità degli asserti formulati nel
resoconto etnografico, il ricercatore dovrebbe accompagnare i propri risultati con
un meticoloso resoconto riflessivo sulle condizioni che hanno condotto alla loro
produzione, per costruire il quale è necessario prendere nota, giorno per giorno,
delle condizioni entro le quali si conduce la propria ricerca (es.: negoziazione,
arruolamento dell’etnografo, lavoro sul campo).
È opportuno raccogliere una valutazione sintetica sull’efficacia dei metodi di ricerca
adottati, e delle domande conoscitive per le quali non si è ancora trovata una
risposta adeguata. Il resoconto deve essere accurato e completo e l’analisi dovrebbe
procedere parallelamente alla raccolta, rileggendo le note, ogni settimana,
ipotizzando punti di vista alternativi e prevedendo aggiunte o rettifiche alle
informazioni raccolte (tenute distinte dalle informazioni originarie).
La base empirica sulla quale la ricerca etnografica poggia i propri asserti, cioè le
note, è pienamente comprensibile solo per chi l’ha redatta, per cui la soggettività
del ricercatore svolge un ruolo importante. Ogni rappresentazione di una cultura
adotta un particolare punto di vista, per cui è necessario far comprendere al lettore
la prospettiva dell’osservatore, rendendo riconoscibile nel testo la propria
appartenenza a una specifica tradizione di ricerca, il proprio orientamento di valore
e le principali coordinate emotive della propria esperienza sul campo.
Quando scriverle
Dopo aver passato la giornata sul campo torniamo a casa e scriviamo, o subito il
mattino dopo: la costante alternanza tra esperienza e scrittura (processo “a
pendolo”) è il nocciolo della costruzione del nostro materiale empirico. Per avere
materiale ricco la regola è di trascrivere la propria esperienza subito dopo averla
vissuta (aiutandosi con gli appunti presi sul campo in un taccuino).
La proporzione tra osservazione e scrittura dipende dalle capacità soggettive, ma
vanno comunque tenuti in conto anche i tempi adeguati di scrittura.
Con che cosa scriverle
Utilizzare un computer e un software di scrittura ci consentirà di costruire, per le
note di campo, un archivio digitale, materiale che, volendo, può essere trattato con
software per l'analisi qualitativa dei dati.
I file vanno nominati in ordine cronologico e potranno contenere sigle specifiche
per indicare luoghi, o temi che possono essere importanti per l'interpretazione e
l'analisi. Sono poi disponibili software di archiviazione per le scienze sociali che
consentono di codificare il proprio materiale: Nvivo, Atlas.ti, Filemaker, MAXQDA o
The Ethnograph.
Ricorso ad altre tecniche
Accanto all’osservazione partecipante il setting di una ricerca etnografica si presta a
ospitare altre tecniche della documentazione empirica, in particolare l’intervista
discorsiva, che può essere impiegata in modo convenzionale, ma più spesso in
modo formale o casuale, cioè inserendola in modo non intrusivo nel corso delle
ordinarie attività di osservazione (es. intervistare gli ospiti nel corso di una normale
conversazione, sollecitare un gruppo naturale su un tema di nostro interesse).
Questa triangolazione può conferire maggiore solidità ai risultati.
Analisi della documentazione
Con l’analisi si realizza il delicato passaggio da costrutti di primo ordine (il
linguaggio dei nativi) a costrutti di secondo ordine (il linguaggio e le categorie
concettuali della teoria sociologica). Un processo creativo di ri-costruzione capace di
combinare creatività e rigore, creatività sottoposta a un insieme di vincoli dettati
dall’oggetto, e dalla comunità scientifica. Il punto di vista dell’etnografo deve essere
al servizio dell’oggetto (non piegarlo a sé) e la comunità scientifica deve avere gli
strumenti (grazie al resoconto riflessivo delle procedure) per valutare la plausibilità
della rappresentazione fornita.
Gli obiettivi sono la messa a punto di una tipologia o una tassonomia, una buona
classificazione dei fenomeni osservati, la definizione di alcuni concetti, solidi da un
punto di vista empirico e rilevanti da un punto di vista teorico.
L’analisi comporta l’esercizi della scelta, cioè non è necessario analizzare e
commentare con il medesimo dettaglio tutta la documentazione empirica raccolta,
ma si selezionano dei particolari in base alla loro capacità di dialogare con la teoria.
Innanzitutto dobbiamo disporre di tutto il nostro materiale empirico dotato di un
certo ordine: note di campo redatte, interviste trascritte, dati supplementari
catalogati.
Il modo in cui abbiamo inventariato il nostro materiale empirico è già una forma di
interpretazione e di analisi, nel senso che abbiamo deciso (tra varie possibilità) di
attribuire una certa forma di coerenza al materiale empirico (ad es. ordine
cronologico e relazione tra i vari materiali).
L'ordine che abbiamo imposto noi al materiale che abbiamo costruito nel tempo non
è una trasposizione fedele del mondo, ma ne è la nostra interpretazione: è
necessario essere consapevoli della natura di costruzioni sociali delle nostre
interpretazioni, nel senso che esse vanno argomentate e giustificate.
Non esiste un'unica maniera per interpretare il materiale empirico, l'analisi è un
processo partecipato e creativo, è ricerca e, come tale, aperta, curiosa e innovativa.
Chiarito ciò, possiamo individuare alcuni suggerimenti per la sua conduzione.
Analisi narrativa
Sulla quasi totalità della documentazione empirica è possibile applicare procedure di
analisi che rientrano nell’analisi narrativa. L’analisi narrativa poggia su due semplici
operazioni: la lettura e la classificazione.
Il tipo ideale è lo strumento più appropriato per la classificazione dei materiali, e la
costruzione della cornice teorica entro la quale collocare la documentazione
empirica può basarsi sulla combinazione in una tipologia o in una tassonomia delle
classificazioni semplici tratte dalla lettura delle note etnografiche.
Prima lettura delle note
Partiamo da una prima lettura dell'intero corpus delle note di campo e iniziamo ad
annotare quelli che ci sembrano elementi rilevanti e ricorrenti. Riportando alla
memoria l'esperienza complessiva che abbiamo vissuto, alcuni concetti emergono
come più significativi e duraturi.
I concetti che emergono in questa fase vengono chiamati sensibilizzanti, nel senso
che, sebbene vaghi, richiamano la nostra attenzione e la necessità di raffinarli fino a
che diventeranno dei concetti definitivi.
Codifica delle note
Il secondo passo consiste nella codifica delle note, nel quale ogni nota verrà
contrassegnata con delle postille specifiche e ricorrenti. Oltre alle tradizionali
dimensioni dell'analisi sociologica (genere, età, classe sociale ecc.) possiamo
codificare i concetti che emergono o che vogliamo rintracciare nel nostro materiale
empirico. In un'ottica induttiva – che dall'osservazione procede, per semplificazione
ed astrazione, verso l'elaborazione di teorie – l'analisi è un momento di raffinazione
ad imbuto di concetti e interpretazioni.
La codifica, strettamente soggettiva, procede prima in maniera aperta, identificando
categorie ampie e generiche, e diventa progressivamente più focalizzata mentre
incanaliamo le interpretazioni delle prime codifiche verso i sentieri analitici e teorici
che ci sembrano più adeguati.
La codifica del materiale ci consente di effettuare ricerche specifiche e – attraverso
software per l'analisi testuale o con un taglia-incolla manuale – di formare dei file
separati nei quali compaiono tutte le note di campo che racchiudono il concetto che
ci interessa analizzare.
Comparazione delle note
Il terzo passaggio è legato alla necessità di comparare un evento osservato con altri
eventi. Nella tradizione della Grounded Theory viene proposta una comparazione
costante, utile nell'analisi delle regolarità o delle discontinuità.
Una forma di comparazione meno esigente e molto più praticata nell'analisi del
materiale etnografico è la triangolazione: se diversi tipi di dato portano alle stesse
conclusioni, possiamo essere un po' più fiduciosi in esse.
Il resoconto etnografico
La scrittura del resoconto etnografico porta a compimento l’esperienza di ricerca,
rendendola comunicabile e, quindi, valutabile dalla comunità scientifica.
La fase di scrittura è una fase di ricerca e non di trascrizione meccanica: cogliamo il
senso complessivo della nostra esperienza nel momento in cui lo costruiamo
narrativamente ex post.
La forma e la struttura del testo svolgono un ruolo nel definire i contenuti trasmessi,
per cui è cruciale la scelta dello stile.
La scelta dello stile deve saper rendere giustizia alla peculiarità della cultura
studiata, ma anche descrivere l’esperienza che ha condotto l’osservatore a
maturare le proprie interpretazioni. Il resoconto riflessivo del processo di ricerca
deve dar conto degli aspetti della relazione osservativa e del punto di vista
dell’osservatore (tradizione teorica, interessi e valori di riferimento), che
interagendo con i risultati della ricerca possono mostrarne limiti e punti di forza.
Il materiale empirico emerge attraverso estratti delle note di campo, per far sentire
ai lettori le voci delle persone che abbiamo incontrato. Gli estratti servono a
documentare la linea interpretativa, a saldare il legame tra esperienza empirica, dati
e costruzione del testo.
Inoltre gli estratti obbligano a mostrare la propria documentazione empirica e a
giustificare le interpretazioni offerte. Tuttavia, c’è il rischio di lasciar intendere una
maggiore obiettività e affidabilità, mentre anche il “copia e incolla” è prodotto
soggettivamente.
Uso corale delle citazioni
Le diverse voci che abitano la cultura studiata e che hanno contribuito al dialogo sul
campo devono trovare posto nel racconto etnografico, riproducendo al suo interno
la multivocalità della cultura ospite.
L’insieme delle citazioni dovrebbe riflettere le differenze di valori, di credenze, di
atteggiamento proprie di quella cultura, dando spazio sia alle voci che mostrano la
plausibilità delle interpretazioni, sia a quelle che la mettono in forse.
LEZIONE 24-11.-21
BIG DATA
L’espressione «Big Data» inizia a diffondersi nel 2010 per riferirsi a quell’insieme dei
dati in formato digitale che sono raccolti, archiviati e gestiti attraverso dataset di
ampie dimensioni, non trattabili attraverso i sistemi di software e hardware
tradizionalmente impiegati nell’ambito delle ricerche sociali.
Possono riguardare due tipi di contenuti:
transactional data
digital by product data
Contenuti dei Big Data
i transactional data sono informazioni raccolte nell’ambito degli scambi tra
cittadini e amministrazioni, o tra consumatori e aziende;
i digital by product data sono dati creati e inseriti dagli utenti attraverso le
piattaforme tipiche dell’era 2.0 del web: aggiornamenti di status nei social
network; i tweet sul micro-blog Twitter; le foto, i video, i commenti e i post
pubblicati sui blog, i dati di self-tracking (geo-localizzazione) e self-reporting
(stati fisici o emotivi con App di automonitoraggio).
I digital by product data
Questo tipo di dati è particolarmente interessante per la ricerca sociale: gli user
generated contents si connotano per essere nativi digitali, in una società in grado di
trasformare gli utenti in produttori e consumatori (prosumers), nello stesso tempo,
di informazioni. Sono contenuti tipici della fase 2.0 – web dinamico e interattivo –
che si caratterizza per la dinamicità dei contributi, per la pari possibilità in termini di
consultazione-contributo e per il primato degli oggetti.
Web 2.0
L’era del web 2.0 si connota per un aumento esponenziale dei contenuti, delle
forme di archiviazione e delle possibilità di collegamento: si tratta di una quantità
impressionante di informazioni (‘diluvio di dati’) che vengono registrate, catalogate
e consultate sfruttando la presenza di metadati, cioè dei riduttori di complessità in
grado di facilitare l’operazione di data mining, ovvero di estrazione del sapere a
partire da grandi quantità di dati, che secondo alcuni pone le basi per la fase 3.0 del
web semantico.
Caratteristiche dei Big Data
la voluminosità è il tratto saliente dei Big Data;
la velocità, data dalla simultaneità tra la loro pubblicazione e la loro
disponibilità;
la varietà, con informazioni strutturate e non;
l’essere esaustivi rispetto agli scopi (in grado di catturare intere popolazioni);
l’essere dettagliati rispetto al contenuto (in quanto corredati da informazioni
che ne illustrano il contenuto);
l’essere univocamente identificabili, grazie alla presenza dei metadati che ne
permettono l’identificazione;
l’essere relazionali per natura, in quanto diffusi attraverso i network;
l’essere flessibili, cioè estendibili verso nuovi campi, e scalabili, in quanto
possono diffondersi rapidamente;
la variabilità, in quanto subiscono oscillazioni legate al trend del periodo;
la complessità, poiché i dati provengono da diverse fonti che devono essere
collegate, abbinate, ‘pulite’ e trasformate.
L’interesse verso i Big Data
Per queste caratteristiche i Big Data rivestono un forte interesse per i sociologi
impegnati nello sviluppo della Computational Social Science, il cui fine è quello di
catturare i dati che sono spontaneamente depositati in rete dagli utenti, in tempo
reale, restituendo un’istantanea dell’oggetto di studio e indagandone le
rappresentazioni collettive e i sentimenti che suscita negli utenti.
Tra i sociologi vi è sempre più interesse per i percorsi di ricerca che prevedono
analisi delle tracce online, in particolare per:
• l’opportunità di svolgere ricerca a bassi costi, analizzando informazioni già
disponibili in rete;
• la possibilità di disporre di dati in tempo reale relativi a un certo fenomeno;
• la percezione di poter estrarre i dati in modo semplice, veloce e ‘oggettivo’
grazie a potenti algoritmi;
la capacità di collegare questi dati e fornire una visualizzazione grafica interattiva e
intuitiva
La rappresentatività
La prima sfida riguarda la rappresentatività statistica, che deriva dall’adozione di un
disegno campionario adeguato, basato su procedure probabilistiche che legittimano
l’inferenza statistica (generalizzazione dei dati alla popolazione da cui il campione è
tratto), e non certo sulla numerosità del campione.
La riduzione del digital divide ha ampliato l’inclusione di molti soggetti al processo di
digitalizzazione, ma accessibilità non significa automaticamente partecipazione.
I Big Data, quindi, non rappresentano la popolazione che naviga in rete, ma solo
quella che lascia tracce utili agli scopi della ricerca; si riferiscono a campioni non
probabilistici (campionamento ‘a valanga’), ma la mancanza di rappresentatività
non deve far rinunciare al loro utilizzo, piuttosto ne va valorizzata la possibilità di
studiare gruppi e contesti difficilmente penetrabili attraverso tecniche tradizionali,
in quanto consente di realizzare, in tempi rapidi, studi esplorativi su temi originali,
popolazioni sommerse e soggetti che vogliono nascondere la propria identità, cioè di
cogliere tendenze nuove
L’attendibilità
L’attendibilità è un concetto che ha a che fare con la riproducibilità del risultato, e
nel caso dei Big Data risiederebbe nell’uso di algoritmi in grado di estrapolare e
trattare le informazioni.
a) secondo alcuni autori, in realtà, gli algoritmi che permettono di estrarre le
informazioni non si limitano a descrivere i dati, ma contribuiscono a crearli;
b) la produzione e fruizione dei Big Data (in quanto artefatti socio-culturali)
subisce l’influenza di processi politici, sociali, culturali, per cui non sono
neppure neutrali.
c) anche se i software guidano il processo di estrazione delle informazioni il
ricercatore deve intervenire (disambiguazioni), per cui questi dati non sono
auto-esplicativi, l’interpretazione resta centrale nel processo di ricerca.
Esiste, poi, il problema della veridicità delle informazioni, perché anche attraverso le
tracce digitali avviene il processo di presentazione del sé che segue il principio della
desiderabilità sociale. Oltre alla selezione accurata dei contenuti, esiste il problema
dei profili fasulli, che i software faticano ad individuare.
A ciò si aggiunga che anche le tecniche sono artefatti socio-culturali, per cui non
sono neutre, contribuiscono a modellare il mondo; così come non sono neutrali i
contesti (natura gradualistica dello sviluppo della comunicazione online; nesso tra
strutture conversazionali e legami sociali; contributo dei gatekeeper nell’emergere
di alcuni topic; caratteristiche delle diverse piattaforme che influiscono sulle
conversazioni).
Dunque l’attendibilità di questi dati deve essere valutata alla luce dei contesti
socio-culturali da cui sono prodotti e della struttura tecnologica che li supporta.
La validità
La validità ha a che fare con il rapporto tra teoria ed empiria, con la corrispondenza
tra misura e concetto, con la capacità di uno strumento di misurare ciò che intende
misurare.
Secondo alcuni autori le analisi sui Big Data stanno indirizzando gli studi empirici
verso una nuova forma di empirismo, nel quale il percorso d’indagine è sempre più
guidato dalle informazioni disponibili anziché dalle ipotesi di ricerca elaborato sulla
base di uno specifico quadro teorico di riferimento.
Così i ricercatori tendono ad utilizzare i dati già disponibili e tentano di fornire ex
post una giustificazione o persino una teorizzazione che ne giustifichi l’uso.
Il rischio di un approccio che cerca di fondare prospettive ‘nate dai dati’ è di lavorare
su dati superficiali, senza consapevolezza alcuna del contesto da cui sono tratti e
degli effetti che la piattaforma che li ospita esercita sulla loro natura e struttura.
Di sicuro i Big Data comportano un cambiamento radicale nel modo in cui pensiamo
la ricerca, ridefinendo le domande chiave che orientano la conoscenza, il modo in
cui ci dovremmo rapportare con le informazioni, la natura e la categorizzazione della
realtà.
Nonostante le tecniche utilizzate siano di natura esplorativa più che confermativa,
sono terreno fertile per una rinnovata riflessione teorica, adattata al mutato
contesto di riferimento, anche perché tra teoria ed empiria si instaura un rapporto
di mutuo scambio.
La questione etica
Per quanto riguarda la tutela della confidenzialità dei dati e il rispetto della privacy,
nell’era digitale (che rende la suddivisione più incerta) la distinzione tra pubblico e
privato assume una nuova veste (es.: nostre foto pubbliche; bambini la cui infanzia è
resa pubblica senza consenso, ecc.), tanto che accanto al diritto alla privacy si parla
di diritto all’oblio.
La tutela della riservatezza non è più pensabile unicamente su basi individuali, ma
bisogna partire dai contesti.
Inoltre, la privacy include anche la possibilità di esercitare il controllo sulla
diffusione e sull’interpretazione delle informazioni che ci riguardano, e il consenso
a rendere pubblici i nostri contributi non significa automaticamente che li renda
fruibili da tutti e in tutti i modi.
In un contesto così mutato, i ricercatori dovrebbero considerare in modo rigoroso le
possibili conseguenze legate alla diffusione dei Big Data, facendo attenzione sia al
contesto da cui hanno origine le informazioni, sia alla loro destinazione.
Un’altra questione rilevante riguarda lo sfruttamento dei dati per finalità che
esulano la ricerca sociale (es. marketing senza consenso esplicito).
Nella web society anche le strategie di sorveglianza aumentano e assumono nuove
forme che richiedono una nuova riflessione circa la loro legittimità sul piano etico.
Su un tema così rilevante il dibattito è ancora aperto.
Opportunità per la sociologia
L’avvento della web society apre un’epoca di sfide e opportunità senza precedenti
per la nostra disciplina, sollecitando gli studiosi a elaborare nuovi modelli
interpretativi e nuovi strumenti empirici. Lo spazio emergente che si è creato grazie
a questi ‘dati vivi’ consente di ripensare le fondamenta teoriche e metodologiche
delle scienze sociali, per consentire alla sociologia di mantenere le sue capacità
distintive nel cogliere la complessità dei dati e visualizzarli, mapparli e rappresentarli
I Big Data possono aumentare la nostra capacità di leggere e interpretare i fenomeni
sociali:
consentono di indagare i comportamenti umani in modalità non intrusiva in
contesti naturali;
consentono di condurre studi esplorativi su popolazioni nascoste, sommerse;
permettono tempi molto rapidi di rilevazione;
ma poiché si tratta di dati completamente nuovi è cruciale ricercare tecniche nuove
per la loro analisi e interpretazione.
Rischi connessi ai Big Data
Al contempo esistono rischi connaturati al loro uso:
presentano problemi legati all’intero ciclo della ricerca: procedure
campionarie e raccolta dei dati, contesti naturali;
non sono esaustivi, esplorano solo alcuni aspetti della realtà, e spesso lo
fanno in modo superficiale;
non possono essere considerati oggettivi, in quanto modellati dalla tecnologia
e dal contesto culturale in cui nascono;
richiedono nuove procedure di tutela della privacy e della confidenzialità dei
dati.
Un bilancio metodologico
L’emergere dei Digital Methods determina un cambio di paradigma rispetto
all’approccio tipico della ricerca sociale: i metodi tradizionali si fondano sulla
rendicontazione di azioni, mentre i nuovi metodi consentono anche di tracciare e
registrare l’agire e le interazioni, giacché la relazione, nella Web Society, è sempre
più un intreccio tra comunicazione e azione (dire e fare).
Tuttavia, molti di questi nuovi dati (transactional data) ci dicono cosa i soggetti
fanno, ma non perché lo fanno, cioè quali sono le motivazioni, gli atteggiamenti e le
emozioni che sono alla base dell’agire, per cui i Big Data rendono lo spazio sociale
più quantificabile, ma gli studiosi restano gli interpreti dei dati.
La ricerca sociale fondata sui Big Data ha potenzialità interessanti, che stimolano
l’elaborazione di nuovi approcci e nuove tecniche per essere raccolte dalla
sociologia.
Tuttavia, i suoi limiti rendono evidente che la Computational Social Science applicata
allo studio dei Big Data non rimpiazzerà i metodi tradizionali di ricerca; piuttosto le
nuove tecniche svolgeranno una funzione integrativa e di ri-orientamento dei
modelli di ricerca classici, elaborati in precedenza.
Il rischio da scongiurare è che si crei un divario nelle capacità di analizzare i nuovi
dati tra coloro che ne hanno le competenze e coloro che ne sono esclusi.
Leggi, ipotesi, teorie
Il capitolo 10 del Marradi è dedicato ai tre termini centrali nel dibattito
epistemologico degli ultimi due secoli: leggi, ipotesi e teorie, e a un quarto,
generalizzazione, particolarmente importante nel dibattito specifico delle scienze
sociali.
Tutti questi termini designano tipi di asserti (= enunciato, affermazione, sulla verità).
Ipotesi
L’ipotesi è un’affermazione circa le relazioni fra due o più variabili, quindi si può
considerare la trasposizione verbale di un modello. Se il modello offre vantaggi
sintetici e sintattici (possibilità di scrivere in un modo comprensibile un maggior
numero di relazioni), il linguaggio verbale delle ipotesi offre vantaggi analitici,
permette di articolare e di precisare meglio le relazioni, per cui si dovrebbe illustrare
l’ipotesi nella sua globalità e complessità attraverso i modelli, e i suoi singoli aspetti
attraverso il linguaggio verbale.
Formazione delle ipotesi
Fino a tutto l’800 molti studiosi (es. Bacone, Newton, Mendel) hanno basato il
proprio lavoro su un’osservazione priva di ipotesi; i primi a sottolineare il ruolo
dell’intuizione nella formazione delle ipotesi sono stati fisici e biologi, e gli
epistemologi contemporanei sono per lo più concordi nel ritenere che le ipotesi
vengono formulate in base a conoscenze esterne ai dati stessi, derivate da
precedenti esperienze del ricercatore. Dopo aver formulato le ipotesi, lo scienziato
le sottopone a controllo raccogliendo i dati e analizzandoli.
Già nel metodo sperimentale (Galilei) è implicita l’assoluta priorità delle ipotesi sulla
raccolta dei dati: l’ipotesi non può che precedere l’esperimento, in quanto con essa
si stabilisce a quale gruppo assegnare ciascuna proprietà.
Se si cambia l’ipotesi, cioè se si fanno diventare operative alcune proprietà che
erano ritenute costanti, si fa un altro esperimento (cioè si raccolgono nuovi dati).
Un’ipotesi → un esperimento = una raccolta dati
Ipotesi nelle scienze sociali
Nelle scienze sociali la situazione è molto diversa. La divisione delle proprietà in
gruppi avviene in due fasi successive:
a) in sede di raccolta dei dati si distinguono le proprietà su cui si raccolgono i
dati (= variabili della matrice) dalle altre;
b) in sede di analisi, ogni modello, o ipotesi, distingue fra le poche variabili che
include e tutte le altre.
La prima divisione è decisamente la più importante, per cui si cerca di operativizzare
un numero di proprietà tale da consentire un’ampia scelta tra modelli alternativi.
Inoltre, dati i costi fissi di una rilevazione, spesso conviene definire in modo ampio
l’oggetto della propria ricerca, cioè raccogliere dati relativi a problemi diversi.
Tutto questo implica una netta autonomia del momento della raccolta rispetto al
momento dell’analisi dei dati:
una raccolta dati → moltissimi modelli/ipotesi
Perciò richiedere di stabilire ipotesi prima della rilevazione non si giustifica, è un
vincolo che può solo peggiorare la qualità dell’analisi.
Fra metodo sperimentale e metodo dell’associazione esistono macroscopiche
differenze. Nella ricerca sociale:
• la formulazione di ogni singola ipotesi ha un’importanza molto minore che in
una situazione sperimentale;
• si ottengono maggiori risultati nell’analisi se si è pronti a cogliere la ricchezza
dei propri dati;
• di solito una ricerca parte da una serie di curiosità, non da una specifica
ipotesi;
• da concetti importanti e insiemi di proprietà rilevanti, mente gran parte delle
ipotesi sono formulate dopo aver esaminato i dati.
Controllo di ipotesi universali
Hume ha dimostrato l’impossibilità logica di raggiungere certezze a proposito della
realtà empirica, per cui gli asserti universali (non verificabili in quanto non possono
essere derivati da asserti singolari) non hanno cittadinanza nella scienza.
Popper afferma che, tuttavia, gli asserti universali possono venire contraddetti da
asserti singolari, dalla cui verità si può inferire la falsità degli asserti universali.
Pertanto ciò che caratterizza il metodo empirico è la maniera in cui espone alla
falsificazione il sistema che si deve controllare.
Il falsificazionismo mette l’epistemologia in regola con la logica, ma nella pratica
falsificare un’ipotesi è molto complesso; per i neo-positivisti l’antica dicotomia
vero/falso viene abbandonata a favore del grado di conferma, che torna a spostare
l’attenzione sulla verifica, di natura parziale e cumulativa (anziché integrale e
istantanea com’era per i positivisti).
Controllo nelle scienze sociali
Al di fuori del metodo sperimentale non è controllabile un’ipotesi circa la direzione
della relazione fra variabili. Nella matrice dati, se utilizziamo una tecnica statistica
appropriata possiamo testare se una relazione bidirezionale è unidirezionale, ma
non l’ipotesi della sua esistenza.
Per quanto riguarda le relazioni tra due variabili cardinali, un ricercatore che ipotizza
una relazione tra A e B è quasi certo di non essere smentito dai dati anche
scegliendo A e B a casaccio.
Concludendo:
• un’ipotesi sull’esistenza di una relazione sarà quasi sempre riscontrata vera,
al punto che è assai più rischioso prevedere l’assenza di una relazione;
• un’ipotesi sulla direzione dell’influenza non può essere dichiarata né vera né
falsa dai dati al di fuori del metodo sperimentale;
• un’ipotesi sul segno della relazione è proponibile solo se le variabili non sono
categoriali (e ha, a priori, il 50% delle probabilità di essere vera).
• Il dibattito su verifica/falsificazione/grado di conferma perde di senso riferito
alle scienze sociali. Piuttosto si dovrebbe stabilire la regola che, almeno nel
riportare i risultati di una ricerca, le ipotesi di partenza siano esplicitate, e le
conclusioni dovrebbero valutare queste ipotesi alla luce dei risultati, e dare
un’idea delle ulteriori ricerche da intraprendere per esplorare le indicazioni
che provengono da questi risultati.
Le teorie
La demarcazione tra i due termini di ‘ipotesi’ e ‘teoria’ è tutt’altro che chiara;
tuttavia per la maggioranza degli epistemologi la teoria è un sistema di asserti o
enunciati collegati tra loro.
Per alcuni questi sistemi hanno una struttura reticolare, nel senso che gli asserti,
correlati tra loro, non sono collocati a livelli diversi di generalità; per altri hanno una
struttura gerarchica, ma tutti concordano sul fatto che una teoria non sia
direttamente controllabile, a causa dell’alto livello di generalità ed astrazione a cui
si pone.
Il confine tra teoria e ipotesi
Si può tracciare una distinzione più netta e più consona alle scienze sociali
considerando la teoria un asserto circa la relazione tra due o più concetti tra
proprietà che non hanno (ancora) affrontato quella serie di passaggi necessari per
essere trasformate in variabili; mentre le ipotesi sono asserti circa le relazioni fra
variabili, o fra concetti di proprietà che stanno affrontando quei passaggi (cioè sono
in corso di operativizzazione).
Accertamento delle teorie
L’accertamento della verità o della falsità di un’ipotesi non si può automaticamente
trasmettere alla teoria a cui essa è collegata, perché:
• un’ipotesi confermata può essere dedotta da più di una teoria,
• nella scienza si possono sempre costruire teorie alternative che siano in
accordo con i dati;
• nel caso della falsificazione di un’ipotesi non si rigetterebbe la teoria, ma si
cercherebbe di modificarla, di specificarla meglio.
La caratteristica delle scienze sociali, nei loro due secoli di sviluppo, è stata una
pluralità di teorie alternative intorno allo stesso oggetto, e questo perché la scienza
è un processo in cui nulla è acquisito definitivamente (e non un corpus di
conoscenze certe che si accrescono per accumulazione).In questo processo, una
teoria è soltanto una verità parziale e provvisoria; considerarla, invece, un punto
d’arrivo ha una serie di conseguenze negative.
Accertamento delle teorie
Conseguenze negative:
1) proprio la ricerca ossessiva della teoria unica, onnicomprensiva e definitiva
nega se stessa, causando la proliferazione di teorie originali, chiuse e in
conflitto fra loro;
2) questi sistemi teorici non sono concepiti per essere controllabili
empiricamente, e quindi tendono spesso al formalismo;
3) anche trovando il modo di trarne ipotesi da controllare empiricamente,
difficilmente il controllo sarà equanime (si vede solo ciò che conferma la
propria teoria).
Le generalizzazioni
Il compito della generalizzazione è di svincolare la conoscenza dal preciso ambito in
cui la ricerca è svolta (giacché un’ipotesi risulta vera per l’ambito spazio-temporale
a cui è riferita).
La forma più semplice di generalizzazione è quella che trasferisce un certo risultato
empirico da un campione alla popolazione da cui è tratto.
Il significato più frequente nella metodologia delle scienze sociali è relativo al fatto
di giungere a risultati analoghi sottoponendo a controllo ipotesi analoghe in ambiti
spazio-temporali diversi, corroborando (rafforzando) la teoria.
Generalizzazioni di ambito
L’asserto: «l’elettore tende a votare come si è sempre votato in famiglia» è un
risultato emerso per la prima volta in una contea degli Stati Uniti, ed è poi stato
confermato in tutte le successive ricerche in quel paese, per cui l’asserto ha visto
dilatare il suo ambito spaziale di riferimento e, man mano, anche quello temporale.
Da un’ipotesi confermata in un certo ambito ristretto è diventata una
generalizzazione, cioè un asserto riferito a un ambito molto vasto.
La stessa ricerca ripetuta in Francia non ha dato i medesimi risultati, perché in
famiglia si parla poco di politica, per cui gli autori hanno inserito una terza variabile
nel modello, la ‘frequenza delle discussioni politiche in famiglia’, con la funzione di
variabile interveniente. Questa modifica è un caso di miglior specificazione del
modello, che consente all’ipotesi di superare i controlli in un numero maggiore di
Paesi, rendendo più ampia la base empirica della generalizzazione.
Generalizzazioni teoretiche
Poiché il sistema politico francese è più frammentato rispetto a quello degli Stati
Uniti, gli autori hanno introdotto una modifica, sostituendo «l‘affiliazione ai singoli
partiti» con la «tendenza politica generale» (filocomunista / anticomunista); questo
è un altro tipo di generalizzazione, relativo al livello di generalità dei concetti
collegati tra loro dalla teoria.
Con la generalizzazione teoretica una teoria diventa più generale se sostituisce
concetti specifici con concetti più generali.
Le generalizzazioni
È naturale che le due forme di generalizzazione procedano di pari passo.
Quello mostrato è un esempio di come il controllo empirico delle ipotesi, con il
tentativo di specificarle meglio e di generalizzarle, generi nuove teorie con un
processo ascendente.
Leggi e scienze sociali
Il termine legge designa asserti di portata universale nello spazio e nel tempo; non
conta tanto il loro grado di conferma empirico (che siano vere), quanto l’aspettativa
di validità universale: la legge è un enunciato che viene avanzato con la plausibile
pretesa esplicita di porsi come affermazione universale, anche se in seguito dovesse
rivelarsi fallace.
Nelle discipline che studiano la realtà umana e sociale tale pretesa non è plausibile
per vari motivi:
1) la storicità del mondo sociale, che fa sì che ogni giorno vengano socialmente
negoziati nuovi significati, fa sì che sia autocontraddittorio porsi il compito di
cercare leggi sociologiche di questo tipo (motivo sociologico);
2) nel mondo umano e sociale non si può concepire nulla di simile a una
fungibilità degli oggetti, non si può concepire di fare ricerca su un singolo
individuo estendendo le risultanze della ricerca a tutti gli altri individui passati
presenti e futuri (motivo ontologico);
3) non esiste niente di simile a un sistema di concetti la cui definizione è
accettata da tutti, e se vi fosse un accordo universale sulla definizione
operativa di un qualsiasi concetto sarebbe mistificante; si pensi alle ricerche
comparative tra vari paesi nei quali ci si limita a tradurre il questionario da
una lingua a un’altra tralasciando le differenze culturali, finendo per studiare
delle altre nazioni problemi che non sono i loro, con strumenti che non sono
necessariamente adatti (motivo epistemo-metodologico);
Oltre a queste difficoltà, situate a livello pre-assertorio (concetti, termini,
definizioni), veniamo ora alle difficoltà che le leggi incontrano a livello assertorio:
come si può pensare che lo stesso modello di relazione valga per tutte le culture, in
tutti i luoghi e tempi? Le scienze fisiche non si devono preoccupare di tutto
quell’insieme di elementi che costituiscono la tradizione storico-culturale di una
società o di una sua qualsiasi sezione, ma le scienze sociali non possono
prescinderne.
Inoltre, a differenza delle scienze fisiche, nelle scienze sociali non esiste un quadro
concettuale-teorico accettato da tutta la disciplina, né una solida tradizione di
ricerca cumulativa, per cui tracciare il confine tra proprietà rilevanti per il
problema di studio e le altre è più complicato: i tentativi del sociologo di migliorare
la specificazione dei suoi modelli, cioè di renderli più aderenti alla realtà, sono quasi
interamente affidati al suo intuito (basato sulla conoscenza del contesto).
Anche una volta trovato un modello soddisfacente, ciò non implica che sia
generalizzabile: un modello discretamente specificato rispetto alla situazione di un
Paese o di un periodo non appare più tale in un altro Paese o in un diverso periodo,
perché le proprietà rilevanti per quel problema non sono le stesse nelle due
situazioni.
Questi sono i motivi per cui, secondo Marradi, la ricerca di leggi nelle scienze sociali
va abbandonata.