Sei sulla pagina 1di 452

METODOLOGIA

1. Paradigma: Un paradigma è una prospettiva teorica, condivisa da una comunità di


scienziati, che definisce la rilevanza dei fatti sociali, fornisce ipotesi interpretative e orienta
le tecniche della ricerca empirica.
2. Paradigmi di ricerca: I paradigmi della ricerca sociale nascono dall’esigenza di rispondere a
tre questioni fondamentali: la questione ontologica (la realtà esiste?), la questione
epistemologica (se la realtà esiste, è possibile conoscerla?) e la questione metodologica (se
la realtà esiste ed è possibile conoscerla, come farlo?). Da queste tre domande nascono tre
paradigmi: il positivismo, il neo e post positivismo e il costruttivismo o interpretativismo.
3. Teoria e ipotesi: La teoria è un insieme di frasi che ci dicono qualcosa sul mondo che ci
circonda. Queste frasi devono essere collegate in maniera organica e si pongono ad un
elevato livello di astrazione e generalizzazione rispetto alla realtà empirica. Dalla teoria
possono essere derivate delle previsioni per ciò che riguarda i fenomeno futuri. L’ipotesi è
una proposizione che implica una relazione tra due o più concetti, si colloca ad un livello di
astrazione e generalizzabilità inferiore rispetto alla teoria. Un ipotesi ha carattere,
generalmente, provvisorio e non conduce necessariamente ad una teoria.
4. Tipi di ricerca: La ricerca può essere: descrittiva/esplicativa; esplorativa/confermativa (o
anche qualitativa/quantitativa). La differenza tra ricerca descrittiva e ricerca esplorativa sta
nella domanda conoscitiva alla quale si risponde. La ricerca descrittiva risponde al come si
presenta un fenomeno mentre la ricerca esplicativa al perché un fenomeno si presenta in
un determinato modo. La differenza che vi è tra ricerca esplorativa e ricerca confermativa
è da attribuire allo stile del ricercatore. Nel primo caso egli affronta la ricerca proprio come
un esploratore che cerca di conoscere una realtà ignota. Il ricercatore in questo caso si
affiderà ad un paradigma costruttivista. Nel secondo caso il ricercatore parte da un ipotesi
e cerca di trovare delle prove che confermino la sua ipotesi. La ricerca in questo caso sarà
quantitativa.
5. Fasi della ricerca: Le fasi della ricerca sociale sono: disegno della ricerca, che è il momento
della progettazione dell’indagine; la costruzione della base empirica; l’organizzazione dei
dati (framing); l’analisi dei dati e l’esposizione dei risultati.
6. Rapporto di generalizzazione universo/campione: Un campione è un modello della realtà e
non la realtà. Bisogna, cioè, considerare un “male necessario” del campionamento: l’errore
di campionamento. Un campione assomiglia alla realtà ma non è la realtà. L’errore di
campionamento è proprio la distanza tra il modello e la realtà.
7. Criteri per costruire una classificazione: Classificare vuol dire trovare un posto ad un certo
numero di oggetti, che si fanno corrispondere alle categorie di uno schema. Una corretta
classificazione deve soddisfare tre requisiti: quello di esaustività, il quale richiede che tutti
gli oggetti da classificare possano trovare posto nelle categorie previste dalla
classificazione, quello di esclusività, il quale impone che un oggetto debba avere uno ed un
solo posto nella classifica e quello di unicità del fundamentum divisionis, il quale prevede
che le categorie derivino da un unico criterio che le distingue.
8. Tipi di variabile: Le variabili si distinguono in base al tipo di operativizzazione dalla quale
derivano in: variabile nominale o categoriale alla fine di una classificazione; variabile
ordinale, alla fine di un ordinamento e variabile cardinale alla fine di un conteggio o di una
misurazione.
9. Errori non-campionari: Esistono quattro tipi di errore non campionario: gli errori di
selezione (ad esempio, quando la lista della popolazione è incompleta), gli errori di
misurazione (dovuti, ad esempio, a questionari fatti male), le non-risposte (rifiuti, persone
incontattabili, persone non-intervistabili), gli errori di procedura (errori di codifica o
s’inserimento dei dati).
10. Intervista (definizione): Con il termine intervista s’intendono parecchi modi di raccogliere
dati, ci si riferisce cioè a una serie di tecniche che si basano sul chiedere a un certo numero
di soggetti le informazioni di cui il ricercatore ha bisogno. L’intervista è una forma di
conversazione nella quale due persone s’impegnano in un’interazione verbale e non
verbale nell’intento di raggiungere una meta precedentemente definita.
11. Focus group (definizione): Il focus group è una tecnica di rilevazione per la ricerca sociale,
basata sulla discussione tra un piccolo gruppo di persone, alla presenza di uno o più
moderatori, focalizzata su un argomento che si vuole indagare in profondità.
12. Fasi di un focus group: Le fasi del focus group sono: la formazione del gruppo (forming); la
rottura dell’equilibrio iniziale (storming); l’emergenza di reole di conversazione (norming);
la definizione dei ruoli (performing); il congedo finale (mourning).
13. Tipi ideali di partecipanti: I tipi ideali di partecipanti sono: il leader, il negativo (colui che
esprime sempre dissenso, a prescindere); il joker o buffone; l’entusiasta; l’apatico
(caratterizzato da atteggiamenti di indifferenza); il polemico e il timido.
14. Backtalk: Il backtalk è uno strumento della ricerca etnografica attraverso il quale il
ricercatore ritorna insieme ai soggetti studiati sulle conclusioni del suo lavoro,
ricomponendo i vari frammenti del materiale raccolto. In questo modo, il ricercatore non
solo cerca di dar senso a ciò che ha visto e sentito ma cerca conferme o smentite riguardo
la plausibilità dei suoi resoconti.
15. Inchiesta campionaria (definizione): L’inchiesta campionaria è una tecnica di rivelazione
basata sul questionario, che fa ricorso a grandi campioni di tipo probabilistico, e si propone
di spiegare fenomeni e problemi sociali estesi e generali.
16. Scala (definizione): La scale è un insieme di item che servono a misurare un concetto più
generale o un atteggiamento non direttamente osservabile. Nel caso in cui volessimo
misurare il razzismo, ad esempio, dovremmo ricorrere ad una scala (in questo caso
particolare si parla di scala d’atteggiamento).
17. Probing: Il proibing è un segnale che c’è qualcosa che non ha funzionao nella
comunicazione tra intervistatore ed intervistato, e va gestito con cautela.

Domande approfondite
1. Positivismo: Un esempio di quadro “positivista” è La Ville d’Avray. Guardando il quadro,
nessuno avrebbe dubbi circa il fatto che in esso i vedano degli alberi, delle case ecc. Il
punto di vista dei positivisti è proprio questo: la realtà esiste, ed è conoscibile
oggettivamente (realismo ingenuo). Questa è dunque la risposta che viene data alla
questione ontologica ed epistemologica. Tuttavia, si deve fare una precisazione, come si
supera il problema che nelle scienze sociali soggetto conoscente e oggetto conosciuto
siano della stessa natura? Dobbiamo ad Emilè Durkein la risposta a questo fondamentale
problema; per il sociologo francese, infatti, i fatti sociali devono essere considerati come
cose, come oggetti. Dunque, separando la natura di soggetto conoscente e oggetto
conosciuto è possibile conoscere oggettivamente. Per quanto riguarda la questione
metodologica, i positivisti sostengono che la sociologia deve utilizzare il metodo delle
scienze esatte, un metodo basato sulla misurazione dei dati, la formulazione di leggi e
l’osservazione dei dati empirici. Secondo i positivisti, la sociologia può dirsi scienza proprio
perché utilizza lo stesso metodo delle scienze esatte.
2. Neo-post-positivismo: Un quadro che descrive il punto di vista dei neo e post positivisti è
La Notte Stellata di Vincent Van Gogh. In generale nessuno avrebbe problemi a riconoscere
un villaggio, una chiesa, gli astri del cielo ecc. Ciò che però ci fa riflettere è il modo in cui
essi ci vengono mostrati (realismo critico). Le risposte che vengono date alla questione
ontologica e a quella epistemologica è che la realtà esiste, ma che si deve scorgere, non
posso conoscerla oggettivamente a causa dei limiti dei miei sensi. I nostri occhi sono
abituati a vedere in un certo modo perché sono socializzati. L’ epistemologia non afferma
un netto dualismo tra soggetto conoscente e oggetto conosciuto, questi possono
interagire provocando dei guasti rispetto alla possibilità di conoscere in modo oggettivo il
mondo fisico e sociale. Si ricorsi che siamo nel periodo in cui Heisemberg ed Einstein
bissarono il muro delle conoscenze scientifiche assolute per aprire la strada al
probabilismo. A livello metodologico, si afferma che la conoscenza sociale si può avere
affidandosi al linguaggio delle variabili. La realtà non può essere conosciuta direttamente,
è come se si dovessero mettere insieme dei pezzi di conoscenza per comporre un mosaico
più complesso.
3. Costruttivismo: Un quadro che descrive il punto di vista costruttivista è il Suprematismo di
Kazimir. Ognuno di noi può vedere una cosa diversa in questo quadro. In sostanza i
costruttivisti sostengono che la realtà non esiste in maniera oggettiva ma è una
costruzione sociale (relativismo culturale). Sul piano epistemologico avviene il definitivo
abbraccio tra soggetto conoscente ed oggetto conosciuto. Il ricercatore deve cercare di
perseguire l’avalutatività, è necessario che egli si spogli del proprio etnocentrismo, che
potrebbe influenzare l’interpretazione della realtà. A livello metodologico si rende
necessario individuare un nuovo metodo, superando definitivamente l’approccio
positivista. Per Weber, in particolare, il sociologo dovrà comprendere l’individuo che
agisce, non nel senso di empatizzare con lui, ma arrivando a capire e spiegare
razionalmente perché l’individuo abbia agito in quel modo. Egli afferma che, poiché la
realtà non è conoscibile oggettivamente, il sociologo si deve accontentare dei modelli della
realtà, che vengono definiti ideal-tipi, che tuttavia conducono verso importanti luoghi della
conoscenza.
4. Postmodernità e ricerca sociale: Per quanto riguarda le tendenze postmoderne vi è un
significativo rifiuto delle teorie generali, il rifiuto della razionalità e della linearità,
l’esaltazione delle differenze. Si possono, innanzitutto, citare gli approcci del linguistic turn
(la svolta del linguaggio), tali approcci hanno rivolto una grande importanza al linguaggio e
al discorso, considerandoli come il veicolo di senso dell’ambito della vita sociale. Queste
influenze, in sociologia, prendono il nome di sociologie interpretative. Fanno parte delle
sociologie interpretative: interazionismo simbolico, l’approccio drammaturgico,
l’etnometodologia e le tecniche di analisi della conversazione. Lo strutturalismo, invece,
ricerca le forme invariabili delle relazioni sociali a prescindere dalle manifestazioni
concrete. L’eredità del positivismo è stata raccolta in parte dal realismo, che ribadisce
l’identità di metodo tra le scienze sociali e le scienze naturali, ma la ricerca sociologica è
concepita come diretta a cercare quel come dei fenomeni che non è immediatamente
visibile. Una terza via, che cerca di saldare insieme realismo e strutturalismo, è
rappresentata dal neofunzionalismo.
5. Disegno della ricerca: Una ricerca sociale può nascere per diversi motivi. Una volta iniziata
la ricerca, il primo passo da fare è quello di effettuare una ricognizione bibliografica, ove
ciò non fosse possibile si può fare ricorso a testimonianze di persone coinvolte o vicine al
fenomeno che intendo indagare. Il passo successivo è quello di scegliere in base al mio
obiettivo il tipo di ricerca (descrittiva/esplicativa o esplorativa/ confermativa). A questo
punto dovrò chiarire i concetti che utilizzerò e le eventuali ipotesi cui faccio riferimento.
Per esempio facendo ricorso a vocabolari della lingua, dizionari enciclopedici e costruendo
ipotesi in modo dettagliato e non ambiguo. Ogni ricerca va condotta su precise unità di
analisi: persone, famiglie, eventi, aziende. Una volta individuate le varie unità d’analisi
dovrò scegliere alcune proprietà sulle quali indagherò.
6. Operativizzazione di un concetto: Riguarda soltanto lo stile di ricerca quantitativo, poiché è
diretto all’espressione del linguaggio delle variabili. Operativizzare un concetto vuol dire
trasformarlo in modo da poterlo rilevare e/o misurare. Per far ciò devo individuare un
concetto, per esempio “la qualità della vita”. Poi costruire uno schema che lo scompone
nelle sue proprietà concettuali e lo traduce nei suoi indicatori empirici. Ad esempio, devo
capire a partire da quali elementi posso rilevare e misurare il mio concetto di qualità della
vita, potrei per esempio scegliere indicatori come il reddito, la buona salute etc. La scelta
degli indicatori deve avvenire in maniera tale da coprire tutto il significato del concetto. Il
passo successivo è quello di trovare le modalità concrete attraverso le quali rilevare gli
indicatori, per esempio individuando delle fasce di reddito che gli intervistati dovranno
segnare. A questo punto dovremmo classificare o ordinare o misurare o conteggiare i casi.
7. Framing (organizzazione dei dati): L’organizzazione dei dati consiste nel preparare o
trasformare i dati empirici raccolti, in modo da dare delle risposte al ricercatore.
L’organizzazione dei dati cambia a seconda che si sia scelto di raccogliere dati qualitativi o
quantitativi. Nel caso di dati qualitativi il tipo di organizzazione prevalente è la post-
codifica del materiale raccolto. Essa consiste nell’isolare frammenti di materiale empirico
attribuendogli un’etichetta di riconoscimento. Il lavoro del ricercatore in questo caso è
lungo e le categorie che si creano poco robuste, tuttavia negli ultimi anni sono nati dei
programmi di computer che assistono il ricercatore nella post-codifica. Nel caso dei dati
quantitativi, il framing (incorniciamento) è la cosiddetta matrice casi per variabili. Si tratta
di una griglia, organizzata in righe e colonne, in cui le prime rappresentano i casi e le
seconde le variabili. I dati raccolti vengono inseriti nelle celle che risultano dall’incrocio riga
per colonna.
8. Esposizione dei risultati: L’esposizione dei risultati è il momento finale della ricerca. In
questa fase si scrive il cosiddetto report di ricerca, ossia un libro, una relazione, una tesi
che contengono sia i risultati ottenuti, sia una scelta delle scelte metodologiche adottate.
Un report dovrebbe contenere: introduzione (illustra in modo sintetico la struttura del
report stesso, gli obiettivi della ricerca sociale e le principali conclusioni cui si è giunti), lo
stato dell’arte (una sintesi della letteratura scientifica esistente fino a quel momento
rispetto a quel fenomeno), la presentazione dei risultati, i commenti, le conclusioni della
ricerca sociale, una nota metodologica (che spieghi le scelte adottate), i riferimenti
bibliografici.
9. Campione probabilistico: Il campionamento probabilistico, deve rispettare il criterio che
tutte le unità della popolazione abbiano la stessa probabilità di essere incluse nel
campione. I campioni probabilistici sono ritenuti essere rappresentativi della realtà, ciò
vuol dire che i risultati ottenuti su quel particolare campione possono essere generalizzati
per tutta la popolazione dalla quale il campione proviene. Un ulteriore vantaggio del
campionamento probabilistico è che l’errore di campionamento può essere misurato. Vi
sono diversi tipi di campioni probabilistici: il campione causale semplice, il campione
sistematico e il campione stratificato.
10. Campione non probabilistico: I campioni non probabilistici sono in genere fatti ad hoc o
sono suggeriti dalla teoria. Ciò vuol dire che sono costruiti al fine di ottenere una
rappresentatività tipologica. Questa viene raggiunta quando si ha un numero sufficiente di
esemplari delle varie unità d’analisi. La rappresentatività tipologica genera risultati
trasferibili ma non generalizzabili. I campioni non probabilistici sono di diverso tipo:
campioni per quote, a valanga, a scelta ragionata, teorico e di convenienza. Il problema più
grosso dei campioni non probabilistici è che l’errore di campionamento non è
quantificabile.
11. Tipi di intervista: Un primo criterio di classificazione delle interviste può essere il modo in
cui sono organizzate le domande. In questo modo avremo: l’intervista strutturata (o
standardizzata) che presenta domande standardizzate, cioè da porre nello stesso ordine e
nella stessa formula a tutti gli intervistati; l’intervista semi-strutturata, in cui non esiste
uno schema fisso di domande. L’intervistatore piuttosto dispone di una sorta di scaletta di
temi da trattare nelle domande, che potranno variare da intervista ad intervista;
l’intervista non-strutturata (o libera), che parte da un tema da trattare ma non esistono
domande prestabilite, ogni intervista fa storia da sè. Un secondo criterio di classificazione
riguarda il ruolo o lo stile dell’intervistatore. Avremo così: l’intervista direttiva (o guidata),
in cui l’intervistatore segue scrupolosamente la struttura prevista delle domande;
l’intervista non-direttiva (o libera), in cui chi pone le domande tende a seguire
l’intervistato nei suoi ragionamenti, reagendo agli stimoli nuovi che di volta in volta
emergono; l’intervista semi-direttiva, in cui è presente una parte che va somministrata allo
stesso modo a tutti i soggetti, e una parte in cui si assecondano le esigenze
dell’intervistato. Un terzo criterio di classificazione riguarda il tipo di domande e di
risposte: standardizzate o non-standardizzate. Infine possiamo distinguere le interviste in
base al numero degli intervistati, avremo perciò interviste individuali e di gruppo
(suddivise a sua volta in interviste di gruppo naturali e artificiali, a seconda che i gruppi
esistano indipendentemente dalla volontà del ricercatore). Vi sono, inoltre, interviste
biografiche o storie di vita.
12. Rapporto intervistatore-intervistato: La prima cosa da considerare sono le caratteristiche
di sfondo di intervistato e intervistatore, in termini di età, cultura, condizioni
socioeconomiche, ecc. Queste caratteristiche di sfondo influenzano i fattori psicologici dei
due soggetti in interazione. L’aspetto più importante, è legato alle motivazioni. Una cattiva
percezione dell’intervistatore, determina una bassa motivazione a collaborare con
l’intervistatore. Le condizioni di sfondo dell’intervistato possono demotivare
l’intervistatore fino a farlo desistere dall’intervista, o a condurla in modo forzato. Vanno
considerati i diversi fattori comportamentali che riguardano intervistatore e intervistato, e
hanno una diretta ricaduta metodologica.
13. Comportamento dell’intervistatore: Può essere utile che l’intervistatore si presenti prima
dell’intervista. In secondo luogo, bisogna che l’intervistatore studi bene lo strumento che
dovrà somministrare, per evitare di trovarsi in difficoltà di fronte a dubbi, esitazioni ecc. da
parte degli intervistati. Inoltre, sarà necessario trovare un abbigliamento adeguato, adatto
al tipo di persone da intervistare. A questo punto l’intervistatore, dovrà: - assicurare
l’intervistato circa la brevità del colloquio; – citare il committente della ricerca; –
specificare il tema dell’intervista, se una persona sa cosa vuole sapere esattamente
l’intervistatore, sarà più propensa a collaborare; – assicurare circa la scientificità della
ricerca, le persone sono molto disponibili a collaborare ad un lavoro che si presenta come
scientifico; – spiegare perché si è scelto d’intervistare proprio quella persona, sapere, che
si è stati estratti attraverso una procedura “impersonale” rassicura molto gli intervistati; –
infine, garantire l’anonimato dell’interista, a tutela della privacy di colui che è intervistato.
L’intervistatore deve cercare di creare una situazione di normale conversazione, mai di
giudizio. Lo sforzo deve riguardare anche la comunicazione non verbale. Se dovesse
interpretare la situazione in cui si trova come una specie d’esame, egli fornirà delle
risposte artefatte, distorte, e alla fine inutili per la ricerca. Se è previsto l’uso del
registratore, bisognerà chiedere di accenderlo solo dopo l’inizio dell’intervista. Se è
previsto uno strumento d’intervista strutturato, bisognerà rispettare la sequenza delle
domande. L’intervistatore non deve mai esprimere le proprie opinioni nel corso
dell’intervista. L’intervistatore deve evitare di far traspirare qualsiasi coinvolgimento
emotivo. Allo stesso modo, per via del fatto che l’intervistatore si fa inevitabilmente
un’idea del suo interlocutore, influenzata da certe caratteristiche di sfondo, deve imparare
a superare gli stereotipi e i pregiudizi che la percezione dell’altra persona ha attivato. Un
intervistatore, deve sapere ascoltare l’intervistato, piuttosto che rimanere aggrappato al
suo foglio di carta con lo schema delle domande. Infine, l’intervistatore non deve mai
imporre una risposta nel caso ottenga un rifiuto.
14. Analisi delle interviste: Per l’analisi delle interviste, esistono due approcci: quello
etnografico o narrativo, che consiste nel raccontare il materiale raccolto avvalendosi di
brani significativi estratti dalle trascrizioni; e quello quantitativo, che prevede una codifica
sistematica delle trascrizioni in categorie di temi e concetti, i quali andranno poi
conteggiati e riassunti in grafici e tabelle.
15. Tipi di osservazione: I diversi tipi di osservazione possono essere classificati facendo
riferimento a diverse dimensioni, quali: la partecipazione o meno del ricercatore,
l’intrusività degli strumenti di rivelazione, il grado di strutturazione e l prospettiva adottata
dal ricercatore. Si può parlare di: 1) osservazione partecipante o non partecipante, a
seconda che il ricercatore si mischi o meno tra le persone e nelle situazioni da studiare. L’
osservazione partecipante può essere scoperta o nascosta a seconda che il ricercatore
dichiari o meno la propria identità;
2)d’intrusività alta o bassa, a seconda che gli strumenti d’osservazione siano o meno
nascosti;
3)d’osservazione strutturata o non strutturata, a seconda che il ricercatore si attenga ad
uno schema prestabilito, oppure si lasci guidare da persone, circostanze o eventi che si
presentano alla sua attenzione; 4) di
prospettiva marziano o prospettiva del convenuto, a seconda che il ricercatore cerchi di
guardare i suoi oggetti di studio col distacco che, appunto, avrebbe un ipotetico marziano
oppure che il ricercatore si lasci conquistare dalle persone e dai contesti che osserva.
16. Cosa si osserva: L’attività di osservazione non riguarda solo il guardare, ma è un’esperienza
che coinvolge l’udito, l’olfatto, il tatto, il gusto. L’osservazione dovrebbe coinvolgere
almeno i seguenti aspetti: il contesto storico, che riguarda il passato del contesto da
studiare; il contesto fisico, cioè le caratteristiche dei luoghi in cui l’interazione si svolge; il
contesto sociale, cioè il modo in cui è organizzata la società da studiare, in termini di
differenze uomo-donna, giovane-anziano, ricchi e poveri; le interazioni formali ed
informali, cioè ,ad esempio; i modi di stare assieme delle persone in pubblico e in privato;
le interpretazioni orali e scritte dei nativi, cioè le spiegazioni del mondo che li circonda da
parte dei soggetti studiati; le produzioni materiali e simboliche, che riguardano ciò che le
persone fanno insieme: oggetti di lavoro, modi di decidere, riti d’iniziazione.
17. Problemi dell’osservazione: I problemi dell’osservazione partecipante sono diversi.
Innanzitutto l’accesso alla realtà da studiare, soprattutto nel caso di osservazione
partecipante di tipo scoperto. In questo caso i nativi potrebbero opporre resistenza alla
presenza di un intruso che vorrebbe studiarli. Per ovviare a questo problema potrebbero
intervenire dei mediatori culturali o degli informatori, persone che godono della fiducia
della popolazione in studio nel primo caso o testimoni incaricati da qualche istituzione che
parlando con la popolazione facilitino il compito del ricercatore e la sua inclusione. Nel
caso dell’osservazione nascosta il problema principale è quello etico: è giusto osservare e
studiare delle persone in incognito, e poi raccontare in una pubblicazione scientifica ciò
che si è sentito? Questo problema potrebbe essere risolto garantendo l’assoluto
anonimato dei soggetti studiati. Un ulteriore problema dell’osservazione partecipata è il
coinvolgimento emotivo del ricercatore che potrebbe causare problemi in termini di
obiettività. Un ultimo problema delle tecniche osservative riguarda la generalizzabilità dei
risultati.
18. Moderatore di un FG: Il compito del moderatore è quello di mantenere la discussione in
tema, rispettare i tempi, e gestire l’interazione tra i partecipanti, in modo che tutti si
possano sentire proprio agio ed esprimere liberamente le proprie idee e opinioni. Per fare
ciò il moderatore deve possedere certe caratteristiche: capacità comunicative, conoscenza
delle dinamiche di gruppo, esperienza, sensibilità, autorevolezza. Il moderatore ha il
compito di agevolare il warm up, cioè la fase di riscaldamento prima della discussione. Alla
fine dovrà riuscire ad istaurare un clima confortevole. Dovrà cercare di far parlare tutti,
evitando di fare “il giro delle domande”, ogni partecipante parlerà solo quando avrà
qualcosa da dire.
19. Organizzare un FG: Organizzare un FG vuol dire scegliere il numero e la composizione dei
gruppi, il luogo di svolgimento del focus e reclutare i partecipanti. Ogni FG è composto in
genere da otto persone, le quali possono variare da un minimo di quattro ad un massimo
di dodici. Il ricercatore avrà cura di prevedere un numero lievemente maggiore di
partecipanti, al fine di evitare che l’assenza di qualcuno faccia fallire il FG. Il reclutamento
inizia con l’individuare le caratteristiche delle persone da intervistare (per esempio le
esperienze che queste persone hanno avuto in un certo campo). La via più facile, tuttavia,
di individuare i partecipanti è quella di sceglierle tra i conoscenti dei miei conoscenti,
persone che non mi conoscono personalmente e non si conoscono fra di loro. Si può
incentivare la loro partecipazione mettendo a loro disposizione dei gadget. Quando si
contattano le persone si accenna solo vagamente al tema del FG, per evitare che esse
possano documentarsi prima, lo scopo del FG è studiare come le opinioni si formino nel
dibattito, non prima. Il numero complessivo di FG da effettuare è, in genere, tre. Non ha
alcun senso effettuare solo un FG. Per quanto riguarda il luogo di svolgimento, è buona
ricerca scegliere un luogo neutro, in modo che nessuno possa “giocare in casa”. Inoltre, è
utile disporre le persone in cerchio, perché ciò indica che tutti i partecipanti sono uguali e
possono partecipare liberamente alla discussione.
20. Desiderabilità sociale, acquiescenza, pseudo-opinioni: La desiderabilità sociale è quel
fenomeno per cui la persona intervistata finisce col dare all’intervistatore delle risposte
che appaiono socialmente accettabili, ma alle quali non crede veramente. Ciò può avvenire
perché il setting dell’intervista non agevola la conversazione serena o non vi è fiducia nei
confronti dell’intervistatore. L’acquiescenza è la tendenza di certi individui a dichiararsi
d’accordo con le affermazioni contenute nelle domande, o a rispondere sempre
affermativamente ad esse, indipendentemente dal contenuto. Le pseudo-opinioni sono il
risultato della mancanza di opinioni dell’intervistato, il quale, pur di non mostrare la sua
“ignoranza” su un certo argomento, s’inventa una risposta sul momento.
21. Psicologia di chi risponde: Le persone sottoposte a un questionario interpretano in vario
modo le domande che gli vengono poste, dando luogo a numerose forme di distorsione
dalla relazione tra intervistato ed intervistatore. Le più importanti sono: la desiderabilità
sociale, l ‘acquiescenza e la pseudo opinione. Tali distorsioni sono determinate da quattro
fonti: il contenuto più o meno comprensibile e/o sensibile della domanda, la struttura più
o meno logica e ordinata del questionario, il contesto più o meno consono in cui avviene il
colloquio, il comportamento più o meno corretto da parte dell’intervistatore e le sue
caratteristiche di sfondo.
22. Come formulare le domande in un questionario: Una regola generale è quella di essere
chiari nel linguaggio e semplici nella struttura sia delle domande che dello strumento. Più
specificatamente: le domande devono usare un vocabolario semplice, la loro sintassi deve
essere lineare, esse non devono mai contenere due domande in una, le domande devono
essere concrete rispetto al tempo e agli eventi da ricordare, non devono mai suggerire una
risposta in particolare, il numero di alternative deve essere molto limitato, tutte le
alternative di risposta devono apparire accettabili, le alternative di risposta devono essere
esaustive e, in genere, mutuamente esclusive.
23. Tipi di domande: Possiamo distinguere, essenzialmente, due tipi di domande: aperte o
chiuse. Le domande aperte sono utili quando il ricercatore pensa che sia meglio lasciare gli
intervistati liberi di usare le proprie parole per esprimere un pensiero. Poiché queste
domande richiedono una successiva post-codifica prima di poter analizzare i dati, quindi
tempo, fatica e soldi in più, per molto tempo si è preferito l’uso dei questionari; negli
ultimi tempi, considerati gli sviluppi tecnologici, molte riserve sono cadute. Le domande a
risposta chiusa sono di gran lunga più frequenti. Esse permettono un immediato
trattamento statistico. Lo svantaggio è nel fatto che a volte l’intervistato non riesca a
scegliere una risposta adatta.
24. Pre-test: Prima di somministrare il questionario è necessario effettuare almeno un pre-test
dello strumento, per verificare che esso sia compreso dagli intervistati e non produca
evidenti distorsioni. Va rivolto a soggetti simili a quelli facenti parte del campione, in una
proporzione che non supera il 10% del campione. Il pre-test può essere condotto in diversi
modi: registrato le reazioni dei rispondenti durante l’intervista, intervistando o facendo
commentare il questionario ex-post, oppure facendo esaminare il questionario da una
commissione di esperti.
25. Come si somministra un questionario: Si distingue fra questionario auto-somministrato e
questionario etero-somministrato. Un’ ulteriore distinzione riguarda il modo in cui
vengono raccolti i dati: faccia a faccia, per telefono, via posta, o attraverso il computer
nelle sue forme. Ogni modalità presenta vantaggi e svantaggi in termini di costi, rapidità,
intrusività, garanzie d’anonimato, modalità di caricamento dei dati. Si deve di volta in volta
trovare il giusto compromesso tra costi e benefici rispetto agli altri fattori. Infine, i
questionari posso essere somministrati in circostanze singole (studio trasversale) o più
volte nel tempo (studio longitudinale). Gli studi longitudinali si dividono a loro volta in:
inchieste trasversali replicate, quando lo stesso questionario viene somministrato in più
occasioni a diversi campioni, e i planet, quando lo stesso questionario viene somministrato
allo stesso campione nel corso del tempo.
26. La scala Likert: La scala Likert è una scala additiva, che si costruisce sommando i punteggi
ottenuti da un individuo su ciascun item. La costruzione della scala Likert si svolge i quattro
fasi: 1) definizione degli item che si pensano adatti a misurare il concetto; 2) la
somministrazione di tali item attraverso il questionario; 3) il controllo di coerenza interna
dalla scala; 4) il controllo di validità e unidimensionalità (misura solo un concetto?).
27. L’alpha di Cronbach: L’alpha di Cronbach misura la coerenza interna della scala e, dunque,
l’attendibilità. Se voglio misurare il razzismo, e una persona ha un punteggio alto verso il
primo, il secondo ed il terzo item, mi attendo che anche nel quarto abbia un punteggio
alto, se ciò non accade nella scala c’è un problema. Alpha=nr.(1+r(n-1)). L’alpha di
Cronbach varia tra 0 e 1, più grande è, più la scala è coerente e dunque attendibile. Alcuni
autori hanno proposto il valore di 0.7 come valore limite di coerenza, maggiore di 0.7 la
scala è coerente. Un valore basso dell’alpha può essere dovuto anche al fatto che la scala
sia multidimensionale, dunque, occorrerebbe fare anche un test dell’unidimensionalità.
28. Analisi dei casi: Le tecniche di analisi dei casi sono: il case study, l’analisi comparativa e la
cluster analysis. Lo studio d’un caso è l’esame “dettagliato” di un oggetto o di un
fenomeno, che viene considerato in qualche modo esemplare. Tale esame dettagliato può
avvenire sia attraverso un approccio di tipo qualitativo sia attraverso un approccio di tipo
quantitativo. Lo scopo dell’indagine è quasi sempre di natura descrittiva, e raramente avrà
pretese di generalizzabilità. Con l’analisi comparativa, si mettono a confronto alcuni casi,
individuando delle caratteristiche comuni e verificandone somiglianze e differenze. Anche
in questo caso, si può procedere sia con un approccio qualitativo, sia con un approccio
quantitativo. L’analisi dei gruppi infine, è una famiglia di tecniche di analisi di tipo
quantitativo. Al suo interno si distinguono: tecniche gerarchiche, tecniche iterative o delle
partizioni ripetute, tecniche baste sulla densità locale e, infine, le cosiddette reti neurali. La
cluster analysis serve a classificare i casi della ricerca, a costruire delle tipologie. La cluster
analysis produce gruppi. Tali gruppi devono risultare molto omogenei al loro interno, e
molto eterogenei tra loro.
29. Analisi monovariata: L’analisi monovariata si occupa delle variabili prese ad una ad una, e
ha scopi puramente descrittivi. Con questo tipo di analisi si intende conoscere la
distribuzione di certe variabili fra i casi studiati. La forma più semplice di analisi
monovariata è la rappresentazione tabellare di una distribuzione.
30. Analisi bivariata: L’analisi bivariata si occupa delle variabili prese a due a due, e ha scopi
esplicativi, cioè attraverso l’analisi bivariata si possono controllare delle ipotesi. Uno
strumento di base per l’analisi bivariata è la tabella di contingenza. Ogni riga corrisponde a
una modalità della prima variabile e ogni tabella alle diverse modalità della seconda
variabilie. L’incrocio tra una riga e una colonna dà luogo a una cella che mostra il numero
di casi che possiedono quella combinazione di attributi. L’analisi bivariata è utile quando si
vuole studiare la dipendenza tra le due variabili.
31. Analisi del contenuto: L’analisi del contenuto è una tecnica di analisi delle parole nei
documenti. Si tratta di scomporre i testi (sistema di significato), tramite procedure
impersonali, in elementi più semplici allo scopo di classificarli in categorie di senso. Essa è
adoperata per analizzare tutti i tipi di materiale scritto, fra cui anche le domande scritte, i
focus group, le interviste. Le tecniche di analisi del contenuto sono: l’analisi delle
frequenze, l’analisi delle contingenze e l’analisi degli assetti valutativi.
32. Analisi delle frequenze: L’analisi delle frequenze si effettua contando le presenze nei testi
studiati di parole, keywords, categorie o temi d’interesse. L’assunto di fondo è che più una
parola o un tema ricorrano nel testo, maggiore è la loro importanza.
33. Analisi delle contingenze: L’analisi delle contingenze serve a capire se due parole vengono
regolarmente associate all’interno dei testi esaminati. Uno degli indici più diffusi di
associazione è il coefficiente del coseno (una sorta di covarianza, si calcola come rapporto
tra le volte in cui le parole compaiono assieme e il prodotto delle radice quadrata delle
volte in cui compaiono separatamente).
34. Analisi degli asserti valutativi: L’analisi degli assetti valutativi è basata sull’analisi delle frasi
contenute nei testi. Serve a capire come vengono valutati determinati oggetti del discorso
(ad esempio, un noto personaggio dello spettacolo o una categoria di persone come gli
immigrati) dagli autori dei testi studiati. Per effettuare questo tipo di analisi, il ricercatore
si affida a dei differenziali semantici che ricordano quelli del questionario. Ogni frase viene
valutata con un punteggio che va da -3 a +3. Vengono poi calcolate le medie di tutti i
giudizi e alla fine viene elaborato un grafico.
DOMANDE DI METODOLOGIA (SECONDA PARTE)
1. Differenza tra ricerca qualitativa e ricerca quantitativa
2. Schema di Ricolfi
3. Validità, attendibilità, triangolazione
4. Tecnica delle k-medie
5. Analisi delle corrispondenze lessicali
6. Come analizzare le dinamiche di un focus group con l’analisi di rete
7. Sociomatrice e sociogramma
8. Densità di rete
9. Le misure di centralità e potere nell’analisi di rete
10. Trovare i sottogruppi nell’analisi di rete
RISPOSTE
1. L’etimologia del termine quantitativo fa riferimento al concetto di determinazione
numerica, l’analisi quantitativa mira a determinare in quale proporzione certi
elementi sono presenti in un oggetto di studio. Il termine qualitativo si riferisce a ciò
che concerne la qualità e rimanda al concetto di determinazione logica. L’analisi
qualitativa mira a determinare la natura di un certo oggetto di studio. Nella filosofia
delle origini la conoscenza qualitativa non mira all’individuazione di rapporti e
dipendenze alle quali mira la conoscenza scientifica, da qui nasce il pregiudizio
antiscientifico intorno al concetto di qualità.
Nella pratica è difficile riuscire a distinguere la qualità dalla quantità; possiamo
quindi considerare entrambe come due estremi di un intervallo all’interno del quale
è possibile collocare molteplici graduazioni intermedie.
La ricerca quantitativa, per Berg, riguarda il conteggio e la misurazione di oggetti.
Boudon sposta invece l’attenzione sulla comparabilità. È questa comparabilità che
permette di effettuare l’analisi quantitativa dei dati. (Per Ricolfi…)
Qualsiasi attributo che misuriamo con numeri sarà denominato variabile
quantitativa.
Per quanto riguarda la ricerca qualitativa cercare una definizione è problematico.
Per Berg essa riguarda i significati, i concetti, le caratteristiche, le metafore, i
simboli e le descrizioni di oggetti. Il ricercatore è interessato principalmente a come
gli esseri umani si organizzano e danno senso a se stessi e a ciò che li circonda. La
ricerca qualitativa offre degli strumenti per accedere a degli oggetti non
quantificabili che riguardano gli individui concreti che il ricercatore osserva. La
dicotomia qualità/quantità è solo una questione di misurazione: alle rispettive
categorie degli attributi verranno assegnate denominazioni e non numeri. Il dibattito
su qualità e quantità si è sviluppato su piani diversi:
• logico, con riferimento alle procedure di argomentazione di giustificazione del
sapere
• storico
• epistemologico
• metodologico
• tecnico
L’opposizione qualità/quantità si dimostra tutt’altro che definita, e rimane discutibile
l’idea diffusa di chi ritiene che l’adesione a l’uno o all’altro modo di conoscere la
realtà sociale rinvii necessariamente a modi diversi di intendere la realtà stessa,
negando che la questione metodologica fondamentale sia un problema di
adeguatezza e cioè dei metodi e degli strumenti giusti per conseguire un
determinato obbiettivo conoscitivo in merito ad una data realtà sociale.
2. VEDI FOTOCOPIA

3. La ricerca scientifica deve produrre conoscenze pubbliche e controllabili. Essa si


deve chiedere quanto siano accurate le rappresentazioni della realtà che ottiene, se
le conclusioni a cui è giunta siano applicabili a tutti i casi o solo a quelli studiati, e
quanto esse risultino stabili nel tempo o possano essere replicate da altri ricercatori,
a parità di condizioni. Tali controlli vengono effettuati ricorrendo ai criteri di validità e
attendibilità.
La validità fa riferimento al grado col quale una certa procedura di traduzione di un
concetto invariabile effettivamente rileva il concetto che si intende rilevare. Essa è
un giudizio circa il grado di rappresentazione semantica fra il mondo reale e le
risultanze empiriche della ricerca. Possiamo distinguere la validità interna che
riguarda la pertinenza delle spiegazioni date alla situazione oggetto di studio, e una
esterna, che riguarda la generalizzabilità delle spiegazioni date ad altre situazioni
analoghe.
L’attendibilità ha a che fare con la riproducibilità del risultato e segnala il grado con
il quale una certa procedura di traduzione di un concetto invariabile produci gli
stessi risultati, in prove ripetute con lo stesso strumento di rilevazione
nell’accezione consolidata derivante dalla psicometria, indica il grado di congruenza
fra due o più vettori colonna della matrice, che intendono rilevare la stessa proprietà
in condizioni differenti: tale differenza può riguardare lo strumento, il momento della
somministrazione, il giudice osservatore.
La triangolazione è un punto fermo nella riflessione sul metodo delle scienze sociali
e consiste nella proposta di studiare uno stesso oggetto attraverso prospettive
teoriche, metodi, ricercatori e dati diversi allo scopo di ottenere una convergenza di
massima dei risultati ottenuti e di rendere meno opaca possibile la complessa realtà
dei fatti sociali. Possiamo individuare tre tipi di triangolazione: un ricercatore che
usa due o più tecniche; due o più ricercatori che usano la stessa tecnica; due o più
ricercatori che usano due o più tecniche.

4. La tecnica che meglio risponde all’esigenza di raggruppare in tipi diversi i casi di


una matrice dati è la cluster-analysis che si basa sull’analisi delle relazioni di
somiglianza o differenza tra oggetti. Essa ha l’obiettivo di ordinare i casi in gruppi
(cluster), in modo tale che vi sia una forte omogeneità fra i membri di un stesso
gruppo e una forte eterogeneità tra i membri di gruppi diversi. Possiamo distinguere
quattro procedure di clustering:
Gerarchiche, delle partizioni ripetute ed iterative (k-medie), basate sulla densità
locale, o che impiegano reti neurali.
Tale procedura prevede che il ricercatore determini a priori il numero di cluster,
ciascun caso viene inizialmente assegnato ad un gruppo, a questo punto attraverso
una procedura iterativa gli oggetti vengono spostati da un gruppo all’altro, cercando
di minimizzare qualche misura di distanza dal centro del cluster (centroide), fino a
quando non verrà raggiunta la configurazione ottimale, che garantisce la minima
varianza intra gruppo e la massima varianza inter gruppo.

5. L’analisi delle corrispondenze lessicali è una tecnica di natura esplorativa che si


prefigge il compito di individuare le possibili dimensioni latenti che è meglio
descrivono i dati in analisi. La sua utilità nel campo dell’analisi testuali sta nel fatto
che essa consente di ottenere una prima sintesi dell’informazione contenuta nei dati
senza dovere effettuare alcun intervento intermedio di codifica. Una parola è tanto
più significativa quanto più essa è specifica di determinati gruppi di persone. Il
presupposto fondamentale dell’analisi del contenuto classica è che le ricorrenze in
un testo di determinate parole o temi rivelino maggiore importanza attribuita dalla
fonte. È inoltre possibile associare un certo tipo di vocabolario a determinate
variabili della matrice che riguardano le caratteristiche sociografiche
dell’intervistato. L’ACL riguarda spesso l’analisi delle domande aperte, per tre
motivi:
- Da una rapida e sintetica rappresentazione dei contenuti
- Il vocabolario ridotto presente nelle risposte e la sua ripetitività si presta
maggiormente ad essere tipizzato in un approccio che si basa su ridondanza e
differenza
- Vi è la possibilità di associare dati testuali ad altre variabili contenute in
un’intervista o in un questionario.
Per effettuare un’ACL i testi vengono organizzati una matrice rettangolare
lemmiXtesti. Le parole corrispondono a un’ipotetica variabile “lessico”, mentre i testi
alle modalità di un ipotetica variabile “testo” (costituiti da risposte a domande
aperte).

6. 7. 8. 9. 10. Durante l’effettuazione di un focus group il moderatore dovrebbe essere


affiancato da almeno un’altra persona (assistente moderatore o osservatore) che lo
aiuti ad annotare le dinamiche e le informazioni principali che via via emergono dal
dibattito. Trattandosi di un compito che va svolto in tempo reale, esso richiede una
continua attenzione: è perciò utile che una persona si dedichi esclusivamente a
questa attività. Sono essenzialmente tre i tipi di dati da registrare: i legami, gli
attributi dei legami, gli attributi dei soggetti. Lo strumento più pratico per la raccolta
dei dati e la cosiddetta sociomatrice. I numeri all’interno di ogni cella rappresentano
il numero di volte in cui un partecipante ha rivolto la parola ad un altro. La presenza
di due numeri indica l’esistenza di relazioni biunivoche in cui si possono rintracciare
iniziatore e destinatario del messaggio.
Con l’ausilio di un reticolo è possibile studiare i profili interattivi di ogni partecipante
e la struttura globale delle interazioni (singoli nodi e rete intera). Prima di tutto
bisogna rappresentare graficamente le interazioni determinatesi durante il FG. Gli
individui sono rappresentati da punti e le relazioni tra questi da linee che li
uniscono. La rete viene costruita a partire dai dati della matrice di adiacenza e
deriva dall’applicazione di specifici algoritmi di mappatura delle distanze tra i nodi.
Le linee più spesse indicano legami più forti. Vi sono alcune statistiche di notevole
importanza ad esempio la densità. Essa ci dice quanto è interconnessa una rete
assumendo valori compresi tra 0 (nodi isolati) e 1. A partire dal sociogramma
dovrebbero risultare evidenti alcune caratteristiche essenziali del gruppo:
• La sua omogeneità ovvero la sua suddivisione in sottogruppi (clusters)
• La presenza di individui isolati, di strutture sensibili e l’esistenza di percorsi
più o meno privilegiati di trasmissione dell’informazione
• Le posizioni di centralità e leadership all’interno del gruppo (status
sociometrico)
• Le equivalenze o somiglianze strutturali fra i nodi
Per l’individuazione di sottogruppi sono importanti due criteri: top-down e bottom-
up. La leadership si misura tramite la centralità che dipende da tre indicatori: il
grado (out-degree e in-degree), la vicinanza e l’intermedietà (quanto gli altri
dipendono da un nodo).
Trobia

Esame scritto con 31 domande in forma aperta o chiusa che comprendono anche la
risoluzione di piccoli problemi con l'ausilio della calcolatrice.

1 libro (la conoscenza sociologica alcune riflessioni)

Occuparsi della conoscenza sociologica vuol dire occuparsi della conoscenza in generale.
La sociologia è una scienza che si pone il problema della conoscenza della società e del
comportamento sociale in generale, indi per cui la sociologia deve affrontare il problema di studiare
le persone.
Quindi si crea il paradosso che l'oggetto conoscente è della stessa natura del soggetto conosciuto.
(uomini che studiano altri uomini) ed entrano inevitabilmente in relazione tra loro.
Le persone tuttavia sono esseri che interagiscono fra loro con le emozioni, quindi non riescono ad
essere obiettivi (non riesco ad essere empatico nei confronti di una pietra, ad esempio)
l'uomo ad esempio è anche influenzato da stereotipi e pregiudizi.
In sintesi fare scienza con le scienze sociali è difficile.

I sociologi si occupano, a differenza delle altre scienze, di fenomeni e concetti astratti (Razzismo,
anomia, devianza)
Come faccio a misurare, ad esempio, l'unita di misura della devianza? E' impossibile misurare una
cosa che fisicamente non esiste.

Ma la cosa più drammatica, infine, è che la conoscenza non è sicura neanche nel campo delle
scienze esatte in quanto tutto può essere messo in discussione.

Ma facciamo un passo indietro.

Come funziona la conoscenza scientifica in generale? Si può paragonare la scienza esatta ad una
casa fatta di tre piani.

Piano epistemologico.

(sono le fondamenta della casa) l'epistemologia è la branca della gnoseologia (discussione in


termini filosofici) che si occupa di uno specifico problema (Che è quello della conoscenza “certa”
ossia scientifica dimostrabile dei fenomeni) e fin dalle origini ci ha avvertito della possibilità di
conoscere (ottimismo epistemologico), tuttavia qui si pone il problema della veridicità. Quanto ciò
di quello che vediamo corrisponde alla reale verità in merito a quel fenomeno?

(esempio l'approccio di Platone con il mito della caverna che riguarda un mondo perfetto delle idee
non visibili agli uomini, proprio per il fatto che si trovano nella caverna)

Anche Kant si era posto il problema della conoscenza in generale (fenomeno- come una bottiglia
appare a noi, e noumeni – l'idea pura della cosa)

In sintesi è difficile conoscere il mondo oggettivo, ma stabilendo certi limiti è possibile generare un
punto di partenza per poterci muovere negli altri due piani.
Piano teorico interpretativo.

(Piano intermedio) Una volta chiarito il problema epistemologico, si producono delle teorie.

Cos'è una teoria? Una spiegazione di come funziona il mondo o una parte di esso.
(esempio: l'acqua passa dallo stato liquido allo stato gassoso se portata a 100°)
Ma le teorie non sono soltanto spiegazioni ma anche interpretazioni. Ossia contengono un
background di chi l'ha data. Una teoria è teoria solo se riguarda fatti che accadono sistematicamente
in relazione ad altri. ( ES: Ogni volta che c'è X io incontro Y)

Definizione di teoria: Un insieme di proposizioni organicamente connesse, che si pongono ad un


elevato livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali sono derivate da
regolarità empiriche e dalle quali possono essere derivate delle previsioni empiriche.

Tuttavia le regolarità empiriche potrebbero mutare nel lungo termine e quindi bisogna ripensare la
teoria.

Cos'è una ipotesi? Si trovano all'interno della definizione di teoria (le abbiamo chiamate
“proposizione originariamente connesse”)

L'ipotesi è una relazione (o rapporto di tipo matematico) fra due o più concetti
(All'aumentare di A si osserva anche l'aumento del fattore B) ma si colloca ad un livello di
astrazione minore (riguarda casi più ristretti) rispetto alla teoria e che permette una traduzione della
stessa in termini empiricamente controllabili.

Le ipotesi sono pezzi di teoria a carattere provvisorio e quindi ribaltabili nel loro significato. Una
sola ipotesi non può dar luogo ad una teoria.

Es: le donne sono discriminate nella società (teoria)

le donne sono discriminate in famiglia, al lavoro, etc... (ipotesi)

Piano tecnico metodologico.

Si pensi ad una Matrioska.

Alcuni concetti di base:

Strumento: Mezzo concreto per raccogliere dati empirici.

Tecnica: (lo scienziato si avvale di tecniche) è una sequenza di operazioni che debbo compiere per
conoscere ciò che mi interessa (specifica procedura operativa)

Metodo: Sequenza più generale di azioni per raggiungere un obiettivo conoscitivo. (comprende una
serie di tecniche) La scienza utilizza il metodo scientifico.

Il metodo contiene una tecnica che a sua volta comprende una serie di strumenti.

Metodologia: Discorso sul metodo. (logos sul metodo)


Le istruzioni su come lavora uno scienziato, le sue “regole” vengono contemplate nel concetto di
paradigma. (contenitore di regole)

La definizione di Kukn definisce il paradigma come:

Una prospettiva teorica condivisa da una comunità di scienziati che definisce la rilevanza dei fatti
sociali, fornisce le ipotesi interpretative, orienta le tecniche della ricerca empirica.

Difetti del paradigma:

Il primo problema di una conoscenza scientifica è proprio quello di Partire da una prospettiva,
escludendo quindi le altre, come anche il fatto che gli scienziati condividano la prospettiva e siano
“giudici” in un certo senso del lavoro svolto dalla comunità, condannando pesantemente chi si
approccia da una prospettiva differente.

(esempi storici: Galileo galilei, Giordano Bruno, Cartesio.)

Esempio più recente è quello di Einstein con la sua teoria della relatività.

Ma non solo: perché la prospettiva implica anche il fatto che impone che tu, studioso ti debba
occupare solo di alcune cose ed escluderne altre. (il sociologo ad esempio, fino a qualche tempo fa,
non si poteva occupare del tempo libero in quanto considerato “frivolo”)

Ogni tanto, tuttavia, nella storia della scienza arriva uno scienziato “eretico” o innovatore che,
nasce in un periodo in cui il paradigma presenta delle “crepe” e cambia il sistema di
riferimento, proponendo una nuova lettura dei fenomeni (rivoluzione) e un nuovo paradigma
(Es:Einstein)

Nelle scienze sociali (che trattano di fenomeni più astratti e non misurabili come le emozioni) i
paradigmi ci sono?

Si: Ma il problema è che ce ne sono più di uno.

Tre questioni di Fondo.

Qual è la struttura di un paradigma? Da cosa è composto? Non si può determinare con certezza.
Tuttavia un modo per esplicitarlo è quello di porsi tre domande:

Il paradigma nasce automaticamente dando risposta a queste tre domande.

1) La prima domanda riguarda la questione ontologica (essenza delle cose)


La realtà esiste?

2) La seconda domanda riguarda l’epistemologia (parte della filosofia che si occupa della
conoscenza scientifica)
Se la realtà esiste è possibile conoscerla?

3)la terza domanda riguarda la questione metodologica (metodo)


Se esiste ed è possibile conoscerla “come” è possibile conoscerla?

Quali sono storicamente le risposte a queste domande degli scienziati sociologici?


La questione viene risposta con l’aiuto di tre quadri che corrispondono a TRE tradizioni di ricerca
Tre paradigmi delle scienze sociali.
I tre quadri riguardano i periodi del:

Il positivismo (Nascita della sociologia con comte)


La Ville d’Aurey (De Corout) – Quadro

Piano ontologico

Quadro realista - ingenuo, vede le cose come stanno e come sono percepite dai cinque sensi.

La realtà esiste? SI

Piano epistemologico

Se esiste è possibile conoscerla? SI, è oggettivamente (visione complessiva) conoscibile.


(nessuno vede nel quadro un elefante volante)

Vi è un dualismo oggetto/soggetto (non sono della stessa natura)


Dobbiamo considerare i fatti sociali come cose (oggetti), in questo modo soggetto conoscente e
oggetto conosciuto non sono della stessa natura. In questo modo la conoscenza è visibile
oggettivamente. (Comte)

Piano Metodologico.

Come è possibile conoscere la realtà? Il metodo conoscitivo è lo stesso delle scienze fisiche.
Quindi la sociologia è una disciplina fra le tante che adotto il metodo scientifico (Comte)
Questo metodo è Induttivo. (guardo la realtà e formulo delle leggi “deterministiche” in base a una
riproposizione ciclica di eventi)

Postpositivismo e neopositivismo (Superamento del positivismo)


Quadro: Notte stellata di Van Gogh.

Piano ontologico.

La realtà esiste? Si, ma… Non riesco a coglierla tutta. E’offuscata. – Realismo Critico

Piano epistemologico

Se esiste è possibile conoscerla?


Possiamo provare conoscerla attraverso i nostri cinque sensi, che tuttavia potrebbero trarci in
inganno. (Mangiare un gelato con –23 gradi è impossibile, Mangiarlo con quaranta gradi risulta
piacevole) I nostri sensi non sono oggettivi e non possiamo quindi esserlo noi, perché i nostri sensi
per funzionare utilizzano una sorta di pilota automatico. (Es: Illusioni ottiche)

Percezione e conoscenza sono appesantite.

Soggetto e oggetto non sono del tutto separati. (Chi conosce, in qualche modo, entra nella cosa che
conosce)
Gli scienziati quindi possono solo produrre delle congetture, che però sono instabili a fronte delle
nuove conoscenze e risultare falsificabili in un secondo momento. La conoscenza è provvisoria.

Falsificabilità vuol dire anche che una teoria scientifica possa essere scritta per essere falsificata.
Es: teorie che si affermano come scientifiche ma non lo sono, nel senso che sono suscettibili di
modifiche e aggiustamenti nel tempo.

Tuttavia una teoria “Scientifica” Non può essere scritta in questo modo (Non può essere modificata,
può essere solo vera o falsa) e io nel presente devo scriverla in modo che nessuno possa
“Falsificarla” ossia rimescolarla. Se non sarà Adatta verrà eliminata. (Popper)

Piano Metodologico

Come è possibile conoscerla?

Identità di metodo con le scienze naturali – Leggi probabilistiche.


Le leggi probabilistiche cozzano con le procedenti leggi deterministiche. (paradosso del gatto di
Shredinger) Sì, io mi baso sulle scienze esatte, ma nel momento in cui scelgo di basarmi queste
scienze sono mutate?

La realtà è possibile solo conoscerla tramite frammenti (variabili) e confrontarle in modo che
insieme possono portare ad una visione di insieme (Approccio dal particolare al generale)

Apertura verso le tecniche quantitative. Il neopositivista si apre alla qualità e al senso delle cose.

Costruttivismo.
Quadro: Astratto.
Malevick – Il suprematismo. (Concetto astratto)

Piano ontologico
La realtà Esiste? Si, ma è frutto di un accordo/mediazione (costruzione) sociale tra culture, popoli
(chi la guarda). Ciò che noi conosciamo diventa Relativo.

Piano epistemologico
Se esiste è possibile conoscerla?
Soggetto conoscente e oggetto conosciuto sono della stessa natura e si influenzano. E’ possibile che
le cose che noi percepiamo dipendano dal momento, dall’epoca storica etc.

Nel momento in cui accetto il fatto che esistano molteplici prospettive per guardare il mondo e
distinguo nelle diverse prospettive ciò che sia giusto o sbagliato riconosco i valori.

Tuttavia Max Weber afferma che lo scenziato debba essere Avalutativo. Non deve lasciare
influenzarsi dai valori, tuttavia deve riconoscerli tutti, in quanto facenti parte di quella specifica
cultura.
Piano Metodologico
Se è possibile conoscerla, come la conosco?

Weber afferma (a differenza di Durkheim) che le scienze sociali, visto che soggetto e oggetto
condividono la stessa natura debbano dotarsi di qualcosa di diverso dal metodo scientifico.
Le scienze sociali devono entrare in un’ottica di analisi che sia una “comprensione razionale delle
motivazioni dell’agire”.
Weber ha idea di mettersi nei panni della persona che deve studiare per capire razionalmente perché
quella persone ha agito in quella maniera. Tuttavia con criteri razionali e non empatici (Non si
giustifica un comportamento ma lo si apprende e si comprende). (Weber spiega il capitalismo con
l’etica protestante calvinista)

Scoperta della realtà attraverso la costruzione di modelli e semplificazioni (visioni più generali e
meno dettagliate): Idealtipi.

____

Perché sfruttare l’arte? Perchè le discipline umanistiche e la scienza sono profondamente legate e
fanno parte della conoscenza. Molti filosofi facevano anche altro:
ES: Pitagora (Filosofo e matematico) Cartesio (Filosofo e matematico) Leonardo (Filosofo,
Matematico, Scienziato).

Goethe affermava: Non c’è differenza tra indagine scientifica e creazione artistica, in quando sono
entrambi mossi dal desiderio di conoscere la stessa realtà.
L’artista va in estasi mistica (Fuori di sé), ma se l’artista diventa “un altro” nel momento della
creazione, si supera la distinzione tra soggetto conoscente e oggetto conosciuto.
Quando guardiamo un quadro vediamo i girasoli di van Gogh (Esempio) come sono stati visti da lui
in quel momento.

Cosa non possibile nelle scienze sociali in quanto SC/OC sono della stessa natura.

Ad un certo punto nella storia dell’arte si passa dall’idea di riprodurre il fuori (arte classica) all’idea
di riprodurre il dentro, la dimensione interiore, dell’artista (ES: cubismo/arte contemporanea )
Ricerca della realtà profonda, che ci appare strana perché non concreta.

Stessa cosa accade alla scienza con l’avvento della fisica quantistica (I quark, le particelle sub
atomiche).

Ma dopo il positivismo sono emersi nuovi paradigmi? No. Tuttavia nel corso del tempo sono stati
prodotti dei contributi da parte di studiosi che hanno contribuito ad aggiustare il tiro.

Un cambiamento epocale si è avuto nella meta dei 60, periodo in cui la società è cambiata in
maniera così radicale da essere considerata una nuova epoca. La cosiddetta Società – post moderna.
Qualcosa che segue la società moderna tuttavia senza avere contorni definiti.

Cosa succede in questo mutamento? Da premettere che le condizioni di cambiamento si hanno già
nel 20/30, anni in cui si comincia a pensare di non poter produrre teorie generali in cui si può
spiegare tutto. Prima di questa data i filosofi erano “tuttologi” parlavano di tutto ciò che stava nel
mondo.

Negli anni 20 la Filosofia si “arrende” e stabilisce che tutto ciò che conosciamo è dovuto al
linguaggio. Una cosa esiste nel momento in cui gli diamo un nome. (caduta delle teorie generali e
sostituzione della filosofia del linguaggio)

Nel rifiuto di questa società si afferma che la razionalità non è tutto e anzi il mondo è guidato
dall’irrazionalità. Questo perché i filosofi del tempo erano stati spettatori della prima guerra
mondiale con milioni di morti. Addirittura Hegel pensava che la Storia stesse per finire.

Rompendosi la razionalità si rompe la linearità anche nel mondo delle arti (si abbandona la linea
retta con l’arte astratta) e anche il cinema cambia il suo modo di raccontare le storie.

Si veda la differenza tra la linearità di Cabiria e La Non linearità di Pulp Fiction. Il romanzo post
moderno è un Anti Romanzo.

Anche la musica diventa “Strana” Differenza tra repertorio classico e repertorio contemporaneo.

Negli anni 60 tutto questo esplode e la non linearità diventa popolare. L’anno di rottura e il 1968.
In europa in quell’anno succede di tutto. Sul palcoscenico della storia salgono i dimenticati.
Ad esempio le donne. In quegli anni nasce il femminismo nelle sue varie articolazioni.
Oppure i neri (M. Luther King) cominciano a chiedere i loro diritti. Basti pensare alle classifiche
musicali di quel periodo in cui il “blues” era per i neri e il “western country” per i bianchi.
Sarà il rock a fondere le due cose. Esplosione della questione razziale ma anche delle differenze
sessuali. Gli omosessuali incominciano a reclamare i loro diritti di rispetto della loro posizione.

Le scienze sociali si approcciano a questi cambiamenti rivalutando il mondo della vita quotidiana e
abbandonando lo studio delle grandi istituzioni della storia. Ma per indagare la vita “singola” delle
persone devi adottare non più le statistiche numerali volute dal positivismo per l’analisi dei grandi
fenomeni ma tecniche quantitative. La sociologia diventa Micro sociologia.

Quali sono le tendenze più recenti della sociologia e della filosofia?

La svolta linguistica. La realtà non è altro che linguaggio, la filosofia studia il linguaggio ed è
grazie al linguaggio che si “crea” il mondo circostante.
I confini del mio mondo sono i confini del mio linguaggio.

Da questa svolta filosofica vengono fuori le sociologie interpretative, che studiano le parole e si
fondano sul paradigma costruttivista (Max Weber)

Le sociologie interpretative sono:

Interazionismo simbolico (Negoziazione del senso) Il significato delle cose che ci circondano è
contrattato con gli altri (accordo). Accordo che varia da cultura a cultura. Interagendo con gli altri
ci scambiamo istruzioni su quale sia il senso di ciò che ci circonda.

Approccio drammaturgico: (situazioni e maschere) Groffman. Ciascuno di noi che sta in società
indossa una maschera diversa e si comporta in relazione di quella a seconda del contesto sociale in
cui è inserito.

Etnometodologia E’ l’insieme dei modi/metodi che i vari gruppi di persone hanno per comprendere
la realtà.
Questi metodi si basano sulla Indicalita (le cose che diciamo o facciamo sono sempre calate in un
contesto) e Riflessività ( Non riuscire ad essere completamente separato dalla persona che sto
studiando. Il soggetto conosciuto è anche oggetto conoscente. Quando guardi studi e osservi ci stai
mettendo te stesso)

Analisi della conversazione (Visto che i limiti del mio mondo sono i linguaggi, cosa devono fare le
scienze sociali? Interrogarsi sul modo in cui questi linguaggi sono prodotti)

Strutturalismo (ragionare per categorie immutabili, la forma e il contenuto. La struttura sociale


dentro la quale io sto decide cosa posso e non posso fare, la forma è più importante del contenuto.)
e post strutturalismo (Tipico degli anni 70, distrugge ogni categoria immutabile)

Realismo (I meccanismi Nascosti. Quella persona che è disposta ad arrivare ad un compromesso,


ad abbandonare certe sue prerogative, pur di raggiungere un certo risultato. I realisti vanno alla
sintesi, al succo delle cose.)

Le scienze sociali sono attraversate da un sacco di fratture e contrapposizioni. Negli ultimi anni
molti autori hanno provato a rinsaldare alcune di queste spaccature generando teorie satellite che in
sindesi fondono le prime.
Secondo capitolo – I percorsi della ricerca

Il ricercatore sociale si pone come obiettivo quello della conoscenza. Segue un approccio di
investigazione come un detective privato.

Cerca la verità, tuttavia qualche volta sarà costretto a mentire (a fin di bene) o ai soggetti presi in
analisi o a sé stesso o alla comunità a cui si rivolge.

Come si fa la ricerca? Quali sono i suoi tipi?

Ricerca descrittiva: il ricercatore si chiede “Come” si presenta un fenomeno. Utilizzerà diversi


strumenti quali statistiche, fotografie etc…

Ricerca Esplicativa: Il ricercatore si chiede “perché” un fenomeno si presenta in un certo modo.

Il passaggio dal come al perché implica l’aumento della difficoltà della ricerca. Per arrivare al
Perché si deve passare dal Come. A quel punto comincerò a formulare delle ipotesi.

Tipi di ricerca distinguibili in base allo stile del ricercatore.

Ricerca esplorativa: Il ricercatore sa poco su ciò che deve studiare ed esplora senza pregiudizi.
(Ricerca qualitativa ovvero non si fanno misurazioni sulle estensioni dei fenomeni)

Ricerca Confermativa: In questo caso il ricercatore parte da un o schema prestabilito di nozioni


che conosce
e ne cerca la conferma (Tipicamente quantitativa, si fanno delle misurazioni.)

Le fasi della ricerca sono 5

Disegno della ricerca (Progetto che si fa della ricerca, organizzazione del lavoro, scelte
metodologiche sul paradigma adottato,)

Costruzione Base empirica (Quali dati mi servono? In quale maniera posso costruirli?)

(Framing) Organizzazione dei dati raccolti (In che modo li ho organizzati? Servono a rispondere
a ciò che cerco nella mia ricerca)

Analisi dei dati

Esposizioni di risultati (Racconto alla comunità scientifica cosa ho scoperto)

Sembra tutto bello, tuttavia si possono, in queste fasi, determinare degli errori nella costruzione
dell’analisi.

Es: Raccolgo delle interviste in giro e non riesco a classificare le informazioni raccolte.
A questo punto è necessario fare un passo indietro e somministrare nuovamente il questionario.

Oppure finisco per organizzarli con qualche forzatura ma non riesco ad analizzarli, e quindi è
necessario fare due passi indietro e somministrare nuovamente il questionario.

la soluzione è fare un disegno della ricerca ben fatto già nella fase iniziale.
Analizziamo le fasi in modo specifico:

Come inizia la ricerca? Fase del disegno della ricerca

La ricerca può iniziare perché viene aperta nella letteratura o nella scienza e non viene mai data una
spiegazione del meccanismo che genera quel dato fenomeno. Oppure un committente paga affinché
si faccia la ricerca. Oppure si è semplicemente mossi da passione.

Il secondo step è quello di documentarsi in merito a quel dato fenomeno attraverso lo studio
bibliografico, scientifico e sulla raccolta di testimonianze.

Scelta del tipo di ricerca (Descrittiva esplicativa confermativa o esplorativa?)

Chiarificazione dei concetti e delle eventuali ipotesi. La prima chiarificazione di un concetto viene
dal dizionario, ma per ogni disciplina esistono dei dizionari specialistici.
Ci sono delle ipotesi solo nel caso della ricerca confermativa ed esplicativa

Scelta delle unità di analisi e delle proprietà da indagare.

Livello di generalizzazione Universo/Campione.

Fase Della Costruzione della base empirica.

Il problema della ricerca sociale è che gli oggetti di studio (le emozioni) non sono osservabili ne
misurabili.

Come si fa a passare dai concetti astratti alle loro misurazioni attraverso variabili? Qual è la tecnica
di rilevazione più adeguata per raccogliere i dati? (decido di fare delle interviste)

Il processo di operativizzazione di un concetto.

Si sceglie il concetto da operativizzare (razzismo ad es)

Si costruisce la sua definizione operativa (Concetto – indicatore – modalità) Traduzione del


concetto in variabili empiriche.

Si applicano queste regole ai casi studiati. L’applicazione può essere fatta nei seguenti modi:

- Classificazione: trovare un posto ad un oggetto in uno schema, che può dirsi efficiente se vengono
rispettati i principi di: esaustività (che considera tutti gli aspetti di quel qualcosa ogni oggetto ha un
suo posto, se non c’è verrà classificato come altro), esclusività (ogni oggetto deve avere solo un
posto nella classificazione), unicità (quando scelgo le categorie della mia classificazione, devo usare
solo un criterio).

-Ordinamento: Stabilire una gerarchia (Primo, secondo… Ultimo)

-Conteggio: Contare quella proprietà. (quante volte vai al cinema in un anno?) Si chiama
misurazione quando i conti che faccio si basano su una unità di misura. (Peso di una persona che si
misura in chili)

Grazie a questo processo si formano le variabili che sono proprietà (aspetto teorico di un concetto)
operativizzate ( cioè sottoposte a processo di ordinamento, classificazione,conteggio)
Si passa da una ipotesi che è una relazione fra due o più concetti. Analizzando un singolo concetto
di cui fa parte l’ipotesi ci accorgiamo che è possibile scomporlo nelle sue proprietà teoriche, ossia
quegli aspetti che definiscono ad esempio il razzismo. Come è possibile trovare questi “aspetti”?
Tramite il dizionario. (Dicesi razzista chi….) . Tuttavia questa cosa non ci aiuta a misurare il
razzismo. Quindi trasformiamo la proprietà in indicatore empirico, ossia quell’aspetto concreto che
io posso trovare nella realtà (E quindi misurare) Facciamo delle domande a delle persone per
determinare se sono razziste, tuttavia le domande devono appartenere agli indicatori del concetto di
razzismo, se molti indicatori vengono confermati via via le persone rientrano all’interno del
concetto (Sono più o meno razziste).

Questo lavoro di “progressiva copertura del concetto oggetto di misura da parte degli indicatori” si
chiama massimizzazione del rapporto di indicazione

Una volta che io ho scelto la tecnica di acquisizione debbo costruire lo strumento (ne trascrivo le
domande e imposto un questionario) Qui si deve fare attenzione a non predisporre gli stati o
modalità perché si potrebbe influenzare la lettura del mondo di chi risponde in base a dei
preconcetti proposti (Al ristorante ad esempio le persone non ordineranno mai fuori dal menù che
viene proposto)

A questo punto dobbiamo capire se lo strumento funziona (validazione dello strumento – a quante
domande le persone non vorranno rispondere? Capiranno le domande?)

Rilevazione dei dati.

Tipi di Variabile
Ognuna di queste variabili è l’esito di un processo di operativizzazione.

Le variabili più scarse sono le nominali (perché possiamo fare ben poco) Le variabili più complete
sono le cardinali (Possiamo utilizzare tutti i segni). Tuttavia misurare nelle scienze sociali non è
sempre possibile matematicamente.

Famiglie di tecniche di rilevazione dei dati

Esistono molteplici tecniche di rilevazione

Raccolta di fonti secondarie (dati presi da altre fonti di natura numerica) di tipo statistico.

Raccolta di fonti secondarie di tipo testuale (Fonti possono essere Fumetti, opere teatrali, interviste,
diari, articoli di giornale, canzoni)

Esperimenti (Il ricercatore misura una situazione prima di introduce uno stimolo o modifica dello
stato delle cose e cerca di studiarne gli effetti di quella modifica) Tuttavia l’esperimento potrebbe
essere influenzato da molteplici fattori quali il contesto e la presenza del ricercatore.

Osservazione (guardare con i nostri occhi)

Intervista (insieme di domande poste)

Questionario da sottoporre ad un campione

Data mining e big data (Internet, social network)

Simulazioni al computer

Intrusività

Soggetto conoscente e oggetto conosciuto sono della stessa materia. La sociologia è poco oggettiva,
ma allora come si può essere il meno intrusivi possibili e non disturbare l’oggetto di studio?

Vi sono problemi epistemologici (la persona che noi studiamo è in un certo modo ma cambia a
seconda del nostro approccio) Paradosso del gatto.

Grado. Strumenti intrusivi e meno intrusivi.

Estensione (Si può essere poco intrusivi ma con una estensione gigantesca)

Problemi etici. (E’ giusto farsi gli affari degli altri di nascosto?)

Organizzazione dei dati Quantitativi (Framing)

Quando raccogliamo i dati non sono fin da subito organizzati ma devono essere “organizzati” e
aggiustati.

L’organizzazione dei dati quantitativi avviene tramite il Framing, il quale prevede l’uso della tabella
“Matrice Casi X Variabili”.
Organizzazione dei dati Qualitativi (Post-Codifica)

Nel caso in cui ci troviamo ad organizzare dati di una ricerca qualitativa noi lavoriamo con dati
testuali e effettuiamo una organizzazione dei dati “post codificata” ossia aggiustiamo i dati dopo
averli raccolti. Perché non saprò quali dati andrò a raccogliere.
Come si svolge?

Si guarda il materiale raccolto e si identificano delle parti più significative

Si rendono rintracciabili queste parti significative.

Nel caso della ricerca quantitativa l’organizzazione viene fatta prima. In questo caso ricorriamo alla
matrice casi per variabili (tabella). Il ricercatore ha le stesse informazioni per tutti i casi di analisi.

Fase dell’analisi dei dati

L’analisi dei dati serve a trovare delle risposte ai nostri quesiti scientifici.

Lavorare sui dati implica l’analisi di più livelli

Il primo livello è quello dell’analisi dei Casi (analisi molto “concreta” incentrata sul singolo
individuo)
(Analisi delle righe orizzontali di una tabella)

La seconda analisi è quella delle Variabili


L’analisi è quella delle righe orizzontali di una tabella (es: Colonne età) lo studio da concreto
(basato sul singolo caso) diventa “astratto” ossia molto più generale.

Il terzo tipo di analisi è l’analisi delle relazioni. Analisi su sottogruppi composti da tre/quattro
elementi in cui si studiano le relazioni tra questi.

Il quarto tipo di analisi riguarda le parole e i testi (Analisi molto complessa in quanto con le parole
possiamo esprimere di tutto)

Fase dell’esposizione dei risultati

Come faccio a raccontare al mondo cosa ho fatto? Attraverso il documento del report di ricerca

All’interno del quale ci sarà:

L’abstract: Breve riassunto in cui ci sarà tutto ciò che c’è da sapere sulla ricerca. In modo tale che
nell’immediatezza chi la legge possa capire di cosa tratta sulla ricerca.

Stato della conoscenza di quel fenomeno al momento di inizio della ricerca: Correnti teoriche,
approccio scelto, letteratura su quel fenomeno,

Presentazione dei risultati.


Commenti e conclusioni: possibili interpretazioni sui dati raccolti
Nota metodologica: Come abbiamo svolto la ricerca? Come siamo arrivati a quei risultati?

Riferimenti Bibliografici.

Alcune considerazioni: Il percorso della scienza è un percorso pressoché infinito. Quando


consegniamo il nostro report di ricerca la ricerca non termina mai. Dalla fine del nostro lavoro
partiranno altre ricerche. Il processo scientifico è circolare. Tuttavia qualche scienziato sostiene che
il processo di ricerca sia elicoidale (Molle con base larga e punta stretta). In quanto le nozioni e i
fenomeni vengono elaborati all’inizio in modo generale per tendere alla specificità. La scienza è
cumulativa.

La seconda questione riguarda la validità: lo scienziato si deve sempre preoccupare di raggiungere


una ricerca valida, ossia una ricerca che misura esattamente ciò che si era prefissata di misurare .
Il ricercatore si deve comunque attenere a dati empirici senza sostenere tesi infondate. La ricerca
deve essere pubblica e controllabile da altri ovvero dobbiamo permettere ad altri ricercatori
l’accesso ai nostri materiali.

La terza questione riguarda la responsabilità degli scienziati. Gli scienziati dicono alla società come
è fatta. Se io dico alla società come è fatta ho una grande responsabilità, quindi ciò che scrivono
deve essere frutto di un percorso metodologico basata su precisi paradigmi e soprattutto scientifico.
Non può mentire per interessi personali in quanto la sua bugia ha influenza sulla sua società.

Il Campionamento

Il campionamento è quella procedura attraverso la quale noi sezioniamo delle unità di analisi della
popolazione di riferimento provando a fare diventare questa sezione rappresentativa dell’universo
attraverso l’inferenza statistica.

Il motivo per il quale scelgo di fare una cosa del genere è che intervistando un campione risparmio
tempo e soldi.

Il vantaggio è anche la macchina organizzativa che sarà più semplice ( sarà possibile organizzarsi
meglio)

Altro vantaggio ha a che fare con il tempo che io posso dedicare all’analisi dei dati piuttosto che
alla semplice raccolta.

A questi vantaggi si va a contrattare uno svantaggio, ossia l’imprecisione. Fare un campionamento


rappresentativo significa incorrere nella possibilità di errore. Analizzare un modello di realtà non
significa analizzare la realtà completa.

Il dato reale è uguale alla stima di quello che è il dato reale piu o meno un errore
_
dato reale Y= stima del dato reale Y + - E (errore)

Es: Stima del 15% con errore del 5% significa che il dato potrebbe essere tra il 10% e il 20%

I campioni si dividono in
Probabilistici (quei campioni che fanno ricorso alla teoria matematica delle probabilità) si dice
probabilistico un campione quando tutte le unita di analisi della popolazione hanno la stessa
probabilità di essere estratte. Si suddividono in campioni casuali semplici e sistematici stratificati.
Essi rappresentano un “paradosso di rappresentatività”, che li rende rappresentativi riguardo alcune
variabili rispetto ad altre, indipendentemente dal processo di estrazione.

Non probabilistici (non fanno ricorso alla teoria matematica della probabilità), sono
rappresentabili tipologicamente e producono risultati non generalizzabili dato che l’errore di
campionamento non è qui calcolabile. I criteri ragionati di scelta dei casi sono: scelta ragionata, a
langa e di convenienza; quelli analogici invece sono: bilanciato, per quote, telefonico.

Teoria matematica della probabilità

Ma cosa è la probabilità? Mettiamo che io abbia una moneta, quante possibilità ci sono che esca
testa? 0,5 in quanto ci sono due facce. Si farà sempre il caso favorevole (Su cui abbiamo
scommesso, quindi la testa) diviso il totale dei casi (il numero di eventi possibili)
Usiamo dire il 50% per convenzione (rapportiamo sempre in percentuale ossia rapportiamo sempre
su base 100)

.Per calcolare una possibilità serve sempre conoscere i casi possibili e il numero della popolazione.
Il numero dei casi favorevoli cerco di considerarlo io.
Ma se io non ho il numero della popolazione, NON posso calcolare un campione probabilistico.

Qual è la formula magica che ci consente di determinare quale sia la dimensione ottimale (più
rappresentativo della realtà) di un campione?

(Campione) n = z(al quadrato) . pq . N (Popolazione) / E2 (N-1) + z(al quadrato) pq

Facciamo un Esempio

Z=

pq = (varianza) (misura di quanto è eterogenea/diversificata una popolazione)


Se la popolazione è molto eterogenea pq sarà un numero grande, differentemente sarà un numero
piccolo. Se non è possibile ricavare o avere questo parametro si “stima” o si ipotizza. In genere è
meglio pensare, nella stima, che la popolazione sia sempre variegata, quindi fare diventare pq un
numero più grande. Ma quanto grande? (pq = P xQ) (PxQ: proporzione in cui si presenta una certa
caratteristica della popolazione, es: P =rossi 90% e Q = non rosse 10%. Quindi avremo: 0,9 e 0,1
se li moltiplico ottengo 0,09 - Se avessi avuto 70% e 30% quindi 0,7 x 0,3 = 0,21 (quindi sarà più
eterogenea), tuttavia cosi procedendo arriviamo alla situazione più eterogenea ossia 50% e 50%,
( che viene 0,25) poi si andrà verso una nuova omogeneità per l’altro fattore. Quindi 0,25 diventa il
valore di massima eterogeneità.)

E= Errore (stabilito dal ricercatore) (generalmente minore o uguale al 4%) (qui non useremo il
numero percentuale ma l’intero quindi 0,04)

N= Dimensione della popolazione (es.900.000)


_
X = media (La media di un gruppo di valori si calcola dividendo la somma dei valori per il
numero degli stessi)

La distribuzione campionaria (una gaussiana posizionata in un grafico) è una curva che mi da una
possibilità di vedere con quanta frequenza e in quale probabilità possono essere sorteggiate delle
medie, medie piccole hanno minore probabilità di essere sorteggiate a differenza di quelle più vicine
alla media delle medie (Es. su 90 abbiamo una media di medie di 45) la media delle medie è
corrispondente al punto massima della curva. Se tagliamo le parti basse, più vicina all’asse delle
ordinate, della gaussiana, rimpiccioliamo (ottimizziamo) il campione. Ottenendo un campione più
piccolo ma più rappresentativo della popolazione, la parte presa in esame si chiama “intervallo di
fiducia” in quanto oggetto di una personale fiducia dell’analista che ritiene che il campione
risultante non possa essere così “brutto” (es. Non scelgo di considerare il 5% dei dati, quindi cinque
volte su cento un campione non è buono, 95 si). Quanto tagliare il campione spetta all’analista.

la nostra Z Mancante è l’intervallo che va dalla media delle medie al punto ultimo di considerazione
dei dati (Metà dell’intervallo di Fiducia) (ha sempre il val di 1,96) ma come lo abbiamo trovato?
_
Per trovare la Z dobbiamo necessariamente avere la X, ma come trovare la media? Con un trucco.
Spostiamo l’asse dei grafici e la facciamo diventare la linea che diventa punto massimo della
gaussiana. A questo punto la media coinciderà con l’origine ossia 0 e gli intervalli Z saranno sempre
1,96 (Solo se consideriamo sempre questo intervallo di fiducia , con errore al cinque percento.
Possiamo anche mettere 2, ma a questo punto otteniamo il 99% e includeremmo anche i campioni
non buoni)

Foto

Soluzione

quello che abbiamo (599,60) è un campione casuale semplice


Ma possiamo avere anche altri casi:

Es: Abbiamo 400uomini e 500 mila donne.

Il campione dovrà essere rappresentativo di donne e uomini

faremo 600 campione x 400000 uomini / 900.000 popolazione = 266 uomini

Questo che abbiamo è il campionamento stratificato.

Possiamo avere anche altri strati:

Abbiamo M F

Giovani 200.000 100.000

Anziani 300.000 300.000

Ma certe volte conosciamo il campione ma non la popolazione

Faremo il campione sistematico

Basato di un sistema di estrazione dove si stabilisce un passo da seguire per scegliere le persone da
intervistare

Si sceglie un numero casuale all’inizio e a partire da quel numero casuale si sceglie una persona da
intervistare ogni (Numero casuale es. una ogni 20)

Campioni non probabilistici

Sono campioni costruiti ad Ad – Hoc, sono molto eterogenei.

Si chiamano così perché non fanno ricorso alla teoria matematica della probabilità

Tuttavia sono più deboli, in quanto vengono creati apposta per una certa ricerca. Hanno sempre le
stesse caratteristiche.

I campioni non probabilistici non hanno errori di campionamento (non sappiamo di quanto
sbagliamo)

Mentre i campioni probabilistici sono rappresentativi statisticamente (i dati del campione sono
estendibili alla popolazione e viceversa) non si può per i campioni non probabilistici.

Si raggiunge una rappresentatività tipologica (se ne prende uno solo per ogni tipo)

Mentre i campioni probabilistici la generalizzabilità alla popolazione (i dati del campione sono
sicuramente estendibili alla popolazione e viceversa) i dati dei campioni non probabilistici sono
soggetti a trasferibilità (ossia possono gettare luce su qualche fenomeno del mondo)
Quanti sono i campioni?

Snow ball (o campionamento a valanga)

Si individuano all’inizio delle unità di analisi interessanti, a queste persone si chiede di far
conoscere altri casi simili al ricercatore (una sorta di catena di sant’antonio). In questa maniera il
campione seguirà un ingrandimento incrementale (valanga)

Campionamento a scelta ragionata

Stabilisco una logica per selezionare i miei casi. Ma ho deciso i numeri del campione a caso.

Esempio:

Giovani Maturi

istruiti 2 3

Poco istruiti 3 2

Totale = 10

Una logica di ordine può essere quella della comparsa o meno di un fenomeno in una determinata
fascia di età

Campionamento di convenienza:

In sintesi faccio quello che mi conviene fare, e lo unisco a ciò che posso o non posso fare.

Campione per quote:

A prima vista sembra un campione semplice, ma in realtà non lo è. Stabilisce la grandezza del
campione piccolo utilizzando la formula dei campioni probabilistici, è vero, tuttavia la procedura di
selezione delle unità da analizzare non si prendono casualmente ma seguendo il principio di
convenienza.

Se devo scegliere seicento persone queste seicento persone me le vado a scegliere dove le trovo più
facilmente. Questi campioni non garantiscono la generalizzabilità dei risultati e i loro risultati sono
trasferibili.

Errori non campionari

I campioni casuali semplici producono un errore, il fatto stesso di non considerare l’intero universo
comporta un errore. Che rapporto esiste tra l’intervallo di fiducia e l’errore di campionamento? Es:
95 volte su cento l’errore non viene considerato, ma cinque volte su cento posso incappare
nell’errore di campionamento. Significa che se ho stabilito un errore del 4%, cinque volte su cento
potrebbe essere di più. Quindi potrei sbagliare cinque volte su cento nell’estrarre un campione dalla
popolazione.

Ci sono una serie di altri errori, che fanno le persone, che devono necessariamente essere spiegati.
Questi errori li troviamo sia negli campioni probabilistici sia in quelli probabilistici

Sono:

Errori di selezione: che hanno a che fare con il fatto che abbiamo usato una lista sbagliata della
popolazione, Sottostima o sovrastima della popolazione.

Errore di non risposta: Uno dei più grandi problemi che abbiamo quando facciamo un
campionamento. Le persone non vogliono rispondere al questionario o non sono rintracciabili.

Errori di misurazione: Noi utilizziamo uno strumento di raccolta dei dati che non funziona bene.
Es: Questionario illeggibile o incomprensibile.

Errori di procedura: Quando abbiamo finito di somministrare il questionario, i dati vanno caricati
nel pc. Tuttavia nel caso di una grande mole di dati, nella procedura di trascrizione commettiamo
qualche errore.

Ma i campioni probabilistici sono davvero rappresentativi alla luce di questi errori?

Esistono vari problemi:

Paradosso del campionamento: Non possiamo verificare se il nostro campione e corretto o no,
perché siccome io uso il campione per analizzare una realtà sconosciuta come faccio a paragonare
questi risultati ad una reatà che non conosco? Per poter conoscerla dovrei fare un censimento.

Si potrebbero tuttavia confrontare i campioni con i censimenti. Tuttavia i censimenti vengono fatti
ogni dieci anni, come posso confrontare i dati del duemilaedieci con quelli del duemilauno?

Drop out: Problema delle non risposte. Avevamo 900.000 persone. Se su un campione di seicento
persone trecento non rispondono. Ne prendo altre trecento. Ma a questo punto abbiamo levato
trecento persone dalla popolazione, perché queste persone non rispondono e non risponderanno.
Di conseguenza abbiamo violato la definizione di campione probabilistico. Perché adesso il
rapporto di estrazione di altri soggetti della popolazione è aumentato, non più 1 su 900.000 ma 1 su
899,700. Tuttavia possiamo anche ponderare. Se mi rispondono 300 persone, considero le risposte
come doppie. Ma comunque avremo sempre lo stesso problema.

L’approccio qualitativo

Le tecniche:

Come si raccolgono i dati nella ricerca sociale? Ci sono tre modi.

Basta domandare, osservare e leggere.

Parliamo dell’intervista:

Cos’è l’intervista? L’intervista è una forma di conversazione, nella quale intervistatore e


intervistato s’impegnano in una interazione variabile utile alla raccolta dei dati. Essa si distingue dal
questionario per la possibilità di soffermarsi su alcuni passaggi conversazione. L’intervistatore
assicura brevità, scientificità e anonimato e specifica committente, tema e i perché. L’analisi delle
interviste può essere etnografica o quantitativa.

Tipi di intervista

l’intervista è organizzata secondo viversi criteri che sono:

In base all’organizzazione delle domande: (ve ne sono di tre tipi)

Strutturata (o standardizzata) quindi l’elenco delle domande sarà uguale per tutti.

Semi strutturata (con traccia o topic guide) Quando una persona da una risposta si indagheranno
degli aspetti prefissati della risposta già previsti dall’intervistatore.

Non strutturata (o libera in profondità) intervista che presenta l’argomento come una
improvvisazione.

In base al ruolo dell’intervistatore (tre tipi) (come l’intervistatore dirige l’intervista)

Direttiva (o guidata) (l’intervistatore decide lui il percorso dell’intervista e come fare le domande)

Semi direttiva (L’intervistatore ha scelto dei momenti in cui dirigerà ma ha previsto anche dei
momenti di libertà per l’intervistato

Non direttiva (o libera) (L’intervistatore non interviene e l’intervistato parla liberamente)

In base all’approfondimento (storie di vita)

Dedichiamo molto tempo all’intervistato (Esempio intervista biografica sulla vita di un artista)

In base al tipo di risposte (aperte o chiuse)

In base al numero di intervistati (si possono fare anche interviste di gruppo, che si distinguono da
quelle individuali.

Le interviste possono essere distinte in

Interviste ai Gruppi naturali (esiste a prescindere dalla volontà del ricercatore – gruppo di
famiglia)

Interviste ai gruppi artificiali (gruppo artificiale creato allo scopo – Focus group)

L’incontro con l’intervistato

Dobbiamo parlare della relazione che si instaura con l’intervistato

Si parla, ovviamente della relazione tra oggetto conoscente e oggetto conosciuto, che in questo caso
sono della stessa natura.
Esistono molteplici differenze (caratteristiche di sfondo) di età cultura, razza, religione, condizioni
socioeconomiche, sesso, etc..

E anche differenze tra (fattori psicologici) percezioni atteggiamenti aspettative motivazioni.

A questo punto, l’analisi dei fattori operata da entrambe le parti e in entrambe le direzioni, porterà a
un giudizio operato da entrambe le parti (se, in modo tacito, fidarsi o meno reciprocamente)

Ma si avranno, a seconda del livello di fiducia concordato, le seguenti imperfezioni:

Dal lato dell’intervistatore:

Fattori comportamentali:

Errori nel porre le domande.


Errori nel probing (L’intervistato non capisce la domanda, che dovrà essere rispiegata)
Errori nel motivare.
Errori nel registrare.
Errori nelle risposte.

Dal lato dell’intervistato:

Fattori comportamentali:

Risposta delle domande


(adeguata – inadeguata)
(accurata – inaccurata)

Come limitare gli errori

Innanzitutto bisogna presentarsi. XD (citazione necessaria)

Essere preparati sullo strumento di indagine, saper porre le domanda (saper gestire lo strumento,
prevedere possibili problemi)

Aspetto (curare l’aspetto a seconda del contesto e a chi si ha davanti)

Ottenere il consenso dell’intervistato: Assicurando brevità dell’intervista, citare il committente,


comunicare il tema dell’intervista, assicurare la scientificità della ricerca, specificare il perché è
stato scelto il soggetto, garantire l’anonimato.

l’intervistatore

Deve creare una situazione di normale conversazione, mai di giudizio (ne espresso a parole, ne in
maniera non verbale)

Chiedere di avviare il registratore solo una volta avviata l’intervista. (le prime domande servono
solo a rompere il ghiaccio e a creare una atmosfera di familiarità tale per cui l’intervistato sarà più
propenso ad accettare il registratore)

Rispettare la sequenza di domande (in caso di intervista strutturata)


Evitare di esprimere le proprie opinioni (nessun coinvolgimento emotivo)

Superare stereotipi e pregiudizi

Essere positivi, simpatici e attenti (ascoltatori attivi)

Non imporre mai una risposta in caso di rifiuto.

Porre attenzione al probing

Completare l’intervista e finirla in tempi sostenibili.

Struttura delle domande

le domande

Le domande possono assumere delle strutture standard.

Topic guide (scaletta)

Question Route (il percorso strutturato)

Vi possono essere problemi nella trascrizione delle interviste (Bisogna trascrivere dialetti?
Ripetizioni? Errori? Esitazioni?)

Abbiamo due scuole di pensiero opposte:

Chi fa addirittura il riassunto di ciò che è stato detto.

Chi trascrive qualunque cosa. (analisi della conversazione)

Tuttavia il buonsenso dice che il riassunto non è bello perché ci fa perdere la presa diretta con la
realtà. Scrivere tutto invece ci fa perdere tempo.

Si prova a riportare con le parole il senso del discorso (togliendo ciò che ci sembra inutile)

L’analisi dei dati

Lo scopo dell’analisi è trovare delle strutture dotate di senso nel materiale raccolto.

Strada quantitativa: Si trasformano le parole degli intervistati in qualcosa di misurabile e


quantificabile.

L’analisi si compone di:

Post codifica: (Sottolineare delle cose più interessanti e mettere accanto un codice che in genere
consiste con il topic della discussione). Dopodichè si conta il numero delle volte in cui un topic
compare in una intervista. Alla fine si costruiranno delle tabelle con dei grafici con la frequenza dei
topic emersi.
Approccio qualitativo:

L’analisi si compone di:

Prospettiva narrativa etnografica (storia che raccontano le persone)

Si individuano anche qui delle aree di analisi.

Il secondo step consiste nel mettere da parte le citazioni più significative per ciascun tema o area
individuata.

(costruzione di tipologie e classificazioni)

Interpretazione e commento

Percorso quali/quantitativo:

L’analisi computer assistita (CAQDAS)

Software che ci permettono di seguire entrambi gli approcci

L’osservazione

Osservare comporta la fruizione dei nostri cinque sensi. E’una pratica immersiva in cui si cala il
ricercatore.

Criteri dell’osservazione sociale

Partecipazione: Mi mischio o non mi mischio con ciò che voglio studiare?

Quando si parla di osservazione partecipante distinguiamo tra osservazione coperta (il ricercatore fa
finta di essere uno di loro) o scoperta (palese)

Intrusività degli strumenti di rilevazione: quanto sono intrusivi per l’ambiente studiato?

Strutturazione dell’osservazione (Può essere forte nel caso in cui i ricercatori sanno cosa osservare o
debole nel caso opposto)

Prospettiva dell’osservatore

Si distingue in:

Prospettiva del marziano: (in cui il ricercatore osserva cose che non ha mai visto prima, quindi
molto più stimolante per la creazione di nuove domande e mette in discussione tutto)

Prospettiva del convertito: (il ricercatore è talmente preso da quello che osserva che diventa uno di
loro)

Tipi dell’osservazione sociale:


L’osservazione Antropologico/etnografica è la tecnica più vecchia dell’osservazione sociale.

Studi di comunità e di piccoli contesti sociali o ambientali. (studio dele sottoculture)

Studi organizzativi (Lo studio delle organizzazioni come uffici, ditte, fabbriche, aziende di servizi…
posti dove si formano delle culture organizzative)

Studi di realtà clandestine e occulte (Sette religiose, sataniche, attività sessuali devianti, massoneria
etc.. )

Ricerche esplorative in genere.

Che cosa si osserva?

Cosa deve guardare un osservatore per fare una ricerca?

Il contesto fisico nel quale si svolgono le interazioni fra le persone. (Spazio)

Il contesto sociale e il contesto storico

Le interazioni formali/informali (noi interagiamo con gli altri sempre in modi diversi, in genere il
tipo di relazione coincide con la distinzione di contesti privato/pubblico)

Le interpretazioni orali e scritte degli indigeni dei fenomeni del mondo. (Come lo interpretano?)

Le produzioni materiali e simboliche

Gli strumenti

Con quali strumenti si osservano i fenomeni?

Il diario di bordo (raccolta di descrizioni dei fenomeni, interpretazioni del ricercatore che possono
essere emotive – cosa mi è successo dentro, nelle emozioni - e teoriche – ciò che mi è successo
nella testa -) verbalizzazioni e comportamenti degli indigeni (citazioni di estratti)

Il Backtalk (Scrivo il report e chiedo conferma delle situazioni rappresentate agli stessi indigeni)

Problemi dell’osservazione

Accesso alla comunità di indigeni, come è possibile?

Attraverso il mediatore culturale (uno degli indigeni che è preventivamente messo d’accordo con il
ricercatore e lo fa entrare nel gruppo)

Attraverso gli informatori (che informano il ricercatore. Tuttavia può essere inviato dalla cultura
stessa. Oppure proporsi spontaneamente.

Coinvolgimento e obiettività (nell’osservazione partecipante)

Questioni etiche (è giusto osservare le persone senza che esse lo sappiano?)


Focus Group

E' un ibrido tra l'intervista e l'osservazione campionaria.


Si realizza un focus group perchè, in questi contesti, è più facile far nascere delle opinioni.

Definizione:
Il focus group è una tecnica di rilevazione per la ricerca sociale basata sulla discussione tra un
piccolo gruppo di persone, alla presenza di uno o più moderatori, focalizzata su un argomento
che si vuole indigare in profondità.

Principali ambiti di applicazione:

• Ricerca di mercato (si fa consumre al focus group che viene valutato);


• Ricerche Politiche ed elettorali (viene pensato come prodotto che si piò vendere. Il Politico
ascolta e si sintonizza con le voglie e i desideri degli elettori. Sono le persone che
propongono le politiche ai politici. Il primo ad utilizzare questi stumenti in Italia è stato
Berlusconi nel 94);
• Valutazione di enti, servizi, politiche e progetti;
• Esplorazione di un fenomeno

Vantaggi:

• Economicità (è una soluzione economica);


• Rapidità
• Flessibilità (è possibile modificare o aggiustarla anche man mano)
• Alta densità di informazioni (siccome coinvolgono tante persone allora avremo molto
linguaggio non verbale e verbale)
• Gradimento delle persone coinvolte (le persone apprezzano quest tecnica e sono più
invogliate)

Il moderatore:

• Agevola il warm-up (aiuta le persone a “riscaldarsi” cioè a rompere il ghiaccio)


• Precisa il tema della discusssione (il moderatore spiega di cosa si parlerà)
• Usa un linguaggio comprensibile a tutti (farsi capire da tutti poiché il gruppo è eterogeneo e
diversificato)
• Parla a tutto il gruppo (non parla solo al singolo)
• Fa parlare una persona alla volta (non farle sovvrapporle)
• Non ruba la parola
• Cerca di far parlare tutti (ma evita il “giro”, il Focus Group serve a far nascere le opinioni,
se io programo un turno, il successivo prepara il discorso forzato. Il Focus Group ideale è
quello dove parlano tutti spontaneamente)
• Fa una sintesi della discussione ogni tanto (siccome durano tanto, è bene fare una sintesi
ogni tanto, serve anche per fare dei piccoli riassuntini nella trascrizione)
• Può essere più o meno direttivo (ogni gruppo avrà le sue caatteristiche)
• Può rompere l' ufficialità con delle provocazioni (quando la discussione langue allora
assume una posizione controversa così da riaccenderla)
L' osservatore

Può guardare (o allo specchio segreto o con le telecamere) o essere presente direttamente nel
gruppo.

-Deve stare attento ai contenuti ----> Di che cosa si è parlato?


-e a come essi emergono -----> Come vengono fuori?

L' osservatore prepara i riassuntini (sta attento ai contenuti) o dei survey pool (ovvero prepara tre
pallini e riempie più o meno una delle posizioni per quanto è condivisa dal focus group).

Nel come mi chiedo “come siamo arrivati a dire quelle cosa”, quel processo lo utilizzerò nella
campagna di marketing.

Tipidi ideali di partecipanti

• Il leader (Possono esistere due tipi di leader):

-Espressivo: Possiede carisma, lo individuamo in qualcuno che ha delle caratteristiche fisiche


relative al potere (grandezza, pelo, voce, ect);

-Strumentale: Sanno delle cose (leadership della conoscenza), punto di riferimento e parlano bene.

• Il Timido (opposto del leader, ha “paura” del contesto e di esprimere la sua opinione;
Compito del moderatore è quello di cercare di limitae l'invadenza dei leader e valorizzare
quella dei timidi)

• L' Apatico (l' apatico è “abbuttato, il moderatore deve accorgesene e cercarlo di farlo
interessare)

• Il Negativo (E' negativo a priori)

• Il Polemico/Critico (sono contro argomentando la loro opinione)

• L' entusiasta (è entusiasta di essere lì)

• Il Joker (quello che fa le battute, smonta l' ufficialità delle cose e istiga alla risata su tutto)

• Colui che divaga

Strumenti

• Topic Guide
• Questioning route
• Con o senza stimoli (immagini, filmati, stimoli sonori, ect...) (questi strumenti sono
mostrati in determinati momenti e non subito!)

Tipi di domande
• Domande di Apertura
• Domanda di introduzione
• Domande di transizione
• Domande chiave
• Domande finali

Fasi della discussione

1. Forming (Fase in cui si forma il gruppo)

2. Storming (Fase in cui si rompono gli equilibri)

3. Norming (Fase in cui si stabiliscono regole, es: turni di parola)

4. Performing (Emergono le maschere)

5. Mourning (L'addio, il gruppo si scioglie)

Pianificare un focus group

-Un focus group è in genere composto da circa 8 persone (min 4 e max 12 + dropout (chi da buca).
-Il numero di Focus Group da effettuare è variabile, ma in genere maggiore o uguale a 3 ---> I
Focus Group ono sempre con persone diverse.
Si fanno Focus Group fino al criterio della saturazione teorica (guardando i nuovi risultati ottenuti
non emergono novità per i risultati o non si scopre nulla di rilevante).
-Quando si contattano persone, si accenna solo vagamente al tema del Focus Group (schermatura).
Nel gruppo, in genere, non ci devono essere persone che si conosco.
-Le persone si scelgono sulla base delle esigenze di ricerca, seguendo criteri di omogeneità
(Quando vogliamo approfondire molto dell' argomento) piuttosto che di eterogeneità o
rappresentatività (Quando mi interessa sapere tutte le opinione su quel determinato ambito).
- Scegliere dei posti neutri (es. ufficio azienda, sala univeritaria, sale convegni degli alberghi) per
effettuare i focus group.

Come si reclutano le persone per un focus group?

Nelle ricerche di mercato si può


- Fare “shadowing” ovvero seguire chi prende il prodotto e si chiede se si vuole partecipare.
- Chiedere a conoscenti di conoscenti.
- Andare nel negozio interessato lasciando delle schede per richiedere di partecipare al Focus
Group.

Ai partecipanti si danno come “incentivo” soldi, fornitura del prodotto pe un periodo di tempo,
gadget della ditta o una buono da spendere.

Analisi dei dati

• Analisi dei contenuti (analisi quantitativa)


• Approccio etnografico (o narrativo)
• Network Analysis (con software)
Approccio dell' analisi di rete (tecniche di analisi strutturale)

L’inchiesta campionaria quantitativa (Survey)

Differenza tra Poll (Sondaggio basato su una singola domanda e non richiede necessariamente
un campione probabilistico, alle spalle di un poll non c’è nulla se non la curiosità di sapere quel
dato) e Survey (più domande con campione probabilistico, alle spalle c’è una ricerca di natura
scientifica e sociologica)

Noi porgeremo attenzione alla survey (inchiesta campionaria) che è un modo di rilevare
informazioni che si basa sulla interrogazione.
Vengono consultati gli stessi individui oggetti della ricerca.
Questa ricerca ricorre ad un campione probabilistico.
Le domande vengono impostate in un questionario a risposta chiusa.
Lo scopo dell’inchiesta campionaria è quello di studiare le relazioni (ipotesi) che esistono tra le
variabili.

Questa è una ricerca confermativa perché deve confermare/smentire la veridicità delle ipotesi
formulate

Questa è una ricerca esplicativa (non ci chiediamo come si presenta il fenomeno ma il perché si
presenta in un certo modo)

Criticità delle interrogazioni

Chi interroga parte dalla seguente affermazione di carattere positivista:

Ad una uniformità di timoli corrisponde una uniformità di significati

Tradotto:
Se io faccio la stessa domanda a più persone, tutte quante capiranno la stessa cosa.

Questo è l’approccio che utilizza chi fa la ricerca sociale per impostare i questionari

Ma ne siamo sicuri?

Non solo le persone sono eterogenee, ma lo potrebbero essere anche gli intervistatori.

Vi sono dei problemi che nascono tra l’intervistato e l’intervistatore: (Desiderabilità sociale,
acquiescenza, pseudo opinioni)

Desiderabilità sociale: Quando interagiamo per la prima volta con gli sconosciuti allora ci
mostriamo nella maniera migliore che possiamo (l’intervistato smussa le risposte che darebbe
realmente) questo è un problema perché falsa le risposte e non raccolgo il dato reale che mi
interessa

Acquiscenza: situazione per il quale l’intervistatore sta al di sopra dell’intervistato per via del
suo modo di apparire, e per questo lo condiziona implicitamente nelle risposte.
Oppure le persone annoiate da un questionario eccessivamente lungo daranno una prima
risposta veritiera e falseranno le altre in base alla prima.

Pseudo opinioni: Domande difficili a cui le persone non sanno rispondere e per ciò inventano
una risposta pur di non sembrare ignoranti.

Quali sono le cause di questi problemi?

Contenuto: Cosa viene chiesto (Attenzione a tematiche che riguardano sesso, soldi, questioni morali
e religiose) questi temi possono produrre i problemi enunciati prima.

Struttura: Come è stata organizzata la lista delle domande? Il tema “scottante” deve essere trattato
ed inserito al momento opportuno.

Setting: Contesto nel quale io faccio l’intervista (Dove la faccio? Le persone intervistate hanno
fretta?)

Intervistatore: Se la persona che mi intervista sta antipatica o nutro dei sospetti posso non
rispondere o falsare.

La psicologia di chi risponde: Cosa accade nella testa di chi risponde?

Ci sono quattro diverse spiegazioni su come funziona il processo di risposta. Tre modelli sono di
natura cognitivista (Branca della psicologia che immagina il cervello come un computer
funzionante ad imput che produce un output)
Il quarto modello è linguistico

Il primo modello e quello ottimizzante. (tourangeu e Rasinki)

Quando ad una persona viene rivolta una domanda la prima cosa che una persona fa è
COMPRENDERE cosa gli è stato chiesto.

La seconda fase consiste nel RECUPERO dell’informazione che serve per rispondere

La terza fase consiste nell’UTILIZZO di queste informazioni.

La quarta fase consistere nel far corrispondere quello che so ad una delle alternative di risposta che
mi propone il questionario.

Il secondo modello è quello di ottimizzazione e soddisfazione

Dove alla prima fase (gli studiosi Krosnick e Alwin) aggiungono la seconda fase.

La presenza di una persona di fronte a noi influenza la nostra risposta.

La soddisfazione sta nel fatto che io devo SODDISFARE chi mi intervista a prescindere se la
risposta sia vera o falsa.

Il terzo modello è quello del campionamento delle credenze

Anche qui si attiva il computer della mente.


Alla richiesta di espressione di un parere su una determinata faccenda, mi chiedo immediatamente
cosa ne pensa la maggior parte delle persone di quella determinata faccenda . Dopo avere fatto un
censimento mentale io ne pesco una a caso e la propongo all’intervistato forte del fatto che essendo
un credenza pronunciata da qualcun altro (il piatto di funghi buonissimo) sia comunque legittima.

L’ultimo modello è quello che si rifà alla logica conversazionale di Grice (Annullamento del
contesto)

Grice sostiene che una conversazione funziona solo se vengono rispettati quattro principi.

Che sono:

Principio della quantità dell’informazione:


Quando parliamo con gli altri l’informazione non deve essere ne eccessiva (ci annoieremmo) ne
deficitaria (Non ci capiremmo)

Qualità delle informazioni: (verità e sincerità devono essere qualità mai mancanti della nostra
conversazione)

Relazione (appropriata al contesto) Le cose che ci stiamo dicendo non sono adatte al conteso in cui
ci troviamo.

Modalità (chiarezza brevità e coerenza della nostra conversazione)

Se non si rispettano queste massime comincia a prevalere nel contesto dell’intervista la situazione
(le persone non stanno più attente alle domande ma al contorno - come verranno usate le
informazioni etc..)

Costruire il questionario… presupposti.

Cosa ci vuole?

Esperienza e cumulabilità. (Ci si può anche ispirare o copiare domande prese dai questionari vari)

Conoscenza della popolazione e del tema.

teorie e ipotesi (Conoscere le ipotesi e ordinarle secondo determinati criteri – fase


dell’operativizzazione)

Parti del questionario:

Il questionario si divide in varie sezioni

La cover letter: Introduzione e spiegazioni dei motivi della ricerca.

Istruzioni: Quando il questionario è auto somministrato bisogna fornire delle istruzioni per
compilarlo.

Corpo principale (domande del questionario – struttura del questionario vera e propria)

Ringraziamenti e note.
Costruire il questionario: Ingredienti.

Il questionario è formato da domande (Items) per costruirlo servono dei precisi ingredienti da
mettere nelle domande:

Dati sociografici (Ciò che le persone sono) (contesto di appartenenza, sesso, età, titolo studio…)

Comportamenti (Ciò che le persone fanno)

Opinioni (Ciò che le persone pensano)

Giudizi (Opinioni che però esprimono un giudizio)

Attraverso questo capiamo gli Atteggiamenti delle persone.

Costruire un questionario: trama

Si guarda alla costruzione della struttura.

Si comincia sempre con domande generiche e neutrali che non possono essere considerate un
discorso mirato (Queste sono le domande socio-anagrafiche)

Si comincia in questa fase a tenere conto dell’attenzione che le persone hanno nel rispondere al ns.
questionario.

Dopo queste domande generiche e neutrali mettiamo delle domande che richiedano un lavoro
mentale più grande da parte di chi risponde: Queste sono le domande importanti.

Queste domande abbassano ulteriormente l’attenzione e le scudo difensivo mentale dell’intervistato.

Solo a questo punto possiamo inserire delle domande spinose.

A questo punto possiamo congedarci, il ns. lavoro è finito, tuttavia non possiamo congedarci subito
dopo in quanto l’intervistato avrà con se un ricordo che l’ultima domanda è stata qualcosa
imbarazzante.

A questo punto mettiamo delle domande salvagente, che hanno il compito di distogliere l’attenzione
e che non richiedono grande sforzo mentale, queste domande sono quelle Socioanagrafiche.

L’impostazione testuale : Il Layout del questionario. (chiarezza e semplicità)

(Usare carta intestata dell’istituzione che sta proponendo la ricerca) – Dare maggiore
autorevolezza al questionario.

Regole di compilazione semplici.

Inserire un numero di protocollo (numero progressivo identificativo del singolo questionario – da


inserire perché in questa maniera sono più facili da inserire e classificare in un sistema informatico
quale un foglio EXCEL in modo da classificarli in una matrice casi per variabili.

Ordinare le domande con numeri progressivi. (In modo da ordinare le domande in una matrice
casi per variabili)

Diverso stile grafico per domande e risposte (in modo da distinguerle meglio)

Far corrispondere bene le domande alle varie modalità di risposta

Codebook incorporato al questionario (Codice identificativo associato ad ogni singola risposta,


in modo tale che quando si caricheranno i dati su una matrice casi per variabili verrà molto più
semplice)

Gestire le domande di controllo (domande quasi uguali che vengono copiate in un'altra parte del
questionario – si fa questa cosa quando si ha il sospetto che le persone non ci stiano dicendo la
verità, se le risposte alle due domande in modo diverso, l’intervistato non sta dicendo la verità) o di
filtro (domande che ci indirizzano durante la compilazione del questionario e ci creano una
condizione di affermazione negazione in base ala quale io, studioso, ti metto in condizione di
rispondere a delle domande supplementari a seconda della tua risposta)

La formulazione delle domande

Semplicità di linguaggio.

Evitare le ambiguità e parole con forte contenuto assiologico

Sintassi semplice e domande singole

Basso numero di alternativa di risposta

Concretezza (Tempo e fatti)

Evitare domande tendenziose o comportamenti presunti.

Rendere accettabili tutte le risposte ed evitare domande imbarazzanti

Prevenire il response set (distorsioni tra intervistatore e intervistato – in particolare l’acquiescenza)

Si previene in due modi diversi:


O spezzando le domande. (distribuirle in punti diversi del testo)
O cambiando le modalità di risposta da domanda a domanda (Per non far distogliere l’attenzione e
non far percepire le domande come uguali.)

Tipi di domande

Le domande del questionario si chiamano ITEM

Possono essere singole

Tipi di domande singole:


Scelta fra modalità semanticamente autonome (Le varie modalità di risposta sono fra loro
indipendenti)

Es: Quale è la tua religione? Ateo/Induista/cristiano/musulmano.

Il significato di ciascuna risposta è autonomo e una risposta esclude l’altra.

Checklist

Ci sono dei questionari in cui potrei dare più risposte

ES: Quali tra le seguenti cose fai nel tempo libero?

La risposta può essere nessua delle variabili, tutte insieme contemporaneamente o una
combinazione di variabili.

Scelta fra modalità graduali.

Si genera una variabile ordinale


Vi è una gradazione fra le risposte date

ES: come definiresti il rapporto con i tuoi compagni?

Buono, non buono, pessimo.

Adesioni ad alcune affermazioni.

Si fa una affermazione all’inizio e sin chiede all’intervistato in che misura è d’accordo con quanto
enunciato.

Le risposte somigliano a quelle delle modalità graduali, tranne per il fatto che vi è l’affermazione
all’inizio

Ordinamento di preferenze soggettive.

Quali cose mi piacciono/ritengo importanti e in che mistura.

Es: ordina questi valori dal più importante al meno importante.


(Lavoro/ amicizia/ amore/ famiglia)

Collocazione di una persona lungo un continuum.

Il soggetto che deve rispondere si colloca da solo in un determinato spazio (scala auto ancorante)

Es: per favore indichi con un puntino il suo orientamento politico lungo questa linea che va
dall’estrema sinistra all’estrema destra.

Il valore viene trascritto in una tabella casi per variabili semplicemente con l’ausilio di una
squadretta con il quale si misurerà il segmento e si determinerà un valore.

ci sono tuttavia persone che non sono in grado di collocarsi sulla linea per tutta una serie di casi
(Nessuna istruzione politica, mancanza delle più basilari conoscenze di matematica e geometria,
etc..)

Termometri dei sentimenti (Conteggi o misurazioni)

Es: Da uno a 100 quanto credi in X? Quanto saresti disposto a fare Y?

Presentate in forma di scale

Definizione: “Una scala è un insieme coerente di domande che servono a misurare un


atteggiamento o un concetto non direttamente misurabile”

Ci sono tanti tipi di scale.

Scale LIKERT.

Caratteristiche delle scale likert:

- sono scale additive (fanno delle addizioni) (Misurare il livello di razzismo in base alla somma dei
punteggi delle risposte alle domande di un questionario)

- debbono essere sottoposte ad alcuni controlli

Controllo di validità – controllare se la scala è corrispondente tra i risultati della ricerca e la realtà.

Controllo di attendibilità – La stabilità di dati nel tempo, la coerenza, e la riproducibilità dei dati.

Esistono degli strumenti di controllo dell’attendibilità.

Split half: Prendiamo la scala delle domande e la dividiamo a metà, si fanno due distinte sottoscale,
si fanno le somme e si vede se una scala è coerente con l’altra. Questo test serve solo a capire se c’è
un problema ma non riesce a determinare quale.

Se voglio trovare il problema faccio un secondo test chiamato:

Correlazione Elemento/scala. E’ un numero che mi dice quanto sono associate due distribuzioni.
Si misura il coefficiente di correlazione tra la somma dei valori di ogni risposta e a la somma delle
somme dei valori totali delle risposte.
Una volta trovato il coefficiente relativo più basso, si elimina l’item e migliora l’attendibilità della
scala. (il valore degli altri altri coefficenti di correlazione aumenta)

l’alfa di Cronbach – con questo procedimento è possibile calcolare tramite un valore solo
l’attendibilità della rilevazione. Il valore minimo per cui la scala è attendibile è 0,7

__
nr
alfa = --------------
-
1 + r (n-1)

n = numero degli item (domande)

_
r = Media delle correlazioni degli item tra di loro (Si calcola sommando tutti i valori degli item e
dividendoli per il numero di item stessi)
L’ultimo controllo della scala di Likert è il controllo di unidimensionalità.

Quando noi costruiamo una scala dobbiamo accertarci di misurare uno e un solo fenomeno. Quindi
bisogna stare attenti a non mettere degli item che riguardano, ad esempio, l’intolleranza o la
xenofobia.

L’analisi fattoriale ci aiuta a trovare quell’insieme di items che potrebbero misurare anche altri
fattori e quindi non sono adatte.

Altre scale.

Scala del differenziale semantico (una scala che ha la presunzione, attraverso delle domande che
sembrerebbero non essere pertinenti con il fenomeno studiato, cercano di capire cosa passa nella
mente delle persone)

Come si fa? Individuando dei poli opposti fra i termini in cui le persone si autocollocano lungo
questo segmento.

A questo punto si costruiscono delle medie per ciascun paragrafo.

Mettendo in relazione e collegando le medie si ottiene il profilo/atteggiamento che hanno le persone


nei confronti del fenomeno/brand. Questo profilo si può confrontare con altri profili per studiare i
diversi approcci delle persone.

Il Pre Test.

Da sottoporre prima della somministrazione di un questionario ad un ristretto campione di persone


che non parteciperanno al questionario vero e proprio.

Ci serve per meglio impostare, aggregare o articolare meglio le alternative di risposta.

Rimuovere o riformulare le domande che presentano troppo “non so” o “non ricordo”

Rimuovere le domande con risposte senza variabilità.

Integrare temi e aspetti mancanti.

Correggere eventuali errori o inesattezze.

Verificare i tempi delle interviste.

Come si fa il pre test?

Metodo convenzionale ( si registrano le reazioni dei partecipanti)


Ci sono casi in cui il pre test diventa una ricerca nella ricerca (codifica dei cmportamenti degli
intervistati)

Metodo fissato sull’intervista cognitiva (perché hai risposto così?)

Giudizio di esperti.

Forme di somministrazione

Intervista dal vivo. Che assume la forma dell’eterosomministrazione (l’intervistatore fa le domande


e l’intervistato risponde) e l’autosomministrazione (Compito in classe in cui l’intervistatore ha il
ruolo di tutor ma le domande sono già scritte nel questionario)

Per telefono.

Per posta.

con il computer.

-Cati

-Capi

-Cawi

L’analisi dei dati (introduzione)

Obiettivo

Trovare e rintracciare strutture trovate di senso nel materiale raccolto.

I livelli del lavoro di analisi possono essere:

I casi (singole untità di analisi, le ricerche sui casi si definiscono di tipo concreto in quanto ci
occupiamo delle singole persone)

Variabili: Invece di lavorare in orizzontale lavoriamo in verticale (ci interessa il mucchio più che il
singolo caso) Es: età media di una popolazione. Il lavoro è astratto perché le persone non ci sono.

Relazioni: Gli oggetti sono presi in relazione tra di loro.

Parole e testi: (Insiemi di parole, che possono evocare mondi o essere ambigue)

Oggi gran parte del lavoro di analisi dei dati non viene fatta manualmente su schede perforate, bensì
al computer.

L’analisi dei casi


Le tecniche per studiare i casi nella ricerca sociale c’è n’è sono pochissime.

Tre famiglie di tecniche:

La prima tecnica è il Case study: (studio di un solo caso) ovviamente se ne occupa in termini
qualitativi.
Le considerazioni si fondano su:

Esemplarità (caso più interessante del fenomeno)


Dettaglio
Qualità

La seconda tecnica è l’analisi comparativa.


Serve per lavorare su più casi (massimo dieci) in cui prendiamo dei parametri da ogni singolo caso
e lo paragoniamo con gli stessi parametri degli altri (es: disoccupazione tra stati)
L’approccio è quali quantitativo.

La terza tecnica è l’analisi dei gruppi (cluster analysis).


Questa tecnica è fondamentalmente una tecnica di classificazione e di costruzione di gruppi che
sono molto omogenei al loro interno, ma fra i gruppi ci deve essere molta eterogeneità.

La prima analisi dei gruppi (cluster) si fa con:

Tecniche gerarchiche: Per classificare i gruppi è stato utilizzato il criterio della gerarchia.

Che si dividono In agglomerative ( partono dal basso per arrivare verso l’alto – dal particolare al
generale) e divisive (che fanno il contrario)

Le classificazioni cambiano da cultura a cultura e non esistono classificazioni perfette.

Tecniche Iterative: (tecniche che prevedono un particolare iter) Sin dall’inizio il ricercatore decide
quanti gruppi creare.

Delle tecniche iterative fanno parte le Tecniche delle K medie. Dopo aver diviso gli oggetti di
analisi in vari gruppi con criterio casuale provvediamo ad ordinarli progressivamente secondo
precisi iter e criteri di classificazione. Fino a quando ottengo il livello di omogeneità desiderato.

Tecnica della densità locale: basata sulla geometria analitica e sui sistemi di assi cartesiani in cui si
disegnano punti dettati da coordinate X Y che possono, ad esempio, essere caratteristiche di una
persona. (ES: quante volte va a scuola e quante va in chiesa)

I puntini sono le persone.

Tanti puntini vicini tra loro nel grafico sono i gruppi


Tecnica delle reti neurali. Si prova a replicare al pc una vera e propria “rete neuronale” per
elaborare dati molto grandi e complessi. I computer può così riconoscere le persone in base ad una
stringa di dati.

La grande mappa sinottica - gfk eurisko

la tecnica della densità locale è utilizzata da questa azienda per tracciare il profilo della popolazione
italiana.
La mappa che ci propone eurisko è sempre un piano cartesiano.

Asse X = confronto sociale, lavoro, ricchezza, forza, razionalità sport (tratti duri)

Asse Y = Cultura, moderazione, riflessione, affetti, amore eleganza aspetto (tratti morbidi)

Ogni area del piano è divisa.

Foto 2
Il posizionamento dello stile di vita.

L’analisi delle variabili

Ci propone uno studio che da concreto diventa astratto. L’analisi cambia a seconda del numero delle
variabili oggetto di analisi.

Dstinguiamo tra:

Analisi Monovariata: Analisi di tipo descrittivo (come si presenta un certo fenomeno?) che
riguarda una singola variabile.

Si tratta di riassumere e sintetizzare una distribuzione. Tuttavia questa distribuzione può essere
grande, come riassumere? Costruiamo una rappresentazione tabellare. In cui inseriamo la modalità
della variabile, le frequenze della presenza manifestata di questa modalità, delle percentuali e
delle percentuali cumulate.

Foto 3
ES: Alla domanda: hai mai pensato di fare sport?

Bisogna anche inserire le misure di tendenza centrale (che mi dicono dove sta il baricentro della
distribuzione) che sono: (Moda: che serve solo per le variabili di tipo nominale. Mediana: che serve
per misurare la tendenza centrale di variabili ordinali. E la media solo per misurare la tendenza
centrale delle le variabili Cardinali.)

Nell’esempio precedente la moda è la risposta più data.

La mediana è rappresentata dal 50% del campione.

La media non si può fare in quanto non è un caso cardinale.

Dobbiamo anche inserire le misure di variabilità che sono:

Indice di eterogeneità (Var. nominali)

differenza interquartile (Var. ordinali)

Varianza, deviazione standard (variabili cardinali)

Analisi Bivariata: analisi che lega due o più concetti ed è una analisi Esplicativa – (la ricerca
spiega il perché di quella cosa)
Stavolta il piano si sposta dfa descrittivo a esplicativo.

Analiziamo distribuzioni congiunte.


Abbiamo sempre coppie di variabili Y e X

X= variabile indipendente

Y= variabile dipendente

Come si verifica la presenza di una relazione fra due variabili? Con la tabella di contingenza.

In cui ci sono due variabili incrociate che si toccano

La statistica tuttavia si interessa di indici più sintetici che spiegano l’esistenza o meno di una
relazione.

Tipi di analisi Bivariata:

Significatività vs forza (forza: Relazione che lega due variabili. Quanto sono legati X eY e quanto
cambia Y al variare di X e viceversa) – (Significatività: Può succedere che una relazione misurata
tra x e y in realtà sia dovuta ad un campione particolare estratto dalla popolazione e potrebbe
succedere che se io estraggo un campione diverso, quella relazione possa non esistere più. La
significatività mi dice qual è la probabilità che quella relazione che io ho misurato sia dovuta al
caso. Ed è espressa in valori reali che vanno da 0 a 1. Se, ad esempio, il valore di significatività
viene 0,95 che vol dire 95% ci saranno novantacinque possibilità su cento che quella relazione
possa essere di nuovo confermata nel caso dell’estrazione di un nuovo campione.)

Misure di relazione:
Tra le variabili esistono criteri gerarchici di ordine:

la più debole è la nominale


La più forte è la cardinale

Analisi Multivariata:

Che può essere:

Descrittiva (MDS)

Esplicativa(Regressione)

Esplorativa (analisi fattoriare)

Confermativa (path analisys)

L’analisi di testi e parole

le parole spesso sono ambigue, hanno più significati.

Il primo posto dove ci capita di trovare testi e le parole sono le domande a risposta aperta.
Noi riassumiamo i dati in una post codifica.

Ma soprattutto procediamo ad una analisi delle corrispondenze lessicali

Il secondo posto dove troviamo testi e parole sono le trascrizioni

Che prevedono analisi qualitativa e quantitativa.

Il terzo posto appartiene ai documenti di altra natura

ES: Radio. Televisione. Social.

Qui si faranno analisi del contenuto (Content Analysis).

Cos’è la Content Analysis?

La Content Analysis è una tecnica di analisi basata su procedure impersonali di scomposizione dei
testi in elementi più semplici, allo scopo di classificarli in categorie di senso, di calcolarne la
frequenza o la co-occorrenza, o di valutare i giudizi espressi dall’autore su determinati oggetti del
discorso, per stabilire inferenze valide e replicabili sul produttore, il contesto e gli effetti di un
messaggio.

Aspetti della Content Analysis

Questa definizione precedente impone una serie di problemi.

La Content Analysis si occupa di qualità o quantità?


Alcune deduzioni sono qualitative ed altre quantitative.

Qual è il significato implicito o esplicito di un testo?


Per raggiungere il livello implicito devo passare dall’analisi quantitativa all’analisi qualitativa (Es.
percepire l’ironia di un testo)

Chi dice cosa, a chi, attraverso quale canale e con quale effetto?
“questo deve essere l’obiettivo della analisi del contenuto (Lasswell)
L’analisi del contenuto riesce a dare una risposta a questo quesito? No.
Possiamo capire alcune cose ma non tutte, la tecnica è incompiuta.

L’analisi del contenuto si sposta dalla politica ai media. Per fare cosa? Raccogliere dati. (Medi
research)

La raccolta dei dati.

La raccolta dei dati ha due strade che possono essere percorse.

La prima strada non smonta i testi bensì li analizza e classifica i dati in una scheda di codifica (un
questionario che noi idealmente sottoponiamo allo spot)

Il secondo modo di raccogliere i dati è o la trascrizione a mano, o la scansione dei dati con OCR, un
tipo di scanner che digitalizza e riconosce i testi.

Le tecniche di analisi del contenuto di questi due percorsi sono fondamentalmente tre:

L’analisi delle frequenze. Quante volte una parola compare in questo testo?

Perché si fa? Per esplorare un testo in maniera rapida e veloce. (analisi del corpus)

Affinamento di categorie di analisi e keyword ( Esempio: word clouds)

Misurare l’attenzione (Esempio google ngram)

Misurare l’attenzione mediatica e letteraria di un determinato tema nel tempo

L’analisi delle contingenze

Ci consente di capire ricorrenze e relazioni tra le parole

Si determina calcolando il Coefficiente del coseno

Se il numero che viene fuori e zero, vuol dire che le due parole non vengono mai messe in
correlazione. Se il numero che viene fuori e 1 allora le parole vengono sempre messe insieme.

Analisi degli assetti valutativi

Si occupa delle frasi. Si smontano i testi in frasi. Si usano le scale dei differenziali semantici. Con
punteggi che vanno da + 3 a – 3

Si prende ogni frase e ci si chiede se in questa frase c’è una valutazione positiva o negativa sul
nostro oggetto di studio.
Se non c’è valutazione il punteggio sarà 0

Se c’è valutazione il punteggio sarà compreso tra -3 e + 3 a seconda se è negativa o positiva.

In seguito si farà una media delle valutazioni positive e negative per capire il giudizio complessivo
che Es: un giornale ha “sul politico” (ad esempio).

Ricerca qualitativa e ricerca quantitativa

Qual è la contrapposizione e la differenza tra le due ricerche?

La distinzione tra queste due metodologie va evitata perché crea molti più problemi di quanti ne
risolve. I due approcci vanno presi insieme.
Perché sono stati separati questi due approcci?

Le origini della separazione:

Esistono due culture: quella scientifica e quella umanistica.

Ma i primi filosofi erano anche matematici (Es: Talete, Pitagora. Lonardo da vinci)

La discrepanza si ha con la rivoluzione scientifica e quella industriale. Che separano il sapere


perché ad un certo punto diventa necessario usare la conoscenza per farne qualcosa di pratico.

Cosa che non faceva Leonardo da vinci. Le sue erano pure manifestazioni di intelletto senza che
fosse necessario produrre il suo elicottero in serie.

Con le rivoluzioni si aprirono due strade: Una degli uomini di intelletto e L’altra degli uomini di
industria.

Quando nasce la sociologia? Alla fine dell 800 ed è prettamente di marco positivista.
Auguste Comte (il fondatore) dice che bisogna utilizzare le scienze esatte per capire la società.

Tuttavia alcuni filosofi tedeschi, in seguito alle manifestazioni positiviste, si opposero affermando
che non si può studiare i fenomeni della società alla stessa maniera in cui si studiano le diete.

Essi affermavano che il metodo delle scienze sociale doveva essere peculiare (proprio della scienza
sociale) “Methodenstreit” fu il nome che questa guerra tra scuole di pensiero ebbe.

Tesi confermata e condivisa poi dal sociologo Max Weber, che si schiera contro i positivisti.

Tutta questa diatriba nasce anche dal fatto che i vari esponenti di opposte fazioni si contendevano le
cattedre universitarie.

L’esperienza

C’è un altro aspetto legato alle varie analisi. Ossia l’esperienza che ognuno ha dei fatti del mondo.

Esistono due parole diverse (che riguardano una l’analisi quantitativa e una quella qualitativa) per
dire “esperienza” nella lingua tedesca:

Erfrarung (prassi, interazione col mondo, aspetti pratici e soggettivi del vivere) - quantità

Erlebnis (Vissuto soggettivo interiore) – qualità

Questa differenza che esiste tra cultura scientifica e umanistica esiste perché esistono queste due
forme di esperienza nel nostro vissuto quotidiano. Questa diatriba tra cultura scientifica e
umanistica si fonda su livelli molto più profondi.

La scienza sociale è una metodologia diabolica perché è una scienza profondamente divisa tra lo
studio della quantità e della qualità.

Ma divisa in che termini? Dove sta la differenza fra quseti due tipi di approcci?
Un primo confronto

Approccio quantitativo

Approccio qualitativo

Si distinguono su questioni generali, su come si fa la raccolta dei dati e in merito all’analisi dei dati.

Questioni generali

I paradigmi sono diversi tra approccio quantitativo (costruttivista) e approccio qualitativo


(positivista)

La raccolta dei dati:

Ricerca qualitativa si fonda su un campione non probabilistico.

Ricerca quantitativa si fonda su un campione probabilistico.

L’organizzazione dei dati:

Approccio qualitativo – Lavoriamo in post-codifica

Approccio quantitativo – Matrice casi per variabili

Analisi dei dati

Qui abbiamo le differenze più forti.

Nell’approccio qualitativo non ci sono variabili


Sull’ approccio quantitativo abbiamo le variabili.

Vi sono dei criteri per decidere quando la ricerca e buona:

Nella ricerca Qualitativa abbiamo:


Criteri non condivisi (Il criterio che adotto per sabilire se una ricerca è buona non è detto che
possa essere condiviso da un mio collega,)

Criteri Locali: magari funzionano in quel determinato contesto, ma non in un altro.

Rivedibili: Cambio un criterio di analisi, perché non più adatto)

Nella ricerca quantitativa i criteri sono:

Condivisi (tutti sono d’accordo)

Assoluti (valgono sempre)


Certi. (non cambiano)

Queste differenze hanno costruito un pregiudizio: Ossia che l’approccio qualitativo è


SCARSO perché non si fonda su criteri assoluti, condivisi e certi.

Nel 1997 esce un libro chiamato la ricerca qualitativa (Di Luca Ridolfi). Ed è uno dei primi tentativi
in italia di rimettere in discussione il dibattito storico.

L’autore premetteva che la faccenda che le due metodologie non dovessero contrapporsi e propone
un nuovo metodo che illustriamo:

Quando guardo alle ricerche sociali distinguo due modi di lavorare:

Da un lato le tecniche che fanno ricorso a procedure formali (Ricerche chiuse e piene di regole).

Da un lato abbiamo tecniche che fanno ricorso a procedure informali (Regole più aperte,
linguaggio meno rigoroso)

Quelli che adottano procedure formali a loro volta si dividono in:

Le tecniche che usano la statistica:

Le tecniche formali che non si avvalgono della statistica

Gli informali si dividono in:

Quelli che garantiscono l’ispezionabilità della base empirica (risalire ai dati originari su cui si è
basato il ricercatore.
E quelli che non garantiscono l’ispezionabilità di questa base.

alla fine si determinano cinque categorie di ricerca:

Ricerca Math: (Inchiesta campionaria – procedure formali matematiche con statistica)

Ricerca LOG e COMP (Ricerca logica e ricerca computazionale “simulazione al pc”) procedure
formali ma non matematiche.

Ricerca DXT (ricerca testuale – informale con base ispezionabile)

Ricerca ETN (Etnografica osservativa – Informale con base non ispezionabile)

Tecniche di ricerca - Due famiglie e un insieme (Marradi)

La ricerca si basa su:


- Esperimento
- Covariazione: siamo dentro il mondo della ricerca e lo scopo è verificare la veridicità dei
fatti.
- Insieme non standard: è un contenitore che contiene tutto ciò che non viene contenuto né
dalla prima né dalla seconda famiglia.
Il compito della ricerca scientifica

La ricerca scientifica deve:


- Produrre asserti o stabilire nessi tra asserti: produce frasi o delle relazioni tra queste
frasi;
- Giustificarli su base empirica;
- Produrre un sapere controllabile, cioè pubblico e riproducibile;
micro vs macro
E’ presente un livello micro e un livello macro sociologico. Si è dato sempre per scontato che
l’approccio micro dovesse essere studiato con approcci qualitativi mentre quella macro con
approcci quantitativi.

Non è così, quello che cerco di dimostrare è che in realtà si può fare ricerca con strumenti sia
qualitativi e quantitativi sia per micro e sia per macro.
Il tempo nella ricerca sociale
La ricerca sociale ha sempre lavorato come se il tempo non esistesse, cosa sbagliata.
Il tempo significa raccogliere dati diacronici che possono essere:
Oggettivi (aggregati a livello territoriale): non significa indiscutibile ma si riferisce ad oggetti
quindi non ci occupiamo di persone. Solitamente sono aree geografiche;
Soggettivi: non sono dati criticabili ma soggetti (persone). Quando i dati guardano le persone
abbiamo diverse situazioni: studi trasversali ripetuti (studi fatti su campioni diversi nel tempo), studi
longitudinali prospettici (somigliano al precedente ma vengono fatti sullo stesso campione) e studi
longitudinali retrospettivi (riguarda sempre le persone ma viene chiesto alle persone di ricordare il
loro passato);
Artificiali: sono prodotti da simulazioni
La “buona” ricerca sociale
Alcune domande fondamentali:
- Quanto sono accurate le mie rappresentazioni della realtà?
- Quanto sono generalizzabili?
- Quanto sono stabili nel tempo?
- In che misura possono essere riprodotte?
Tutte queste domande hanno a che fare con la Validità e attendibilità
Validità
Definizione: è il giudizio circa il grado di rappresentanza semantica fra il mondo reale e le
risultanze empiriche della ricerca.
Spiegazione: La rappresentanza semantica significa che c’è una corrispondenza tra mondo reale e
quello che è stato trovato.
È in grado con quale una certa procedura di traduzione di un concetto in variabile effettivamente
rileva il concetto che si intende rilevare. Spiegazione: se io ho costruito una scala di religiosità la
domanda che mi pongo: ma davvero la scala misura la religiosità?
Attendibilità
Segnala il grado con il quale una certa procedura di traduzione di un concetto in variabile produce
gli stessi risultati in prove ripetute con lo spesso strumento di rilevazione (stabilità) oppure con
strumenti equivalenti (equivalenza).
Può riguardare: il momento della somministrazione (test-retest), lo strumento (parallel forms, split-
half), coerenza interna), il rapporto giudice/osservatore/codificatore (intercoding).
Il contributo dell’approccio “qualitativo”
Alcune premesse comuni:
- Contiguità soggetto-oggetto (soggetto conoscente e oggetto conosciuto non sono separati)
- Ruolo attivo e coinvolgimento dei soggetti studiati;
- Riconoscimento di una realtà molteplice nel tempo e nello spazio
- Responsabilità del ricercatore
- Esplicitazione di criteri (anche nella raccolta e organizzazione dei dati) e punti di vista
- Rifiuto dell’aneddotismo
- Ispezionabilità della base empirica

Triangolazione

L' idea di poter mettere assieme tecniche qualitative e quantitative.


Per raggiungere questo obiettivo si prova ad utilizzare strumenti quali-quantitativi.

Come?

– Costruendo un insieme di casi attraverso una cluster analysis (analisi dei gruppi) e poi
entrando dentro i gruppi per vedere i casi.
– Codifica automatica dei testi tramite computer

Come si clusterizza un campione?

Si utilizza un software, in questo caso Statistica.


Il file che viene caricato è una matrice CxV, i casi e le variabili sono numerate e sono risposte
chiuse. Accanto le variabili metteremo gli stessi valori normalizzati ovvero un valore compreso tra
0 e 1 confrontabile con gli altri risultati (con questi numeri noi lavoreremo).

Elaborando, si otterrà un report con tutte le informazioni.


Nella sezione “Graph of medie” avremo dei grafici sulle nostre 5 variabili in base al numero di
cluster, per distinguere le categorie di cluster dobbiamo distinguerli tramite nomi in base alle
caratteristiche.

Esempio (su ricerca Signore degli Anelli):


Due cluster

Illustrazione 1: Rossi: Fan (Valori più alti del blu) Blu: Occassionali

Tre cluster

Illustrazione 2: Rossi: Fan Cinefili - Blu: Fan sia di Libro e Film - Verdi: Occassionali
Quattro cluster

Illustrazione 3: Rossi: Fan Delusi - Blu: Critici lettori (leggono ma criticano il film) - Verdi: Fan
Entusiasti - Viola: Spettatori di Massa

Questo è uno degli strumenti più potenti, messi a disposizione agli studiosi metodologici, si possono
costruire tipi ideali presenti e provare a prevenire atteggiamenti futuri.

Centroide

Le fotografie degli spettatori corrispondono alle linee, tuttavia i pallini sono media di determinati
cluster, questo vuol dire che qualcuno dei valori sarà più alto o più basso rispetto alla media. La
figura che si va a determinare è un centroide, una linea fatta da tanti centri in base al numero di
variabili.

Ci possono essere delle persone lontane dal giudizio (e che potrebbero in teoria stare in un altro
gruppo) e persone che sono rappresentative del caso.

Attraverso la funzione del programma “Member of each cluster and ...” , il programma calcola, in
base al caso, la distanza di ognuno rispetto al proprio centro del cluster di riferimento.

Analizzando le risposte aperte date dai più vicini a un determinato cluster, troverò affermazioni
tipiche del gruppo di riferimento.
L' Analisi delle corrispondenze lessicali

E' una tecnica che effettua una analisi computerizzata per capire il senso ultimo delle cose scritte.

L' analisi del contenuto parte da un presupposto: più una parola ricorre nel testo, più è importante.

L' analisi delle corrispondenze lessicali ha un presupposto differente: è più importante capire se le
parole sono specifiche per un determinato tipo di persone (Approccio sulle differenze: chi usa
determinate parole?).

E' necessario preparare il testo (scritto) inserendolo in una matrice “Lemmi x Testi”

Lemmi= Intende la forma canonica di una parola (quella che troviamo scritta nel dizionario).

Es: Dare, subire, etc..

Prendiamo tutte le parole e mettiamole in una matrice, i lemmi nei casi, e nelle variabili i testi che
analizzeremo.

Di solito i pc fanno in automatico la matrice e la lemmitizzazione.


Quando analizziamo la tabella lemmi per teti possiamo ottenere due tipi di output (risultati)

Primo Output- Autovalori e Inerzia

Il Computer produce anche delle tabelle in cui si trovano:

I fattori (in questo caso ha trovato 6 dimensioni di senso nascoste/livelli di significato).


Gli autovalori (quanto è importante/potente rispetto agli altri, li mette già in ordine)
le percentuali (autovalore/ autovalore totale) e le cumulate.

Secondo Output – Diagramma Spazio-Fattoriale


E' un sistema di assi cartesiani dove ogni puntino corrisponde a una parola. le parole che sono più
vicino all'origine degli assi non ci interessano mentre quelle più lontano sono quelle che ci
interessano poiché rappresentano gli estremi che ci permettono di determinare le varie categorie di
persone.
Notiamo infatti che da una parte all' altra si formano gruppi di parole opposte, “ad esempio noioso o
divertente”.

Nel caso del nostro diagramma abbiamo trovato questo:

Nel diagramma ci sono anche triangolini con punta in su, queste sono Variabili Attive (Variabili
per accorpare i testi) e triangolini con punta in giù queste sono Variabili Illustrative (ovvero
variabili che diventeranno tali in un secondo momento) queste sono le modalità delle variabili.

Es: Se i maschi si trovano in un quadrante con noia e tecnica, allora la maggior parte dei maschi
avranno parlato più di questi due aspetti- Più sono lontani dal centro, più sono utili.

Per ordinarli possiamo clusterizzare le parole tramite la tecnica delle “tipologie di contesti
elementari” (tecnica che fa cluster di parole prodotte dall' analisi di corrispondenze lessicali)
Clu_1 : Passaggio dal libro al film Clu_2: Piacere/Divertimento

Clu_3 : Emozioni Clu_4:

L’analisi quantitativa computer assistita


Computer assistent qualitating data software QAQDAS

Cos’è?

Un modo di analizzare i dati statistici attraverso i programmi di statistica.

Quando parliamo di software bisogna considerare che nel tempo i software si sono evoluti. La storia
dei software risale agli anni 80.

Classifichiamo questi software in generazioni. Li distinguiamo in 3 generazioni.

I primi furono quelli che codificavano e recuperavano informazioni (code an retrieve)


Si prendeva un testo scritto, si sottolineavano le parti interessanti e quelle parti venivano ordinate e
classificate

La seconda generazione fu quella dei software costruttori di teorie basate sulla codifica (code
based theory builders) Questi software funzionavano per immagini e addirittura permettevano la
creazione di mappe concettuali.

La terza generazione e quella dei Text retriever, tex based manager Questi programmi
gestiscono in modo quali quantitativo una grande mole di dati oltre a fare tutte le operazioni delle
versioni precedenti.

A cosa servono i software?

Ad immagazzinare e registrare tutto il materiale empirico di qualsiasi formato.

A codificare i dati (codifica e post/codifica) La codifica può essere euristica o tematica (serve
semplicemente a codificare un testo per argomenti o temi) quella fattuale (è una codifica che
esprime una valutazione o un giudizio).

Possiamo fare il recupero dei dati e la creazione di collegamenti ipertestuali

Possiamo fare diversi tipi di analisi

Possiamo integrare dati fra di loro eterogenei (integrare i materiali raccolti con fonti esterne come
link o mappe di google maps)

Visualizzazione dei dati.

Sviluppo e validazione delle teorie.

Crieteri per scegliere un software statistico

Come si sceglie?

Un primo criterio è quello della diffusione del programma, se un software è molto diffuso allora è
buono.
Il secondo criterio è quello che più un software è diffuso maggiori saranno le possibilità che io
possa chiedere aiuto ad altri nel momento in cui avrò difficolta di utilizzo del software.

Un successivo criterio è quello di coerenza con obiettivi e dati (ci sono software che non lavorano
bene con i video. Se avete fatto video per la vostra ricerca sicuramente scarterete questi software)

Altro criterio è quello della struttura e complessità della ricerca (ci sono software più orientati alla
conferma è altri all’esplorazione )

Parametri di un Caqdas

Bisogna osservare:

Dati tecnici (sistema operativo, lingua o prezzo) spesso questi software sono in abbonamento e in
lingua

Formato dati accettato e multimedialità (i formati con cui lavora il software)

Ergonomia (Comodità di lavoro) con questi software si lavora molte ore, è importante che siano
comodi.

Performance: Quanto è veloce il software ad elaborare i dati? Il software è ottimizzato?

Tipi di codifica (Il software ci consente di lavorare su euristica o su fattuale?)

Modalità di ricerca.

Creazione di diagrammi e grafici (il grafico che ci consente creare il software è un grafico
chiaro?)
Funzioni statistiche ( ci sono software che permettono di lavorare con matrici di casi per variabili)

Il programma statistico Atlas TI

Nasce nel 1984 in tedesco da thomas moore. SI è sempre ispirato a queste quattro vatiabili
(Visualizzazione, Integrazione, esplorazione, Serendipità – che è una caratteristica della scienza per
la quale noi troviamo cose interessanti senza cercarle Es: Scoperta della pennicillina - )

Spiegazione delle funzionalità di atlas T


disponibile online la versione trial

Bilancio metodologico

Quali sono i vantaggi nell’utilizzo di software statistici?

Velocità di manipolazione di una grande mole di dati, lasciando libero il ricercatore di esplorare
svariate questioni analitiche.

Abbiamo, grazie ai software, anche rigore e coerenza trasparenza e generalità nell’affrontare la


ricerca.

Agevolano la ricerca di gruppo. Il progetto può essere messo in rete e molti ricercatori vi possono
partecipare.

Garantiscono aiuto per le decisioni di campionamento.

Svantaggi di utilizzo:

Alcuni programmi non sono molto diversi dai worl processer (Programmi di videoscrittura, anche
word stesso o excel)

Rischio di imporre una determinata “filosofia” di ricerca da parte dei programmatori del software.

Rischio di eccessivo tecnicismo (bellezza di un grafico ma assenza di contenuti)

Sono di poco aiuto nel caso di testi brevi


Difficoltà nel caso di analisi diacroniche.

FINE DEL SECONDO LIBRO


INIZIO DEL TERZO

Social network analysis.

Tecnica molto vecchia. Che nasce quando nasce la sociologia.


Questa tecnica è stata dimenticata per molto tempo ed è stata recuperata solo alcuni anni fa grazie
allo sviluppo di internet.

Nel tempo è aumentata l’espressione social network nel ambito delle ricerche scientifiche.
Il momento prima del 1995 segna la vecchia social network analisys, dopo il 1995 segna la NUOVA
SOCIAL NETWORK ANALISYS

La SNA tradizionale

Nasce con Simmel nei primi ‘900 che analizzava piccoli gruppi e le cerchie in particolar modo.
Per simmel noi siamo le persone che frequentiamo. Quando frequentiamo le persone che
conosciamo tendiamo a stare con persone che sono simili a noi. (Omofilia) Quando scegliamo gli
amici scegliamo sepre persone che ci assomigliano.

Contemporaneamente, a trent’anni dalle sue ricerche, in più parti del mondo, studiosi di varia
estrazione cominciano a riprendere gli studi di simmel. Negi anni trenta succede che tre scuole si
approcciano al suo sistema

La prima scuola è quella della sociometria che si rifà all’approccio sviluppato dalla branca della
filosofia della Gestalt “forma”

La loro forma di pensiero era: quando noi abbiamo una percezione del mondo la nostra percezione è
più globale che locale, questa roba qui si riflette anche nel rapporto con gli altri. La gestalt dice che
io sto bene o sto male a seconda di quelle che sono le mie amicizie.

Questi esponenti della scuola sociometrica partono dal presupposto che il tutto è più importante
della parte.

Questi signori sono ebrei e dalla germania scapparon durante le persecuzioni naziste.

Questi signori sono:

Lewin (che parla di un campo sociale che è qualcosa che ci circonda solo quando noi siamo in
relazione o in società con altri )

Heider (incomincia le sue riflessioni dall’idea di equilibrio cognitivo – una serie di forze che
lavorano per tenerci in equilibrio psicologicamente – eg si accorge che la questione non si può
limitare a ciò che avviene dentro le persone, bensì la cosa debba essere estesa ad un equilibrio
strutturale, che è quello strutturale. Per stare bene anche la società che mi circonda deve stare bene)

Moreno: (inventore del sociogramma - che è una rappresentazione grafica in cui noi teniamo conto
delle persone e delle relazioni che esistono tra le persone. Nel sociogramma le persone vengono
rappresentate da pallini che noi chiamiamo nodi. Tra questi pallini rappresentiamo le relazioni che
legano le persone.

Tra i soggetti vi si instaurano delle relazioni, che possono essere più o meno forti a seconda del
tratteggio o dello spessore.
tra stefania e franco vi è una relazione forte solo per stefania, la relazione è asimmetrica.
Se franco cerca sempre mimmo ma la loro relazione non è fortissima la linea sarà stretta ma con una
freccia a favore di mimmo.

Con un colore diverso (blu) abbiamo evidenziato invece un rapporto di lavoro tra i soggetti.

La seconda scuola:
Contemporaneamente il nostro Simmel viene studiato negli stati uniti, precisamente ad Harvard.

Qui si studiano le cricche, che sono sempre gruppi, ma isolati (es: I fan di un cantante, una banda
criminale, etc..) Alla scuola di Harvard studiano la pluriappartenenza a più gruppi o cricche)

La scuola studia i gruppi e le cerchie in modo molto quantitativo, attraverso la matematica dei grafi.

Altro argomento che interessa loro è la vità di fabbrica (In quegli anni si sviluppava la ford) Lo
studioso Elton Mayo scopre che nella fabbrica esistono relazioni formali e informali. Può anche
accadere che persone che abbiano mansioni superiori lascino i loro compiti a gente che abbia
mansioni inferiori.

Altro studio fu la vita di comunità attraverso lo studio dei piccoli centri.

George Homans negli anni quaranta mette insieme le due scuole e farà nascere la terza
scuola.

Negli anni 40, Homans prova a riunire le prime due tradizioni.


Homans si occupò delle interazioni tra le persone e riprende il sociogramma di Moreno per creare
la riorganizzazione matriciale.

Rispondo alla domanda: Si può trasformare un sociogramma in una matrice?

Si, attraverso la tabella sociomatrice o matrice di adiacenza

Se ha un legame: 1
Se non ha un legame: 0
Terza scuola- Università di Manchester

Degli antropologi recuperano il pensiero di Simmel e lo applicano in maniera qualitativa.


Si occupano:

Proprietà strutturali della rete (come è fatta la rete nel suo complesso, in maniera macro) --->
Densità (quante linee), connettività (se tutte le persone sono connesse).

Conflitto e potere ---> Si occupano della questione fondamentale del potere e del conflitto negli
anni 30.

Negli anni 60', il sociologo Harrison White dell' Università di Harvard, riprende la tradizione della
seconda scuola e fa diventare la SNA una tecnica matematica prendendo come base la teoria dei
grafi.
Negli anni 80' (Precisamente nel 88'), viene pubblicato un manuale di Social Network Analysis
scritto da Wellman, istituzionalizzando (diventa una materia insegnata all' università) la SNA.

La social network analysis tradizionale si ferma in questi anni poiché nel 94-95 nasce la nuova
SNA.

La prospettiva di rete

Attenzione alla relazione sociale (unità di analisi della SNA sono le relazioni tra persone)

Le relazioni tra gli individui spiegano meglio degli attributi (caratteristiche), secondo la SNA io
sono io perché frequento determinate cerchie, è un approccio rivoluzionario perché si considerano
le persone non come dati anagrafici ma per le loro relazioni.

Gli individui sono influenzati da reticoli sociali e viceversa, siamo influenzati da determinate
cerchie di persona ma allo stesso tempo noi influenziamo la stessa cerchia (Influencer e Utenza).

I reticoli sociali mutano continuamente, le reti in cui siamo dentro cambiano.

Questi concetti spiegano moltissimo i Social Network.

Alcuni problemi:

• Il rigido strutturalismo (modo di guardare il mondo secondo il quale è la società ce influenza


noi ma non cambiamo (o troppo poco) la stessa società).

• La matematica e il formalismo

E' troppo formale e troppo matematico.

• L' indisponibilità di dati relazionali

Ma io dove le trovo le relazioni tra le persone?

• La Mancanza di strumenti statistici adatti


La statistica classica non aveva modi di lavorare alle relazioni

• La difficoltà nel visualizzare reti vaste e complesse

Come faccio a visualizzare tutte le relazioni?

• La staticità delle analisi

Sono analisi statiche, non ci consentono di studiare la rete che cambia continuamente.

L' attualità della SNA

Nel 94-95:

Torna attuale l’Eclettismo epistemologico e metodologico

La network analysis non è ne qualitativa ne quantitativa, quindi viene ripresa la SNA (tecnica Quali-
Quantitativa).

La SNAha Grandi potenzialità teoriche (es. capitale sociale e solidarietà)

Questa tecnica si presta a studiare concetti di moda negli anni 90 come il capitale sociale e la
solidarietà.

La SNA incarna la metafora della rete e la sua duttilità

La SNA assicura una Disponibilità di dati

A partire dal 1985, negli USA, vengono inserite delle domande sulle relazioni tra le persone del
censimento (General Social Survey).

Nascono Software user-friendly

Si cominciano a programmare i primi software per la matematica e per la network analysis.

La social network analysis e la teoria sociale contemporanea

La Social network analysis

La teoria sociale contemporanea incomincia a caratterizzarsi per la post-disciplinarità (utilizzare


diverse discipline con la sociologia).

Dalla Teoria dei sistemi si passa alla Post-disciplinarità

Sociologia dei sistemi complessi: la questione è più complessa quindi c'è bisogno di grafici e
sistemi complessi (ciò che viene dall' interazione di cose semplici, ad es. le singole persone formano
con le relazioni: coppie, gruppi, parlamenti, chiese, ect.). Con la modernità abbiamo sempre più
interagito con gli altri, per questo la società è sempre più complessa).
Sociologia analitica (Coleman, Hedstom, Goldthorpe)
Una rete possiamo guardarlo sia nella sua dimensione macro (tutta la rete) o micro (gli individui
nella rete).

Sociologia relazionale (Donati)

In sostanza è una nuova opportunità per la sociologia.

Complex Social Network Analysis (CSNA)

Si può dividere in due grandi filoni di ricerca:

Nuova scienza di Rete:

-Ridefinisce la SNA alla luce delle scoperte e innovazioni negli ultimi anni (es. computer potenti):

• Interdisciplinarità

• Attenzione alle reti vaste e complesse

• Da delle soluzioni ai problemi rimasti aperti nella vecchia SNA.

La Global Network Society:

• Studia l' avvento della Globalizzazione, che determina un aumento della complessità
sistematica delle reti sociali.

Alcuni autori hanno contribuito a dare delle idee:

• Wallerstein: Usa gli strumenti della teoria della complessità per definire il sistema-mondo.

• Castells: studia l'impatto della tecnologia nella società, NTI, Network Society, solleva alcuni
problemi (Digital Divide).

• Urry : Utilizza le scienza della complessità, sostiene l'idea del post-disciplinarità e la


mobilità nelle reti sociali.

SNA- Dalla teoria alla pratica (Secondo Capitolo)

Raccogliere i dati relazionali

Come si raccolgono i dati?

Bisogna definire i confini della rete (dove comincia e dove finisce la rete, e non ci limitiamo diventa
troppo complesso definire la relazione).

Strategia realista (name generators)

Consiste nel farci dare i nomi dei nostri intervistati (a sua volta contatteremo i nomi dati)
Strategia posizionale (attributi, posizioni)

Serve per rintracciare una persona attraverso attributi (ad es. essere fan di...) e posizioni (es. tutte le
prime 100 banche al mondo).

Strategia relazionale (Snowballing)

E' una strategia a valanga, a 20 persone si chiede la relazione con altre persone in una lista.

Strategia basata su eventi

Chiediamo se hanno partecipato a determinati eventi (o anche prodotti acquistati). Può essere utile
per costruire una strategia di Marketing.

Quante unità di analisi?

Prendiamo tutti i confini o facciamo un campione? (Se faccio un campione ma sto considerando le
relazioni potrei costruire un campione differente dalla realtà).
Non si campiona un analisi, non risolve il problema, generalmente si prendono tutte le unità di
analisi.

Quali attributi?

Quelli più importanti e rilevanti nella ricerca.

Raccogliere i dati relazionali

Cosa mi interessa sapere dei dati relazionali?

Ci interessano soprattutto i Contenuti relazionali.

In che modo sono legati i dati relazionali?

Bisogna costruire tante matrici quante sono le relazioni (es. linee verde per le amicizie e linea gialla
per rapporti di colleganza).

Proprietà delle relazioni

Verso : Direzione della relazione

Segno : + o -, la relazione è positiva o negativa

Peso : quanto è importante la relazione

• Dove raccogliere i dati relazionali?

Testi e documenti, Osservazione, Domande, Internet

Organizzare i dati relazionali


Per organizzare i dati utilizziamo una Matrice di adiacenza (sociomatrice)

Una matrice di adiacenza può essere:

Orientata o Non Orientata

questo perché le relazioni tra persone possono avere un verso.

Quando vogliamo considerare flussi in due relazioni la chiameremo matrice orientata.

Es: Franco cerca Ciccio ma Ciccio non cerca Franco.


La matrice è orientata (ma anche asimmetrica). La matrice è simmetrica (non- orientata) se le due
metà della matrice sono uguali (questo può accadere nel caso dei legami, ad es., di parentela).

Binaria o Pesata

Pesiamo la

relazione tra
due
individui
(es. da 0 a
100),
parliamo di
binaria
quando

utilizziamo valori binari (0 e 1).


Ci consentono di avere un informazione più sofisticata e fanno si che la rete sia pesata, ovvero che
pensiamo la relazione.
Si utilizza, ad esempio per i focus group.

Es. Franco chiama Ciccio 10 volte mentre viceversa 2.


Segnata/Non segnata
Usiamo i segni + e – per stabilire relazioni positive o negativa, possiamo anche realizzare matrici
segnate e pesate (+3)

Ego-rete

Parliamo della rete di una persona per vedere il giro di amicizie.

Nell' esempio partiamo dalla rete di Tizio

Matrice di affiliazione (two-side)

La matrice diventa rettangolare (il numero tra righe e di colonne non corrispondono), si utilizza per
analizzare i casi in relazione a prodotti fisici o mediali.
Es. Persone in relazione a marche di scarpe acquistate

Franco, Ciccio e Enzo sono clienti simili, quindi potrebbero essere interessati alla stessa cosa.
In alcuni casi, pur non essendo inclusa nel SNA, possiamo usare la Matrice CXV.

L' analisi di rete: la base

Far analisi di rete significa dover disegnare il sociogramma.

Il Sociogramma (Elementi, criteri, dimensione della rete).

Con quale criterio dispongo le palline nello spazio? Se la rete è grande, come faccio a rappresentare
tuti i nodi nello schermo del computer?

Le statistiche dell' intera rete:

Densità (M.(Maglia) Stretta, M. Media, M.Larga)

E' riferito al numero dei collagamenti (link) tra i nodi, più collagamenti sono visibili, maggiore sarà
la densità.

La densità la calcola il Computer ed è un numero compreso tra 0 e 1.


Viene calcolata: Numero di Link Visibili/ Numero di Link Possibili.

Un sociogramma senza link avrà densità 0 mentre un sociogramma con il numero massimo di link
possibili avrà densità 1.

Esistono tre tipi di reti in base alla densità:

Maglia Larga (da 0 a 0,4)


Maglia Media (da 0,4 a 0,6)
Maglia Stretta (da 0,6 a 1)

Coesione basata sulla distanza

Quanto è lontano Antonio con Stefania? Misuriamo la distanza attraverso i numeri di link tra uno e
l'altro.
Nell' esempio Antonio con Stefania dista un link mentre Antonio con Giovanni distano 2 link.

In questo altro esempio, abbiamo due distanze tra Antonio e Stefania (una di 2 e una di 3).
La distanza che prendiamo in considerazione è quella minore che è definita Geodetica.

Possiamo misurare nella rete:

Media delle distanze geodetiche

Misura la coesione nella rete. Se la media è bassa è molto coesa, se è alta non è molto coesa.

Compattezza e Frammentazione (% di coppie non raggiungibili).

Sono numeri che si misurano tra 0 e 1 e sono inversamente proporzionali (se uno aumenta, l'altro
diminuisce e la loro somma darà sempre 1).
Un valore alto di compattezza sta a significare una rete compatta, se è alta la frammentazione
avremo una rete molto divisa.

Una rete di Big Data è sempre a maglia larga e il diametro della rete è uguale alla geodetica più
lunga.

Centralità e Potere

Il potere nell' analisi dei dati di rete si traduce nel concetto di centralità ovvero quando un nodo ha
un sacco di connessioni.

Misurazione del grado di un nodo – Degree (grado di connessione di n nodo)

Il numero di connessioni che questo nodo ha (es. Ciccio ha due legami (grado = 2).

Tanto è più potente, tante più amicizie ha. Però i legami possono essere in entrata o in uscita
ovvero.

In-degree (quante persone mi cercano) e Out-degree (quante persone posso attirare).

L' In-degree misura il prestigio sociale


l'out-degree misura l'influenza sociale.
Per misurare il potere di un influencer bisogna vedere i due valori.

Bonacich

Misuriamo il Degree pensando al contributo dei miei amici


(se avrò - meno amici ma + potenti, avrò una possibilità maggiore di raggiungere più persone).
Questo degree viene definito Degree di Bonacich.

Con il Degree posso cercare e selezionate gli influencer a cui mandare i miei prodotti.

Closeness (Vicinanza – raggiungibilità)

In-Closeness (Quanto è facile per gli altri raggiungere me?)


Out-Closeness (Quanto è facile per me raggiungere gli altri?)

Eigenvector (Che è utilizzato anche per l' algoritmo di Google).


E' equivalente dell' incide di Bonacich ma per la vicinanza.

Betweeness (Stare in mezzo)

Avere forza e potere, significa stare in mezzo alle coppie di nodi, la potenza dipende dal fatto che,
per parlare a un’altra persona, bisogna passare da queste persone.

Centralizzazione

Rispetto agli altri, è una misura che riguarda l'intera rete e c'è n'è per ogni misura.
CTZ: Centralizzazione

E' un numero che va da 0 a 100 e ci dice quanto è squilibrato il potere.


Più alto è, più è squilibrato (Es. 1 persona con molta betweeness e 100 con pochissima betweeness).

Il potere.

Nell’analisi della rete il potere viene determinato come centralità del potere.

Le misure del potere sono il grado, l’awareness, la betweeness.

L’analisi di rete: Sottogruppi

Per individuare i sottogruppi si utilizza la cluster analysis.

I gruppi si possono rintracciare o con un approccio bottom up o con un approccio top down.

Procedura bottom Up:

Ci propone alcuni algoritmi che ci consentono di rintracciare gruppi:

Clique - Ogni nodo è collegato agli altri in maniera omogenea e tutti hanno legami con tutti.
All’interno della “rete c’è una rete più stretta che agisce da sottogruppo.

N - Clique - Rete in cui uno dei nodi non ha rapporti con tutti gli altri ma solo con alcuni. Anche se
qualcuno non ha legami con tutti gli altri deve comunque avere legami indiretti. Ovvero arriva agli
altri membri passando per le relazioni che già ha, tuttavia questi legami devono essere determinati.
(ES: due clique / due passaggi) per arrivare a qualunque altro membro.

N – Clan – Nell’aspetto è simile alla N clique, tuttavia nel’ N - Clan il membro esterno fa parte del
gruppo (Esempio: una comitiva di persone in cui X e Y hanno relazioni solamente indirette. E
hanno relazioni solo tramite Z quella comitiva è un N-Clan. Se X e Y hanno relazioni tramite una
persona G che però sta al di fuori della comitiva allora quello sarà u n N Clique.

L’N clan è un caso particolare dell’ N clique.

Queste due variabili sono fondamentali per lo studio bottom up delle reti.

Approccio top down:

Nell’approccio top down il ricercatore va a scovare quei legami (Bridge) che se fossero tolti
creerebbero un danno enorme distruggendo la rete.

Anche qui si utilizzano diversi algoritmi per determinare i legami importanti.

Lambda set è uno di questi algoritmi che determina una gerarchia di importanza tra i legami degli
appartenenti alla rete. Il più importante sarà posizionato in alto nella tabella e sotto ci saranno tutti
gli altri.

Negli ultimi anni si è determinato un terzo approccio chiamato:

approccio delle strutture comunitarie.

Fa una cluster analysis molto più rapidamente e consente di individuare delle comunità vere è
proprie sulla base di caratteristiche razionali.

L’analisi di rete: i ruoli sociali

Il ruolo in sociologia è un aspettativa di comportamento.

Questa cosa è importante nell’analisi di rete. E’ più importante catalogare le persone nelle reti a
seconda dei ruoli sociali, tuttavia è molto difficile lavorrci.

I sociologi viene affrontano il problema dei ruoli attraverso l’equivalenza reazionale. Ovvero tutti
quelli che hanno lo stesso tipo di relazione con gli altri sono equivalenti ed avranno lo stesso ruolo.

Tutti i padri avranno mogli e figli.

Nella matrice di adiacenza questi ruoli vengono determinati nella somiglianza delle righe di
ciascuno. Se le righe sono uguali queste caratteristiche allora questi avranno lo stesso ruolo.

Tuttavia è molto raro trovare due figure uguali.

Il concetto di equivalenza viene sostituito dai sociologi con la somiglianza strutturale

Ci sono tre diversi modi di concepire la somiglianza strutturale.


Il primo è, per l’appunto L’equivalenza strutturale (Persone con relazioni uguali hanno lo stesso
ruolo)

Poi abbiamo:

L’equivalenza automorfica ( Due persone sono equivalenti se hanno lo stesso numero di relazioni
con altri nodi della rete, somiglianza nella forma ma non nella sostanza in quanto le persone con cui
intratterranno relazioni non saranno le stesse.)

Equivalenza regolare: (Situazione in cui abbiamo una somiglianza perché le persone hanno lo
stesso tipo di relazione con o stesso tipo di persone) Tutti gli studenti sono equivalenti regolari
perché accomunati dalla relazione tipica con i professori.

Tre modi di individuale i ruoli:

Matriciale: Si lavora con la matrice e si scovano le somiglianze dentro quella.

A bloccchi: dentro la matrice si cercano dei pezzi che abbiano delle somiglianze dal punto di vista
dei numeri

Grafico: Proiettare i modi su un sistema di assi cartesiani e si trovano le somiglianze.

Le reti egocentrate

Approccio micro alla SNA

I miei amici sono anche amici fra loro?

Lo chiediamo al diretto interessato, in questo caso ego.

Il problema di queste reti è che sono spesso in complete perché le informazioni che abbiamo sul
vicinato di ego le otteniamo da ego stesso, tuttavia ego potrebbe non sapere quali relazioni hanno i
suoi vicini.

Tuttavia queste informazioni sono molto facili da ottenere.

Ci sono una sere di misure di base nell’analisi delle reti egocentrate che sono le stesse incontrate in
passato. (Si parla di densità, di centralità etc…)

Due nuove misure di analisi sono state prodotte in questi ultimi anni:

Buchi strutturati: Se manca un legame all’interno di una rete , si parlerà di buco strutturato. In
quanto il nodo che metterà in contatto i due punti (ego) tra cui manca la relazione avrà più potere.

La presenza di buchi all’interno della rete crea situazioni di asimmetria.

Una seconda misura che viene presa si riferisce ai vincoli diadici (Una situazione in cui avrò meno
vincoli determinerà il mio maggiore potere)

Misure specifiche (cosa succede ad ego se uno dei buchi viene colmato?)
Brokeraggio: Se un tizio si trova al centro di un sentiero, può avere un ruolo di coordinatore, di
gatekeeeper , rappresentante, consulente. (Ego può coordinare una rete o può dare consigli
dall’esterno, può filtrare o comunicare informazioni dall’esterno verso l’interno o viceversa, può
rappresentare qualcuno dall’interno per comunicare a qualcuno di esterno).

Le reti bimodali

Le reti bimodali partono dalle matrici di affiliazione. Qual è la filosofia che sta dietro alle reti
bimodali? Si porova a mettere insieme micro e macro. Esistono le persone e le strutture presso il
quale interagiscono.

Si utlizza il grafo bipartito. ES: Uno schema che collega ciascun individuo ad una propria
caratteristica di appartenenza o ad un comportamento:

ES: Uccelli e piante di cui si cibano.

Sulla base di questo si vengono a creare delle reti fra gli animali che si nutrono delle stesse piante,
quindi si può costruire il gruppo degli animaletti che si cibano della stessa pianta.

Tutto ciò serve per sopperire ad una mancanza di dati. Se non conosco le persone costruisco le
relazioni tra le persone in base a quello che le persone consumano.

L’idea di base è collegare persone e strutture dentro il quale agiscono.

I dati sono più facili da ottenere.

Cosa si fa sulle reti bimodali? Si distinguono chiaramente le reti delle piante e degli animali e si
definiscono delle reti a parte.

Densità e centralità sono espresse come tasso di partecipazione (Matrice degli attori) e dimensione
dell’evento (matrice degli eventi).

Se ciccio e franco sono appassionati di modellismo e comprano trenini. Ciccio e franco non si
conoscono ma li metto dentro la stessa rete perché comprano sempre trenini.
Allo stesso modo posso costruire una rete di quanti hanno comprato uno specifico modello di
trenino rispetto ad un altro.

I limiti della Sna tradizionale (breve riassunto)

Perché non ha funzionato?

Perché si è basata su eccessivo strutturalismo.

Perché è stata troppo quantitativa.

Perché non è possibile fare campionamento.

Le analisi sono sempre state statiche.

Non abbiamo strumenti per l’analisi di reti gigantesche.


Nuovi sviluppi della SNA

• Nuovi strumenti statistici

• Possibilità di stimare modelli dinamici (SIENA)

• Capacità di analizzare reti vaste e complesse.

Reti vaste e complesse

Partiamo da una costatazione dicendo che la rete è composta da un numero enorme di nodi, la
conseguenza di questa quantità di nodi è la complessità solamente apparente della rete.
Queste reti complesse si trovano ovunque, cioè la complessità che si viene a creare dai nodi può
dare forme simili tra i nodi.

• Caratteristiche comune di alcune rete;


• Prospettiva interdisciplinare (scienza della complessità = si occupano di qualsiasi
complessità (chimica, fisica, etc..);
• Strumenti di analisi nuovi.

Analizzare le reti complesse

Gli obiettivi che si prefissano sono:

• Topologia (Struttura sostanziale e invariate)


◦ Invarianza di scala
◦ grafici di distribuzione del degree

Le reti complesse hanno una struttura particolare, nonché un' invarianza di scala.

• Clustering coefficient (quanto gli amici di ego sono amici tra loro?)
Si calcola perché ci permette di capire se la rete è complessa o no e deve essere dentro un certo
range.
• Assortività = C'è un mettersi insieme delle persone simili che hanno le stesse
caratteristiche / Disassortitivà = Non stanno necessariamente insieme(omofilia).
• Struttura comunitaria (Componenti).

Queste tre caratteristiche devono essere tenute in considerazione proprio per capire se la rete è
complessa oppure no.

Due caratteristiche delle reti complesse

1. Invarianza di scala
2. Struttura small-world

Invarianza di scale

• Grafico di distribuzione log-log (Y=xmega)


Struttura Small-World

• Il diametro di una rete sociale è ridotto (Milgram) => Six degree of seperation

• Non è il numero dei nodi a creare complessità, ma il modo in cui sono connessi (casualità,
clustering, weak ties).

Regular ==> Strong ties

Small-World ===> Weak Ties

Tipi di Rete Small-World


• Reti egualitarie (Watts-Strogatz, Kleinberg)
◦ senza power law (Invarianza di scala)

• Reti aristocratiche (Barabasi- Albert)


◦ Hub (Il modo in cui hanno tanti legami);
◦ Struttura Jellyfish con componenti giganti (Struttura a Medusa)
◦ Meccanismi di preferential attachement
▪ power law (invarianza di scala)
▪ resilienza e vantaggi evolutivi
▪ Percolazione (effetti emergenti)
Elementi di Metodologia
Capitolo 1
Conoscenza scientifica e conoscenza sociologica
La Conoscenza scientifica si può paragonare a un palazzo di 3 piani:
- piano epistemologico: Si occupa della conoscenza ed in particolare della conoscenza
sociologica, in quanto un problema delle scienze sociali, è il fatto che soggetto conoscente e
oggetto conosciuto sono la stessa cosa, poiché nelle scienze sociali gli oggetti di studio sono le
persone.
- piano teorico interpretativo: Qua ci si spiega come il mondo fisico o sociale funzioni. Attraverso
una teoria è possibile spiegare ciò: Una teoria è un insieme di proposizioni organicamente
connesse che si pongono ad un elevato livello di astrazione e generalizzazione rispetto alla realtà
empirica.
Le teorie si appoggiano su fatti empirici, dove alla fine possiamo formulare delle ipotesi.
Un'ipotesi è una proposizione che indica una relazione fra uno o più oggetti che si colloca ad un
piano inferiore rispetto alla teoria. Hanno un carattere meno astratto e proprio per questo possono
essere controllate empiricamente tramite esperimenti.
- tecnico metodologico: In questo piano bisogna trovare le prove delle teorie che vengono
formulate nel piano precedente. La scienza però trova delle difficoltà: 1) nelle scienze sociali
soggetto conoscente e oggetto conosciuto interagiscono, per questo è difficile essere ricercatori
obiettivi. 2) le scienze sociali hanno a che fare con soggetti non osservabili o misurabili.
All'interno del Piano metodologico avremo a che fare con quattro concetti:
- metodo: Sequenza generale di azioni con lo scopo di raggiungere un determinato obiettivo.
- tecnica: Sequenza dettagliata di operazioni che fanno raggiungere un risultato.
- strumento: Mezzo che consente al ricercatore di raccogliere i dati empirici.
- metodologia: Ragionamento sul metodo, consiste nello studio dei metodi delle tecniche più
appropriate per conoscere la realtà.

La prospettiva della scienza: Il paradigma


Il paradigma è una prospettiva teorica condivisa da una comunità di scienziati che definisce
l'importanza dei fatti sociali.
I paradigmi sono rappresentati dalla risposta a 3 domande
- questione ontologica: La realtà esiste?
- questione epistemologica: Se esiste è possibile conoscerla?
- questione metodologica: Se è possibile conoscerla, come?
A queste tre domande corrispondono 3 gruppi di risposte:
:Afferma che la realtà esiste ed è conoscibile oggettivamente (realismo ingenuo),
in quanto bisogna considerare soggetto e oggetto come natura separata e diversa e quindi vedere
i fatti sociali come oggetti.
:Afferma che la realtà si scorge ma non si rivela mai in modo
obiettivo e per questo ci può tradire, dunque la realtà è possibile riconoscerla ma con un certo
margine di errore in quanto soggetto conoscente e oggetto conosciuto possono interagire
provocando dei guasti.
: Afferma che la realtà non esiste in modo
oggettivo ma va interpretata, quindi la realtà è una costruzione sociale. Dal momento che la realtà
non è conoscibile oggettivamente, bisogna accontentarsi dei modelli ideali della realtà che non
corrispondono esattamente alla realtà, ma costituiscono una semplificazione.

1
Tendenze più recenti
Successivamente vengono usati i nuovi approcci che sono la Linguistic Turn, che ha rivolto
l'attenzione alle sociologie interpretative e alla costruzione sociale della realtà.
Es: Interazionismo simbolico, approccio drammaturgico, etnometodologia, strutturalismo... ecc

Capitolo 2
i percorsi della ricerca sociale
La ricerca può essere descrittiva/esplicativa oppure esplorativa/confermativa.
-Ricerca descrittiva: Come si presenta un certo fenomeno? Serviranno per questo tipo di ricerca
dei dati che fotografano il fenomeno.
- ricerca esplicativa: Perché un fenomeno si presenta in un certo modo? In questo caso si
dovranno individuare le cause che hanno prodotto il fenomeno osservato.
Ricerca esplorativa: Affronta il percorso di ricerca come un esploratore che cerca di conoscere una
realtà ignota (ricerca qualitativa).
- ricerca confermativa: Il ricercatore parte da una serie di ipotesi e da qui dovrà trovare le prove
che confermano tali ipotesi (carattere quantitativo).

Le fasi della ricerca


La ricerca sociale usa uno schema dove la:
: Disegno della ricerca
: Costruzione della base empirica
: Organizzazione dei dati
: Analisi dei dati
: Esposizione dei risultati
La fase della costruzione della base empirica costituisce il momento più delicato di una ricerca.
Essa si articola in cinque fasi:
1) dai concetti alle variabili: Si parte da un'ipotesi per finire ad un concetto. Si parla di un processo
di operativizzazione il quale consiste nello scegliere il concetto completo da operativizzare e nella
costruzione della definizione operativa che stabilisce le regole per la traduzione del concetto. Tali
regole sono: classificazione, ordinamento e conteggio.
Vi è una modalità di operativizzazione che comprende 3 tipi di variabili:
- nominali: Classificazione di etichette
- cardinali: Conteggio di numeri
- ordinali: Ordinamento delle posizioni
2) individuazione della Tecnica di rilevazione:
Le Tecniche che servono a raccogliere i dati empirici nella ricerca sociale, sono:
- raccolta di fonti secondarie di tipo statistico
- raccolta di fonti secondarie di tipo testuale
- esperimenti
- osservazione
- intervista
- questionario (inchiesta campionaria)
- data mining
- big data
- simulazione al computer
3) definizione dello strumento di rilevazione
4) validazione dello strumento di rilevazione
5) rilevazione dei dati

2
Organizzazione dei dati (framing)
Vuol dire trasformare i dati empirici raccolti, in modo da dare delle risposte alle domande
conoscitive del ricercatore. L'organizzazione dei dati può essere fatta tramite la post codifica e
tramite la matrice casi per variabili.

Analisi dei dati


Momento in cui dobbiamo trovare all'interno dei dati le risposte alle nostre domande conoscitive

Esposizione dei risultati


Momento finale della ricerca in cui si comunicano i risultati ai colleghi. È il momento in cui si scrive
il cosiddetto Report il quale contiene
-un'introduzione
- lo stato dell'arte cioè una sintesi della letteratura scientifica
- presentazione dei risultati
- commenti e conclusioni
- note metodologiche
- riferimenti bibliografici

Capitolo 3
Il campionamento
Il campionamento consiste nel selezionare alcune unità di analisi della popolazione. Si campiona
per risparmiare sia denaro che tempo, tuttavia uno svantaggio del campionamento consiste nel
suo errore, dovuto al fatto che le unità prese in analisi non saranno mai come l'intera popolazione,
ci sarà sempre uno scarto. La formula dell'errore di campionamento è:Y=Y^+-E Dove Y
rappresenta la popolazione e Y^ rappresenta il campione.
Distinguiamo tra campioni probabilistici e campioni non probabilistici.
Campioni probabilistici: Fanno riferimento alla teoria matematica della probabilità, in quanto tutte
le unità di analisi della popolazione hanno la stessa probabilità di essere estratte
n=Z^2(Pq)xN/E^2(N-1)+Z^2(Pq)
Vi sono diversi tipi di campioni probabilistici:
- campione stratificato: Che consiste nel suddividere le unita prese in analisi in proporzione ad
alcune variabili note.
- campione sistematico: Le persone vengono selezionati a caso e si comunica estraendo
casualmente un individuo dalla lista della popolazione e poi si selezionano gli altri fino a quando
non si raggiunge il totale previsto di unita prese in analisi.
Campioni non probabilistici: Campioni eterogenei ambiscono ad una rappresentatività
tipologica.
Vi sono vari tipi di campioni non probabilistici come:
- campione a valanga
- campione a scelta ragionata
- campione di convenienza
- campione per quote

Capitolo 4
L'intervista
Con il termine intervista si intendono quei modi per raccogliere dei dati.
Possiamo definirla come una forma di conversazione nella quale due persone parlano, di cui una
fa delle domande (intervistatore) e una che risponde (intervistato).
Tipi di intervista
Un primo criterio che bisogna analizzare riguarda come sono organizzate le domande,

3
esse possono riguardare:
- intervista strutturata: Presenta delle domande standardizzate da porre nello stesso ordine a tutti
gli intervistati, ed essi possono rispondere liberamente.
- intervista semistrutturata: non ci sono delle domande fisse ma una sorta di scaletta.
- intervista non strutturata: parte da un tema da approfondire.
Un secondo criterio riguarda lo stile dell'intervistatore e sono:
- intervista direttiva: L'intervistatore segue una lista di domande e ignora le reazioni dell'intervistato.
- intervista non direttiva: Le domande seguono le risposte dell'intervistato.
- intervista semidirettiva: Si ha una parte uguale per tutti gli intervistati e una parte dove si seguono
le esigenze dell'intervistato.
Un terzo criterio di classificazione riguardano il tipo di domanda e di risposte che possono essere
standardizzate o non.

Il rapporto tra intervistatore e intervistato


È molto difficile in quanto una cattiva percezione dell'intervistatore determina la partecipazione
dell'intervistato, pertanto l'intervistatore deve garantire:
- brevità del colloquio
- citare il committente della ricerca
- il tema dell' intervista
- l'anonimato dell'intervista
Nonostante l'intervistatore metta in atto tutto ciò, si potrebbero venire a creare dei problemi,
l'intervistatore pertanto deve cercare di creare un ambiente di normale conversazione, deve
sempre chiedere l'uso del registratore solo dopo l'inizio dell'intervista e soprattutto non deve mai
imporre una risposta in caso di rifiuto.

Strumenti e trascrizioni dell'intervista


l Intervista può presentarsi sotto due forme:
- scaletta (topic guide) - percorso strutturato (questioning route)

L'analisi dei dati


Esistono due approcci di analisi e sono:
- etnografico o narrativo: Ricorre alla tecnica del taglia e riordina (scissor and sort). L'idea è quella
di trascrivere le parti più significanti.
- quantitativo: Prevede una post codifica dei concetti che poi vengono conteggiati e presentati in
grafici e tabelle, questo conteggio ha lo scopo di ordinare i vari concetti in base ai temi trattati
durante le interviste.

Capitolo 5
Focus group
Il focus group è una tecnica di rilevazione che ricorre a procedure non standardizzate, basata su
discussioni apparentemente informali di gruppi di persone estranee fra loro, con la presenza di un
moderatore e un osservatore.
Il Focus group ha avuto successo nella ricerca sociale, e in tanti altri ambiti perché presenta
numerosi vantaggi:
- economicità
- rapidità: Si possono intervistare più persone contemporaneamente
- flessibilità: Gli strumenti utilizzati possono essere cambiati
- alta densità di informazione: Vengono prese in considerazione non solo le risposte ma anche le
dinamiche di gruppo che si vengono a creare
- alta tollerabilità: Viene considerato poco intrusivo

4
La pianificazione del focus group
Pianificare un focus group significa scegliere il numero e la composizione dei gruppi, il luogo, i
partecipanti.
I gruppi sono composti all'incirca da 8 persone che non si conoscono tra loro. La durata varia dalle
3 o 4 focus group con le stesse persone. Il luogo deve essere neutrale così da mettere tutti i
partecipanti a loro agio, vengono sistemati in cerchio in quanto indica simbolicamente che tutti i
partecipanti sono uguali.

Il moderatore e L'osservatore
Il compito principale del moderatore è quello di gestire l'interazione tra il gruppo.
Inizialmente il moderatore ha il compito di facilitare il warm up cioè la fase di riscaldamento,
intrattenere gli ospiti e fare in modo che socializzano tra loro.
Il compito del osservatore è quello di stare attento ai contenuti e come essi emergono durante la
discussione, prendendo appunti.

Strumenti di rilevazione
Lo strumento che molto spesso viene utilizzato è la traccia. La traccia è formata da poche
domande e non hanno un ordine preciso. Si distinguono 5 tipi di domande:
- domanda di apertura: Permettono la creazione del gruppo.
- domanda di introduzione: Portano il partecipante a riflettere sulla discussione.
- domanda di transazione: Si passa da un tema all'altro
- domanda chiave: Si riferiscono i temi centrali della discussione.
- domanda finale: Portano alla chiusura della discussione.

Le fasi di un focus group e i tipi ideali di partecipanti


Un focus group si sviluppa attraverso alcune fasi tipiche e sono:
-formazione del gruppo (forming)
- rottura dell'equilibrio iniziale (storming)
- emergenza di regole di conversazione (norming)
- definizione di ruoli (performing)
- comitato finale (mourning)
Una parte importante è la performing dove vediamo emergere dei tipi ideali di partecipanti che
possono essere:
- leader strumentale: L'uomo delle idee
- leader espressivo: Il più simpatico
- critico: Esprime dissenso motivando
- negativo: Esprime dissenso non motivando
- joker: Il buffone
- colui che divaga
- timido: Non partecipa alle discussioni
- l'entusiasta
- l’apatico: Ha atteggiamenti di indifferenza

L'analisi dei dati


L'analisi dei dati può avvenire in due modi differenti:
- immediatamente: Serve per non perdere impressioni e interpretazioni immediate
- alla fine di tutte le rivelazioni: In questo caso si ha l'analisi dei dati veri e propria e ha il compito di
suggerire i risultati più rilevanti dell'intervista. Essa deve essere sistematica e garantire
l’ispezionabilità della base empirica.
Infine si passa al report finale in cui innanzitutto fondamentale è fare una tabella con tutte le

5
abbreviazioni utilizzate, si procede poi alla presentazione dei risultati indicando il peso di ogni tema
e successivamente l'analista assocerà i pesi dei vari temi con le risposte più significative.

Capitolo 6
Etnografia è osservazione
L’osservazione è una delle tecniche di raccolta dati più antica, risale alle ricerche etnografiche che
andavano di moda in epoca coloniale sotto l'influenza del positivismo.

Tipi, ambiti e prospettive teoriche dell'osservazione


Esistono vari modi di fare osservazione possono essere classificate facendo riferimento ad alcune
dimensioni:
- partecipazione presente/assente : A seconda che l'intervistatore si mischi tra le persone.
- intrusività alta/bassa: A seconda che gli strumenti siano scoperti o nascosti.
- osservazione strutturata/non strutturata: A seconda che il ricercatore abbia uno schema
prestabilito oppure si lasci guidare dalle persone.
- prospettiva del marziano/convertito: Nel primo caso è completamente estraneo e distaccato, nel
secondo diventa a tutti gli effetti un nativo.

Che cosa è come si osserva?


L'attività osservatrice considera questi aspetti:
- contesto storico: Riguarda il passato del contesto da studiare
- contesto sociale: Il modo in cui è organizzata la società
- contesto fisico: Caratteristiche dei luoghi
-Interazioni formali e informali: Modi di Stare con le persone in pubblico o in privato
- interpretazioni orali e scritte dei Nativi: Spiegazioni del mondo che li circonda da parte dei
soggetti studiati
- produzioni materiali e simboliche: Ciò che le persone fanno insieme

Gli strumenti e le analisi del materiale raccolto


Uno strumento fondamentale di cui si avvale l'osservatore è il diario che può essere cartaceo o
digitale. Gli appunti riportati devono avere alcuni elementi fondamentali:
- descrizione: Devono essere più dettagliate possibile
- interpretazioni del ricercatore: Impressioni emotive di quello che ha visto
- verbalizzazione dei Nativi e i documenti rilevanti
Infine abbiamo un altro strumento che è il backtalk, si riferisce ad una precisa fase di un processo
di ricerca in cui ricercatore ed attori della ricerca si incontrano per controllare che i dati
precedentemente raccolti (da qui il termine back) siano effettivamente coerenti e rappresentativi
del contesto sottoposto a rilevazione.

Capitolo 7
Inchiesta campionaria
L’inchiesta campionaria rappresenta la ricerca quantitativa, è una tecnica di rilevazione basata sul
questionario che fa riferimento a campioni di tipo probabilistico e si propone di spiegare fenomeni e
problemi sociali.

La psicologia di chi risponde


L'intera filosofia dell'inchiesta campionaria si basa su un semplice assunto, quello per cui
uniformità di stimoli corrisponde ad una uniformità di reazioni. Le persone a cui viene posto il
questionario interpretano le domande in vario modo, dando forma a varie distorsioni della relazione
tra intervistato e intervistatore.

6
Le più importanti sono:
- desiderabilità sociale: Quel fenomeno per cui le persone intervistate, finiscono per dare delle
risposte socialmente desiderabili ma alle quali non credono veramente. Per questo è stata fatta
una scala di desiderabilità sociale che permette di capire se nel corso del colloquio una persona ha
indossato una maschera sociale.
- l’aquiescenza: Tendenza di dichiararsi d'accordo con le affermazioni contenute nelle domande.
- le pseudo opinioni: Il risultato della mancanza di opinione dell'intervistato.
Per capire meglio come funziona il meccanismo risposta domanda sono stati elaborati 4 modelli di
cui tre di matrice cognitiva ed una di linguistica.
: Sostiene che nel rispondere l'intervistato osservi una sequenza
fissa di paesaggi che producono la comprensione della domanda, il recupero dell'informazione e
infine la modalità della risposta. Questa strategia viene definita ottimizzante.
: Sostiene che accanto alla strategia ottimizzante l'intervistato può
utilizzare una strategia satisficing cioè accontentare le pretese dell'intervistatore.
: Gli intervistati rispondono in base alle prime cose
che gli passano per la mente
: L'intervistato parla sinceramente (si annulla il contesto di
intervista).

Il questionario
Il questionario è costituito da un insieme di domande standardizzate dette item.
Per costruire un questionario è necessario tenere conto di quattro presupposti:
- conoscere il fenomeno studiato
- operativizzare in modo valido e affidabile i concetti di ricerca
- avere esperienza nel campo
- conoscere bene la popolazione che si sta studiando.
Il questionario di solito è composto da tre parti:
1) parte di presentazione (cover Letter): presenta la ricerca e cerca di motivare gli intervistati a
cooperare.
2) istituzioni: Contengono tutte le regole che gli intervistati devono seguire per rispondere.
3) corpo principale: Comprende le domande vere e proprie.
Una regola nella costruzione del questionario è quello di essere chiari e semplici nella struttura
delle domande da sottoporre. Queste ultime possono essere aperte o chiuse. Nel secondo caso
sono più frequenti e ne esistono di vari tipi:
- scelta fra categorie semantiche autonome
- check list
- categoria ordinate
- ordinamento di preferenze personali
- differenziali semantici
- conteggio o misurazione
Prima di somministrare un questionario bisogna fare un pre-test, l'esito di ciò può portare
l'intervistatore a modificare uno degli elementi che sopra abbiamo descritto.
Infine si somministrano i test e ciò può venire in diversi modi: dal vivo, per telefono, per posta, per
computer ecc...
Essi possono essere somministrati o in circostanze singole (studio trasversale) o più volte nel
tempo (studio longitudinale).

Le scale Linkert e l'Alfa di Cronbach


Una scala è un insieme coerente di item che serve per misurare e osservare un concetto più in

7
generale. Le scale adattive di Linkert si svolgono in quattro passi:
1) la definizione degli item che si pensano adatti a misurare il concetto
2) la somministrazione tramite questionari
3) controllo della coerenza
4) controllo di validità e unidimensionalità
La parte più importante per stabilire se una scala funzione oppure no, è il calcolo dell’alfa di
Cronbach, che misura la coerenza interna della scala. Il controllo può essere effettuato facendo
uso della tecnica split half che consiste nel dividere gli item della scala in due gruppi per vedere
se il punteggio del primo è correlato con il secondo.
L'Alfa di Cronbach viene calcolata attraverso la seguente formula:
L'Alfa varia da 0 a 1. Più è grande, più le scale sono coerenti e attendibili, se risulta negativa vi è
qualche problema nell'orientamento delle categorie di risposta di alcuni item.

Capitolo 8
analisi dei dati
Il compito principale dell'analisi dei dati è quello di trovare delle strutture dotate di senso del
materiale raccolto. Essa può essere effettuata rispetto ai seguenti oggetti:
1)l'analisi dei casi. Che si divide in:
-case study: Studio dettagliato di un oggetto o di un fenomeno che viene considerato esemplare.
-analisi comparativa: Si mettono a confronto alcuni casi individuando delle caratteristiche comuni
evidenziando somiglianze eh differenze.
- l'analisi dei gruppi o Cluster analysis: Tipo di analisi quantitativa, dove al suo interno abbiamo le
tecniche gerarchiche, tecniche iterative o , tecniche sulla densità locale e le reti neutrali.
2) analisi delle variabili. Implica l'uso della statistica e si possono distinguere tre tipi di variabili:
- MONOVARIATA: Si occupa della variabili prese singolarmente e ha scopi descrittivi. La forma più
semplice di queste variabili è la rappresentazione tabellare, in cui il ricercatore individua le varie
modalità di risposta e per ciascuna conta le frequenze.
- BIVARIATA: Si occupa delle variabili prese a due a due e ha uno scopo esplicativo. Attraverso
questa analisi si possono controllare le ipotesi. Uno strumento utilizzato è la tabella di contingenza,
che rappresenta il modo in cui una variabile si distribuisce nelle diverse modalità di un'altra.
-MULTIVARIATA: Considera più di due variabili contemporaneamente e ha scopi sia descrittivi che
esplicativi, esplorativi o confermativi.
3) l'analisi dei dati relazionali. È affidata alla network analysis. Si basa su una matrice detta
matrice di adiacenza o sociomatrice. La presenza di due membri nella tabella indica l'esistenza di
rapporti biunivoci in cui si possono rintracciare iniziatore e destinatario della relazione, serve infatti
per descrivere posizioni e ruoli sociali.
4) analisi delle parole. Possiamo trovarle:
-Nella domanda nella risposta aperta. Vengono sottoposte ad una codifica per due ragioni:
1) riassumere a chiarire il significato delle parole
2) consentire un successivo trattamento statistico
Ultimamente molti ricercatori si sono rivolti all’analisi delle corrispondenze lessicali (ACL).
Quest'analisi afferma che le parole da sole non hanno alcun senso, ma lo acquisiscono solo se
associate ad altre. Essa persegue due obiettivi: Creare delle regolarità dei dati e individuare poche
dimensioni di senso che possono spiegare tali irregolarità tramite tecniche di tipo fattoriale.
- nelle interviste è nei focus group attraverso l'analisi quantitativa e qualitativa.
L'analisi delle parole viene fatta tramite l'analisi del contenuto, è una tecnica che si basa su
procedure di scomposizione dei testi in elementi più semplici.
Le tecniche di analisi del contenuto sono tre:
1) analisi della frequenza. Ha 3 scopi fondamentali:

8
- rapida esplorazione del testo
- affinamento delle parole del testo
- misurazione di una fonte
2) analisi co-occorrenze.
Serve a capire se due parole vengono regolarmente associate all'interno del testo preso in esame.
L’indice più diffuso di associazione è il coefficiente del coseno che si calcola:
c(x,y)=f(x,y)/√f(x)x√f(y)
3) analisi degli asserti valutativi.
È basata sull'analisi delle frasi contenute nei testi, serve a capire come vengono valutati
determinati oggetti nel discorso. Per effettuare questo tipo di analisi, il ricercatore si affida ai
differenziali semantici.

La ricerca sociale quali- quantitativa


Capitolo 1
Qualità e quantità nella ricerca sociale
In sociologia i termini qualitativo e quantitativo sono sempre stati usati con troppa disinvoltura per
colpa di una cattiva abitudine che ha portato a creare una dicotomia tra i due approcci, che si sono
cristallizzati in due fazioni opposte disinteressati ad imparare l'uno dall'altro.
L'opposizione tra qualità e quantità deriva dalla lontana divisione tra cultura scientifica e cultura
umanistica. Tale opposizione ha avuto origine con la rivoluzione industriale e scientifica che hanno
segnato una frattura nei modi di conoscere la realtà sociale.
Le varie contrapposizioni portano ad una metodologia della ricerca sociale diabolica, dal greco
“diaballein” cioè colui che getta differenza, in quanto sottolinea i guasti che la separatezza
metodologica ha prodotto nelle scienze storico-sociali.
È difficile trovare delle definizioni precise per i due tipi di approcci. L'approccio quantitativo si rifà al
paradigma positivista, il cui massimo esponente fu Durckheim, mentre l’approccio qualitativo si rifà
al paradigma costruttivista, cui massimo esponente è Weber.
La domanda fondamentale è: cosa vuol dire fare scienza? Gli scienziati non fanno altro che
produrre asserti, ovvero affermazioni su come funziona il mondo sociale, giustificare gli asserti su
base empirica e produrre un sapere controllabile, cioè pubblico e riproducibile.
Tali controlli sono effettuati secondo criteri di:
- validità (lo strumento che ho utilizzato misura veramente ciò che ho studiato?): È un giudizio
circa la rappresentazione semantica tra il mondo reale e le risultanze empiriche della ricerca.
Distinguiamo tra:
validità interna: Riguarda la pertinenza delle spiegazioni date alla situazione oggetto di
studio.
validità esterna: Riguarda la generalizzabilità delle spiegazioni date ad altre situazioni analoghe.
Di contenuto
Per criterio
Di costrutto
- attendibilità: Segnala il grado con il quale una certa procedura di traduzione di un concetto
produce gli stessi risultati in prove ripetute con lo stesso strumento di rilevazione. Può riguardare
ad esempio, test - pre-test, parallel forms, intercoding.
- triangolazione: Consiste nella proposta di studiare uno stesso oggetto attraverso prospettive
teoriche diverse, con lo scopo di ottenere una convergenza dei risultati ottenuti.

Capitolo 2
Intervista strutturata
Uno degli strumenti quali-quantitativi più importanti è l'intervista strutturata, rivolta ad un elevato

9
numero di soggetti scelti sulla base di un campionamento, che segue una traccia rigida e
standardizzata, in cui al suo interno troviamo la dicotomia tra espressioni (riguardanti le domande
a risposta aperta) e reazioni (riguardanti le domande risposta chiusa). Ed è proprio per questo
motivo che viene definito uno strumento quali-quantitativo. La presenza di domande sia aperte che
chiuse rappresenta un'opportunità per il ricercatore che intende triangolare dati e tecniche, sia di
tipo quantitativo che qualitativo. Affinché la triangolazione sia possibile è necessario adottare una
delle seguenti soluzioni:
1) includere nello schema di intervista a domande che prevedono risposte sia aperte che
chiuse. Lo svantaggio di questa soluzione è che l'intervistato troverà noioso rispondere a due
modi diversi ad una stessa domanda.
2) effettuare una post codifica delle risposte aperte allo scopo di ottenere variabili
analizzabili. Questa soluzione però comporta un lavoro lungo e faticoso da parte del ricercatore.
3) analizzare il testo delle risposte aperte per individuare i temi principali.
4) identificare attraverso l'analisi delle domande a risposta chiusa degli idealtipi di
rispondente e approfondirli successivamente con l'analisi delle domande a risposte aperte.
Per quanto riguarda le diverse tecniche quantitative di classificazione, la tecnica migliore usata è la
Cluster analysis, il quale obiettivo è quello di ordinare i casi in gruppi, in modo tale che vi sia una
sorta di omogeneità fra i membri di uno stesso gruppo e un eterogeneità tra i membri di gruppi
diversi. Tra i vari tipi di Cluster analysis troviamo: clustering gerarchiche, delle partizioni ripetute ed
iterative (es: Metodo delle K medie) basato sulla densità locale. Quella che più si utilizza è quella
del k - medie, tale procedura prevede che il ricercatore preveda a priori il numero dei cluster,
assegna poi ciascun caso a un gruppo. A questo punto i casi vengono spostati da un gruppo
all'altro fino a quando non verrà raggiunta l'omogeneità al loro interno e l'eterogeneità al loro
esterno.
La rappresentazione grafica ci permette di identificare 4 tipi differenti di spettatori:
- critico lettore: (colui che registra un valore basso su tutti i campi tranne sulla lettura del libro)
- fan deluso: (colui che registra valori alti in tutte le variabili tranne sul giudizio complessivo)
- fan entusiasta: (colui che registra valori alti in tutte le variabili)
- spettatore di massa: (colui che non ha letto il libro ma ha guardato il film).
Un altro modo per analizzare le domande a risposta aperta è attraverso l'analisi delle
corrispondenze lessicali, ACL. Questa è una tecnica di tipo esplorativo, la sua utilità sta nel fatto
che consente di ottenere una prima sintesi dell'informazione contenuta nei dati senza dover
effettuare nessun intervento di codifica intermedia. L'approccio dell’ ACL è basato sulle differenze
in quanto il significato di una parola riguarda le relazioni che essa ha con le altre.
Per effettuare l’ACL, i dati testuali vengono organizzati in una matrice lemmi x testi. Per lemma si
intende la forma canonica di una parola. Tali analisi producono uno o più grafici, dove gli oggetti
più significativi sono quelli più lontani dall'origine degli assi. Da un'analisi approfondita della
matrice lemmi per testi si può ottenere un'altra tabella che rappresenta i fattori, ossia i significati
nascosti all'interno dei testi, e la loro forza all'interno del testo, ossia l'autovalore. La somma di tutti
gli autovalori prende il nome di inerzia.

Capitolo 3
Il focus group è l'analisi di rete
Il focus group è l'analisi di rete sono due tecniche di ricerca sociale oggi fondamentali per
l'operatore sociale e il manager dei servizi sociali.
A riguardo, le tecniche sociometriche, dalle quali si è sviluppata la social network analysis, sono
nate al fine di rilevare studiare le relazioni interpersonali esistenti in un gruppo.
Innanzitutto la Sna è una tecnica concepita per le relazioni, dunque Come posso applicarla al
focus group dove invece dominano le interazioni? Dal punto di vista metodologico per studiare le

10
relazioni bisogna partire dalle interazioni poichè una relazione non è altro che un insieme di
interazioni.
Secondo Nedelmann l'interazione sociale può essere definita come un processo di durata più o
meno lunga, tra due o più attori che orientano il proprio agire l'uno verso l'altro, lo svolgimento di
tale agire produce effetti di associazione che corrispondono alle relazioni che possono essere di
affetto, amicizia, ecc.. Per far ciò è necessario raccogliere un nuovo tipo di dati, chiamate
relazionali, tuttavia la raccolta e l'organizzazione dei dati del focus group è un'operazione tutt'altro
che semplice. Per tale ragione durante l'effettuazione di un focus group, il moderatore dovrebbe
essere affiancato da almeno un'altra persona che lo aiuti ad annotare le informazioni principali che
emergono nel corso del dibattito: l’osservatore, dove ne possono essere più di uno, e possono
essere palesi o dissimulati.
Sono tre i tipi di dati da registrare: I legami, gli attributi dei legami e gli attributi dei soggetti.
Lo strumento più pratico per la raccolta dei dati relazionali è la cosiddetta sociomatrice, in cui
vengono aggiunte tutte le informazioni sui partecipanti, rappresentandole successivamente grazie
al sociogramma. Dal sociogramma dovrebbero risultare evidenti alcune caratteristiche essenziali
del gruppo, cioè:
- la sua omogeneità, ovvero la suddivisione in sottogruppi:
Nella ricerca di tali sottogruppi si possono seguire due approcci:
- un approccio bottom up che sottolinea come il magro possa emergere dal micro.
- un approccio top-down che invece guarda la struttura per evidenziare al suo interno aree
più dense o al contrario buchi.
- la presenza di individui isolati: Fra i compiti della Sna vi è quello di scoprire gli individui isolati
di una rete. Se un sistema presenta una bassa densità di relazioni, in esso ci sarà poco potere,
mentre invece se presenta un’alta densità di relazioni ve ne sarà molto. Ma ciò che interessa è
capire come il potere si distribuisca.
- le posizioni di centralità all'interno del gruppo
- le equivalenze strutturali dei nodi
A partire da Bavelas la sna misura il potere tramite la centralità, considerando tre indicatori
fondamentali:
- il grado: Connessioni in entrata o in uscita che si riferiscono a un particolare nodo
- la vicinanza: Misura quanto facilmente un attore sia raggiungibile o posso raggiungere gli altri
- l'Intermedietà misura quanto gli altri attori dipendono da un certo modo per stabilire delle
relazioni.

Capitolo 5
L'analisi qualitativa computer assistita
I software per l'analisi qualitativa dei dati prendono il nome di CAQDAS, e servono ad organizzare
l'enorme mole di informazioni che caratterizza il materiale di tipo qualitativo. Tale analisi Interpreta
i dati attraverso l'identificazione e la possibile codifica dei temi al fine di costruire ipotesi o teorie. I
CAQDAS si distinguono in programmi per la
-ricerca descrittivo interpretativa: categorizzazione eh codifica del Corpus testuale
-ricerca orientata alla teoria: Ispirate alla grounded Theory.
Una classificazione più recente distingue i CAQDAS in:
- programmi di codifica il recupero delle informazioni
- programmi per la costruzione delle teorie basate sulla codifica
- programmi per la ricerca e la gestione di testi
Le principali funzioni svolte dai CAQDAS sono:
- registrazione/archiviazione: La registrazione è una funzione accessoria, mentre la seconda

11
riguarda la capacità di organizzare efficacemente il materiale raccolto.
- codifica: Isolare frammenti di materiale empirico attribuendogli un etichetta di riconoscimento.
- recupero e collegamenti: Il sistema di codifica consente il recupero efficiente dell'informazione, di
conseguenza si possono effettuare ricerche sistematiche in forma di navigazione ipertestuale su
materiale di ogni tipo.
- analisi: L'insieme dei testi recuperati può essere sottoposto a vari tipi di analisi. Analizzare
differenze, somiglianze e relazioni tra i diversi segmenti recuperati.
- integrazione:
-integrazione interna: Ovvero assistere il ricercatore nello sviluppo di categorizzazioni,
tipologie e proposizioni teoriche con la possibilità di collegarle insieme per elaborare una teoria.
-integrazione esterna: Ovvero stabilire un collegamento con il materiale non direttamente
raccolto dal ricercatore, ma utile per comprendere meglio il fenomeno oggetto di studio.
I criteri per scegliere un CAQDAS:
1) un primo criterio per scegliere un programma adatto alle proprie esigenze, è quello della
diffusione. Infatti i programmi più noti sono quelli che gli analisti hanno apprezzato di più. I
CAQDAS più diffusi sono: Atlas.ti , N6 e Hyper Research.
2)Il secondo criterio di scelta deve tener conto delle proprietà del programma uniti agli scopi del
ricercatore.
3) il terzo criterio invece deve tenere conto della struttura della complessità della ricerca.
Inoltre nella scelta di un CAQDAS vanno considerati: Dati tecnici, formato dei dati accettati,
l'ergonomia, performance, la possibilità di inserire dati multimediali, tipi di codifica, unità di ricerca
testuale, funzioni statistiche.
Atlas.ti è uno dei programmi più diffusi e completi per l'analisi dei dati qualitativi. Tale programma
si basa su quattro principi: visualizzazione, integrazione, serendipity, esplorazione. E’ stato pensato
per un contatto diretto con i testi attraverso letture ripetute e un confronto interno tra i passi
codificati del ricercatore.
Atlas.it opera su diversi livelli di analisi, ovvero: Documenti primari, citazioni, annotazioni, famiglie,
reti semantiche.
Tutti i CAQDAS, sono costruiti per il recupero selettivo delle informazioni contenute nei documenti
raccolti a seguito di una codifica sistematica.
Una particolare caratteristica di atlas.it consiste nel controllo della attendibilità delle codifiche: Il
sistema controlla infatti che sia stata la stessa persona o meno a porre le codifiche in quanto il
sistema permette di associare il nome dell'autore, la data e l'ora della creazione di ciascun autore,
quindi si possono verificare anche le modifiche che possono venire fatte da diversi autori nel caso
di un lavoro di gruppo. In generale I CAQDAS favoriscono la triangolazione tra ricercatori allo
scopo di integrare i propri sistemi di codifica, integrali e fonderli.

Social network analysis


L'analisi di rete come prospettiva economica - le origini
Sviluppatasi dagli anni 90 in poi, da tre filoni teorici dai quali si è poi articolata, la social network
analysis rappresenta una delle più interessanti prospettive di studio della società.
La prima di questi tre filoni teorici è la . Composta da psicologi
tedeschi ebrei, perseguitati e fuggiti in America, fondano questa scuola per studiare l'uomo
all'interno della società, in particolare si occupano della gestalt (la forma) e sono le Lewin, Heider
e Moreno.
Lewin. Sviluppa il concetto secondo il quale il comportamento di gruppo è scaturito dal campo
sociale (ovvero il giro di conoscenze).
Heider. Sviluppa il concetto di equilibrio cognitivo che sposta sulla società, fino ad arrivare a

12
quell'equilibrio che si crea tra me e gli altri ovvero l'equilibrio strutturale (le persone sono quelle che
sono in base ai rapporti che hanno con gli altri).
Moreno. Inventa uno strumento chiamato sociogramma, che mostra le relazioni delle persone. Con
questo strumento riuscì ad aprire una riflessione sulle strutture sociometriche venute fuori dalle
molteplici relazioni che un individuo presenta.
La seconda è la . Composta da sociologi e antropologi che fanno parte
della scuola funzionalista. I maggiori esponenti sono Warner e Mayo, che intrapresero una serie di
studi empirici sulla vita di fabbrica e di comunità. Essi focalizzarono la loro attenzione sulla
struttura dei sottogruppi che vi si trovano all'interno, intraprendendo l'analisi dei gruppi isolati e
delle “chicche” che si sovrappongono l'una con l'altra (l'insieme di più gruppi di cui un individuo fa
parte contemporaneamente).
Alla fine degli anni 40 Homans, tenta di unire gli studi fatti da Moreno a quelle della scuola di
Harvard in quanto la sociologia di Moreno forniva una buona base metodologica e a questa
Homans introdusse la tecnica della riorganizzazione matriciale dei dati relazionali.......
La terza è la . Composta da antropologi tra cui
Gluckman, Barnes, Bott and Mitchell, interessati a vedere come è strutturata una rete sociale nel
suo complesso. Svilupparono un approccio strutturale per poter esaminare le dimensioni del
conflitto e del potere all'interno delle strutture sociali.
In seguito intorno agli anni 80, l'eredità della scuola di Harvard passò alla scuola di Toronto,
guidata da Wellman, che iniziò un processo di istituzionalizzazione e sistematizzazione della sna.
Wellman ha riassunto le conoscenze teoriche acquisite fino a quel momento e ha cercato di dare
un'identità ad un movimento ancora troppo frammentato ed eterogeneo.

Capire l'approccio di rete


La sna analizza la realtà sociale a partire dalla sua struttura reticolare. L'unità di analisi quando
studiamo la sna è la relazione sociale.
I problemi che incontrano gli scienziati sociali con la sna sono:
- rigido strutturalismo
- carattere fortemente formalizzato e matematico
- indisponibilità di dati relazionali
- mancanza di strumenti statistici adatti
- difficoltà nel visualizzare reti vaste e complesse
- staticità delle analisi

Raccogliere i dati relazionali


Per ricostruire ad analizzare una rete bisogna procedere con quelle che sono la raccolta e
l'organizzazione dei dati relazionali. Ovviamente la raccolta e l'organizzazione dei dati devono
essere precedute dalla progettazione dell'indagine da parte del ricercatore, il quale dovrà stabilire
delle decisioni su come agire. Una di questa è la scelta dell'unità d'analisi, bisognerà poi decidere
forma e contenuti delle relazioni e infine la scelta del livello di osservazione. Adesso il ricercatore
deve porsi il problema dei confini della rete.
Questi confini servono per riuscire ad analizzare al meglio le reti, in quanto permettono di separare
gli attori e le relazioni pertinenti da quelle che non lo sono.
Possiamo distinguere 4 categorie di selezione dei confini:
1) strategia realista (name generators): Comincio da un gruppo di persone che ritengo
fondamentali per la mia ricerca, chiedo di nominarmi delle persone con le quali interagiscono.
2) strategia nominalista: Si stabiliscono confini materiali (esempio: Tutti gli abitanti di Palermo).
3) strategia posizionale: Fa riferimento a delle caratteristiche delle persone.
4) strategia relazionale (snowballing): Prendiamo soggetti denominati, e a questi chiediamo nomi

13
di persone da andare ad intercettare e così via.
5) strategia basata su Eventi. Si selezionano persone che hanno condiviso un certo evento.
Dopodiché bisognerà stabilire quante unità d'analisi considerare, se l'intera popolazione,
effettuando quindi un censimento o se solo una parte approntando un campionamento.

Ma Come raccogliere i dati?


Innanzitutto tramite testi e documenti, poi il ricercatore può servirsi dell'osservazione diretta della
rete, tramite questionario o intervista.

Organizzare i dati relazionali


Una volta conclusa la rilevazione, si passa alla fase di organizzazione dei dati attraverso una
matrice.
-matrice di adiacenza (chiamata anche sociomatrice). La più comune nella sna. Si tratta di una
tabella quadrata, composta da un numero di colonne e righe pari al numero di nodi che definiscono
la popolazione reticolare. Gli attori sono indicati nella stessa sequenza sia in riga che in colonna e
nelle celle vengono riportate le informazioni sulla relazione tra essi. Esse possono essere:
- orientate: Ossia prevedono una precisa direzione da un nodo all'altro. Esse sono dette
asimmetriche vengono utilizzate per stabilire chi conferisce prestigio a una persona e chi gode di
quel prestigio.
- non orientate: In cui non è indicata la direzione della relazione e vengono utilizzate per
definire legami di parentela. Esse sono simmetriche.
Le relazioni Inoltre Possono essere definite con diversi codici:
- binari: indicano la presenza o l'assenza del legame
- segnati: indicano la positività o la negatività della relazione
- pesati: Indicano la forza della relazione.
-matrice di affiliazione: Si tratta di una matrice rettangolare che descrive reti di affiliazione.
Essere scrivono la partecipazione di un gruppo di attori a una serie precisa di eventi. Esse sono
generalmente utilizzate per due Finalità:
1) indicare le strutture relazionali degli attori attraverso il loro coinvolgimento a determinati eventi
2) rilevare le strutture relazionali dai eventi che attraggono partecipanti comuni.

Rappresentare è descrivere la rete. Il sociogramma


Una volta che i dati relazionali sono stati inseriti nella matrice di adiacenza, è possibile visualizzare
la rete sociale attraverso la rappresentazione grafica. Il grafico più utilizzato per la presentazione di
sociomatrici e il sociogramma: Consiste in un diagramma bidimensionale che raffigura le relazioni
fra gli attori attraverso nodi e linee che indicano la presenza di una relazione.
Inoltre vanno definite le caratteristiche principali dell'intera rete (misure di coesione):
: E’ data dal rapporto tra il numero di legami esistenti di una rete e il numero di tutti i
legami possibili. Il suo valore varia da 0 (densità minima) a 1 (densità massima). Possiamo
distinguere:
Reti a maglia larga: Con valori compresi da zero a 0,4
Reti a maglia media: Con valori compresi tra 0,4 e 0,6
Reti a maglia stretta: Con valori compresi tra 0,6 e 1
: Indica la lunghezza del percorso tra una coppia di attori. Quello più breve è detto
distanza geodetica.
: Si riferisce al numero di nodi che dovrebbero essere rimossi per Disconnettere la
rete.

Centralità
Il concetto di centralità è uno dei più importanti nell'ambito della Sna.

14
Molto spesso le persone che occupano le posizioni centrali sono coloro che risultano essere le più
attiva e che possono quindi facilmente influenzare le dinamiche interne della rete.
Le misure di centralità più diffuse sono:
(il grado): La centralità cresce con il crescere dei legami. Il grado di un nodo è dato dalla
somma dei legami in cui esso è presente. Inoltre si distingue:
In-degree: Si riferisce al numero di legami provenienti da altri membri della rete verso un nodo
specifico.
Out-degree: Si riferisce al numero di legami che hanno origine in un modo e sono diretti verso
altri membri della rete.
(vicinanza ): Misura quanto ruolo risulta vicino a tutti gli altri nodi della rete. Vicini
sono quei nodi che hanno meno intermediari, quindi viene indicata la strada migliore che unisce
due punti ossia la geodetica. Anche per la closeness abbiamo:
In-closeness: Facilità con cui un nodo è raggiungibile dagli altri
Out-closeness: Facilità con cui un nodo raggiunge gli altri.
: L'idea è che un nodo che fa da intermediario tra altri due, ha una posizione di
vantaggio rispetto agli altri in quanto la capacità di intermediazione permette di controllare lo
scambio di informazioni.

Sottogruppi
All'interno di un sistema reticolare si vengono a creare dei sottogruppi. Di maggiore rilevanza sono
i sottogruppi coesi, ossia composti da un insieme di nodi connessi tra loro in maniera diretta.
Esistono fondamentalmente due approcci allo studio dei sottogruppi:
- approccio bottom up: Esso si occupa di rintracciare all'interno di un reticolo :
clique: Ossia composta da nodi collegati in maniera diretta l'uno con l'altro
N-clique: Ossia composte da nodi collegati in maniera diretta o indiretta attraverso un
intermediario.
N-clan: Ossia composte da nodi collegati in modo diretto o indiretto attraverso un
intermediario E quest'ultimo deve appartenere al gruppo.
- approccio top down: Esso si occupa di definire la lamdba set, una sorta di graduatoria dei legami
più importanti della rete, senza i quali sarebbe compromessa in modo rilevante la sua struttura
originaria.

Posizioni ruoli ed equivalenze


Il concetto di ruolo nella Sna, è definito in termini di equivalenze fra gli attori. Secondo la sna, nel
caso dei ruoli, le somiglianze si misurano sulla base delle relazioni (somiglianza relazionale) si
possono quindi distinguere tre diversi tipi di equivalenze:
1) equivalenza strutturale: Quando due attori possiedono gli stessi legami con gli stessi attori
2) equivalenza automorfica: Quando due attori hanno la stessa struttura relazionale con gli altri
nodi a cui sono collegati, senza necessariamente essere gli stessi
3) equivalenza regolare: Quando due attori presentano legami con gli stessi tipi di persone.
esempio : Due padri. (Hanno lo stesso ruolo sociale) anche se uno ha due figli e l'altro uno solo.

reti vaste e complesse


Un altro problema è quello di analizzare le reti che si presentano come vaste complesse. Le reti
complesse presentano due caratteristiche:
: Fenomeno per cui ingrandendo, rimpicciolendo o spezzando la rete, si
osservano forme simili (questo si verifica tramite un grafico di distribuzione del degree).
, di cui ne individuiamo due tipi:
Reti egualitarie: Vengono un po' discusse per tre aspetti: Presentano nodi con molti collegamenti,
esibiscono invarianza di scala (power law), possono evolvere secondo meccanismi detti di

15
attaccamento preferenziale (preferential attachment): Più una pagina web è cliccata più sarà
visitata in futuro, ciò ha portato alla regola secondo il quale quando un individuo deve stabilire con
chi instaurare un legame lo farà con il nodo vicino che ha il maggior numero di legami. Ciò produce
reti di piccolo Mondo di tipo aristocratico.

16
lOMoARcPSD|3524121

Metodologia Della Ricerca Sociale (Elementi di metodologia


e tecniche della ricerca sociale)
Metodologia della ricerca sociale (Università degli Studi di Palermo)

StuDocu non è sponsorizzato o supportato da nessuna università o ateneo.


Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)
lOMoARcPSD|3524121

METODOLOGIA DELLA RICERCA


SOCIALE:
Libro: ELEMENTI DI METODOLOOGIA E TECNICHE DELLA RICERCA
SOCIALE.
Capitolo:1
CONOSCENZA SCIENTIFICA E CONOSCENZA SOCIOLOGICA:
L’edificio della conoscenza scientifica:
La sociologia è una scienza, tutte le scienze hanno l’obbiettivo comune di conoscere
qualcosa.
Il sociologo si occupa di temi astratti come il razzismo, la religione, la devianza ecc;
La conoscenza scientifica si può paragonare ad un edificio di 3 piani:
 PIANO EPISTEMOLOGICO: Questo piano sono le fondamenta dell’edificio,
l’epistemologia è una branca della filosofia che si occupa della conoscenza
scientifica. Questo piano è occupato da domande che riguardano l’esistenza
della realtà o se sia possibile conoscere la realtà, il problema più grande da
affrontare a questo livello nelle scienze sociali riguarda la sostanziale identità
tra soggetto conoscente e oggetto conosciuto cioè il problema è che chi
conosce e chi viene conosciuto sono della stessa natura; Esempio: sociologi
che studiano le persone e le loro relazioni.
 PIANO TEORICO- INTERPRETATIVO: In questo livello troviamo le teorie ovvero
le interpretazioni che lo scienziato produce su come il mondo funzioni. Una
TEORIA è “un insieme di proposizioni organicamente connesse, che si
pongono ad un elevato livello di astrazione e generalizzazione rispetto alla
realtà empirica (cioè possono prevedere il futuro, perché se accade “A”
sicuramente accadrà “B”), le quali sono derivate da regolarità empiriche e
dalle quali possono essere derivate delle previsioni empiriche”. Quindi una
Teoria è fatta sostanzialmente di frasi che ci dicono qualcosa sul mondo che ci
circonda, queste frasi non si devono contraddire tra di loro, devono riferirsi
allo stesso oggetto. Le Teorie possono essere applicate a tante situazioni,
infine le Teorie si appoggiano a fatti empirici che si riscontrano con una certa
regolarità; Esempio: sulla base del fatto che ogni giorno vediamo il sole

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

sorgere, possiamo prevedere che anche domani il sole sorgerà. Un IPOTESI è


una relazione tra due o più concetti, questa relazione è di solito di tipo
matematica o logica. Quindi un’ipotesi è “una proposizione che implica una
relazione fra due o più concetti, che si colloca su un livello inferiore di
astrazione e di generalità rispetto alla teoria e che permette una traduzione
della teoria in termini empiricamente controllabili”. Le ipotesi sono più
concrete rispetto alle teorie e quindi possono essere controllate
empiricamente, tramite misure, esperimenti, ecc, ma hanno un campo di
applicazione più limitato. Per fare una teoria è necessario unire più ipotesi. Le
ipotesi hanno generalmente carattere provvisorio e non conducono per forza
ad una teoria. Le ipotesi possono essere divise in IPOTESI GENERALI, che
hanno un campo di applicazione più ampio, e IPOTESI SPECIFICHE, che hanno
un campo di applicazione più ristretto.
 PIANO TECNICO-METODOLOGICO: Qui la scienza si occupa dei modi “pratici”
attraverso i quali è possibile conoscere il mondo. È a questo livello che
bisogna occuparsi di trovare le “prove” empiriche delle teorie sul mondo che
vengono formulate nel piano precedente. Infatti, non si può parlare di scienza,
se ogni teoria o ipotesi che abbiamo formulato circa il funzionamento del
mondo non è supportata da prove e dati empirici. Nelle scienze sociali però
può essere difficile raccogliere dati empirici per due motivi:
1. Nelle scienze sociali, soggetto conoscente e oggetto conosciuto non sono
separati.
2. Le scienze sociali hanno a che fare con concetti non direttamente
osservabili o misurabili (il razzismo, la felicità, la religione).
Concetti importanti del piano tecnico- metodologico:
- Il METODO: Sequenza più generale di azioni per raggiungere un obiettivo
conoscitivo (è solo uno);
- La TECNICA: Specifica procedura operativa per raggiungere un obiettivo
conoscitivo (possono essere tante);
- Lo STRUMENTO: Mezzo concreto per raccogliere dati empirici
(questionario);
- La METODOLOGIA: Discorso sul metodo (un ragionamento complessivo
che cerca di capire quali sono i metodi, le tecniche, gli strumenti).
Tutti e 3 i piani sono collegati fra loro.
In un lavoro di Thomas Kuhn viene introdotta la nozione di paradigma, per
spiegare come funziona il lavoro degli scienziati. Il paradigma è una guida che

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

orienta il lavoro dello scienziato. Più esattamente il paradigma è una


prospettiva teorica, condivisa da una comunità di scienziati, che definisce la
rilevanza dei fatti sociali, fornisce le ipotesi interpretative, orienta le tecniche
della ricerca empirica. Thomas Kuhn dice che fare scienza implica l’adozione di
un punto di vista particolare, appunto la prospettiva e se cambiamo questo
punto di vista le cose ci appaiono in modo diverso e quindi cambiano anche i
risultati del lavoro di ricerca. La definizione di Kuhn ci dice che un paradigma è
condiviso da una comunità di scienziati e spesso coloro che non lo
condividono sono considerati dei ciarlatani, per questo motivo la comunità
scientifica esercita un controllo severo sul lavoro dei suoi membri, attraverso
Seminari e convegni. Il paradigma suggerisce agli scienziati anche le cose di cui
si dovrebbe occupare: LA RILEVANZA, dei fatti sociali. Un paradigma
imponendoci un punto di vista specifico, ci vincola a ipotizzare il
funzionamento del mondo sociale in un certo modo, ciò determinerà anche il
tipo di tecniche che potremmo utilizzare: Le ipotesi interpretative e gli
orientamenti sulle tecniche. I paradigmi non sono eterni, capita che a volte
arrivando ad un certo punto un paradigma collassi preceduto da varie crepe e
lascia il posto ad una nuova prospettiva quindi a un nuovo paradigma.
I paradigmi sono rappresentati dalla risposta a tre questioni:
1. La QUESTIONE ONTOLOGICA (La realtà esiste?)
2. La QUESTIONE EPISTEMOLOGICA (Se la realtà esiste, è possibile
conoscerla?)
3. La QUESTIONE METODOLOGICA (Se esiste ed è possibile conoscerla,
come faccio a conoscerla?)
Il modo in cui viene data una risposta a queste tre domande costituisce la
ragione di essere un paradigma. Per spiegare queste tre domande e dargli una
risposta ci serviremo di alcuni quadri (Usiamo l’arte per spiegare tutto ciò
perché discipline umanistiche e scienze esatte sono la stessa cosa come
Leonardo Da vinci ha dipinto la gioconda ma ha anche costruito l’aereo).
Nelle scienze sociali esistono tre gruppi di risposte per queste tre domande e
queste risposte danno luogo a tre paradigmi:
- POSITIVISMO (primo paradigma): Un esempio di quadro positivista è
“La ville d’Avray”, è un’opera di J.B. COROT. In questo quadro noi
vediamo un paesaggio, una villa e degli alberi. Gli occhi dei positivisti
sono come gli occhi di Corot, cioè loro vedono questo di fronte a loro e
quindi per loro realtà è in quel modo. Quindi loro dicono che la realtà
esiste e pensano che tutto ciò che vedono esista; (Questa è la risposta

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

che viene data dai positivisti alla questione ontologica “la realtà
esiste?”) I positivisti dicono che la realtà è conoscibile oggettivamente,
Durkeim in un suo libro dice che dobbiamo considerare i fatti sociali
come oggetti, dice questa cosa perché non ci occupiamo più di soggetti
ma di cose e quindi per lui non c’è più il problema che il soggetto
conoscente e l’oggetto conosciuto sono la stessa cosa, e così è possibile
conoscere la realtà in modo oggettivo; (Questione Epistemologica e
risponde alla seconda domanda). I positivisti usano il metodo scientifico
per conoscere la realtà, questo metodo è basato sulle procedure
induttive, cioè io guardo la realtà e cerco delle regolarità, cioè cose che
accadono sempre allo stesso modo e così io posso formulare delle leggi,
queste leggi prendono il nome di LEGGE DETERMINISTICA (Legge
deterministica significa che le cose accadono sempre allo stesso modo,
quindi se accade “A” sicuramente accadrà “B”); (Questione
Metodologica e risponde alla terza domanda).
- IL NEO E POST-POSITIVISMO (Secondo paradigma): Un esempio di
quadro per il secondo paradigma è “Notte Stellata” dipinto da Van
Gogh. In questo quadro noi vediamo le stesse cose del quadro di Corot
descritto precedentemente, ma in realtà è diverso perché cambiano le
luci, i colori ecc, cioè è diverso il modo in cui gli stessi elementi ci
vengono mostrati. Qui la realtà esiste però non riusciamo a vederla
bene, perché è offuscata, questo punto di vista di Van Gogh viene
definito REALISMO CRITICO, perché la realtà c’è ma non riusciamo a
vederla in modo chiaro (Questione Ontologica “la realtà esiste?”), qui
iniziano i problemi perché si la realtà c’è ma può indurci in errore per la
limitazione dei nostri sensi, quindi la realtà si può conoscere ma con un
certo margine d’errore, perché ad esempio i nostri occhi e la nostra
mente possono vedere cose che non esistono come un incendio nel
quadro di Van Gogh. Qui soggetto conoscente e oggetto conosciuto non
sono del tutto separati, perché come ha fatto Van Gogh con il suo
quadro che è sia la notte stellata che lui stesso, anche gli scienziati
entrano nell’oggetto che stanno conoscendo, quindi a questo punto sul
mondo possiamo formulare soltanto congetture, in particolare gli
scienziati devono formulare congetture falsificabili; Questo concetto di
falsificabilità è di Popper e può voler dire due cose:
- Vuol dire che una congettura arrivando ad un certo punto si dimostra
falsa;
- Vuol dire anche che una teoria scientifica deve essere costruita in modo
tale di essere falsificata;

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Falsificabile vuol dire che qualcuno dice “si funziona”, ‘’no, non funziona” e se
non funziona si annulla e non come diceva Max che se non funziona si
aggiusta per adattarla al presente (Questa è la risposta alla questione
epistemologica). A questo punto dobbiamo capire come conoscere questa
realtà opaca, qui le scienze esatte hanno avuto un cambio di paradigma, cioè
la realtà è conoscibile per pezzi, ciò vuol dire affidarsi al linguaggio delle
variabili, non potendo conoscere la realtà direttamente, si deve ricorrere ad
un percorso tortuoso, mettendo assieme dei “pezzi” di conoscenza per
comprendere tutta la realtà, questi pezzi sono le proprietà e gli attributi della
realtà da conoscere (Questa è la risposta alla questione metodologica).
- COSTRUTTIVISMO (Terzo paradigma): Un esempio di quadro per il
terzo paradigma è “suprematismo” di Malevic, questo è un quadro
astratto ed è quindi difficile spiegare cosa c’è raffigurato, qui ognuno
ci vede quello che vuole. Qui la realtà c’è ma è una costruzione
sociale, cioè quello che ognuno vede è una realtà che si vede dopo
esserci messi d’accordo su quello che si vede, per questo motivo si
aprono possibilità di conflitto fra gruppi sociali diversi che
interpretano in modo diverso la realtà. I costruttivisti dicono che la
realtà non esiste in modo oggettivo ma va interpretata e va dato un
nome. (Questa è la risposta alla questione ontologica). Quindi se ci
sono realtà diverse è possibile conoscerle? Nel piano epistemologico
soggetto conoscente e oggetto conosciuto si conoscono, si
confrontano e questo viene ammesso nel processo di conoscenza, la
conoscenza deve fare i conti con i valori del ricercatore, il quale deve
perseguire la valutatività, cioè deve limitarsi a chiarire il significato
dei valori che ispirano le scelte sociali, quindi è necessario che il
ricercatore si spogli del proprio etnocentrismo visto che quest’ultimo
può influenzare l’interpretazione della realtà, in poche parole non
dare per scontata la realtà ma scoprirla e interpretarla ogni volta.
(Questa è la risposta al piano epistemologico). Weber, Rickert e
Windelband nel dibattito sul metodo che li impegnò contro il
positivismo, alla fine dell’800 (METHODENSTREIT) si reserò conto
che era necessario individuare un nuovo metodo scientifico che
poteva tener conto della specificità delle scienze sociali, superando
così definitivamente l’approccio positivista. Per Weber, in
particolare, il metodo delle scienze sociali si deve basare sul
“VERSTEHEN”, cioè sulla comprensione razionale dell’agire
individuale, orientato dal significato che gli viene attribuito dagli
attori sociali. Il sociologo così dovrà comprendere l’individuo che
agisce, spiegando razionalmente perché l’individuo ha agito in un

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

certo modo. Weber inoltre riconoscendo i limiti della conoscenza,


afferma che poiché la realtà non è conoscibile oggettivamente il
sociologo si deve “accontentare” di modelli della realtà che vengono
definiti tipi ideali. Questi modelli non corrispondono esattamente
alla realtà ma ne costituiscono una semplificazione come ad esempio
un modellino di un treno. (Questa è la risposta alla questione
metodologica).
ALCUNE TENDENZE PIU’ RECENTI:
 Linguistic Turn-> Discorso -> Costruzione sociale della realtà.
La lingua sa raccontare il mondo, più parole sappiamo più vedremo il mondo chiaro.

 Le sociologie interpretative:

- INTERAZIONISMO SIMBOLICO (negoziazione del senso) “Blumer” ci dice che il

significato delle cose che ci stanno a torno è contrastato con gli altri, cioè è perché

stiamo insieme a gli altri che capiamo le cose che ci stanno a torno. Interazionismo

simbolico significa che io vedo qualcosa e gli altri mi aiutano a capire il significato,

cioè mi guardo attorno e cerco di capire come comportarmi. Quindi noi diamo senso

alle cose interagendo con gli altri.

- APPROCCIO DRAMMATURGICO (situazioni e maschere) “Goffman” ci dice che

ciascuno di noi indossa delle maschere rispetto alla situazione che abbiamo davanti.

- ETNOMETODOLOGIA (metodi per comprendere la realtà: “indicalità” -> (contesto)->

“riflessività” (l’osservato e l’osservatore). L’etnometodologia porta all’estreme

conseguenze del modello interpretativo. Etno significa gruppo di appartenenza,

metodologia invece significa metodi da usare a chi appartiene a dei gruppi per

comprendere la realtà.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

- ANALISI DELLA CONSERVAZIONE, formata da Sacks. Questa analisi ci spiega che

attraverso le parole delle persone noi capiamo cosa stia succedendo.

Un ulteriore tentativo, derivato dagli studi sul linguaggio, di fare degli studi

socioculturali una scienza, lo troviamo nello STRUTTURALISMO (Levi Strauss). Negli

anni 70 l’idea di essere dominati da strutture non va più bene e quindi si fa avanti il

POST-STRUTTURALISMO che cerca di demolire il pensiero precedente. Un'altra

novità di quegli anni è anche il REALISMO, cioè i meccanismi nascosti. I realisti sono

coloro che hanno rinunciato a qualcosa e ragionano con i piedi per terra, appunto

sono più realistici. Negli ultimi anni una serie di scienziati hanno provato a costruire

un dialogo tra esponenti di teorie diverse, quindi abbiamo il Neo funzionalismo, lo

strutturalismo genetico, la teoria della strutturazione.

CAPITOLO: 2
I PERCORSIDELLA RICERCA SOCIALE:
Il primo modo si basa su due grandi categorie di ricerca:
- La ricerca descrittiva;
- La ricerca esplicativa;
La differenza tra la ricerca descrittiva e la ricerca esplicativa sta nella
domanda conoscitiva al quale devo rispondere. Nella ricerca descrittiva la
domanda sarà: come si presenta un certo fenomeno? Invece nella ricerca
esplicativa la domanda sarà: perché un fenomeno si presenta in un certo
modo?
Quindi nel caso della ricerca descrittiva, ci serviranno delle fotografie del
fenomeno, faremo dei confronti ecc; Nel caso della ricerca esplicativa

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

invece dovremo individuare le cause che hanno prodotto il fenomeno


osservato, capire come tali cause si combinano assieme, capire quali sono
quelle più importanti e viceversa ecc, avrò bisogno di costruire delle
ipotesi e a volte avrò bisogno di far riferimento alle teorie.
Il secondo modo si basa su altri due tipi di ricerca:
- La ricerca esplorativa;
- La ricerca confermativa;
Le differenze tra queste due ricerche sono dovute allo “stile” del
ricercatore. Nella ricerca esplorativa, il ricercatore affronta il percorso di
ricerca appunto come un esploratore che cerca di conoscere una realtà
ignota. La ricerca sarà tipicamente QUALITATIVA. Nella ricerca
confermativa invece, il ricercatore parte da un quadro ben delineato di
ipotesi e il suo compito è quello di trovare le “prove”, cioè i dati empirici
che confermano tale quadro, la ricerca sarà tipicamente QUANTITATIVA.
Il metodo della ricerca sociale è costituita da 5 fasi:
D=disegno della ricerca; C=costruzione della ricerca; F=organizzazione dei
dati; A=analisi dei dati; E=esposizione dei risultati. (guardare disegno a
pag.36). Questo percorso non è sempre lineare è possibile molte volte
che per vari motivi il ricercatore ritoni nei suoi passi, questo ritornare sui
suoi passi implica una perdita di tempo e di denaro prezioso, ciò va
assolutamente evitato ad esempio, disegnando correttamente fin
dall’inizio la ricerca.
Il disegno della ricerca:
Una ricerca sociale può nascere per diversi motivi o problemi:
- Un problema esiste in ambito teorico;
- Una indicazione proveniente da un “committente”, cioè da colui che
ordina la ricerca, e in genere paga per fare la ricerca;
- Una ricerca può scaturire da una motivazione interna al ricercatore;

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Una volta che la ricerca sociale è nata il primo passo è fare una
ricognizione bibliografica sull’argomento prescelto. Per fare questo
esistono le biblioteche, le riviste scientifiche, le risorse su internet ecc,
quando tutto ciò non è possibile perché ad esempio non esistono libri di
quell’argomento allora possiamo ricorrere alla raccolta di testimonianze
da parte di persone coinvolte o vicine al fenomeno che intendo studiare.
Il secondo passo consiste nello scegliere il tipo di ricerca, successivamente
abbiamo la chiarificazione dei concetti e delle eventuali ipotesi. A questo
punto si dovranno scegliere le nostre unità di analisi, cioè tipi di oggetti
concreti sul quale io farò la ricerca e possono essere persone, famiglie,
gruppi, nazioni, eventi ecc; Delle unità di analisi dovremmo scegliere
alcune proprietà, cioè le caratteristiche che ci interessano di più e sul
quale noi indagheremo. In fine dovremmo scegliere su quante unità di
analisi esattamente effettueremo la nostra indagine, in base alla nostra
scelta avremo:
- Un censimento, cioè quando considero tutta la popolazione di
riferimento.
- Un campione, quando seleziono una parte della popolazione.
- Un’analisi comparativa, cioè quando scelgo un piccolo numero di analisi.
- Lo studio di un caso, cioè quando considero solo una unità di analisi.
La costruzione della base empirica:
La fase di costruzione della base empirica costituisce il momento più
delicato di una ricerca. A questo livello, infatti vengono operate delle
scelte cruciali, che avranno delle ricadute anche su tutte le fasi successive.
Per questo motivo questa fase si può considerare il cuore della
Metodologia Della Ricerca Sociale. La fase di costruzione della base
empirica si articola in 5 sotto fasi:
1. Il passaggio dai concetti alle variabili (la cosiddetta operativizzazione dei
concetti);
2. La scelta della tecnica di rilevazione (il questionario, l’intervista, ecc);

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

3. La costruzione dello strumento concreto di rilevazione;


4. La sua validazione tramite un pre- test;
5. La rilevazione dei dati vera e propria.
Il processo di operativizzazione:
Il processo di operativizzazione dei concetti riguarda soltanto lo stile di

ricerca quantitativo. Operativizzare un concetto significa trasformarlo in

modo tale da poterlo misurare. Questo processo avviene attraverso delle

fasi:

1. Scegliere il concetto concreto da Operativizzare, cioè identificare il

concetto che m’interessa;

2. Costruzione della “definizione operativa”, che stabilisce le regole per la

traduzione del concetto. Cioè costruire uno schema che lo scompone

nelle sue proprietà concettuali e lo traduce nei suoi indicatori empirici. Ad

esempio, devo capire a partire da quali elementi empirici posso misurare

il mio concetto di qualità della vita, potrei scegliere il reddito

(indicatore1), la buona salute (indicatore 2) ecc; vanno cercati tutti quegli

indicatori che sommati l’uno all’altro riescono a coprire tutto il significato

del concetto, questo processo è la MASSIMIZZAZZIONE del rapporto di

indicazione.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

3. Cercare le modalità concrete attraverso le quali gli indicatori verranno

rilevati. Ad esempio, il reddito potrei rilevarlo facendo scegliere

un’intervista fra tre modalità: “altro”, “medio”, “basso” ecc. A volte è più

conveniente chiedere ad una persona in quale dei diversi casi sarebbe

d’accordo a interrompere una gravidanza anziché chiedergli se è

favorevole o meno all’aborto. Questo passaggio prende il nome di:

classificazione, ordinamento, conteggio o misurazione. Classificare

significa trovare un posto ad un certo numero di oggetti, che

corrispondono a una stessa classificazione. Una corretta classificazione

dovrebbe soddisfare tre requisiti:

- ESAUSTIVITA’: questo requisito richiede che tutti gli oggetti da classificare

possano trovare posto nelle categorie previste dalla classificazione.

- ESCLUSIVITA’: questo requisito impone che un oggetto deve avere

solamente un posto nella classificazione.

- UNICITA’ DEL FUNDAMENTUM DIVISIONIS: questo requisito richiede che

le categorie derivino da un unico criterio, principio o idea che lo distingue.

L’ordinamento invece, prevede di sistemare gli oggetti rispetto ad un

unico criterio gerarchico, ad una scala. Cioè significa mettere degli oggetti

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

al primo posto, al secondo ecc, i posti non sono tutti uguali, alcuni stanno

più in alto altri più in basso.

Il conteggio infine, esprime in termini numerici una quantità reale.

La misurazione è un conteggio più sofisticato. In quanto è il risultato

dell’applicazione di una precisa unità di misura: il metro, il litro, il watt

ecc.

È importante l’operativizzazione perché al fine di tutto, verranno fuori le

variabili. Una variabile è una proprietà che è stata sottoposta a un

operativizzazione, cioè è una proprietà operativizzata. Le variabili si

distinguono proprio in base al tipo di operativizzazione della quale

derivano: avremo una variabile nominale alla fine di una classificazione;

una variabile ordinale alla fine di un ordinamento e in fine avremo una

variabile cardinale alla fine di un conteggio o di una misurazione.

Le famiglie di tecniche di rilevazione:

Le tecniche di rilevazione, cioè le tecniche che servono a raccogliere i dati

empirici, nella ricerca sociale, sono numerose. Le tecniche di rilevazione si

possono dividere in:

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

- Tecniche basate sulla lettura di dati;

- Tecniche basate sull’osservazione;

- Tecniche basate sul domandare.

Per essere più precisi le tecniche di rilevazione dei dati possono essere

raggruppati nelle seguenti famiglie:

- La raccolta di fonti secondarie di tipo statistico;

- La raccolta di fonti secondarie di tipo testuale;

- L’esperimento;

- L’osservazione;

- Le interviste;

- Il questionario;

- La simulazione al computer.

In base all’obbiettivo conoscitivo che il ricercatore si è posto sarà più utile

e adeguata una t