Sei sulla pagina 1di 452

METODOLOGIA

1. Paradigma: Un paradigma è una prospettiva teorica, condivisa da una comunità di


scienziati, che definisce la rilevanza dei fatti sociali, fornisce ipotesi interpretative e orienta
le tecniche della ricerca empirica.
2. Paradigmi di ricerca: I paradigmi della ricerca sociale nascono dall’esigenza di rispondere a
tre questioni fondamentali: la questione ontologica (la realtà esiste?), la questione
epistemologica (se la realtà esiste, è possibile conoscerla?) e la questione metodologica (se
la realtà esiste ed è possibile conoscerla, come farlo?). Da queste tre domande nascono tre
paradigmi: il positivismo, il neo e post positivismo e il costruttivismo o interpretativismo.
3. Teoria e ipotesi: La teoria è un insieme di frasi che ci dicono qualcosa sul mondo che ci
circonda. Queste frasi devono essere collegate in maniera organica e si pongono ad un
elevato livello di astrazione e generalizzazione rispetto alla realtà empirica. Dalla teoria
possono essere derivate delle previsioni per ciò che riguarda i fenomeno futuri. L’ipotesi è
una proposizione che implica una relazione tra due o più concetti, si colloca ad un livello di
astrazione e generalizzabilità inferiore rispetto alla teoria. Un ipotesi ha carattere,
generalmente, provvisorio e non conduce necessariamente ad una teoria.
4. Tipi di ricerca: La ricerca può essere: descrittiva/esplicativa; esplorativa/confermativa (o
anche qualitativa/quantitativa). La differenza tra ricerca descrittiva e ricerca esplorativa sta
nella domanda conoscitiva alla quale si risponde. La ricerca descrittiva risponde al come si
presenta un fenomeno mentre la ricerca esplicativa al perché un fenomeno si presenta in
un determinato modo. La differenza che vi è tra ricerca esplorativa e ricerca confermativa
è da attribuire allo stile del ricercatore. Nel primo caso egli affronta la ricerca proprio come
un esploratore che cerca di conoscere una realtà ignota. Il ricercatore in questo caso si
affiderà ad un paradigma costruttivista. Nel secondo caso il ricercatore parte da un ipotesi
e cerca di trovare delle prove che confermino la sua ipotesi. La ricerca in questo caso sarà
quantitativa.
5. Fasi della ricerca: Le fasi della ricerca sociale sono: disegno della ricerca, che è il momento
della progettazione dell’indagine; la costruzione della base empirica; l’organizzazione dei
dati (framing); l’analisi dei dati e l’esposizione dei risultati.
6. Rapporto di generalizzazione universo/campione: Un campione è un modello della realtà e
non la realtà. Bisogna, cioè, considerare un “male necessario” del campionamento: l’errore
di campionamento. Un campione assomiglia alla realtà ma non è la realtà. L’errore di
campionamento è proprio la distanza tra il modello e la realtà.
7. Criteri per costruire una classificazione: Classificare vuol dire trovare un posto ad un certo
numero di oggetti, che si fanno corrispondere alle categorie di uno schema. Una corretta
classificazione deve soddisfare tre requisiti: quello di esaustività, il quale richiede che tutti
gli oggetti da classificare possano trovare posto nelle categorie previste dalla
classificazione, quello di esclusività, il quale impone che un oggetto debba avere uno ed un
solo posto nella classifica e quello di unicità del fundamentum divisionis, il quale prevede
che le categorie derivino da un unico criterio che le distingue.
8. Tipi di variabile: Le variabili si distinguono in base al tipo di operativizzazione dalla quale
derivano in: variabile nominale o categoriale alla fine di una classificazione; variabile
ordinale, alla fine di un ordinamento e variabile cardinale alla fine di un conteggio o di una
misurazione.
9. Errori non-campionari: Esistono quattro tipi di errore non campionario: gli errori di
selezione (ad esempio, quando la lista della popolazione è incompleta), gli errori di
misurazione (dovuti, ad esempio, a questionari fatti male), le non-risposte (rifiuti, persone
incontattabili, persone non-intervistabili), gli errori di procedura (errori di codifica o
s’inserimento dei dati).
10. Intervista (definizione): Con il termine intervista s’intendono parecchi modi di raccogliere
dati, ci si riferisce cioè a una serie di tecniche che si basano sul chiedere a un certo numero
di soggetti le informazioni di cui il ricercatore ha bisogno. L’intervista è una forma di
conversazione nella quale due persone s’impegnano in un’interazione verbale e non
verbale nell’intento di raggiungere una meta precedentemente definita.
11. Focus group (definizione): Il focus group è una tecnica di rilevazione per la ricerca sociale,
basata sulla discussione tra un piccolo gruppo di persone, alla presenza di uno o più
moderatori, focalizzata su un argomento che si vuole indagare in profondità.
12. Fasi di un focus group: Le fasi del focus group sono: la formazione del gruppo (forming); la
rottura dell’equilibrio iniziale (storming); l’emergenza di reole di conversazione (norming);
la definizione dei ruoli (performing); il congedo finale (mourning).
13. Tipi ideali di partecipanti: I tipi ideali di partecipanti sono: il leader, il negativo (colui che
esprime sempre dissenso, a prescindere); il joker o buffone; l’entusiasta; l’apatico
(caratterizzato da atteggiamenti di indifferenza); il polemico e il timido.
14. Backtalk: Il backtalk è uno strumento della ricerca etnografica attraverso il quale il
ricercatore ritorna insieme ai soggetti studiati sulle conclusioni del suo lavoro,
ricomponendo i vari frammenti del materiale raccolto. In questo modo, il ricercatore non
solo cerca di dar senso a ciò che ha visto e sentito ma cerca conferme o smentite riguardo
la plausibilità dei suoi resoconti.
15. Inchiesta campionaria (definizione): L’inchiesta campionaria è una tecnica di rivelazione
basata sul questionario, che fa ricorso a grandi campioni di tipo probabilistico, e si propone
di spiegare fenomeni e problemi sociali estesi e generali.
16. Scala (definizione): La scale è un insieme di item che servono a misurare un concetto più
generale o un atteggiamento non direttamente osservabile. Nel caso in cui volessimo
misurare il razzismo, ad esempio, dovremmo ricorrere ad una scala (in questo caso
particolare si parla di scala d’atteggiamento).
17. Probing: Il proibing è un segnale che c’è qualcosa che non ha funzionao nella
comunicazione tra intervistatore ed intervistato, e va gestito con cautela.

Domande approfondite
1. Positivismo: Un esempio di quadro “positivista” è La Ville d’Avray. Guardando il quadro,
nessuno avrebbe dubbi circa il fatto che in esso i vedano degli alberi, delle case ecc. Il
punto di vista dei positivisti è proprio questo: la realtà esiste, ed è conoscibile
oggettivamente (realismo ingenuo). Questa è dunque la risposta che viene data alla
questione ontologica ed epistemologica. Tuttavia, si deve fare una precisazione, come si
supera il problema che nelle scienze sociali soggetto conoscente e oggetto conosciuto
siano della stessa natura? Dobbiamo ad Emilè Durkein la risposta a questo fondamentale
problema; per il sociologo francese, infatti, i fatti sociali devono essere considerati come
cose, come oggetti. Dunque, separando la natura di soggetto conoscente e oggetto
conosciuto è possibile conoscere oggettivamente. Per quanto riguarda la questione
metodologica, i positivisti sostengono che la sociologia deve utilizzare il metodo delle
scienze esatte, un metodo basato sulla misurazione dei dati, la formulazione di leggi e
l’osservazione dei dati empirici. Secondo i positivisti, la sociologia può dirsi scienza proprio
perché utilizza lo stesso metodo delle scienze esatte.
2. Neo-post-positivismo: Un quadro che descrive il punto di vista dei neo e post positivisti è
La Notte Stellata di Vincent Van Gogh. In generale nessuno avrebbe problemi a riconoscere
un villaggio, una chiesa, gli astri del cielo ecc. Ciò che però ci fa riflettere è il modo in cui
essi ci vengono mostrati (realismo critico). Le risposte che vengono date alla questione
ontologica e a quella epistemologica è che la realtà esiste, ma che si deve scorgere, non
posso conoscerla oggettivamente a causa dei limiti dei miei sensi. I nostri occhi sono
abituati a vedere in un certo modo perché sono socializzati. L’ epistemologia non afferma
un netto dualismo tra soggetto conoscente e oggetto conosciuto, questi possono
interagire provocando dei guasti rispetto alla possibilità di conoscere in modo oggettivo il
mondo fisico e sociale. Si ricorsi che siamo nel periodo in cui Heisemberg ed Einstein
bissarono il muro delle conoscenze scientifiche assolute per aprire la strada al
probabilismo. A livello metodologico, si afferma che la conoscenza sociale si può avere
affidandosi al linguaggio delle variabili. La realtà non può essere conosciuta direttamente,
è come se si dovessero mettere insieme dei pezzi di conoscenza per comporre un mosaico
più complesso.
3. Costruttivismo: Un quadro che descrive il punto di vista costruttivista è il Suprematismo di
Kazimir. Ognuno di noi può vedere una cosa diversa in questo quadro. In sostanza i
costruttivisti sostengono che la realtà non esiste in maniera oggettiva ma è una
costruzione sociale (relativismo culturale). Sul piano epistemologico avviene il definitivo
abbraccio tra soggetto conoscente ed oggetto conosciuto. Il ricercatore deve cercare di
perseguire l’avalutatività, è necessario che egli si spogli del proprio etnocentrismo, che
potrebbe influenzare l’interpretazione della realtà. A livello metodologico si rende
necessario individuare un nuovo metodo, superando definitivamente l’approccio
positivista. Per Weber, in particolare, il sociologo dovrà comprendere l’individuo che
agisce, non nel senso di empatizzare con lui, ma arrivando a capire e spiegare
razionalmente perché l’individuo abbia agito in quel modo. Egli afferma che, poiché la
realtà non è conoscibile oggettivamente, il sociologo si deve accontentare dei modelli della
realtà, che vengono definiti ideal-tipi, che tuttavia conducono verso importanti luoghi della
conoscenza.
4. Postmodernità e ricerca sociale: Per quanto riguarda le tendenze postmoderne vi è un
significativo rifiuto delle teorie generali, il rifiuto della razionalità e della linearità,
l’esaltazione delle differenze. Si possono, innanzitutto, citare gli approcci del linguistic turn
(la svolta del linguaggio), tali approcci hanno rivolto una grande importanza al linguaggio e
al discorso, considerandoli come il veicolo di senso dell’ambito della vita sociale. Queste
influenze, in sociologia, prendono il nome di sociologie interpretative. Fanno parte delle
sociologie interpretative: interazionismo simbolico, l’approccio drammaturgico,
l’etnometodologia e le tecniche di analisi della conversazione. Lo strutturalismo, invece,
ricerca le forme invariabili delle relazioni sociali a prescindere dalle manifestazioni
concrete. L’eredità del positivismo è stata raccolta in parte dal realismo, che ribadisce
l’identità di metodo tra le scienze sociali e le scienze naturali, ma la ricerca sociologica è
concepita come diretta a cercare quel come dei fenomeni che non è immediatamente
visibile. Una terza via, che cerca di saldare insieme realismo e strutturalismo, è
rappresentata dal neofunzionalismo.
5. Disegno della ricerca: Una ricerca sociale può nascere per diversi motivi. Una volta iniziata
la ricerca, il primo passo da fare è quello di effettuare una ricognizione bibliografica, ove
ciò non fosse possibile si può fare ricorso a testimonianze di persone coinvolte o vicine al
fenomeno che intendo indagare. Il passo successivo è quello di scegliere in base al mio
obiettivo il tipo di ricerca (descrittiva/esplicativa o esplorativa/ confermativa). A questo
punto dovrò chiarire i concetti che utilizzerò e le eventuali ipotesi cui faccio riferimento.
Per esempio facendo ricorso a vocabolari della lingua, dizionari enciclopedici e costruendo
ipotesi in modo dettagliato e non ambiguo. Ogni ricerca va condotta su precise unità di
analisi: persone, famiglie, eventi, aziende. Una volta individuate le varie unità d’analisi
dovrò scegliere alcune proprietà sulle quali indagherò.
6. Operativizzazione di un concetto: Riguarda soltanto lo stile di ricerca quantitativo, poiché è
diretto all’espressione del linguaggio delle variabili. Operativizzare un concetto vuol dire
trasformarlo in modo da poterlo rilevare e/o misurare. Per far ciò devo individuare un
concetto, per esempio “la qualità della vita”. Poi costruire uno schema che lo scompone
nelle sue proprietà concettuali e lo traduce nei suoi indicatori empirici. Ad esempio, devo
capire a partire da quali elementi posso rilevare e misurare il mio concetto di qualità della
vita, potrei per esempio scegliere indicatori come il reddito, la buona salute etc. La scelta
degli indicatori deve avvenire in maniera tale da coprire tutto il significato del concetto. Il
passo successivo è quello di trovare le modalità concrete attraverso le quali rilevare gli
indicatori, per esempio individuando delle fasce di reddito che gli intervistati dovranno
segnare. A questo punto dovremmo classificare o ordinare o misurare o conteggiare i casi.
7. Framing (organizzazione dei dati): L’organizzazione dei dati consiste nel preparare o
trasformare i dati empirici raccolti, in modo da dare delle risposte al ricercatore.
L’organizzazione dei dati cambia a seconda che si sia scelto di raccogliere dati qualitativi o
quantitativi. Nel caso di dati qualitativi il tipo di organizzazione prevalente è la post-
codifica del materiale raccolto. Essa consiste nell’isolare frammenti di materiale empirico
attribuendogli un’etichetta di riconoscimento. Il lavoro del ricercatore in questo caso è
lungo e le categorie che si creano poco robuste, tuttavia negli ultimi anni sono nati dei
programmi di computer che assistono il ricercatore nella post-codifica. Nel caso dei dati
quantitativi, il framing (incorniciamento) è la cosiddetta matrice casi per variabili. Si tratta
di una griglia, organizzata in righe e colonne, in cui le prime rappresentano i casi e le
seconde le variabili. I dati raccolti vengono inseriti nelle celle che risultano dall’incrocio riga
per colonna.
8. Esposizione dei risultati: L’esposizione dei risultati è il momento finale della ricerca. In
questa fase si scrive il cosiddetto report di ricerca, ossia un libro, una relazione, una tesi
che contengono sia i risultati ottenuti, sia una scelta delle scelte metodologiche adottate.
Un report dovrebbe contenere: introduzione (illustra in modo sintetico la struttura del
report stesso, gli obiettivi della ricerca sociale e le principali conclusioni cui si è giunti), lo
stato dell’arte (una sintesi della letteratura scientifica esistente fino a quel momento
rispetto a quel fenomeno), la presentazione dei risultati, i commenti, le conclusioni della
ricerca sociale, una nota metodologica (che spieghi le scelte adottate), i riferimenti
bibliografici.
9. Campione probabilistico: Il campionamento probabilistico, deve rispettare il criterio che
tutte le unità della popolazione abbiano la stessa probabilità di essere incluse nel
campione. I campioni probabilistici sono ritenuti essere rappresentativi della realtà, ciò
vuol dire che i risultati ottenuti su quel particolare campione possono essere generalizzati
per tutta la popolazione dalla quale il campione proviene. Un ulteriore vantaggio del
campionamento probabilistico è che l’errore di campionamento può essere misurato. Vi
sono diversi tipi di campioni probabilistici: il campione causale semplice, il campione
sistematico e il campione stratificato.
10. Campione non probabilistico: I campioni non probabilistici sono in genere fatti ad hoc o
sono suggeriti dalla teoria. Ciò vuol dire che sono costruiti al fine di ottenere una
rappresentatività tipologica. Questa viene raggiunta quando si ha un numero sufficiente di
esemplari delle varie unità d’analisi. La rappresentatività tipologica genera risultati
trasferibili ma non generalizzabili. I campioni non probabilistici sono di diverso tipo:
campioni per quote, a valanga, a scelta ragionata, teorico e di convenienza. Il problema più
grosso dei campioni non probabilistici è che l’errore di campionamento non è
quantificabile.
11. Tipi di intervista: Un primo criterio di classificazione delle interviste può essere il modo in
cui sono organizzate le domande. In questo modo avremo: l’intervista strutturata (o
standardizzata) che presenta domande standardizzate, cioè da porre nello stesso ordine e
nella stessa formula a tutti gli intervistati; l’intervista semi-strutturata, in cui non esiste
uno schema fisso di domande. L’intervistatore piuttosto dispone di una sorta di scaletta di
temi da trattare nelle domande, che potranno variare da intervista ad intervista;
l’intervista non-strutturata (o libera), che parte da un tema da trattare ma non esistono
domande prestabilite, ogni intervista fa storia da sè. Un secondo criterio di classificazione
riguarda il ruolo o lo stile dell’intervistatore. Avremo così: l’intervista direttiva (o guidata),
in cui l’intervistatore segue scrupolosamente la struttura prevista delle domande;
l’intervista non-direttiva (o libera), in cui chi pone le domande tende a seguire
l’intervistato nei suoi ragionamenti, reagendo agli stimoli nuovi che di volta in volta
emergono; l’intervista semi-direttiva, in cui è presente una parte che va somministrata allo
stesso modo a tutti i soggetti, e una parte in cui si assecondano le esigenze
dell’intervistato. Un terzo criterio di classificazione riguarda il tipo di domande e di
risposte: standardizzate o non-standardizzate. Infine possiamo distinguere le interviste in
base al numero degli intervistati, avremo perciò interviste individuali e di gruppo
(suddivise a sua volta in interviste di gruppo naturali e artificiali, a seconda che i gruppi
esistano indipendentemente dalla volontà del ricercatore). Vi sono, inoltre, interviste
biografiche o storie di vita.
12. Rapporto intervistatore-intervistato: La prima cosa da considerare sono le caratteristiche
di sfondo di intervistato e intervistatore, in termini di età, cultura, condizioni
socioeconomiche, ecc. Queste caratteristiche di sfondo influenzano i fattori psicologici dei
due soggetti in interazione. L’aspetto più importante, è legato alle motivazioni. Una cattiva
percezione dell’intervistatore, determina una bassa motivazione a collaborare con
l’intervistatore. Le condizioni di sfondo dell’intervistato possono demotivare
l’intervistatore fino a farlo desistere dall’intervista, o a condurla in modo forzato. Vanno
considerati i diversi fattori comportamentali che riguardano intervistatore e intervistato, e
hanno una diretta ricaduta metodologica.
13. Comportamento dell’intervistatore: Può essere utile che l’intervistatore si presenti prima
dell’intervista. In secondo luogo, bisogna che l’intervistatore studi bene lo strumento che
dovrà somministrare, per evitare di trovarsi in difficoltà di fronte a dubbi, esitazioni ecc. da
parte degli intervistati. Inoltre, sarà necessario trovare un abbigliamento adeguato, adatto
al tipo di persone da intervistare. A questo punto l’intervistatore, dovrà: - assicurare
l’intervistato circa la brevità del colloquio; – citare il committente della ricerca; –
specificare il tema dell’intervista, se una persona sa cosa vuole sapere esattamente
l’intervistatore, sarà più propensa a collaborare; – assicurare circa la scientificità della
ricerca, le persone sono molto disponibili a collaborare ad un lavoro che si presenta come
scientifico; – spiegare perché si è scelto d’intervistare proprio quella persona, sapere, che
si è stati estratti attraverso una procedura “impersonale” rassicura molto gli intervistati; –
infine, garantire l’anonimato dell’interista, a tutela della privacy di colui che è intervistato.
L’intervistatore deve cercare di creare una situazione di normale conversazione, mai di
giudizio. Lo sforzo deve riguardare anche la comunicazione non verbale. Se dovesse
interpretare la situazione in cui si trova come una specie d’esame, egli fornirà delle
risposte artefatte, distorte, e alla fine inutili per la ricerca. Se è previsto l’uso del
registratore, bisognerà chiedere di accenderlo solo dopo l’inizio dell’intervista. Se è
previsto uno strumento d’intervista strutturato, bisognerà rispettare la sequenza delle
domande. L’intervistatore non deve mai esprimere le proprie opinioni nel corso
dell’intervista. L’intervistatore deve evitare di far traspirare qualsiasi coinvolgimento
emotivo. Allo stesso modo, per via del fatto che l’intervistatore si fa inevitabilmente
un’idea del suo interlocutore, influenzata da certe caratteristiche di sfondo, deve imparare
a superare gli stereotipi e i pregiudizi che la percezione dell’altra persona ha attivato. Un
intervistatore, deve sapere ascoltare l’intervistato, piuttosto che rimanere aggrappato al
suo foglio di carta con lo schema delle domande. Infine, l’intervistatore non deve mai
imporre una risposta nel caso ottenga un rifiuto.
14. Analisi delle interviste: Per l’analisi delle interviste, esistono due approcci: quello
etnografico o narrativo, che consiste nel raccontare il materiale raccolto avvalendosi di
brani significativi estratti dalle trascrizioni; e quello quantitativo, che prevede una codifica
sistematica delle trascrizioni in categorie di temi e concetti, i quali andranno poi
conteggiati e riassunti in grafici e tabelle.
15. Tipi di osservazione: I diversi tipi di osservazione possono essere classificati facendo
riferimento a diverse dimensioni, quali: la partecipazione o meno del ricercatore,
l’intrusività degli strumenti di rivelazione, il grado di strutturazione e l prospettiva adottata
dal ricercatore. Si può parlare di: 1) osservazione partecipante o non partecipante, a
seconda che il ricercatore si mischi o meno tra le persone e nelle situazioni da studiare. L’
osservazione partecipante può essere scoperta o nascosta a seconda che il ricercatore
dichiari o meno la propria identità;
2)d’intrusività alta o bassa, a seconda che gli strumenti d’osservazione siano o meno
nascosti;
3)d’osservazione strutturata o non strutturata, a seconda che il ricercatore si attenga ad
uno schema prestabilito, oppure si lasci guidare da persone, circostanze o eventi che si
presentano alla sua attenzione; 4) di
prospettiva marziano o prospettiva del convenuto, a seconda che il ricercatore cerchi di
guardare i suoi oggetti di studio col distacco che, appunto, avrebbe un ipotetico marziano
oppure che il ricercatore si lasci conquistare dalle persone e dai contesti che osserva.
16. Cosa si osserva: L’attività di osservazione non riguarda solo il guardare, ma è un’esperienza
che coinvolge l’udito, l’olfatto, il tatto, il gusto. L’osservazione dovrebbe coinvolgere
almeno i seguenti aspetti: il contesto storico, che riguarda il passato del contesto da
studiare; il contesto fisico, cioè le caratteristiche dei luoghi in cui l’interazione si svolge; il
contesto sociale, cioè il modo in cui è organizzata la società da studiare, in termini di
differenze uomo-donna, giovane-anziano, ricchi e poveri; le interazioni formali ed
informali, cioè ,ad esempio; i modi di stare assieme delle persone in pubblico e in privato;
le interpretazioni orali e scritte dei nativi, cioè le spiegazioni del mondo che li circonda da
parte dei soggetti studiati; le produzioni materiali e simboliche, che riguardano ciò che le
persone fanno insieme: oggetti di lavoro, modi di decidere, riti d’iniziazione.
17. Problemi dell’osservazione: I problemi dell’osservazione partecipante sono diversi.
Innanzitutto l’accesso alla realtà da studiare, soprattutto nel caso di osservazione
partecipante di tipo scoperto. In questo caso i nativi potrebbero opporre resistenza alla
presenza di un intruso che vorrebbe studiarli. Per ovviare a questo problema potrebbero
intervenire dei mediatori culturali o degli informatori, persone che godono della fiducia
della popolazione in studio nel primo caso o testimoni incaricati da qualche istituzione che
parlando con la popolazione facilitino il compito del ricercatore e la sua inclusione. Nel
caso dell’osservazione nascosta il problema principale è quello etico: è giusto osservare e
studiare delle persone in incognito, e poi raccontare in una pubblicazione scientifica ciò
che si è sentito? Questo problema potrebbe essere risolto garantendo l’assoluto
anonimato dei soggetti studiati. Un ulteriore problema dell’osservazione partecipata è il
coinvolgimento emotivo del ricercatore che potrebbe causare problemi in termini di
obiettività. Un ultimo problema delle tecniche osservative riguarda la generalizzabilità dei
risultati.
18. Moderatore di un FG: Il compito del moderatore è quello di mantenere la discussione in
tema, rispettare i tempi, e gestire l’interazione tra i partecipanti, in modo che tutti si
possano sentire proprio agio ed esprimere liberamente le proprie idee e opinioni. Per fare
ciò il moderatore deve possedere certe caratteristiche: capacità comunicative, conoscenza
delle dinamiche di gruppo, esperienza, sensibilità, autorevolezza. Il moderatore ha il
compito di agevolare il warm up, cioè la fase di riscaldamento prima della discussione. Alla
fine dovrà riuscire ad istaurare un clima confortevole. Dovrà cercare di far parlare tutti,
evitando di fare “il giro delle domande”, ogni partecipante parlerà solo quando avrà
qualcosa da dire.
19. Organizzare un FG: Organizzare un FG vuol dire scegliere il numero e la composizione dei
gruppi, il luogo di svolgimento del focus e reclutare i partecipanti. Ogni FG è composto in
genere da otto persone, le quali possono variare da un minimo di quattro ad un massimo
di dodici. Il ricercatore avrà cura di prevedere un numero lievemente maggiore di
partecipanti, al fine di evitare che l’assenza di qualcuno faccia fallire il FG. Il reclutamento
inizia con l’individuare le caratteristiche delle persone da intervistare (per esempio le
esperienze che queste persone hanno avuto in un certo campo). La via più facile, tuttavia,
di individuare i partecipanti è quella di sceglierle tra i conoscenti dei miei conoscenti,
persone che non mi conoscono personalmente e non si conoscono fra di loro. Si può
incentivare la loro partecipazione mettendo a loro disposizione dei gadget. Quando si
contattano le persone si accenna solo vagamente al tema del FG, per evitare che esse
possano documentarsi prima, lo scopo del FG è studiare come le opinioni si formino nel
dibattito, non prima. Il numero complessivo di FG da effettuare è, in genere, tre. Non ha
alcun senso effettuare solo un FG. Per quanto riguarda il luogo di svolgimento, è buona
ricerca scegliere un luogo neutro, in modo che nessuno possa “giocare in casa”. Inoltre, è
utile disporre le persone in cerchio, perché ciò indica che tutti i partecipanti sono uguali e
possono partecipare liberamente alla discussione.
20. Desiderabilità sociale, acquiescenza, pseudo-opinioni: La desiderabilità sociale è quel
fenomeno per cui la persona intervistata finisce col dare all’intervistatore delle risposte
che appaiono socialmente accettabili, ma alle quali non crede veramente. Ciò può avvenire
perché il setting dell’intervista non agevola la conversazione serena o non vi è fiducia nei
confronti dell’intervistatore. L’acquiescenza è la tendenza di certi individui a dichiararsi
d’accordo con le affermazioni contenute nelle domande, o a rispondere sempre
affermativamente ad esse, indipendentemente dal contenuto. Le pseudo-opinioni sono il
risultato della mancanza di opinioni dell’intervistato, il quale, pur di non mostrare la sua
“ignoranza” su un certo argomento, s’inventa una risposta sul momento.
21. Psicologia di chi risponde: Le persone sottoposte a un questionario interpretano in vario
modo le domande che gli vengono poste, dando luogo a numerose forme di distorsione
dalla relazione tra intervistato ed intervistatore. Le più importanti sono: la desiderabilità
sociale, l ‘acquiescenza e la pseudo opinione. Tali distorsioni sono determinate da quattro
fonti: il contenuto più o meno comprensibile e/o sensibile della domanda, la struttura più
o meno logica e ordinata del questionario, il contesto più o meno consono in cui avviene il
colloquio, il comportamento più o meno corretto da parte dell’intervistatore e le sue
caratteristiche di sfondo.
22. Come formulare le domande in un questionario: Una regola generale è quella di essere
chiari nel linguaggio e semplici nella struttura sia delle domande che dello strumento. Più
specificatamente: le domande devono usare un vocabolario semplice, la loro sintassi deve
essere lineare, esse non devono mai contenere due domande in una, le domande devono
essere concrete rispetto al tempo e agli eventi da ricordare, non devono mai suggerire una
risposta in particolare, il numero di alternative deve essere molto limitato, tutte le
alternative di risposta devono apparire accettabili, le alternative di risposta devono essere
esaustive e, in genere, mutuamente esclusive.
23. Tipi di domande: Possiamo distinguere, essenzialmente, due tipi di domande: aperte o
chiuse. Le domande aperte sono utili quando il ricercatore pensa che sia meglio lasciare gli
intervistati liberi di usare le proprie parole per esprimere un pensiero. Poiché queste
domande richiedono una successiva post-codifica prima di poter analizzare i dati, quindi
tempo, fatica e soldi in più, per molto tempo si è preferito l’uso dei questionari; negli
ultimi tempi, considerati gli sviluppi tecnologici, molte riserve sono cadute. Le domande a
risposta chiusa sono di gran lunga più frequenti. Esse permettono un immediato
trattamento statistico. Lo svantaggio è nel fatto che a volte l’intervistato non riesca a
scegliere una risposta adatta.
24. Pre-test: Prima di somministrare il questionario è necessario effettuare almeno un pre-test
dello strumento, per verificare che esso sia compreso dagli intervistati e non produca
evidenti distorsioni. Va rivolto a soggetti simili a quelli facenti parte del campione, in una
proporzione che non supera il 10% del campione. Il pre-test può essere condotto in diversi
modi: registrato le reazioni dei rispondenti durante l’intervista, intervistando o facendo
commentare il questionario ex-post, oppure facendo esaminare il questionario da una
commissione di esperti.
25. Come si somministra un questionario: Si distingue fra questionario auto-somministrato e
questionario etero-somministrato. Un’ ulteriore distinzione riguarda il modo in cui
vengono raccolti i dati: faccia a faccia, per telefono, via posta, o attraverso il computer
nelle sue forme. Ogni modalità presenta vantaggi e svantaggi in termini di costi, rapidità,
intrusività, garanzie d’anonimato, modalità di caricamento dei dati. Si deve di volta in volta
trovare il giusto compromesso tra costi e benefici rispetto agli altri fattori. Infine, i
questionari posso essere somministrati in circostanze singole (studio trasversale) o più
volte nel tempo (studio longitudinale). Gli studi longitudinali si dividono a loro volta in:
inchieste trasversali replicate, quando lo stesso questionario viene somministrato in più
occasioni a diversi campioni, e i planet, quando lo stesso questionario viene somministrato
allo stesso campione nel corso del tempo.
26. La scala Likert: La scala Likert è una scala additiva, che si costruisce sommando i punteggi
ottenuti da un individuo su ciascun item. La costruzione della scala Likert si svolge i quattro
fasi: 1) definizione degli item che si pensano adatti a misurare il concetto; 2) la
somministrazione di tali item attraverso il questionario; 3) il controllo di coerenza interna
dalla scala; 4) il controllo di validità e unidimensionalità (misura solo un concetto?).
27. L’alpha di Cronbach: L’alpha di Cronbach misura la coerenza interna della scala e, dunque,
l’attendibilità. Se voglio misurare il razzismo, e una persona ha un punteggio alto verso il
primo, il secondo ed il terzo item, mi attendo che anche nel quarto abbia un punteggio
alto, se ciò non accade nella scala c’è un problema. Alpha=nr.(1+r(n-1)). L’alpha di
Cronbach varia tra 0 e 1, più grande è, più la scala è coerente e dunque attendibile. Alcuni
autori hanno proposto il valore di 0.7 come valore limite di coerenza, maggiore di 0.7 la
scala è coerente. Un valore basso dell’alpha può essere dovuto anche al fatto che la scala
sia multidimensionale, dunque, occorrerebbe fare anche un test dell’unidimensionalità.
28. Analisi dei casi: Le tecniche di analisi dei casi sono: il case study, l’analisi comparativa e la
cluster analysis. Lo studio d’un caso è l’esame “dettagliato” di un oggetto o di un
fenomeno, che viene considerato in qualche modo esemplare. Tale esame dettagliato può
avvenire sia attraverso un approccio di tipo qualitativo sia attraverso un approccio di tipo
quantitativo. Lo scopo dell’indagine è quasi sempre di natura descrittiva, e raramente avrà
pretese di generalizzabilità. Con l’analisi comparativa, si mettono a confronto alcuni casi,
individuando delle caratteristiche comuni e verificandone somiglianze e differenze. Anche
in questo caso, si può procedere sia con un approccio qualitativo, sia con un approccio
quantitativo. L’analisi dei gruppi infine, è una famiglia di tecniche di analisi di tipo
quantitativo. Al suo interno si distinguono: tecniche gerarchiche, tecniche iterative o delle
partizioni ripetute, tecniche baste sulla densità locale e, infine, le cosiddette reti neurali. La
cluster analysis serve a classificare i casi della ricerca, a costruire delle tipologie. La cluster
analysis produce gruppi. Tali gruppi devono risultare molto omogenei al loro interno, e
molto eterogenei tra loro.
29. Analisi monovariata: L’analisi monovariata si occupa delle variabili prese ad una ad una, e
ha scopi puramente descrittivi. Con questo tipo di analisi si intende conoscere la
distribuzione di certe variabili fra i casi studiati. La forma più semplice di analisi
monovariata è la rappresentazione tabellare di una distribuzione.
30. Analisi bivariata: L’analisi bivariata si occupa delle variabili prese a due a due, e ha scopi
esplicativi, cioè attraverso l’analisi bivariata si possono controllare delle ipotesi. Uno
strumento di base per l’analisi bivariata è la tabella di contingenza. Ogni riga corrisponde a
una modalità della prima variabile e ogni tabella alle diverse modalità della seconda
variabilie. L’incrocio tra una riga e una colonna dà luogo a una cella che mostra il numero
di casi che possiedono quella combinazione di attributi. L’analisi bivariata è utile quando si
vuole studiare la dipendenza tra le due variabili.
31. Analisi del contenuto: L’analisi del contenuto è una tecnica di analisi delle parole nei
documenti. Si tratta di scomporre i testi (sistema di significato), tramite procedure
impersonali, in elementi più semplici allo scopo di classificarli in categorie di senso. Essa è
adoperata per analizzare tutti i tipi di materiale scritto, fra cui anche le domande scritte, i
focus group, le interviste. Le tecniche di analisi del contenuto sono: l’analisi delle
frequenze, l’analisi delle contingenze e l’analisi degli assetti valutativi.
32. Analisi delle frequenze: L’analisi delle frequenze si effettua contando le presenze nei testi
studiati di parole, keywords, categorie o temi d’interesse. L’assunto di fondo è che più una
parola o un tema ricorrano nel testo, maggiore è la loro importanza.
33. Analisi delle contingenze: L’analisi delle contingenze serve a capire se due parole vengono
regolarmente associate all’interno dei testi esaminati. Uno degli indici più diffusi di
associazione è il coefficiente del coseno (una sorta di covarianza, si calcola come rapporto
tra le volte in cui le parole compaiono assieme e il prodotto delle radice quadrata delle
volte in cui compaiono separatamente).
34. Analisi degli asserti valutativi: L’analisi degli assetti valutativi è basata sull’analisi delle frasi
contenute nei testi. Serve a capire come vengono valutati determinati oggetti del discorso
(ad esempio, un noto personaggio dello spettacolo o una categoria di persone come gli
immigrati) dagli autori dei testi studiati. Per effettuare questo tipo di analisi, il ricercatore
si affida a dei differenziali semantici che ricordano quelli del questionario. Ogni frase viene
valutata con un punteggio che va da -3 a +3. Vengono poi calcolate le medie di tutti i
giudizi e alla fine viene elaborato un grafico.
DOMANDE DI METODOLOGIA (SECONDA PARTE)
1. Differenza tra ricerca qualitativa e ricerca quantitativa
2. Schema di Ricolfi
3. Validità, attendibilità, triangolazione
4. Tecnica delle k-medie
5. Analisi delle corrispondenze lessicali
6. Come analizzare le dinamiche di un focus group con l’analisi di rete
7. Sociomatrice e sociogramma
8. Densità di rete
9. Le misure di centralità e potere nell’analisi di rete
10. Trovare i sottogruppi nell’analisi di rete
RISPOSTE
1. L’etimologia del termine quantitativo fa riferimento al concetto di determinazione
numerica, l’analisi quantitativa mira a determinare in quale proporzione certi
elementi sono presenti in un oggetto di studio. Il termine qualitativo si riferisce a ciò
che concerne la qualità e rimanda al concetto di determinazione logica. L’analisi
qualitativa mira a determinare la natura di un certo oggetto di studio. Nella filosofia
delle origini la conoscenza qualitativa non mira all’individuazione di rapporti e
dipendenze alle quali mira la conoscenza scientifica, da qui nasce il pregiudizio
antiscientifico intorno al concetto di qualità.
Nella pratica è difficile riuscire a distinguere la qualità dalla quantità; possiamo
quindi considerare entrambe come due estremi di un intervallo all’interno del quale
è possibile collocare molteplici graduazioni intermedie.
La ricerca quantitativa, per Berg, riguarda il conteggio e la misurazione di oggetti.
Boudon sposta invece l’attenzione sulla comparabilità. È questa comparabilità che
permette di effettuare l’analisi quantitativa dei dati. (Per Ricolfi…)
Qualsiasi attributo che misuriamo con numeri sarà denominato variabile
quantitativa.
Per quanto riguarda la ricerca qualitativa cercare una definizione è problematico.
Per Berg essa riguarda i significati, i concetti, le caratteristiche, le metafore, i
simboli e le descrizioni di oggetti. Il ricercatore è interessato principalmente a come
gli esseri umani si organizzano e danno senso a se stessi e a ciò che li circonda. La
ricerca qualitativa offre degli strumenti per accedere a degli oggetti non
quantificabili che riguardano gli individui concreti che il ricercatore osserva. La
dicotomia qualità/quantità è solo una questione di misurazione: alle rispettive
categorie degli attributi verranno assegnate denominazioni e non numeri. Il dibattito
su qualità e quantità si è sviluppato su piani diversi:
• logico, con riferimento alle procedure di argomentazione di giustificazione del
sapere
• storico
• epistemologico
• metodologico
• tecnico
L’opposizione qualità/quantità si dimostra tutt’altro che definita, e rimane discutibile
l’idea diffusa di chi ritiene che l’adesione a l’uno o all’altro modo di conoscere la
realtà sociale rinvii necessariamente a modi diversi di intendere la realtà stessa,
negando che la questione metodologica fondamentale sia un problema di
adeguatezza e cioè dei metodi e degli strumenti giusti per conseguire un
determinato obbiettivo conoscitivo in merito ad una data realtà sociale.
2. VEDI FOTOCOPIA

3. La ricerca scientifica deve produrre conoscenze pubbliche e controllabili. Essa si


deve chiedere quanto siano accurate le rappresentazioni della realtà che ottiene, se
le conclusioni a cui è giunta siano applicabili a tutti i casi o solo a quelli studiati, e
quanto esse risultino stabili nel tempo o possano essere replicate da altri ricercatori,
a parità di condizioni. Tali controlli vengono effettuati ricorrendo ai criteri di validità e
attendibilità.
La validità fa riferimento al grado col quale una certa procedura di traduzione di un
concetto invariabile effettivamente rileva il concetto che si intende rilevare. Essa è
un giudizio circa il grado di rappresentazione semantica fra il mondo reale e le
risultanze empiriche della ricerca. Possiamo distinguere la validità interna che
riguarda la pertinenza delle spiegazioni date alla situazione oggetto di studio, e una
esterna, che riguarda la generalizzabilità delle spiegazioni date ad altre situazioni
analoghe.
L’attendibilità ha a che fare con la riproducibilità del risultato e segnala il grado con
il quale una certa procedura di traduzione di un concetto invariabile produci gli
stessi risultati, in prove ripetute con lo stesso strumento di rilevazione
nell’accezione consolidata derivante dalla psicometria, indica il grado di congruenza
fra due o più vettori colonna della matrice, che intendono rilevare la stessa proprietà
in condizioni differenti: tale differenza può riguardare lo strumento, il momento della
somministrazione, il giudice osservatore.
La triangolazione è un punto fermo nella riflessione sul metodo delle scienze sociali
e consiste nella proposta di studiare uno stesso oggetto attraverso prospettive
teoriche, metodi, ricercatori e dati diversi allo scopo di ottenere una convergenza di
massima dei risultati ottenuti e di rendere meno opaca possibile la complessa realtà
dei fatti sociali. Possiamo individuare tre tipi di triangolazione: un ricercatore che
usa due o più tecniche; due o più ricercatori che usano la stessa tecnica; due o più
ricercatori che usano due o più tecniche.

4. La tecnica che meglio risponde all’esigenza di raggruppare in tipi diversi i casi di


una matrice dati è la cluster-analysis che si basa sull’analisi delle relazioni di
somiglianza o differenza tra oggetti. Essa ha l’obiettivo di ordinare i casi in gruppi
(cluster), in modo tale che vi sia una forte omogeneità fra i membri di un stesso
gruppo e una forte eterogeneità tra i membri di gruppi diversi. Possiamo distinguere
quattro procedure di clustering:
Gerarchiche, delle partizioni ripetute ed iterative (k-medie), basate sulla densità
locale, o che impiegano reti neurali.
Tale procedura prevede che il ricercatore determini a priori il numero di cluster,
ciascun caso viene inizialmente assegnato ad un gruppo, a questo punto attraverso
una procedura iterativa gli oggetti vengono spostati da un gruppo all’altro, cercando
di minimizzare qualche misura di distanza dal centro del cluster (centroide), fino a
quando non verrà raggiunta la configurazione ottimale, che garantisce la minima
varianza intra gruppo e la massima varianza inter gruppo.

5. L’analisi delle corrispondenze lessicali è una tecnica di natura esplorativa che si


prefigge il compito di individuare le possibili dimensioni latenti che è meglio
descrivono i dati in analisi. La sua utilità nel campo dell’analisi testuali sta nel fatto
che essa consente di ottenere una prima sintesi dell’informazione contenuta nei dati
senza dovere effettuare alcun intervento intermedio di codifica. Una parola è tanto
più significativa quanto più essa è specifica di determinati gruppi di persone. Il
presupposto fondamentale dell’analisi del contenuto classica è che le ricorrenze in
un testo di determinate parole o temi rivelino maggiore importanza attribuita dalla
fonte. È inoltre possibile associare un certo tipo di vocabolario a determinate
variabili della matrice che riguardano le caratteristiche sociografiche
dell’intervistato. L’ACL riguarda spesso l’analisi delle domande aperte, per tre
motivi:
- Da una rapida e sintetica rappresentazione dei contenuti
- Il vocabolario ridotto presente nelle risposte e la sua ripetitività si presta
maggiormente ad essere tipizzato in un approccio che si basa su ridondanza e
differenza
- Vi è la possibilità di associare dati testuali ad altre variabili contenute in
un’intervista o in un questionario.
Per effettuare un’ACL i testi vengono organizzati una matrice rettangolare
lemmiXtesti. Le parole corrispondono a un’ipotetica variabile “lessico”, mentre i testi
alle modalità di un ipotetica variabile “testo” (costituiti da risposte a domande
aperte).

6. 7. 8. 9. 10. Durante l’effettuazione di un focus group il moderatore dovrebbe essere


affiancato da almeno un’altra persona (assistente moderatore o osservatore) che lo
aiuti ad annotare le dinamiche e le informazioni principali che via via emergono dal
dibattito. Trattandosi di un compito che va svolto in tempo reale, esso richiede una
continua attenzione: è perciò utile che una persona si dedichi esclusivamente a
questa attività. Sono essenzialmente tre i tipi di dati da registrare: i legami, gli
attributi dei legami, gli attributi dei soggetti. Lo strumento più pratico per la raccolta
dei dati e la cosiddetta sociomatrice. I numeri all’interno di ogni cella rappresentano
il numero di volte in cui un partecipante ha rivolto la parola ad un altro. La presenza
di due numeri indica l’esistenza di relazioni biunivoche in cui si possono rintracciare
iniziatore e destinatario del messaggio.
Con l’ausilio di un reticolo è possibile studiare i profili interattivi di ogni partecipante
e la struttura globale delle interazioni (singoli nodi e rete intera). Prima di tutto
bisogna rappresentare graficamente le interazioni determinatesi durante il FG. Gli
individui sono rappresentati da punti e le relazioni tra questi da linee che li
uniscono. La rete viene costruita a partire dai dati della matrice di adiacenza e
deriva dall’applicazione di specifici algoritmi di mappatura delle distanze tra i nodi.
Le linee più spesse indicano legami più forti. Vi sono alcune statistiche di notevole
importanza ad esempio la densità. Essa ci dice quanto è interconnessa una rete
assumendo valori compresi tra 0 (nodi isolati) e 1. A partire dal sociogramma
dovrebbero risultare evidenti alcune caratteristiche essenziali del gruppo:
• La sua omogeneità ovvero la sua suddivisione in sottogruppi (clusters)
• La presenza di individui isolati, di strutture sensibili e l’esistenza di percorsi
più o meno privilegiati di trasmissione dell’informazione
• Le posizioni di centralità e leadership all’interno del gruppo (status
sociometrico)
• Le equivalenze o somiglianze strutturali fra i nodi
Per l’individuazione di sottogruppi sono importanti due criteri: top-down e bottom-
up. La leadership si misura tramite la centralità che dipende da tre indicatori: il
grado (out-degree e in-degree), la vicinanza e l’intermedietà (quanto gli altri
dipendono da un nodo).
Trobia

Esame scritto con 31 domande in forma aperta o chiusa che comprendono anche la
risoluzione di piccoli problemi con l'ausilio della calcolatrice.

1 libro (la conoscenza sociologica alcune riflessioni)

Occuparsi della conoscenza sociologica vuol dire occuparsi della conoscenza in generale.
La sociologia è una scienza che si pone il problema della conoscenza della società e del
comportamento sociale in generale, indi per cui la sociologia deve affrontare il problema di studiare
le persone.
Quindi si crea il paradosso che l'oggetto conoscente è della stessa natura del soggetto conosciuto.
(uomini che studiano altri uomini) ed entrano inevitabilmente in relazione tra loro.
Le persone tuttavia sono esseri che interagiscono fra loro con le emozioni, quindi non riescono ad
essere obiettivi (non riesco ad essere empatico nei confronti di una pietra, ad esempio)
l'uomo ad esempio è anche influenzato da stereotipi e pregiudizi.
In sintesi fare scienza con le scienze sociali è difficile.

I sociologi si occupano, a differenza delle altre scienze, di fenomeni e concetti astratti (Razzismo,
anomia, devianza)
Come faccio a misurare, ad esempio, l'unita di misura della devianza? E' impossibile misurare una
cosa che fisicamente non esiste.

Ma la cosa più drammatica, infine, è che la conoscenza non è sicura neanche nel campo delle
scienze esatte in quanto tutto può essere messo in discussione.

Ma facciamo un passo indietro.

Come funziona la conoscenza scientifica in generale? Si può paragonare la scienza esatta ad una
casa fatta di tre piani.

Piano epistemologico.

(sono le fondamenta della casa) l'epistemologia è la branca della gnoseologia (discussione in


termini filosofici) che si occupa di uno specifico problema (Che è quello della conoscenza “certa”
ossia scientifica dimostrabile dei fenomeni) e fin dalle origini ci ha avvertito della possibilità di
conoscere (ottimismo epistemologico), tuttavia qui si pone il problema della veridicità. Quanto ciò
di quello che vediamo corrisponde alla reale verità in merito a quel fenomeno?

(esempio l'approccio di Platone con il mito della caverna che riguarda un mondo perfetto delle idee
non visibili agli uomini, proprio per il fatto che si trovano nella caverna)

Anche Kant si era posto il problema della conoscenza in generale (fenomeno- come una bottiglia
appare a noi, e noumeni – l'idea pura della cosa)

In sintesi è difficile conoscere il mondo oggettivo, ma stabilendo certi limiti è possibile generare un
punto di partenza per poterci muovere negli altri due piani.
Piano teorico interpretativo.

(Piano intermedio) Una volta chiarito il problema epistemologico, si producono delle teorie.

Cos'è una teoria? Una spiegazione di come funziona il mondo o una parte di esso.
(esempio: l'acqua passa dallo stato liquido allo stato gassoso se portata a 100°)
Ma le teorie non sono soltanto spiegazioni ma anche interpretazioni. Ossia contengono un
background di chi l'ha data. Una teoria è teoria solo se riguarda fatti che accadono sistematicamente
in relazione ad altri. ( ES: Ogni volta che c'è X io incontro Y)

Definizione di teoria: Un insieme di proposizioni organicamente connesse, che si pongono ad un


elevato livello di astrazione e generalizzazione rispetto alla realtà empirica, le quali sono derivate da
regolarità empiriche e dalle quali possono essere derivate delle previsioni empiriche.

Tuttavia le regolarità empiriche potrebbero mutare nel lungo termine e quindi bisogna ripensare la
teoria.

Cos'è una ipotesi? Si trovano all'interno della definizione di teoria (le abbiamo chiamate
“proposizione originariamente connesse”)

L'ipotesi è una relazione (o rapporto di tipo matematico) fra due o più concetti
(All'aumentare di A si osserva anche l'aumento del fattore B) ma si colloca ad un livello di
astrazione minore (riguarda casi più ristretti) rispetto alla teoria e che permette una traduzione della
stessa in termini empiricamente controllabili.

Le ipotesi sono pezzi di teoria a carattere provvisorio e quindi ribaltabili nel loro significato. Una
sola ipotesi non può dar luogo ad una teoria.

Es: le donne sono discriminate nella società (teoria)

le donne sono discriminate in famiglia, al lavoro, etc... (ipotesi)

Piano tecnico metodologico.

Si pensi ad una Matrioska.

Alcuni concetti di base:

Strumento: Mezzo concreto per raccogliere dati empirici.

Tecnica: (lo scienziato si avvale di tecniche) è una sequenza di operazioni che debbo compiere per
conoscere ciò che mi interessa (specifica procedura operativa)

Metodo: Sequenza più generale di azioni per raggiungere un obiettivo conoscitivo. (comprende una
serie di tecniche) La scienza utilizza il metodo scientifico.

Il metodo contiene una tecnica che a sua volta comprende una serie di strumenti.

Metodologia: Discorso sul metodo. (logos sul metodo)


Le istruzioni su come lavora uno scienziato, le sue “regole” vengono contemplate nel concetto di
paradigma. (contenitore di regole)

La definizione di Kukn definisce il paradigma come:

Una prospettiva teorica condivisa da una comunità di scienziati che definisce la rilevanza dei fatti
sociali, fornisce le ipotesi interpretative, orienta le tecniche della ricerca empirica.

Difetti del paradigma:

Il primo problema di una conoscenza scientifica è proprio quello di Partire da una prospettiva,
escludendo quindi le altre, come anche il fatto che gli scienziati condividano la prospettiva e siano
“giudici” in un certo senso del lavoro svolto dalla comunità, condannando pesantemente chi si
approccia da una prospettiva differente.

(esempi storici: Galileo galilei, Giordano Bruno, Cartesio.)

Esempio più recente è quello di Einstein con la sua teoria della relatività.

Ma non solo: perché la prospettiva implica anche il fatto che impone che tu, studioso ti debba
occupare solo di alcune cose ed escluderne altre. (il sociologo ad esempio, fino a qualche tempo fa,
non si poteva occupare del tempo libero in quanto considerato “frivolo”)

Ogni tanto, tuttavia, nella storia della scienza arriva uno scienziato “eretico” o innovatore che,
nasce in un periodo in cui il paradigma presenta delle “crepe” e cambia il sistema di
riferimento, proponendo una nuova lettura dei fenomeni (rivoluzione) e un nuovo paradigma
(Es:Einstein)

Nelle scienze sociali (che trattano di fenomeni più astratti e non misurabili come le emozioni) i
paradigmi ci sono?

Si: Ma il problema è che ce ne sono più di uno.

Tre questioni di Fondo.

Qual è la struttura di un paradigma? Da cosa è composto? Non si può determinare con certezza.
Tuttavia un modo per esplicitarlo è quello di porsi tre domande:

Il paradigma nasce automaticamente dando risposta a queste tre domande.

1) La prima domanda riguarda la questione ontologica (essenza delle cose)


La realtà esiste?

2) La seconda domanda riguarda l’epistemologia (parte della filosofia che si occupa della
conoscenza scientifica)
Se la realtà esiste è possibile conoscerla?

3)la terza domanda riguarda la questione metodologica (metodo)


Se esiste ed è possibile conoscerla “come” è possibile conoscerla?

Quali sono storicamente le risposte a queste domande degli scienziati sociologici?


La questione viene risposta con l’aiuto di tre quadri che corrispondono a TRE tradizioni di ricerca
Tre paradigmi delle scienze sociali.
I tre quadri riguardano i periodi del:

Il positivismo (Nascita della sociologia con comte)


La Ville d’Aurey (De Corout) – Quadro

Piano ontologico

Quadro realista - ingenuo, vede le cose come stanno e come sono percepite dai cinque sensi.

La realtà esiste? SI

Piano epistemologico

Se esiste è possibile conoscerla? SI, è oggettivamente (visione complessiva) conoscibile.


(nessuno vede nel quadro un elefante volante)

Vi è un dualismo oggetto/soggetto (non sono della stessa natura)


Dobbiamo considerare i fatti sociali come cose (oggetti), in questo modo soggetto conoscente e
oggetto conosciuto non sono della stessa natura. In questo modo la conoscenza è visibile
oggettivamente. (Comte)

Piano Metodologico.

Come è possibile conoscere la realtà? Il metodo conoscitivo è lo stesso delle scienze fisiche.
Quindi la sociologia è una disciplina fra le tante che adotto il metodo scientifico (Comte)
Questo metodo è Induttivo. (guardo la realtà e formulo delle leggi “deterministiche” in base a una
riproposizione ciclica di eventi)

Postpositivismo e neopositivismo (Superamento del positivismo)


Quadro: Notte stellata di Van Gogh.

Piano ontologico.

La realtà esiste? Si, ma… Non riesco a coglierla tutta. E’offuscata. – Realismo Critico

Piano epistemologico

Se esiste è possibile conoscerla?


Possiamo provare conoscerla attraverso i nostri cinque sensi, che tuttavia potrebbero trarci in
inganno. (Mangiare un gelato con –23 gradi è impossibile, Mangiarlo con quaranta gradi risulta
piacevole) I nostri sensi non sono oggettivi e non possiamo quindi esserlo noi, perché i nostri sensi
per funzionare utilizzano una sorta di pilota automatico. (Es: Illusioni ottiche)

Percezione e conoscenza sono appesantite.

Soggetto e oggetto non sono del tutto separati. (Chi conosce, in qualche modo, entra nella cosa che
conosce)
Gli scienziati quindi possono solo produrre delle congetture, che però sono instabili a fronte delle
nuove conoscenze e risultare falsificabili in un secondo momento. La conoscenza è provvisoria.

Falsificabilità vuol dire anche che una teoria scientifica possa essere scritta per essere falsificata.
Es: teorie che si affermano come scientifiche ma non lo sono, nel senso che sono suscettibili di
modifiche e aggiustamenti nel tempo.

Tuttavia una teoria “Scientifica” Non può essere scritta in questo modo (Non può essere modificata,
può essere solo vera o falsa) e io nel presente devo scriverla in modo che nessuno possa
“Falsificarla” ossia rimescolarla. Se non sarà Adatta verrà eliminata. (Popper)

Piano Metodologico

Come è possibile conoscerla?

Identità di metodo con le scienze naturali – Leggi probabilistiche.


Le leggi probabilistiche cozzano con le procedenti leggi deterministiche. (paradosso del gatto di
Shredinger) Sì, io mi baso sulle scienze esatte, ma nel momento in cui scelgo di basarmi queste
scienze sono mutate?

La realtà è possibile solo conoscerla tramite frammenti (variabili) e confrontarle in modo che
insieme possono portare ad una visione di insieme (Approccio dal particolare al generale)

Apertura verso le tecniche quantitative. Il neopositivista si apre alla qualità e al senso delle cose.

Costruttivismo.
Quadro: Astratto.
Malevick – Il suprematismo. (Concetto astratto)

Piano ontologico
La realtà Esiste? Si, ma è frutto di un accordo/mediazione (costruzione) sociale tra culture, popoli
(chi la guarda). Ciò che noi conosciamo diventa Relativo.

Piano epistemologico
Se esiste è possibile conoscerla?
Soggetto conoscente e oggetto conosciuto sono della stessa natura e si influenzano. E’ possibile che
le cose che noi percepiamo dipendano dal momento, dall’epoca storica etc.

Nel momento in cui accetto il fatto che esistano molteplici prospettive per guardare il mondo e
distinguo nelle diverse prospettive ciò che sia giusto o sbagliato riconosco i valori.

Tuttavia Max Weber afferma che lo scenziato debba essere Avalutativo. Non deve lasciare
influenzarsi dai valori, tuttavia deve riconoscerli tutti, in quanto facenti parte di quella specifica
cultura.
Piano Metodologico
Se è possibile conoscerla, come la conosco?

Weber afferma (a differenza di Durkheim) che le scienze sociali, visto che soggetto e oggetto
condividono la stessa natura debbano dotarsi di qualcosa di diverso dal metodo scientifico.
Le scienze sociali devono entrare in un’ottica di analisi che sia una “comprensione razionale delle
motivazioni dell’agire”.
Weber ha idea di mettersi nei panni della persona che deve studiare per capire razionalmente perché
quella persone ha agito in quella maniera. Tuttavia con criteri razionali e non empatici (Non si
giustifica un comportamento ma lo si apprende e si comprende). (Weber spiega il capitalismo con
l’etica protestante calvinista)

Scoperta della realtà attraverso la costruzione di modelli e semplificazioni (visioni più generali e
meno dettagliate): Idealtipi.

____

Perché sfruttare l’arte? Perchè le discipline umanistiche e la scienza sono profondamente legate e
fanno parte della conoscenza. Molti filosofi facevano anche altro:
ES: Pitagora (Filosofo e matematico) Cartesio (Filosofo e matematico) Leonardo (Filosofo,
Matematico, Scienziato).

Goethe affermava: Non c’è differenza tra indagine scientifica e creazione artistica, in quando sono
entrambi mossi dal desiderio di conoscere la stessa realtà.
L’artista va in estasi mistica (Fuori di sé), ma se l’artista diventa “un altro” nel momento della
creazione, si supera la distinzione tra soggetto conoscente e oggetto conosciuto.
Quando guardiamo un quadro vediamo i girasoli di van Gogh (Esempio) come sono stati visti da lui
in quel momento.

Cosa non possibile nelle scienze sociali in quanto SC/OC sono della stessa natura.

Ad un certo punto nella storia dell’arte si passa dall’idea di riprodurre il fuori (arte classica) all’idea
di riprodurre il dentro, la dimensione interiore, dell’artista (ES: cubismo/arte contemporanea )
Ricerca della realtà profonda, che ci appare strana perché non concreta.

Stessa cosa accade alla scienza con l’avvento della fisica quantistica (I quark, le particelle sub
atomiche).

Ma dopo il positivismo sono emersi nuovi paradigmi? No. Tuttavia nel corso del tempo sono stati
prodotti dei contributi da parte di studiosi che hanno contribuito ad aggiustare il tiro.

Un cambiamento epocale si è avuto nella meta dei 60, periodo in cui la società è cambiata in
maniera così radicale da essere considerata una nuova epoca. La cosiddetta Società – post moderna.
Qualcosa che segue la società moderna tuttavia senza avere contorni definiti.

Cosa succede in questo mutamento? Da premettere che le condizioni di cambiamento si hanno già
nel 20/30, anni in cui si comincia a pensare di non poter produrre teorie generali in cui si può
spiegare tutto. Prima di questa data i filosofi erano “tuttologi” parlavano di tutto ciò che stava nel
mondo.

Negli anni 20 la Filosofia si “arrende” e stabilisce che tutto ciò che conosciamo è dovuto al
linguaggio. Una cosa esiste nel momento in cui gli diamo un nome. (caduta delle teorie generali e
sostituzione della filosofia del linguaggio)

Nel rifiuto di questa società si afferma che la razionalità non è tutto e anzi il mondo è guidato
dall’irrazionalità. Questo perché i filosofi del tempo erano stati spettatori della prima guerra
mondiale con milioni di morti. Addirittura Hegel pensava che la Storia stesse per finire.

Rompendosi la razionalità si rompe la linearità anche nel mondo delle arti (si abbandona la linea
retta con l’arte astratta) e anche il cinema cambia il suo modo di raccontare le storie.

Si veda la differenza tra la linearità di Cabiria e La Non linearità di Pulp Fiction. Il romanzo post
moderno è un Anti Romanzo.

Anche la musica diventa “Strana” Differenza tra repertorio classico e repertorio contemporaneo.

Negli anni 60 tutto questo esplode e la non linearità diventa popolare. L’anno di rottura e il 1968.
In europa in quell’anno succede di tutto. Sul palcoscenico della storia salgono i dimenticati.
Ad esempio le donne. In quegli anni nasce il femminismo nelle sue varie articolazioni.
Oppure i neri (M. Luther King) cominciano a chiedere i loro diritti. Basti pensare alle classifiche
musicali di quel periodo in cui il “blues” era per i neri e il “western country” per i bianchi.
Sarà il rock a fondere le due cose. Esplosione della questione razziale ma anche delle differenze
sessuali. Gli omosessuali incominciano a reclamare i loro diritti di rispetto della loro posizione.

Le scienze sociali si approcciano a questi cambiamenti rivalutando il mondo della vita quotidiana e
abbandonando lo studio delle grandi istituzioni della storia. Ma per indagare la vita “singola” delle
persone devi adottare non più le statistiche numerali volute dal positivismo per l’analisi dei grandi
fenomeni ma tecniche quantitative. La sociologia diventa Micro sociologia.

Quali sono le tendenze più recenti della sociologia e della filosofia?

La svolta linguistica. La realtà non è altro che linguaggio, la filosofia studia il linguaggio ed è
grazie al linguaggio che si “crea” il mondo circostante.
I confini del mio mondo sono i confini del mio linguaggio.

Da questa svolta filosofica vengono fuori le sociologie interpretative, che studiano le parole e si
fondano sul paradigma costruttivista (Max Weber)

Le sociologie interpretative sono:

Interazionismo simbolico (Negoziazione del senso) Il significato delle cose che ci circondano è
contrattato con gli altri (accordo). Accordo che varia da cultura a cultura. Interagendo con gli altri
ci scambiamo istruzioni su quale sia il senso di ciò che ci circonda.

Approccio drammaturgico: (situazioni e maschere) Groffman. Ciascuno di noi che sta in società
indossa una maschera diversa e si comporta in relazione di quella a seconda del contesto sociale in
cui è inserito.

Etnometodologia E’ l’insieme dei modi/metodi che i vari gruppi di persone hanno per comprendere
la realtà.
Questi metodi si basano sulla Indicalita (le cose che diciamo o facciamo sono sempre calate in un
contesto) e Riflessività ( Non riuscire ad essere completamente separato dalla persona che sto
studiando. Il soggetto conosciuto è anche oggetto conoscente. Quando guardi studi e osservi ci stai
mettendo te stesso)

Analisi della conversazione (Visto che i limiti del mio mondo sono i linguaggi, cosa devono fare le
scienze sociali? Interrogarsi sul modo in cui questi linguaggi sono prodotti)

Strutturalismo (ragionare per categorie immutabili, la forma e il contenuto. La struttura sociale


dentro la quale io sto decide cosa posso e non posso fare, la forma è più importante del contenuto.)
e post strutturalismo (Tipico degli anni 70, distrugge ogni categoria immutabile)

Realismo (I meccanismi Nascosti. Quella persona che è disposta ad arrivare ad un compromesso,


ad abbandonare certe sue prerogative, pur di raggiungere un certo risultato. I realisti vanno alla
sintesi, al succo delle cose.)

Le scienze sociali sono attraversate da un sacco di fratture e contrapposizioni. Negli ultimi anni
molti autori hanno provato a rinsaldare alcune di queste spaccature generando teorie satellite che in
sindesi fondono le prime.
Secondo capitolo – I percorsi della ricerca

Il ricercatore sociale si pone come obiettivo quello della conoscenza. Segue un approccio di
investigazione come un detective privato.

Cerca la verità, tuttavia qualche volta sarà costretto a mentire (a fin di bene) o ai soggetti presi in
analisi o a sé stesso o alla comunità a cui si rivolge.

Come si fa la ricerca? Quali sono i suoi tipi?

Ricerca descrittiva: il ricercatore si chiede “Come” si presenta un fenomeno. Utilizzerà diversi


strumenti quali statistiche, fotografie etc…

Ricerca Esplicativa: Il ricercatore si chiede “perché” un fenomeno si presenta in un certo modo.

Il passaggio dal come al perché implica l’aumento della difficoltà della ricerca. Per arrivare al
Perché si deve passare dal Come. A quel punto comincerò a formulare delle ipotesi.

Tipi di ricerca distinguibili in base allo stile del ricercatore.

Ricerca esplorativa: Il ricercatore sa poco su ciò che deve studiare ed esplora senza pregiudizi.
(Ricerca qualitativa ovvero non si fanno misurazioni sulle estensioni dei fenomeni)

Ricerca Confermativa: In questo caso il ricercatore parte da un o schema prestabilito di nozioni


che conosce
e ne cerca la conferma (Tipicamente quantitativa, si fanno delle misurazioni.)

Le fasi della ricerca sono 5

Disegno della ricerca (Progetto che si fa della ricerca, organizzazione del lavoro, scelte
metodologiche sul paradigma adottato,)

Costruzione Base empirica (Quali dati mi servono? In quale maniera posso costruirli?)

(Framing) Organizzazione dei dati raccolti (In che modo li ho organizzati? Servono a rispondere
a ciò che cerco nella mia ricerca)

Analisi dei dati

Esposizioni di risultati (Racconto alla comunità scientifica cosa ho scoperto)

Sembra tutto bello, tuttavia si possono, in queste fasi, determinare degli errori nella costruzione
dell’analisi.

Es: Raccolgo delle interviste in giro e non riesco a classificare le informazioni raccolte.
A questo punto è necessario fare un passo indietro e somministrare nuovamente il questionario.

Oppure finisco per organizzarli con qualche forzatura ma non riesco ad analizzarli, e quindi è
necessario fare due passi indietro e somministrare nuovamente il questionario.

la soluzione è fare un disegno della ricerca ben fatto già nella fase iniziale.
Analizziamo le fasi in modo specifico:

Come inizia la ricerca? Fase del disegno della ricerca

La ricerca può iniziare perché viene aperta nella letteratura o nella scienza e non viene mai data una
spiegazione del meccanismo che genera quel dato fenomeno. Oppure un committente paga affinché
si faccia la ricerca. Oppure si è semplicemente mossi da passione.

Il secondo step è quello di documentarsi in merito a quel dato fenomeno attraverso lo studio
bibliografico, scientifico e sulla raccolta di testimonianze.

Scelta del tipo di ricerca (Descrittiva esplicativa confermativa o esplorativa?)

Chiarificazione dei concetti e delle eventuali ipotesi. La prima chiarificazione di un concetto viene
dal dizionario, ma per ogni disciplina esistono dei dizionari specialistici.
Ci sono delle ipotesi solo nel caso della ricerca confermativa ed esplicativa

Scelta delle unità di analisi e delle proprietà da indagare.

Livello di generalizzazione Universo/Campione.

Fase Della Costruzione della base empirica.

Il problema della ricerca sociale è che gli oggetti di studio (le emozioni) non sono osservabili ne
misurabili.

Come si fa a passare dai concetti astratti alle loro misurazioni attraverso variabili? Qual è la tecnica
di rilevazione più adeguata per raccogliere i dati? (decido di fare delle interviste)

Il processo di operativizzazione di un concetto.

Si sceglie il concetto da operativizzare (razzismo ad es)

Si costruisce la sua definizione operativa (Concetto – indicatore – modalità) Traduzione del


concetto in variabili empiriche.

Si applicano queste regole ai casi studiati. L’applicazione può essere fatta nei seguenti modi:

- Classificazione: trovare un posto ad un oggetto in uno schema, che può dirsi efficiente se vengono
rispettati i principi di: esaustività (che considera tutti gli aspetti di quel qualcosa ogni oggetto ha un
suo posto, se non c’è verrà classificato come altro), esclusività (ogni oggetto deve avere solo un
posto nella classificazione), unicità (quando scelgo le categorie della mia classificazione, devo usare
solo un criterio).

-Ordinamento: Stabilire una gerarchia (Primo, secondo… Ultimo)

-Conteggio: Contare quella proprietà. (quante volte vai al cinema in un anno?) Si chiama
misurazione quando i conti che faccio si basano su una unità di misura. (Peso di una persona che si
misura in chili)

Grazie a questo processo si formano le variabili che sono proprietà (aspetto teorico di un concetto)
operativizzate ( cioè sottoposte a processo di ordinamento, classificazione,conteggio)
Si passa da una ipotesi che è una relazione fra due o più concetti. Analizzando un singolo concetto
di cui fa parte l’ipotesi ci accorgiamo che è possibile scomporlo nelle sue proprietà teoriche, ossia
quegli aspetti che definiscono ad esempio il razzismo. Come è possibile trovare questi “aspetti”?
Tramite il dizionario. (Dicesi razzista chi….) . Tuttavia questa cosa non ci aiuta a misurare il
razzismo. Quindi trasformiamo la proprietà in indicatore empirico, ossia quell’aspetto concreto che
io posso trovare nella realtà (E quindi misurare) Facciamo delle domande a delle persone per
determinare se sono razziste, tuttavia le domande devono appartenere agli indicatori del concetto di
razzismo, se molti indicatori vengono confermati via via le persone rientrano all’interno del
concetto (Sono più o meno razziste).

Questo lavoro di “progressiva copertura del concetto oggetto di misura da parte degli indicatori” si
chiama massimizzazione del rapporto di indicazione

Una volta che io ho scelto la tecnica di acquisizione debbo costruire lo strumento (ne trascrivo le
domande e imposto un questionario) Qui si deve fare attenzione a non predisporre gli stati o
modalità perché si potrebbe influenzare la lettura del mondo di chi risponde in base a dei
preconcetti proposti (Al ristorante ad esempio le persone non ordineranno mai fuori dal menù che
viene proposto)

A questo punto dobbiamo capire se lo strumento funziona (validazione dello strumento – a quante
domande le persone non vorranno rispondere? Capiranno le domande?)

Rilevazione dei dati.

Tipi di Variabile
Ognuna di queste variabili è l’esito di un processo di operativizzazione.

Le variabili più scarse sono le nominali (perché possiamo fare ben poco) Le variabili più complete
sono le cardinali (Possiamo utilizzare tutti i segni). Tuttavia misurare nelle scienze sociali non è
sempre possibile matematicamente.

Famiglie di tecniche di rilevazione dei dati

Esistono molteplici tecniche di rilevazione

Raccolta di fonti secondarie (dati presi da altre fonti di natura numerica) di tipo statistico.

Raccolta di fonti secondarie di tipo testuale (Fonti possono essere Fumetti, opere teatrali, interviste,
diari, articoli di giornale, canzoni)

Esperimenti (Il ricercatore misura una situazione prima di introduce uno stimolo o modifica dello
stato delle cose e cerca di studiarne gli effetti di quella modifica) Tuttavia l’esperimento potrebbe
essere influenzato da molteplici fattori quali il contesto e la presenza del ricercatore.

Osservazione (guardare con i nostri occhi)

Intervista (insieme di domande poste)

Questionario da sottoporre ad un campione

Data mining e big data (Internet, social network)

Simulazioni al computer

Intrusività

Soggetto conoscente e oggetto conosciuto sono della stessa materia. La sociologia è poco oggettiva,
ma allora come si può essere il meno intrusivi possibili e non disturbare l’oggetto di studio?

Vi sono problemi epistemologici (la persona che noi studiamo è in un certo modo ma cambia a
seconda del nostro approccio) Paradosso del gatto.

Grado. Strumenti intrusivi e meno intrusivi.

Estensione (Si può essere poco intrusivi ma con una estensione gigantesca)

Problemi etici. (E’ giusto farsi gli affari degli altri di nascosto?)

Organizzazione dei dati Quantitativi (Framing)

Quando raccogliamo i dati non sono fin da subito organizzati ma devono essere “organizzati” e
aggiustati.

L’organizzazione dei dati quantitativi avviene tramite il Framing, il quale prevede l’uso della tabella
“Matrice Casi X Variabili”.
Organizzazione dei dati Qualitativi (Post-Codifica)

Nel caso in cui ci troviamo ad organizzare dati di una ricerca qualitativa noi lavoriamo con dati
testuali e effettuiamo una organizzazione dei dati “post codificata” ossia aggiustiamo i dati dopo
averli raccolti. Perché non saprò quali dati andrò a raccogliere.
Come si svolge?

Si guarda il materiale raccolto e si identificano delle parti più significative

Si rendono rintracciabili queste parti significative.

Nel caso della ricerca quantitativa l’organizzazione viene fatta prima. In questo caso ricorriamo alla
matrice casi per variabili (tabella). Il ricercatore ha le stesse informazioni per tutti i casi di analisi.

Fase dell’analisi dei dati

L’analisi dei dati serve a trovare delle risposte ai nostri quesiti scientifici.

Lavorare sui dati implica l’analisi di più livelli

Il primo livello è quello dell’analisi dei Casi (analisi molto “concreta” incentrata sul singolo
individuo)
(Analisi delle righe orizzontali di una tabella)

La seconda analisi è quella delle Variabili


L’analisi è quella delle righe orizzontali di una tabella (es: Colonne età) lo studio da concreto
(basato sul singolo caso) diventa “astratto” ossia molto più generale.

Il terzo tipo di analisi è l’analisi delle relazioni. Analisi su sottogruppi composti da tre/quattro
elementi in cui si studiano le relazioni tra questi.

Il quarto tipo di analisi riguarda le parole e i testi (Analisi molto complessa in quanto con le parole
possiamo esprimere di tutto)

Fase dell’esposizione dei risultati

Come faccio a raccontare al mondo cosa ho fatto? Attraverso il documento del report di ricerca

All’interno del quale ci sarà:

L’abstract: Breve riassunto in cui ci sarà tutto ciò che c’è da sapere sulla ricerca. In modo tale che
nell’immediatezza chi la legge possa capire di cosa tratta sulla ricerca.

Stato della conoscenza di quel fenomeno al momento di inizio della ricerca: Correnti teoriche,
approccio scelto, letteratura su quel fenomeno,

Presentazione dei risultati.


Commenti e conclusioni: possibili interpretazioni sui dati raccolti
Nota metodologica: Come abbiamo svolto la ricerca? Come siamo arrivati a quei risultati?

Riferimenti Bibliografici.

Alcune considerazioni: Il percorso della scienza è un percorso pressoché infinito. Quando


consegniamo il nostro report di ricerca la ricerca non termina mai. Dalla fine del nostro lavoro
partiranno altre ricerche. Il processo scientifico è circolare. Tuttavia qualche scienziato sostiene che
il processo di ricerca sia elicoidale (Molle con base larga e punta stretta). In quanto le nozioni e i
fenomeni vengono elaborati all’inizio in modo generale per tendere alla specificità. La scienza è
cumulativa.

La seconda questione riguarda la validità: lo scienziato si deve sempre preoccupare di raggiungere


una ricerca valida, ossia una ricerca che misura esattamente ciò che si era prefissata di misurare .
Il ricercatore si deve comunque attenere a dati empirici senza sostenere tesi infondate. La ricerca
deve essere pubblica e controllabile da altri ovvero dobbiamo permettere ad altri ricercatori
l’accesso ai nostri materiali.

La terza questione riguarda la responsabilità degli scienziati. Gli scienziati dicono alla società come
è fatta. Se io dico alla società come è fatta ho una grande responsabilità, quindi ciò che scrivono
deve essere frutto di un percorso metodologico basata su precisi paradigmi e soprattutto scientifico.
Non può mentire per interessi personali in quanto la sua bugia ha influenza sulla sua società.

Il Campionamento

Il campionamento è quella procedura attraverso la quale noi sezioniamo delle unità di analisi della
popolazione di riferimento provando a fare diventare questa sezione rappresentativa dell’universo
attraverso l’inferenza statistica.

Il motivo per il quale scelgo di fare una cosa del genere è che intervistando un campione risparmio
tempo e soldi.

Il vantaggio è anche la macchina organizzativa che sarà più semplice ( sarà possibile organizzarsi
meglio)

Altro vantaggio ha a che fare con il tempo che io posso dedicare all’analisi dei dati piuttosto che
alla semplice raccolta.

A questi vantaggi si va a contrattare uno svantaggio, ossia l’imprecisione. Fare un campionamento


rappresentativo significa incorrere nella possibilità di errore. Analizzare un modello di realtà non
significa analizzare la realtà completa.

Il dato reale è uguale alla stima di quello che è il dato reale piu o meno un errore
_
dato reale Y= stima del dato reale Y + - E (errore)

Es: Stima del 15% con errore del 5% significa che il dato potrebbe essere tra il 10% e il 20%

I campioni si dividono in
Probabilistici (quei campioni che fanno ricorso alla teoria matematica delle probabilità) si dice
probabilistico un campione quando tutte le unita di analisi della popolazione hanno la stessa
probabilità di essere estratte. Si suddividono in campioni casuali semplici e sistematici stratificati.
Essi rappresentano un “paradosso di rappresentatività”, che li rende rappresentativi riguardo alcune
variabili rispetto ad altre, indipendentemente dal processo di estrazione.

Non probabilistici (non fanno ricorso alla teoria matematica della probabilità), sono
rappresentabili tipologicamente e producono risultati non generalizzabili dato che l’errore di
campionamento non è qui calcolabile. I criteri ragionati di scelta dei casi sono: scelta ragionata, a
langa e di convenienza; quelli analogici invece sono: bilanciato, per quote, telefonico.

Teoria matematica della probabilità

Ma cosa è la probabilità? Mettiamo che io abbia una moneta, quante possibilità ci sono che esca
testa? 0,5 in quanto ci sono due facce. Si farà sempre il caso favorevole (Su cui abbiamo
scommesso, quindi la testa) diviso il totale dei casi (il numero di eventi possibili)
Usiamo dire il 50% per convenzione (rapportiamo sempre in percentuale ossia rapportiamo sempre
su base 100)

.Per calcolare una possibilità serve sempre conoscere i casi possibili e il numero della popolazione.
Il numero dei casi favorevoli cerco di considerarlo io.
Ma se io non ho il numero della popolazione, NON posso calcolare un campione probabilistico.

Qual è la formula magica che ci consente di determinare quale sia la dimensione ottimale (più
rappresentativo della realtà) di un campione?

(Campione) n = z(al quadrato) . pq . N (Popolazione) / E2 (N-1) + z(al quadrato) pq

Facciamo un Esempio

Z=

pq = (varianza) (misura di quanto è eterogenea/diversificata una popolazione)


Se la popolazione è molto eterogenea pq sarà un numero grande, differentemente sarà un numero
piccolo. Se non è possibile ricavare o avere questo parametro si “stima” o si ipotizza. In genere è
meglio pensare, nella stima, che la popolazione sia sempre variegata, quindi fare diventare pq un
numero più grande. Ma quanto grande? (pq = P xQ) (PxQ: proporzione in cui si presenta una certa
caratteristica della popolazione, es: P =rossi 90% e Q = non rosse 10%. Quindi avremo: 0,9 e 0,1
se li moltiplico ottengo 0,09 - Se avessi avuto 70% e 30% quindi 0,7 x 0,3 = 0,21 (quindi sarà più
eterogenea), tuttavia cosi procedendo arriviamo alla situazione più eterogenea ossia 50% e 50%,
( che viene 0,25) poi si andrà verso una nuova omogeneità per l’altro fattore. Quindi 0,25 diventa il
valore di massima eterogeneità.)

E= Errore (stabilito dal ricercatore) (generalmente minore o uguale al 4%) (qui non useremo il
numero percentuale ma l’intero quindi 0,04)

N= Dimensione della popolazione (es.900.000)


_
X = media (La media di un gruppo di valori si calcola dividendo la somma dei valori per il
numero degli stessi)

La distribuzione campionaria (una gaussiana posizionata in un grafico) è una curva che mi da una
possibilità di vedere con quanta frequenza e in quale probabilità possono essere sorteggiate delle
medie, medie piccole hanno minore probabilità di essere sorteggiate a differenza di quelle più vicine
alla media delle medie (Es. su 90 abbiamo una media di medie di 45) la media delle medie è
corrispondente al punto massima della curva. Se tagliamo le parti basse, più vicina all’asse delle
ordinate, della gaussiana, rimpiccioliamo (ottimizziamo) il campione. Ottenendo un campione più
piccolo ma più rappresentativo della popolazione, la parte presa in esame si chiama “intervallo di
fiducia” in quanto oggetto di una personale fiducia dell’analista che ritiene che il campione
risultante non possa essere così “brutto” (es. Non scelgo di considerare il 5% dei dati, quindi cinque
volte su cento un campione non è buono, 95 si). Quanto tagliare il campione spetta all’analista.

la nostra Z Mancante è l’intervallo che va dalla media delle medie al punto ultimo di considerazione
dei dati (Metà dell’intervallo di Fiducia) (ha sempre il val di 1,96) ma come lo abbiamo trovato?
_
Per trovare la Z dobbiamo necessariamente avere la X, ma come trovare la media? Con un trucco.
Spostiamo l’asse dei grafici e la facciamo diventare la linea che diventa punto massimo della
gaussiana. A questo punto la media coinciderà con l’origine ossia 0 e gli intervalli Z saranno sempre
1,96 (Solo se consideriamo sempre questo intervallo di fiducia , con errore al cinque percento.
Possiamo anche mettere 2, ma a questo punto otteniamo il 99% e includeremmo anche i campioni
non buoni)

Foto

Soluzione

quello che abbiamo (599,60) è un campione casuale semplice


Ma possiamo avere anche altri casi:

Es: Abbiamo 400uomini e 500 mila donne.

Il campione dovrà essere rappresentativo di donne e uomini

faremo 600 campione x 400000 uomini / 900.000 popolazione = 266 uomini

Questo che abbiamo è il campionamento stratificato.

Possiamo avere anche altri strati:

Abbiamo M F

Giovani 200.000 100.000

Anziani 300.000 300.000

Ma certe volte conosciamo il campione ma non la popolazione

Faremo il campione sistematico

Basato di un sistema di estrazione dove si stabilisce un passo da seguire per scegliere le persone da
intervistare

Si sceglie un numero casuale all’inizio e a partire da quel numero casuale si sceglie una persona da
intervistare ogni (Numero casuale es. una ogni 20)

Campioni non probabilistici

Sono campioni costruiti ad Ad – Hoc, sono molto eterogenei.

Si chiamano così perché non fanno ricorso alla teoria matematica della probabilità

Tuttavia sono più deboli, in quanto vengono creati apposta per una certa ricerca. Hanno sempre le
stesse caratteristiche.

I campioni non probabilistici non hanno errori di campionamento (non sappiamo di quanto
sbagliamo)

Mentre i campioni probabilistici sono rappresentativi statisticamente (i dati del campione sono
estendibili alla popolazione e viceversa) non si può per i campioni non probabilistici.

Si raggiunge una rappresentatività tipologica (se ne prende uno solo per ogni tipo)

Mentre i campioni probabilistici la generalizzabilità alla popolazione (i dati del campione sono
sicuramente estendibili alla popolazione e viceversa) i dati dei campioni non probabilistici sono
soggetti a trasferibilità (ossia possono gettare luce su qualche fenomeno del mondo)
Quanti sono i campioni?

Snow ball (o campionamento a valanga)

Si individuano all’inizio delle unità di analisi interessanti, a queste persone si chiede di far
conoscere altri casi simili al ricercatore (una sorta di catena di sant’antonio). In questa maniera il
campione seguirà un ingrandimento incrementale (valanga)

Campionamento a scelta ragionata

Stabilisco una logica per selezionare i miei casi. Ma ho deciso i numeri del campione a caso.

Esempio:

Giovani Maturi

istruiti 2 3

Poco istruiti 3 2

Totale = 10

Una logica di ordine può essere quella della comparsa o meno di un fenomeno in una determinata
fascia di età

Campionamento di convenienza:

In sintesi faccio quello che mi conviene fare, e lo unisco a ciò che posso o non posso fare.

Campione per quote:

A prima vista sembra un campione semplice, ma in realtà non lo è. Stabilisce la grandezza del
campione piccolo utilizzando la formula dei campioni probabilistici, è vero, tuttavia la procedura di
selezione delle unità da analizzare non si prendono casualmente ma seguendo il principio di
convenienza.

Se devo scegliere seicento persone queste seicento persone me le vado a scegliere dove le trovo più
facilmente. Questi campioni non garantiscono la generalizzabilità dei risultati e i loro risultati sono
trasferibili.

Errori non campionari

I campioni casuali semplici producono un errore, il fatto stesso di non considerare l’intero universo
comporta un errore. Che rapporto esiste tra l’intervallo di fiducia e l’errore di campionamento? Es:
95 volte su cento l’errore non viene considerato, ma cinque volte su cento posso incappare
nell’errore di campionamento. Significa che se ho stabilito un errore del 4%, cinque volte su cento
potrebbe essere di più. Quindi potrei sbagliare cinque volte su cento nell’estrarre un campione dalla
popolazione.

Ci sono una serie di altri errori, che fanno le persone, che devono necessariamente essere spiegati.
Questi errori li troviamo sia negli campioni probabilistici sia in quelli probabilistici

Sono:

Errori di selezione: che hanno a che fare con il fatto che abbiamo usato una lista sbagliata della
popolazione, Sottostima o sovrastima della popolazione.

Errore di non risposta: Uno dei più grandi problemi che abbiamo quando facciamo un
campionamento. Le persone non vogliono rispondere al questionario o non sono rintracciabili.

Errori di misurazione: Noi utilizziamo uno strumento di raccolta dei dati che non funziona bene.
Es: Questionario illeggibile o incomprensibile.

Errori di procedura: Quando abbiamo finito di somministrare il questionario, i dati vanno caricati
nel pc. Tuttavia nel caso di una grande mole di dati, nella procedura di trascrizione commettiamo
qualche errore.

Ma i campioni probabilistici sono davvero rappresentativi alla luce di questi errori?

Esistono vari problemi:

Paradosso del campionamento: Non possiamo verificare se il nostro campione e corretto o no,
perché siccome io uso il campione per analizzare una realtà sconosciuta come faccio a paragonare
questi risultati ad una reatà che non conosco? Per poter conoscerla dovrei fare un censimento.

Si potrebbero tuttavia confrontare i campioni con i censimenti. Tuttavia i censimenti vengono fatti
ogni dieci anni, come posso confrontare i dati del duemilaedieci con quelli del duemilauno?

Drop out: Problema delle non risposte. Avevamo 900.000 persone. Se su un campione di seicento
persone trecento non rispondono. Ne prendo altre trecento. Ma a questo punto abbiamo levato
trecento persone dalla popolazione, perché queste persone non rispondono e non risponderanno.
Di conseguenza abbiamo violato la definizione di campione probabilistico. Perché adesso il
rapporto di estrazione di altri soggetti della popolazione è aumentato, non più 1 su 900.000 ma 1 su
899,700. Tuttavia possiamo anche ponderare. Se mi rispondono 300 persone, considero le risposte
come doppie. Ma comunque avremo sempre lo stesso problema.

L’approccio qualitativo

Le tecniche:

Come si raccolgono i dati nella ricerca sociale? Ci sono tre modi.

Basta domandare, osservare e leggere.

Parliamo dell’intervista:

Cos’è l’intervista? L’intervista è una forma di conversazione, nella quale intervistatore e


intervistato s’impegnano in una interazione variabile utile alla raccolta dei dati. Essa si distingue dal
questionario per la possibilità di soffermarsi su alcuni passaggi conversazione. L’intervistatore
assicura brevità, scientificità e anonimato e specifica committente, tema e i perché. L’analisi delle
interviste può essere etnografica o quantitativa.

Tipi di intervista

l’intervista è organizzata secondo viversi criteri che sono:

In base all’organizzazione delle domande: (ve ne sono di tre tipi)

Strutturata (o standardizzata) quindi l’elenco delle domande sarà uguale per tutti.

Semi strutturata (con traccia o topic guide) Quando una persona da una risposta si indagheranno
degli aspetti prefissati della risposta già previsti dall’intervistatore.

Non strutturata (o libera in profondità) intervista che presenta l’argomento come una
improvvisazione.

In base al ruolo dell’intervistatore (tre tipi) (come l’intervistatore dirige l’intervista)

Direttiva (o guidata) (l’intervistatore decide lui il percorso dell’intervista e come fare le domande)

Semi direttiva (L’intervistatore ha scelto dei momenti in cui dirigerà ma ha previsto anche dei
momenti di libertà per l’intervistato

Non direttiva (o libera) (L’intervistatore non interviene e l’intervistato parla liberamente)

In base all’approfondimento (storie di vita)

Dedichiamo molto tempo all’intervistato (Esempio intervista biografica sulla vita di un artista)

In base al tipo di risposte (aperte o chiuse)

In base al numero di intervistati (si possono fare anche interviste di gruppo, che si distinguono da
quelle individuali.

Le interviste possono essere distinte in

Interviste ai Gruppi naturali (esiste a prescindere dalla volontà del ricercatore – gruppo di
famiglia)

Interviste ai gruppi artificiali (gruppo artificiale creato allo scopo – Focus group)

L’incontro con l’intervistato

Dobbiamo parlare della relazione che si instaura con l’intervistato

Si parla, ovviamente della relazione tra oggetto conoscente e oggetto conosciuto, che in questo caso
sono della stessa natura.
Esistono molteplici differenze (caratteristiche di sfondo) di età cultura, razza, religione, condizioni
socioeconomiche, sesso, etc..

E anche differenze tra (fattori psicologici) percezioni atteggiamenti aspettative motivazioni.

A questo punto, l’analisi dei fattori operata da entrambe le parti e in entrambe le direzioni, porterà a
un giudizio operato da entrambe le parti (se, in modo tacito, fidarsi o meno reciprocamente)

Ma si avranno, a seconda del livello di fiducia concordato, le seguenti imperfezioni:

Dal lato dell’intervistatore:

Fattori comportamentali:

Errori nel porre le domande.


Errori nel probing (L’intervistato non capisce la domanda, che dovrà essere rispiegata)
Errori nel motivare.
Errori nel registrare.
Errori nelle risposte.

Dal lato dell’intervistato:

Fattori comportamentali:

Risposta delle domande


(adeguata – inadeguata)
(accurata – inaccurata)

Come limitare gli errori

Innanzitutto bisogna presentarsi. XD (citazione necessaria)

Essere preparati sullo strumento di indagine, saper porre le domanda (saper gestire lo strumento,
prevedere possibili problemi)

Aspetto (curare l’aspetto a seconda del contesto e a chi si ha davanti)

Ottenere il consenso dell’intervistato: Assicurando brevità dell’intervista, citare il committente,


comunicare il tema dell’intervista, assicurare la scientificità della ricerca, specificare il perché è
stato scelto il soggetto, garantire l’anonimato.

l’intervistatore

Deve creare una situazione di normale conversazione, mai di giudizio (ne espresso a parole, ne in
maniera non verbale)

Chiedere di avviare il registratore solo una volta avviata l’intervista. (le prime domande servono
solo a rompere il ghiaccio e a creare una atmosfera di familiarità tale per cui l’intervistato sarà più
propenso ad accettare il registratore)

Rispettare la sequenza di domande (in caso di intervista strutturata)


Evitare di esprimere le proprie opinioni (nessun coinvolgimento emotivo)

Superare stereotipi e pregiudizi

Essere positivi, simpatici e attenti (ascoltatori attivi)

Non imporre mai una risposta in caso di rifiuto.

Porre attenzione al probing

Completare l’intervista e finirla in tempi sostenibili.

Struttura delle domande

le domande

Le domande possono assumere delle strutture standard.

Topic guide (scaletta)

Question Route (il percorso strutturato)

Vi possono essere problemi nella trascrizione delle interviste (Bisogna trascrivere dialetti?
Ripetizioni? Errori? Esitazioni?)

Abbiamo due scuole di pensiero opposte:

Chi fa addirittura il riassunto di ciò che è stato detto.

Chi trascrive qualunque cosa. (analisi della conversazione)

Tuttavia il buonsenso dice che il riassunto non è bello perché ci fa perdere la presa diretta con la
realtà. Scrivere tutto invece ci fa perdere tempo.

Si prova a riportare con le parole il senso del discorso (togliendo ciò che ci sembra inutile)

L’analisi dei dati

Lo scopo dell’analisi è trovare delle strutture dotate di senso nel materiale raccolto.

Strada quantitativa: Si trasformano le parole degli intervistati in qualcosa di misurabile e


quantificabile.

L’analisi si compone di:

Post codifica: (Sottolineare delle cose più interessanti e mettere accanto un codice che in genere
consiste con il topic della discussione). Dopodichè si conta il numero delle volte in cui un topic
compare in una intervista. Alla fine si costruiranno delle tabelle con dei grafici con la frequenza dei
topic emersi.
Approccio qualitativo:

L’analisi si compone di:

Prospettiva narrativa etnografica (storia che raccontano le persone)

Si individuano anche qui delle aree di analisi.

Il secondo step consiste nel mettere da parte le citazioni più significative per ciascun tema o area
individuata.

(costruzione di tipologie e classificazioni)

Interpretazione e commento

Percorso quali/quantitativo:

L’analisi computer assistita (CAQDAS)

Software che ci permettono di seguire entrambi gli approcci

L’osservazione

Osservare comporta la fruizione dei nostri cinque sensi. E’una pratica immersiva in cui si cala il
ricercatore.

Criteri dell’osservazione sociale

Partecipazione: Mi mischio o non mi mischio con ciò che voglio studiare?

Quando si parla di osservazione partecipante distinguiamo tra osservazione coperta (il ricercatore fa
finta di essere uno di loro) o scoperta (palese)

Intrusività degli strumenti di rilevazione: quanto sono intrusivi per l’ambiente studiato?

Strutturazione dell’osservazione (Può essere forte nel caso in cui i ricercatori sanno cosa osservare o
debole nel caso opposto)

Prospettiva dell’osservatore

Si distingue in:

Prospettiva del marziano: (in cui il ricercatore osserva cose che non ha mai visto prima, quindi
molto più stimolante per la creazione di nuove domande e mette in discussione tutto)

Prospettiva del convertito: (il ricercatore è talmente preso da quello che osserva che diventa uno di
loro)

Tipi dell’osservazione sociale:


L’osservazione Antropologico/etnografica è la tecnica più vecchia dell’osservazione sociale.

Studi di comunità e di piccoli contesti sociali o ambientali. (studio dele sottoculture)

Studi organizzativi (Lo studio delle organizzazioni come uffici, ditte, fabbriche, aziende di servizi…
posti dove si formano delle culture organizzative)

Studi di realtà clandestine e occulte (Sette religiose, sataniche, attività sessuali devianti, massoneria
etc.. )

Ricerche esplorative in genere.

Che cosa si osserva?

Cosa deve guardare un osservatore per fare una ricerca?

Il contesto fisico nel quale si svolgono le interazioni fra le persone. (Spazio)

Il contesto sociale e il contesto storico

Le interazioni formali/informali (noi interagiamo con gli altri sempre in modi diversi, in genere il
tipo di relazione coincide con la distinzione di contesti privato/pubblico)

Le interpretazioni orali e scritte degli indigeni dei fenomeni del mondo. (Come lo interpretano?)

Le produzioni materiali e simboliche

Gli strumenti

Con quali strumenti si osservano i fenomeni?

Il diario di bordo (raccolta di descrizioni dei fenomeni, interpretazioni del ricercatore che possono
essere emotive – cosa mi è successo dentro, nelle emozioni - e teoriche – ciò che mi è successo
nella testa -) verbalizzazioni e comportamenti degli indigeni (citazioni di estratti)

Il Backtalk (Scrivo il report e chiedo conferma delle situazioni rappresentate agli stessi indigeni)

Problemi dell’osservazione

Accesso alla comunità di indigeni, come è possibile?

Attraverso il mediatore culturale (uno degli indigeni che è preventivamente messo d’accordo con il
ricercatore e lo fa entrare nel gruppo)

Attraverso gli informatori (che informano il ricercatore. Tuttavia può essere inviato dalla cultura
stessa. Oppure proporsi spontaneamente.

Coinvolgimento e obiettività (nell’osservazione partecipante)

Questioni etiche (è giusto osservare le persone senza che esse lo sappiano?)


Focus Group

E' un ibrido tra l'intervista e l'osservazione campionaria.


Si realizza un focus group perchè, in questi contesti, è più facile far nascere delle opinioni.

Definizione:
Il focus group è una tecnica di rilevazione per la ricerca sociale basata sulla discussione tra un
piccolo gruppo di persone, alla presenza di uno o più moderatori, focalizzata su un argomento
che si vuole indigare in profondità.

Principali ambiti di applicazione:

• Ricerca di mercato (si fa consumre al focus group che viene valutato);


• Ricerche Politiche ed elettorali (viene pensato come prodotto che si piò vendere. Il Politico
ascolta e si sintonizza con le voglie e i desideri degli elettori. Sono le persone che
propongono le politiche ai politici. Il primo ad utilizzare questi stumenti in Italia è stato
Berlusconi nel 94);
• Valutazione di enti, servizi, politiche e progetti;
• Esplorazione di un fenomeno

Vantaggi:

• Economicità (è una soluzione economica);


• Rapidità
• Flessibilità (è possibile modificare o aggiustarla anche man mano)
• Alta densità di informazioni (siccome coinvolgono tante persone allora avremo molto
linguaggio non verbale e verbale)
• Gradimento delle persone coinvolte (le persone apprezzano quest tecnica e sono più
invogliate)

Il moderatore:

• Agevola il warm-up (aiuta le persone a “riscaldarsi” cioè a rompere il ghiaccio)


• Precisa il tema della discusssione (il moderatore spiega di cosa si parlerà)
• Usa un linguaggio comprensibile a tutti (farsi capire da tutti poiché il gruppo è eterogeneo e
diversificato)
• Parla a tutto il gruppo (non parla solo al singolo)
• Fa parlare una persona alla volta (non farle sovvrapporle)
• Non ruba la parola
• Cerca di far parlare tutti (ma evita il “giro”, il Focus Group serve a far nascere le opinioni,
se io programo un turno, il successivo prepara il discorso forzato. Il Focus Group ideale è
quello dove parlano tutti spontaneamente)
• Fa una sintesi della discussione ogni tanto (siccome durano tanto, è bene fare una sintesi
ogni tanto, serve anche per fare dei piccoli riassuntini nella trascrizione)
• Può essere più o meno direttivo (ogni gruppo avrà le sue caatteristiche)
• Può rompere l' ufficialità con delle provocazioni (quando la discussione langue allora
assume una posizione controversa così da riaccenderla)
L' osservatore

Può guardare (o allo specchio segreto o con le telecamere) o essere presente direttamente nel
gruppo.

-Deve stare attento ai contenuti ----> Di che cosa si è parlato?


-e a come essi emergono -----> Come vengono fuori?

L' osservatore prepara i riassuntini (sta attento ai contenuti) o dei survey pool (ovvero prepara tre
pallini e riempie più o meno una delle posizioni per quanto è condivisa dal focus group).

Nel come mi chiedo “come siamo arrivati a dire quelle cosa”, quel processo lo utilizzerò nella
campagna di marketing.

Tipidi ideali di partecipanti

• Il leader (Possono esistere due tipi di leader):

-Espressivo: Possiede carisma, lo individuamo in qualcuno che ha delle caratteristiche fisiche


relative al potere (grandezza, pelo, voce, ect);

-Strumentale: Sanno delle cose (leadership della conoscenza), punto di riferimento e parlano bene.

• Il Timido (opposto del leader, ha “paura” del contesto e di esprimere la sua opinione;
Compito del moderatore è quello di cercare di limitae l'invadenza dei leader e valorizzare
quella dei timidi)

• L' Apatico (l' apatico è “abbuttato, il moderatore deve accorgesene e cercarlo di farlo
interessare)

• Il Negativo (E' negativo a priori)

• Il Polemico/Critico (sono contro argomentando la loro opinione)

• L' entusiasta (è entusiasta di essere lì)

• Il Joker (quello che fa le battute, smonta l' ufficialità delle cose e istiga alla risata su tutto)

• Colui che divaga

Strumenti

• Topic Guide
• Questioning route
• Con o senza stimoli (immagini, filmati, stimoli sonori, ect...) (questi strumenti sono
mostrati in determinati momenti e non subito!)

Tipi di domande
• Domande di Apertura
• Domanda di introduzione
• Domande di transizione
• Domande chiave
• Domande finali

Fasi della discussione

1. Forming (Fase in cui si forma il gruppo)

2. Storming (Fase in cui si rompono gli equilibri)

3. Norming (Fase in cui si stabiliscono regole, es: turni di parola)

4. Performing (Emergono le maschere)

5. Mourning (L'addio, il gruppo si scioglie)

Pianificare un focus group

-Un focus group è in genere composto da circa 8 persone (min 4 e max 12 + dropout (chi da buca).
-Il numero di Focus Group da effettuare è variabile, ma in genere maggiore o uguale a 3 ---> I
Focus Group ono sempre con persone diverse.
Si fanno Focus Group fino al criterio della saturazione teorica (guardando i nuovi risultati ottenuti
non emergono novità per i risultati o non si scopre nulla di rilevante).
-Quando si contattano persone, si accenna solo vagamente al tema del Focus Group (schermatura).
Nel gruppo, in genere, non ci devono essere persone che si conosco.
-Le persone si scelgono sulla base delle esigenze di ricerca, seguendo criteri di omogeneità
(Quando vogliamo approfondire molto dell' argomento) piuttosto che di eterogeneità o
rappresentatività (Quando mi interessa sapere tutte le opinione su quel determinato ambito).
- Scegliere dei posti neutri (es. ufficio azienda, sala univeritaria, sale convegni degli alberghi) per
effettuare i focus group.

Come si reclutano le persone per un focus group?

Nelle ricerche di mercato si può


- Fare “shadowing” ovvero seguire chi prende il prodotto e si chiede se si vuole partecipare.
- Chiedere a conoscenti di conoscenti.
- Andare nel negozio interessato lasciando delle schede per richiedere di partecipare al Focus
Group.

Ai partecipanti si danno come “incentivo” soldi, fornitura del prodotto pe un periodo di tempo,
gadget della ditta o una buono da spendere.

Analisi dei dati

• Analisi dei contenuti (analisi quantitativa)


• Approccio etnografico (o narrativo)
• Network Analysis (con software)
Approccio dell' analisi di rete (tecniche di analisi strutturale)

L’inchiesta campionaria quantitativa (Survey)

Differenza tra Poll (Sondaggio basato su una singola domanda e non richiede necessariamente
un campione probabilistico, alle spalle di un poll non c’è nulla se non la curiosità di sapere quel
dato) e Survey (più domande con campione probabilistico, alle spalle c’è una ricerca di natura
scientifica e sociologica)

Noi porgeremo attenzione alla survey (inchiesta campionaria) che è un modo di rilevare
informazioni che si basa sulla interrogazione.
Vengono consultati gli stessi individui oggetti della ricerca.
Questa ricerca ricorre ad un campione probabilistico.
Le domande vengono impostate in un questionario a risposta chiusa.
Lo scopo dell’inchiesta campionaria è quello di studiare le relazioni (ipotesi) che esistono tra le
variabili.

Questa è una ricerca confermativa perché deve confermare/smentire la veridicità delle ipotesi
formulate

Questa è una ricerca esplicativa (non ci chiediamo come si presenta il fenomeno ma il perché si
presenta in un certo modo)

Criticità delle interrogazioni

Chi interroga parte dalla seguente affermazione di carattere positivista:

Ad una uniformità di timoli corrisponde una uniformità di significati

Tradotto:
Se io faccio la stessa domanda a più persone, tutte quante capiranno la stessa cosa.

Questo è l’approccio che utilizza chi fa la ricerca sociale per impostare i questionari

Ma ne siamo sicuri?

Non solo le persone sono eterogenee, ma lo potrebbero essere anche gli intervistatori.

Vi sono dei problemi che nascono tra l’intervistato e l’intervistatore: (Desiderabilità sociale,
acquiescenza, pseudo opinioni)

Desiderabilità sociale: Quando interagiamo per la prima volta con gli sconosciuti allora ci
mostriamo nella maniera migliore che possiamo (l’intervistato smussa le risposte che darebbe
realmente) questo è un problema perché falsa le risposte e non raccolgo il dato reale che mi
interessa

Acquiscenza: situazione per il quale l’intervistatore sta al di sopra dell’intervistato per via del
suo modo di apparire, e per questo lo condiziona implicitamente nelle risposte.
Oppure le persone annoiate da un questionario eccessivamente lungo daranno una prima
risposta veritiera e falseranno le altre in base alla prima.

Pseudo opinioni: Domande difficili a cui le persone non sanno rispondere e per ciò inventano
una risposta pur di non sembrare ignoranti.

Quali sono le cause di questi problemi?

Contenuto: Cosa viene chiesto (Attenzione a tematiche che riguardano sesso, soldi, questioni morali
e religiose) questi temi possono produrre i problemi enunciati prima.

Struttura: Come è stata organizzata la lista delle domande? Il tema “scottante” deve essere trattato
ed inserito al momento opportuno.

Setting: Contesto nel quale io faccio l’intervista (Dove la faccio? Le persone intervistate hanno
fretta?)

Intervistatore: Se la persona che mi intervista sta antipatica o nutro dei sospetti posso non
rispondere o falsare.

La psicologia di chi risponde: Cosa accade nella testa di chi risponde?

Ci sono quattro diverse spiegazioni su come funziona il processo di risposta. Tre modelli sono di
natura cognitivista (Branca della psicologia che immagina il cervello come un computer
funzionante ad imput che produce un output)
Il quarto modello è linguistico

Il primo modello e quello ottimizzante. (tourangeu e Rasinki)

Quando ad una persona viene rivolta una domanda la prima cosa che una persona fa è
COMPRENDERE cosa gli è stato chiesto.

La seconda fase consiste nel RECUPERO dell’informazione che serve per rispondere

La terza fase consiste nell’UTILIZZO di queste informazioni.

La quarta fase consistere nel far corrispondere quello che so ad una delle alternative di risposta che
mi propone il questionario.

Il secondo modello è quello di ottimizzazione e soddisfazione

Dove alla prima fase (gli studiosi Krosnick e Alwin) aggiungono la seconda fase.

La presenza di una persona di fronte a noi influenza la nostra risposta.

La soddisfazione sta nel fatto che io devo SODDISFARE chi mi intervista a prescindere se la
risposta sia vera o falsa.

Il terzo modello è quello del campionamento delle credenze

Anche qui si attiva il computer della mente.


Alla richiesta di espressione di un parere su una determinata faccenda, mi chiedo immediatamente
cosa ne pensa la maggior parte delle persone di quella determinata faccenda . Dopo avere fatto un
censimento mentale io ne pesco una a caso e la propongo all’intervistato forte del fatto che essendo
un credenza pronunciata da qualcun altro (il piatto di funghi buonissimo) sia comunque legittima.

L’ultimo modello è quello che si rifà alla logica conversazionale di Grice (Annullamento del
contesto)

Grice sostiene che una conversazione funziona solo se vengono rispettati quattro principi.

Che sono:

Principio della quantità dell’informazione:


Quando parliamo con gli altri l’informazione non deve essere ne eccessiva (ci annoieremmo) ne
deficitaria (Non ci capiremmo)

Qualità delle informazioni: (verità e sincerità devono essere qualità mai mancanti della nostra
conversazione)

Relazione (appropriata al contesto) Le cose che ci stiamo dicendo non sono adatte al conteso in cui
ci troviamo.

Modalità (chiarezza brevità e coerenza della nostra conversazione)

Se non si rispettano queste massime comincia a prevalere nel contesto dell’intervista la situazione
(le persone non stanno più attente alle domande ma al contorno - come verranno usate le
informazioni etc..)

Costruire il questionario… presupposti.

Cosa ci vuole?

Esperienza e cumulabilità. (Ci si può anche ispirare o copiare domande prese dai questionari vari)

Conoscenza della popolazione e del tema.

teorie e ipotesi (Conoscere le ipotesi e ordinarle secondo determinati criteri – fase


dell’operativizzazione)

Parti del questionario:

Il questionario si divide in varie sezioni

La cover letter: Introduzione e spiegazioni dei motivi della ricerca.

Istruzioni: Quando il questionario è auto somministrato bisogna fornire delle istruzioni per
compilarlo.

Corpo principale (domande del questionario – struttura del questionario vera e propria)

Ringraziamenti e note.
Costruire il questionario: Ingredienti.

Il questionario è formato da domande (Items) per costruirlo servono dei precisi ingredienti da
mettere nelle domande:

Dati sociografici (Ciò che le persone sono) (contesto di appartenenza, sesso, età, titolo studio…)

Comportamenti (Ciò che le persone fanno)

Opinioni (Ciò che le persone pensano)

Giudizi (Opinioni che però esprimono un giudizio)

Attraverso questo capiamo gli Atteggiamenti delle persone.

Costruire un questionario: trama

Si guarda alla costruzione della struttura.

Si comincia sempre con domande generiche e neutrali che non possono essere considerate un
discorso mirato (Queste sono le domande socio-anagrafiche)

Si comincia in questa fase a tenere conto dell’attenzione che le persone hanno nel rispondere al ns.
questionario.

Dopo queste domande generiche e neutrali mettiamo delle domande che richiedano un lavoro
mentale più grande da parte di chi risponde: Queste sono le domande importanti.

Queste domande abbassano ulteriormente l’attenzione e le scudo difensivo mentale dell’intervistato.

Solo a questo punto possiamo inserire delle domande spinose.

A questo punto possiamo congedarci, il ns. lavoro è finito, tuttavia non possiamo congedarci subito
dopo in quanto l’intervistato avrà con se un ricordo che l’ultima domanda è stata qualcosa
imbarazzante.

A questo punto mettiamo delle domande salvagente, che hanno il compito di distogliere l’attenzione
e che non richiedono grande sforzo mentale, queste domande sono quelle Socioanagrafiche.

L’impostazione testuale : Il Layout del questionario. (chiarezza e semplicità)

(Usare carta intestata dell’istituzione che sta proponendo la ricerca) – Dare maggiore
autorevolezza al questionario.

Regole di compilazione semplici.

Inserire un numero di protocollo (numero progressivo identificativo del singolo questionario – da


inserire perché in questa maniera sono più facili da inserire e classificare in un sistema informatico
quale un foglio EXCEL in modo da classificarli in una matrice casi per variabili.

Ordinare le domande con numeri progressivi. (In modo da ordinare le domande in una matrice
casi per variabili)

Diverso stile grafico per domande e risposte (in modo da distinguerle meglio)

Far corrispondere bene le domande alle varie modalità di risposta

Codebook incorporato al questionario (Codice identificativo associato ad ogni singola risposta,


in modo tale che quando si caricheranno i dati su una matrice casi per variabili verrà molto più
semplice)

Gestire le domande di controllo (domande quasi uguali che vengono copiate in un'altra parte del
questionario – si fa questa cosa quando si ha il sospetto che le persone non ci stiano dicendo la
verità, se le risposte alle due domande in modo diverso, l’intervistato non sta dicendo la verità) o di
filtro (domande che ci indirizzano durante la compilazione del questionario e ci creano una
condizione di affermazione negazione in base ala quale io, studioso, ti metto in condizione di
rispondere a delle domande supplementari a seconda della tua risposta)

La formulazione delle domande

Semplicità di linguaggio.

Evitare le ambiguità e parole con forte contenuto assiologico

Sintassi semplice e domande singole

Basso numero di alternativa di risposta

Concretezza (Tempo e fatti)

Evitare domande tendenziose o comportamenti presunti.

Rendere accettabili tutte le risposte ed evitare domande imbarazzanti

Prevenire il response set (distorsioni tra intervistatore e intervistato – in particolare l’acquiescenza)

Si previene in due modi diversi:


O spezzando le domande. (distribuirle in punti diversi del testo)
O cambiando le modalità di risposta da domanda a domanda (Per non far distogliere l’attenzione e
non far percepire le domande come uguali.)

Tipi di domande

Le domande del questionario si chiamano ITEM

Possono essere singole

Tipi di domande singole:


Scelta fra modalità semanticamente autonome (Le varie modalità di risposta sono fra loro
indipendenti)

Es: Quale è la tua religione? Ateo/Induista/cristiano/musulmano.

Il significato di ciascuna risposta è autonomo e una risposta esclude l’altra.

Checklist

Ci sono dei questionari in cui potrei dare più risposte

ES: Quali tra le seguenti cose fai nel tempo libero?

La risposta può essere nessua delle variabili, tutte insieme contemporaneamente o una
combinazione di variabili.

Scelta fra modalità graduali.

Si genera una variabile ordinale


Vi è una gradazione fra le risposte date

ES: come definiresti il rapporto con i tuoi compagni?

Buono, non buono, pessimo.

Adesioni ad alcune affermazioni.

Si fa una affermazione all’inizio e sin chiede all’intervistato in che misura è d’accordo con quanto
enunciato.

Le risposte somigliano a quelle delle modalità graduali, tranne per il fatto che vi è l’affermazione
all’inizio

Ordinamento di preferenze soggettive.

Quali cose mi piacciono/ritengo importanti e in che mistura.

Es: ordina questi valori dal più importante al meno importante.


(Lavoro/ amicizia/ amore/ famiglia)

Collocazione di una persona lungo un continuum.

Il soggetto che deve rispondere si colloca da solo in un determinato spazio (scala auto ancorante)

Es: per favore indichi con un puntino il suo orientamento politico lungo questa linea che va
dall’estrema sinistra all’estrema destra.

Il valore viene trascritto in una tabella casi per variabili semplicemente con l’ausilio di una
squadretta con il quale si misurerà il segmento e si determinerà un valore.

ci sono tuttavia persone che non sono in grado di collocarsi sulla linea per tutta una serie di casi
(Nessuna istruzione politica, mancanza delle più basilari conoscenze di matematica e geometria,
etc..)

Termometri dei sentimenti (Conteggi o misurazioni)

Es: Da uno a 100 quanto credi in X? Quanto saresti disposto a fare Y?

Presentate in forma di scale

Definizione: “Una scala è un insieme coerente di domande che servono a misurare un


atteggiamento o un concetto non direttamente misurabile”

Ci sono tanti tipi di scale.

Scale LIKERT.

Caratteristiche delle scale likert:

- sono scale additive (fanno delle addizioni) (Misurare il livello di razzismo in base alla somma dei
punteggi delle risposte alle domande di un questionario)

- debbono essere sottoposte ad alcuni controlli

Controllo di validità – controllare se la scala è corrispondente tra i risultati della ricerca e la realtà.

Controllo di attendibilità – La stabilità di dati nel tempo, la coerenza, e la riproducibilità dei dati.

Esistono degli strumenti di controllo dell’attendibilità.

Split half: Prendiamo la scala delle domande e la dividiamo a metà, si fanno due distinte sottoscale,
si fanno le somme e si vede se una scala è coerente con l’altra. Questo test serve solo a capire se c’è
un problema ma non riesce a determinare quale.

Se voglio trovare il problema faccio un secondo test chiamato:

Correlazione Elemento/scala. E’ un numero che mi dice quanto sono associate due distribuzioni.
Si misura il coefficiente di correlazione tra la somma dei valori di ogni risposta e a la somma delle
somme dei valori totali delle risposte.
Una volta trovato il coefficiente relativo più basso, si elimina l’item e migliora l’attendibilità della
scala. (il valore degli altri altri coefficenti di correlazione aumenta)

l’alfa di Cronbach – con questo procedimento è possibile calcolare tramite un valore solo
l’attendibilità della rilevazione. Il valore minimo per cui la scala è attendibile è 0,7

__
nr
alfa = --------------
-
1 + r (n-1)

n = numero degli item (domande)

_
r = Media delle correlazioni degli item tra di loro (Si calcola sommando tutti i valori degli item e
dividendoli per il numero di item stessi)
L’ultimo controllo della scala di Likert è il controllo di unidimensionalità.

Quando noi costruiamo una scala dobbiamo accertarci di misurare uno e un solo fenomeno. Quindi
bisogna stare attenti a non mettere degli item che riguardano, ad esempio, l’intolleranza o la
xenofobia.

L’analisi fattoriale ci aiuta a trovare quell’insieme di items che potrebbero misurare anche altri
fattori e quindi non sono adatte.

Altre scale.

Scala del differenziale semantico (una scala che ha la presunzione, attraverso delle domande che
sembrerebbero non essere pertinenti con il fenomeno studiato, cercano di capire cosa passa nella
mente delle persone)

Come si fa? Individuando dei poli opposti fra i termini in cui le persone si autocollocano lungo
questo segmento.

A questo punto si costruiscono delle medie per ciascun paragrafo.

Mettendo in relazione e collegando le medie si ottiene il profilo/atteggiamento che hanno le persone


nei confronti del fenomeno/brand. Questo profilo si può confrontare con altri profili per studiare i
diversi approcci delle persone.

Il Pre Test.

Da sottoporre prima della somministrazione di un questionario ad un ristretto campione di persone


che non parteciperanno al questionario vero e proprio.

Ci serve per meglio impostare, aggregare o articolare meglio le alternative di risposta.

Rimuovere o riformulare le domande che presentano troppo “non so” o “non ricordo”

Rimuovere le domande con risposte senza variabilità.

Integrare temi e aspetti mancanti.

Correggere eventuali errori o inesattezze.

Verificare i tempi delle interviste.

Come si fa il pre test?

Metodo convenzionale ( si registrano le reazioni dei partecipanti)


Ci sono casi in cui il pre test diventa una ricerca nella ricerca (codifica dei cmportamenti degli
intervistati)

Metodo fissato sull’intervista cognitiva (perché hai risposto così?)

Giudizio di esperti.

Forme di somministrazione

Intervista dal vivo. Che assume la forma dell’eterosomministrazione (l’intervistatore fa le domande


e l’intervistato risponde) e l’autosomministrazione (Compito in classe in cui l’intervistatore ha il
ruolo di tutor ma le domande sono già scritte nel questionario)

Per telefono.

Per posta.

con il computer.

-Cati

-Capi

-Cawi

L’analisi dei dati (introduzione)

Obiettivo

Trovare e rintracciare strutture trovate di senso nel materiale raccolto.

I livelli del lavoro di analisi possono essere:

I casi (singole untità di analisi, le ricerche sui casi si definiscono di tipo concreto in quanto ci
occupiamo delle singole persone)

Variabili: Invece di lavorare in orizzontale lavoriamo in verticale (ci interessa il mucchio più che il
singolo caso) Es: età media di una popolazione. Il lavoro è astratto perché le persone non ci sono.

Relazioni: Gli oggetti sono presi in relazione tra di loro.

Parole e testi: (Insiemi di parole, che possono evocare mondi o essere ambigue)

Oggi gran parte del lavoro di analisi dei dati non viene fatta manualmente su schede perforate, bensì
al computer.

L’analisi dei casi


Le tecniche per studiare i casi nella ricerca sociale c’è n’è sono pochissime.

Tre famiglie di tecniche:

La prima tecnica è il Case study: (studio di un solo caso) ovviamente se ne occupa in termini
qualitativi.
Le considerazioni si fondano su:

Esemplarità (caso più interessante del fenomeno)


Dettaglio
Qualità

La seconda tecnica è l’analisi comparativa.


Serve per lavorare su più casi (massimo dieci) in cui prendiamo dei parametri da ogni singolo caso
e lo paragoniamo con gli stessi parametri degli altri (es: disoccupazione tra stati)
L’approccio è quali quantitativo.

La terza tecnica è l’analisi dei gruppi (cluster analysis).


Questa tecnica è fondamentalmente una tecnica di classificazione e di costruzione di gruppi che
sono molto omogenei al loro interno, ma fra i gruppi ci deve essere molta eterogeneità.

La prima analisi dei gruppi (cluster) si fa con:

Tecniche gerarchiche: Per classificare i gruppi è stato utilizzato il criterio della gerarchia.

Che si dividono In agglomerative ( partono dal basso per arrivare verso l’alto – dal particolare al
generale) e divisive (che fanno il contrario)

Le classificazioni cambiano da cultura a cultura e non esistono classificazioni perfette.

Tecniche Iterative: (tecniche che prevedono un particolare iter) Sin dall’inizio il ricercatore decide
quanti gruppi creare.

Delle tecniche iterative fanno parte le Tecniche delle K medie. Dopo aver diviso gli oggetti di
analisi in vari gruppi con criterio casuale provvediamo ad ordinarli progressivamente secondo
precisi iter e criteri di classificazione. Fino a quando ottengo il livello di omogeneità desiderato.

Tecnica della densità locale: basata sulla geometria analitica e sui sistemi di assi cartesiani in cui si
disegnano punti dettati da coordinate X Y che possono, ad esempio, essere caratteristiche di una
persona. (ES: quante volte va a scuola e quante va in chiesa)

I puntini sono le persone.

Tanti puntini vicini tra loro nel grafico sono i gruppi


Tecnica delle reti neurali. Si prova a replicare al pc una vera e propria “rete neuronale” per
elaborare dati molto grandi e complessi. I computer può così riconoscere le persone in base ad una
stringa di dati.

La grande mappa sinottica - gfk eurisko

la tecnica della densità locale è utilizzata da questa azienda per tracciare il profilo della popolazione
italiana.
La mappa che ci propone eurisko è sempre un piano cartesiano.

Asse X = confronto sociale, lavoro, ricchezza, forza, razionalità sport (tratti duri)

Asse Y = Cultura, moderazione, riflessione, affetti, amore eleganza aspetto (tratti morbidi)

Ogni area del piano è divisa.

Foto 2
Il posizionamento dello stile di vita.

L’analisi delle variabili

Ci propone uno studio che da concreto diventa astratto. L’analisi cambia a seconda del numero delle
variabili oggetto di analisi.

Dstinguiamo tra:

Analisi Monovariata: Analisi di tipo descrittivo (come si presenta un certo fenomeno?) che
riguarda una singola variabile.

Si tratta di riassumere e sintetizzare una distribuzione. Tuttavia questa distribuzione può essere
grande, come riassumere? Costruiamo una rappresentazione tabellare. In cui inseriamo la modalità
della variabile, le frequenze della presenza manifestata di questa modalità, delle percentuali e
delle percentuali cumulate.

Foto 3
ES: Alla domanda: hai mai pensato di fare sport?

Bisogna anche inserire le misure di tendenza centrale (che mi dicono dove sta il baricentro della
distribuzione) che sono: (Moda: che serve solo per le variabili di tipo nominale. Mediana: che serve
per misurare la tendenza centrale di variabili ordinali. E la media solo per misurare la tendenza
centrale delle le variabili Cardinali.)

Nell’esempio precedente la moda è la risposta più data.

La mediana è rappresentata dal 50% del campione.

La media non si può fare in quanto non è un caso cardinale.

Dobbiamo anche inserire le misure di variabilità che sono:

Indice di eterogeneità (Var. nominali)

differenza interquartile (Var. ordinali)

Varianza, deviazione standard (variabili cardinali)

Analisi Bivariata: analisi che lega due o più concetti ed è una analisi Esplicativa – (la ricerca
spiega il perché di quella cosa)
Stavolta il piano si sposta dfa descrittivo a esplicativo.

Analiziamo distribuzioni congiunte.


Abbiamo sempre coppie di variabili Y e X

X= variabile indipendente

Y= variabile dipendente

Come si verifica la presenza di una relazione fra due variabili? Con la tabella di contingenza.

In cui ci sono due variabili incrociate che si toccano

La statistica tuttavia si interessa di indici più sintetici che spiegano l’esistenza o meno di una
relazione.

Tipi di analisi Bivariata:

Significatività vs forza (forza: Relazione che lega due variabili. Quanto sono legati X eY e quanto
cambia Y al variare di X e viceversa) – (Significatività: Può succedere che una relazione misurata
tra x e y in realtà sia dovuta ad un campione particolare estratto dalla popolazione e potrebbe
succedere che se io estraggo un campione diverso, quella relazione possa non esistere più. La
significatività mi dice qual è la probabilità che quella relazione che io ho misurato sia dovuta al
caso. Ed è espressa in valori reali che vanno da 0 a 1. Se, ad esempio, il valore di significatività
viene 0,95 che vol dire 95% ci saranno novantacinque possibilità su cento che quella relazione
possa essere di nuovo confermata nel caso dell’estrazione di un nuovo campione.)

Misure di relazione:
Tra le variabili esistono criteri gerarchici di ordine:

la più debole è la nominale


La più forte è la cardinale

Analisi Multivariata:

Che può essere:

Descrittiva (MDS)

Esplicativa(Regressione)

Esplorativa (analisi fattoriare)

Confermativa (path analisys)

L’analisi di testi e parole

le parole spesso sono ambigue, hanno più significati.

Il primo posto dove ci capita di trovare testi e le parole sono le domande a risposta aperta.
Noi riassumiamo i dati in una post codifica.

Ma soprattutto procediamo ad una analisi delle corrispondenze lessicali

Il secondo posto dove troviamo testi e parole sono le trascrizioni

Che prevedono analisi qualitativa e quantitativa.

Il terzo posto appartiene ai documenti di altra natura

ES: Radio. Televisione. Social.

Qui si faranno analisi del contenuto (Content Analysis).

Cos’è la Content Analysis?

La Content Analysis è una tecnica di analisi basata su procedure impersonali di scomposizione dei
testi in elementi più semplici, allo scopo di classificarli in categorie di senso, di calcolarne la
frequenza o la co-occorrenza, o di valutare i giudizi espressi dall’autore su determinati oggetti del
discorso, per stabilire inferenze valide e replicabili sul produttore, il contesto e gli effetti di un
messaggio.

Aspetti della Content Analysis

Questa definizione precedente impone una serie di problemi.

La Content Analysis si occupa di qualità o quantità?


Alcune deduzioni sono qualitative ed altre quantitative.

Qual è il significato implicito o esplicito di un testo?


Per raggiungere il livello implicito devo passare dall’analisi quantitativa all’analisi qualitativa (Es.
percepire l’ironia di un testo)

Chi dice cosa, a chi, attraverso quale canale e con quale effetto?
“questo deve essere l’obiettivo della analisi del contenuto (Lasswell)
L’analisi del contenuto riesce a dare una risposta a questo quesito? No.
Possiamo capire alcune cose ma non tutte, la tecnica è incompiuta.

L’analisi del contenuto si sposta dalla politica ai media. Per fare cosa? Raccogliere dati. (Medi
research)

La raccolta dei dati.

La raccolta dei dati ha due strade che possono essere percorse.

La prima strada non smonta i testi bensì li analizza e classifica i dati in una scheda di codifica (un
questionario che noi idealmente sottoponiamo allo spot)

Il secondo modo di raccogliere i dati è o la trascrizione a mano, o la scansione dei dati con OCR, un
tipo di scanner che digitalizza e riconosce i testi.

Le tecniche di analisi del contenuto di questi due percorsi sono fondamentalmente tre:

L’analisi delle frequenze. Quante volte una parola compare in questo testo?

Perché si fa? Per esplorare un testo in maniera rapida e veloce. (analisi del corpus)

Affinamento di categorie di analisi e keyword ( Esempio: word clouds)

Misurare l’attenzione (Esempio google ngram)

Misurare l’attenzione mediatica e letteraria di un determinato tema nel tempo

L’analisi delle contingenze

Ci consente di capire ricorrenze e relazioni tra le parole

Si determina calcolando il Coefficiente del coseno

Se il numero che viene fuori e zero, vuol dire che le due parole non vengono mai messe in
correlazione. Se il numero che viene fuori e 1 allora le parole vengono sempre messe insieme.

Analisi degli assetti valutativi

Si occupa delle frasi. Si smontano i testi in frasi. Si usano le scale dei differenziali semantici. Con
punteggi che vanno da + 3 a – 3

Si prende ogni frase e ci si chiede se in questa frase c’è una valutazione positiva o negativa sul
nostro oggetto di studio.
Se non c’è valutazione il punteggio sarà 0

Se c’è valutazione il punteggio sarà compreso tra -3 e + 3 a seconda se è negativa o positiva.

In seguito si farà una media delle valutazioni positive e negative per capire il giudizio complessivo
che Es: un giornale ha “sul politico” (ad esempio).

Ricerca qualitativa e ricerca quantitativa

Qual è la contrapposizione e la differenza tra le due ricerche?

La distinzione tra queste due metodologie va evitata perché crea molti più problemi di quanti ne
risolve. I due approcci vanno presi insieme.
Perché sono stati separati questi due approcci?

Le origini della separazione:

Esistono due culture: quella scientifica e quella umanistica.

Ma i primi filosofi erano anche matematici (Es: Talete, Pitagora. Lonardo da vinci)

La discrepanza si ha con la rivoluzione scientifica e quella industriale. Che separano il sapere


perché ad un certo punto diventa necessario usare la conoscenza per farne qualcosa di pratico.

Cosa che non faceva Leonardo da vinci. Le sue erano pure manifestazioni di intelletto senza che
fosse necessario produrre il suo elicottero in serie.

Con le rivoluzioni si aprirono due strade: Una degli uomini di intelletto e L’altra degli uomini di
industria.

Quando nasce la sociologia? Alla fine dell 800 ed è prettamente di marco positivista.
Auguste Comte (il fondatore) dice che bisogna utilizzare le scienze esatte per capire la società.

Tuttavia alcuni filosofi tedeschi, in seguito alle manifestazioni positiviste, si opposero affermando
che non si può studiare i fenomeni della società alla stessa maniera in cui si studiano le diete.

Essi affermavano che il metodo delle scienze sociale doveva essere peculiare (proprio della scienza
sociale) “Methodenstreit” fu il nome che questa guerra tra scuole di pensiero ebbe.

Tesi confermata e condivisa poi dal sociologo Max Weber, che si schiera contro i positivisti.

Tutta questa diatriba nasce anche dal fatto che i vari esponenti di opposte fazioni si contendevano le
cattedre universitarie.

L’esperienza

C’è un altro aspetto legato alle varie analisi. Ossia l’esperienza che ognuno ha dei fatti del mondo.

Esistono due parole diverse (che riguardano una l’analisi quantitativa e una quella qualitativa) per
dire “esperienza” nella lingua tedesca:

Erfrarung (prassi, interazione col mondo, aspetti pratici e soggettivi del vivere) - quantità

Erlebnis (Vissuto soggettivo interiore) – qualità

Questa differenza che esiste tra cultura scientifica e umanistica esiste perché esistono queste due
forme di esperienza nel nostro vissuto quotidiano. Questa diatriba tra cultura scientifica e
umanistica si fonda su livelli molto più profondi.

La scienza sociale è una metodologia diabolica perché è una scienza profondamente divisa tra lo
studio della quantità e della qualità.

Ma divisa in che termini? Dove sta la differenza fra quseti due tipi di approcci?
Un primo confronto

Approccio quantitativo

Approccio qualitativo

Si distinguono su questioni generali, su come si fa la raccolta dei dati e in merito all’analisi dei dati.

Questioni generali

I paradigmi sono diversi tra approccio quantitativo (costruttivista) e approccio qualitativo


(positivista)

La raccolta dei dati:

Ricerca qualitativa si fonda su un campione non probabilistico.

Ricerca quantitativa si fonda su un campione probabilistico.

L’organizzazione dei dati:

Approccio qualitativo – Lavoriamo in post-codifica

Approccio quantitativo – Matrice casi per variabili

Analisi dei dati

Qui abbiamo le differenze più forti.

Nell’approccio qualitativo non ci sono variabili


Sull’ approccio quantitativo abbiamo le variabili.

Vi sono dei criteri per decidere quando la ricerca e buona:

Nella ricerca Qualitativa abbiamo:


Criteri non condivisi (Il criterio che adotto per sabilire se una ricerca è buona non è detto che
possa essere condiviso da un mio collega,)

Criteri Locali: magari funzionano in quel determinato contesto, ma non in un altro.

Rivedibili: Cambio un criterio di analisi, perché non più adatto)

Nella ricerca quantitativa i criteri sono:

Condivisi (tutti sono d’accordo)

Assoluti (valgono sempre)


Certi. (non cambiano)

Queste differenze hanno costruito un pregiudizio: Ossia che l’approccio qualitativo è


SCARSO perché non si fonda su criteri assoluti, condivisi e certi.

Nel 1997 esce un libro chiamato la ricerca qualitativa (Di Luca Ridolfi). Ed è uno dei primi tentativi
in italia di rimettere in discussione il dibattito storico.

L’autore premetteva che la faccenda che le due metodologie non dovessero contrapporsi e propone
un nuovo metodo che illustriamo:

Quando guardo alle ricerche sociali distinguo due modi di lavorare:

Da un lato le tecniche che fanno ricorso a procedure formali (Ricerche chiuse e piene di regole).

Da un lato abbiamo tecniche che fanno ricorso a procedure informali (Regole più aperte,
linguaggio meno rigoroso)

Quelli che adottano procedure formali a loro volta si dividono in:

Le tecniche che usano la statistica:

Le tecniche formali che non si avvalgono della statistica

Gli informali si dividono in:

Quelli che garantiscono l’ispezionabilità della base empirica (risalire ai dati originari su cui si è
basato il ricercatore.
E quelli che non garantiscono l’ispezionabilità di questa base.

alla fine si determinano cinque categorie di ricerca:

Ricerca Math: (Inchiesta campionaria – procedure formali matematiche con statistica)

Ricerca LOG e COMP (Ricerca logica e ricerca computazionale “simulazione al pc”) procedure
formali ma non matematiche.

Ricerca DXT (ricerca testuale – informale con base ispezionabile)

Ricerca ETN (Etnografica osservativa – Informale con base non ispezionabile)

Tecniche di ricerca - Due famiglie e un insieme (Marradi)

La ricerca si basa su:


- Esperimento
- Covariazione: siamo dentro il mondo della ricerca e lo scopo è verificare la veridicità dei
fatti.
- Insieme non standard: è un contenitore che contiene tutto ciò che non viene contenuto né
dalla prima né dalla seconda famiglia.
Il compito della ricerca scientifica

La ricerca scientifica deve:


- Produrre asserti o stabilire nessi tra asserti: produce frasi o delle relazioni tra queste
frasi;
- Giustificarli su base empirica;
- Produrre un sapere controllabile, cioè pubblico e riproducibile;
micro vs macro
E’ presente un livello micro e un livello macro sociologico. Si è dato sempre per scontato che
l’approccio micro dovesse essere studiato con approcci qualitativi mentre quella macro con
approcci quantitativi.

Non è così, quello che cerco di dimostrare è che in realtà si può fare ricerca con strumenti sia
qualitativi e quantitativi sia per micro e sia per macro.
Il tempo nella ricerca sociale
La ricerca sociale ha sempre lavorato come se il tempo non esistesse, cosa sbagliata.
Il tempo significa raccogliere dati diacronici che possono essere:
Oggettivi (aggregati a livello territoriale): non significa indiscutibile ma si riferisce ad oggetti
quindi non ci occupiamo di persone. Solitamente sono aree geografiche;
Soggettivi: non sono dati criticabili ma soggetti (persone). Quando i dati guardano le persone
abbiamo diverse situazioni: studi trasversali ripetuti (studi fatti su campioni diversi nel tempo), studi
longitudinali prospettici (somigliano al precedente ma vengono fatti sullo stesso campione) e studi
longitudinali retrospettivi (riguarda sempre le persone ma viene chiesto alle persone di ricordare il
loro passato);
Artificiali: sono prodotti da simulazioni
La “buona” ricerca sociale
Alcune domande fondamentali:
- Quanto sono accurate le mie rappresentazioni della realtà?
- Quanto sono generalizzabili?
- Quanto sono stabili nel tempo?
- In che misura possono essere riprodotte?
Tutte queste domande hanno a che fare con la Validità e attendibilità
Validità
Definizione: è il giudizio circa il grado di rappresentanza semantica fra il mondo reale e le
risultanze empiriche della ricerca.
Spiegazione: La rappresentanza semantica significa che c’è una corrispondenza tra mondo reale e
quello che è stato trovato.
È in grado con quale una certa procedura di traduzione di un concetto in variabile effettivamente
rileva il concetto che si intende rilevare. Spiegazione: se io ho costruito una scala di religiosità la
domanda che mi pongo: ma davvero la scala misura la religiosità?
Attendibilità
Segnala il grado con il quale una certa procedura di traduzione di un concetto in variabile produce
gli stessi risultati in prove ripetute con lo spesso strumento di rilevazione (stabilità) oppure con
strumenti equivalenti (equivalenza).
Può riguardare: il momento della somministrazione (test-retest), lo strumento (parallel forms, split-
half), coerenza interna), il rapporto giudice/osservatore/codificatore (intercoding).
Il contributo dell’approccio “qualitativo”
Alcune premesse comuni:
- Contiguità soggetto-oggetto (soggetto conoscente e oggetto conosciuto non sono separati)
- Ruolo attivo e coinvolgimento dei soggetti studiati;
- Riconoscimento di una realtà molteplice nel tempo e nello spazio
- Responsabilità del ricercatore
- Esplicitazione di criteri (anche nella raccolta e organizzazione dei dati) e punti di vista
- Rifiuto dell’aneddotismo
- Ispezionabilità della base empirica

Triangolazione

L' idea di poter mettere assieme tecniche qualitative e quantitative.


Per raggiungere questo obiettivo si prova ad utilizzare strumenti quali-quantitativi.

Come?

– Costruendo un insieme di casi attraverso una cluster analysis (analisi dei gruppi) e poi
entrando dentro i gruppi per vedere i casi.
– Codifica automatica dei testi tramite computer

Come si clusterizza un campione?

Si utilizza un software, in questo caso Statistica.


Il file che viene caricato è una matrice CxV, i casi e le variabili sono numerate e sono risposte
chiuse. Accanto le variabili metteremo gli stessi valori normalizzati ovvero un valore compreso tra
0 e 1 confrontabile con gli altri risultati (con questi numeri noi lavoreremo).

Elaborando, si otterrà un report con tutte le informazioni.


Nella sezione “Graph of medie” avremo dei grafici sulle nostre 5 variabili in base al numero di
cluster, per distinguere le categorie di cluster dobbiamo distinguerli tramite nomi in base alle
caratteristiche.

Esempio (su ricerca Signore degli Anelli):


Due cluster

Illustrazione 1: Rossi: Fan (Valori più alti del blu) Blu: Occassionali

Tre cluster

Illustrazione 2: Rossi: Fan Cinefili - Blu: Fan sia di Libro e Film - Verdi: Occassionali
Quattro cluster

Illustrazione 3: Rossi: Fan Delusi - Blu: Critici lettori (leggono ma criticano il film) - Verdi: Fan
Entusiasti - Viola: Spettatori di Massa

Questo è uno degli strumenti più potenti, messi a disposizione agli studiosi metodologici, si possono
costruire tipi ideali presenti e provare a prevenire atteggiamenti futuri.

Centroide

Le fotografie degli spettatori corrispondono alle linee, tuttavia i pallini sono media di determinati
cluster, questo vuol dire che qualcuno dei valori sarà più alto o più basso rispetto alla media. La
figura che si va a determinare è un centroide, una linea fatta da tanti centri in base al numero di
variabili.

Ci possono essere delle persone lontane dal giudizio (e che potrebbero in teoria stare in un altro
gruppo) e persone che sono rappresentative del caso.

Attraverso la funzione del programma “Member of each cluster and ...” , il programma calcola, in
base al caso, la distanza di ognuno rispetto al proprio centro del cluster di riferimento.

Analizzando le risposte aperte date dai più vicini a un determinato cluster, troverò affermazioni
tipiche del gruppo di riferimento.
L' Analisi delle corrispondenze lessicali

E' una tecnica che effettua una analisi computerizzata per capire il senso ultimo delle cose scritte.

L' analisi del contenuto parte da un presupposto: più una parola ricorre nel testo, più è importante.

L' analisi delle corrispondenze lessicali ha un presupposto differente: è più importante capire se le
parole sono specifiche per un determinato tipo di persone (Approccio sulle differenze: chi usa
determinate parole?).

E' necessario preparare il testo (scritto) inserendolo in una matrice “Lemmi x Testi”

Lemmi= Intende la forma canonica di una parola (quella che troviamo scritta nel dizionario).

Es: Dare, subire, etc..

Prendiamo tutte le parole e mettiamole in una matrice, i lemmi nei casi, e nelle variabili i testi che
analizzeremo.

Di solito i pc fanno in automatico la matrice e la lemmitizzazione.


Quando analizziamo la tabella lemmi per teti possiamo ottenere due tipi di output (risultati)

Primo Output- Autovalori e Inerzia

Il Computer produce anche delle tabelle in cui si trovano:

I fattori (in questo caso ha trovato 6 dimensioni di senso nascoste/livelli di significato).


Gli autovalori (quanto è importante/potente rispetto agli altri, li mette già in ordine)
le percentuali (autovalore/ autovalore totale) e le cumulate.

Secondo Output – Diagramma Spazio-Fattoriale


E' un sistema di assi cartesiani dove ogni puntino corrisponde a una parola. le parole che sono più
vicino all'origine degli assi non ci interessano mentre quelle più lontano sono quelle che ci
interessano poiché rappresentano gli estremi che ci permettono di determinare le varie categorie di
persone.
Notiamo infatti che da una parte all' altra si formano gruppi di parole opposte, “ad esempio noioso o
divertente”.

Nel caso del nostro diagramma abbiamo trovato questo:

Nel diagramma ci sono anche triangolini con punta in su, queste sono Variabili Attive (Variabili
per accorpare i testi) e triangolini con punta in giù queste sono Variabili Illustrative (ovvero
variabili che diventeranno tali in un secondo momento) queste sono le modalità delle variabili.

Es: Se i maschi si trovano in un quadrante con noia e tecnica, allora la maggior parte dei maschi
avranno parlato più di questi due aspetti- Più sono lontani dal centro, più sono utili.

Per ordinarli possiamo clusterizzare le parole tramite la tecnica delle “tipologie di contesti
elementari” (tecnica che fa cluster di parole prodotte dall' analisi di corrispondenze lessicali)
Clu_1 : Passaggio dal libro al film Clu_2: Piacere/Divertimento

Clu_3 : Emozioni Clu_4:

L’analisi quantitativa computer assistita


Computer assistent qualitating data software QAQDAS

Cos’è?

Un modo di analizzare i dati statistici attraverso i programmi di statistica.

Quando parliamo di software bisogna considerare che nel tempo i software si sono evoluti. La storia
dei software risale agli anni 80.

Classifichiamo questi software in generazioni. Li distinguiamo in 3 generazioni.

I primi furono quelli che codificavano e recuperavano informazioni (code an retrieve)


Si prendeva un testo scritto, si sottolineavano le parti interessanti e quelle parti venivano ordinate e
classificate

La seconda generazione fu quella dei software costruttori di teorie basate sulla codifica (code
based theory builders) Questi software funzionavano per immagini e addirittura permettevano la
creazione di mappe concettuali.

La terza generazione e quella dei Text retriever, tex based manager Questi programmi
gestiscono in modo quali quantitativo una grande mole di dati oltre a fare tutte le operazioni delle
versioni precedenti.

A cosa servono i software?

Ad immagazzinare e registrare tutto il materiale empirico di qualsiasi formato.

A codificare i dati (codifica e post/codifica) La codifica può essere euristica o tematica (serve
semplicemente a codificare un testo per argomenti o temi) quella fattuale (è una codifica che
esprime una valutazione o un giudizio).

Possiamo fare il recupero dei dati e la creazione di collegamenti ipertestuali

Possiamo fare diversi tipi di analisi

Possiamo integrare dati fra di loro eterogenei (integrare i materiali raccolti con fonti esterne come
link o mappe di google maps)

Visualizzazione dei dati.

Sviluppo e validazione delle teorie.

Crieteri per scegliere un software statistico

Come si sceglie?

Un primo criterio è quello della diffusione del programma, se un software è molto diffuso allora è
buono.
Il secondo criterio è quello che più un software è diffuso maggiori saranno le possibilità che io
possa chiedere aiuto ad altri nel momento in cui avrò difficolta di utilizzo del software.

Un successivo criterio è quello di coerenza con obiettivi e dati (ci sono software che non lavorano
bene con i video. Se avete fatto video per la vostra ricerca sicuramente scarterete questi software)

Altro criterio è quello della struttura e complessità della ricerca (ci sono software più orientati alla
conferma è altri all’esplorazione )

Parametri di un Caqdas

Bisogna osservare:

Dati tecnici (sistema operativo, lingua o prezzo) spesso questi software sono in abbonamento e in
lingua

Formato dati accettato e multimedialità (i formati con cui lavora il software)

Ergonomia (Comodità di lavoro) con questi software si lavora molte ore, è importante che siano
comodi.

Performance: Quanto è veloce il software ad elaborare i dati? Il software è ottimizzato?

Tipi di codifica (Il software ci consente di lavorare su euristica o su fattuale?)

Modalità di ricerca.

Creazione di diagrammi e grafici (il grafico che ci consente creare il software è un grafico
chiaro?)
Funzioni statistiche ( ci sono software che permettono di lavorare con matrici di casi per variabili)

Il programma statistico Atlas TI

Nasce nel 1984 in tedesco da thomas moore. SI è sempre ispirato a queste quattro vatiabili
(Visualizzazione, Integrazione, esplorazione, Serendipità – che è una caratteristica della scienza per
la quale noi troviamo cose interessanti senza cercarle Es: Scoperta della pennicillina - )

Spiegazione delle funzionalità di atlas T


disponibile online la versione trial

Bilancio metodologico

Quali sono i vantaggi nell’utilizzo di software statistici?

Velocità di manipolazione di una grande mole di dati, lasciando libero il ricercatore di esplorare
svariate questioni analitiche.

Abbiamo, grazie ai software, anche rigore e coerenza trasparenza e generalità nell’affrontare la


ricerca.

Agevolano la ricerca di gruppo. Il progetto può essere messo in rete e molti ricercatori vi possono
partecipare.

Garantiscono aiuto per le decisioni di campionamento.

Svantaggi di utilizzo:

Alcuni programmi non sono molto diversi dai worl processer (Programmi di videoscrittura, anche
word stesso o excel)

Rischio di imporre una determinata “filosofia” di ricerca da parte dei programmatori del software.

Rischio di eccessivo tecnicismo (bellezza di un grafico ma assenza di contenuti)

Sono di poco aiuto nel caso di testi brevi


Difficoltà nel caso di analisi diacroniche.

FINE DEL SECONDO LIBRO


INIZIO DEL TERZO

Social network analysis.

Tecnica molto vecchia. Che nasce quando nasce la sociologia.


Questa tecnica è stata dimenticata per molto tempo ed è stata recuperata solo alcuni anni fa grazie
allo sviluppo di internet.

Nel tempo è aumentata l’espressione social network nel ambito delle ricerche scientifiche.
Il momento prima del 1995 segna la vecchia social network analisys, dopo il 1995 segna la NUOVA
SOCIAL NETWORK ANALISYS

La SNA tradizionale

Nasce con Simmel nei primi ‘900 che analizzava piccoli gruppi e le cerchie in particolar modo.
Per simmel noi siamo le persone che frequentiamo. Quando frequentiamo le persone che
conosciamo tendiamo a stare con persone che sono simili a noi. (Omofilia) Quando scegliamo gli
amici scegliamo sepre persone che ci assomigliano.

Contemporaneamente, a trent’anni dalle sue ricerche, in più parti del mondo, studiosi di varia
estrazione cominciano a riprendere gli studi di simmel. Negi anni trenta succede che tre scuole si
approcciano al suo sistema

La prima scuola è quella della sociometria che si rifà all’approccio sviluppato dalla branca della
filosofia della Gestalt “forma”

La loro forma di pensiero era: quando noi abbiamo una percezione del mondo la nostra percezione è
più globale che locale, questa roba qui si riflette anche nel rapporto con gli altri. La gestalt dice che
io sto bene o sto male a seconda di quelle che sono le mie amicizie.

Questi esponenti della scuola sociometrica partono dal presupposto che il tutto è più importante
della parte.

Questi signori sono ebrei e dalla germania scapparon durante le persecuzioni naziste.

Questi signori sono:

Lewin (che parla di un campo sociale che è qualcosa che ci circonda solo quando noi siamo in
relazione o in società con altri )

Heider (incomincia le sue riflessioni dall’idea di equilibrio cognitivo – una serie di forze che
lavorano per tenerci in equilibrio psicologicamente – eg si accorge che la questione non si può
limitare a ciò che avviene dentro le persone, bensì la cosa debba essere estesa ad un equilibrio
strutturale, che è quello strutturale. Per stare bene anche la società che mi circonda deve stare bene)

Moreno: (inventore del sociogramma - che è una rappresentazione grafica in cui noi teniamo conto
delle persone e delle relazioni che esistono tra le persone. Nel sociogramma le persone vengono
rappresentate da pallini che noi chiamiamo nodi. Tra questi pallini rappresentiamo le relazioni che
legano le persone.

Tra i soggetti vi si instaurano delle relazioni, che possono essere più o meno forti a seconda del
tratteggio o dello spessore.
tra stefania e franco vi è una relazione forte solo per stefania, la relazione è asimmetrica.
Se franco cerca sempre mimmo ma la loro relazione non è fortissima la linea sarà stretta ma con una
freccia a favore di mimmo.

Con un colore diverso (blu) abbiamo evidenziato invece un rapporto di lavoro tra i soggetti.

La seconda scuola:
Contemporaneamente il nostro Simmel viene studiato negli stati uniti, precisamente ad Harvard.

Qui si studiano le cricche, che sono sempre gruppi, ma isolati (es: I fan di un cantante, una banda
criminale, etc..) Alla scuola di Harvard studiano la pluriappartenenza a più gruppi o cricche)

La scuola studia i gruppi e le cerchie in modo molto quantitativo, attraverso la matematica dei grafi.

Altro argomento che interessa loro è la vità di fabbrica (In quegli anni si sviluppava la ford) Lo
studioso Elton Mayo scopre che nella fabbrica esistono relazioni formali e informali. Può anche
accadere che persone che abbiano mansioni superiori lascino i loro compiti a gente che abbia
mansioni inferiori.

Altro studio fu la vita di comunità attraverso lo studio dei piccoli centri.

George Homans negli anni quaranta mette insieme le due scuole e farà nascere la terza
scuola.

Negli anni 40, Homans prova a riunire le prime due tradizioni.


Homans si occupò delle interazioni tra le persone e riprende il sociogramma di Moreno per creare
la riorganizzazione matriciale.

Rispondo alla domanda: Si può trasformare un sociogramma in una matrice?

Si, attraverso la tabella sociomatrice o matrice di adiacenza

Se ha un legame: 1
Se non ha un legame: 0
Terza scuola- Università di Manchester

Degli antropologi recuperano il pensiero di Simmel e lo applicano in maniera qualitativa.


Si occupano:

Proprietà strutturali della rete (come è fatta la rete nel suo complesso, in maniera macro) --->
Densità (quante linee), connettività (se tutte le persone sono connesse).

Conflitto e potere ---> Si occupano della questione fondamentale del potere e del conflitto negli
anni 30.

Negli anni 60', il sociologo Harrison White dell' Università di Harvard, riprende la tradizione della
seconda scuola e fa diventare la SNA una tecnica matematica prendendo come base la teoria dei
grafi.
Negli anni 80' (Precisamente nel 88'), viene pubblicato un manuale di Social Network Analysis
scritto da Wellman, istituzionalizzando (diventa una materia insegnata all' università) la SNA.

La social network analysis tradizionale si ferma in questi anni poiché nel 94-95 nasce la nuova
SNA.

La prospettiva di rete

Attenzione alla relazione sociale (unità di analisi della SNA sono le relazioni tra persone)

Le relazioni tra gli individui spiegano meglio degli attributi (caratteristiche), secondo la SNA io
sono io perché frequento determinate cerchie, è un approccio rivoluzionario perché si considerano
le persone non come dati anagrafici ma per le loro relazioni.

Gli individui sono influenzati da reticoli sociali e viceversa, siamo influenzati da determinate
cerchie di persona ma allo stesso tempo noi influenziamo la stessa cerchia (Influencer e Utenza).

I reticoli sociali mutano continuamente, le reti in cui siamo dentro cambiano.

Questi concetti spiegano moltissimo i Social Network.

Alcuni problemi:

• Il rigido strutturalismo (modo di guardare il mondo secondo il quale è la società ce influenza


noi ma non cambiamo (o troppo poco) la stessa società).

• La matematica e il formalismo

E' troppo formale e troppo matematico.

• L' indisponibilità di dati relazionali

Ma io dove le trovo le relazioni tra le persone?

• La Mancanza di strumenti statistici adatti


La statistica classica non aveva modi di lavorare alle relazioni

• La difficoltà nel visualizzare reti vaste e complesse

Come faccio a visualizzare tutte le relazioni?

• La staticità delle analisi

Sono analisi statiche, non ci consentono di studiare la rete che cambia continuamente.

L' attualità della SNA

Nel 94-95:

Torna attuale l’Eclettismo epistemologico e metodologico

La network analysis non è ne qualitativa ne quantitativa, quindi viene ripresa la SNA (tecnica Quali-
Quantitativa).

La SNAha Grandi potenzialità teoriche (es. capitale sociale e solidarietà)

Questa tecnica si presta a studiare concetti di moda negli anni 90 come il capitale sociale e la
solidarietà.

La SNA incarna la metafora della rete e la sua duttilità

La SNA assicura una Disponibilità di dati

A partire dal 1985, negli USA, vengono inserite delle domande sulle relazioni tra le persone del
censimento (General Social Survey).

Nascono Software user-friendly

Si cominciano a programmare i primi software per la matematica e per la network analysis.

La social network analysis e la teoria sociale contemporanea

La Social network analysis

La teoria sociale contemporanea incomincia a caratterizzarsi per la post-disciplinarità (utilizzare


diverse discipline con la sociologia).

Dalla Teoria dei sistemi si passa alla Post-disciplinarità

Sociologia dei sistemi complessi: la questione è più complessa quindi c'è bisogno di grafici e
sistemi complessi (ciò che viene dall' interazione di cose semplici, ad es. le singole persone formano
con le relazioni: coppie, gruppi, parlamenti, chiese, ect.). Con la modernità abbiamo sempre più
interagito con gli altri, per questo la società è sempre più complessa).
Sociologia analitica (Coleman, Hedstom, Goldthorpe)
Una rete possiamo guardarlo sia nella sua dimensione macro (tutta la rete) o micro (gli individui
nella rete).

Sociologia relazionale (Donati)

In sostanza è una nuova opportunità per la sociologia.

Complex Social Network Analysis (CSNA)

Si può dividere in due grandi filoni di ricerca:

Nuova scienza di Rete:

-Ridefinisce la SNA alla luce delle scoperte e innovazioni negli ultimi anni (es. computer potenti):

• Interdisciplinarità

• Attenzione alle reti vaste e complesse

• Da delle soluzioni ai problemi rimasti aperti nella vecchia SNA.

La Global Network Society:

• Studia l' avvento della Globalizzazione, che determina un aumento della complessità
sistematica delle reti sociali.

Alcuni autori hanno contribuito a dare delle idee:

• Wallerstein: Usa gli strumenti della teoria della complessità per definire il sistema-mondo.

• Castells: studia l'impatto della tecnologia nella società, NTI, Network Society, solleva alcuni
problemi (Digital Divide).

• Urry : Utilizza le scienza della complessità, sostiene l'idea del post-disciplinarità e la


mobilità nelle reti sociali.

SNA- Dalla teoria alla pratica (Secondo Capitolo)

Raccogliere i dati relazionali

Come si raccolgono i dati?

Bisogna definire i confini della rete (dove comincia e dove finisce la rete, e non ci limitiamo diventa
troppo complesso definire la relazione).

Strategia realista (name generators)

Consiste nel farci dare i nomi dei nostri intervistati (a sua volta contatteremo i nomi dati)
Strategia posizionale (attributi, posizioni)

Serve per rintracciare una persona attraverso attributi (ad es. essere fan di...) e posizioni (es. tutte le
prime 100 banche al mondo).

Strategia relazionale (Snowballing)

E' una strategia a valanga, a 20 persone si chiede la relazione con altre persone in una lista.

Strategia basata su eventi

Chiediamo se hanno partecipato a determinati eventi (o anche prodotti acquistati). Può essere utile
per costruire una strategia di Marketing.

Quante unità di analisi?

Prendiamo tutti i confini o facciamo un campione? (Se faccio un campione ma sto considerando le
relazioni potrei costruire un campione differente dalla realtà).
Non si campiona un analisi, non risolve il problema, generalmente si prendono tutte le unità di
analisi.

Quali attributi?

Quelli più importanti e rilevanti nella ricerca.

Raccogliere i dati relazionali

Cosa mi interessa sapere dei dati relazionali?

Ci interessano soprattutto i Contenuti relazionali.

In che modo sono legati i dati relazionali?

Bisogna costruire tante matrici quante sono le relazioni (es. linee verde per le amicizie e linea gialla
per rapporti di colleganza).

Proprietà delle relazioni

Verso : Direzione della relazione

Segno : + o -, la relazione è positiva o negativa

Peso : quanto è importante la relazione

• Dove raccogliere i dati relazionali?

Testi e documenti, Osservazione, Domande, Internet

Organizzare i dati relazionali


Per organizzare i dati utilizziamo una Matrice di adiacenza (sociomatrice)

Una matrice di adiacenza può essere:

Orientata o Non Orientata

questo perché le relazioni tra persone possono avere un verso.

Quando vogliamo considerare flussi in due relazioni la chiameremo matrice orientata.

Es: Franco cerca Ciccio ma Ciccio non cerca Franco.


La matrice è orientata (ma anche asimmetrica). La matrice è simmetrica (non- orientata) se le due
metà della matrice sono uguali (questo può accadere nel caso dei legami, ad es., di parentela).

Binaria o Pesata

Pesiamo la

relazione tra
due
individui
(es. da 0 a
100),
parliamo di
binaria
quando

utilizziamo valori binari (0 e 1).


Ci consentono di avere un informazione più sofisticata e fanno si che la rete sia pesata, ovvero che
pensiamo la relazione.
Si utilizza, ad esempio per i focus group.

Es. Franco chiama Ciccio 10 volte mentre viceversa 2.


Segnata/Non segnata
Usiamo i segni + e – per stabilire relazioni positive o negativa, possiamo anche realizzare matrici
segnate e pesate (+3)

Ego-rete

Parliamo della rete di una persona per vedere il giro di amicizie.

Nell' esempio partiamo dalla rete di Tizio

Matrice di affiliazione (two-side)

La matrice diventa rettangolare (il numero tra righe e di colonne non corrispondono), si utilizza per
analizzare i casi in relazione a prodotti fisici o mediali.
Es. Persone in relazione a marche di scarpe acquistate

Franco, Ciccio e Enzo sono clienti simili, quindi potrebbero essere interessati alla stessa cosa.
In alcuni casi, pur non essendo inclusa nel SNA, possiamo usare la Matrice CXV.

L' analisi di rete: la base

Far analisi di rete significa dover disegnare il sociogramma.

Il Sociogramma (Elementi, criteri, dimensione della rete).

Con quale criterio dispongo le palline nello spazio? Se la rete è grande, come faccio a rappresentare
tuti i nodi nello schermo del computer?

Le statistiche dell' intera rete:

Densità (M.(Maglia) Stretta, M. Media, M.Larga)

E' riferito al numero dei collagamenti (link) tra i nodi, più collagamenti sono visibili, maggiore sarà
la densità.

La densità la calcola il Computer ed è un numero compreso tra 0 e 1.


Viene calcolata: Numero di Link Visibili/ Numero di Link Possibili.

Un sociogramma senza link avrà densità 0 mentre un sociogramma con il numero massimo di link
possibili avrà densità 1.

Esistono tre tipi di reti in base alla densità:

Maglia Larga (da 0 a 0,4)


Maglia Media (da 0,4 a 0,6)
Maglia Stretta (da 0,6 a 1)

Coesione basata sulla distanza

Quanto è lontano Antonio con Stefania? Misuriamo la distanza attraverso i numeri di link tra uno e
l'altro.
Nell' esempio Antonio con Stefania dista un link mentre Antonio con Giovanni distano 2 link.

In questo altro esempio, abbiamo due distanze tra Antonio e Stefania (una di 2 e una di 3).
La distanza che prendiamo in considerazione è quella minore che è definita Geodetica.

Possiamo misurare nella rete:

Media delle distanze geodetiche

Misura la coesione nella rete. Se la media è bassa è molto coesa, se è alta non è molto coesa.

Compattezza e Frammentazione (% di coppie non raggiungibili).

Sono numeri che si misurano tra 0 e 1 e sono inversamente proporzionali (se uno aumenta, l'altro
diminuisce e la loro somma darà sempre 1).
Un valore alto di compattezza sta a significare una rete compatta, se è alta la frammentazione
avremo una rete molto divisa.

Una rete di Big Data è sempre a maglia larga e il diametro della rete è uguale alla geodetica più
lunga.

Centralità e Potere

Il potere nell' analisi dei dati di rete si traduce nel concetto di centralità ovvero quando un nodo ha
un sacco di connessioni.

Misurazione del grado di un nodo – Degree (grado di connessione di n nodo)

Il numero di connessioni che questo nodo ha (es. Ciccio ha due legami (grado = 2).

Tanto è più potente, tante più amicizie ha. Però i legami possono essere in entrata o in uscita
ovvero.

In-degree (quante persone mi cercano) e Out-degree (quante persone posso attirare).

L' In-degree misura il prestigio sociale


l'out-degree misura l'influenza sociale.
Per misurare il potere di un influencer bisogna vedere i due valori.

Bonacich

Misuriamo il Degree pensando al contributo dei miei amici


(se avrò - meno amici ma + potenti, avrò una possibilità maggiore di raggiungere più persone).
Questo degree viene definito Degree di Bonacich.

Con il Degree posso cercare e selezionate gli influencer a cui mandare i miei prodotti.

Closeness (Vicinanza – raggiungibilità)

In-Closeness (Quanto è facile per gli altri raggiungere me?)


Out-Closeness (Quanto è facile per me raggiungere gli altri?)

Eigenvector (Che è utilizzato anche per l' algoritmo di Google).


E' equivalente dell' incide di Bonacich ma per la vicinanza.

Betweeness (Stare in mezzo)

Avere forza e potere, significa stare in mezzo alle coppie di nodi, la potenza dipende dal fatto che,
per parlare a un’altra persona, bisogna passare da queste persone.

Centralizzazione

Rispetto agli altri, è una misura che riguarda l'intera rete e c'è n'è per ogni misura.
CTZ: Centralizzazione

E' un numero che va da 0 a 100 e ci dice quanto è squilibrato il potere.


Più alto è, più è squilibrato (Es. 1 persona con molta betweeness e 100 con pochissima betweeness).

Il potere.

Nell’analisi della rete il potere viene determinato come centralità del potere.

Le misure del potere sono il grado, l’awareness, la betweeness.

L’analisi di rete: Sottogruppi

Per individuare i sottogruppi si utilizza la cluster analysis.

I gruppi si possono rintracciare o con un approccio bottom up o con un approccio top down.

Procedura bottom Up:

Ci propone alcuni algoritmi che ci consentono di rintracciare gruppi:

Clique - Ogni nodo è collegato agli altri in maniera omogenea e tutti hanno legami con tutti.
All’interno della “rete c’è una rete più stretta che agisce da sottogruppo.

N - Clique - Rete in cui uno dei nodi non ha rapporti con tutti gli altri ma solo con alcuni. Anche se
qualcuno non ha legami con tutti gli altri deve comunque avere legami indiretti. Ovvero arriva agli
altri membri passando per le relazioni che già ha, tuttavia questi legami devono essere determinati.
(ES: due clique / due passaggi) per arrivare a qualunque altro membro.

N – Clan – Nell’aspetto è simile alla N clique, tuttavia nel’ N - Clan il membro esterno fa parte del
gruppo (Esempio: una comitiva di persone in cui X e Y hanno relazioni solamente indirette. E
hanno relazioni solo tramite Z quella comitiva è un N-Clan. Se X e Y hanno relazioni tramite una
persona G che però sta al di fuori della comitiva allora quello sarà u n N Clique.

L’N clan è un caso particolare dell’ N clique.

Queste due variabili sono fondamentali per lo studio bottom up delle reti.

Approccio top down:

Nell’approccio top down il ricercatore va a scovare quei legami (Bridge) che se fossero tolti
creerebbero un danno enorme distruggendo la rete.

Anche qui si utilizzano diversi algoritmi per determinare i legami importanti.

Lambda set è uno di questi algoritmi che determina una gerarchia di importanza tra i legami degli
appartenenti alla rete. Il più importante sarà posizionato in alto nella tabella e sotto ci saranno tutti
gli altri.

Negli ultimi anni si è determinato un terzo approccio chiamato:

approccio delle strutture comunitarie.

Fa una cluster analysis molto più rapidamente e consente di individuare delle comunità vere è
proprie sulla base di caratteristiche razionali.

L’analisi di rete: i ruoli sociali

Il ruolo in sociologia è un aspettativa di comportamento.

Questa cosa è importante nell’analisi di rete. E’ più importante catalogare le persone nelle reti a
seconda dei ruoli sociali, tuttavia è molto difficile lavorrci.

I sociologi viene affrontano il problema dei ruoli attraverso l’equivalenza reazionale. Ovvero tutti
quelli che hanno lo stesso tipo di relazione con gli altri sono equivalenti ed avranno lo stesso ruolo.

Tutti i padri avranno mogli e figli.

Nella matrice di adiacenza questi ruoli vengono determinati nella somiglianza delle righe di
ciascuno. Se le righe sono uguali queste caratteristiche allora questi avranno lo stesso ruolo.

Tuttavia è molto raro trovare due figure uguali.

Il concetto di equivalenza viene sostituito dai sociologi con la somiglianza strutturale

Ci sono tre diversi modi di concepire la somiglianza strutturale.


Il primo è, per l’appunto L’equivalenza strutturale (Persone con relazioni uguali hanno lo stesso
ruolo)

Poi abbiamo:

L’equivalenza automorfica ( Due persone sono equivalenti se hanno lo stesso numero di relazioni
con altri nodi della rete, somiglianza nella forma ma non nella sostanza in quanto le persone con cui
intratterranno relazioni non saranno le stesse.)

Equivalenza regolare: (Situazione in cui abbiamo una somiglianza perché le persone hanno lo
stesso tipo di relazione con o stesso tipo di persone) Tutti gli studenti sono equivalenti regolari
perché accomunati dalla relazione tipica con i professori.

Tre modi di individuale i ruoli:

Matriciale: Si lavora con la matrice e si scovano le somiglianze dentro quella.

A bloccchi: dentro la matrice si cercano dei pezzi che abbiano delle somiglianze dal punto di vista
dei numeri

Grafico: Proiettare i modi su un sistema di assi cartesiani e si trovano le somiglianze.

Le reti egocentrate

Approccio micro alla SNA

I miei amici sono anche amici fra loro?

Lo chiediamo al diretto interessato, in questo caso ego.

Il problema di queste reti è che sono spesso in complete perché le informazioni che abbiamo sul
vicinato di ego le otteniamo da ego stesso, tuttavia ego potrebbe non sapere quali relazioni hanno i
suoi vicini.

Tuttavia queste informazioni sono molto facili da ottenere.

Ci sono una sere di misure di base nell’analisi delle reti egocentrate che sono le stesse incontrate in
passato. (Si parla di densità, di centralità etc…)

Due nuove misure di analisi sono state prodotte in questi ultimi anni:

Buchi strutturati: Se manca un legame all’interno di una rete , si parlerà di buco strutturato. In
quanto il nodo che metterà in contatto i due punti (ego) tra cui manca la relazione avrà più potere.

La presenza di buchi all’interno della rete crea situazioni di asimmetria.

Una seconda misura che viene presa si riferisce ai vincoli diadici (Una situazione in cui avrò meno
vincoli determinerà il mio maggiore potere)

Misure specifiche (cosa succede ad ego se uno dei buchi viene colmato?)
Brokeraggio: Se un tizio si trova al centro di un sentiero, può avere un ruolo di coordinatore, di
gatekeeeper , rappresentante, consulente. (Ego può coordinare una rete o può dare consigli
dall’esterno, può filtrare o comunicare informazioni dall’esterno verso l’interno o viceversa, può
rappresentare qualcuno dall’interno per comunicare a qualcuno di esterno).

Le reti bimodali

Le reti bimodali partono dalle matrici di affiliazione. Qual è la filosofia che sta dietro alle reti
bimodali? Si porova a mettere insieme micro e macro. Esistono le persone e le strutture presso il
quale interagiscono.

Si utlizza il grafo bipartito. ES: Uno schema che collega ciascun individuo ad una propria
caratteristica di appartenenza o ad un comportamento:

ES: Uccelli e piante di cui si cibano.

Sulla base di questo si vengono a creare delle reti fra gli animali che si nutrono delle stesse piante,
quindi si può costruire il gruppo degli animaletti che si cibano della stessa pianta.

Tutto ciò serve per sopperire ad una mancanza di dati. Se non conosco le persone costruisco le
relazioni tra le persone in base a quello che le persone consumano.

L’idea di base è collegare persone e strutture dentro il quale agiscono.

I dati sono più facili da ottenere.

Cosa si fa sulle reti bimodali? Si distinguono chiaramente le reti delle piante e degli animali e si
definiscono delle reti a parte.

Densità e centralità sono espresse come tasso di partecipazione (Matrice degli attori) e dimensione
dell’evento (matrice degli eventi).

Se ciccio e franco sono appassionati di modellismo e comprano trenini. Ciccio e franco non si
conoscono ma li metto dentro la stessa rete perché comprano sempre trenini.
Allo stesso modo posso costruire una rete di quanti hanno comprato uno specifico modello di
trenino rispetto ad un altro.

I limiti della Sna tradizionale (breve riassunto)

Perché non ha funzionato?

Perché si è basata su eccessivo strutturalismo.

Perché è stata troppo quantitativa.

Perché non è possibile fare campionamento.

Le analisi sono sempre state statiche.

Non abbiamo strumenti per l’analisi di reti gigantesche.


Nuovi sviluppi della SNA

• Nuovi strumenti statistici

• Possibilità di stimare modelli dinamici (SIENA)

• Capacità di analizzare reti vaste e complesse.

Reti vaste e complesse

Partiamo da una costatazione dicendo che la rete è composta da un numero enorme di nodi, la
conseguenza di questa quantità di nodi è la complessità solamente apparente della rete.
Queste reti complesse si trovano ovunque, cioè la complessità che si viene a creare dai nodi può
dare forme simili tra i nodi.

• Caratteristiche comune di alcune rete;


• Prospettiva interdisciplinare (scienza della complessità = si occupano di qualsiasi
complessità (chimica, fisica, etc..);
• Strumenti di analisi nuovi.

Analizzare le reti complesse

Gli obiettivi che si prefissano sono:

• Topologia (Struttura sostanziale e invariate)


◦ Invarianza di scala
◦ grafici di distribuzione del degree

Le reti complesse hanno una struttura particolare, nonché un' invarianza di scala.

• Clustering coefficient (quanto gli amici di ego sono amici tra loro?)
Si calcola perché ci permette di capire se la rete è complessa o no e deve essere dentro un certo
range.
• Assortività = C'è un mettersi insieme delle persone simili che hanno le stesse
caratteristiche / Disassortitivà = Non stanno necessariamente insieme(omofilia).
• Struttura comunitaria (Componenti).

Queste tre caratteristiche devono essere tenute in considerazione proprio per capire se la rete è
complessa oppure no.

Due caratteristiche delle reti complesse

1. Invarianza di scala
2. Struttura small-world

Invarianza di scale

• Grafico di distribuzione log-log (Y=xmega)


Struttura Small-World

• Il diametro di una rete sociale è ridotto (Milgram) => Six degree of seperation

• Non è il numero dei nodi a creare complessità, ma il modo in cui sono connessi (casualità,
clustering, weak ties).

Regular ==> Strong ties

Small-World ===> Weak Ties

Tipi di Rete Small-World


• Reti egualitarie (Watts-Strogatz, Kleinberg)
◦ senza power law (Invarianza di scala)

• Reti aristocratiche (Barabasi- Albert)


◦ Hub (Il modo in cui hanno tanti legami);
◦ Struttura Jellyfish con componenti giganti (Struttura a Medusa)
◦ Meccanismi di preferential attachement
▪ power law (invarianza di scala)
▪ resilienza e vantaggi evolutivi
▪ Percolazione (effetti emergenti)
Elementi di Metodologia
Capitolo 1
Conoscenza scientifica e conoscenza sociologica
La Conoscenza scientifica si può paragonare a un palazzo di 3 piani:
- piano epistemologico: Si occupa della conoscenza ed in particolare della conoscenza
sociologica, in quanto un problema delle scienze sociali, è il fatto che soggetto conoscente e
oggetto conosciuto sono la stessa cosa, poiché nelle scienze sociali gli oggetti di studio sono le
persone.
- piano teorico interpretativo: Qua ci si spiega come il mondo fisico o sociale funzioni. Attraverso
una teoria è possibile spiegare ciò: Una teoria è un insieme di proposizioni organicamente
connesse che si pongono ad un elevato livello di astrazione e generalizzazione rispetto alla realtà
empirica.
Le teorie si appoggiano su fatti empirici, dove alla fine possiamo formulare delle ipotesi.
Un'ipotesi è una proposizione che indica una relazione fra uno o più oggetti che si colloca ad un
piano inferiore rispetto alla teoria. Hanno un carattere meno astratto e proprio per questo possono
essere controllate empiricamente tramite esperimenti.
- tecnico metodologico: In questo piano bisogna trovare le prove delle teorie che vengono
formulate nel piano precedente. La scienza però trova delle difficoltà: 1) nelle scienze sociali
soggetto conoscente e oggetto conosciuto interagiscono, per questo è difficile essere ricercatori
obiettivi. 2) le scienze sociali hanno a che fare con soggetti non osservabili o misurabili.
All'interno del Piano metodologico avremo a che fare con quattro concetti:
- metodo: Sequenza generale di azioni con lo scopo di raggiungere un determinato obiettivo.
- tecnica: Sequenza dettagliata di operazioni che fanno raggiungere un risultato.
- strumento: Mezzo che consente al ricercatore di raccogliere i dati empirici.
- metodologia: Ragionamento sul metodo, consiste nello studio dei metodi delle tecniche più
appropriate per conoscere la realtà.

La prospettiva della scienza: Il paradigma


Il paradigma è una prospettiva teorica condivisa da una comunità di scienziati che definisce
l'importanza dei fatti sociali.
I paradigmi sono rappresentati dalla risposta a 3 domande
- questione ontologica: La realtà esiste?
- questione epistemologica: Se esiste è possibile conoscerla?
- questione metodologica: Se è possibile conoscerla, come?
A queste tre domande corrispondono 3 gruppi di risposte:
:Afferma che la realtà esiste ed è conoscibile oggettivamente (realismo ingenuo),
in quanto bisogna considerare soggetto e oggetto come natura separata e diversa e quindi vedere
i fatti sociali come oggetti.
:Afferma che la realtà si scorge ma non si rivela mai in modo
obiettivo e per questo ci può tradire, dunque la realtà è possibile riconoscerla ma con un certo
margine di errore in quanto soggetto conoscente e oggetto conosciuto possono interagire
provocando dei guasti.
: Afferma che la realtà non esiste in modo
oggettivo ma va interpretata, quindi la realtà è una costruzione sociale. Dal momento che la realtà
non è conoscibile oggettivamente, bisogna accontentarsi dei modelli ideali della realtà che non
corrispondono esattamente alla realtà, ma costituiscono una semplificazione.

1
Tendenze più recenti
Successivamente vengono usati i nuovi approcci che sono la Linguistic Turn, che ha rivolto
l'attenzione alle sociologie interpretative e alla costruzione sociale della realtà.
Es: Interazionismo simbolico, approccio drammaturgico, etnometodologia, strutturalismo... ecc

Capitolo 2
i percorsi della ricerca sociale
La ricerca può essere descrittiva/esplicativa oppure esplorativa/confermativa.
-Ricerca descrittiva: Come si presenta un certo fenomeno? Serviranno per questo tipo di ricerca
dei dati che fotografano il fenomeno.
- ricerca esplicativa: Perché un fenomeno si presenta in un certo modo? In questo caso si
dovranno individuare le cause che hanno prodotto il fenomeno osservato.
Ricerca esplorativa: Affronta il percorso di ricerca come un esploratore che cerca di conoscere una
realtà ignota (ricerca qualitativa).
- ricerca confermativa: Il ricercatore parte da una serie di ipotesi e da qui dovrà trovare le prove
che confermano tali ipotesi (carattere quantitativo).

Le fasi della ricerca


La ricerca sociale usa uno schema dove la:
: Disegno della ricerca
: Costruzione della base empirica
: Organizzazione dei dati
: Analisi dei dati
: Esposizione dei risultati
La fase della costruzione della base empirica costituisce il momento più delicato di una ricerca.
Essa si articola in cinque fasi:
1) dai concetti alle variabili: Si parte da un'ipotesi per finire ad un concetto. Si parla di un processo
di operativizzazione il quale consiste nello scegliere il concetto completo da operativizzare e nella
costruzione della definizione operativa che stabilisce le regole per la traduzione del concetto. Tali
regole sono: classificazione, ordinamento e conteggio.
Vi è una modalità di operativizzazione che comprende 3 tipi di variabili:
- nominali: Classificazione di etichette
- cardinali: Conteggio di numeri
- ordinali: Ordinamento delle posizioni
2) individuazione della Tecnica di rilevazione:
Le Tecniche che servono a raccogliere i dati empirici nella ricerca sociale, sono:
- raccolta di fonti secondarie di tipo statistico
- raccolta di fonti secondarie di tipo testuale
- esperimenti
- osservazione
- intervista
- questionario (inchiesta campionaria)
- data mining
- big data
- simulazione al computer
3) definizione dello strumento di rilevazione
4) validazione dello strumento di rilevazione
5) rilevazione dei dati

2
Organizzazione dei dati (framing)
Vuol dire trasformare i dati empirici raccolti, in modo da dare delle risposte alle domande
conoscitive del ricercatore. L'organizzazione dei dati può essere fatta tramite la post codifica e
tramite la matrice casi per variabili.

Analisi dei dati


Momento in cui dobbiamo trovare all'interno dei dati le risposte alle nostre domande conoscitive

Esposizione dei risultati


Momento finale della ricerca in cui si comunicano i risultati ai colleghi. È il momento in cui si scrive
il cosiddetto Report il quale contiene
-un'introduzione
- lo stato dell'arte cioè una sintesi della letteratura scientifica
- presentazione dei risultati
- commenti e conclusioni
- note metodologiche
- riferimenti bibliografici

Capitolo 3
Il campionamento
Il campionamento consiste nel selezionare alcune unità di analisi della popolazione. Si campiona
per risparmiare sia denaro che tempo, tuttavia uno svantaggio del campionamento consiste nel
suo errore, dovuto al fatto che le unità prese in analisi non saranno mai come l'intera popolazione,
ci sarà sempre uno scarto. La formula dell'errore di campionamento è:Y=Y^+-E Dove Y
rappresenta la popolazione e Y^ rappresenta il campione.
Distinguiamo tra campioni probabilistici e campioni non probabilistici.
Campioni probabilistici: Fanno riferimento alla teoria matematica della probabilità, in quanto tutte
le unità di analisi della popolazione hanno la stessa probabilità di essere estratte
n=Z^2(Pq)xN/E^2(N-1)+Z^2(Pq)
Vi sono diversi tipi di campioni probabilistici:
- campione stratificato: Che consiste nel suddividere le unita prese in analisi in proporzione ad
alcune variabili note.
- campione sistematico: Le persone vengono selezionati a caso e si comunica estraendo
casualmente un individuo dalla lista della popolazione e poi si selezionano gli altri fino a quando
non si raggiunge il totale previsto di unita prese in analisi.
Campioni non probabilistici: Campioni eterogenei ambiscono ad una rappresentatività
tipologica.
Vi sono vari tipi di campioni non probabilistici come:
- campione a valanga
- campione a scelta ragionata
- campione di convenienza
- campione per quote

Capitolo 4
L'intervista
Con il termine intervista si intendono quei modi per raccogliere dei dati.
Possiamo definirla come una forma di conversazione nella quale due persone parlano, di cui una
fa delle domande (intervistatore) e una che risponde (intervistato).
Tipi di intervista
Un primo criterio che bisogna analizzare riguarda come sono organizzate le domande,

3
esse possono riguardare:
- intervista strutturata: Presenta delle domande standardizzate da porre nello stesso ordine a tutti
gli intervistati, ed essi possono rispondere liberamente.
- intervista semistrutturata: non ci sono delle domande fisse ma una sorta di scaletta.
- intervista non strutturata: parte da un tema da approfondire.
Un secondo criterio riguarda lo stile dell'intervistatore e sono:
- intervista direttiva: L'intervistatore segue una lista di domande e ignora le reazioni dell'intervistato.
- intervista non direttiva: Le domande seguono le risposte dell'intervistato.
- intervista semidirettiva: Si ha una parte uguale per tutti gli intervistati e una parte dove si seguono
le esigenze dell'intervistato.
Un terzo criterio di classificazione riguardano il tipo di domanda e di risposte che possono essere
standardizzate o non.

Il rapporto tra intervistatore e intervistato


È molto difficile in quanto una cattiva percezione dell'intervistatore determina la partecipazione
dell'intervistato, pertanto l'intervistatore deve garantire:
- brevità del colloquio
- citare il committente della ricerca
- il tema dell' intervista
- l'anonimato dell'intervista
Nonostante l'intervistatore metta in atto tutto ciò, si potrebbero venire a creare dei problemi,
l'intervistatore pertanto deve cercare di creare un ambiente di normale conversazione, deve
sempre chiedere l'uso del registratore solo dopo l'inizio dell'intervista e soprattutto non deve mai
imporre una risposta in caso di rifiuto.

Strumenti e trascrizioni dell'intervista


l Intervista può presentarsi sotto due forme:
- scaletta (topic guide) - percorso strutturato (questioning route)

L'analisi dei dati


Esistono due approcci di analisi e sono:
- etnografico o narrativo: Ricorre alla tecnica del taglia e riordina (scissor and sort). L'idea è quella
di trascrivere le parti più significanti.
- quantitativo: Prevede una post codifica dei concetti che poi vengono conteggiati e presentati in
grafici e tabelle, questo conteggio ha lo scopo di ordinare i vari concetti in base ai temi trattati
durante le interviste.

Capitolo 5
Focus group
Il focus group è una tecnica di rilevazione che ricorre a procedure non standardizzate, basata su
discussioni apparentemente informali di gruppi di persone estranee fra loro, con la presenza di un
moderatore e un osservatore.
Il Focus group ha avuto successo nella ricerca sociale, e in tanti altri ambiti perché presenta
numerosi vantaggi:
- economicità
- rapidità: Si possono intervistare più persone contemporaneamente
- flessibilità: Gli strumenti utilizzati possono essere cambiati
- alta densità di informazione: Vengono prese in considerazione non solo le risposte ma anche le
dinamiche di gruppo che si vengono a creare
- alta tollerabilità: Viene considerato poco intrusivo

4
La pianificazione del focus group
Pianificare un focus group significa scegliere il numero e la composizione dei gruppi, il luogo, i
partecipanti.
I gruppi sono composti all'incirca da 8 persone che non si conoscono tra loro. La durata varia dalle
3 o 4 focus group con le stesse persone. Il luogo deve essere neutrale così da mettere tutti i
partecipanti a loro agio, vengono sistemati in cerchio in quanto indica simbolicamente che tutti i
partecipanti sono uguali.

Il moderatore e L'osservatore
Il compito principale del moderatore è quello di gestire l'interazione tra il gruppo.
Inizialmente il moderatore ha il compito di facilitare il warm up cioè la fase di riscaldamento,
intrattenere gli ospiti e fare in modo che socializzano tra loro.
Il compito del osservatore è quello di stare attento ai contenuti e come essi emergono durante la
discussione, prendendo appunti.

Strumenti di rilevazione
Lo strumento che molto spesso viene utilizzato è la traccia. La traccia è formata da poche
domande e non hanno un ordine preciso. Si distinguono 5 tipi di domande:
- domanda di apertura: Permettono la creazione del gruppo.
- domanda di introduzione: Portano il partecipante a riflettere sulla discussione.
- domanda di transazione: Si passa da un tema all'altro
- domanda chiave: Si riferiscono i temi centrali della discussione.
- domanda finale: Portano alla chiusura della discussione.

Le fasi di un focus group e i tipi ideali di partecipanti


Un focus group si sviluppa attraverso alcune fasi tipiche e sono:
-formazione del gruppo (forming)
- rottura dell'equilibrio iniziale (storming)
- emergenza di regole di conversazione (norming)
- definizione di ruoli (performing)
- comitato finale (mourning)
Una parte importante è la performing dove vediamo emergere dei tipi ideali di partecipanti che
possono essere:
- leader strumentale: L'uomo delle idee
- leader espressivo: Il più simpatico
- critico: Esprime dissenso motivando
- negativo: Esprime dissenso non motivando
- joker: Il buffone
- colui che divaga
- timido: Non partecipa alle discussioni
- l'entusiasta
- l’apatico: Ha atteggiamenti di indifferenza

L'analisi dei dati


L'analisi dei dati può avvenire in due modi differenti:
- immediatamente: Serve per non perdere impressioni e interpretazioni immediate
- alla fine di tutte le rivelazioni: In questo caso si ha l'analisi dei dati veri e propria e ha il compito di
suggerire i risultati più rilevanti dell'intervista. Essa deve essere sistematica e garantire
l’ispezionabilità della base empirica.
Infine si passa al report finale in cui innanzitutto fondamentale è fare una tabella con tutte le

5
abbreviazioni utilizzate, si procede poi alla presentazione dei risultati indicando il peso di ogni tema
e successivamente l'analista assocerà i pesi dei vari temi con le risposte più significative.

Capitolo 6
Etnografia è osservazione
L’osservazione è una delle tecniche di raccolta dati più antica, risale alle ricerche etnografiche che
andavano di moda in epoca coloniale sotto l'influenza del positivismo.

Tipi, ambiti e prospettive teoriche dell'osservazione


Esistono vari modi di fare osservazione possono essere classificate facendo riferimento ad alcune
dimensioni:
- partecipazione presente/assente : A seconda che l'intervistatore si mischi tra le persone.
- intrusività alta/bassa: A seconda che gli strumenti siano scoperti o nascosti.
- osservazione strutturata/non strutturata: A seconda che il ricercatore abbia uno schema
prestabilito oppure si lasci guidare dalle persone.
- prospettiva del marziano/convertito: Nel primo caso è completamente estraneo e distaccato, nel
secondo diventa a tutti gli effetti un nativo.

Che cosa è come si osserva?


L'attività osservatrice considera questi aspetti:
- contesto storico: Riguarda il passato del contesto da studiare
- contesto sociale: Il modo in cui è organizzata la società
- contesto fisico: Caratteristiche dei luoghi
-Interazioni formali e informali: Modi di Stare con le persone in pubblico o in privato
- interpretazioni orali e scritte dei Nativi: Spiegazioni del mondo che li circonda da parte dei
soggetti studiati
- produzioni materiali e simboliche: Ciò che le persone fanno insieme

Gli strumenti e le analisi del materiale raccolto


Uno strumento fondamentale di cui si avvale l'osservatore è il diario che può essere cartaceo o
digitale. Gli appunti riportati devono avere alcuni elementi fondamentali:
- descrizione: Devono essere più dettagliate possibile
- interpretazioni del ricercatore: Impressioni emotive di quello che ha visto
- verbalizzazione dei Nativi e i documenti rilevanti
Infine abbiamo un altro strumento che è il backtalk, si riferisce ad una precisa fase di un processo
di ricerca in cui ricercatore ed attori della ricerca si incontrano per controllare che i dati
precedentemente raccolti (da qui il termine back) siano effettivamente coerenti e rappresentativi
del contesto sottoposto a rilevazione.

Capitolo 7
Inchiesta campionaria
L’inchiesta campionaria rappresenta la ricerca quantitativa, è una tecnica di rilevazione basata sul
questionario che fa riferimento a campioni di tipo probabilistico e si propone di spiegare fenomeni e
problemi sociali.

La psicologia di chi risponde


L'intera filosofia dell'inchiesta campionaria si basa su un semplice assunto, quello per cui
uniformità di stimoli corrisponde ad una uniformità di reazioni. Le persone a cui viene posto il
questionario interpretano le domande in vario modo, dando forma a varie distorsioni della relazione
tra intervistato e intervistatore.

6
Le più importanti sono:
- desiderabilità sociale: Quel fenomeno per cui le persone intervistate, finiscono per dare delle
risposte socialmente desiderabili ma alle quali non credono veramente. Per questo è stata fatta
una scala di desiderabilità sociale che permette di capire se nel corso del colloquio una persona ha
indossato una maschera sociale.
- l’aquiescenza: Tendenza di dichiararsi d'accordo con le affermazioni contenute nelle domande.
- le pseudo opinioni: Il risultato della mancanza di opinione dell'intervistato.
Per capire meglio come funziona il meccanismo risposta domanda sono stati elaborati 4 modelli di
cui tre di matrice cognitiva ed una di linguistica.
: Sostiene che nel rispondere l'intervistato osservi una sequenza
fissa di paesaggi che producono la comprensione della domanda, il recupero dell'informazione e
infine la modalità della risposta. Questa strategia viene definita ottimizzante.
: Sostiene che accanto alla strategia ottimizzante l'intervistato può
utilizzare una strategia satisficing cioè accontentare le pretese dell'intervistatore.
: Gli intervistati rispondono in base alle prime cose
che gli passano per la mente
: L'intervistato parla sinceramente (si annulla il contesto di
intervista).

Il questionario
Il questionario è costituito da un insieme di domande standardizzate dette item.
Per costruire un questionario è necessario tenere conto di quattro presupposti:
- conoscere il fenomeno studiato
- operativizzare in modo valido e affidabile i concetti di ricerca
- avere esperienza nel campo
- conoscere bene la popolazione che si sta studiando.
Il questionario di solito è composto da tre parti:
1) parte di presentazione (cover Letter): presenta la ricerca e cerca di motivare gli intervistati a
cooperare.
2) istituzioni: Contengono tutte le regole che gli intervistati devono seguire per rispondere.
3) corpo principale: Comprende le domande vere e proprie.
Una regola nella costruzione del questionario è quello di essere chiari e semplici nella struttura
delle domande da sottoporre. Queste ultime possono essere aperte o chiuse. Nel secondo caso
sono più frequenti e ne esistono di vari tipi:
- scelta fra categorie semantiche autonome
- check list
- categoria ordinate
- ordinamento di preferenze personali
- differenziali semantici
- conteggio o misurazione
Prima di somministrare un questionario bisogna fare un pre-test, l'esito di ciò può portare
l'intervistatore a modificare uno degli elementi che sopra abbiamo descritto.
Infine si somministrano i test e ciò può venire in diversi modi: dal vivo, per telefono, per posta, per
computer ecc...
Essi possono essere somministrati o in circostanze singole (studio trasversale) o più volte nel
tempo (studio longitudinale).

Le scale Linkert e l'Alfa di Cronbach


Una scala è un insieme coerente di item che serve per misurare e osservare un concetto più in

7
generale. Le scale adattive di Linkert si svolgono in quattro passi:
1) la definizione degli item che si pensano adatti a misurare il concetto
2) la somministrazione tramite questionari
3) controllo della coerenza
4) controllo di validità e unidimensionalità
La parte più importante per stabilire se una scala funzione oppure no, è il calcolo dell’alfa di
Cronbach, che misura la coerenza interna della scala. Il controllo può essere effettuato facendo
uso della tecnica split half che consiste nel dividere gli item della scala in due gruppi per vedere
se il punteggio del primo è correlato con il secondo.
L'Alfa di Cronbach viene calcolata attraverso la seguente formula:
L'Alfa varia da 0 a 1. Più è grande, più le scale sono coerenti e attendibili, se risulta negativa vi è
qualche problema nell'orientamento delle categorie di risposta di alcuni item.

Capitolo 8
analisi dei dati
Il compito principale dell'analisi dei dati è quello di trovare delle strutture dotate di senso del
materiale raccolto. Essa può essere effettuata rispetto ai seguenti oggetti:
1)l'analisi dei casi. Che si divide in:
-case study: Studio dettagliato di un oggetto o di un fenomeno che viene considerato esemplare.
-analisi comparativa: Si mettono a confronto alcuni casi individuando delle caratteristiche comuni
evidenziando somiglianze eh differenze.
- l'analisi dei gruppi o Cluster analysis: Tipo di analisi quantitativa, dove al suo interno abbiamo le
tecniche gerarchiche, tecniche iterative o , tecniche sulla densità locale e le reti neutrali.
2) analisi delle variabili. Implica l'uso della statistica e si possono distinguere tre tipi di variabili:
- MONOVARIATA: Si occupa della variabili prese singolarmente e ha scopi descrittivi. La forma più
semplice di queste variabili è la rappresentazione tabellare, in cui il ricercatore individua le varie
modalità di risposta e per ciascuna conta le frequenze.
- BIVARIATA: Si occupa delle variabili prese a due a due e ha uno scopo esplicativo. Attraverso
questa analisi si possono controllare le ipotesi. Uno strumento utilizzato è la tabella di contingenza,
che rappresenta il modo in cui una variabile si distribuisce nelle diverse modalità di un'altra.
-MULTIVARIATA: Considera più di due variabili contemporaneamente e ha scopi sia descrittivi che
esplicativi, esplorativi o confermativi.
3) l'analisi dei dati relazionali. È affidata alla network analysis. Si basa su una matrice detta
matrice di adiacenza o sociomatrice. La presenza di due membri nella tabella indica l'esistenza di
rapporti biunivoci in cui si possono rintracciare iniziatore e destinatario della relazione, serve infatti
per descrivere posizioni e ruoli sociali.
4) analisi delle parole. Possiamo trovarle:
-Nella domanda nella risposta aperta. Vengono sottoposte ad una codifica per due ragioni:
1) riassumere a chiarire il significato delle parole
2) consentire un successivo trattamento statistico
Ultimamente molti ricercatori si sono rivolti all’analisi delle corrispondenze lessicali (ACL).
Quest'analisi afferma che le parole da sole non hanno alcun senso, ma lo acquisiscono solo se
associate ad altre. Essa persegue due obiettivi: Creare delle regolarità dei dati e individuare poche
dimensioni di senso che possono spiegare tali irregolarità tramite tecniche di tipo fattoriale.
- nelle interviste è nei focus group attraverso l'analisi quantitativa e qualitativa.
L'analisi delle parole viene fatta tramite l'analisi del contenuto, è una tecnica che si basa su
procedure di scomposizione dei testi in elementi più semplici.
Le tecniche di analisi del contenuto sono tre:
1) analisi della frequenza. Ha 3 scopi fondamentali:

8
- rapida esplorazione del testo
- affinamento delle parole del testo
- misurazione di una fonte
2) analisi co-occorrenze.
Serve a capire se due parole vengono regolarmente associate all'interno del testo preso in esame.
L’indice più diffuso di associazione è il coefficiente del coseno che si calcola:
c(x,y)=f(x,y)/√f(x)x√f(y)
3) analisi degli asserti valutativi.
È basata sull'analisi delle frasi contenute nei testi, serve a capire come vengono valutati
determinati oggetti nel discorso. Per effettuare questo tipo di analisi, il ricercatore si affida ai
differenziali semantici.

La ricerca sociale quali- quantitativa


Capitolo 1
Qualità e quantità nella ricerca sociale
In sociologia i termini qualitativo e quantitativo sono sempre stati usati con troppa disinvoltura per
colpa di una cattiva abitudine che ha portato a creare una dicotomia tra i due approcci, che si sono
cristallizzati in due fazioni opposte disinteressati ad imparare l'uno dall'altro.
L'opposizione tra qualità e quantità deriva dalla lontana divisione tra cultura scientifica e cultura
umanistica. Tale opposizione ha avuto origine con la rivoluzione industriale e scientifica che hanno
segnato una frattura nei modi di conoscere la realtà sociale.
Le varie contrapposizioni portano ad una metodologia della ricerca sociale diabolica, dal greco
“diaballein” cioè colui che getta differenza, in quanto sottolinea i guasti che la separatezza
metodologica ha prodotto nelle scienze storico-sociali.
È difficile trovare delle definizioni precise per i due tipi di approcci. L'approccio quantitativo si rifà al
paradigma positivista, il cui massimo esponente fu Durckheim, mentre l’approccio qualitativo si rifà
al paradigma costruttivista, cui massimo esponente è Weber.
La domanda fondamentale è: cosa vuol dire fare scienza? Gli scienziati non fanno altro che
produrre asserti, ovvero affermazioni su come funziona il mondo sociale, giustificare gli asserti su
base empirica e produrre un sapere controllabile, cioè pubblico e riproducibile.
Tali controlli sono effettuati secondo criteri di:
- validità (lo strumento che ho utilizzato misura veramente ciò che ho studiato?): È un giudizio
circa la rappresentazione semantica tra il mondo reale e le risultanze empiriche della ricerca.
Distinguiamo tra:
validità interna: Riguarda la pertinenza delle spiegazioni date alla situazione oggetto di
studio.
validità esterna: Riguarda la generalizzabilità delle spiegazioni date ad altre situazioni analoghe.
Di contenuto
Per criterio
Di costrutto
- attendibilità: Segnala il grado con il quale una certa procedura di traduzione di un concetto
produce gli stessi risultati in prove ripetute con lo stesso strumento di rilevazione. Può riguardare
ad esempio, test - pre-test, parallel forms, intercoding.
- triangolazione: Consiste nella proposta di studiare uno stesso oggetto attraverso prospettive
teoriche diverse, con lo scopo di ottenere una convergenza dei risultati ottenuti.

Capitolo 2
Intervista strutturata
Uno degli strumenti quali-quantitativi più importanti è l'intervista strutturata, rivolta ad un elevato

9
numero di soggetti scelti sulla base di un campionamento, che segue una traccia rigida e
standardizzata, in cui al suo interno troviamo la dicotomia tra espressioni (riguardanti le domande
a risposta aperta) e reazioni (riguardanti le domande risposta chiusa). Ed è proprio per questo
motivo che viene definito uno strumento quali-quantitativo. La presenza di domande sia aperte che
chiuse rappresenta un'opportunità per il ricercatore che intende triangolare dati e tecniche, sia di
tipo quantitativo che qualitativo. Affinché la triangolazione sia possibile è necessario adottare una
delle seguenti soluzioni:
1) includere nello schema di intervista a domande che prevedono risposte sia aperte che
chiuse. Lo svantaggio di questa soluzione è che l'intervistato troverà noioso rispondere a due
modi diversi ad una stessa domanda.
2) effettuare una post codifica delle risposte aperte allo scopo di ottenere variabili
analizzabili. Questa soluzione però comporta un lavoro lungo e faticoso da parte del ricercatore.
3) analizzare il testo delle risposte aperte per individuare i temi principali.
4) identificare attraverso l'analisi delle domande a risposta chiusa degli idealtipi di
rispondente e approfondirli successivamente con l'analisi delle domande a risposte aperte.
Per quanto riguarda le diverse tecniche quantitative di classificazione, la tecnica migliore usata è la
Cluster analysis, il quale obiettivo è quello di ordinare i casi in gruppi, in modo tale che vi sia una
sorta di omogeneità fra i membri di uno stesso gruppo e un eterogeneità tra i membri di gruppi
diversi. Tra i vari tipi di Cluster analysis troviamo: clustering gerarchiche, delle partizioni ripetute ed
iterative (es: Metodo delle K medie) basato sulla densità locale. Quella che più si utilizza è quella
del k - medie, tale procedura prevede che il ricercatore preveda a priori il numero dei cluster,
assegna poi ciascun caso a un gruppo. A questo punto i casi vengono spostati da un gruppo
all'altro fino a quando non verrà raggiunta l'omogeneità al loro interno e l'eterogeneità al loro
esterno.
La rappresentazione grafica ci permette di identificare 4 tipi differenti di spettatori:
- critico lettore: (colui che registra un valore basso su tutti i campi tranne sulla lettura del libro)
- fan deluso: (colui che registra valori alti in tutte le variabili tranne sul giudizio complessivo)
- fan entusiasta: (colui che registra valori alti in tutte le variabili)
- spettatore di massa: (colui che non ha letto il libro ma ha guardato il film).
Un altro modo per analizzare le domande a risposta aperta è attraverso l'analisi delle
corrispondenze lessicali, ACL. Questa è una tecnica di tipo esplorativo, la sua utilità sta nel fatto
che consente di ottenere una prima sintesi dell'informazione contenuta nei dati senza dover
effettuare nessun intervento di codifica intermedia. L'approccio dell’ ACL è basato sulle differenze
in quanto il significato di una parola riguarda le relazioni che essa ha con le altre.
Per effettuare l’ACL, i dati testuali vengono organizzati in una matrice lemmi x testi. Per lemma si
intende la forma canonica di una parola. Tali analisi producono uno o più grafici, dove gli oggetti
più significativi sono quelli più lontani dall'origine degli assi. Da un'analisi approfondita della
matrice lemmi per testi si può ottenere un'altra tabella che rappresenta i fattori, ossia i significati
nascosti all'interno dei testi, e la loro forza all'interno del testo, ossia l'autovalore. La somma di tutti
gli autovalori prende il nome di inerzia.

Capitolo 3
Il focus group è l'analisi di rete
Il focus group è l'analisi di rete sono due tecniche di ricerca sociale oggi fondamentali per
l'operatore sociale e il manager dei servizi sociali.
A riguardo, le tecniche sociometriche, dalle quali si è sviluppata la social network analysis, sono
nate al fine di rilevare studiare le relazioni interpersonali esistenti in un gruppo.
Innanzitutto la Sna è una tecnica concepita per le relazioni, dunque Come posso applicarla al
focus group dove invece dominano le interazioni? Dal punto di vista metodologico per studiare le

10
relazioni bisogna partire dalle interazioni poichè una relazione non è altro che un insieme di
interazioni.
Secondo Nedelmann l'interazione sociale può essere definita come un processo di durata più o
meno lunga, tra due o più attori che orientano il proprio agire l'uno verso l'altro, lo svolgimento di
tale agire produce effetti di associazione che corrispondono alle relazioni che possono essere di
affetto, amicizia, ecc.. Per far ciò è necessario raccogliere un nuovo tipo di dati, chiamate
relazionali, tuttavia la raccolta e l'organizzazione dei dati del focus group è un'operazione tutt'altro
che semplice. Per tale ragione durante l'effettuazione di un focus group, il moderatore dovrebbe
essere affiancato da almeno un'altra persona che lo aiuti ad annotare le informazioni principali che
emergono nel corso del dibattito: l’osservatore, dove ne possono essere più di uno, e possono
essere palesi o dissimulati.
Sono tre i tipi di dati da registrare: I legami, gli attributi dei legami e gli attributi dei soggetti.
Lo strumento più pratico per la raccolta dei dati relazionali è la cosiddetta sociomatrice, in cui
vengono aggiunte tutte le informazioni sui partecipanti, rappresentandole successivamente grazie
al sociogramma. Dal sociogramma dovrebbero risultare evidenti alcune caratteristiche essenziali
del gruppo, cioè:
- la sua omogeneità, ovvero la suddivisione in sottogruppi:
Nella ricerca di tali sottogruppi si possono seguire due approcci:
- un approccio bottom up che sottolinea come il magro possa emergere dal micro.
- un approccio top-down che invece guarda la struttura per evidenziare al suo interno aree
più dense o al contrario buchi.
- la presenza di individui isolati: Fra i compiti della Sna vi è quello di scoprire gli individui isolati
di una rete. Se un sistema presenta una bassa densità di relazioni, in esso ci sarà poco potere,
mentre invece se presenta un’alta densità di relazioni ve ne sarà molto. Ma ciò che interessa è
capire come il potere si distribuisca.
- le posizioni di centralità all'interno del gruppo
- le equivalenze strutturali dei nodi
A partire da Bavelas la sna misura il potere tramite la centralità, considerando tre indicatori
fondamentali:
- il grado: Connessioni in entrata o in uscita che si riferiscono a un particolare nodo
- la vicinanza: Misura quanto facilmente un attore sia raggiungibile o posso raggiungere gli altri
- l'Intermedietà misura quanto gli altri attori dipendono da un certo modo per stabilire delle
relazioni.

Capitolo 5
L'analisi qualitativa computer assistita
I software per l'analisi qualitativa dei dati prendono il nome di CAQDAS, e servono ad organizzare
l'enorme mole di informazioni che caratterizza il materiale di tipo qualitativo. Tale analisi Interpreta
i dati attraverso l'identificazione e la possibile codifica dei temi al fine di costruire ipotesi o teorie. I
CAQDAS si distinguono in programmi per la
-ricerca descrittivo interpretativa: categorizzazione eh codifica del Corpus testuale
-ricerca orientata alla teoria: Ispirate alla grounded Theory.
Una classificazione più recente distingue i CAQDAS in:
- programmi di codifica il recupero delle informazioni
- programmi per la costruzione delle teorie basate sulla codifica
- programmi per la ricerca e la gestione di testi
Le principali funzioni svolte dai CAQDAS sono:
- registrazione/archiviazione: La registrazione è una funzione accessoria, mentre la seconda

11
riguarda la capacità di organizzare efficacemente il materiale raccolto.
- codifica: Isolare frammenti di materiale empirico attribuendogli un etichetta di riconoscimento.
- recupero e collegamenti: Il sistema di codifica consente il recupero efficiente dell'informazione, di
conseguenza si possono effettuare ricerche sistematiche in forma di navigazione ipertestuale su
materiale di ogni tipo.
- analisi: L'insieme dei testi recuperati può essere sottoposto a vari tipi di analisi. Analizzare
differenze, somiglianze e relazioni tra i diversi segmenti recuperati.
- integrazione:
-integrazione interna: Ovvero assistere il ricercatore nello sviluppo di categorizzazioni,
tipologie e proposizioni teoriche con la possibilità di collegarle insieme per elaborare una teoria.
-integrazione esterna: Ovvero stabilire un collegamento con il materiale non direttamente
raccolto dal ricercatore, ma utile per comprendere meglio il fenomeno oggetto di studio.
I criteri per scegliere un CAQDAS:
1) un primo criterio per scegliere un programma adatto alle proprie esigenze, è quello della
diffusione. Infatti i programmi più noti sono quelli che gli analisti hanno apprezzato di più. I
CAQDAS più diffusi sono: Atlas.ti , N6 e Hyper Research.
2)Il secondo criterio di scelta deve tener conto delle proprietà del programma uniti agli scopi del
ricercatore.
3) il terzo criterio invece deve tenere conto della struttura della complessità della ricerca.
Inoltre nella scelta di un CAQDAS vanno considerati: Dati tecnici, formato dei dati accettati,
l'ergonomia, performance, la possibilità di inserire dati multimediali, tipi di codifica, unità di ricerca
testuale, funzioni statistiche.
Atlas.ti è uno dei programmi più diffusi e completi per l'analisi dei dati qualitativi. Tale programma
si basa su quattro principi: visualizzazione, integrazione, serendipity, esplorazione. E’ stato pensato
per un contatto diretto con i testi attraverso letture ripetute e un confronto interno tra i passi
codificati del ricercatore.
Atlas.it opera su diversi livelli di analisi, ovvero: Documenti primari, citazioni, annotazioni, famiglie,
reti semantiche.
Tutti i CAQDAS, sono costruiti per il recupero selettivo delle informazioni contenute nei documenti
raccolti a seguito di una codifica sistematica.
Una particolare caratteristica di atlas.it consiste nel controllo della attendibilità delle codifiche: Il
sistema controlla infatti che sia stata la stessa persona o meno a porre le codifiche in quanto il
sistema permette di associare il nome dell'autore, la data e l'ora della creazione di ciascun autore,
quindi si possono verificare anche le modifiche che possono venire fatte da diversi autori nel caso
di un lavoro di gruppo. In generale I CAQDAS favoriscono la triangolazione tra ricercatori allo
scopo di integrare i propri sistemi di codifica, integrali e fonderli.

Social network analysis


L'analisi di rete come prospettiva economica - le origini
Sviluppatasi dagli anni 90 in poi, da tre filoni teorici dai quali si è poi articolata, la social network
analysis rappresenta una delle più interessanti prospettive di studio della società.
La prima di questi tre filoni teorici è la . Composta da psicologi
tedeschi ebrei, perseguitati e fuggiti in America, fondano questa scuola per studiare l'uomo
all'interno della società, in particolare si occupano della gestalt (la forma) e sono le Lewin, Heider
e Moreno.
Lewin. Sviluppa il concetto secondo il quale il comportamento di gruppo è scaturito dal campo
sociale (ovvero il giro di conoscenze).
Heider. Sviluppa il concetto di equilibrio cognitivo che sposta sulla società, fino ad arrivare a

12
quell'equilibrio che si crea tra me e gli altri ovvero l'equilibrio strutturale (le persone sono quelle che
sono in base ai rapporti che hanno con gli altri).
Moreno. Inventa uno strumento chiamato sociogramma, che mostra le relazioni delle persone. Con
questo strumento riuscì ad aprire una riflessione sulle strutture sociometriche venute fuori dalle
molteplici relazioni che un individuo presenta.
La seconda è la . Composta da sociologi e antropologi che fanno parte
della scuola funzionalista. I maggiori esponenti sono Warner e Mayo, che intrapresero una serie di
studi empirici sulla vita di fabbrica e di comunità. Essi focalizzarono la loro attenzione sulla
struttura dei sottogruppi che vi si trovano all'interno, intraprendendo l'analisi dei gruppi isolati e
delle “chicche” che si sovrappongono l'una con l'altra (l'insieme di più gruppi di cui un individuo fa
parte contemporaneamente).
Alla fine degli anni 40 Homans, tenta di unire gli studi fatti da Moreno a quelle della scuola di
Harvard in quanto la sociologia di Moreno forniva una buona base metodologica e a questa
Homans introdusse la tecnica della riorganizzazione matriciale dei dati relazionali.......
La terza è la . Composta da antropologi tra cui
Gluckman, Barnes, Bott and Mitchell, interessati a vedere come è strutturata una rete sociale nel
suo complesso. Svilupparono un approccio strutturale per poter esaminare le dimensioni del
conflitto e del potere all'interno delle strutture sociali.
In seguito intorno agli anni 80, l'eredità della scuola di Harvard passò alla scuola di Toronto,
guidata da Wellman, che iniziò un processo di istituzionalizzazione e sistematizzazione della sna.
Wellman ha riassunto le conoscenze teoriche acquisite fino a quel momento e ha cercato di dare
un'identità ad un movimento ancora troppo frammentato ed eterogeneo.

Capire l'approccio di rete


La sna analizza la realtà sociale a partire dalla sua struttura reticolare. L'unità di analisi quando
studiamo la sna è la relazione sociale.
I problemi che incontrano gli scienziati sociali con la sna sono:
- rigido strutturalismo
- carattere fortemente formalizzato e matematico
- indisponibilità di dati relazionali
- mancanza di strumenti statistici adatti
- difficoltà nel visualizzare reti vaste e complesse
- staticità delle analisi

Raccogliere i dati relazionali


Per ricostruire ad analizzare una rete bisogna procedere con quelle che sono la raccolta e
l'organizzazione dei dati relazionali. Ovviamente la raccolta e l'organizzazione dei dati devono
essere precedute dalla progettazione dell'indagine da parte del ricercatore, il quale dovrà stabilire
delle decisioni su come agire. Una di questa è la scelta dell'unità d'analisi, bisognerà poi decidere
forma e contenuti delle relazioni e infine la scelta del livello di osservazione. Adesso il ricercatore
deve porsi il problema dei confini della rete.
Questi confini servono per riuscire ad analizzare al meglio le reti, in quanto permettono di separare
gli attori e le relazioni pertinenti da quelle che non lo sono.
Possiamo distinguere 4 categorie di selezione dei confini:
1) strategia realista (name generators): Comincio da un gruppo di persone che ritengo
fondamentali per la mia ricerca, chiedo di nominarmi delle persone con le quali interagiscono.
2) strategia nominalista: Si stabiliscono confini materiali (esempio: Tutti gli abitanti di Palermo).
3) strategia posizionale: Fa riferimento a delle caratteristiche delle persone.
4) strategia relazionale (snowballing): Prendiamo soggetti denominati, e a questi chiediamo nomi

13
di persone da andare ad intercettare e così via.
5) strategia basata su Eventi. Si selezionano persone che hanno condiviso un certo evento.
Dopodiché bisognerà stabilire quante unità d'analisi considerare, se l'intera popolazione,
effettuando quindi un censimento o se solo una parte approntando un campionamento.

Ma Come raccogliere i dati?


Innanzitutto tramite testi e documenti, poi il ricercatore può servirsi dell'osservazione diretta della
rete, tramite questionario o intervista.

Organizzare i dati relazionali


Una volta conclusa la rilevazione, si passa alla fase di organizzazione dei dati attraverso una
matrice.
-matrice di adiacenza (chiamata anche sociomatrice). La più comune nella sna. Si tratta di una
tabella quadrata, composta da un numero di colonne e righe pari al numero di nodi che definiscono
la popolazione reticolare. Gli attori sono indicati nella stessa sequenza sia in riga che in colonna e
nelle celle vengono riportate le informazioni sulla relazione tra essi. Esse possono essere:
- orientate: Ossia prevedono una precisa direzione da un nodo all'altro. Esse sono dette
asimmetriche vengono utilizzate per stabilire chi conferisce prestigio a una persona e chi gode di
quel prestigio.
- non orientate: In cui non è indicata la direzione della relazione e vengono utilizzate per
definire legami di parentela. Esse sono simmetriche.
Le relazioni Inoltre Possono essere definite con diversi codici:
- binari: indicano la presenza o l'assenza del legame
- segnati: indicano la positività o la negatività della relazione
- pesati: Indicano la forza della relazione.
-matrice di affiliazione: Si tratta di una matrice rettangolare che descrive reti di affiliazione.
Essere scrivono la partecipazione di un gruppo di attori a una serie precisa di eventi. Esse sono
generalmente utilizzate per due Finalità:
1) indicare le strutture relazionali degli attori attraverso il loro coinvolgimento a determinati eventi
2) rilevare le strutture relazionali dai eventi che attraggono partecipanti comuni.

Rappresentare è descrivere la rete. Il sociogramma


Una volta che i dati relazionali sono stati inseriti nella matrice di adiacenza, è possibile visualizzare
la rete sociale attraverso la rappresentazione grafica. Il grafico più utilizzato per la presentazione di
sociomatrici e il sociogramma: Consiste in un diagramma bidimensionale che raffigura le relazioni
fra gli attori attraverso nodi e linee che indicano la presenza di una relazione.
Inoltre vanno definite le caratteristiche principali dell'intera rete (misure di coesione):
: E’ data dal rapporto tra il numero di legami esistenti di una rete e il numero di tutti i
legami possibili. Il suo valore varia da 0 (densità minima) a 1 (densità massima). Possiamo
distinguere:
Reti a maglia larga: Con valori compresi da zero a 0,4
Reti a maglia media: Con valori compresi tra 0,4 e 0,6
Reti a maglia stretta: Con valori compresi tra 0,6 e 1
: Indica la lunghezza del percorso tra una coppia di attori. Quello più breve è detto
distanza geodetica.
: Si riferisce al numero di nodi che dovrebbero essere rimossi per Disconnettere la
rete.

Centralità
Il concetto di centralità è uno dei più importanti nell'ambito della Sna.

14
Molto spesso le persone che occupano le posizioni centrali sono coloro che risultano essere le più
attiva e che possono quindi facilmente influenzare le dinamiche interne della rete.
Le misure di centralità più diffuse sono:
(il grado): La centralità cresce con il crescere dei legami. Il grado di un nodo è dato dalla
somma dei legami in cui esso è presente. Inoltre si distingue:
In-degree: Si riferisce al numero di legami provenienti da altri membri della rete verso un nodo
specifico.
Out-degree: Si riferisce al numero di legami che hanno origine in un modo e sono diretti verso
altri membri della rete.
(vicinanza ): Misura quanto ruolo risulta vicino a tutti gli altri nodi della rete. Vicini
sono quei nodi che hanno meno intermediari, quindi viene indicata la strada migliore che unisce
due punti ossia la geodetica. Anche per la closeness abbiamo:
In-closeness: Facilità con cui un nodo è raggiungibile dagli altri
Out-closeness: Facilità con cui un nodo raggiunge gli altri.
: L'idea è che un nodo che fa da intermediario tra altri due, ha una posizione di
vantaggio rispetto agli altri in quanto la capacità di intermediazione permette di controllare lo
scambio di informazioni.

Sottogruppi
All'interno di un sistema reticolare si vengono a creare dei sottogruppi. Di maggiore rilevanza sono
i sottogruppi coesi, ossia composti da un insieme di nodi connessi tra loro in maniera diretta.
Esistono fondamentalmente due approcci allo studio dei sottogruppi:
- approccio bottom up: Esso si occupa di rintracciare all'interno di un reticolo :
clique: Ossia composta da nodi collegati in maniera diretta l'uno con l'altro
N-clique: Ossia composte da nodi collegati in maniera diretta o indiretta attraverso un
intermediario.
N-clan: Ossia composte da nodi collegati in modo diretto o indiretto attraverso un
intermediario E quest'ultimo deve appartenere al gruppo.
- approccio top down: Esso si occupa di definire la lamdba set, una sorta di graduatoria dei legami
più importanti della rete, senza i quali sarebbe compromessa in modo rilevante la sua struttura
originaria.

Posizioni ruoli ed equivalenze


Il concetto di ruolo nella Sna, è definito in termini di equivalenze fra gli attori. Secondo la sna, nel
caso dei ruoli, le somiglianze si misurano sulla base delle relazioni (somiglianza relazionale) si
possono quindi distinguere tre diversi tipi di equivalenze:
1) equivalenza strutturale: Quando due attori possiedono gli stessi legami con gli stessi attori
2) equivalenza automorfica: Quando due attori hanno la stessa struttura relazionale con gli altri
nodi a cui sono collegati, senza necessariamente essere gli stessi
3) equivalenza regolare: Quando due attori presentano legami con gli stessi tipi di persone.
esempio : Due padri. (Hanno lo stesso ruolo sociale) anche se uno ha due figli e l'altro uno solo.

reti vaste e complesse


Un altro problema è quello di analizzare le reti che si presentano come vaste complesse. Le reti
complesse presentano due caratteristiche:
: Fenomeno per cui ingrandendo, rimpicciolendo o spezzando la rete, si
osservano forme simili (questo si verifica tramite un grafico di distribuzione del degree).
, di cui ne individuiamo due tipi:
Reti egualitarie: Vengono un po' discusse per tre aspetti: Presentano nodi con molti collegamenti,
esibiscono invarianza di scala (power law), possono evolvere secondo meccanismi detti di

15
attaccamento preferenziale (preferential attachment): Più una pagina web è cliccata più sarà
visitata in futuro, ciò ha portato alla regola secondo il quale quando un individuo deve stabilire con
chi instaurare un legame lo farà con il nodo vicino che ha il maggior numero di legami. Ciò produce
reti di piccolo Mondo di tipo aristocratico.

16
lOMoARcPSD|3524121

Metodologia Della Ricerca Sociale (Elementi di metodologia


e tecniche della ricerca sociale)
Metodologia della ricerca sociale (Università degli Studi di Palermo)

StuDocu non è sponsorizzato o supportato da nessuna università o ateneo.


Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)
lOMoARcPSD|3524121

METODOLOGIA DELLA RICERCA


SOCIALE:
Libro: ELEMENTI DI METODOLOOGIA E TECNICHE DELLA RICERCA
SOCIALE.
Capitolo:1
CONOSCENZA SCIENTIFICA E CONOSCENZA SOCIOLOGICA:
L’edificio della conoscenza scientifica:
La sociologia è una scienza, tutte le scienze hanno l’obbiettivo comune di conoscere
qualcosa.
Il sociologo si occupa di temi astratti come il razzismo, la religione, la devianza ecc;
La conoscenza scientifica si può paragonare ad un edificio di 3 piani:
 PIANO EPISTEMOLOGICO: Questo piano sono le fondamenta dell’edificio,
l’epistemologia è una branca della filosofia che si occupa della conoscenza
scientifica. Questo piano è occupato da domande che riguardano l’esistenza
della realtà o se sia possibile conoscere la realtà, il problema più grande da
affrontare a questo livello nelle scienze sociali riguarda la sostanziale identità
tra soggetto conoscente e oggetto conosciuto cioè il problema è che chi
conosce e chi viene conosciuto sono della stessa natura; Esempio: sociologi
che studiano le persone e le loro relazioni.
 PIANO TEORICO- INTERPRETATIVO: In questo livello troviamo le teorie ovvero
le interpretazioni che lo scienziato produce su come il mondo funzioni. Una
TEORIA è “un insieme di proposizioni organicamente connesse, che si
pongono ad un elevato livello di astrazione e generalizzazione rispetto alla
realtà empirica (cioè possono prevedere il futuro, perché se accade “A”
sicuramente accadrà “B”), le quali sono derivate da regolarità empiriche e
dalle quali possono essere derivate delle previsioni empiriche”. Quindi una
Teoria è fatta sostanzialmente di frasi che ci dicono qualcosa sul mondo che ci
circonda, queste frasi non si devono contraddire tra di loro, devono riferirsi
allo stesso oggetto. Le Teorie possono essere applicate a tante situazioni,
infine le Teorie si appoggiano a fatti empirici che si riscontrano con una certa
regolarità; Esempio: sulla base del fatto che ogni giorno vediamo il sole

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

sorgere, possiamo prevedere che anche domani il sole sorgerà. Un IPOTESI è


una relazione tra due o più concetti, questa relazione è di solito di tipo
matematica o logica. Quindi un’ipotesi è “una proposizione che implica una
relazione fra due o più concetti, che si colloca su un livello inferiore di
astrazione e di generalità rispetto alla teoria e che permette una traduzione
della teoria in termini empiricamente controllabili”. Le ipotesi sono più
concrete rispetto alle teorie e quindi possono essere controllate
empiricamente, tramite misure, esperimenti, ecc, ma hanno un campo di
applicazione più limitato. Per fare una teoria è necessario unire più ipotesi. Le
ipotesi hanno generalmente carattere provvisorio e non conducono per forza
ad una teoria. Le ipotesi possono essere divise in IPOTESI GENERALI, che
hanno un campo di applicazione più ampio, e IPOTESI SPECIFICHE, che hanno
un campo di applicazione più ristretto.
 PIANO TECNICO-METODOLOGICO: Qui la scienza si occupa dei modi “pratici”
attraverso i quali è possibile conoscere il mondo. È a questo livello che
bisogna occuparsi di trovare le “prove” empiriche delle teorie sul mondo che
vengono formulate nel piano precedente. Infatti, non si può parlare di scienza,
se ogni teoria o ipotesi che abbiamo formulato circa il funzionamento del
mondo non è supportata da prove e dati empirici. Nelle scienze sociali però
può essere difficile raccogliere dati empirici per due motivi:
1. Nelle scienze sociali, soggetto conoscente e oggetto conosciuto non sono
separati.
2. Le scienze sociali hanno a che fare con concetti non direttamente
osservabili o misurabili (il razzismo, la felicità, la religione).
Concetti importanti del piano tecnico- metodologico:
- Il METODO: Sequenza più generale di azioni per raggiungere un obiettivo
conoscitivo (è solo uno);
- La TECNICA: Specifica procedura operativa per raggiungere un obiettivo
conoscitivo (possono essere tante);
- Lo STRUMENTO: Mezzo concreto per raccogliere dati empirici
(questionario);
- La METODOLOGIA: Discorso sul metodo (un ragionamento complessivo
che cerca di capire quali sono i metodi, le tecniche, gli strumenti).
Tutti e 3 i piani sono collegati fra loro.
In un lavoro di Thomas Kuhn viene introdotta la nozione di paradigma, per
spiegare come funziona il lavoro degli scienziati. Il paradigma è una guida che

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

orienta il lavoro dello scienziato. Più esattamente il paradigma è una


prospettiva teorica, condivisa da una comunità di scienziati, che definisce la
rilevanza dei fatti sociali, fornisce le ipotesi interpretative, orienta le tecniche
della ricerca empirica. Thomas Kuhn dice che fare scienza implica l’adozione di
un punto di vista particolare, appunto la prospettiva e se cambiamo questo
punto di vista le cose ci appaiono in modo diverso e quindi cambiano anche i
risultati del lavoro di ricerca. La definizione di Kuhn ci dice che un paradigma è
condiviso da una comunità di scienziati e spesso coloro che non lo
condividono sono considerati dei ciarlatani, per questo motivo la comunità
scientifica esercita un controllo severo sul lavoro dei suoi membri, attraverso
Seminari e convegni. Il paradigma suggerisce agli scienziati anche le cose di cui
si dovrebbe occupare: LA RILEVANZA, dei fatti sociali. Un paradigma
imponendoci un punto di vista specifico, ci vincola a ipotizzare il
funzionamento del mondo sociale in un certo modo, ciò determinerà anche il
tipo di tecniche che potremmo utilizzare: Le ipotesi interpretative e gli
orientamenti sulle tecniche. I paradigmi non sono eterni, capita che a volte
arrivando ad un certo punto un paradigma collassi preceduto da varie crepe e
lascia il posto ad una nuova prospettiva quindi a un nuovo paradigma.
I paradigmi sono rappresentati dalla risposta a tre questioni:
1. La QUESTIONE ONTOLOGICA (La realtà esiste?)
2. La QUESTIONE EPISTEMOLOGICA (Se la realtà esiste, è possibile
conoscerla?)
3. La QUESTIONE METODOLOGICA (Se esiste ed è possibile conoscerla,
come faccio a conoscerla?)
Il modo in cui viene data una risposta a queste tre domande costituisce la
ragione di essere un paradigma. Per spiegare queste tre domande e dargli una
risposta ci serviremo di alcuni quadri (Usiamo l’arte per spiegare tutto ciò
perché discipline umanistiche e scienze esatte sono la stessa cosa come
Leonardo Da vinci ha dipinto la gioconda ma ha anche costruito l’aereo).
Nelle scienze sociali esistono tre gruppi di risposte per queste tre domande e
queste risposte danno luogo a tre paradigmi:
- POSITIVISMO (primo paradigma): Un esempio di quadro positivista è
“La ville d’Avray”, è un’opera di J.B. COROT. In questo quadro noi
vediamo un paesaggio, una villa e degli alberi. Gli occhi dei positivisti
sono come gli occhi di Corot, cioè loro vedono questo di fronte a loro e
quindi per loro realtà è in quel modo. Quindi loro dicono che la realtà
esiste e pensano che tutto ciò che vedono esista; (Questa è la risposta

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

che viene data dai positivisti alla questione ontologica “la realtà
esiste?”) I positivisti dicono che la realtà è conoscibile oggettivamente,
Durkeim in un suo libro dice che dobbiamo considerare i fatti sociali
come oggetti, dice questa cosa perché non ci occupiamo più di soggetti
ma di cose e quindi per lui non c’è più il problema che il soggetto
conoscente e l’oggetto conosciuto sono la stessa cosa, e così è possibile
conoscere la realtà in modo oggettivo; (Questione Epistemologica e
risponde alla seconda domanda). I positivisti usano il metodo scientifico
per conoscere la realtà, questo metodo è basato sulle procedure
induttive, cioè io guardo la realtà e cerco delle regolarità, cioè cose che
accadono sempre allo stesso modo e così io posso formulare delle leggi,
queste leggi prendono il nome di LEGGE DETERMINISTICA (Legge
deterministica significa che le cose accadono sempre allo stesso modo,
quindi se accade “A” sicuramente accadrà “B”); (Questione
Metodologica e risponde alla terza domanda).
- IL NEO E POST-POSITIVISMO (Secondo paradigma): Un esempio di
quadro per il secondo paradigma è “Notte Stellata” dipinto da Van
Gogh. In questo quadro noi vediamo le stesse cose del quadro di Corot
descritto precedentemente, ma in realtà è diverso perché cambiano le
luci, i colori ecc, cioè è diverso il modo in cui gli stessi elementi ci
vengono mostrati. Qui la realtà esiste però non riusciamo a vederla
bene, perché è offuscata, questo punto di vista di Van Gogh viene
definito REALISMO CRITICO, perché la realtà c’è ma non riusciamo a
vederla in modo chiaro (Questione Ontologica “la realtà esiste?”), qui
iniziano i problemi perché si la realtà c’è ma può indurci in errore per la
limitazione dei nostri sensi, quindi la realtà si può conoscere ma con un
certo margine d’errore, perché ad esempio i nostri occhi e la nostra
mente possono vedere cose che non esistono come un incendio nel
quadro di Van Gogh. Qui soggetto conoscente e oggetto conosciuto non
sono del tutto separati, perché come ha fatto Van Gogh con il suo
quadro che è sia la notte stellata che lui stesso, anche gli scienziati
entrano nell’oggetto che stanno conoscendo, quindi a questo punto sul
mondo possiamo formulare soltanto congetture, in particolare gli
scienziati devono formulare congetture falsificabili; Questo concetto di
falsificabilità è di Popper e può voler dire due cose:
- Vuol dire che una congettura arrivando ad un certo punto si dimostra
falsa;
- Vuol dire anche che una teoria scientifica deve essere costruita in modo
tale di essere falsificata;

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Falsificabile vuol dire che qualcuno dice “si funziona”, ‘’no, non funziona” e se
non funziona si annulla e non come diceva Max che se non funziona si
aggiusta per adattarla al presente (Questa è la risposta alla questione
epistemologica). A questo punto dobbiamo capire come conoscere questa
realtà opaca, qui le scienze esatte hanno avuto un cambio di paradigma, cioè
la realtà è conoscibile per pezzi, ciò vuol dire affidarsi al linguaggio delle
variabili, non potendo conoscere la realtà direttamente, si deve ricorrere ad
un percorso tortuoso, mettendo assieme dei “pezzi” di conoscenza per
comprendere tutta la realtà, questi pezzi sono le proprietà e gli attributi della
realtà da conoscere (Questa è la risposta alla questione metodologica).
- COSTRUTTIVISMO (Terzo paradigma): Un esempio di quadro per il
terzo paradigma è “suprematismo” di Malevic, questo è un quadro
astratto ed è quindi difficile spiegare cosa c’è raffigurato, qui ognuno
ci vede quello che vuole. Qui la realtà c’è ma è una costruzione
sociale, cioè quello che ognuno vede è una realtà che si vede dopo
esserci messi d’accordo su quello che si vede, per questo motivo si
aprono possibilità di conflitto fra gruppi sociali diversi che
interpretano in modo diverso la realtà. I costruttivisti dicono che la
realtà non esiste in modo oggettivo ma va interpretata e va dato un
nome. (Questa è la risposta alla questione ontologica). Quindi se ci
sono realtà diverse è possibile conoscerle? Nel piano epistemologico
soggetto conoscente e oggetto conosciuto si conoscono, si
confrontano e questo viene ammesso nel processo di conoscenza, la
conoscenza deve fare i conti con i valori del ricercatore, il quale deve
perseguire la valutatività, cioè deve limitarsi a chiarire il significato
dei valori che ispirano le scelte sociali, quindi è necessario che il
ricercatore si spogli del proprio etnocentrismo visto che quest’ultimo
può influenzare l’interpretazione della realtà, in poche parole non
dare per scontata la realtà ma scoprirla e interpretarla ogni volta.
(Questa è la risposta al piano epistemologico). Weber, Rickert e
Windelband nel dibattito sul metodo che li impegnò contro il
positivismo, alla fine dell’800 (METHODENSTREIT) si reserò conto
che era necessario individuare un nuovo metodo scientifico che
poteva tener conto della specificità delle scienze sociali, superando
così definitivamente l’approccio positivista. Per Weber, in
particolare, il metodo delle scienze sociali si deve basare sul
“VERSTEHEN”, cioè sulla comprensione razionale dell’agire
individuale, orientato dal significato che gli viene attribuito dagli
attori sociali. Il sociologo così dovrà comprendere l’individuo che
agisce, spiegando razionalmente perché l’individuo ha agito in un

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

certo modo. Weber inoltre riconoscendo i limiti della conoscenza,


afferma che poiché la realtà non è conoscibile oggettivamente il
sociologo si deve “accontentare” di modelli della realtà che vengono
definiti tipi ideali. Questi modelli non corrispondono esattamente
alla realtà ma ne costituiscono una semplificazione come ad esempio
un modellino di un treno. (Questa è la risposta alla questione
metodologica).
ALCUNE TENDENZE PIU’ RECENTI:
 Linguistic Turn-> Discorso -> Costruzione sociale della realtà.
La lingua sa raccontare il mondo, più parole sappiamo più vedremo il mondo chiaro.

 Le sociologie interpretative:

- INTERAZIONISMO SIMBOLICO (negoziazione del senso) “Blumer” ci dice che il

significato delle cose che ci stanno a torno è contrastato con gli altri, cioè è perché

stiamo insieme a gli altri che capiamo le cose che ci stanno a torno. Interazionismo

simbolico significa che io vedo qualcosa e gli altri mi aiutano a capire il significato,

cioè mi guardo attorno e cerco di capire come comportarmi. Quindi noi diamo senso

alle cose interagendo con gli altri.

- APPROCCIO DRAMMATURGICO (situazioni e maschere) “Goffman” ci dice che

ciascuno di noi indossa delle maschere rispetto alla situazione che abbiamo davanti.

- ETNOMETODOLOGIA (metodi per comprendere la realtà: “indicalità” -> (contesto)->

“riflessività” (l’osservato e l’osservatore). L’etnometodologia porta all’estreme

conseguenze del modello interpretativo. Etno significa gruppo di appartenenza,

metodologia invece significa metodi da usare a chi appartiene a dei gruppi per

comprendere la realtà.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

- ANALISI DELLA CONSERVAZIONE, formata da Sacks. Questa analisi ci spiega che

attraverso le parole delle persone noi capiamo cosa stia succedendo.

Un ulteriore tentativo, derivato dagli studi sul linguaggio, di fare degli studi

socioculturali una scienza, lo troviamo nello STRUTTURALISMO (Levi Strauss). Negli

anni 70 l’idea di essere dominati da strutture non va più bene e quindi si fa avanti il

POST-STRUTTURALISMO che cerca di demolire il pensiero precedente. Un'altra

novità di quegli anni è anche il REALISMO, cioè i meccanismi nascosti. I realisti sono

coloro che hanno rinunciato a qualcosa e ragionano con i piedi per terra, appunto

sono più realistici. Negli ultimi anni una serie di scienziati hanno provato a costruire

un dialogo tra esponenti di teorie diverse, quindi abbiamo il Neo funzionalismo, lo

strutturalismo genetico, la teoria della strutturazione.

CAPITOLO: 2
I PERCORSIDELLA RICERCA SOCIALE:
Il primo modo si basa su due grandi categorie di ricerca:
- La ricerca descrittiva;
- La ricerca esplicativa;
La differenza tra la ricerca descrittiva e la ricerca esplicativa sta nella
domanda conoscitiva al quale devo rispondere. Nella ricerca descrittiva la
domanda sarà: come si presenta un certo fenomeno? Invece nella ricerca
esplicativa la domanda sarà: perché un fenomeno si presenta in un certo
modo?
Quindi nel caso della ricerca descrittiva, ci serviranno delle fotografie del
fenomeno, faremo dei confronti ecc; Nel caso della ricerca esplicativa

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

invece dovremo individuare le cause che hanno prodotto il fenomeno


osservato, capire come tali cause si combinano assieme, capire quali sono
quelle più importanti e viceversa ecc, avrò bisogno di costruire delle
ipotesi e a volte avrò bisogno di far riferimento alle teorie.
Il secondo modo si basa su altri due tipi di ricerca:
- La ricerca esplorativa;
- La ricerca confermativa;
Le differenze tra queste due ricerche sono dovute allo “stile” del
ricercatore. Nella ricerca esplorativa, il ricercatore affronta il percorso di
ricerca appunto come un esploratore che cerca di conoscere una realtà
ignota. La ricerca sarà tipicamente QUALITATIVA. Nella ricerca
confermativa invece, il ricercatore parte da un quadro ben delineato di
ipotesi e il suo compito è quello di trovare le “prove”, cioè i dati empirici
che confermano tale quadro, la ricerca sarà tipicamente QUANTITATIVA.
Il metodo della ricerca sociale è costituita da 5 fasi:
D=disegno della ricerca; C=costruzione della ricerca; F=organizzazione dei
dati; A=analisi dei dati; E=esposizione dei risultati. (guardare disegno a
pag.36). Questo percorso non è sempre lineare è possibile molte volte
che per vari motivi il ricercatore ritoni nei suoi passi, questo ritornare sui
suoi passi implica una perdita di tempo e di denaro prezioso, ciò va
assolutamente evitato ad esempio, disegnando correttamente fin
dall’inizio la ricerca.
Il disegno della ricerca:
Una ricerca sociale può nascere per diversi motivi o problemi:
- Un problema esiste in ambito teorico;
- Una indicazione proveniente da un “committente”, cioè da colui che
ordina la ricerca, e in genere paga per fare la ricerca;
- Una ricerca può scaturire da una motivazione interna al ricercatore;

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Una volta che la ricerca sociale è nata il primo passo è fare una
ricognizione bibliografica sull’argomento prescelto. Per fare questo
esistono le biblioteche, le riviste scientifiche, le risorse su internet ecc,
quando tutto ciò non è possibile perché ad esempio non esistono libri di
quell’argomento allora possiamo ricorrere alla raccolta di testimonianze
da parte di persone coinvolte o vicine al fenomeno che intendo studiare.
Il secondo passo consiste nello scegliere il tipo di ricerca, successivamente
abbiamo la chiarificazione dei concetti e delle eventuali ipotesi. A questo
punto si dovranno scegliere le nostre unità di analisi, cioè tipi di oggetti
concreti sul quale io farò la ricerca e possono essere persone, famiglie,
gruppi, nazioni, eventi ecc; Delle unità di analisi dovremmo scegliere
alcune proprietà, cioè le caratteristiche che ci interessano di più e sul
quale noi indagheremo. In fine dovremmo scegliere su quante unità di
analisi esattamente effettueremo la nostra indagine, in base alla nostra
scelta avremo:
- Un censimento, cioè quando considero tutta la popolazione di
riferimento.
- Un campione, quando seleziono una parte della popolazione.
- Un’analisi comparativa, cioè quando scelgo un piccolo numero di analisi.
- Lo studio di un caso, cioè quando considero solo una unità di analisi.
La costruzione della base empirica:
La fase di costruzione della base empirica costituisce il momento più
delicato di una ricerca. A questo livello, infatti vengono operate delle
scelte cruciali, che avranno delle ricadute anche su tutte le fasi successive.
Per questo motivo questa fase si può considerare il cuore della
Metodologia Della Ricerca Sociale. La fase di costruzione della base
empirica si articola in 5 sotto fasi:
1. Il passaggio dai concetti alle variabili (la cosiddetta operativizzazione dei
concetti);
2. La scelta della tecnica di rilevazione (il questionario, l’intervista, ecc);

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

3. La costruzione dello strumento concreto di rilevazione;


4. La sua validazione tramite un pre- test;
5. La rilevazione dei dati vera e propria.
Il processo di operativizzazione:
Il processo di operativizzazione dei concetti riguarda soltanto lo stile di

ricerca quantitativo. Operativizzare un concetto significa trasformarlo in

modo tale da poterlo misurare. Questo processo avviene attraverso delle

fasi:

1. Scegliere il concetto concreto da Operativizzare, cioè identificare il

concetto che m’interessa;

2. Costruzione della “definizione operativa”, che stabilisce le regole per la

traduzione del concetto. Cioè costruire uno schema che lo scompone

nelle sue proprietà concettuali e lo traduce nei suoi indicatori empirici. Ad

esempio, devo capire a partire da quali elementi empirici posso misurare

il mio concetto di qualità della vita, potrei scegliere il reddito

(indicatore1), la buona salute (indicatore 2) ecc; vanno cercati tutti quegli

indicatori che sommati l’uno all’altro riescono a coprire tutto il significato

del concetto, questo processo è la MASSIMIZZAZZIONE del rapporto di

indicazione.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

3. Cercare le modalità concrete attraverso le quali gli indicatori verranno

rilevati. Ad esempio, il reddito potrei rilevarlo facendo scegliere

un’intervista fra tre modalità: “altro”, “medio”, “basso” ecc. A volte è più

conveniente chiedere ad una persona in quale dei diversi casi sarebbe

d’accordo a interrompere una gravidanza anziché chiedergli se è

favorevole o meno all’aborto. Questo passaggio prende il nome di:

classificazione, ordinamento, conteggio o misurazione. Classificare

significa trovare un posto ad un certo numero di oggetti, che

corrispondono a una stessa classificazione. Una corretta classificazione

dovrebbe soddisfare tre requisiti:

- ESAUSTIVITA’: questo requisito richiede che tutti gli oggetti da classificare

possano trovare posto nelle categorie previste dalla classificazione.

- ESCLUSIVITA’: questo requisito impone che un oggetto deve avere

solamente un posto nella classificazione.

- UNICITA’ DEL FUNDAMENTUM DIVISIONIS: questo requisito richiede che

le categorie derivino da un unico criterio, principio o idea che lo distingue.

L’ordinamento invece, prevede di sistemare gli oggetti rispetto ad un

unico criterio gerarchico, ad una scala. Cioè significa mettere degli oggetti

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

al primo posto, al secondo ecc, i posti non sono tutti uguali, alcuni stanno

più in alto altri più in basso.

Il conteggio infine, esprime in termini numerici una quantità reale.

La misurazione è un conteggio più sofisticato. In quanto è il risultato

dell’applicazione di una precisa unità di misura: il metro, il litro, il watt

ecc.

È importante l’operativizzazione perché al fine di tutto, verranno fuori le

variabili. Una variabile è una proprietà che è stata sottoposta a un

operativizzazione, cioè è una proprietà operativizzata. Le variabili si

distinguono proprio in base al tipo di operativizzazione della quale

derivano: avremo una variabile nominale alla fine di una classificazione;

una variabile ordinale alla fine di un ordinamento e in fine avremo una

variabile cardinale alla fine di un conteggio o di una misurazione.

Le famiglie di tecniche di rilevazione:

Le tecniche di rilevazione, cioè le tecniche che servono a raccogliere i dati

empirici, nella ricerca sociale, sono numerose. Le tecniche di rilevazione si

possono dividere in:

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

- Tecniche basate sulla lettura di dati;

- Tecniche basate sull’osservazione;

- Tecniche basate sul domandare.

Per essere più precisi le tecniche di rilevazione dei dati possono essere

raggruppati nelle seguenti famiglie:

- La raccolta di fonti secondarie di tipo statistico;

- La raccolta di fonti secondarie di tipo testuale;

- L’esperimento;

- L’osservazione;

- Le interviste;

- Il questionario;

- La simulazione al computer.

In base all’obbiettivo conoscitivo che il ricercatore si è posto sarà più utile

e adeguata una tecnica di rilevazione piuttosto che un’altra. L’intrusività è

il livello di disturbo delle tecniche di rilevazione nel processo di

rilevazione, invece si parla di non- intrusività quando manca la

consapevolezza da parte dell’indagato di essere tale. L’intrusività è

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

importante perché una persona che sa di essere studiata o osservata

cambierà modo di comportarsi e questo va evitato per non raccogliere

dati poco obiettivi. Le tecniche intrusive e quelle non- intrusive

presentano sia aspetti positivi che aspetti negativi.

L’organizzazione dei dati:

Il framing, cioè l’organizzazione dei dati vuol dire preparare o trasformare

i dati empirici raccolti, in modo tale che possano dare delle risposte alle

domande conoscitive del ricercatore. L’organizzazione dei dati cambia a

seconda che si sia scelto di raccogliere dati qualitativi (trascrizioni

d’interviste, fotografie ecc), o quantitativi (come ad esempio, le risposte a

un questionario). Nel caso di dati qualitativi, il tipo di organizzazione

prevalentemente è la post-codifica del materiale raccolto. Essa consiste

nell’isolare frammenti di materiale empirico, attribuendogli un’etichetta

di riconoscimento. La post- codifica, tuttavia, costringe il ricercatore o i

codificatori ad un lungo e faticoso lavoro che non sempre produce gli

effetti sperati o non in tempi ragionevoli. Inoltre, questa soluzione può

produrre delle categorizzazioni instabili, ecco perché molte volte nella

ricerca qualitativa non si prendono in considerazione molte unità

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

d’analisi. Oggi la situazione sta cambiando grazie alla diffusione dei

CAQDAS (computer assisted qualitative data analysis software), dei

programmi per computer che consentono di governare enormi quantità

di dati e assistono il ricercatore nel codificare e recuperare il materiale

raccolto.

Nel caso dei dati quantitativi, il framing è la così detta MATRICE CASI PER

VARIABILI. Si tratta di una griglia, organizzata in righe e colonne, in cui le

prime rappresentano i casi, invece le seconde le variabili. La matrice casi

per variabili (C*V) è uno strumento potentissimo, che consente di

utilizzare tutte le tecniche di analisi statistica più importanti.

L’analisi dei dati:

La fase dell’analisi dei dati è il momento in cui dobbiamo trovare nei dati

le risposte alle nostre domande conoscitive. A seconda del tipo di dati

raccolti, avremo diverse tecniche di analisi. L’analisi dei dati può essere

effettuata rispetto a quattro oggetti principali: i casi, le variabili, le

relazioni e le parole. Per ognuno di essi esistono tecniche di analisi

adeguate.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

L’esposizione dei risultati:

L’esposizione dei risultati è il momento finale della ricerca, in cui si

comunicano i risultati a colleghi, committenti, ecc. E’ il momento in cui si

scrive il così detto report di ricerca , cioè un libro, una relazione o una tesi

che contengono sia i risultati conseguiti, sia una spiegazione delle scelte

metodologiche più importanti. Un report di ricerca deve contenere sei

parti:

1. Un’introduzione (o abstract) che illustri in modo sintetico la struttura del

report stesso, gli obiettivi della ricerca e le principali conclusioni.

2. Lo stato dell’arte, cioè una sintesi della letteratura scientifica esistente sul

fenomeno che è stato studiato.

3. La presentazione dei risultati, contenenti le indispensabili prove

empiriche che richiede ogni ricerca scientifica, in forma di tabella o grafici.

4. I commenti e le conclusioni, che spiega la rilevanza interna (cioè relativa

alla specifica ricerca) e\o esterna (cioè relativa ad una conoscenza più

generale del mondo sociale) della ricerca.

5. Una nota metodologica, contenente la spiegazione di tutte le scelte

tecniche compiute dal ricercatore nello svolgimento della ricerca.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

6. I riferimenti bibliografici, contenenti sia riferimenti a libri e riviste

“tradizionali”, sia a risorse online.

La ricerca scientifica è come un processo circolare, per alcuni elicoidale.

Essa produce dei fedback che accendono nuove domande, possono

suggerire nuove ricerche. I risultati che comunica lo scienziato devono

essere scientificamente validi e ottenuti attraverso procedure eticamente

corrette. Esistono delle leggi che pongono dei limiti alla ricerca e tutelano

la privacy dei soggetti studiati.

Validità, attendibilità, triangolazione: la buona ricerca sociale:

Fare scienza significa: produrre affermazioni sul mondo, produrre

relazioni, giustificarli su base empirica, produrre un sapere controllabile,

cioè pubblico e riproducibile. La ricerca scientifica si deve chiedere se le

conclusioni a cui è giunta siano applicabili a tutti i casi o solo a quelli

studiati e quanto esse risultano stabili nel tempo o possano essere

replicate da altri ricercatori. Questi controlli vengono fatti ricorrendo a

criteri di validità e attendibilità. La validità è un giudizio che riguarda il

grado di corrispondenza semantica fra le risultanze empiriche della

ricerca e il mondo reale. In sostanza un dato o uno strumento sono validi

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

se il dato corrisponde alla realtà alla quale si riferisce, e lo strumento

misura effettivamente ciò che intende misurare. Si distingue una validità

interna che riguarda la pertinenza delle spiegazioni date alla situazione

oggetto di studio, e una validità esterna invece che riguarda la

generalizzabilità delle spiegazioni date ad altre situazioni analoghe. Ma

esistono molte altre forme di validità.

L’attendibilità invece ha a che fare con la coerenza dei dati raccolti (Ad

esempio, otterremo una seconda volta la stessa risposta dalla stessa

persona a cui abbiamo fatto la stessa domanda?).

La precisione (Ad esempio, quanto ci possiamo fidare delle risposte che le

persone danno alle domande che abbiamo formulato in un certo modo?).

La replicabilità (Ad esempio, se un altro sociologo volesse ripetere la mia

ricerca, otterrebbe risultati uguali o comunque simili?).

Molti autori che si riconoscono nella prospettiva qualitativa affermano

che non dovrebbero esserci criteri di validità e attendibilità nella ricerca

sociale. Nell’approccio qualitativo più recentemente si sono cercate delle

vie alternative al problema della validità e dell’affidabilità.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

La triangolazione consiste nella proposta di studiare uno stesso oggetto

attraverso prospettive teoriche, metodi, ricercatori e dati diversi con lo

scopo di ottenere una convergenza di massima dei risultati ottenuti e di

rendere meno opaca possibile la complessa realtà dei fatti sociali. Harvey

e MacDonald individuarono 3 tipi di triangolazione: un ricercatore che usa

due o più tecniche di ricerca; due o più ricercatori che usano la stessa

tecnica di ricerca; due o più ricercatori che usano due o più tecniche. La

realtà dunque sarebbe esterna e conoscibile obbiettivamente, si tratta di

trovare il mix di prospettive, dati e strumenti migliori per descriverla.

CAPITOLO: 3

Il campionamento:

Il campionamento consiste nella selezione di un certo numero di unità

d’analisi (persone, famiglie, imprese ecc.), che vengono denominate casi,

da una popolazione di riferimento. I vantaggi del campionamento sono:

possibilità di effettuare ricerche su grandi popolazioni, costi più bassi,

economia di tempo, una migliore organizzazione del lavoro dei

ricercatori. Uno svantaggio del campionamento è L’ERRORE. L’errore di

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

campionamento misura la distanza dal modello della realtà, in termini

matematici è: Y =Y^ ∓ E

= alla stima campionaria; più o meno


Y= il dato reale è uguale; Y^

E=all’errore;

Ci sono due tipi di campionamento:

1. I campioni probabilistici: un campione si dice probabilistico

quando tutte le unità della popolazione hanno la stessa

probabilità di essere astratte. Uno dei vantaggi di questi campioni

è la rappresentatività della realtà, cioè che quello che possiamo

dire del campione può essere esteso all’intera popolazione di

riferimento, attraverso l’inferenza statistica, cosicché alla fine i

risultati della ricerca dovrebbero risultare generalizzabili, un altro

vantaggio è che l’errore di campionamento è calcolabile. Ci sono

tanti tipi di campioni probabilistici, quelli più conosciuti sono: il

campione casuale semplice, il campione sistematico, il campione

stratificato, il campione a stadi, a grappoli, multifase e spaziale.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Nella maggior parte dei casi, la dimensione di un campione

probabilistico (n) è determinata dalla

seguente formula: n=

z=livello di fiducia delle nostre stime; pq=varianza; N=dimensione

della popolazione; E=errore di campionamento;

 Il campionamento stratificato consiste nel suddividere n in

proporzione ad alcune variabili note (il genere, l’età ecc).

 Nel campionamento sistematico, le persone vengono selezionate

a caso, una ogni k unità (k è il cosiddetto intervallo di

campionamento). Si comincia estraendo casualmente un

individuo dalla lista di popolazione, e poi si selezionano gli altri

uno ogni k persone. Questa procedura viene usata, ad esempio,

nell’exit poll elettorali.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

2. I campioni non probabilistici vengono costruiti seguendo un

criterio che il ricercatore ritiene soddisfacente al fine d’ottenere

una RAPPRESENTATIVITA’ TIPOLOGICA, quest’ultima viene

raggiunta quando si ha un numero sufficiente di “esemplari” delle

varie unità d’analisi, che rappresentano vari tipi ideali di oggetti o

persone. Un esempio che può servire a far comprendere la

differenza tra rappresentatività tipologica e rappresentatività

statistica è questo: Supponiamo di dover campionare i pesci di un

laghetto, popolato da esemplari rossi, blu e bianchi. Se mi

interessa la rappresentatività tipologica, mi basterà prendere un

certo numero di pesci rossi, di pesci blu e di pesci bianchi. Se

invece vado alla ricerca della rappresentatività statistica, dovrò

prendere i tre tipi di pesci in proporzione alla loro reale

distribuzione nel laghetto. I campioni più comunemente usati

sono: il campione per quote (stabilisce la grandezza del

campione, ma non adotta il criterio della pari possibilità di scelta

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

dell’unità), il campione a valanga (si basa sull’idea del

passaparola, partendo da un’intervista a casi interessanti, si

chiede ai soggetti se possano portare altri soggetti utili alla

ricerca), il campione a scelta ragionata (scelgo una logica di

campionamento “variabili coinvolte nel fenomeno e quantità

delle loro modalità”), il campionamento teorico e il

campionamento di convenienza. Il problema più grosso dei

campioni non-probabilistici è che il ricercatore può affidarsi solo a

criteri molto vaghi per stabilirne la validità: l’errore di

campionamento non può essere conosciuto, non possiamo se

questi campioni siano o non siano rappresentativi e il rischio di

errori non campionari è enorme. Esistono 4 tipi di errori non

campionari:

3. Errori di selezione: ad esempio quando la lista della popolazione è

incompleta.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

4. Errori di misurazione: dovuti ad esempio a questioni fatte male,

cioè uso di strumenti fatti male come ad esempio il questionario.

5. Le non risposte: ad esempio, rifiuti, persone in contattabili ecc.

6. Gli errori di procedura: ad esempio gli errori di codifica o di

inserimento dei dati.

I campioni probabilistici sembra che non possano garantire la

rappresentatività statistica per almeno 4 ragioni:

1) Paradosso del campionamento: non possiamo mai sapere se un

campione è rappresentativo o meno, perché è appunto

attraverso il campionamento che scopriamo qualcosa su una

realtà che non conosciamo.

2) Campioni e censimenti: per provare la rappresentatività di un

campione, le stime sono spesso confrontate con i dati dei

censimenti; in questo caso potrebbero nascere due ulteriori

problemi: il primo problema è che i dati del censimento

potrebbero essere ormai troppo vecchi, il secondo problema è

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

che si possono tenere in considerazioni solo alcune variabili, cioè

quelle che i dati censuari hanno in comune con la nostra ricerca,

queste variabili sono solitamente di natura socio-anagrafica.

3) Drop out: determina la selezione di unità d’analisi con

caratteristiche distorte che sovrastino certi profili e ne

sottostimano altri.

4) Procedure di ponderazione: il ricercatore cerca di minimizzare gli

errori non campionari attraverso questa procedura. Questi errori

però sono molto difficili da scoprire e controllare.

La differenza tra i campioni probabilistici e i campioni non

probabilistici è che i campioni probabilistici fanno ricorso alla

teoria matematica delle probabilità invece i campioni non

probabilistici non ne fanno ricorso.

CAPITOLO:4
L’intervista:

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

L’intervista è una conversazione provocata da un intervistatore, rivolta a

un numero consistente di soggetti scelti, avente finalità di tipo

conoscitivo, e guidata sulla base di uno schema flessibile, non

standardizzato.

Ci sono diversi tipi d’intervista: 3 criteri di classificazione:

1. Criterio: In base all’organizzazione della domanda:

- Strutturata (o standardizzata), cioè che presenta domande

standardizzate, cioè da porre nello stesso ordine a tutti, e risposte aperte

nelle quali l’intervistato può esprimersi liberamente;

- Semi-strutturata (con traccia o topic guide), qui l’intervistatore dispone di

una sorte di scaletta di temi da trattare, che può cambiare da intervista a

intervista;

- Non strutturata (o libera o in profondità), cioè che parte da un tema da

trattare in profondità. In questo caso non esistono domande predefinite o

schemi da seguire.

2. Criterio: In base al ruolo dell’intervistatore:

- Direttiva (o guidata), qui l’intervistatore segue la struttura prevista dalle

domande, ignorando le reazioni di chi risponde a queste domande;

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

- Non direttiva (o libera), qui chi formula le domande tende a seguire

l’intervistato nei suoi ragionamenti, reagendo agli stimoli nuovi che di

volta in volta emergono dal colloquio

- Semi- direttiva, in cui è presente una parte che va somministrata allo

stesso modo a tutti i soggetti del campione, e una parte in cui invece si

assecondano le esigenze dell’intervistato, lasciandolo libero di seguire un

proprio filo logico.

3. Criterio: In base al tipo di risposte e di domande:

4. In base all’approfondimento (storie di vita o interviste biografiche),

queste interviste in alcuni casi riguardano la ricostruzione completa delle

biografie degli individui, in altri casi riguarda il racconto di storie, episodi

ecc. Normalmente l’obbiettivo è quello di collegare un testo (la storia) ad

un contesto (la società). Spesso i destinatari di questo tipo di intervista

sono persone famose, divi dello spettacolo ecc; oppure sono al contrario:

immigrati, prostitute ecc

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

5. In base al numero di intervistati:

- Interviste individuali;

- Interviste di gruppo. Le interviste di gruppo a sua volta si suddividono in:

 Interviste a gruppi naturali, queste interviste esistono indipendentemente

dalla volontà del ricercatore. Si tratta di famiglie, gruppi di colleghi, classi

scolastiche ecc,

 Interviste a gruppi artificiali, questi invece vengono costruiti a posta dal

ricercatore per l’intervista e si esauriscono alla fine della stessa intervista.

Il rapporto tra l’intervistato e l’intervistatore:

La gestione del rapporto tra intervistato e intervistatore rappresenta il

momento più difficile di tutta l’intervista, perché l’intervistatore e

l’intervistato sono del tutto estranei. La prima cosa da considerare sono le

caratteristiche di sfondo di intervistato e intervistatore, in termini di età,

cultura ecc. Queste caratteristiche di sfondo influenzano i fattori

psicologici dei due soggetti in interazione. Il modo in cui è fatto

l’intervistatore ad esempio influenzerà le percezioni dell’intervistato, cioè

come quest’ultimo classificherebbe l’intervistatore. L’intervistato penserà

o di fronte a me una persona di cui mi posso fidare o no? Da qui deriverà

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

un atteggiamento nei confronti dell’intervistatore, che talvolta risulta

fatale per la stessa possibilità di svolgimento del colloquio. In fine il

rapporto tra intervistatore e intervistato è una sorte di gioco di maschere

sociali.

L’intervistato:

Per evitare che il rapporto tra intervistatore e intervistato si guasti, può

essere utile:

- che l’intervistatore si presenti prima dell’intervista, questo può essere

fatto attraverso una lettera, un fax o una telefonata in modo tale da

prendere un appuntamento.

- È importante che l’intervistatore studi bene lo strumento che dovrà

somministrare.

- È importante un abbigliamento adeguato.

- L’intervistatore deve ottenere il consenso. Alcune strategie per ottenerlo:

 Assicurare la brevità dell’intervista

 Citare il committente

 Comunicare il tema dell’intervista

 Perché lui/lei?

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

 Garantire l’anonimato.

A questo punto l’intervista può iniziare, ma si deve comunque stare

attenti, l’intervistatore deve:

- Creare una situazione di normale conversazione, mai di giudizio;

- Chiedere di avviare il registratore solo una volta avviata l’intervista;

- Rispettare le sequenze delle domande;

- Nessun coinvolgimento emotivo;

- Superare i pregiudizi;

- Essere simpatici, positivi e attenti (ascoltatori attivi);

- Non imporre mai una risposta in caso di rifiuto;

- Porre attenzione nel probing (il probing è quando l’intervistatore deve ri

fare o spiegare meglio la domanda perché l’intervistato non l’ha capita,

questo è un segnale che c’è qualcosa che non va nella comunicazione tra

l’intervistato e l’intervistatore);

- Completare l’intervista e finirla in tempi sostenibili.

Struttura della domanda:

Le domande possono essere strutturate in due modi:

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

1. Topic Guide (la scaletta): guida delle domande. Questa si adopera nelle

interviste semi- strutturate, ed è sostanzialmente uno schema generale,

con una lista di temi da trattare.

2. Questioning route (il percorso strutturato): tipo un questionario però con

tutte le risposte aperte.

Le interviste possono essere trascritte fedelmente ex-post, se sono state

registrare; annotate in tempo reale, nel corso della conversazione;

possono essere prodotte direttamente dallo stesso intervistato.

In tutti e tre i casi sia il lessico che la sintassi utilizzata saranno diversi

perché la lingua parlata è diversa della lingua scritta; il discorso fatta da

una persona quando si andrà a scrivere sarà ridotto quindi riassunto.

L’analisi dei dati:

Per l’analisi delle interviste esistono due approcci:

1. L’approccio quantitativo: questo approccio prevede innanzitutto

una post- codifica delle trascrizioni in concetti, successivamente i

codici vengono conteggiati e presentati in grafici e tabelle che ne

riportano le percentuali. Il conteggio ha lo scopo di descrivere i

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

testi esaminati, ordinandoli in base ai temi e ai problemi trattati

nelle interviste.

2. L’approccio etnografico o narrativo: questo approccio ricorre alla

tecnica dello scissor and sort (taglia e riordina). L’idea è quella di

sottolineare e ricopiare a parte i passaggi più rilevanti di ogni

trascrizione, riguardanti le varie categorie di contenuto

individuate dal ricercatore, codificarli e riordinarli.

Per fare tutto ciò si possono usare sofisticati programmi per computer di

codifica e recupero i cosiddetti CAQDAS (computer assisted qualitative

data analisys software). In questo modo si possono facilmente ritrovare i

passaggi collegati con un certo codice. Negli ultimi anni questi software

hanno reso disponibili numerosi strumenti:

- Code and Retrieve

- Conte Analysis

- Analisi logica

- Reti semantiche: collega i contenuti emersi dalle interviste dandogli

un “senso” complessivo.

Capitolo: 6

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Etnografia e osservazione
L’osservazione è la tecnica più antica che esista, questa tecnica inizia con
il positivismo. Esistono diversi tipi di fare osservazione:

- Osservazione partecipata o non partecipata, a seconda se il


ricercatore si mischi oppure no tra le persone e nelle situazioni da
studiare. L’osservazione partecipata può essere scoperta o
nascosta, a seconda che il ricercatore dichiari o meno la sua
identità;
- Osservazione d’intrusività alta o bassa, a seconda che gli
strumenti d’osservazione siano scoperti o nascosti;
- Osservazione strutturata o non strutturata, a seconda che il
ricercatore si attenga a uno schema prestabilito oppure si lasci
guidare da persone e circostanze che di volta in volta si
presentino alla sua attenzione;
- Osservazione di prospettiva del marziano o del convertito, a
seconda che il ricercatore cerchi di guardare i suoi oggetti di
studio col distacco che a punto avrebbe un ipotetico marziano.
L’osservazione si basa su questi ambiti:
 Studi antropologici
 Studi di comunità e di piccoli contesti sociali o subculturali
 Studi organizzativi
 Studi di realtà clandestina e occulte
 Ricerche esplorative in genere
Da questi ambiti si osservano:
 Il contesto fisico
 Il contesto sociale e storico
 Le interazioni formali
 Le interazioni informali
 Le produzioni materiali e simboliche
Lo strumento fondamentale di cui si avvale l’osservatore per la sua
attività di ricerca è il diario, che può essere cartaceo o digitale. Qui
vengono riportati alcuni elementi essenziali:
- Descrizione di ciò che il ricercatore ha visto e sentito;

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

- Note sulla relazione osservativa, cioè sul modo in cui il rapporto


con la popolazione studiata si è svolto;
- Le interpretazioni del ricercatore, che possono essere o emotive
o teoriche. Le interpretazioni emotive riguardano il modo in cui il
ricercatore ha elaborato le sue impressioni, reazioni ed
esperienze attraverso le sue emozioni, invece le interpretazioni
teoriche vanno a definire l’impianto teorico della ricerca.
- Le verbalizzazioni dei nativi e i documenti rilevanti.
Gli appunti dovrebbero ispirarsi ad almeno 3 principi generali: la
distinzione tra i vari elementi che compongono il diario, la concretezza e
la ridondanza, per aumentare al massimo il livello di dettaglio dei
resoconti, non dando nulla per scontato.
Al fine di rendere il più possibile controllabile il processo di ricerca
bisogna cercare di essere onesti. L’analisi del materiale etnografico viene
spesso condotta con l’aiuto dei CAQDAS. Un altro strumento per la
ricerca etnografica è il backtalk, con questo strumento il ricercatore
ritorna insieme ai soggetti studiati sulle conclusioni del suo lavoro,
ricomponendo i vari frammenti di materiale raccolto.
I problemi dell’osservazione scoperta sono:
- Il problema dell’accesso alla realtà da studiare: in questo caso i
nativi oppongono delle resistenze alla presenza di un intruso che li
vuole studiare, questo problema si risolve con l’aiuto di mediatori
culturali o informatori. Il mediatore culturale è una persona che ha
solidi legami sia con la cultura del ricercatore e sia con la cultura
delle persone da studiare e inoltre il mediatore gode della fiducia
della popolazione in studio. L’informatore invece è una sorte di
testimone privilegiato. Egli può essere ISTITUZIONALE cioè
incaricato dal gruppo o dalla cultura osservata, oppure NON
ISTITUZIONALE, cioè è una persona che si offre spontaneamente di
collaborare con il ricercatore. Il rischio dell’informatore istituzionale
è che filtri solo le informazioni che il gruppo o che la cultura
osservata vogliono far passare. Il rischio dell’informatore non-
istituzionale è che non sia una persona adatta.
I problemi dell’osservazione nascosta sono:

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

- Problemi di natura etica


- Problema del coinvolgimento emotivo
- Il problema delle tecniche osservative.

Vantaggi dell’osservazione scoperta:


- Maggiori possibilità di movimento
- Possibilità di usare anche altre tecniche
- Alternanza di studio e lavoro sul campo
- Maggiore distacco e obiettività

Svantaggi dell’osservazione scoperta:


- Accesso difficile
- Percezione distorta dell’osservatore
- Effetto Hawthorne
- Probabilità di doversi schierare
Vantaggi dell’osservazione nascosta:
- Maggiore facilità di accesso
- Riduzione dell’effetto Hawthorne
- Migliore competenza del ruolo
Svantaggi dell’osservazione nascosta:
- Minore possibilità di movimento
- Coinvolgimento
- Commiato difficile
- Pubblicazione percepita come tradimento

CAPITOLO: 5
Il focus group:

Il focus group è una tecnica di rilevazione per la ricerca sociale,


basata sulla discussione tra un piccolo gruppo di persone, alla
presenza di uno o più moderatori, focalizzata su un argomento che
si vuole indagare in profondità.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

I principali ambiti di applicazione del focus group sono:


 Ricerche di mercato
 Ricerche politiche ed elettorali
 Valutazione di enti, servizi, politiche, progetti
 Esplorazione di un fenomeno
I vantaggi del focus group sono:
- Economicità: il focus group costa di meno.
- Rapidità: si possono intervistare tanti soggetti in poco tempo.
- Flessibilità: si possono cambiare e aggiustare le cose anche in
seguito.
- Alta densità d’informazione: vengono prese in considerazione
oltre le verbalizzazioni dei partecipanti, anche le dinamiche di
gruppo e la comunicazione non verbale.
- Gradimento delle persone coinvolte: gratificazione dei
partecipanti.

I compiti del moderatore sono:


- Agevola il warm-up: questa è la fase di riscaldamento prima della
discussione, cioè stanno prendendo confidenza;
- Precisa il tema della discussione
- Usa un linguaggio comprensibile a tutti
- Parla a tutto il gruppo
- Fa parlare una persona alla volta
- Non ruba la parola
- Cerca di far parlare tutti ma evita il “giro”
- Fa una sintesi della discussione ogni tanto
- Può essere più o meno direttivo
- Può rompere l’ufficialità con delle provocazioni

L’osservatore invece deve stare attento ai contenuti e a come essi


emergono nel corso della discussione, il ruolo dell’osservatore è anche
quello di risolvere i piccoli problemi tecnici che si possono verificare
durante lo svolgimento del focus group.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

I tipi di partecipanti ideali sono:


 Il leader, che può essere strumentale o espressivo. Il leader
strumentale fa uso della propria conoscenza e competenza, invece il
leader espressivo fa uso della forza.
 Il timido: colui che non partecipa alla discussione per paura o
disagio.
 L’apatico: è colui che è caratterizzato da atteggiamenti
d’indifferenza, insensibilità.
 Il negativo: colui che esprime sempre dissenso a prescindere.
 Il polemico/il critico: colui che esprime il proprio dissenso
motivandolo costruttivamente.
 L’entusiasta.
 Il joker: il buffone.
Gli strumenti utilizzati sono:
- Topic guide
- Questioning route
- Con o senza stimoli (immagini, filmati, stimoli sonori, ecc.)
Tipi di domande:
- Domande d’aperture: che permettono la creazione del gruppo.
- Domande d’introduzione: che permettono i partecipanti a riflettere
sull’oggetto della discussione.
- Domande di trascrizione: che servono a passare da un tema all’altro.
- Domande chiave: che si riferiscono ai temi centrali del focus group.
- Domande finali: che portano alla chiusura della discussione e
permettono ai partecipanti di riflettere su ciò che è stato detto.
Le fasi della discussione sono:
 Forming: cioè la formazione del gruppo.
 Storming: la rottura dell’equilibrio iniziale.
 Norming: l’emergenza di regole di conversazione.
 Performing: la definizione dei ruoli, è a punto in questa fase che
emergono dei tipi ideali di partecipante.
 Mourning: il commiato finale.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Pianificare un focus group significa scegliere il numero e la composizione


dei gruppi, il luogo dello svolgimento del focus e reclutare i partecipanti.
Un focus group solitamente è composto da 8 persone (minimo 4 e
massimo 12); il numero di focus group da effettuare è variabile, ma in
genere maggiore o uguale a 3; quando si contattano le persone, si
accenna solo vagamente al tema del FG; solitamente nel gruppo non ci
devono essere persone che si conoscono; le persone si scelgono sulla
base delle esigenze di ricerca, seguendo criteri di omogeneità e infine
bisogna scegliere dei posti neutrali per la effettuazione dei focus group.
L’analisi dei dati:
Esistono due momenti diversi in cui l’analisi dei dati può essere
effettuata:
1. Immediatamente dopo la conduzione del focus group: cioè si tratta
di sviluppare e integrare le note prese durante la discussione,
trascrivere la registrazione e leggere le trascrizioni.
2. Alla fine di tutte le rilevazioni: qui invece si ha l’analisi dei dati vera e
propria, che ha il compito di suggerire i risultati più rilevanti.
Le tecniche di analisi dei dati adeguate al focus group sono 4:
- L’analisi del contenuto
- L’analisi qualitativa computer assistita tramite CAQDAS
- L’analisi del discorso e della interazione faccia a faccia
- La social network analysis, che è fondamentale per studiare le
dinamiche di gruppo del FG, ricostruendone le trame interattive e i
tipi ideali di partecipanti.
I dati di focus group sono dati di gruppo, essi riflettono i concetti collettivi
emersi, negoziati e condivisi nel corso del dibattito.
CAPITOLO: 7
L’inchiesta campionaria:
L’inchiesta campionaria chiamata anche survey è una tecnica di
rilevazione basata sul questionario, che fa ricorso a grandi campioni
di tipo probabilistico e cerca di spiegare fenomeni e problemi sociali
estesi e generali. Molte volte si confonde l’inchiesta con il sondaggio

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

ma in realtà sono abbastanza differenti, ad esempio le analisi


effettuate dopo la rilevazione sono molto più sofisticate di quelle del
sondaggio, poi la survey si basa su un questionario che contiene
molte domande, invece il sondaggio può anche basarsi soltanto su
una domanda. L’intera filosofia dell’inchiesta campionaria origina da
un assunto di base, quello per cui solo se uno stimolo è lo stesso per
tutti gli intervistati diventa possibile, almeno teoricamente, ottenere
da parte degli individui coinvolti le stesse reazioni simboliche,
cognitive, psicologiche e sociali. Le risposte ottenute dovrebbero
risultare comparabili. Questo assunto tuttavia dovrebbe essere
preso con cautela, perché le persone sottoposte a un questionario
interpretano in vario modo le domande che gli vengono poste,
dando luogo a numerose forme di distorsione della relazione tra
intervistatore e intervistato. Le più importanti sono:
- la desiderabilità sociale: cioè un fenomeno per cui la persona
intervistata finisce col dare all’intervistatore delle risposte che
appaiono socialmente accettabili, ma alle quali non crede
veramente. Ciò può avvenire o perché magari l’intervistato
non si fida dell’intervistatore o perché il setting dell’intervista
non agevola una conversazione serena, ovviamente la
desiderabilità sociale va prevenuta per evitare d’incorrere a
dati falsati, per questo motivo sono state elaborate delle scale
di desiderabilità sociale che permettono di capire se nel corso
del colloquio, una persona ha indossato una maschera sociale.
- l’acquiescenza: è la tendenza di certi individui a dichiararsi
d’accordo con le affermazioni contenute nelle domande, o a
rispondere sempre affermativamente ad esse,
indipendentemente dal loro contenuto. Un tipo di
acquiescenza è il Response set, che consiste nel dare sempre
la stessa risposta in una batteria di domande. Per far si che
l’acquiescenza ottenga risposte affidabili esistono delle scale
bilanciate.
- le pseudo opinioni: sono il risultato della mancanza di
opinioni dell’intervistato, il quale pur di non mostrare la sua
“ignoranza” su un certo argomento, s’inventa una risposta sul

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

momento. Una pseudo opinione può anche essere


un’opinione la cui intensità è molto debole.
Tali distorsioni sono determinate da 4 fonti: il contenuto più o meno
comprensibile o sensibile delle domande, la struttura più o meno logica e
ordinata del questionario, il contesto più o meno consono in cui si svolge
il colloquio (setting) e il comportamento più o meno corretto da parte
dell’intervistatore e le sue caratteristiche di sfondo.
Per spiegare il meccanismo di risposta ad una domanda sono stati
elaborati quattro modelli di spiegazione, tre di matrice cognitivista ed uno
di matrice linguistica:
1. Il modello di Tourangeau e Rasinski: questo modello sostiene che
nel rispondere l’intervistato osserva una sequenza fissa di passaggi
che prevedono la comprensione della domanda, cioè il recupero
dell’informazione utile a fornire una risposta; poi il ricorso a
informazioni e giudizi circa l’adeguatezza delle varie risposte e infine
l’impiego d’informazioni e giudizi per selezionare la modalità di
risposta più adatta. Questa strategia viene definita ottimizzante.
2. Il modello di Krosnick e Alwin: questo modello sostiene che accanto
alla strategia ottimizzante descritta in precedenza, l’intervistato può
anche adottare una strategia satisficing, che tende ad accontentare
le presunte pretese dell’intervistatore.
3. Modello del campionamento delle credenze: qui gli intervistati, per
effetto dei loro limiti cognitivi, rispondono in base alle prime
considerazioni che gli vengono in mente.
4. Il modello che riprende la logica conversazionale di Grice: questo
modello sostiene che se vengono violate le quattro massime della
quantità, della qualità, della relazione e della modalità, il contesto
dell’intervista prende il sopravvento sulla sincerità delle risposte.
Il questionario:
Il questionario è lo strumento principale di raccolta dei dati nell’inchiesta
campionaria. Esso è costituito da un insieme di domande standardizzate,
che seguono uno schema fisso, allo scopo di raccogliere dati individuali su
uno o più argomenti di studio. Esso viene somministrato allo stesso modo

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

per tutti i rispondenti. Per poter costruire un questionario è necessario


tenere conto di almeno 4 requisiti:
1. Bisogna conoscere il fenomeno oggetto di studio.
2. È necessario Operativizzare in modo valido e affidabile i concetti e le
ipotesi di ricerca.
3. È necessaria una pregressa esperienza nella costruzione di
questionari.
4. Occorre conoscere bene la popolazione di riferimento dell’indagine.
Il questionario deve avere una struttura logica e coerente e le domande
devono essere adeguatamente organizzate e collegate assieme, deve
avere una lunghezza ragionevole.
I questionari di solito sono composti da 3 parti principali:
1. La pagina di presentazione o anche chiamata cover letter presenta
la ricerca e cerca di motivare gli intervistati a cooperare con
l’intervistatore. Essa spiega quali sono gli obiettivi dell’indagine, dà
informazioni sui committenti o gli sponsor e soprattutto garantisce
l’anonimato dei rispondenti. È un elemento chiave per diminuire i
tassi di non risposta.
2. Le istruzioni per la compilazione sono particolarmente importanti
nel caso in cui il questionario sia auto-somministrato. Esse
contengono tutte le regole che gli intervistati devono seguire per
rispondere alle varie domande. Tali regole devono essere il più
semplice possibile.
3. Il corpo principale del questionario comprende le domande vere e
proprie. Ci sono molti tipi di domande: domande su ciò che le
persone sono, fanno, pensano, o ricordano.
La struttura del questionario:
il questionario deve avere una struttura logica e coerente, le domande
devono essere adeguatamente organizzate e collegate assieme. Per il
layout del questionario si possono seguire alcune regole di base: ogni
questionario deve essere contrassegnato da un codice o da un numero
identificativo, ogni domanda deve essere numerata in modo progressivo,
gli spazi e lo stile grafico di domande e risposte devono essere ben distinti
e leggibili, nel caso delle domande chiuse vanno inseriti i codici che

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

corrispondono a ciascuna modalità di risposta. Solitamente lo schema del


questionario è che di solito si inizia con delle domande generiche e
neutrali, poi con delle domande che richiedono i maggiori sforzi di
concentrazione o di memoria, poi vengono formulate le domande
imbarazzanti o riguardanti temi sensibili, alla fine del questionario
vengono messe domande sociodemografiche, che riguardano il genere,
l’età, il titolo di studio ecc. Ci possono essere delle variazioni di schema
come: il formato a imbuto, cioè dal generale al particolare, il formato a
imbuto capovolto, cioè dal particolare al generale, il formato a diamante,
il formato a X.
Le domande nel questionario devono:
- Usare un vocabolario semplice
- La loro sitassi deve essere lineare
- Esse non devono mai contenere due domande in una, con il rischio
di confondere l’intervistato
- Non devono mai suggerire particolari risposte
- Tutte le alternative di risposta devono apparire accettabili.
Esistono due grandi tipi di domande: Aperte e Chiuse. Le domande aperte
sono utili quando il ricercatore pensa sia meglio lasciare gli intervistati
liberi di usare le proprie parole per esprimere un pensiero o un’opinione.
Le domande a risposta chiusa sono più frequenti, ne esistono diversi tipi:
scelta fra categoria semanticamente autonome, checklist, selezione tra
categorie ordinate, domande stile likert, l’ordinamento di preferenze
personali, i differenziali semantici e domande che implicano una
misurazione. Nel definire le risposte bisogna rispettare tre condizioni:
esaustività, mutua esclusività e unicità del fundamentum divisionis delle
categorie.
Prima di somministrare il questionario al campione prescelto è necessario
effettuare almeno un pre-test dello strumento per verificare che esso sia
compreso dagli intervistati. L’esito del pre-test può portare il ricercatore
a: rivedere l’ordine delle domande, cancellare le domande che risultano
troppo scontate, formulare o cancellare quelle domande che producono
troppi “non so”, integrare aspetti mancanti e verificare i tempi della
somministrazione. Il pre-test può essere condotto in diversi modi:

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

registrando le reazioni dei rispondenti durante l’intervista, intervistando o


facendo commentare il questionario ai rispondenti ex post, oppure
chiedendo il parere di una commissione di esperti.
I questionari finali si possono somministrare in diversi modi. Si possono
distinguere tra questionari auto-somministrati e questionari etero-
somministrati. I dati possono essere raccolti in diversi modi: face-to-face,
per telefono, via posta o attraverso il computer. Ogni modalità presenta
sia dei vantaggi che degli svantaggi, in termini di costi, rapidità, garanzie
di anonimato ecc. L’uso di internet nell’inchiesta campionaria presenta
almeno 4 vantaggi: la possibilità di raggiungere un’enorme quantità di
persone a costi bassi, la possibilità di minimizzare l’intrusività del
ricercatore e dei suoi strumenti, la possibilità di fare ricorso a stimoli
multimediali, l’immediato caricamento dei dati. I problemi invece sono: la
bassa qualità dei campioni, i contesti nelle quali si svolge l’intervista ecc.
I questionari possono essere somministrati in circostanze singole o più
volte nel tempo, nel primo caso avremo uno studio trasversale, invece nel
secondo caso avremo uno studio longitudinale. Gli studi longitudinali a
loro volta si dividono in due tipi: le inchieste trasversali replicate cioè
quando lo stesso questionario viene somministrato in più occasioni per
un certo periodo campioni diversi, e i panel cioè quando lo stesso
questionario viene somministrato allo stesso campione nel corso del
tempo. Una scala è un insieme coerente di item che servono a misurare
un concetto più generale o un atteggiamento non direttamente
osservabili. Il modo più semplice di costruire una scala è quello di
sommare i punteggi ottenuti da un individuo su ciascun item, queste scale
si dicono ADDITIVE. La scala additiva più famosa è quella di Likert, la
costruzione di questa scala si svolge in 4 fasi: la definizione degli item che
si pensano adatti a misurare il concetto, la somministrazione di tali item
attraverso il questionario, il concetto di coerenza interna della scala e il
controllo di validità e unidimensionalità. La fase cruciale per stabilire se
una scala “funziona” o meno è il calcolo dell’alpha di cronbach. Esso
misura la coerenza interna della scala e appartiene a un’ampia gamma di
misure di attendibilità. Le misure di attendibilità dicono al ricercatore se
un individuo otterrebbe il medesimo punteggio complessivo, nel caso in
cui la casa gli fosse somministrata nuovamente. Un altro approccio è

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

quello di misurare l’attendibilità in termini di coerenza interna. Con


questo termine alludiamo al fatto che si suppone che tutti gli item di una
scala varino nella stessa direzione. Il controllo di coerenza può essere
effettuato, ad esempio, impiegando la tecnica split-half, che consiste nel
dividere gli item della scala in due gruppi, per vedere se il punteggio del
primo gruppo è correlato al punteggio del secondo gruppo. L’approccio
più diffuso nel caso delle scale Likert, consiste nel misurare la coerenza
totale delle risposte ai vari item, al fine di scoprire gli item meno correlati
al punteggio complessivo. E’ quello che fa esattamente la correlazione
elemento-scala. Una misura più sofisticata, che eredità la stessa logica
della correlazione elemento- scala è l’alpha di Cronbach, che viene
calcolato attraverso la seguente formula:

in cui n è il numero degli item, ed r la loro correlazione media. L’alpha di


crobach varia tra 0 e 1. Più è grande alpha, più la scala è coerente e
quindi attendibile. Alpha sarà basso se la scala ha una struttura
multidimensionale e non unidimensionale. Se aplha è negativo vi è
qualche problema nell’orientamento di categorie di risposta di alcuni
item.
Capitolo:8
L’analisi dei dati:
Il compito principale dell’analisi dei dati è quello di trovare delle strutture
dotate di senso nel materiale raccolto. L’analisi dei dati può essere
effettuata rispetto a 4 oggetti principali:
1. I casi: le tecniche di analisi dei casi sono:
- Il case study: lo studio di un caso è l’esame “dettagliato” di un
oggetto o di un fenomeno, che viene considerato in qualche
modo esemplare. Questo esame dettagliato può avvenire sia
attraverso un approccio di tipo qualitativo (etnografie,
interviste, racconti, immagini ecc) sia attraverso un approccio
di tipo quantitativo (statistiche, indici, scale di valutazione ecc).
Lo scopo dell’indagine è quasi sempre di natura descrittiva.
- L’analisi comparativa: qui si mettono a confronto alcuni casi,
individuando delle caratteristiche comuni e verificando

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

somiglianze e differenze. Anche in questo caso si può


procedere sia con un approccio qualitativo, sia con un
approccio quantitativo.
- La cluster analysis o analisi dei gruppi: è una famiglia di
tecniche di analisi di tipo quantitativo. Al suo interno troviamo:
tecniche gerarchiche, tecniche delle partizioni ripetute,
tecniche basate sulla densità locale e le reti neutrali. Le analisi
di gruppo servono a classificare i casi della ricerca. Ad esempio
può servire a classificare l’audience di un programma
televisivo.
2. Le variabili: l’analisi delle variabili caratterizza la ricerca quantitativa
per autonomasia e implica l’uso della statistica. Si possono
distinguere 3 tipi di analisi delle variabili:
- Monovariata: questa analisi si occupa delle variabili prese ad una
ad una e ha scopi descrittivi (es. come si presenta la realtà?). Con
questo tipo di analisi si intende conoscere la distribuzione di certi
variabili fra i casi studiati. La forma più semplice di analisi
monovariata è la rappresentazione tabellare di una distribuzione.
Per costruire una distribuzione tabellare il ricercatore individua le
varie modalità di risposte a una domanda. Per ciascuna, egli
conta le frequenze con le quali esse si presentano nella
distribuzione. In fine calcola le percentuali semplici e le
percentuali cumulate, le percentali semplici si calcolano
dividendo le frequenze per il totale delle risposte e moltiplicando
tutto per cento, invece le percentuali cumulate sono date dalla
somma delle percentuali precedenti più quella di volta in volta
considerata. Nell’analisi monovariata vengono calcolate anche
misure di tendenza centrale e misure di variabilità, le prime
indicano qual è il centro della distribuzione, le seconde servono a
capire se rispetto a questo centro ci sono piccole o grandi
differenze nei dati raccolti. Sia le misure di tendenza centrale sia
le misure di variabilità cambiano a seconda del tipo di variabile:
nominale, ordinale o cardinale. La misura più nota di tendenza
centrale è la media, questa misura si può usare solo per le
variabili cardinali. Una misura invece che si può usare sempre è la
moda. La misura di tendenza centrale più usate è la deviazione

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

standard, essa può essere calcolata soltanto nel caso di variabili


cardinali, ed è una misura di quanto in media i valori della
distribuzione sono distanti dalla media. La misura che invece va
bene per tutti i tipi di variabile è l’indice di eterogeneità,
quest’indice si calcola togliendo a 1 la somma dei quadrati delle
proporzioni con le quali si presenta ciascuna categoria di risposta.
- bivariata: l’analisi bivariata si occupa delle variabili prese a due a
due e si possono controllare delle ipotesi. Uno strumento di base
per l’analisi bivariata è la tabella di contigenza, questa tabella si
adopera nel caso di variabili nominali ed ordinali. I dati di una
tabella di contigenza sono organizzati in righe e colonne. Ogni
riga corrisponde a una modalità della prima variabile, invece ogni
colonna rappresenta una modalità della seconda variabile.
L’incrocio di una riga e una colonna prende il nome di cella.
Solitamente queste tabelle contengono anche la somma dei
valori di ogni riga e di ogni colonna, queste somme vengono
denominati marginali. Se si sommano tutti i marginali di riga o di
colonna, si ottiene il numero totale dei casi studiati. In fine il
prodotto del numero di righe per il numero di colonne indica
l’ordine della tabella. La tabella di contigenza è il primo
strumento che il ricercatore consulta quando è interessato a
studiare la relazione tra due variabili. Per stabilire se le variabili
sono associate vanno considerate le percentuali. Si possono
calcolare tre tipi di percentuali: di riga, di colonna e totali.
- Multivariata: l’analisi multivariata considera più di due variabili
contemporaneamente e può avere scopi descrittivi, esplicativi,
esplorativi o conformativi.
Tutte e tre vengono effettuate nella maggior parte dei casi, al
computer tramite software quali SPSS, statistica o SAS.
3. Le relazioni: l’analisi delle relazioni è affidata alla network analysis o
analisi di rete. L’analisi di rete si basa sulla matrice di adiacenza.
Nella matrice i valori riportati all’interno di ogni cella rappresentano
il numero di volte in cui un caso o un attore hanno una qualche
relazione con un altro elemento della stessa. Tali valori possono
essere di natura cardinale o ordinale e possono riguardare

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

interazioni o relazioni di vario tipo: amicizia, comunicazione, lavoro


ecc. La presenza di due numeri nella tabella indica l’esistenza di
rapporti biunivoci, in cui si possono rintracciare iniziatore e
destinatario della relazione. Nelle analisi di rete si parla in questi
casi di sociomatrice orientata. A partire dalla sociomatrice si
possono effettuare diverse analisi: descrivere e rappresentare
graficamente le caratteristiche e la struttura della rete, rintracciarne
i sottogruppi, individuare le posizioni di centralità e leadership degli
attori, descrivere posizioni e ruoli sociali.
4. Le parole contenute nei testi: le parole veicolano significati anche
molto complessi, dipendono dai contesti in cui si trovano, possono
risultare ambigue ecc. Possiamo trovarle:
1) Nelle domande a risposta aperta: le parole e le frasi che troviamo
qui vengono solitamente sottoposte ad un post-codifica. Questo
avviene per almeno due motivi: per riassumere e chiarire il
significato delle risposte e per consentire un successivo
trattamento statistico. La post-codifica rappresenta alcuni
svantaggi: è costosa in termini di tempo e fatica, si perdono dati
interessanti, non garantisce una buona attendibilità. Negli ultimi
anni molti ricercatori si sono rivolti all’analisi delle
corrispondenze lessicali (ACL). L’idea principale di questo nuovo
approccio è che le parole, da sole, non hanno alcun senso. L’ACL
persegue due obiettivi: cercare delle regolarità nei dati e
individuare poche dimensioni di senso che possano spiegare
queste regolarità. Per raggiungere questi due obiettivi i dati
vengono prima di tutto organizzati in una matrice parole pre-
testi. Le parole contenute in tutte le risposte date a una certa
domanda vengono disposte sulle righe, mentre i testi sulle
colonne. Il numero contenuto in ogni cella indica quante volte
una certa parola è stata detta da un certo intervistato. Il risultato
alla fine è una sorte di codifica automatica delle risposte aperte.
L’output principale dell’ACL è uno spazio fattoriale che mostra
l’orientamento semantico delle parole su semiassi opposti:
sinistra/destra e alto/basso. Le parole sono considerate
significative se si trovano distanti dall’origine degli assi, cioè o
molto a sinistra o molto a destra o molto in alto o molto in basso.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

2) Nelle trascrizioni d’interviste e focus group: l’analisi delle parole


contenute in interviste e focus group può imboccare tre direzioni
principali:
- Quantitativa: qui si procede attraverso una post-codifica, ciò
consente al ricercatore di formulare le sue varie
interpretazioni. Questa strada però implica 3 problemi: la post-
codifica è onerosa, molti dati interessanti vengono persi e
infine è una procedura che può generare dati poco attendibili.
Il vantaggio è invece che alla fine del lavoro il ricercatore può
avvalersi di potenti strumenti statistici. Nel caso della strada
etnografica o narrativa invece il ricercatore prova innanzitutto
a identificare gli argomenti principali presenti nelle trascrizioni
d’interviste e focus group. Egli sceglie le citazioni e i brani che
ritiene più significativi, a questo punto può essere predisposta
una qualche forma di codifica o di ordinamento del materiale
selezionato, infine il ricercatore ha il compito d’interpretare i
risultati.
- Qualitativa: in questo caso si possono adottare diverse
pratiche (ad esempio: strutturate, soggettiviste e iterative),
paradigmi (costruttivismo, interpretativismo, Interazionismo
ecc) e discipline (antropologia, psicologia sociale, sociologia
ecc). Tra le tecniche principali d’analisi vanno individuate
l’analisi del discorso e l’analisi della conversazione. Queste due
tecniche si concentrano sullo studio delle strutture e dei
processi discorsivi.
- Computer assistita: questa strada consiste nell’analisi delle
trascrizioni attraverso i CAQDAS, cioè computer assisted
qualityative data analysis software. Questi programmi
consentono di triangolare approcci qualitativi e approcci
quantitativi supportando il ricercatore nei vari passaggi
dell’analisi e offrendogli numerosi strumenti per costruire
teorie. Questo programma presenta il vantaggio di garantire
l’ispezionabilità e pubblicità dei ragionamenti formulati dal
ricercatore.
3) In testi e documenti di varia natura: l’analisi delle parole nei
documenti viene effettuata attraverso l’analisi del contenuto. Si

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

tratta di una tecnica d’analisi basata su procedure impersonali di


scomposizione dei testi in elementi più semplici, allo scopo di
classificarli in categorie di senso, di calcolarne la presenza, la
frequenza o la co-occorenza. L’analisi del contenuto è un insieme
di tecniche diverse tra loro ed è adoperata per analizzare tutti i
tipi di materiale scritto, fra cui anche le domande aperte, le
interviste e i focus group; Questa tecnica fu introdotta da Harold
Laswell e Berelson negli anni 50. La domanda principale a cui
cerca di rispondere la content analysis è “chi dice cosa, a chi e
con quale effetto?” L’analisi quantitativa del contenuto può
raccogliere i dati in due modi:
 tramite una scheda di codifica: un questionario che si
somministra ai testi da studiare;
 tramite la trascrizione di testi interi.
Le tecniche di analisi del contenuto sono 3:
- L’analisi delle frequenze: si effettua contando le presenze nei testi
studiati di parole, categorie o temi d’interesse. I suoi scopi sono:
una rapida esplorazione del corpus testuale; la misurazione
dell’attenzione prestata da una certa fonte nei confronti di un
oggetto del discorso.
- L’analisi delle co-occorenze: serve a capire se due parole vengono
regolarmente associati all’interno dei testi esaminati, uno degli
indici più diffusi di associazione è il coefficiente del coseno, che si
calcola con la seguente formula:

Il coefficiente del coseno varia tra 0 e 1, se è 0 significa che i due


elementi non sono mai associati; se è 1 al contrario significa che si
trova sempre insieme.
- L’analisi degli asserti valutativi: è basata sull’analisi delle frasi
contenute nei testi. Serve a capire come vengono valutati
determinati oggetti del discorso dagli autori dei testi studiati. Le
valutazioni possono essere: negative o positive, forti o deboli. Ogni
frase viene scrutinata ad esempio attribuendogli un punteggio che

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

va da -3 a 3, vengono poi calcolate le medie di tutti i giudizi e alla


fine viene disegnato un grafico.
L’analisi del contenuto qualitativa infine è identica a quello che
abbiamo chiamato approccio etnografico o narrativo.
Capitolo:9
Gli sviluppi e le sfide più recenti:
La più importante tendenza della metodologia contemporanea è quella
che cerca di superare le grandi dicotomie che caratterizzano la
sociologia da sempre. Tra queste dicotomie, quella che riguarda più
direttamente il terreno metodologico è la frattura tra qualità e
quantità. La strada che ha favorito il dialogo fra approcci qualitativi e
approcci quantitativi è stata aperta dalla riflessione di alcuni esponenti
della ricerca qualitativa sulle nozioni di validità e attendibilità. Il più
importante approccio sociologico collegato a questo programma di
ricerca è quello della sociologia analitica dei meccanismi sociali, questo
è un approccio che cerca di spiegare una relazione diretta macro-
macro sulla base dell’azione di processi casuali di tipo macro-micro-
macro. Questa scuola sociologica trae origine dai lavori di Merton,
Elester, Boudon e Coleman. Coleman ha contribuito a tracciare per la
sociologia analitica, un perimetro “delimitato dal primato analitico del
sistema sociale, dalla rilevanza teorica dell’azione razionale, dalla
struttura sociale formata da attori collettivi e dal rapporto equilibrato
tra plausibilità e utilità di una spiegazione”. L’idea di connessione
allude anche alle nuove possibilità di dialogo con altre discipline come:
antropologia, psicologia, economia ecc. Questi altri saperi offrono
metafore, concetti, tecniche e strumenti molto potenti per l’analisi
della società.
La necessità d’incorporare il tempo nella ricerca sociale affonda le
proprie radici nella sociologia classica, solo recentemente però si sono
cominciati ad accumulare dati longitudinali di entità, estensione e
sistematicità sufficienti per uno studio diacronico della società e ciò
soprattutto per merito della mutata sensibilità di enti istituzionali e di
ricerca. Un contributo importante in questa direzione è venuto dal
movimento degli indicatori, questo movimento è nato intorno agli anni

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

60 negli USA, con l’obbiettivo di promuovere la definizione e l’impiego


di misure coerenti, condivise e affidabili riguardanti gli effetti sociali
dello sviluppo economico, con finalità sia conoscitive sia d’intervento
sulle politiche pubbliche. L’analisi diacronica rimane allo stesso tempo
un lusso e un rompicapo. Un lusso perché la ricerca longitudinale è
molto costosa, invece è un rompicapo perché queste indagini sono un
moltiplicare d’informazioni, significati e problemi difficili da gestire tutti
insieme. I dati diacronici possono essere: oggettivi, soggettivi o
artificiali; I primi vengono ottenuti consultando fonti secondarie, i
secondi possono essere raccolti attraverso studi trasversali ripetuti
effettuati su campioni diversi, studi longitudinali prospettici effettuati
sugli stessi soggetti nel tempo e in fine attraverso studi longitudinali
retrospettivi nei quali viene chiesto ai soggetti di ricordare eventi
passati o ricostruire il proprio percorso di vita. I dati artificiali invece
sono quelli prodotti attraverso la simulazione al computer, in molti casi
vengono utilizzati dati misti che combinano soprattutto dati oggettivi e
dati soggettivi. Un grande impiego degli strumenti del tempo nella
sociologia mainstream, non tenendo in considerazione la qualità
piuttosto che la quantità è necessaria. Affrontare il problema del
tempo significa poter comprare ricerche svolte in momenti diversi,
consentendo una più raffinata conoscenza dei processi sociali.
Il computer costituisce ormai uno strumento indispensabile nella
ricerca sociale. Esso è onnipresente nella fase di analisi dei dati e
inoltre è alla base di innovative tecniche di indagine quali: social
network analysis e la simulazione di agenti. Il ruolo del computer nella
ricerca sociale però è cambiato radicalmente soprattutto con l’avvento
d’Internet. Molte volte si fa ricorso a internet senza sfruttare
pienamente le potenzialità e le specificità del mezzo. Una delle più
recenti applicazioni del computer alla ricerca sociale è il GIS. Un GIS è
un sistema informativo che consente di immagazzinare e gestire in
modo efficiente qualsiasi fenomeno della realtà che ci circonda.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


METODOLOGIA

1. Paradigma: Un paradigma è una prospettiva teorica, condivisa da una comunità di


scienziati, che definisce la rilevanza dei fatti sociali, fornisce ipotesi interpretative e orienta
le tecniche della ricerca empirica.
2. Paradigmi di ricerca: I paradigmi della ricerca sociale nascono dall’esigenza di rispondere a
tre questioni fondamentali: la questione ontologica (la realtà esiste?), la questione
epistemologica (se la realtà esiste, è possibile conoscerla?) e la questione metodologica (se
la realtà esiste ed è possibile conoscerla, come farlo?). Da queste tre domande nascono tre
paradigmi: il positivismo, il neo e post positivismo e il costruttivismo o interpretativismo.
3. Teoria e ipotesi: La teoria è un insieme di frasi che ci dicono qualcosa sul mondo che ci
circonda. Queste frasi devono essere collegate in maniera organica e si pongono ad un
elevato livello di astrazione e generalizzazione rispetto alla realtà empirica. Dalla teoria
possono essere derivate delle previsioni per ciò che riguarda i fenomeno futuri. L’ipotesi è
una proposizione che implica una relazione tra due o più concetti, si colloca ad un livello di
astrazione e generalizzabilità inferiore rispetto alla teoria. Un ipotesi ha carattere,
generalmente, provvisorio e non conduce necessariamente ad una teoria.
4. Tipi di ricerca: La ricerca può essere: descrittiva/esplicativa; esplorativa/confermativa (o
anche qualitativa/quantitativa). La differenza tra ricerca descrittiva e ricerca esplorativa sta
nella domanda conoscitiva alla quale si risponde. La ricerca descrittiva risponde al come si
presenta un fenomeno mentre la ricerca esplicativa al perché un fenomeno si presenta in
un determinato modo. La differenza che vi è tra ricerca esplorativa e ricerca confermativa
è da attribuire allo stile del ricercatore. Nel primo caso egli affronta la ricerca proprio come
un esploratore che cerca di conoscere una realtà ignota. Il ricercatore in questo caso si
affiderà ad un paradigma costruttivista. Nel secondo caso il ricercatore parte da un ipotesi
e cerca di trovare delle prove che confermino la sua ipotesi. La ricerca in questo caso sarà
quantitativa.
5. Fasi della ricerca: Le fasi della ricerca sociale sono: disegno della ricerca, che è il momento
della progettazione dell’indagine; la costruzione della base empirica; l’organizzazione dei
dati (framing); l’analisi dei dati e l’esposizione dei risultati.
6. Rapporto di generalizzazione universo/campione: Un campione è un modello della realtà e
non la realtà. Bisogna, cioè, considerare un “male necessario” del campionamento: l’errore
di campionamento. Un campione assomiglia alla realtà ma non è la realtà. L’errore di
campionamento è proprio la distanza tra il modello e la realtà.
7. Criteri per costruire una classificazione: Classificare vuol dire trovare un posto ad un certo
numero di oggetti, che si fanno corrispondere alle categorie di uno schema. Una corretta
classificazione deve soddisfare tre requisiti: quello di esaustività, il quale richiede che tutti
gli oggetti da classificare possano trovare posto nelle categorie previste dalla
classificazione, quello di esclusività, il quale impone che un oggetto debba avere uno ed un
solo posto nella classifica e quello di unicità del fundamentum divisionis, il quale prevede
che le categorie derivino da un unico criterio che le distingue.
8. Tipi di variabile: Le variabili si distinguono in base al tipo di operativizzazione dalla quale
derivano in: variabile nominale o categoriale alla fine di una classificazione; variabile
ordinale, alla fine di un ordinamento e variabile cardinale alla fine di un conteggio o di una
misurazione.
9. Errori non-campionari: Esistono quattro tipi di errore non campionario: gli errori di
selezione (ad esempio, quando la lista della popolazione è incompleta), gli errori di
misurazione (dovuti, ad esempio, a questionari fatti male), le non-risposte (rifiuti, persone
incontattabili, persone non-intervistabili), gli errori di procedura (errori di codifica o
s’inserimento dei dati).
10. Intervista (definizione): Con il termine intervista s’intendono parecchi modi di raccogliere
dati, ci si riferisce cioè a una serie di tecniche che si basano sul chiedere a un certo numero
di soggetti le informazioni di cui il ricercatore ha bisogno. L’intervista è una forma di
conversazione nella quale due persone s’impegnano in un’interazione verbale e non
verbale nell’intento di raggiungere una meta precedentemente definita.
11. Focus group (definizione): Il focus group è una tecnica di rilevazione per la ricerca sociale,
basata sulla discussione tra un piccolo gruppo di persone, alla presenza di uno o più
moderatori, focalizzata su un argomento che si vuole indagare in profondità.
12. Fasi di un focus group: Le fasi del focus group sono: la formazione del gruppo (forming); la
rottura dell’equilibrio iniziale (storming); l’emergenza di reole di conversazione (norming);
la definizione dei ruoli (performing); il congedo finale (mourning).
13. Tipi ideali di partecipanti: I tipi ideali di partecipanti sono: il leader, il negativo (colui che
esprime sempre dissenso, a prescindere); il joker o buffone; l’entusiasta; l’apatico
(caratterizzato da atteggiamenti di indifferenza); il polemico e il timido.
14. Backtalk: Il backtalk è uno strumento della ricerca etnografica attraverso il quale il
ricercatore ritorna insieme ai soggetti studiati sulle conclusioni del suo lavoro,
ricomponendo i vari frammenti del materiale raccolto. In questo modo, il ricercatore non
solo cerca di dar senso a ciò che ha visto e sentito ma cerca conferme o smentite riguardo
la plausibilità dei suoi resoconti.
15. Inchiesta campionaria (definizione): L’inchiesta campionaria è una tecnica di rivelazione
basata sul questionario, che fa ricorso a grandi campioni di tipo probabilistico, e si propone
di spiegare fenomeni e problemi sociali estesi e generali.
16. Scala (definizione): La scale è un insieme di item che servono a misurare un concetto più
generale o un atteggiamento non direttamente osservabile. Nel caso in cui volessimo
misurare il razzismo, ad esempio, dovremmo ricorrere ad una scala (in questo caso
particolare si parla di scala d’atteggiamento).
17. Probing: Il proibing è un segnale che c’è qualcosa che non ha funzionao nella
comunicazione tra intervistatore ed intervistato, e va gestito con cautela.

Domande approfondite
1. Positivismo: Un esempio di quadro “positivista” è La Ville d’Avray. Guardando il quadro,
nessuno avrebbe dubbi circa il fatto che in esso i vedano degli alberi, delle case ecc. Il
punto di vista dei positivisti è proprio questo: la realtà esiste, ed è conoscibile
oggettivamente (realismo ingenuo). Questa è dunque la risposta che viene data alla
questione ontologica ed epistemologica. Tuttavia, si deve fare una precisazione, come si
supera il problema che nelle scienze sociali soggetto conoscente e oggetto conosciuto
siano della stessa natura? Dobbiamo ad Emilè Durkein la risposta a questo fondamentale
problema; per il sociologo francese, infatti, i fatti sociali devono essere considerati come
cose, come oggetti. Dunque, separando la natura di soggetto conoscente e oggetto
conosciuto è possibile conoscere oggettivamente. Per quanto riguarda la questione
metodologica, i positivisti sostengono che la sociologia deve utilizzare il metodo delle
scienze esatte, un metodo basato sulla misurazione dei dati, la formulazione di leggi e
l’osservazione dei dati empirici. Secondo i positivisti, la sociologia può dirsi scienza proprio
perché utilizza lo stesso metodo delle scienze esatte.
2. Neo-post-positivismo: Un quadro che descrive il punto di vista dei neo e post positivisti è
La Notte Stellata di Vincent Van Gogh. In generale nessuno avrebbe problemi a riconoscere
un villaggio, una chiesa, gli astri del cielo ecc. Ciò che però ci fa riflettere è il modo in cui
essi ci vengono mostrati (realismo critico). Le risposte che vengono date alla questione
ontologica e a quella epistemologica è che la realtà esiste, ma che si deve scorgere, non
posso conoscerla oggettivamente a causa dei limiti dei miei sensi. I nostri occhi sono
abituati a vedere in un certo modo perché sono socializzati. L’ epistemologia non afferma
un netto dualismo tra soggetto conoscente e oggetto conosciuto, questi possono
interagire provocando dei guasti rispetto alla possibilità di conoscere in modo oggettivo il
mondo fisico e sociale. Si ricorsi che siamo nel periodo in cui Heisemberg ed Einstein
bissarono il muro delle conoscenze scientifiche assolute per aprire la strada al
probabilismo. A livello metodologico, si afferma che la conoscenza sociale si può avere
affidandosi al linguaggio delle variabili. La realtà non può essere conosciuta direttamente,
è come se si dovessero mettere insieme dei pezzi di conoscenza per comporre un mosaico
più complesso.
3. Costruttivismo: Un quadro che descrive il punto di vista costruttivista è il Suprematismo di
Kazimir. Ognuno di noi può vedere una cosa diversa in questo quadro. In sostanza i
costruttivisti sostengono che la realtà non esiste in maniera oggettiva ma è una
costruzione sociale (relativismo culturale). Sul piano epistemologico avviene il definitivo
abbraccio tra soggetto conoscente ed oggetto conosciuto. Il ricercatore deve cercare di
perseguire l’avalutatività, è necessario che egli si spogli del proprio etnocentrismo, che
potrebbe influenzare l’interpretazione della realtà. A livello metodologico si rende
necessario individuare un nuovo metodo, superando definitivamente l’approccio
positivista. Per Weber, in particolare, il sociologo dovrà comprendere l’individuo che
agisce, non nel senso di empatizzare con lui, ma arrivando a capire e spiegare
razionalmente perché l’individuo abbia agito in quel modo. Egli afferma che, poiché la
realtà non è conoscibile oggettivamente, il sociologo si deve accontentare dei modelli della
realtà, che vengono definiti ideal-tipi, che tuttavia conducono verso importanti luoghi della
conoscenza.
4. Postmodernità e ricerca sociale: Per quanto riguarda le tendenze postmoderne vi è un
significativo rifiuto delle teorie generali, il rifiuto della razionalità e della linearità,
l’esaltazione delle differenze. Si possono, innanzitutto, citare gli approcci del linguistic turn
(la svolta del linguaggio), tali approcci hanno rivolto una grande importanza al linguaggio e
al discorso, considerandoli come il veicolo di senso dell’ambito della vita sociale. Queste
influenze, in sociologia, prendono il nome di sociologie interpretative. Fanno parte delle
sociologie interpretative: interazionismo simbolico, l’approccio drammaturgico,
l’etnometodologia e le tecniche di analisi della conversazione. Lo strutturalismo, invece,
ricerca le forme invariabili delle relazioni sociali a prescindere dalle manifestazioni
concrete. L’eredità del positivismo è stata raccolta in parte dal realismo, che ribadisce
l’identità di metodo tra le scienze sociali e le scienze naturali, ma la ricerca sociologica è
concepita come diretta a cercare quel come dei fenomeni che non è immediatamente
visibile. Una terza via, che cerca di saldare insieme realismo e strutturalismo, è
rappresentata dal neofunzionalismo.
5. Disegno della ricerca: Una ricerca sociale può nascere per diversi motivi. Una volta iniziata
la ricerca, il primo passo da fare è quello di effettuare una ricognizione bibliografica, ove
ciò non fosse possibile si può fare ricorso a testimonianze di persone coinvolte o vicine al
fenomeno che intendo indagare. Il passo successivo è quello di scegliere in base al mio
obiettivo il tipo di ricerca (descrittiva/esplicativa o esplorativa/ confermativa). A questo
punto dovrò chiarire i concetti che utilizzerò e le eventuali ipotesi cui faccio riferimento.
Per esempio facendo ricorso a vocabolari della lingua, dizionari enciclopedici e costruendo
ipotesi in modo dettagliato e non ambiguo. Ogni ricerca va condotta su precise unità di
analisi: persone, famiglie, eventi, aziende. Una volta individuate le varie unità d’analisi
dovrò scegliere alcune proprietà sulle quali indagherò.
6. Operativizzazione di un concetto: Riguarda soltanto lo stile di ricerca quantitativo, poiché è
diretto all’espressione del linguaggio delle variabili. Operativizzare un concetto vuol dire
trasformarlo in modo da poterlo rilevare e/o misurare. Per far ciò devo individuare un
concetto, per esempio “la qualità della vita”. Poi costruire uno schema che lo scompone
nelle sue proprietà concettuali e lo traduce nei suoi indicatori empirici. Ad esempio, devo
capire a partire da quali elementi posso rilevare e misurare il mio concetto di qualità della
vita, potrei per esempio scegliere indicatori come il reddito, la buona salute etc. La scelta
degli indicatori deve avvenire in maniera tale da coprire tutto il significato del concetto. Il
passo successivo è quello di trovare le modalità concrete attraverso le quali rilevare gli
indicatori, per esempio individuando delle fasce di reddito che gli intervistati dovranno
segnare. A questo punto dovremmo classificare o ordinare o misurare o conteggiare i casi.
7. Framing (organizzazione dei dati): L’organizzazione dei dati consiste nel preparare o
trasformare i dati empirici raccolti, in modo da dare delle risposte al ricercatore.
L’organizzazione dei dati cambia a seconda che si sia scelto di raccogliere dati qualitativi o
quantitativi. Nel caso di dati qualitativi il tipo di organizzazione prevalente è la post-
codifica del materiale raccolto. Essa consiste nell’isolare frammenti di materiale empirico
attribuendogli un’etichetta di riconoscimento. Il lavoro del ricercatore in questo caso è
lungo e le categorie che si creano poco robuste, tuttavia negli ultimi anni sono nati dei
programmi di computer che assistono il ricercatore nella post-codifica. Nel caso dei dati
quantitativi, il framing (incorniciamento) è la cosiddetta matrice casi per variabili. Si tratta
di una griglia, organizzata in righe e colonne, in cui le prime rappresentano i casi e le
seconde le variabili. I dati raccolti vengono inseriti nelle celle che risultano dall’incrocio riga
per colonna.
8. Esposizione dei risultati: L’esposizione dei risultati è il momento finale della ricerca. In
questa fase si scrive il cosiddetto report di ricerca, ossia un libro, una relazione, una tesi
che contengono sia i risultati ottenuti, sia una scelta delle scelte metodologiche adottate.
Un report dovrebbe contenere: introduzione (illustra in modo sintetico la struttura del
report stesso, gli obiettivi della ricerca sociale e le principali conclusioni cui si è giunti), lo
stato dell’arte (una sintesi della letteratura scientifica esistente fino a quel momento
rispetto a quel fenomeno), la presentazione dei risultati, i commenti, le conclusioni della
ricerca sociale, una nota metodologica (che spieghi le scelte adottate), i riferimenti
bibliografici.
9. Campione probabilistico: Il campionamento probabilistico, deve rispettare il criterio che
tutte le unità della popolazione abbiano la stessa probabilità di essere incluse nel
campione. I campioni probabilistici sono ritenuti essere rappresentativi della realtà, ciò
vuol dire che i risultati ottenuti su quel particolare campione possono essere generalizzati
per tutta la popolazione dalla quale il campione proviene. Un ulteriore vantaggio del
campionamento probabilistico è che l’errore di campionamento può essere misurato. Vi
sono diversi tipi di campioni probabilistici: il campione causale semplice, il campione
sistematico e il campione stratificato.
10. Campione non probabilistico: I campioni non probabilistici sono in genere fatti ad hoc o
sono suggeriti dalla teoria. Ciò vuol dire che sono costruiti al fine di ottenere una
rappresentatività tipologica. Questa viene raggiunta quando si ha un numero sufficiente di
esemplari delle varie unità d’analisi. La rappresentatività tipologica genera risultati
trasferibili ma non generalizzabili. I campioni non probabilistici sono di diverso tipo:
campioni per quote, a valanga, a scelta ragionata, teorico e di convenienza. Il problema più
grosso dei campioni non probabilistici è che l’errore di campionamento non è
quantificabile.
11. Tipi di intervista: Un primo criterio di classificazione delle interviste può essere il modo in
cui sono organizzate le domande. In questo modo avremo: l’intervista strutturata (o
standardizzata) che presenta domande standardizzate, cioè da porre nello stesso ordine e
nella stessa formula a tutti gli intervistati; l’intervista semi-strutturata, in cui non esiste
uno schema fisso di domande. L’intervistatore piuttosto dispone di una sorta di scaletta di
temi da trattare nelle domande, che potranno variare da intervista ad intervista;
l’intervista non-strutturata (o libera), che parte da un tema da trattare ma non esistono
domande prestabilite, ogni intervista fa storia da sè. Un secondo criterio di classificazione
riguarda il ruolo o lo stile dell’intervistatore. Avremo così: l’intervista direttiva (o guidata),
in cui l’intervistatore segue scrupolosamente la struttura prevista delle domande;
l’intervista non-direttiva (o libera), in cui chi pone le domande tende a seguire
l’intervistato nei suoi ragionamenti, reagendo agli stimoli nuovi che di volta in volta
emergono; l’intervista semi-direttiva, in cui è presente una parte che va somministrata allo
stesso modo a tutti i soggetti, e una parte in cui si assecondano le esigenze
dell’intervistato. Un terzo criterio di classificazione riguarda il tipo di domande e di
risposte: standardizzate o non-standardizzate. Infine possiamo distinguere le interviste in
base al numero degli intervistati, avremo perciò interviste individuali e di gruppo
(suddivise a sua volta in interviste di gruppo naturali e artificiali, a seconda che i gruppi
esistano indipendentemente dalla volontà del ricercatore). Vi sono, inoltre, interviste
biografiche o storie di vita.
12. Rapporto intervistatore-intervistato: La prima cosa da considerare sono le caratteristiche
di sfondo di intervistato e intervistatore, in termini di età, cultura, condizioni
socioeconomiche, ecc. Queste caratteristiche di sfondo influenzano i fattori psicologici dei
due soggetti in interazione. L’aspetto più importante, è legato alle motivazioni. Una cattiva
percezione dell’intervistatore, determina una bassa motivazione a collaborare con
l’intervistatore. Le condizioni di sfondo dell’intervistato possono demotivare
l’intervistatore fino a farlo desistere dall’intervista, o a condurla in modo forzato. Vanno
considerati i diversi fattori comportamentali che riguardano intervistatore e intervistato, e
hanno una diretta ricaduta metodologica.
13. Comportamento dell’intervistatore: Può essere utile che l’intervistatore si presenti prima
dell’intervista. In secondo luogo, bisogna che l’intervistatore studi bene lo strumento che
dovrà somministrare, per evitare di trovarsi in difficoltà di fronte a dubbi, esitazioni ecc. da
parte degli intervistati. Inoltre, sarà necessario trovare un abbigliamento adeguato, adatto
al tipo di persone da intervistare. A questo punto l’intervistatore, dovrà: - assicurare
l’intervistato circa la brevità del colloquio; – citare il committente della ricerca; –
specificare il tema dell’intervista, se una persona sa cosa vuole sapere esattamente
l’intervistatore, sarà più propensa a collaborare; – assicurare circa la scientificità della
ricerca, le persone sono molto disponibili a collaborare ad un lavoro che si presenta come
scientifico; – spiegare perché si è scelto d’intervistare proprio quella persona, sapere, che
si è stati estratti attraverso una procedura “impersonale” rassicura molto gli intervistati; –
infine, garantire l’anonimato dell’interista, a tutela della privacy di colui che è intervistato.
L’intervistatore deve cercare di creare una situazione di normale conversazione, mai di
giudizio. Lo sforzo deve riguardare anche la comunicazione non verbale. Se dovesse
interpretare la situazione in cui si trova come una specie d’esame, egli fornirà delle
risposte artefatte, distorte, e alla fine inutili per la ricerca. Se è previsto l’uso del
registratore, bisognerà chiedere di accenderlo solo dopo l’inizio dell’intervista. Se è
previsto uno strumento d’intervista strutturato, bisognerà rispettare la sequenza delle
domande. L’intervistatore non deve mai esprimere le proprie opinioni nel corso
dell’intervista. L’intervistatore deve evitare di far traspirare qualsiasi coinvolgimento
emotivo. Allo stesso modo, per via del fatto che l’intervistatore si fa inevitabilmente
un’idea del suo interlocutore, influenzata da certe caratteristiche di sfondo, deve imparare
a superare gli stereotipi e i pregiudizi che la percezione dell’altra persona ha attivato. Un
intervistatore, deve sapere ascoltare l’intervistato, piuttosto che rimanere aggrappato al
suo foglio di carta con lo schema delle domande. Infine, l’intervistatore non deve mai
imporre una risposta nel caso ottenga un rifiuto.
14. Analisi delle interviste: Per l’analisi delle interviste, esistono due approcci: quello
etnografico o narrativo, che consiste nel raccontare il materiale raccolto avvalendosi di
brani significativi estratti dalle trascrizioni; e quello quantitativo, che prevede una codifica
sistematica delle trascrizioni in categorie di temi e concetti, i quali andranno poi
conteggiati e riassunti in grafici e tabelle.
15. Tipi di osservazione: I diversi tipi di osservazione possono essere classificati facendo
riferimento a diverse dimensioni, quali: la partecipazione o meno del ricercatore,
l’intrusività degli strumenti di rivelazione, il grado di strutturazione e l prospettiva adottata
dal ricercatore. Si può parlare di: 1) osservazione partecipante o non partecipante, a
seconda che il ricercatore si mischi o meno tra le persone e nelle situazioni da studiare. L’
osservazione partecipante può essere scoperta o nascosta a seconda che il ricercatore
dichiari o meno la propria identità;
2)d’intrusività alta o bassa, a seconda che gli strumenti d’osservazione siano o meno
nascosti;
3)d’osservazione strutturata o non strutturata, a seconda che il ricercatore si attenga ad
uno schema prestabilito, oppure si lasci guidare da persone, circostanze o eventi che si
presentano alla sua attenzione; 4) di
prospettiva marziano o prospettiva del convenuto, a seconda che il ricercatore cerchi di
guardare i suoi oggetti di studio col distacco che, appunto, avrebbe un ipotetico marziano
oppure che il ricercatore si lasci conquistare dalle persone e dai contesti che osserva.
16. Cosa si osserva: L’attività di osservazione non riguarda solo il guardare, ma è un’esperienza
che coinvolge l’udito, l’olfatto, il tatto, il gusto. L’osservazione dovrebbe coinvolgere
almeno i seguenti aspetti: il contesto storico, che riguarda il passato del contesto da
studiare; il contesto fisico, cioè le caratteristiche dei luoghi in cui l’interazione si svolge; il
contesto sociale, cioè il modo in cui è organizzata la società da studiare, in termini di
differenze uomo-donna, giovane-anziano, ricchi e poveri; le interazioni formali ed
informali, cioè ,ad esempio; i modi di stare assieme delle persone in pubblico e in privato;
le interpretazioni orali e scritte dei nativi, cioè le spiegazioni del mondo che li circonda da
parte dei soggetti studiati; le produzioni materiali e simboliche, che riguardano ciò che le
persone fanno insieme: oggetti di lavoro, modi di decidere, riti d’iniziazione.
17. Problemi dell’osservazione: I problemi dell’osservazione partecipante sono diversi.
Innanzitutto l’accesso alla realtà da studiare, soprattutto nel caso di osservazione
partecipante di tipo scoperto. In questo caso i nativi potrebbero opporre resistenza alla
presenza di un intruso che vorrebbe studiarli. Per ovviare a questo problema potrebbero
intervenire dei mediatori culturali o degli informatori, persone che godono della fiducia
della popolazione in studio nel primo caso o testimoni incaricati da qualche istituzione che
parlando con la popolazione facilitino il compito del ricercatore e la sua inclusione. Nel
caso dell’osservazione nascosta il problema principale è quello etico: è giusto osservare e
studiare delle persone in incognito, e poi raccontare in una pubblicazione scientifica ciò
che si è sentito? Questo problema potrebbe essere risolto garantendo l’assoluto
anonimato dei soggetti studiati. Un ulteriore problema dell’osservazione partecipata è il
coinvolgimento emotivo del ricercatore che potrebbe causare problemi in termini di
obiettività. Un ultimo problema delle tecniche osservative riguarda la generalizzabilità dei
risultati.
18. Moderatore di un FG: Il compito del moderatore è quello di mantenere la discussione in
tema, rispettare i tempi, e gestire l’interazione tra i partecipanti, in modo che tutti si
possano sentire proprio agio ed esprimere liberamente le proprie idee e opinioni. Per fare
ciò il moderatore deve possedere certe caratteristiche: capacità comunicative, conoscenza
delle dinamiche di gruppo, esperienza, sensibilità, autorevolezza. Il moderatore ha il
compito di agevolare il warm up, cioè la fase di riscaldamento prima della discussione. Alla
fine dovrà riuscire ad istaurare un clima confortevole. Dovrà cercare di far parlare tutti,
evitando di fare “il giro delle domande”, ogni partecipante parlerà solo quando avrà
qualcosa da dire.
19. Organizzare un FG: Organizzare un FG vuol dire scegliere il numero e la composizione dei
gruppi, il luogo di svolgimento del focus e reclutare i partecipanti. Ogni FG è composto in
genere da otto persone, le quali possono variare da un minimo di quattro ad un massimo
di dodici. Il ricercatore avrà cura di prevedere un numero lievemente maggiore di
partecipanti, al fine di evitare che l’assenza di qualcuno faccia fallire il FG. Il reclutamento
inizia con l’individuare le caratteristiche delle persone da intervistare (per esempio le
esperienze che queste persone hanno avuto in un certo campo). La via più facile, tuttavia,
di individuare i partecipanti è quella di sceglierle tra i conoscenti dei miei conoscenti,
persone che non mi conoscono personalmente e non si conoscono fra di loro. Si può
incentivare la loro partecipazione mettendo a loro disposizione dei gadget. Quando si
contattano le persone si accenna solo vagamente al tema del FG, per evitare che esse
possano documentarsi prima, lo scopo del FG è studiare come le opinioni si formino nel
dibattito, non prima. Il numero complessivo di FG da effettuare è, in genere, tre. Non ha
alcun senso effettuare solo un FG. Per quanto riguarda il luogo di svolgimento, è buona
ricerca scegliere un luogo neutro, in modo che nessuno possa “giocare in casa”. Inoltre, è
utile disporre le persone in cerchio, perché ciò indica che tutti i partecipanti sono uguali e
possono partecipare liberamente alla discussione.
20. Desiderabilità sociale, acquiescenza, pseudo-opinioni: La desiderabilità sociale è quel
fenomeno per cui la persona intervistata finisce col dare all’intervistatore delle risposte
che appaiono socialmente accettabili, ma alle quali non crede veramente. Ciò può avvenire
perché il setting dell’intervista non agevola la conversazione serena o non vi è fiducia nei
confronti dell’intervistatore. L’acquiescenza è la tendenza di certi individui a dichiararsi
d’accordo con le affermazioni contenute nelle domande, o a rispondere sempre
affermativamente ad esse, indipendentemente dal contenuto. Le pseudo-opinioni sono il
risultato della mancanza di opinioni dell’intervistato, il quale, pur di non mostrare la sua
“ignoranza” su un certo argomento, s’inventa una risposta sul momento.
21. Psicologia di chi risponde: Le persone sottoposte a un questionario interpretano in vario
modo le domande che gli vengono poste, dando luogo a numerose forme di distorsione
dalla relazione tra intervistato ed intervistatore. Le più importanti sono: la desiderabilità
sociale, l ‘acquiescenza e la pseudo opinione. Tali distorsioni sono determinate da quattro
fonti: il contenuto più o meno comprensibile e/o sensibile della domanda, la struttura più
o meno logica e ordinata del questionario, il contesto più o meno consono in cui avviene il
colloquio, il comportamento più o meno corretto da parte dell’intervistatore e le sue
caratteristiche di sfondo.
22. Come formulare le domande in un questionario: Una regola generale è quella di essere
chiari nel linguaggio e semplici nella struttura sia delle domande che dello strumento. Più
specificatamente: le domande devono usare un vocabolario semplice, la loro sintassi deve
essere lineare, esse non devono mai contenere due domande in una, le domande devono
essere concrete rispetto al tempo e agli eventi da ricordare, non devono mai suggerire una
risposta in particolare, il numero di alternative deve essere molto limitato, tutte le
alternative di risposta devono apparire accettabili, le alternative di risposta devono essere
esaustive e, in genere, mutuamente esclusive.
23. Tipi di domande: Possiamo distinguere, essenzialmente, due tipi di domande: aperte o
chiuse. Le domande aperte sono utili quando il ricercatore pensa che sia meglio lasciare gli
intervistati liberi di usare le proprie parole per esprimere un pensiero. Poiché queste
domande richiedono una successiva post-codifica prima di poter analizzare i dati, quindi
tempo, fatica e soldi in più, per molto tempo si è preferito l’uso dei questionari; negli
ultimi tempi, considerati gli sviluppi tecnologici, molte riserve sono cadute. Le domande a
risposta chiusa sono di gran lunga più frequenti. Esse permettono un immediato
trattamento statistico. Lo svantaggio è nel fatto che a volte l’intervistato non riesca a
scegliere una risposta adatta.
24. Pre-test: Prima di somministrare il questionario è necessario effettuare almeno un pre-test
dello strumento, per verificare che esso sia compreso dagli intervistati e non produca
evidenti distorsioni. Va rivolto a soggetti simili a quelli facenti parte del campione, in una
proporzione che non supera il 10% del campione. Il pre-test può essere condotto in diversi
modi: registrato le reazioni dei rispondenti durante l’intervista, intervistando o facendo
commentare il questionario ex-post, oppure facendo esaminare il questionario da una
commissione di esperti.
25. Come si somministra un questionario: Si distingue fra questionario auto-somministrato e
questionario etero-somministrato. Un’ ulteriore distinzione riguarda il modo in cui
vengono raccolti i dati: faccia a faccia, per telefono, via posta, o attraverso il computer
nelle sue forme. Ogni modalità presenta vantaggi e svantaggi in termini di costi, rapidità,
intrusività, garanzie d’anonimato, modalità di caricamento dei dati. Si deve di volta in volta
trovare il giusto compromesso tra costi e benefici rispetto agli altri fattori. Infine, i
questionari posso essere somministrati in circostanze singole (studio trasversale) o più
volte nel tempo (studio longitudinale). Gli studi longitudinali si dividono a loro volta in:
inchieste trasversali replicate, quando lo stesso questionario viene somministrato in più
occasioni a diversi campioni, e i planet, quando lo stesso questionario viene somministrato
allo stesso campione nel corso del tempo.
26. La scala Likert: La scala Likert è una scala additiva, che si costruisce sommando i punteggi
ottenuti da un individuo su ciascun item. La costruzione della scala Likert si svolge i quattro
fasi: 1) definizione degli item che si pensano adatti a misurare il concetto; 2) la
somministrazione di tali item attraverso il questionario; 3) il controllo di coerenza interna
dalla scala; 4) il controllo di validità e unidimensionalità (misura solo un concetto?).
27. L’alpha di Cronbach: L’alpha di Cronbach misura la coerenza interna della scala e, dunque,
l’attendibilità. Se voglio misurare il razzismo, e una persona ha un punteggio alto verso il
primo, il secondo ed il terzo item, mi attendo che anche nel quarto abbia un punteggio
alto, se ciò non accade nella scala c’è un problema. Alpha=nr.(1+r(n-1)). L’alpha di
Cronbach varia tra 0 e 1, più grande è, più la scala è coerente e dunque attendibile. Alcuni
autori hanno proposto il valore di 0.7 come valore limite di coerenza, maggiore di 0.7 la
scala è coerente. Un valore basso dell’alpha può essere dovuto anche al fatto che la scala
sia multidimensionale, dunque, occorrerebbe fare anche un test dell’unidimensionalità.
28. Analisi dei casi: Le tecniche di analisi dei casi sono: il case study, l’analisi comparativa e la
cluster analysis. Lo studio d’un caso è l’esame “dettagliato” di un oggetto o di un
fenomeno, che viene considerato in qualche modo esemplare. Tale esame dettagliato può
avvenire sia attraverso un approccio di tipo qualitativo sia attraverso un approccio di tipo
quantitativo. Lo scopo dell’indagine è quasi sempre di natura descrittiva, e raramente avrà
pretese di generalizzabilità. Con l’analisi comparativa, si mettono a confronto alcuni casi,
individuando delle caratteristiche comuni e verificandone somiglianze e differenze. Anche
in questo caso, si può procedere sia con un approccio qualitativo, sia con un approccio
quantitativo. L’analisi dei gruppi infine, è una famiglia di tecniche di analisi di tipo
quantitativo. Al suo interno si distinguono: tecniche gerarchiche, tecniche iterative o delle
partizioni ripetute, tecniche baste sulla densità locale e, infine, le cosiddette reti neurali. La
cluster analysis serve a classificare i casi della ricerca, a costruire delle tipologie. La cluster
analysis produce gruppi. Tali gruppi devono risultare molto omogenei al loro interno, e
molto eterogenei tra loro.
29. Analisi monovariata: L’analisi monovariata si occupa delle variabili prese ad una ad una, e
ha scopi puramente descrittivi. Con questo tipo di analisi si intende conoscere la
distribuzione di certe variabili fra i casi studiati. La forma più semplice di analisi
monovariata è la rappresentazione tabellare di una distribuzione.
30. Analisi bivariata: L’analisi bivariata si occupa delle variabili prese a due a due, e ha scopi
esplicativi, cioè attraverso l’analisi bivariata si possono controllare delle ipotesi. Uno
strumento di base per l’analisi bivariata è la tabella di contingenza. Ogni riga corrisponde a
una modalità della prima variabile e ogni tabella alle diverse modalità della seconda
variabilie. L’incrocio tra una riga e una colonna dà luogo a una cella che mostra il numero
di casi che possiedono quella combinazione di attributi. L’analisi bivariata è utile quando si
vuole studiare la dipendenza tra le due variabili.
31. Analisi del contenuto: L’analisi del contenuto è una tecnica di analisi delle parole nei
documenti. Si tratta di scomporre i testi (sistema di significato), tramite procedure
impersonali, in elementi più semplici allo scopo di classificarli in categorie di senso. Essa è
adoperata per analizzare tutti i tipi di materiale scritto, fra cui anche le domande scritte, i
focus group, le interviste. Le tecniche di analisi del contenuto sono: l’analisi delle
frequenze, l’analisi delle contingenze e l’analisi degli assetti valutativi.
32. Analisi delle frequenze: L’analisi delle frequenze si effettua contando le presenze nei testi
studiati di parole, keywords, categorie o temi d’interesse. L’assunto di fondo è che più una
parola o un tema ricorrano nel testo, maggiore è la loro importanza.
33. Analisi delle contingenze: L’analisi delle contingenze serve a capire se due parole vengono
regolarmente associate all’interno dei testi esaminati. Uno degli indici più diffusi di
associazione è il coefficiente del coseno (una sorta di covarianza, si calcola come rapporto
tra le volte in cui le parole compaiono assieme e il prodotto delle radice quadrata delle
volte in cui compaiono separatamente).
34. Analisi degli asserti valutativi: L’analisi degli assetti valutativi è basata sull’analisi delle frasi
contenute nei testi. Serve a capire come vengono valutati determinati oggetti del discorso
(ad esempio, un noto personaggio dello spettacolo o una categoria di persone come gli
immigrati) dagli autori dei testi studiati. Per effettuare questo tipo di analisi, il ricercatore
si affida a dei differenziali semantici che ricordano quelli del questionario. Ogni frase viene
valutata con un punteggio che va da -3 a +3. Vengono poi calcolate le medie di tutti i
giudizi e alla fine viene elaborato un grafico.
Sociologia metodologica
Conoscenza scientifica e conoscenza sociologica.
Epistemologiche= le questioni epistemologiche hanno a che vedere con la Conoscenza scientifica.
1.1
Possiamo posizionare la conoscenza scientifica su tre livelli o tre piani di un edificio. Tuttavia, possiamo
notare come le scienze sociali devono affrontare alcuni problemi che le “scienze esatte” o Scienze Naturali
sembrerebbero non avere.
1 PIANO piano detto anche piano epistemologico o teorico fondativo
Questo piano è occupato da domande che riguardano l’esistenza della realtà, se è possibile conoscere la
realtà, ammesso che esista. Nel caso delle scienze sociali. Il problema più grande riguarda l’identità tra
soggetto conoscente oggetto conosciuto, nelle scienze sociali si pone il problema che chi conosce e ciò che
viene conosciuto sono della stessa natura. Per il sociologo, al contrario, gli oggetti di studio sono
rappresentati dalle persone e dalle relazioni tra queste. L'epistemologia è una disciplina che si occupa della
conoscenza.
2 PIANO piano teorico interpretativo
Qui troviamo la teoria sul mondo fisico e sociale, che le spiegazioni su come esso funzioni, vi sono anche
teorie sociologiche. Una teoria è “un insieme di proposizioni organicamente connesse”, che si pongono ad un
elevato livello di astrazione e generalizzazione rispetto alla realtà empirica. Una teoria è fatto essenzialmente
da frasi, le preposizioni che si dicono qualcosa sul mondo. Quest’ultime devono essere collegati in modo
organico, ovvero non si devono contraddire tra loro. Le teorie si possono applicare a numerose situazioni in
quanto sono astratte e generali. E se si appoggiano a fatti empirici che si riscontrano con una certa regolarità,
per mezzo della quale possiamo formulare delle previsioni.
Le ipotesi hanno un carattere meno astratto della teoria, per il fatto che sono più concrete possono essere
controllate in per empiricamente. Tuttavia hanno un campo di applicazione significato perché è necessario
mettere insieme più ipotesi per fare una teoria. Esse hanno anche un carattere provvisorio. L’ipotesi si
possono organizzare in ipotesi Generali che hanno un campo di applicazione più ampio ed specifiche che
hanno un campo di applicazione più ristretto.
3 PIANO tecnico-metodologico
Qui non si può parlare di scienza, se ogni teoria o ipotesi che abbiamo formulato circa il funzionamento del
mondo sociale non è supportata da prove dati empirici. Nelle scienze sociali è molto difficile raccogliere i
dati empirici. Ci sono molte risposte, ma ne identifichiamo 2:
1 nella scienze sociali Il soggetto conoscente l’oggetto conosciuto non sono separati. È difficile ricercatori
obiettivi in quanto entrano in gioco simpatia/antipatia emozioni.
2 le scienze sociali hanno a che fare con concetti non direttamente osservabili e misurabili.
All’interno del punto tecnico metodologico, avremo a che fare con i concetti di metodo, tecnica, strumento è
metodologia.
Metodo - > è una sequenza generale di categorie azioni, finalizzate al raggiungimento di un determinato
obiettivo conoscitivo.
Tecnica - > è una specifica procedura operativa che sta dentro un metodo. È una sequenza particolarmente
dettagliata di operazioni che mi fanno raggiungere un certo risultato.
Strumento - > e il mezzo che consenta ricercatore di raccogliere i dati empirici.
Metodologia - > è una riflessione complessiva, un ragionamento sul metodo. È una branca del sapere.
Nell'ambito della metodologia Sì valutano anche i vantaggi e gli svantaggi di metodi tecniche e strumenti di
raccolta e di analisi dei dati empirici. Tutti e tre i piani sono collegati tra di loro. È impossibile pensare alle
Conoscenza scientifica senza chiarire le premesse epistemologiche.
1.2
In un classico lavoro di Thomas Kuhn e viene introdotta la nozione di paradigma per spiegare come funziona
il lavoro degli scienziati. Il paradigma è una guida, che Oriente il lavoro dello scienziato. È una prospettiva
teorica, condivisa da una comunità di scienziati, che definisce la rilevanza dei fatti sociali, economici e le
ipotesi interpretative, orientale tecniche della ricerca empirica. Thomas Kuhn si dice che fare senza implica
l’adozione di un punto di vista particolare, può accadere che, cambiando tale punto di vista, le cose ci
appaiono in modo diverso, e dunque cambino anche i risultati del lavoro adottando un certo punto di vista,
non riusciamo a cogliere la realtà in assoluto. La scelta della prospettiva in qualche modo obbligata, per
effetto dei canoni condivisi da una comunità di scienziati. Inoltre paradigma suggerisce agli scienziati anche
le cose di cui si dovrebbero occupare: la rilevanza dei fatti sociali. Infine abbiamo le ipotesi interpretative gli
orientamenti sulle tecniche. Un paradigma, imponendo un punto di vista specifico, ci vincola ad ipotizzare il
funzionamento del mondo sociale in un certo modo, che è coerente con quella prospettiva. I paradigmi non
sono esterni ad un certo punto un paradigma può collassare a causa di un cattivo funzionamento, lasciando il
posto ad una nuova prospettiva. Un nuovo paradigma è determinato in modo “rivoluzionario”. A fasi di
scienza naturale, come le Chiama canne, si alternano fasi rivoluzionarie, attraverso un percorso fatto di
collassi ed esplosioni che non sono ovviamente senza conseguenze.
1.3
Gli elementi fondamentali che costituiscono un paradigma che sono rappresentati dalla risposta a 3 questioni,
3 domande di fondo: la questione ONTOLOGICA (la realtà esiste?), la questione EPISTEMOLOGICA (se
esiste è possibile conoscerla?), la questione METODOLOGICA (se possibile conoscerla, In che modo ciò
può avvenire?). Il modo in cui viene data una risposta a queste 3 domande costituisce la ragion d'essere di un
paradigma.
3 PARADIGMI: il positivismo, neo e post positivismo, nel costruttivismo interpretativismo.
IL POSITIVISMO -> (La Ville d’avray). Il punto di vista dei positivisti e dato dal fatto che la realtà esiste,
ed è conoscibile oggettivamente. Tutto ciò viene detto realismo ingenuo, affida in modo troppo ottimistico,
la capacità di umana di conoscere la realtà. È possibile conoscere la realtà in modo oggettivo. Una risposta a
questo problema e data da Èmilie Durkheim. Per il sociologo francese, basta concepire soggetto e oggetto
Come separati di natura diversa, ed è possibile conoscere la realtà in modo oggettivo. Il metodo delle Scienze
esatte è un metodo che si basa su dati empirici e misurazioni, l'induzione di regolarità dei dati raccolti, e la
formulazione di leggi che derivano da tali regolarità. Secondo i positivisti, la sociologia può dirsi senza
proprio perché, adotta il metodo delle Scienze esatte.
IL NEO E POST POSITIVISMO -> (Notte stellata). Il punto di vista di Van Gogh potrebbe essere definito
realismo critico. È questa. La risposta che viene data la questione ontologica La realtà si scorge, non ma non
si rivela mai in modo obiettivo. La realtà c’è ma, può indurre in errore, perfetto ti limiti dei miei sensi punto
è possibile conoscere la realtà? La risposta è sì, ma con un certo margine di errore. Sul mondo fisico o
sociale possiamo formulare solo congetture. Secondo e Karl Popper si devono formulare delle congetture
falsificabili. Il termine “falsificabile” va Inteso in due modi: 1) per il fatto di nuovi pezzi di conoscenza, le
congetture potrebbero dimostrarsi false, 2)le congetture scientifiche devono essere costruiti in modo tale da
poter essere dimostrate false. La conoscenza scientifica, è destinato ad essere provvisoria. L’epistemologia
neo è post positivista, non afferma più netto dualismo tra soggetto e oggetto. Questi ultimi possono interagire
provocando dei guasti rispetto alla possibilità di conoscere in modo oggettivo il mondo fisico sociale. Livello
metodologico apportato delle modifiche Infatti rappresenta un identità fra il metodo delle scienze sociali e il
metodo delle Scienze esatte. Il metodo delle Scienze esatte è cambiato, è stato sottoposto a profonda
revisioni. In un certo senso la realtà è conoscibile per pezzi. Nel caso delle scienze sociali so che vuol dire è
affidarsi al cosiddetto linguaggio delle variabili per riuscire a comporre un mosaico complesso. Questi baci
sono le proprietà gli attributi della realtà da conoscere.
IL COSTRUTTIVISMO I INTERPRETATIVISMO -> (Suprematismo di Kazimir). Ognuno di noi
All’interno di questo quadro può vederci una cosa diversa: in sostanza questo è ciò che sostengono anche i
costruttivisti: la realtà non esiste in modo oggettivo, va interpretata e gli dato un nome. Certo, questo
interpretazione, viene condivisa da una comunità, da una società, non è un'interpretazione assoluta. Dunque
la realtà è una costruzione sociale. Da qui ne deriva il relativismo culturale. Sul piano epistemologico
avviene il definitivo abbraccio tra soggetto conoscente oggetto conosciuto, la reciproca influenza tra soggetto
e oggetto viene ammessa è compresa nel processo di conoscenza. L’avalutatività, deve limitarsi e chiarire il
significato dei valori che ispirano le scelte sociali, ma non deve assumere lì come criterio di giudizio.
Interpretazione non deve per non deve dare per scontato da realtà, ma scoprire ogni volta e di interpretarla.
Per Weber il metodo delle scienze sociali si deve basare sul Verstehen, Cioè sulla comprensione razionale
dell'agire individuale, orientato dal significato che gli viene attribuito dagli attori sociali. Il sociologo trovare
così comprendere l'individuo che agisce e cercare di spiegare perché quest'ultimo ha agito in un certo modo.
Il sociologo si deve accontentare di quei modelli che vengono tipi ideali o (idealtipi). Tali modelli non
corrispondono esattamente alla realtà, non è possibile con una semplificazione, un’astrazione. Le scienze
sociali, dunque, non potendo accedere alla realtà nella sua interezza, possono utilizzare delle mappe che
conducono questi ultimi verso Tanti luoghi della conoscenza. Infatti si contrappongono diversi livelli di
paradigma ad esempio paradigma misurativo o convenzionale e paradigma narrativo, o più In generale tra
orientamento normativo e individualistico – interpretativo. Bailey identifica quattro paradigmi fondamentali
scientifico o statico, psicologia sociale, etnografia ed etnometodologia.
1.4
Gli approcci che si intersecano con la così detta svolta linguistica (linguistic turn). Tali approcci hanno
rivolto una grande attenzione al linguaggio e soprattutto al discorso, come veicoli fondamentali di senso
nell’ambito della vita sociale. In sociologia, queste influenze sono confluite nell’interazionismo,
nell’approccio drammaturgico, nell’etnometodologia, e a livello metodologico nelle tecniche di analisi della
convenzione. Le sociologie interpretative, sebbene presentino molte differenze fra loro, hanno tuttavia in
comune L’idea che le persone interpretano costantemente e attivamente la realtà che le circonda,
ricostruendo l’ordine sociale attraverso la prassi quotidiana. Lo strutturali so di Lévi-Strauss, che ricerca le
forme invariati e vincolanti della relazioni sociali e della cultura, a prescindere dalla loro manifestazioni
concrete. Nell’ambito metodologico, l’eredità strutturali sta è stata raccolta dalla social network analysis,
sostiene che il tipo di rete in cui l’attore sociale è inserito e la particolare posizione che gli occupa al suo
interno siano fattori che influenzano sia il modo in cui tale individuo agisce è pensa, sia gli effetti che questi
esercita sulla rete nel suo complesso. Il post-strutturalismo come Foucault, ha abbandonato lo strutturali amo
originario. Il positivismo invece si è riallacciato al realismo, che ribadisce l’identità di metodo tra scienza
sociali e scienze della natura. I realisti non sono vincolati alla verifica empirica e alla nozione popperiana di
falsificabilità, prospettando un dialogo con lo strutturalismo e alcune correnti delle sociologie interpretative.
Le prospettive che su pongono di saldare le grandi dicotomie delle scienze sociali. Tra queste, il
neofunzionalismo, lo strutturalismo genetico, la teoria della strutturazione, la teoria critica di Habermas e,
infine, la sociologia analitica.

I percorsi della ricerca sociale


2.1
La ricerca sociale si presenta come una sorta di itinerario da seguire, al fine di raggiungere un
obiettivo che è la conoscenza sociale. La ricerca potrà essere descrittiva/esplicativa, oppure ancora
esplorativa/confermativa o anche detta qualitativa/quantitativa. La differenza tra ricerca descrittiva
e ricerca esplicativa se sta nella domanda conoscitiva alla quale devo rispondere. Nel primo caso si
cercherà di rispondere alla domanda: Come si presenta un certo fenomeno? Nel secondo caso, si
cercherà di rispondere alla domanda: perché un fenomeno si presenta in un certo modo? Nella
ricerca descrittiva, serviranno dei dati che fotografi il fenomeno. Nel caso, invece, della ricerca
esplicativa dovrò individuare le cause che hanno prodotto il fenomeno osservato. Di conseguenza
verrà costruito un’ipotesi, e avrò bisogno di fare riferimento ha delle teorie. Ovviamente la ricerca
esplicativa è molto più impegnativa della ricerca descrittiva e richiede delle competenze
metodologiche maggiori. Nel caso della scelta tra Ricerca esplorativa ricerca confermativa, le
differenze sono invece dovute allo “stile” della ricerca. Nella prima, egli affronta il percorso di
ricerca appunto come un esploratore che, grazie ad alcuni strumenti di lavoro, cerca di conoscere la
realtà ignota. Il ricercatore si affiderà al paradigma costruttivista: la ricerca sarà essenzialmente
qualitativa. Nella ricerca confermativa, invece, il ricercatore parte da un quadro ben delineato di
ipotesi, è il suo compito è quello di trovare le “prove” cioè i dati empirici, che confermano tale
quadro. In questo caso, egli si rifarà agli approcci neo e post positivisti. La ricerca avrà un carattere
essenzialmente quantitativo. In estrema sintesi, si può dire che la qualità e la quantità sono due
estremi di un continuum, all’interno del quale si collocano tanti modi di fare ricerca sociale. Infatti
vengono fatte delle miscele estremamente interessanti di metodi e tecniche.
2.2
La ricerca sociale non si improvvisa, segue sempre a prescindere dallo stile scelto da ricercatore si
segue sempre lo stesso schema. Vi sono 5 fasi: D-> disegno della ricerca, C-> costruzione della
base empirica, O-> organizzazione dei dati (framing), A-> analisi dei dati, è la E-> esposizioni da
risultati. Questo percorso non è sempre così lineare. Può succedere che quando cerco di organizzare
i dati mi accorgo che quelli che ho raccolto non sono adeguati, e si rende necessario ridiscutere la
fase di costruzione della base empirica. Ma può anche succedere, che giunto la fase di analisi, mi
accorgo che non esistono tecniche in grado di elaborare i dati così come li ho organizzati, oppure
che è necessario tornare a due fasi prima, perché i dati stessi risultano inadeguati.
Disegno della ricerca
Una ricerca sociale può anche nascere per motivi diversi non necessariamente fra loro separati. La
scintilla della ricerca avviene per tre ragioni: 1) un problema esistente in ambito teorico, e non è
ancora risolto; 2) un’indicazione proveniente da un “committente”, cioè da colui che ordina la
ricerca, è che in genere paga per questo (privato), e gratuitamente (prof). 3) infine, una ricerca può
scaturire da una motivazione interna al ricercatore. Una volta iniziata la ricerca, il primo passo
fondamentale è quello di effettuare una ricognizione bibliografica, sull’argomento prescelto. Il
passo successivo consiste nella scelta del tipo di ricerca descrittiva/esplicativa o
esplorativa/confermativa. A questo punto, sarà necessario chiarire i concetti di ipotesi, e per far ciò
faremo ricorso a vocabolari. Ogni ricerca viene condotta su precisa unità di analisi. Si tratta dei tipi
di oggetti concreti sui quali farò ricerca, i quali somministrerò gli strumenti di rilevazione. Le unità
di analisi possono essere: per persone, famiglie, gruppi, nazioni, eventi, aziende ecc. Dovrò
scegliere le caratteristiche che mi interessano di più sulle quali indagherò. Infine, dovrò scegliere su
quante unità di analisi esattamente effettuerò la mia indagine. O ne interviste solo uno, che mi
sembra particolarmente rappresentativo. In base alla mia scelta avrò rispettivamente:
Un censimento-> quando considero tutta la popolazione di riferimento;
Un campione-> quando selezione una parte della popolazione che, riproduce una scala ridotta;
Un’analisi comparativa-> quando scelgo un piccolo numero di unità di analisi, allo scopo di
comprarne le caratteristiche più importanti;
Uno studio di caso -> quando considero Solo unità di analisi
La costruzione della base empirica
La fase di costruzione della base empirica si può considerare il nocciolo della disciplina che
chiamiamo “metodologia della ricerca sociale”. La fase di costruzione della base empirica si
articola essenzialmente in cinque sottofasi:
1. Il passaggio dei concetti alle variabili, la cosiddetta operativizzazione dei concetti;
2. La scelta della Tecnica di rilevazione;
3. La costruzione dello strumento concreto di rilevazione;
4. La sua validazione tramite un pre-test;
5. La rilevazione dei dati vera e propria;
Il processo di operativizzazione
Il processo di operativizzazione dei concetti riguarda esclusivamente lo stile che abbiamo
denominato quantitativo, vuol dire, sostanzialmente, trasformarlo in un modo tale da poterlo
rivelare e/o misurare. Il concetto che analizziamo viene scomposto nella sue proprietà concettuali, e
lo traduce nei suoi indicatori empirici; si deve, cioè, costruire la definizione operativa del contatto.
La scelta degli indicatori deve avvenire in modo tale da massimizzare il cosiddetto rapporto di
indicazione. In sostanza, vanno trovati tutti quegli che, sommati l’uno l’altro riescono man mano a
“coprire” tutto il significato del contatto. Non esiste tuttavia un modo obiettivo è definitivo di
scegliere gli indicatori d’un concetto. Il passo successivo è quello di trovare le modalità concreta
attraverso le quali gli indicatori verranno rilevati vi sono tre modalità o stati :”alto”,”medio”,
“basso”. Una buona regola è quella di scegliere un insieme di modalità che risulta sufficientemente
articolata e discriminante. A questo punto, dovremmo applicare la definizione operativa ai casi
concreti della ricerca. Tale passaggio può prendere il nome di: classificazione, ordinamento,
conteggio o misurazione. La differenza tra queste quattro operazioni: classificare vuol dire trovare
un posto ad un certo numero di oggetti, che si fanno corrispondere alle categorie di uno schema più
o meno articolato. Una corretta classificazione devo soddisfare tre requisiti:
-esaustività, il quale richiede che tutti gli oggetti da classificare possono trovare posto nelle
categorie previste;
-esclusività il quale impone che un oggetto deve avere uno ed un solo posto nella classificazione;
-unicità del fundamentum divisioni, il quale richiede che le categorie derivino da un unico criterio,
principio o idea che le distingue.
-l’ordinamento, invece, prevede di sistemare degli oggetti rispetto ad un criterio gerarchico, ad una
scala. Ordinare, in sostanza, vuol dire mettere degli oggetti al primo posto, al secondo, il terzo ecc. I
posti, dunque, non sono tutti uguali: viene sono alcuni che stanno più in alto, e altri che stanno più
in basso.
-il conteggio, esprime in termini numerici una quantità reale.
-le misurazioni, invece, è una sorta di conteggio più sofisticato, in quanto è il risultato
dell’applicazione di una precisa unità di misura: metro, il litro, il watt.
Le variabili
Alla fine del processo di operativizzazione, avremo una variabile, cioè un a proprietà operativizzata.
Le variabili si distinguono proprio in base al tipo di operativizzazione dalla quale derivano: una
variabile nominale o categoriale alla fine di una classificazione; una variabile ordinale alla fine di
un ordinamento; infine una variabile cardinale alla fine di un conteggio di una misurazione.
Famiglie di tecniche di rilevazione
Le tecniche che servono a raccogliere i dati empirici, nella realtà sociale, sono molto numerose,
tecniche basate sulle letture di dati, tecniche basate sull'osservazione, e tecniche basate sul
domandare. Le tecniche di rilevazione dei dati si possono raggruppare nelle seguenti famiglie:
o La raccolta di fonti secondarie di tipo statico
o La raccolta di Fondi secondari di tipo testuale
o L’esperimento
o L’osservazione
o Le interviste
o Il questionario
o La simulazione al computer
In base all'obiettivo conoscitivo che ricercatore si è posto sarà più utile adeguato una tecnica di
rilevazione e piuttosto che un'altra. Si prendono in considerazione le tecniche di rilevazione, è
quella delle loro intrusività, il livello di “disturbo” che questo determina nel processo di rilevazione.
Perché l’intrusività è importante? Perché una persona che sa di essere osservata o studiata cambierà
di conseguenza il proprio modo di comportarsi le opinioni che esprime. Intrusività del ricercatore è
vista come una questione di grado (ovvero tecniche o strumenti che possono essere più o meno
intrusive) , di estensione (riferiti informazioni collettiva ed individuale). Le tecniche non-intrusive
(o periscopiche) non sono necessariamente migliori delle tecniche intrusive. Entrambe presentano
sia aspetti positivi sia negativi. Uno dei problemi maggiori delle tecniche di rilevazione non-
intrusive è quello etico. Il ricercatore o deve dissimulare la propria identità nei contatti face-to-face,
oppure “origliare” o “spiare” le persone, o ancora “frugare” tagli oggetti che esse hanno gettato
nell’immondizia, o tra i documenti o le loro pagine web ecc.
L’organizzazione dei dati
Organizzare i dati (framing) vuol dire o trasformare i dati empirici raccolti, in modo dare delle
risposte alle domande conoscitive del ricercatore. La post-codifica, tuttavia, costringe il ricercatore
o i codificatori ad un lungo e faticoso lavoro, che non sempre produce gli sperati. Oggi, tuttavia, la
situazione sta cambiando grazie alla diffusione dei CAQDAS, dei programmi per computer che,
non solo consentono di governare enormi quantità di dati, ma soprattutto Assistono il ricercatore
nella faticosa opera di codificare il recupero del materiale raccolto. Il framing è la cosiddetta
matrice casi per variabili. Si tratta di una griglia, organizzati a righe e colonne, in cui le prime
rappresentano i casi, mentre le seconde le variabili. I dati raccolti, opportunatamente pre-codificati,
vengono inseriti nelle celle, che risultano dall’incrocio tra una riga e una colonna. La codifica è
necessaria per inserire i dati in modo più rapido nel computer, che poi li elaborerà. La matrice casi
per variabili (CxV) è uno strumento potentissimo, che consente di utilizzare tutte le tecniche di
analisi statistica più importanti.
L’analisi dei dati
La fase di analisi dei dati è il momento in cui dobbiamo trovare nei dati, appunto, risposte alle
nostre domande conoscitive. L'analisi dei dati può essere effettuata rispetto a 4 oggetti principali: i
casi, le variabili, nelle relazioni e le parole. Per ognuno di essi esistono tecniche dell'analisi
adeguate.
L’esposizione dei risultati
L’esposizione dei risultati il momento finale della ricerca, in cui si scrive il cosiddetto report di
ricerca, cioè Un libro, una relazione, una tesi che contengono sia i risultati conseguiti sia una
spiegazione delle scelte metodologiche più importanti. Un report di ricerca dovrebbe contenere
fondamentalmente sei parti:
1. Un’introduzione che illustra in modo sintetico la struttura del report, gli obiettivi, questi
ultimi possono essere dati dalla sistematizzazione di un certo campo di studi, il superamento
dei limiti della letteratura ad esso inerente, o innovazione teorica e/o metodologica;
2. Lo Stato dell’arte, c’è una sintesi della letteratura scientifica esistente sul fenomeno che è
stato studiato;
3. La presentazione dei risultati, contenente le prove empiriche di ogni Ricerca Scientifica in
forma di tabella e/o grafici;
4. I commenti e le conclusioni, che dovrebbero spiegare la rilevanza interna ossia lo specifico
filone di studi ricercato, ossia lo specifico filone di studi ricercato, o quella esterna Fai una
ricerca più generale il mondo sociale;
5. Una nota metodologica, contenente la spiegazione tutte le scelte tecniche compiute dal
ricercatore nello svolgimento della ricerca;
6. I riferimenti bibliografici, contenenti sia riferimenti a libri e riviste tradizionali, sia a risorse
online.
Tali risultati devono essere scientificamente validi e ottenuti attraverso procedure eticamente
corrette, che rispettano ad esempio la privacy. Il ricercatore, ad esempio, potrebbe approfittare
illecitamente o correttamente delle informazioni che apprende, per effetto delle condizioni di
infiltrato.
2.3
Nelle riflessioni sul metodo vi sono Tre criteri per distinguere la buona è la cattiva ricerca. Cosa
vuol dire fare ricerca scientifica? Fare ricerca scientifica: a) produrre asserti cioè affermazioni forti,
b) giustificarli su base empirica, c) produrre un sapere controllabile, c'è il pubblico, ovvero
disponibile a tutti, è riproducibile nel senso che chiunque potrà essere in grado, ripercorrendo gli
stessi passaggi. Le 2 più diffuse prospettive di ricerca, quella quantitativa e quella qualitativa,
tuttavia, a Fronte del declino le due questioni diversamente. Le differenze epistemologiche si
riflettono sui criteri per distinguere la buona e la cattiva ricerca. La validità è un giudizio che
riguarda il grado di corrispondenza semantica fra le risultanze empiriche della ricerca e il mondo
reale. In sostanza, un dato uno strumento sono validi, se il dato corrisponde alla realtà alla quale si
riferisce lo strumento misura effettivamente ciò che intende misurare. Si distinguono la validità
interna, che riguarda la pertinenza delle spiegazioni date alla situazione oggetto di studio, e una
esterna, che riguarda invece la generalizzabilità delle spiegazioni date ad altre situazioni analoghe.
Esistono molte altre forme di validità, quelle di contenuto, per criterio di costrutto. L’attendibilità,
invece, ha a che fare con la coerenza dei dati raccolti, la pressione, la replicabilità. Lavorabilità e
l’attendibilità risultano inaccettabili, per chi richiama il paradigma costruttivista. Nel caso della
validità, va ricercato nel riconoscimento dell’inevitabile interazione soggetto conoscente soggetto
conosciuto. Una ricerca non è valida quando, non si forniscono i criteri per l’inclusione di certi casi
e non di altri, il materiale non è disponibile la sua forma originale. In merito all'affidabilità, invece
minuti di riflessione riguardo le specifiche modalità di raccolta di dati e le procedure di
ordinamento, categorizzazione e classificazione. L’opposizione tra qualità e quantità avviene
attraverso tecniche di triangolazione. Quest’ultimo consiste nella proposta di studiare uno stesso
Oggetto attraverso prospettive teoriche, metodi, ricercatori e dati diversi, allo scopo di ottenere una
convergenza massima dei risultati ottenuti di rendere meno opaca possibile la complessa realtà dei
fattori sociali. Harvey e McDonald individuano tre tipi di triangolazione: un ricercatore che usa più
tecniche di ricerca, due ho più ricercatori che usano la stessa tecnica di ricerca, o due o più
ricercatori che ho solo due o più tecniche di ricerca. La realtà, dunque, è obiettivamente conosciuta
attraverso un mix di prospettive, dati e strumenti migliori per descriverla.
Il campionamento
Il campionamento consiste nella selezione di un certo numero di unità di analisi , anche vengono
denominate casi, da una popolazione di riferimento. La dimensione del campione (n) viene scelta in
modo da riprodurre su piccola scala le caratteristiche dell’intera popolazione (N). Quest’ultimo
costituisce un momento cruciale le direi di ricerca sociale. Bisogna, tuttavia, considerare un
problema come una sorta di male necessario, cioè l’errore di campionamento. Un campione Infatti è
un modello della realtà, e non la realtà stessa. In termini formali si può scrivere Y=Y+-E. La Y
rappresenta il dato reale, la Y la stima campionaria, ed È l'errore cioè la distanza (o scarto) in
negativo o in positivo da Y. Ovviamente, quanto più piccolo è questo errore, tanto è più le Stime
saranno vicine alla realtà. Vi sono due grandi famiglie: le tecniche probabilistiche le tecniche non
probabilistiche.
I campioni probabilistici
Il campionamento probabilistico, deve rispettare il requisito che tutte le unità della popolazione
abbiano la stessa probabilità, calcolabile è maggiore di zero. Quest'ultimi vengono ritenuti
rappresentativi della realtà, in quanto, il campione può essere estesa all'intera popolazione di
riferimento, attraverso la cosiddetta inferenza statistica. Così che, alla fine, i risultati della ricerca
dovrebbero risultare generalizzabili. L’errore di campionamento che è un dato cruciale per stabilire
la validità del campione è calcolabile; ciò è possibile solo nel caso dei Campioni probabilistici. Per
poter calcolare le probabilità necessarie ad estrarre il campione, abbiamo bisogno di una lista
completa della popolazione, quest'ultima In molti casi è impossibile da ottenere. Vi sono diversi tipi
di campioni probabilistici. I più comuni sono: il campione casuale semplice, il campione
sistematico e il campione stratificato, a stadi, grappoli, multifase spaziale. La dimensione di un
campione probabilistico (n) è determinata dalle seguente formula:
dove z si riferisce a livello di fiducia delle nostre stime (1,96) , pq e la varianza (0,25), N è là
dimensione della popolazione, E l'errore di campionamento. Da questa formula possiamo notare che
i grandi variazione di N non comportano grandi variazioni di n, mentre anche piccole variazioni di
E che producono enormi cambiamenti in n. Il campione santificato come al n proporzione ad alcune
variabili note. Nel campione sistematico, infine, le persone vengono selezionate a caso, una ogni k
unità; dove k è il cosiddetto intervallo di campionamento. (k, in genere, è dato da N/n)
I campioni non probabilistici
I campioni non probabilistici sono in genere fatti ad hoc, in vista di un certo obiettivo conoscitivo,
sono suggeriti dalla teoria. Ciò vuol dire che essi vengono costruiti secondo un criterio che il
ricercatore ritiene soddisfacente al fine di ottenere una rappresentativa tipologica. Quest’ultima
viene raggiunta quando si ha un numero sufficiente di esemplari. La rappresentativa tipologica, mi
basterà per esempio per prendere un certo numero di pesci rossi, blu e bianchi. Al contrario quella
statistica, prende tre tipi di pesci in proporzione alla loro reale distribuzione nel laghetto. La
rappresentati vita tipo logica generi super trasferiti di , ci sì riferisce alla possibilità di individuare
insieme di alzarti solitamente molto generali mutatis mutandis, possono gettare luce sui
comportamenti, i valori, le credenze, proprio di culture, di forme di vita a fini. Essendo costruite ad
hoc, I campioni non probabilistici sono piuttosto eterogenei. I più comuni sono: il campione a
valanga , il campione per poter , mi campione a scelta razzo nata , il campione teorico , è il
campione di convenienza. Il problema più grosso dei Campioni non probabilistici e che ricercatore
può fidarsi solo a criteri molto vaghi per stabilire la validità, infine il rischio di errori non
campionari enorme. Esistono, fondamentalmente, quattro tipi di errori non campionari: errori di
selezione , gli errori di misurazione , le non risposte , gli errori di procedura.
3.4
Il problema più grande del campione mangio rimani il concetto di rappresentatività. I campioni
probabilistici sembra che non possano garantire la rappresentatività statica per almeno 4 ragioni.
Primo “ paradosso del campionamento”: non possiamo mai sapere se un campione rappresentativo,
perché ci serve a scoprire qualcosa cena realtà che non conosciamo.
Secondo: le stime spesso sono confrontare con i dati dei censimenti. Abbiamo due problemi: 1) i
dati del censimento potrebbero essere ormai troppo vecchi; 2) un punto di riferimento solo rispetto
ad alcune variabili. Potremmo arrivare a conoscere la rappresentativa di un campione solo rispetto a
quel limitato numero di variabili. Tali variabili sono, in genere, di natura socio anagrafica.
Terzo: il ricercatore dovrebbe cercare di minimizzare gli errori non campionari. Il problema è
causato da una lista non aggiornata con un’accurata dalla popolazione di riferimento. Oppure può
capitare che alcuni DVD estratti risultino irraggiungibili o si rifiutino di collaborare all’inchiesta
perché sentono minacciata la loro privacy. Quando ciò accade, è necessario rimpiazzare le unità
perdute con le altre unità estratte. Un campione estratti in modo perfettamente casuale, in origine,
mano a mano trasformarsi in un campione non casuale. Maggiore il numero dei drop-out e meno
garanzie abbiamo. Infine, anche i campioni non probabilistici potrebbero essere rappresentativi, per
effetto del caso. Queste sono le ragioni per cui, da un lato, I campioni non probabilistici sono usati
sempre più spesso anche nell’ambito di importanti indagini campionarie, come dimostra il successo
di campioni come il respondent-driven sampling. Tuttavia, sebbene si tratti di una prospettiva molto
promettente, internet sampling, il cell-phone sampling eccetera devono ancora affrontare e superare
non pochi problemi.
L’intervista
Con il termine intervista, nella ricerca sociale, si intendono parecchi modi di raccogliere i dati, di
tecniche di rilevazione, cioè un insieme di tecniche che si basano sul chiedere a un certo numero di
soggetti le informazioni di cui ricercatore ha bisogno. L’intervista si può definire “una forma di
conversazione la quale due persone si impegnano in un interazione verbale e non verbalmente e
nell’intento di raggiungere una meta precedentemente definita”. La meta è di natura conoscitiva,
nell’intervista viene a persone che rivolge solo domande (intervistatore) e un’altra che da solo
risposte (intervistato) . L’intervista si distingue dal questionario in via la libertà da parte della
persona intervistata, di esprimersi come preferisce. Al contrario nel questionario le domande e le
risposte sono fisse. L'intervista è una tecnica finalizzata alla raccolta dei dati, uno strumento, più o
meno flessibile da somministrare a un certo numero di soggetti attraverso le domande.
Tipi di intervista
Vi è una classificazione delle varie interviste, che si riferisce uno spazio definito da almeno 5
dimensioni: il livello di standardizzazione della domanda della risposta; il grado di direttiva
assegnato all'intervistatore; il grado di focalizzazione su temi trattati; la natura della finalità
conoscitive; la prospettiva pragmatica o teoria adottata. Un primo criterio è il modo in cui sono
organizzate le domande:
• L'intervista strutturata o standardizzata, cioè da porre nello stesso ordine nella stessa
formulazione a tutti, e risposte aperte, cioè esprimersi liberamente;
• L'intervista semi-strutturata, in cui non esiste uno schema fisso di domande. L’intervistatore,
dispone di una scaletta, in cui vi sono domande le quali possono cambiare da intervista a
intervista;
• Intervista non strutturata, che parte semplicemente da un tema da trattare in profondità. In
questo caso, non esistono domande predefinite, nel schemi da seguire. Ogni intervista fa
storia a sé.
Un secondo criterio e dato dal ruolo o dallo stile dell'intervistatore:
• Intervista direttiva, in cui l'intervistatore segue scrupolosamente la struttura per vista delle
domande, ignorando, le reazioni di chi risponde;
• Intervista non-direttiva, in cui chi formula le domande tende a seguire l’intervistato nei suoi
ragionamenti;
• Intervista semi-direttiva, in cui è presente una parte che va somministrato allo stesso modo a
tutti i soggetti del campione, una parte in cui, invece, si assecondano le esigenze
dell’intervistato, lasciando libero di seguire il proprio filo logico.
Un terzo criterio riguarda il tipo di domande e di risposte che possono essere standardizzate o non-
standardizzate, previste dallo strumento. In questo caso nello schema rientra anche il questionario.
Infine, possiamo distinguere le interviste in base al numero degli intervistati. Vi sono interviste
individuali e interviste di gruppo, a sua volta quest'ultima si suddividono in interviste a gruppi
naturali, cioè esistono indipendentemente dalla volontà del ricercatore, e i gruppi artificiali, che
vengono costruiti apposta da ricercatore per l’intervista, e si esauriscono alla fine della stessa. vi
sono ancora le interviste biografiche o storie di vita che non posseggono una chiara definizione.
Normalmente l’obiettivo è quello di collegare un testo ad un contesto. Spesso, i destinatari di questo
tipo di interviste si collocano, significativamente, nelle posizioni più estreme della società, o si
tratta di persone di successo. L’intervista biografica può essere pensata come uno dei poli di una
continuum che vede, al lato opposto, il questionario.
Il rapporto tra intervistato e intervistatore
La gestione del rapporto tra intervistatore e intervistato rappresenti il momento più difficile di tutta
l'intervista, e simboleggia, la questione epistemologica del rapporto fra soggetto conoscente e
oggetto conosciuto. Intervista rappresenta un momento comunicativo abbastanza complesso, in
quanto, un intervistatore e intervistato sono degli estranei. Ciò vuol dire che, per stabilire un patto
comunicativo, devono affidarsi ai dati di contesto che caratterizzano la situazione intervista. Le
caratteristiche di sfondo di intervistato e intervistatore solo delle caratteristiche che influenzano i
fattori psicologici dei due soggetti in interazione. Il modo in cui è fatto l’intervistatore, ad esempio,
influenzerà le percezioni dell’ intervistato. A partire da questa primitiva classificazione, ne deriva
un atteggiamento di buona o cattiva disposizione nei confronti dell’intervistatore, e delle aspettative
di comportamento. l’aspetto più importante, però, è legato alle motivazioni. Una cattiva percezione
dell’intervistatore, Infatti determina una bassa motivazione a collaborare con l’intervistatore.
Insomma alla fine rapporto tra intervistatore e intervistato è una sorta di gioco di maschere sociali
un rituale, la vittoria di una maschera sull’altra. L’ intervistatore può effettuare degli errori nel
modo in cui pone le domande, errori del probing, errori nel motivare all’intervistato, errori nella
registrazione delle risposte, per effetto dei pregiudizi dell’intervistato ed errori di reazione nei
confronti delle persone intervistata. Da parte dell’intervistato, vi può essere il rischio di risposte
inaccurate o inadeguate.
L’intervistatore
Per poter evitare che rapporto tra intervistatore e intervistato si guasti, bisogna osservare tre rimedi:
il primo che intervistatore si presenti prima dell’intervista. Second bisogna che l'intervistatore studi
bene lo strumento che dovrà somministrare per evitare di trovarsi in difficoltà. Ed infine si deve
avere un abbigliamento adeguato. L’intervistatore, giunto presso il luogo concordato per
l’intervista, dovrà ottenere il fatidico consenso della persona da intervistare. in che modo? Ecco
alcune strategie: brevità del colloquio. Il tempo della persona è prezioso e va rispettato, ma non
sempre è così, in quanto un'intervista dura più allungo. Citare il committente della ricerca, per far
sapere agli intervistati Chi ha commissionato la ricerca li rassicura per tale motivo, il committente è
bene che si curi anche su carte intestate, badge riconoscimento ecc. Il tema dell’intervista, che
permetta l’intervistato di sapere esattamente cosa domanderà l’intervistatore, quest'ultimo in questo
modo sarà più propenso a collaborare. La scientificità della ricerca aiuta ad ottenere il consenso
dell’intervista. Spiegando il perché si è scelto di intervistare proprio quella persona. ed infine
garantendo l’anonimato dell’intervista tutela della privacy a colui che ha intervistato. A questo
punto, l’intervista dovrebbe poter iniziare. Innanzitutto, l’intervistatore deve cercare di creare una
situazione di normale conversazione, mai di giudizio. L'intervista dovrebbe riuscire a illustrare un
misto di distacco, educazione cordialità. Se è previsto l’uso del registratore Bisogna chiedere di
accenderlo solo dopo l’inizio dell’intervista. La aver conquistato, prima, la fiducia dell'intervistato
favorirà certamente no sua disponibilità ad essere registrato/a. Se è previsto uno strumento di
intervista strutturato, bisognerà rispettare la sequenza delle domande. Intervistatore non deve mai
esprimere le proprie opinioni nel corso dell’intervista. intervistatore, inoltre, deve evitare di far
trasparire qualsiasi avvolgimento emotivo. Deve imparare a superare gli stereotipi e pregiudizi che
la percezione dell’altra persona ha attivato. Un intervistatore inoltre, deve essere propositivo e deve
sapere ascoltare l’intervistato, piuttosto che rimanere aggrappato al su foglio di carta con lo schema
delle domande. L'ascolto è fondamentale nelle interviste semi-strutturate, perché permette di
realizzare un'intervista davvero molto simile ad una conversazione. infine, l’intervistatore non deve
mai una risposta nel caso ho tempo rifiuto perché finirebbe con l’ottenere pseudo-opinione o
socialmente desiderabile, cioè immagine che si è fatto delle intervistatore. Intervistatore dovrà
inoltre fare attenzione al probing, ovvero interventi di chiarimento e nelle domande suppletive, o
quando l’intervistato ammette di non aver compreso la domanda. quest’ultimo è un segnale che c’è
qualcosa che non ha funzionato nella comunicazione tra intervistatore e intervistato, e va gestito con
cautela.
Gli strumenti la trascrizione delle interviste
Interviste sia una tecnica che uno strumento. può avere due forme: a scaletta o attraverso un
percorso strutturato. la prima si adopera le interviste semi-strutturate ed è sostanzialmente uno
schema generale, con una lista di temi da trattare, ed alcuni spunti ho viste discorsive dalle quali
attingere nel corso del colloquio. La seconda, invece, assomiglia molto ad un questionario, che
invece di avere le risposte chiuse le ha quasi tutte aperte. le interviste trascritte fedelmente Ex Post
se sono state registrate, possono essere prodotte direttamente dallo stesso intervistato. In tutti e tre i
casi si elastico sia la sintesi utilizzati saranno diversi: la lingua parlata, infatti non è uguale alla
lingua scritta. La relazione tra intervistatore e intervistato può tradursi in errori sera interpretazione
del pensiero, sia nella registrazione dei dati. nel caso in cui l’intervistato stessa compilare intervista
il lavoro più importante, al fine di ottenere delle teste adeguatamente realizzabili, riguarda la
correzione degli errori. Ma anche la trascrizione Fedele da registrazioni magnetiche o digitale
comporta dei problemi. Il linguaggio non verbale, serve normalmente dai importante modulatore
nella relazione con l’intervistato.
L’analisi dei dati
Per l’analisi delle interviste, esistono essenzialmente tre approcci: etnografico narrativo, che
consiste nel raccontare il materiale raccolto avvalentesi di brani significativi e astratti delle
trascrizioni; è quello quantitativo, che prevede una codifica sistematica delle trascrizioni in
categorie di temi e concetti, i quali andranno poi conteggiati e riassunti grafici e tabelle
L’approccio etnografico o narrativo
L’approccio etnografico Ricorre la tecnica dello scissor and sort (taglia e riordina) o long couch,
short hall. L’idea di fondo è quella di sottolineare ricopiare a parte i passaggi più rilevanti di ogni e
trascrizione. per far questo, si possono scegliere diverse soluzioni gli evidenziatori colorati, fino a
sofisticati programmi per computer di codifica e di recupero. I passaggi di testo così ritagliati e
riordinati entrarono affiancati al commercio interpretativo del ricercatore nel report finale, o tutor,
sul rapporto tra reti sociali e percorsi di tossicodipendenza da eroina. In alcuni casi, un’analisi di
questo tipo può condurre alla costruzione di classificazioni e tassonomie, le descrizioni tipi ideali,
l’individuazione di potenziali ipotesi di lavoro in vista di ricerche successive. I software per l'analisi
dei dati qualitativi hanno Resi disponibili numerosi strumenti per arricchire la cassetta degli attrezzi
del sociologo. Mi sono le reti semantiche, con cui si può costruire una rappresentazione visiva del
complicato intreccio logico semantico tra le citazioni codici di Mi sono le reti semantiche, con cui si
può costruire una rappresentazione visiva del complicato intreccio logico semantico tra le citazioni
e i codici individuati dal ricercatore in fase di analisi. La rete semantica, collega i contenuti emersi
dalle interviste danno in un senso complessivo.
L’approccio quantitativo
Il secondo approccio, quello quantitativo, prevede anzitutto una poste codifica delle trascrizioni in
concetti categorie di contenuto. Successivamente, i codici vengono conteggiati e presentati in
grafici e tabelle, che ne riportano le percentuali,. Il conteggio ha lo scopo di descrivere i testi
esaminati, ordinandoli in base ai temi e hai problemi trattati2 nelle interviste. Si possono anche
effettuare delle comparazioni, quando il ricercatore ha a che fare con due o più set di casi, per lo più
omogenee al loro interno, ma eterogenei tra loro.

Il focus group
Il focus group è una tecnica di rilevazione che si fonda su un’idea molto interessante: quella di poter studiare
il modo in cui nascono le opinioni, quando le persone all’interno di un contesto naturale discutono tra di loro.
Le origini del focus group risalgono agli anni quaranta, quando Robert Merton. Il FG è “una tecnica che
ricorrere a procedure tendenzialmente non standardizzate di rilevazione dell’informazione, basato sulla
discussione, che solo apparentemente informale, tra un piccolo gruppo di persone, alla presenza di un
moderatore e di un osservatore e focalizzata su un argomento stabilito, FG è qualcosa di molto simile ad un
talk-show televisivo, in cui ci sono delle persone che discutono un tema, è un conduttore che le guida è
costruito per scopi scientifici. Evita in anzitutto di citare la contrapposizione qualità/quantità. Il FG viene
ritenuto da molti una sorta di via di mezzo tra l’intervista e l’osservazione. Nella definizione di FG si parla di
un moderatore, che ha il compito primario di gestire le discussioni tra i partecipanti, e di un osservatore, che
ha il compito di registrare, dall’esterno, tutte le informazioni che torneranno utili per l’analisi successiva. I
FG possono essere realizzati in modi diversi:
• In base alla composizione dei gruppi (omogeneo o eterogeneo, i grandi medi o piccoli);
• In base al grado di strutturazione (alta, media o bassa);
• In base al ruolo del moderatore (direttivo semi-direttivo non direttivo).
Il FG deve la sua fortuna al grande successo che ha avuto nelle ricerche di mercato, ha così invaso tutti gli
uffici delle Agenzie di marketing. Una seconda applicazione di grande successo è avvenuta in campo politico
e nelle ricerche elettorali, ma anche molti altri campi, ad esempio: la valutazione degli enti, servizi e
politiche pubbliche, soprattutto in campo sanitario e l’elaborazione di progetti e proposte in ambito
organizzativo per le cultural studies e negli studi riguardanti la comunicazione di massa, dello studio di tipo
esplorativo, il FG è una tecnica senz’altro appropriata.
Il FG ha dei vantaggi:

• economicità, costa meno di una rilevazione camponaria;


• rapidità, in quanto si possono contemporaneamente intervistare numerosi soggetti in poco tempo;
• flessibilità in quanto la struttura e gli strumenti di rilevazione del FC possono anche essere cambiati
per poterle adeguare alle nuove esigenze ho i primi risultati ottenuti;
• L'alta densità di informazioni, in quanto nel corso del dibattito vengono presi in considerazione oltre
le verbalizzazioni dei partecipanti, le dinamiche di gruppo la comunicazione non verbale;
• Alta “tollerabilità” da parte dei partecipanti i quali sono spesso molto gratificati dal FG.
Alcuni di questi vantaggi sono solo apparenti perché è molto difficile identificare con preciso di partecipanti
più adatti, può essere difficile fare le domande giuste, discussioni, trovare un operatore che abbia le qualità
personali richieste. Infine, nel caso dell’analisi, carattere improvvisato e dilettantesco.
La pianificazione del focus group
Verificare un FG vuol dire scegliere il numero e la composizione dei gruppi, il luogo di svolgimento del
Focus e reclutare i partecipanti. Ogni FG è, in genere, composto da circa 8 persone. All’interno delle feci
pieno ricercatore che si affida il principio di saturazione teorica. In sostanza, si tratta di continuare il FG fino
a quando non ci si accorge che non emergono altri temi nuovi. La via più facile e veloce e il reclutamento tra
conoscenti dei miei conoscenti, che non conoscono me la raccomandazione di un conoscente, infatti pure
assicurare i partecipanti circa la serietà dell’indagine a favorire la partecipazione. Una strategia che
incoraggia i partecipanti a collaborare sono i cosiddetti incentivi, nella forma di regali, gadget, gettoni di
presenza, buoni acquisti ecc. I partecipanti si scelgono sulla base delle esigenze di ricerca, secondo criteri di
omogeneità piuttosto che di eterogeneità o rappresentatività. Molto utile effettuare contemporaneamente FG
omogenei e FG misti. I risultati sono sempre molto illuminanti, emergendo dalla comparazione fra gruppi
diversamente costruiti. un’altra strategia efficiente è quella di costruire dei gruppi basati su una specie di
squadra tipo. In genere gli effetti di effettuare non sono mai dati da un numero più piccolo di te, infine
scegliere dei posti neutrali per lo svolgimento degli FG. Da un po' di tempo a questa parte in persona
avvenuti gli FG ovvero gli effetti telefonici o su internet.
Il moderatore e l’osservatore
Il compito primario del moderatore è quello di mantenere la discussione in tema, rispettare i tempi, gestire
l’interpretazione tra i partecipanti, in modo che tutti si possono sentire a proprio agio ed esprimere
liberamente le proprie opinioni. Per far questo il moderatore deve possedere certe caratteristiche: capacità
comunicative, conoscenza delle dinamiche di gruppo, esperienza, sensibilità, autorevolezza è un aspetto
adeguato. Egli ha il compito di agevolare il cosiddetto warm-up, cioè la fase di riscaldamento che avviene
per intrattenere gli ospiti al loro arrivo e spiegare il senso della riunione. Una volta iniziato il FG, e egli
cercherà di usare un linguaggio comprensibile e di rivolgersi a tutti i partecipanti in modo da coinvolgerli
sempre la discussione. Inoltre dovrà limitare le pretese o l’impedenza del leader della discussione. Il
moderatore dovrà cercare di ottenere tutte le informazioni di cui ha bisogno, lo stile di quest’ultimo, infine,
può essere più o meno direttivo. Al contrario il compito dell’osservatore è fondamentale in quanto, dovrà
stare attento ai contenuti e a come essi emergono nel corso della discussione. I suoi appunti dovranno
concentrarsi in: 1) dati che riguardano l’interazione non verbale; 2) dati relazionali, che riguardano chi ha
parlato con chi; 3) riflessioni diretta in che potranno essere usate nelle successive fasi di analisi dei dati.
Compito dell'osservatore e anche quello di risolvere i piccoli problemi tecnici che si possono verificare
durante lo svolgimento del FG.
Gli strumenti di rilevazione
Lo strumento che viene impiegato per la raccolta di dati e la cosiddetta traccia o guida di intervista. Le
domande che vengono fatte esplicitamente all’interno della traccia di intervista sono pochissime, e non
hanno un ordine ben preciso, inoltre chi svolge questo compito è il moderatore. Secondo Krueger, Migliorini
e Rania, si possono distinguere cinque tipi di domande:

• domande d’apertura, che permettono la creazione del gruppo;


• domande di introduzione, che portano i partecipanti a riflettere sul l’oggetto della discussione;
• domande di transizione, che servono a passare da un tema all'altro;
• domande chiave, che si riferiscono ai temi centrali del FG, e richiedono maggiore attenzione;
• domande finali, che portano alla chiusura della discussione, e permettono i partecipanti di riflettere
su ciò che è stato detto.
Un altro strumento fondamentale di rilevazione, è il foglio delle annotazioni di cui si occupa l’osservatore,
Inoltre provvederà anche a registrare, il video oppure solo in audio la seduta. Il foglio delle annotazioni può
essere strutturato in diversi modi: tramite il libretto, rilegato ad anelli, in cui ciascuna pagina corrispondono a
domanda a una specifica area di analisi. Sulla pagina iniziale di ogni libretto andranno specificate la data e
ora del FG, il numero dei partecipanti, e le loro caratteristiche il nome del moderatore e dell'osservatore. Una
sigla o un’etichetta contraddistingueranno i partecipanti, e andrà riportata in ogni foglio. Le pagine, poi,
potranno essere loro volta suddivisi in quadranti: 1) le divise porzioni emerse nel corso del sig. Accanto a
ogni porzione, un cerchietto, che sarà vuoto se essa avrà riscosso pochi concessi o pieno se invece ne avrà
riscossi molti o l’unanimità. Una parte importante del foglio delle annotazioni è quella che riguarda il
comportamento non verbale e l’interazione fra i partecipanti, il tono del dibattito, e le prime impressioni e
interpretazione poste ai margini del foglio. Una volta in possesso della registrazione delle leggi e del relativo
foglio delle annotazioni, il ricercatore ai suoi collaboratori devono trascrivere il tutto su carta su computer. Il
semplice sbobinamento di un altro. una volta in possesso della registrazione delle zie del relativo foglio delle
annotazioni, il ricercatore ai suoi collaboratori devono trascrivere il tutto su carta su computer. Il semplice
sbobinamento d’un nastro infatti, può non essere sufficiente.
Le fasi di un focus group e tipi ideali di partecipanti
Secondo Gordon e Langmaid, un FG si sviluppa attraverso alcune fasi tipiche: la formazione del gruppo, la
rottura dell’equilibrio iniziale, l’emergenza di regole di conversazione, la definizione dei ruoli, il commiato
finale. In ciascuna di queste fasi, l’interazione assume diverse. Uno degli effetti più appariscenti del
l’interazione di gruppo so determina nella fase che abbiamo chiamato di performing. È in questa, infatti, che
vediamo emergere le maschere sociali. Il leader strumentale fa uso della propria conoscenza e competenza, e
il leader espressivo che fa uso della forza, del carisma e dell’autorità. Poi vi sdono due figure d’intolleranti: il
critico (colui che esprime il proprio dissenso motivando costruttivamente) e il negativo (colui che esprime
sempre dissenso, a prescindere). Vi è il joker (il buffone); colui che divagazioni; il timido, che non partecipa
alla discussione per paura o disagio e l’entusiasta. Infine vi è l’apatico, caratterizzato da atteggiamenti
d’indifferenza, in sensibilità, indolenza, ecc.
L’analisi dei dati
Esistono almeno due momenti diversi in cui l’analisi dei dati può essere effettuata, e cioè 1) immediatamente
dopo la conduzione del FG; 2) oppure alla fine di tutte le rilevazioni. Primo caso “sviluppare e integrare le
note prese durante la discussione, trascrivere la registrazione, leggete le trascrizioni, vedere l'eventuale
videoregistratore per annotare il comportamento non verbale. L'impressione le interpretazioni vengono
formulate dal tipo di moderatori/osservatorio durante il focus. Secondo caso, invece, si ha l’analisi dei dati
vera e propria, che ha il compito di suggerire i risultati più rilevanti, o comunque complessivi, della ricerca.
Le tecniche di analisi dei adeguate al FG sono fondamentalmente quattro:

• L’analisi del contenuto


• L’analisi qualitativa computer
• L'analisi del discorso e della interazione faccia-a-faccia
• La social network analysis, che è fondamentale per studiare le dinamiche di un gruppo del FG.
Gli elementi sui quali si dovrebbe concentrare l’attenzione del ricercatore nel processo di analisi dei dati:

• L’identificazione dei principali temi trattati;


• La misurazione dell’intensità è della frequenza delle opinioni emerse;
• L’identificazione di consensi e dissensi, rispetto a un certo tema;
• Il flusso delle opinioni espresse nel corso del FG.
Per Krueger, l’analisi dei FG deve risultare sistematicamente e controllabile. Sistematica e controllabile.
Sistematica ovvero il ricercatore deve seguire un protocollo rigoroso d’indagine. Controllabile, invece
l’analisi deve risultare replicabile. Gli aspetti peculiari del FG, come detto più volte, sono costituiti dal suo
carattere di flusso e dalle dinamiche di gruppo. I dati di un FG, insomma, sono dati di gruppo, essi si
riflettono i concetti collettivi emersi, negoziati e condivisi nel corso del dibattito. Tali dati si differenziano
rispetto ad un’intervista individuale.
Il report finale
Il report finale viene ricercatore, scrivendo un report basato sulle sue impressioni generali riguardo ai focus
effettuati, facendo riferimento alle proprie note solo per mettere in evidenza alcune citazioni molto
importanti. Gli elementi dei risultati empirici stanno all’interno del report. Innanzitutto, è necessario che si
predisponga una tabella delle abbreviazioni utilizzate, contenente anche delle informazioni generali sui FG
effettuati, in cui dovrebbero essere indicati: il committente, i codici identificativi dei Focus dei componenti,
il luogo o i luoghi in cui si sono svolti, le date e i nomi dei conduttori. La presentazione vera e propria dei
risultati può indicare il peso di ogni tema o problema affrontato. dall’esame di questi pesi o frequenze il
ricercatore terrà una prima serie di indicazioni. In un momento successivo, verranno associati temi emersi,
organizzati in codice, i frammenti di testo che l'analista avrà reputato più significativi. Il modo standard e di
procedere nella presentazione dei risultati è il seguente: si sviluppa un’ argomentazione, e a su sostegno ed
illustrazione viene riportato un brano di intervista. Il FG una tecnica pensata soprattutto per studiare le
dinamiche di gruppo. Tenendo presente questo elemento, possiamo passare ad esaminare i riflessi sul piano
operativo è il trattamento dei dati processuali. Un approccio può essere quello di seguire lo svolgimento del
dibattito Prendendo come riferimento un certo tema ho i partecipanti uno per volta, e sottolineare i passaggi
salienti in ordine cronologico. La maggior parte DEI CAQDAS non consente di applicare questo schema.
Una delle strategie migliori consiste nello scegliere alcuni soggetti o temi particolarmente significativi,
concentrando su di essi l'attenzione. L'ultima parte del report di ricerca può essere dedicato alle eventuali
comparazioni fra situazioni, ambiti, eri geografiche diverse. Per far ciò, si può ricorrere a delle
rappresentazioni grafiche.
Etnografia e osservazione
L’osservazione è una delle tecniche di raccolta dei dati più antiche delle scienze sociali, allo scopo di
conoscere e classificare usi e costumi dei popoli lontani e sconosciuti, grazie a importanti riflessioni sulla
validità e l’attendibilità nell'ambito della cosiddetta ricerca qualitativa.
6.1
I diversi tipi di osservazione possono essere classificati facendo riferimento ad alcune dimensioni quali: la
partecipazione o meno del ricercatore; l’intrusività degli strumenti di rilevazione; il grado di strutturazione;
è, infine, la prospettiva adottata dal ricercatore. Si può parlare così di:
- Osservazione partecipante e non partecipante, a seconda che ricercatore si mischiano di
nascosto oppure no tra le persone nelle situazioni da studiare. L’osservazione partecipante
può essere scoperto nascosta, a seconda che ricercatori dichiari o meno la sua identità e i
suoi motivi per cui si trova in una certa cultura o ambiente sociale;
- intrusività alto bassa, a seconda degli strumenti di osservazione siano scoperti o nascosti;
- di osservazione strutturata o non strutturata a seconda che il ricercatore si attenga a uno
schema prestabilito, oppure, si lasci guidare da persone, circostanze ed eventi che di volta in
volta si presentano alla sua attenzione;
- prospettiva del marziano sei ricercatore cerca di guardare i soggetti di studio col distacco
che avrebbe un ipotetico marziano, oppure, la prospettiva del convertito, cioè ricercatore si
lascia conquistare dalle persone dai contesti che osserva, diventando a tutti gli effetti un
nativo. Col termine la nativo si intendono le persone che appartengono ai contesti studiati.
Le tecniche osservative sono nati con gli studi antropologici, gli studi di comunità e dei
piccoli contesti sociali, gli studi delle sottoculture, gli studi organizzativi, gli studi di realtà
clandestine e occulte, gli studi dell’interazione sociale. Qualsiasi studio di natura esplorativa
giovani tecniche etnografiche. La scelta dell’oggetto di studio può muovere essenzialmente
da una domanda conoscitiva da ricercatore o dall’oggetto studiato.
Rispetto ruolo osservativo vanno considerati i vantaggi e svantaggi. Le prospettive teoriche dominanti in
campo etnografico sono due: grounded theory sostiene che la teoria sociologica del Benessere sempre dei
dati empirici ricavati dall’immersione nel contesto sociale, sulla base dell’ induzione. La teoria viene
costruita nel corso dell’indagine continuamente rivisitata nel corso della ricerca. L’ etnometodologia invece,
si fonda sull’idea che le attività quotidiane delle persone sono paragonabili a. A delle metodologie, che
vengono denominate etnometodi, attraverso i quali gli individui sono in grado di dare costantemente senso in
modo pratico al mondo sociale nello svolgimento della loro vita quotidiana.
6.2
L'osservazione non è solo guardare, “è anche ascoltare, toccare, odorare, gustare, è aprirsi un’esperienza che
coinvolge non solo l’occhio del ricercatore ma tutto il suo corpo , tutta la sua persona”. L’Osservatore non è
più la stessa persona dopo un’esperienza osservativa. Egli avrà imparato nuove cose e, nei casi più estremi,
sarà stato sottoposto a un vero e proprio processo di risocializzazione. L’attività osservativa è considerata dai
seguenti aspetti: - il contesto storico, che riguarda il passato del contesto da studiare, gli eventi che lo hanno
fatto diventare come adesso è ecc;
-il contesto fisico, cioè la caratteristica dei luoghi in cui l'interazione sociale si svolge;
-Il contesto sociale, cioè il modo in cui è organizzata la società da studiare, in termini di differenze;
-interazioni formali ed informali, cioè i modi di stare assieme delle persone in pubblico e in privato;
-le interpretazioni orali e scritte dei nativi, cioè le spiegazioni del mondo che li circonda da parte dei soggetti
studiati. Queste interpretazioni possono essere date dal ricercatore oralmente oppure scritte attraverso testi e
documenti;
-le produzioni materiali e simboliche, che riguardano so che le persone fanno assieme oggetti di lavoro modi
di decidere, riti di iniziazione, gerghi sottoculturali ecc.
6.3
Lo strumento fondamentale di cui si avvale l’osservatore il diario che può essere cartaceo o digitale. Qui
vengono riportati gli appunti di viaggio, che devono contenere alcuni elementi essenziali:
- descrizione di ciò che ricercatore ha visto e sentito. Esse devono essere il più dettagliate
possibile, in modo da consentire al ricercatore di poter rivivere le proprie esperienze;
- le note sulla relazione osservativa, cioè sul modo in cui il rapporto con la popolazione
studiata si è svolto;
- le interpretazioni del ricercatore, che possono essere di due tipi: 1) le interpretazioni
emotive che riguardano il modo in cui ricercatore elaborato le sue impressioni, reazioni ed
esperienza attraverso le proprie emozioni. 2) le interpretazioni teoriche che sono le più
importanti e anzi costituiscono la ragione di essere dell’attività osservativa, le quali
andranno a definire l’impatto teorico della ricerca;
- le verbalizzazioni dei lati dei documenti rilevanti al fine di produrre l'onere della prova
empirica.
Gli appunti andrebbero presi quotidianamente, per evitare di dimenticare dettagli importanti, e dovrebbero
ispirarsi ad almeno tre principi generali: la distinzione, che implica la netta separazione e riconoscibilità
grafica tra i vari elementi che compongono il diario, la concretezza di rivedere la realtà studiata, ma anche il
ricorso a un linguaggio il più possibile vicino all’esperienza quotidiana, è Larry ordinanza, per aumentare al
massimo il livello è il dettaglio dei resoconti non dando nulla per scontato. Al fine di rendere il più possibile
ispezionabile, bisogna non correggere le prime impressioni, ma aggiungere di volta in volta non mi spunti e
riflessioni, bisogna poi esplicitare il proprio punto di vista. L’analisi del materiale raccolto avviene in modo
analogo viene appunto definito etnografico. I concetti sensibilizzanti, sono quei concetti che guidano come
delle bussole, l’esplorazione del ricercatore. Fra gli scopi più tipici dell’ analisi etnografica via, anzitutto, la
costruzione di classificazione è idealtipi. Un aspetto peculiare dell’analisi da un lato, osservato da Cardano di
un’attività improntata alla creatività rigorosa, e dall’altro la scrittura diventa uno strumento di scoperta non
solo di non solo di mero rendiconto dell’attività svolta. L’analisi etnografica viene scoperta dagli antropologi
della scuola di Manchester che svilupparono approccio strumentale di reti di relazione, attingendo alla
matematica della teoria dei grafici e alla sociometria dei concerti in grado di misurare la proprietà strutturali
delle organizzazioni sociali. Da queste indagini emerse complessivamente la rilevanza sociologica. Uno
strumento Unico della ricerca etnografica cosiddetto backtalk. uno strumento attraverso il quale ricercatore
uno strumento attraverso il quale ricercatore ritorna insieme ai soggetti studiati sulle conclusioni del suo
lavoro, ricoprendo i vari frammenti di materiale raccolto.
6.4

• Tra i vari problemi dell’osservazione vi è il problema dell’accesso della realtà da studiare, nel caso
dell’osservazione partecipante di tipo scoperto. Questo problema Si risolve con il ricorso a mediatori
culturali o a informatori. Il mediatore culturale una persona che gode della fiducia della popolazione
in studio. È una persona che ha solidi legami con entrambe le culture protagoniste dell'incontro
etnografico, quella del ricercatore è quella dei suoi ospiti, e conosce quest'ultima con sufficiente
profondità. L’informatore, invece, è una sorta di testimone interlocutore privilegiato. egli può essere
istituzionale cioè incaricato dal gruppo o dalla cultura osservata, oppure non-istituzionale, cioè una
persona che si offre spontaneamente di collaborare con il ricercatore. il rischio degli informatori
situazionale è che filtri solo le informazioni che il gruppo la cultura osservata vogliono non far
passare. Il rischio degli informatori e non istituzionale e che non sia una persona adatta, o che si tratti
di un individuo marginale in cerca di protagonismo. L’osservazione nascosta, il problema principale
di natura etica, in quanto il lavoro dell’osservatore risulta inaccettabile, perché tende a manipolare la
percezione altro Bean del proprio sé, per trarre darò il massimo beneficio personale. In altre parole
non fa nulla di diverso da ciò che è in gran parte di noi fa quotidianamente, cioè costruirsi di
indossare una maschera per recitare la sua parte nella società. Altri aspetti dell’osservatore è quello
di tutelare al massimo l'anonimato dei soggetti studiati, curarsi che nessuno abbia subito danni né nel
corso della ricerca, né per effetto della pubblicizzazione dei risultati. Un ulteriore problema
dell’osservazione partecipante è quello del coinvolgimento emotivo cui è soggetto il ricercatore, con
i conseguenti rischi di obiettività che ne derivano. È questo il caso infatti, in cui rapporto tra soggetto
conoscente oggetto conosciuto raggiunto il massimo di problematicità, facendo emergere in modo
tangibile i propri problemi epistemologici della ricerca sociale. Il problema delle tecniche
osservative a che vedere con la generalizzabilità dei risultati. Rispetto a questo problema si
registrano cinque diverse posizioni: 1 Per Stake i casi studiati in ambito etnografico sono interessanti
di per sé, e pertanto non si può Non è una questione di generalizzabilità. Ci si può accontentare; 2
per Connolly, bisogna distinguere tra studi estensivi e studi intensivi, L’osservazione rientra nel
secondo caso che ha il compito di ricostruire in modo dettagliato i meccanismi che legano cause ed
effetti. Egli sottrai osservazione L’importante compito di spiegare attraverso meccanismi; 3 per altri
autori, ricerca etnografica produce forme meno nobili di indifferenza quali la costruzione di
casistiche ed inventari 4 per Guba e Lincoln, al concetto di generalizzabilità va sostituito quello di
trasferibilità che persegue la vocazione alla generalità, però non con strumenti logici, bensì con
strumenti retorici. La trasferibilità esprime la misura in cui gli asserti costruiti nel contesto di una
ricerca possono essere estesi ad altri contesti. Essere condizionata dal potere persuasivo degli
argomenti con cui si mostrano le somiglianze tra il contesto oggetto di studio e la generalità dei casi;
5 infine vi è lo studio del caso critico, per i quali la selezione dei casi da studiare non è affidata alla
teoria della probabilità, bensì alla teoria che si vuole sottoporre al controllo. I casi, insomma,
vengono scelti per il loro potere esplicativo nei confronti della teoria e non viceversa, con me viene
di norma.

L’inchiesta campionaria
L'inchiesta campionaria rappresenta, idealtipo della ricerca quantitativa. Essa giovedì potentissimi strumenti
statici in sede di analisi dei dati, ma presenta non pochi problemi epistemologici, teorici e metodologici
legati alla somministrazione del questionario.
7.1
L’inchiesta campionaria (survey) è una tecnica di rilevazione basata sul questionario, che fa ricorso a grandi
campioni di tipo probabilistico, si propone di spiegare fenomeni e problemi sociali e spese generali. La
spiegazione è inquadrata nell'ambito di teorie e/o ipotesi la controllare. L’inchiesta viene spesso confusa con
il sondaggio, dal quale viene differenziata per due ragioni: 1. Il survey respiro più ampio del sondaggio, sia
nel senso che si tratta di una strategia di ricerca più complessa e articolata, sia per l’ampiezza dei temi
toccati; 2. L’analisi è più sofisticata in quanto prevede l’Impiego di tecniche e di tecniche bivariate e
multivariate. Infine, il Survey si basa su un questionario, che in genere contiene molte domande; il
sondaggio, invece, può anche posarsi sono sola domanda.
7.2 inchiesta campionaria origina da un semplice assunto di base, quello per cui ad un uniformità di stimoli
corrisponde uniformità di reazioni. In altre parole, solo se uno stimolo È lo stesso per tutti gli intervistati
diventa possibile. le persone sottoposte a un questionario, Infatti interpretano in vario modo le domande che
gli vengono poste, dando luogo a numerose forme di distorsione della relazione tra intervistatore e
intervistato. Le più importanti sono: la desiderabilità sociale, l’acquiescenza, e le pseudo-opinioni. Tali
distorsioni sono determinata essenzialmente da 4 Fonti: 1) il contenuto più o meno comprensibile è/o
sensibile delle domande; 2) la struttura più o meno logico e ordinata del questionario; 3) il contesto più o
meno con sono in cui si svolge il colloquio (setting); 4) il comportamento più o meno corretto da parte
dell’intervistatore le sue caratteristiche di sfondo.
La desiderabilità è quel fenomeno per cui la persona intervistata finisce col dare l'intervistato delle risposte
che appaiono sul mento accettabili, ma alle quali non crede veramente. La desiderabilità sociale va prevenuta
per evitare di incorrere in dati falsati. A questo scopo, sono state elaborate delle scalette di desiderabilità che
permettono di Capire se, nel corso del colloquio, una persona indossato una particolare maschera sociale.
Tali funzionano chiedendo agli intervistati se mettono in atto comportamenti approvati, ma improbabili e
comportamenti disapprovati, ma molto diffusi. L’acquiescenza e la tendenza di certi individui a dichiararsi
d’accordo con le affermazioni contenute nelle domande, o rispondere sempre affermativamente. Una
particolare forma di acquiescenza e il response set, che consiste nel dare sempre la stessa risposta in una
batteria di domande, indipendentemente dal loro contenuto. A questo scopo, esistono delle scale bilanciate di
acquiescenza. Le pseudo opinioni, sono il risultato della mancanza di opinioni dell’ intervistato, il quale pur
di non mostrare la sua ignoranza si inventa una risposta sul momento. Sono stati elaborati 4 modelli di
spiegazione, tre matrici cognitivista ed uno di matrice linguistica.
1. Modello di Tourangeau e Rasinski sostiene che, nel rispondere, l'intervistato osserva una sequenza
fissa di passaggi per la comprensione della domanda; quindi il recupero delle informazioni utili a
fornire una risposta; ricorso a informazioni giudizi circa l'adeguatezza delle varie risposte, e infine
per l'Impiego di informazioni e giudizi per la selezione le modalità di risposta più adatta. Questa
strategia viene definito ottimizzate;
2. Il modello di Alain è Krosnick, sostiene che, accanto alle 7:00 zia ottimizzante l’intervistato può
adottare anche una strategia satisficing, che tiene conto del contesto del colloquio e dell’
intervistatore;
3. Il terzo modello cognitivista è detto campionamento delle credenze, gli intervistati e rispondono in
base alle prime considerazioni che gli vengono in mente;
4. Il quarto modello, riprende la logica conversazionale di Grice, sostiene che, se vengono violate le
quattro massime quantità, qualità, relazione e modalità il contesto dell’intervista e prende il
sopravvento sulla sincerità delle risposte.
7.3
Il questionario è lo strumento principale di raccolta dei dati nell’inchiesta campionaria. Esso è costituito,
essenzialmente, da un insieme di domande standardizzate, spesso dette item, che seguono uno schema fisso,
lo scopo di raccogliere dati individuali sono più argomenti di studio. Un colloquio formale seguito da una
formulazione l’ordine delle domande. Per poter costruire un questionario necessario tener conto di almeno
quattro presupposti
1 bisogna conoscere il fenomeno oggetto di studio, attraverso una ricognizione, riguardanti i temi indagati e
attraverso interviste o altre tecniche di ricerca qualitativa, che possono fungere da dati esplorativi;
2 è necessario operativizzare in modo valido e affidabile i concetti e le ipotesi di ricerca. La maggior parte
degli item di un questionario infatti, deriva direttamente dalla fase di operativizzazione. Allo scopo di
controllare la validità cioè il grado in cui un item o una scala misura misurano ciò che intendono misurare e
l’affidabilità cioè il grado di coerenza e replicabilità delle misure ottenute di un insieme di item, possono
essere impiegate varie tecniche;
-è necessaria, una certa esperienza per costruire un questionario;
-occorre, infine, conoscere bene le popolazioni di riferimento dell’indagine.
I questionari sono composti da tre parti principali: la pagina di presentazione (cover letter) che spiega quali
sono gli obiettivi dell’indagine, garantisce l’anonimato del rispondenti. È una sorta di contratto, in cui sono
definiti i costi e benefici della collaborazione tra intervistato ricercatore. Rappresenta uno degli elementi
chiave. Le istituzioni per la compilazione sono particolarmente importanti nel caso in cui il questionario sia
autosomministrato. Esse contengono tutte le regole che gli intervistati devono seguire per rispondere alle
varie domande possiamo distinguere tra: istituzioni generali; presentazioni delle varie sezioni; istituzioni
sulle domande; indicazioni di percorso, nel caso di domande filtro. Il corpo principale del questionario
comprende le domande vere e proprie. Vi sono molti tipi di domande su ciò che le persone sono, fanno,
pensano o ricordano. Tutti questi ingredienti vanno organizzati in una struttura che tenga conto
dell’attenzione, della memoria, della sensibilità, delle motivazioni e delle caratteristiche di sfondo degli
intervistati.
Il questionario deve essere una struttura logica e coerente, le domande devono essere adeguatamente
organizzate è collegata assieme Inoltre deve avere una lunghezza ragionevole. Per il layout del questionario
vi sono delle regole di base: 1 ogni questionario deve essere contrassegnato da un codice o/e da un numero
identificativo così da risultare rintracciabile; 2 ogni domanda deve essere numerata in modo progressivo; 3
gli spazi e lo stile grafico di domande e risposte devono essere ben distinti e leggibili, 4 nel caso delle
domande chiuse, vanno inseriti i codici o i valori che corrisponde a scuola modalità di risposta (code book)
in modo da facilitare il caricamento di dati della matrice casi per variabili. Alla fine del questionario vengono
messe, le domande socio-demografiche, che riguardano il genere, l'età il titolo di studio o la professione
dell'intervistato. I formati del questionario possono essere ad imbuto dal Generale al particolare, e ad imbuto
capovolto dal particolare al generale, a diamante, il formato X, il formato rettangolare e altri formati misti. il
ricercatore ha il compito di scegliere la forma che soddisfa i suoi scopi. Una regola generale della
costruzione di un questionario è quella di essere chiari nel linguaggio semplice nella struttura sia delle
domande sia dello strumento. Più specificatamente:

• Le domande devono usare un vocabolario semplice;


• La loro sintassi deve essere lineare, senza frasi subordinate senza doppie negazioni;
• Esse non devono mai contenere due domande in una, con rischio di confondere l'intervistato;
• Le domande devono essere concrete rispetto al tempo e gli eventi da ricordare;
• Non devono mai suggerire particolari risposte;
• Il numero di alternative di risposta deve essere molto limitato, a meno che non vengono impiegati
aiuti visivi, tipo cartoncini da consegnare agli intervistati al momento opportuno;
• Tutte le alternative di risposta devono apparire accettabili
• Le alternative di risposta devono essere esaustive, salvo diversa indicazione, esclusive.
Si può distinguere tra due tipi di domande quelle aperte sono utili quando il ricercatore pensa che sia meglio
lasciare gli intervistati liberi di esprimere un pensiero un’opinione. Questo tipo di domande richiede la una
codifica attraverso la contest analysis o l’analisi delle corrispondenze lessicali. Le domande a risposta chiusa,
sono di gran lunga più frequenti. Esse permettono, infatti un immediato trattamento statico esistono molti tipi
di domande chiuse: scelta fra categorie semanticamente autonome, Checklist, selezione tra categorie
ordinarie, un tipo particolare di scelta fra categorie ordinarie e il grado di accordo disaccordo rispetto ad
un’affermazione noto come domanda di stile Likert, l'ordinamento di preferenze, i differenziali semantici,
domande che implicano un conteggio una misurazione. Qui vengono riprese le tre condizioni della
classificazione ossia esaustività, mutua esclusività ed unicità del fundamentum divisonis delle categorie.
Prima di somministrare il questionario al campione prescelto, è necessario effettuare almeno un pretesto.
L’esito del pretesto può portare il ricercatore: 1 a rivedere l’ordine delle domande; 2 cancellare le domande
che risultano troppo scontate; 3 riformulare o cancellare domande che producono troppi non so, non ricordo,
non voglio rispondere, oppure osservazioni, distinguo, spiegazioni e critiche; 4 aggregare, specificare o
articolare meglio le alternative di risposta; 5 integrare aspetti mancanti; 6 Verificare i tempi della
somministrazione. Il pre-test può essere condotto in diversi modi: registrando le reazioni dei rispondenti
durante l’intervista, di intervistando o facendo commentare il questionario a rispondenti Ex Post, oppure
chiedendo il parere di una somministrazione di esperti.
I questionari finali si possono somministrare in diversi modi. Possiamo distinguere tra questionari
autosomministrati e etero somministrati. Un’altra distinzione il modo in cui vengono raccolti i dati: faccia a
faccia, per telefono, via posta o attraverso il computer. Ogni modalità presenta vantaggi e svantaggi in
termini di costi, rapidità, intrusività, garanzia di anonimato, tassi di rifiuto, quelli da delle risposte, modalità
di caricamento dei dati sul computer. Il ricercatore ha il compito di trovare il giusto compromesso tra costi e
benefici. L’uso di internet nell’inchiesta campionaria presente almeno quattro grandi vantaggi; 1 la
possibilità di raggiungere un enorme quantità di persone a costi relativamente bassi; 2 la possibilità di
minimizzare l’intrusività del ricercatore dei suoi strumenti; 3 possibilità di fare ricorso a stimoli
multimediali; 4 l’immediato caricamento dei dati. Al contrario i problemi possono essere la bassa qualità dei
campioni, l’adeguatezza ho l’area l’identità dei rispondenti, i contesti nei quali si svolge l’intervista e altro. I
questionari possono essere somministrati in circostanze singole attraverso uno studio trasversale oppure più
volte nel tempo attraverso lo studio longitudinale. Quelle longitudinali si suddividono in due tipi: Le
inchieste trasversali in replica te quando lo stesso questionario viene somministrato in più occasioni, per un
certo periodo, a campioni diversi, e i Panel, quando lo stesso questionario viene somministrato lo stesso
campione nel corso del tempo.
7.4
Una scala è un insieme coerente di item che servono a misurare un concetto più generale o un atteggiamento
non direttamente osservabile. il modo più semplice di costruire una scala è quello di sommare i punteggi
ottenuti da un individuo da ciascun item. Queste scale si dicono additive e sono abbastanza frequenti
dell’inchiesta campionaria. La scala additiva più famosa è quella di Likert. La costruzione si svolge in
quattro fasi che contraddistinguono la scala di Likert rispetto alle Scale stile Likert: 1 La definizione degli
item che si pensano adatti a misurare il concetto; 2 la somministrazione di vitalità attraverso il questionario;
3 il controllo di coerenza interna della scala, 4 il controllo di qualità e unidimensionalità. La fase cruciale
per stabilire se una scuola funziona o meno è il calcolo dell’alpha Cronbach. Esso misura la coerenza interna
della scala, appartiene a un’ampia gamma di misure di attendibilità. Le misure di attendibilità dicono al
ricercatore sull' individuo otterrebbe il medesimo punteggio complessivo, nel caso in cui la scala gli fosse
stata somministrata nuovamente. Un approccio diverso è quello di misurare l’attendibilità in termini di
coerenza interna. Con questo termine item di una scala varino nelle stessa direzione. Il controllo di coerenza
può essere effettuato, la cosiddetta tecnica split-half, che consiste nel dividere gli item della in due gruppi.
L’approccio più diffuso, nel caso delle scale Likert, consiste nel misurare la coerenza totale delle risposte ai
vari item, al fine di scoprire gli item meno correlati al punteggio complessivo. È quello che fa esattamente la
correlazione elemento scala. L’alpha Cronbach, che viene calcolato attraverso la seguente formula
In cui n è il degli item, r la loro correlazione media. L’alpha di Cronbach varia tra 0 e 1. Più grande alpha,
più la scala è coerente, e dunque attendibile. Alcuni autori hanno proposto un valore critico di alpha pari a o,
70 sopra il quale possiamo aver fiducia che la scala è attendibile. Altri hanno proposto un valore di soglia di
0,75, o il più rigido 0,80. Se alpha è < 0,70 la scala non è attendibile, bisogna eliminare gli item meno
correlati fino a quando il valore critico non viene superato ( >0,70). L’output di SPSS, il software più usato
per analisi statica fornisce A questo proposito diversi valori di alpha quell’ora vengono eliminati i vari item.
I ricercatori ovviamente toglierà dalla scala agli item, se rimossi, producono valori alpha più alti. Un valore
basso di alpha può avere un'altra spiegazione, se la struttura una struttura multidimensionale, e non
unidimensionale alpha sarà più. Per questo hai ragione viene effettuato sempre un controllo di
unidimensionalità della Scala. Se alpha è negativo vi è certamente qualche problema e non l'orientamento
delle categorie di risorse di alcuni item.
L’analisi dei dati
Il compito principale dell’analisi dei dati è quello di trovare delle strutture dotate di senso del materiale
raccolto, l’ausilio del computer e ricorso del software appositamente pesanti per l’analisi dei dati è diventato
pressoché inevitabile. L’analisi dei dati può essere effettuata rispetto a 4 oggetti principali: i casi, le variabili,
le relazioni e le parole
8.1
Le tecniche di analisi dei casi sono davvero molto poche il case study, l’analisi comparativa e la cluster
analysis. Lo studio di un caso esame dettagliato di un oggetto di un fenomeno, che viene considerato in
qualche modo esemplare. Tale esame può venire attraverso un approccio di tipo qualitativi attraverso un
approccio di tipo quantitativo. Lo scopo dell’indagine è di natura descrittiva. L’analisi comparativa metti a
confronto alcuni casi che posseggono delle caratteristiche comuni verificando le somiglianze e differenze. Si
può procedere sia con un approccio qualitativo siccome un approccio quantitativo.
Analisi dei gruppi Cluster analysis è una famiglia di tecnica e di analisi di tipo quantitativo. Al suo interno si
distinguono tecniche gerarchiche, tecniche iterative o delle partizioni ripetute, tecniche basate sulla densità
locale, e reti neurali. La cluster analysis serve a classificare i casi della ricerca costruite le tipologie,
quest'ultimo può riuscire a classificare l’audience di un programma televisivo, i consumatori di yogurt e così
via. Si tratta di una famiglia di tecnica molto interessanti, perché in grado di produrre dei risultati molto
robusti, non richiede la presenza di campioni probabilistici. La Cluster analysis Infatti classifica gli oggetti a
prescindere dal loro numerosità. Essa crea due gruppi che devono risultare molto omogenee allora interno è
molto eterogenei tra loro. Vengono riconosciuti facendo ricorso a tecniche computerizzata, scegliendo alcune
variabili che ricercatore ritiene possano essere discriminanti.
8.2
L’analisi delle variabili caratterizzi della ricerca quantitativa per antonomasia, ed implica l’uso della
statistica. Tre tipi di analisi delle variabili monovariata, bivariata e multivariate.
L’analisi monovariata si occupa delle variabili prese ad una ad una, è a scopi puramente descrittivi. Con
questo tipo di analisi si intende conoscere fondamentalmente la distribuzione di certi variabili fra i casi
studiati. La forma più semplice e la rappresentazione tabellare di una distribuzione. Essa individua le varie
modalità di risposta a una domanda. Per ciascuna, conta le frequenze con le quali Esse si presentano. Infine,
calcola le percentuali semplici e percentuali cumulate. Le modalità di risposta Poste a destra della tabella
sono: “No, mai”, “si, una volta”, “si, più di una volta”, “non so/non rispondo”. Per ognuna viene riportato
Nella colonna il valore assoluto. Nella colonna successiva, Vengono riportate le percentuali semplici, che si
calcolano dividendo le frequenze per il totale delle risposte moltiplicando tutto x 100. Le percentuali
cumulate, sono date dalla somma delle percentuali precedenti più quella di volta in volta considerata. Nell’
analisi monovariata vengono calcolate anche misure di tendenza centrale che indicano qual è il centro della
distribuzione, e misure di variabilità che servono a capire se, rispetto a questo centro, ci sono piccole o
grandi differenze nei dati raccolti. Sia le misure di tendenza centrale, sia le misure di variabilità cambiano a
seconda del tipo di variabile. La misura più nota di tendenza centrale è la media. Per calcolarla, basta fare la
somma di tutti i valori della distribuzione dividerla per il loro numero. La media, però, è una misura di
tendenza centrale che si può usare solo per le variabili cardinali. Una misura, che si può usare sempre e la
moda. La moda è semplicemente la modalità di risposta che ha la percentuale maggiore. La misura di
tendenza centrale e più usata, invece, è la deviazione standard, Essa mi permette di calcolare quanto questa
media è fedele o non è invece il risultato di poche persone che comprano molti oggetti e tante persone che
non ne comprano per nulla. La deviazione standard si può calcolare solo nel caso di variabili cardinali. La
misura, invece, che va bene per tutti i tipi di variabile è l’indice di eterogeneità. questo indice si calcola
togliendo a 1 la somma dei quadrati delle proporzioni con le quali si presenta ciascuna categoria di risposta.
(scrivere a mano es pag 133)
Più l’indice di eterogeneità è vicino a 0, (il suo valore minimo) , meno eterogenea è la sua distribuzione. Il
valore massimo, invece, dipende dal numero di categorie della variabile.
L’analisi bivariata si occupa delle variabili prese a due a due e, a scopi esplicativi, quest’ultima ci permette
di controllare delle ipotesi. Uno strumento di base per l’analisi bivariata e la tabella di contingenza, che
rappresenta la distribuzione congiunta di due variabili o il modo in cui una variabile si distribuisce nelle
diverse modalità o categorie di un’altra. Essa si adopera nel caso di variabili nominali ed ordinali. i dati sono
organizzati in righe e colonne. Ogni riga corrisponde a una modalità della prima variabile (dipendente) ,
mentre la colonna rappresenta una modalità della seconda variabile (indipendente). L’incrocio di una riga e
una colonna viene denominato cella. Ogni cella mostra il numero di casi che possiedono una certa
combinazione di attributi, corrispondente la riga e alla colonna di appartenenza. Di norma, Contiene anche
la somma dei valori di righe di ogni colonna. queste somme vengono denominate marginali. Se si sommano
tutti i marginali di riga e tutti i marginali di colonna, si ottiene il numero totale dei casi studiati. Il prodotto
del numero di righe per il numero delle colonne indica l’ordine della tabella. La tabella di contingenza è il
primo strumento che ricercatore consulta, quando è interessato a studiare la relazione tra due variabili. Per
stabilire se le variabili sono associate, però, vanno considerate le percentuali non le frequenze assolute. Vi
possono essere tre tipi di percentuale: di riga, di colonna e totali. La tabella di contingenza quadrate, cioè con
lo stesso numero di righe e di colonne sonore più facili da analizzare. Se le celle più numerose, si addensano
lungo una delle diagonali si può dire che è tra le due variabili considerate esiste un’associazione. Spesso,
invece, i valori all’interno della tabella risultano difficili da interpretare. Ciò accade per due ragioni: 1 le
categorie di una o entrambe le variabili sono molto e di numero diverso tabelle rettangolari; 2 le frequenze o
le percentuali osservate sono confuse, perché la relazione tra le due variabili non è lineare. Nel primo caso
potrebbe essere utile aggregare o dicotomizzare. Oltre ad analizzare la tabella di contingenza, è altrettanto
utile calcolare delle misure di significatività o di associazione bivariata come il x2 (chi-quadrato), che
riassumono in un solo valore la significatività ho la forza dell’associazione tra le variabili. La significatività è
legata la probabilità che la relazione è frutto del caso. Se queste probabilità (p) è pari a zero la significatività
è massima. la forza, ci dici in che misura varia la variabile dipendente, al variare della variabile indipendente
il chi quadrato è una misura di significatività, mentre la correlazione una misura della forza di
un’associazione. Nell’analisi bivariata dobbiamo tener conto di tipi di variabile che se mi incrociando. A
seconda dei tipi di variabile incrociati, infatti, daremo un nome diverso alla relazione (associazione,
cograduazione, ccorrelazione).
L’analisi multivariata considera più di due variabili contemporaneamente, e può avere sia scopi descrittivi,
sia esplicativi, esplorativi e confermativi.
8.3
L’analisi delle relazioni affidata alla network analysis o reti di analisi. L’analisi di rete si basa su una matrice
di adiacenza o sottomatrice. in questo caso, i valori riportati all’interno di ogni cella rappresenta il numero di
volte in cui un caso, un attore, o un più generico nodo della rete, hanno un qualche relazione con un altro
elemento della stessa. Tali valori possono essere di natura dicotomia (presenza/ assenza di relazione) ,
ordinale, Cardinale (frequenza e intensità dei rapporti) , e possono riguardare relazioni interazioni di vario
tipo. Nel lessico dell'analisi di rete si parla di sociomatrice orientata o asimmetrica. Dalla sociomatrice
possono effettuare una serie di analisi per: 1 descrivere e rappresentare graficamente le caratteristiche la
struttura della rete, densità, inclusività, nodi isolati; 2 rintracciare i sottogruppi; 3individuare le posizioni di
centralità e il leadership degli attori (degree, closeness, between ess) ; 4 descrivere posizione ruoli sociali
(equivalenza strutturale, automorfica e regolare). Lo studio dell’organizzazione delle relazioni sociali, Si
colloca in uno snodo teorico.
8.4
Le parole veicolano significati anche molto complessi, dipendono dai contesti in cui si trovano, possono
risultare ambiguo. Possiamo provarle nelle domande a risposta aperta, delle trascrizioni di interviste e focus
group, in testi e documenti di varia natura. Le parole e frasi che ritroviamo nelle risposte a domanda aperta
vengono generalmente sottoposte a una post codifica per almeno due ragioni: 1 riassumere è chiarire il
significato delle risposte, 2 per consentire un successivo trattamento statico. La post codifica implica la
costruzione di categorie E etichette. Questa procedura per Santa alcune fantasie Il primo è costoso in termini
di tempo, ma lo svantaggio principale è che non garantisce una buona attendibilità. L’analyse des données
anche detta l’analisi della corrispondenza lessicali. L’ ACL ha 2 obiettivi: 1 cercare regolarità nei dati; 2
individuare poche dimensioni di senso che possono spiegare tali regolarità, attraverso tecniche di tipo
fattoriale. Per raggiungere questi due obiettivi i dati vengono organizzati in una matrice parole-pre-test. A
partire da questa tabella, il computer (SPAD, Alcester e T-Lab), è in grado di far girare L’ACL. Il risultato,
alla fine, è una sorta di codifica automatica delle risposte aperte. L’autobotte principale del ACL è uno
spazio fattoriale, che mostra l’orientamento semantico delle parole su semiassi opposti: sinistra/destra e
alto/basso. Le parole sono considerate significative se si trovano davanti dall’origine degli assi cioè o molto
a sinistra o molto a destra, o molte in basso, o molti in alto. Gli assi di significato sono pubblico vs privato e
istituzionale Vs relazionale. L’analisi delle parole contenute interviste e focus group può imboccare tre
direzioni principali quantitativa, qualitativa e computer assistita. Nel primo si procede ad una post codifica,
al fine di poter tabulare, il contrario, e rappresentare graficamente i dati. Ciò consente al ricercatore di
formulare le sue interpretazioni. Questa strada, implica almeno tre problemi la Poste codifica è onerosa,
molti dati interessanti vengono perduti oppure la procedura può garantire dati poco attendibili. Il vantaggio è
che alla fine del lavoro Il ricercatore può avvalersi di potenti strumenti statistici. La strada etnografico
narrativa, invece forte il ricercatore a identificare gli argomenti principali presenti nella trascrizione di
interviste e focus group. Egli sceglie le citazione brani che ritiene più significativi o i pezzi di materiale
empirico che mostrano degli elementi in comune. A questo punto, può essere predisposta una qualche forma
di codifica di orientamento del materiale selezionato. Tra queste forme vi è la costruzione di classificazioni o
tipologie. infine, ricercatore ha il compito di interpretare i risultati. Clifford geertz afferma che interpretare
un’arte che dipende dalle conoscenze, delle esperienze, delle sensibilità del ricercatore, un’arte che non può
essere insegnata se non andando a Bottega dai maestri e seguendo il loro esempio. lévi-strauss sostiene che
l’analisi debba andare di pari passo con la raccolta dei dati fino a raggiungere una sorta di saturazione
teorica. Nell’analisi qualitativa, si possono adottare diverse pratiche, paradigmi e discipline. Per le tecniche
principali e pericolose nell’analisi vanno segnalate le analisi del discorso l’analisi della conversazione.
Queste due tecniche si concentrano sullo studio delle strutture dei processi discorsivi. La strada computer
assistita consiste nell’analisi delle trascrizioni attraverso i cosiddetti CAQDAS che consentono triangolo di
triangolare approcci qualitativi approcci quantitativi, supportando il ricercatore nei vari passaggi dell’analisi.
Hanno un enorme vantaggio in quanto garantiscono ispezionabilità e la pubblicità non solo, dei discorsi di
analisi ma anche dei ragionamenti formulati dal ricercatore. L’analisi delle parole nei documenti viene
effettuata attraverso l’analisi del contenuto. Si tratta di una tecnica di analisi basata su procedure impersonali
di scomposizione dei testi in elementi più semplici , lo scopo di classificare in categorie di senso, di
calcolarne La presenza, la frequenza o la co-occorrenza, o di valutare i giudizi espressi dallo Toro e su
determinati oggetti del discorso, per stabilire in inferenze valide e replicabili sul produttore, in contesto e gli
effetti del massaggio. Questa definizione è stata all'interno di un dibattito sull' analisi del contenuto, ha avuto
una certa collocazione lungo l’asse di quantità e qualità che è passata da un approccio orientato al manifesto
ha un approccio inferenziale, fino a un approccio ermeneutico interpretativo. l’analisi del contesto Dunque
l’insieme di tecniche anche molto diverse tra loro. Sono negli ultimi anni si è cominciato a fare strada un
approccio di tipo quali-quantitativo. L’analisi quantitativa del contenuto può raccogliere i dati in due modi
tramite una scheda di codifica questionario che si somministra i testi da studiare, e in questo caso si parla di
analisi del contenuto come inchiesta, oppure tramite la trascrizione o scansione di testi interi che verranno
poi interrogati, in genere, attraverso il computer. Le tecniche di analisi del contenuto sono principalmente tra
l’analisi delle frequenze, l’analisi della co-occorrenze è l'analisi degli asserti valutativi. L'analisi delle
frequenze si è fatto contando le presenze occorrenze Nei testi studiati di parole, keywords, categorie o temi
di interesse. L’assunto di fondo è più una parola, una keyword o un tema che ricorre al testo, maggiore è la
loro importanza. Essa ha tre scopi fondamentali una rapida esplorazione del Corpus testuale; l'eventuale
affidamento delle categorie d'analisi ho delle parole chiave; la misurazione della attenzione prestata da una
certa Fonte nei confronti di un determinato oggetto di discorso. L'analisi della co-occorrenza serve a capire
se due parole vengono regolarmente associati all'interno dei testi esaminati. L’indice più diffuso è il
coefficiente del coseno che si calcola (scrivere formula a mano)
Dove f(x,y) è il numero delle volte in cui compaiono assieme alle due parole, il keyword o i temi; f(x) è il
numero complessivo delle volte in cui compare la parola y. Il coefficiente del coseno Varia tra 0 e 1. Se è 0
vuol dire che due elementi non sono mai associati, al contrario se è uno si trovano sempre assieme. Le
valutazioni positive o negative, forti e deboli. L’analisi del contenuto qualitativa è identica alla approccio
etnografico narrativo.
Gli sviluppi e le sfide più recenti
Le tendenze più recenti della disciplina possono essere sintetizzate in tre parole chiave: connettività,
diacronicità e Informatica. La connettività è la più importante tendenza della metodologia contemporanea è
quella che cerca di superare le grandi vie che caratterizzano la sociologia si dalle sue origini tra quali la
qualità e la quantità. il concetto di triangolazione e dato dalla connessione tra qualità e quantità, ovvero da un
mixed methods. La network analysis della simulazione ad agenti serve per l'opposizione micro e macro
spiegazioni sociali. il più importante approccio sociologico collegata a questo programma di ricerca e quello
della Sociologia analitica dei meccanismi sociali. Quest’ultimo è un approccio che intende trovare i micro
processi generativi che producono i macro fenomeni osservati cercando di esplicitare le condizioni di
contesto alle quali i meccanismi funzionano nel modo ipotizzato. In altre parole spiega una relazione diretta
macro macro sulla base dell’azione di processi casuali di tipo macro micro macro. L'idea di connessione
allude anche alla nuova possibilità di dialogo con altre discipline, qua in antropologia psicologia l'economia
eccetera dall'approccio di questi altri saperi, i quali offrono metafore, concetti, tecniche e strumenti molto
potenti per l'analisi della società. Infine la connessione è legata alle scienze della complessità, infatti, così
come inteso nell’ambito di queste nuove discipline. Della Sociologia classica un contributo decisivo è venuto
dal cosiddetto movimento degli indicatori. L'analisi diacronica rimane un lusso e un rompicapo oltre a che è
una necessità. Un lusso perché la ricerca di lana è molto costose spesso i risultati non arrivano a ripagare
impegno economico sostenuto. Un rompicapo, perché le indagini longitudinali sono moltiplicatore di
informazioni, significati, e problemi difficili da gestire tutti assieme i dati diacronici possono essere
oggettivi, vengono ottenuti consultando fonti secondarie di statico. Soggettivi possono essere ottenuti tramite
studi trasversali ripetuti effettuati su campioni diversi, studi longitudinali prospettici, effettuati sugli stessi
soggetti nel tempo e studi longitudinali retrospettivi, nei quali viene chiesto i soggetti studiati di ricordare
eventi passati o di ricostruire il proprio corso di vita. infine i dati artificiali, sono quelli prodotti attraverso la
simulazione al computer. Gli strumenti col corso del tempo vanno perfezionati all’interno della sociologia
mainstream, prescindendo dalla declinazione in forma di narrazione qualità piuttosto che di flusso quantità. Il
computer costituisce ormai uno degli strumenti indispensabili della ricerca sociale, è alla base di innovative
tecniche di indagine quali la social network analysis e la simulazione ad agenti. Una delle più recenti
applicazioni del computer alla ricerca sociale e l’integrazione tra fonti statiche secondaria e sistemi
informativi grafici, quelli che si usano ad esempio per i navigatori satellitari. Facebook o Twitter fammi
immaginare scenari di studi della socialità inediti e affascinanti ma anche potenzialmente gravi di nuovi
problemi legati soprattutto alla privacy degli individui allo sfruttamento commerciale di questi dati
DOMANDE DI METODOLOGIA (SECONDA PARTE)
1. Differenza tra ricerca qualitativa e ricerca quantitativa
2. Schema di Ricolfi
3. Validità, attendibilità, triangolazione
4. Tecnica delle k-medie
5. Analisi delle corrispondenze lessicali
6. Come analizzare le dinamiche di un focus group con l’analisi di rete
7. Sociomatrice e sociogramma
8. Densità di rete
9. Le misure di centralità e potere nell’analisi di rete
10. Trovare i sottogruppi nell’analisi di rete
RISPOSTE
1. L’etimologia del termine quantitativo fa riferimento al concetto di determinazione
numerica, l’analisi quantitativa mira a determinare in quale proporzione certi
elementi sono presenti in un oggetto di studio. Il termine qualitativo si riferisce a ciò
che concerne la qualità e rimanda al concetto di determinazione logica. L’analisi
qualitativa mira a determinare la natura di un certo oggetto di studio. Nella filosofia
delle origini la conoscenza qualitativa non mira all’individuazione di rapporti e
dipendenze alle quali mira la conoscenza scientifica, da qui nasce il pregiudizio
antiscientifico intorno al concetto di qualità.
Nella pratica è difficile riuscire a distinguere la qualità dalla quantità; possiamo
quindi considerare entrambe come due estremi di un intervallo all’interno del quale
è possibile collocare molteplici graduazioni intermedie.
La ricerca quantitativa, per Berg, riguarda il conteggio e la misurazione di oggetti.
Boudon sposta invece l’attenzione sulla comparabilità. È questa comparabilità che
permette di effettuare l’analisi quantitativa dei dati. (Per Ricolfi…)
Qualsiasi attributo che misuriamo con numeri sarà denominato variabile
quantitativa.
Per quanto riguarda la ricerca qualitativa cercare una definizione è problematico.
Per Berg essa riguarda i significati, i concetti, le caratteristiche, le metafore, i
simboli e le descrizioni di oggetti. Il ricercatore è interessato principalmente a come
gli esseri umani si organizzano e danno senso a se stessi e a ciò che li circonda. La
ricerca qualitativa offre degli strumenti per accedere a degli oggetti non
quantificabili che riguardano gli individui concreti che il ricercatore osserva. La
dicotomia qualità/quantità è solo una questione di misurazione: alle rispettive
categorie degli attributi verranno assegnate denominazioni e non numeri. Il dibattito
su qualità e quantità si è sviluppato su piani diversi:
• logico, con riferimento alle procedure di argomentazione di giustificazione del
sapere
• storico
• epistemologico
• metodologico
• tecnico
L’opposizione qualità/quantità si dimostra tutt’altro che definita, e rimane discutibile
l’idea diffusa di chi ritiene che l’adesione a l’uno o all’altro modo di conoscere la
realtà sociale rinvii necessariamente a modi diversi di intendere la realtà stessa,
negando che la questione metodologica fondamentale sia un problema di
adeguatezza e cioè dei metodi e degli strumenti giusti per conseguire un
determinato obbiettivo conoscitivo in merito ad una data realtà sociale.
2. VEDI FOTOCOPIA

3. La ricerca scientifica deve produrre conoscenze pubbliche e controllabili. Essa si


deve chiedere quanto siano accurate le rappresentazioni della realtà che ottiene, se
le conclusioni a cui è giunta siano applicabili a tutti i casi o solo a quelli studiati, e
quanto esse risultino stabili nel tempo o possano essere replicate da altri ricercatori,
a parità di condizioni. Tali controlli vengono effettuati ricorrendo ai criteri di validità e
attendibilità.
La validità fa riferimento al grado col quale una certa procedura di traduzione di un
concetto invariabile effettivamente rileva il concetto che si intende rilevare. Essa è
un giudizio circa il grado di rappresentazione semantica fra il mondo reale e le
risultanze empiriche della ricerca. Possiamo distinguere la validità interna che
riguarda la pertinenza delle spiegazioni date alla situazione oggetto di studio, e una
esterna, che riguarda la generalizzabilità delle spiegazioni date ad altre situazioni
analoghe.
L’attendibilità ha a che fare con la riproducibilità del risultato e segnala il grado con
il quale una certa procedura di traduzione di un concetto invariabile produci gli
stessi risultati, in prove ripetute con lo stesso strumento di rilevazione
nell’accezione consolidata derivante dalla psicometria, indica il grado di congruenza
fra due o più vettori colonna della matrice, che intendono rilevare la stessa proprietà
in condizioni differenti: tale differenza può riguardare lo strumento, il momento della
somministrazione, il giudice osservatore.
La triangolazione è un punto fermo nella riflessione sul metodo delle scienze sociali
e consiste nella proposta di studiare uno stesso oggetto attraverso prospettive
teoriche, metodi, ricercatori e dati diversi allo scopo di ottenere una convergenza di
massima dei risultati ottenuti e di rendere meno opaca possibile la complessa realtà
dei fatti sociali. Possiamo individuare tre tipi di triangolazione: un ricercatore che
usa due o più tecniche; due o più ricercatori che usano la stessa tecnica; due o più
ricercatori che usano due o più tecniche.

4. La tecnica che meglio risponde all’esigenza di raggruppare in tipi diversi i casi di


una matrice dati è la cluster-analysis che si basa sull’analisi delle relazioni di
somiglianza o differenza tra oggetti. Essa ha l’obiettivo di ordinare i casi in gruppi
(cluster), in modo tale che vi sia una forte omogeneità fra i membri di un stesso
gruppo e una forte eterogeneità tra i membri di gruppi diversi. Possiamo distinguere
quattro procedure di clustering:
Gerarchiche, delle partizioni ripetute ed iterative (k-medie), basate sulla densità
locale, o che impiegano reti neurali.
Tale procedura prevede che il ricercatore determini a priori il numero di cluster,
ciascun caso viene inizialmente assegnato ad un gruppo, a questo punto attraverso
una procedura iterativa gli oggetti vengono spostati da un gruppo all’altro, cercando
di minimizzare qualche misura di distanza dal centro del cluster (centroide), fino a
quando non verrà raggiunta la configurazione ottimale, che garantisce la minima
varianza intra gruppo e la massima varianza inter gruppo.

5. L’analisi delle corrispondenze lessicali è una tecnica di natura esplorativa che si


prefigge il compito di individuare le possibili dimensioni latenti che è meglio
descrivono i dati in analisi. La sua utilità nel campo dell’analisi testuali sta nel fatto
che essa consente di ottenere una prima sintesi dell’informazione contenuta nei dati
senza dovere effettuare alcun intervento intermedio di codifica. Una parola è tanto
più significativa quanto più essa è specifica di determinati gruppi di persone. Il
presupposto fondamentale dell’analisi del contenuto classica è che le ricorrenze in
un testo di determinate parole o temi rivelino maggiore importanza attribuita dalla
fonte. È inoltre possibile associare un certo tipo di vocabolario a determinate
variabili della matrice che riguardano le caratteristiche sociografiche
dell’intervistato. L’ACL riguarda spesso l’analisi delle domande aperte, per tre
motivi:
- Da una rapida e sintetica rappresentazione dei contenuti
- Il vocabolario ridotto presente nelle risposte e la sua ripetitività si presta
maggiormente ad essere tipizzato in un approccio che si basa su ridondanza e
differenza
- Vi è la possibilità di associare dati testuali ad altre variabili contenute in
un’intervista o in un questionario.
Per effettuare un’ACL i testi vengono organizzati una matrice rettangolare
lemmiXtesti. Le parole corrispondono a un’ipotetica variabile “lessico”, mentre i testi
alle modalità di un ipotetica variabile “testo” (costituiti da risposte a domande
aperte).

6. 7. 8. 9. 10. Durante l’effettuazione di un focus group il moderatore dovrebbe essere


affiancato da almeno un’altra persona (assistente moderatore o osservatore) che lo
aiuti ad annotare le dinamiche e le informazioni principali che via via emergono dal
dibattito. Trattandosi di un compito che va svolto in tempo reale, esso richiede una
continua attenzione: è perciò utile che una persona si dedichi esclusivamente a
questa attività. Sono essenzialmente tre i tipi di dati da registrare: i legami, gli
attributi dei legami, gli attributi dei soggetti. Lo strumento più pratico per la raccolta
dei dati e la cosiddetta sociomatrice. I numeri all’interno di ogni cella rappresentano
il numero di volte in cui un partecipante ha rivolto la parola ad un altro. La presenza
di due numeri indica l’esistenza di relazioni biunivoche in cui si possono rintracciare
iniziatore e destinatario del messaggio.
Con l’ausilio di un reticolo è possibile studiare i profili interattivi di ogni partecipante
e la struttura globale delle interazioni (singoli nodi e rete intera). Prima di tutto
bisogna rappresentare graficamente le interazioni determinatesi durante il FG. Gli
individui sono rappresentati da punti e le relazioni tra questi da linee che li
uniscono. La rete viene costruita a partire dai dati della matrice di adiacenza e
deriva dall’applicazione di specifici algoritmi di mappatura delle distanze tra i nodi.
Le linee più spesse indicano legami più forti. Vi sono alcune statistiche di notevole
importanza ad esempio la densità. Essa ci dice quanto è interconnessa una rete
assumendo valori compresi tra 0 (nodi isolati) e 1. A partire dal sociogramma
dovrebbero risultare evidenti alcune caratteristiche essenziali del gruppo:
• La sua omogeneità ovvero la sua suddivisione in sottogruppi (clusters)
• La presenza di individui isolati, di strutture sensibili e l’esistenza di percorsi
più o meno privilegiati di trasmissione dell’informazione
• Le posizioni di centralità e leadership all’interno del gruppo (status
sociometrico)
• Le equivalenze o somiglianze strutturali fra i nodi
Per l’individuazione di sottogruppi sono importanti due criteri: top-down e bottom-
up. La leadership si misura tramite la centralità che dipende da tre indicatori: il
grado (out-degree e in-degree), la vicinanza e l’intermedietà (quanto gli altri
dipendono da un nodo).
METODOLOGIA DELLA RICERCA SOCIALE
CAPITOLO I
Le SCIENZE hanno a che fare con 3 LIVELLI:

PIANO EPISTEMOLOGICO: l’EPISTEMOLOGIA è una disciplina che si occupa della conoscenza scientifica
(come conosciamo?), nelle SCIENZE SOCIALI il problema da analizzare è l’identità tra soggetto conoscente e
oggetto conosciuto (sono della stessa natura).

PIANO TEORICO-INTERPRETATIVO: troviamo le TEORIE che ci fanno capire il funzionamento del MONDO
FISICO O SOCIALE. La TEORIA è: un insieme di proposizioni connesse che si pongono ad un livello di
astrazione e generalizzazione più elevato rispetto alla REALTA’ EMPIRICA. Queste PROPOSIZIONI derivano
dalle REGOLARITA’ EMPIRICHE (si presentano con regolarità) dove possiamo ottenere delle PREVISIONI
EMPIRICHE.
Un IPOTESI: è una proposizione che riguarda la relazione tra 2 concetti, è ad un livello di astrazione e
generalizzazione inferiore rispetto alla TEORIA, può essere controllata empiricamente (esperimenti) e ha un
campo di applicazione limitato.

PIANO TECNICO-METODOLOGICO: si cercano le PROVE EMPIRICHE che supportano le TEORIE o IPOTESI,


troviamo i concetti di METODO: azioni finalizzate al raggiungimento di un obiettivo conoscitivo – TECNICA:
procedura operativa contenuta all’interno del metodo – STRUMENTO: mezzo per raccogliere dati empirici
(es. questionario) - METODOLOGIA: studio dei metodi e delle tecniche per raggiungere l’obiettivo.

PARADIGMA (termine creato da Kuhn): è una GUIDA che orienta il lavoro dello scienziato. E’ una
PROSPETTIVA TEORICA condivisa da una comunità di scienziati, definisce la RILEVANZA dei fatti sociali,
fornisce le IPOTESI INTERPRETATIVE e orienta le TECNICHE della ricerca empirica. Prima o poi il paradigma
collasserà per far posto ad una NUOVA PROSPETTIVA (rivoluzionaria).
I PARADIGMI DI RICERCA SOCIALE: nelle scienze sociali ci sono 3 PARADIGMI: POSITIVISMO – NEO-POST
POSITIVISMO – COSTRUTTIVISMO. Ognuno contiene la QUESTIONE ONTOLOGICA (la realtà esiste?) –
QUESTIONE EPISTEMOLOGICA (se esiste, è possibile conoscerla?) – QUESTIONE METODOLOGICA (se è
possibile conoscerla, come può avvenire?)

POSITIVISMO: dal punto di vista ONTOLOGICO: secondo i positivisti la realtà esiste ed è conoscibile
oggettivamente (realismo ingenuo) - dal punto di vista EPISTEMOLOGICO: si può conoscere la realtà in
modo oggettivo solo se SOGGETTO CONOSCENTE e OGGETTO CONOSCIUTO sono di natura diversa.
DURKHEIM diceva che bastava considerare i fatti sociali come cose e oggetti per conoscere la realtà in
modo oggettivo. – dal punto di vista METODOLOGICO: i positivisti pensano che la sociologia può adottare i
metodi delle SCIENZE ESATTE, basate su dati empirici e misurazioni.

NEO-POST POSITIVISMO: negli anni 30’ era un aggiornamento del POSITIVISMO, da gli anni 60’ una critica.
Dal punto di vista ONTOLOGICO: la realtà esiste, ma può indurci in errore, ciò è dovuto ai limiti dei nostri
sensi (REALISMO CRITICO) – Dal punto di vista EPISTEMOLOGICO: si può conoscere la realtà ma con
un margine di errore. La PERCEZIONE e la CONOSCENZA sono cariche di TEORIA (THEORY LADEN). Secondo
POPPER, gli scienziati devono progettare CONGETTURE FALSIFICABILI, in modo da poter essere dimostrate
false anche con lo sviluppo della CONOSCENZA che diventa provvisoria. L’Epistemologia neo-post positivista
non afferma più il DUALISMO tra SOGGETTO CONOSCENTE e OGGETTO CONOSCIUTO, che possono
interagire tra loro. --- Dal punto di vista METODOLOGICO: si parla di identità tra SCIENZE SOCIALI (si
affidano al LINGUAGGIO DELLE VARIABILI, pezzi di conoscenza che compongono un mosaico di conoscenza)
e SCIENZE ESATTE (cambiate con le scoperte di Heisenberg e Einstein es. leggi probabilistiche e non
deterministiche)
COSTRUTTIVISMO: dal punto di vista ONTOLOGICO: la realtà è una COSTRUZIONE SOCIALE, interpretazione
non assoluta condivisa da una comunità, da qui deriva il RELATIVISMO CULTURALE, che causa conflitto fra
gruppi sociali diversi. - dal punto di vista EPISTEMOLOGICO: soggetto conoscente e oggetto conosciuto
si abbracciano, il RICERCATORE deve perseguire l’AVALUTATIVITA’, limitandosi a chiarire il significato dei
valori e rinunciando all’ ETNOCENTRISMO, che può influenzare l’interpretazione della realtà.
Dal punto di vista METODOLOGICO: secondo WEBER le SCIENZE SOCIALI si devono concentrare sul
VERSTEHEN (comprensione razionale dell’agire individuale), spiegando perché si agisce in un modo, le
ragioni etc., il sociologo si concentra sugli IDEALTIPI che sono una semplificazione della realtà, visto che non
è conoscibile oggettivamente.

LA RICERCA SOCIALE NELLA POST MODERNITA’: Nelle ultime tendenze si è sviluppata una SVOLTA
LINGUISTICA che vede linguaggio e discorso come veicoli di senso della vita sociale, si sviluppa
nell’INTERAZIONISMO SIMBOLICO DI BLUMER, APPROCCIO DRAMMATURGICO DI GOFFMAN e
l’ETNOMETODOLOGIA DI GARFINKEL - a livello METODOLOGICO, nelle TECNICHE DI ANALISI DELLA
CONVERSAZIONE DI SACKS. Per quanto riguarda il linguaggio, lo STRUTTURALISMO di LEVI STRAUSS ricerca
le forme invarianti delle relazioni sociali e culturali, l’eredità strutturalista è stata raccolta dalla SOCIAL
NETWORK ANALYSIS, che sostiene che la rete e la posizione in cui è inserito l’attore sociale determinano il
suo modo di agire. – Il POSITIVISMO invece si è sviluppato in REALISMO, che ribadisce l’identità tra scienze
sociali ed esatte.

CAPITOLO II
TIPI DI RICERCA: la RICERCA può essere DESCRITTIVA: quando si ricercano le caratteristiche di un
FENOMENO per capire come si presenta - ESPLICATIVA: quando si individuano le cause che hanno prodotto
il FENOMENO, per capire perché si presenta in un modo. – ESPLORATIVA: quando il ricercatore cerca di
conoscere una realtà ignota affidandosi a un paradigma costruttivista e ad una ricerca QUALITATIVA. –
CONFERMATIVA: il ricercatore cerca delle PROVE per confermare delle IPOTESI, affidandosi al paradigma
neo e post-positivista e ad una ricerca QUANTITATIVA.

LE FASI DELLA RICERCA: DISEGNO DELLA RICERCA – COSTRUZIONE DELLA BASE EMPIRICA –
ORGANIZZAZIONE DEI DATI (FRAMING) – ANALISI DEI DATI – ESPOSIZIONE DEI RISULTATI
DISEGNO DELLA RICERCA: I motivi per iniziare una ricerca sociale possono essere diversi, problema in
ambito teorico o motivazione del ricercatore. In questa fase: si deve effettuare una RICOGNIZIONE
BIBLIOGRAFICA – scegliere il TIPO DI RICERCA (descrittiva, esplicativa etc.) – Analizzare i CONCETTI e le
IPOTESI a cui fa riferimento il ricercatore – stabilire su QUALI unità di analisi effettuare la ricerca (persone,
famiglie etc.) e su QUANTE unità effettuare la ricerca, tramite: CENSIMENTO: quando si considera tutta la
popolazione di riferimento – CAMPIONE: si seleziona una parte della popolazione che la rappresenta –
ANALISI COMPARATIVA: si sceglie un piccolo numero di unità di analisi per comparare le caratteristiche più
importanti – CASE STUDY: si concentra su una sola unità di analisi. Le UNITA’ DI ANALISI prenderanno il
nome di CASI.

COSTRUZIONE DELLA BASE EMPIRICA: si articola in 5 fasi: 1- OPERATIVIZZAZIONE DEI CONCETTI (passaggio
dai concetti alle variabili), riguarda lo stile di ricerca quantitativo che esprime il LINGUAGGIO DELLE
VARIABILI. OPERATIVIZZARE un concetto vuol dire trasformarlo in modo da farlo misurare, bisogna
individuare gli INDICATORI empirici che permettono di effettuare una definizione operativa del concetto.
ES. se scelgo di misurare la qualità della vita, uso come indicatori il reddito, buona salute etc.
La SCELTA DEGLI INDICATORI deve essere effettuata massimizzando il RAPPORTO D’INDICAZIONE, in modo
che la somma degli indicatori copre il significato del concetto, poi si individuano le modalità per rilevare gli
indicatori (alto, basso, medio) - la DEFINIZIONE OPERATIVA viene applicata ai casi concreti attraverso:
CLASSIFICAZIONE: associare oggetti a categorie, soddisfando i requisiti di ESCLUSIVITA’ (un oggetto deve
appartenere a una sola categoria) – UNICITA’ (le categorie derivano da un unico criterio di distinzione) –
ORDINAMENTO: sistemare gli oggetti in modo gerarchico – CONTEGGIO: esprimere una quantità reale in
termini numerici – MISURAZIONE: conteggio dell’applicazione di una misura.
Alla fine del processo di OPERATIVIZZAZIONE avremo una VARIABILE che può essere: NOMINALE (alla fine
di una classificazione) – ORDINALE (alla fine di un ordinamento) – CARDINALE (alla fine di un conteggio o
misurazione)
2- SCELTA DELLA TECNICA DI RILEVAZIONE: raccolta di fonti secondarie statistiche e testuali, esperimento,
osservazione, interviste, questionario. Si da importanza all’INTRUSIVITA’: se si è intrusivi la persona
potrebbe cambiare un atteggiamento con risultati poco obiettivi – le TECNICHE NON INTRUSIVE possono
dare problemi etici (bisogna nascondersi, spiare etc.)
3- COSTRUZIONE DELLO STRUMENTO DI RILEVAZIONE – VALIDAZIONE DELLO STRUMENTO TRAMITE UN
PRE-TEST – RILEVAZIONE DEI DATI

ORGANIZZAZIONE DEI DATI: Organizzare i dati vuol dire preparare i dati empirici in modo da rispondere alle
domande del ricercatore. Nel caso di DATI QUALITATIVI (fotografie, documenti), il FRAMING utilizzato è la
POST-CODIFICA del materiale: consiste nell’isolare i frammenti di materiale empirico attribuendo
un’etichetta di riconoscimento. Troviamo anche il CAQDAS: che consente attraverso il computer di
governare i dati aiutando il ricercatore nella codifica e nel recupero del materiale.
Nel caso dei dati QUANTITATIVI: il FRAMING è la MATRICE CASI PER VARIABILI, griglia dove troviamo i CASI
nelle RIGHE e le COLONNE nelle VARIABILI, i DATI vengono inseriti nelle CELLE.

4-ANALISI DEI DATI: può essere effettuata rispetto ai casi, variabili, relazioni, ci sono diverse tecniche di
analisi.

5-ESPOSIZIONE DEI RISULTATI: Si comunicano i risultati attraverso il REPORT: contiene una INTRODUZIONE
(illustra struttura e obiettivi) – STATO DELL’ARTE (letteratura scientifica sul fenomeno) – PRESENTAZIONE
DEI RISULTATI (contiene le prove empiriche in tabelle e grafici) – COMMENTI – CONCLUSIONI – NOTA
METODOLOGICA (spiegazione delle scelte e riferimenti bibliografici)

CAPITOLO III

IL CAMPIONAMENTO: selezione di unità di analisi chiamate CASI. Il CAMPIONE (n)deve rappresentare le


caratteristiche della popolazione (N), bisogna considerare anche l’ERRORE DI CAMPIONAMENTO.
Y= y’ +- E - Y è il DATO REALE – y’ è la STIMA CAMPIONARIA, E è l’errore di campionamento, scarto in
positivo o negativo da Y.
Ci sono 2 TECNICHE DI CAMPIONAMENTO: PROBABILISTICHE (tipiche della ricerca quantitativa) – NON
PROBABILISTICHE (tipiche della ricerca qualitativa).
CAMPIONAMENTO PROBABILISTICO: sviluppato da Neyman, rispetta il fatto che tutte le unità della
popolazione possono essere incluse nel campione. – Con l’INFERENZA STATISTICA ciò che possiamo dire del
campione probabilistico si può estendere all’intera popolazione – Solo in questo campionamento si può
stimare l’ERRORE DI CAMPIONAMENTO. Il PROBLEMA è che per calcolare il campione abbiamo bisogno del
SAMPLE FRAME (per calcolare un campione degli abitanti di Palermo, devo sapere quanti abitanti ci sono).
La DIMENSIONE del CAMPIONE PROBABILISTICO è dato dalla formula: z^2 pq N : E^2 (N-1) + z^2 pq -→ Z è
il LIVELLO DI FIDUCIA delle stime (fissato a 1,96 è una fiducia del 95%) – pq è la VARIANZA (variabilità delle
risposte, all’inizio è ignota 0.25) – N è la DIMENSIONE DELLA POPOLAZIONE – E è l’ERRORE DI
CAMPIONAMENTO (minore o uguale a 0,04, 4%). Questo è il CAMPIONE SEMPLICE, mentre il CAMPIONE
STRATIFICATO consiste nel suddividere N in base a variabili come il sesso. – CAMPIONE SISTEMATICO: le
persone sono selezionate a caso, una ogni K unità, dove K l’INTERVALLO DI CAMPIONAMENTO.

CAMPIONAMENTO NON PROBABILISTICO: fatto ad hoc, secondo un criterio scelto dal ricercatore per
ottenere una RAPPRESENTATIVITA’ TIPOLOGICA, che si raggiunge quando si hanno dei tipi ideali delle unità
di analisi, generando dei risultati TRASFERIBILI. I CAMPIONI NON PROBABILISTICI sono ETEROGENEI, il
problema più grande è non poter misurare l’ERRORE DI CAMPIONAMENTO. Ci sono 4 TIPI DI ERRORI NON
CAMPIONARI: ERRORI DI SELEZIONE: lista della popolazione incompleta – ERRORI DI MISURAZIONE:
questionari fatti male – NON RISPOSTE: persone non intervistabili – ERRORI DI PROCEDURA: errori di
inserimento dati.

CAPITOLO IV:

L’INTERVISTA: forma di conversazione tra 2 persone, INTERVISTATORE e INTERVISTATO che sviluppano una
interazione verbale per raggiungere un obiettivo. Rispetto al questionario, è più FLESSIBILE e c’è più
LIBERTA’ DI RISPOSTA.
TIPI DI INTERVISTA: in base all’ORGANIZZAZIONE DELLE DOMANDE: INTERVISTA STRUTTURATA (domande
standardizzate e risposte aperte) – INTERVISTA SEMI-STRUTTURATA: c’è una scaletta di temi da trattare
(TOPIC GUIDE) e non c’è uno schema fisso – INTERVISTA NON STRUTTURATA: è libera, si approfondisce un
tema
in base al RUOLO o STILE dell’INTERVISTATORE: INTERVISTA DIRETTIVA (guidata): l’intervistatore segue la
struttura delle domande ignorando le reazioni di chi risponde – INTERVISTA NON DIRETTIVA (libera):
l’intervistatore segue i ragionamenti dell’intervistato – INTERVISTA SEMI-DIRETTIVA: una parte va
somministrata a tutti, un’altra in base all’intervistato.
In base al NUMERO DEGLI INTERVISTATI: INTERVISTE INDIVIDUALI – DI GRUPPO (gruppi già esistenti o
costruiti dal ricercatore)

RAPPORTO TRA INTERVISTATORE E INTERVISTATO: si devono considerare le CARATTERISTICHE di


intervistatore e intervistato (età, cultura, aspetto) che influenzano i FATTORI PSICOLOGICI (percezioni
dell’intervistato, atteggiamento, aspettative di comportament).
Analizzando i FATTORI COMPORTAMENTALI, nell’INTERVISTATORE ci possono essere: ERRORI nel porre le
domande – ERRORI NEL PROBING (intervento di chiarimento e domande aggiuntive da parte
dell’intervistatore), ERRORI NEL MOTIVARE L’INTERVISTATO – ERRORI NEL REGISTRARE LE RISPOSTE –
ERRORI DI REAZIONE - nell’INTERVISTATO: RISCHIO DI RISPOSTE INADEGUATE

COMPORTAMENTO DELL’INTERVISTATORE: l’INTERVISTATORE deve: PRESENTARSI tramite una lettera o


telefono – scegliere lo STRUMENTO da utilizzare e l’ABBIGLIAMENTO giusto – ASSICURARE l’intervistato
sulla BREVITA’ e SCIENTIFICITA’ della ricerca – SPECIFICARE IL TEMA – GARANTIRE ANONIMATO - SAPER
ASCOLTARE – NON IMPORRE RISPOSTE perché si potrebbero ottenere PSEDUO-OPINIONI – FARE
ATTENZIONE AL PROBING che è necessario quando l’intervistato non ha capito la domanda o non prende
posizione, è un SEGNALE che qualcosa non ha funzionato nella comunicazione tra i 2 soggetti.

ANALISI DEI DATI DELL’INTERVISTA: ci sono 2 approcci: APPROCCIO ETNOGRAFICO o NARRATIVO:


raccontare il materiale raccolto tramite brani estratti dalle trascrizioni, i passaggi di testo vanno affiancati al
commento del ricercatore nel report finale.
APPROCCIO QUANTITATIVO: c’è una POST-CODIFICA delle TRASCRIZIONI in CATEGORIE DI CONCETTI che si
presentano in GRAFICI E TABELLE PERCENTUALI.

CAPITOLO V

FOCUS GROUP: INTERVISTA FOCALIZZATA DI GRUPPO, è una via di mezzo tra l’INTERVISTA e
l’OSSERVAZIONE, sviluppata da Merton e Lazarsfeld.
E’ una TECNICA che ricorre a procedure non standardizzate di rilevazione, basata su una DISCUSSIONE tra
un piccolo gruppo di PERSONE, è focalizzata su un argomento stabilito dal RICERCATORE, inoltre ci sono un
MODERATORE: deve gestire la discussione – OSSERVATORE: registra dall’esterno tutte le informazioni.

I FOCUS GROUP si possono APPLICARE in: RICERCHE DI MERCATO – RICERCHE ELETTORALI – VALUTAZIONI
DI ENTI – CULTURAL STUDIES – STUDI DI COMUNICAZIONE DI MASSA.
I VANTAGGI sono: ECONOMICITA’: perché costa meno di una rilevazione campionaria – RAPIDITA’ –
FLESSIBILITA’: la struttura e gli strumenti si possono cambiare facilmente – ALTA DENSITA DI
INFORMAZIONE: si considerano dinamiche di gruppo e comunicazione non verbale – ALTA TOLLERABILITA’
dei partecipanti, gratificati dall’esperienza del FG.

PIANIFICAZIONE, si devono scegliere: NUMERO E COMPOSIZIONE DEI PARTECIPANTI – LUOGO DI


SVOLGIMENTO – RECLUTARE LE PERSONE.
Un FOCUS GROUP è composto da 8 persone(min 4 max 12) – i FOCUS GROUP da effettuare devono essere
maggiori o uguali a 3, facendo riferimento al PRINCIPIO DELLA SATURAZIONE TEORICA, si continuano i FG
fino a quando non emergono spunti nuovi -- quando si invitano le persone, il tema deve essere solo
accennato (SCHERMATURA) perché le OPINIONI si devono formare nei DIBATTITI – le PERSONE non si
devono conoscere e devono essere scelte secondo CRITERI DI OMOGENEITA’ – si deve scegliere un POSTO
NEUTRALE

MODERATORE: deve agevolare il WARM-UP (riscaldamento), intrattiene gli ospiti, parla del senso della
riunione e delle regole, crea un buon clima – usa un LINGUAGGIO COMPRENSIBILE – FA PARLARE TUTTI uno
alla volta(evitando il giro) – LIMITA l’INVADENZA dei LEADER – fa una SINTESI DELLA DISCUSSIONE

OSSERVATORE: deve stare attento ai CONTENUTI e a come emergono – deve prendere DATI che riguardano
INTERAZIONE NON VERBALE – RELAZIONI E RIFLESSIONI

TIPI DI DOMANDE NEL FG: secondo Krueger ci sono 5 TIPI DI DOMANDE: DOMANDE DI APERTURA:
permettono la creazione del gruppo – D’INTRODUZIONE: fanno riflettere i partecipanti sul tema – DI
TRANSIZIONE: fanno passare da un tema all’altro – DOMANDE CHIAVE: riguardano i temi centrali – FINALI:
portano alla chiusura della discussione. Si devono EVITARE DOMANDE che prevedono una semplice
RISPOSTA AFFERMATIVA O NEGATIVA.
STRUMENTI DI RILEVAZIONE: MODERATORE: fa riferimento alla TRACCIA D’INTERVISTA (punti di
attenzione) – l’OSSERVATORE fa riferimento al FOGLIO DELLE ANNOTAZIONI.

FASI DI UN FOCUS GROUP: secondo Gordon e Langmaid, le FASI di FOCUS GROUP sono: FORMAZIONE DEL
GRUPPO (FORMING) – ROTTURA DELL’EQUILIBRIO INIZIALE (STORMING) – REGOLE DI CONVERSAZIONE
(NORMING) – DEFINIZIONE DEI RUOLI (PERFORMING) – COMMIATO FINALE (MOURNING)

TIPI IDEALI DI PARTECIPANTI: LEADER STRUMENTALE: usa la sua conoscenza e competenza – LEADER
ESPRESSIVO: usa carisma, forza – CRITICO: esprime il proprio dissenso motivandolo – NEGATIVO: esprime il
dissenso a prescindere – JOKER: divaga (buffone) – TIMIDO: persona poco disinvolta – ENTUSIASTA: ha un
atteggiamento celebrativo nei confronti dei comportamenti altrui – APATICO: è indifferente.

ANALISI DEI DATI DEL FG: ANALISI DEL CONTENUTO – CAQDAS – ANALISI DEL DISCORSO DELL’INTERAZIONE
FACCIA A FACCIA (CONVERSATION ANALYSIS) – SOCIAL NETWORK ANALYSIS: studia le dinamiche di gruppo
Grazie all’ANALISI DEI DATI si evidenziano: TEMI TRATTATI – FREQUENZA OPINIONI – CONSENSI E DISSENSI.
L’ANALISI deve essere SISTEMATICA (si segue un protocollo) e CONTROLLABILE.

CAPITOLO VI

TIPI DI OSSERVAZIONE: 1) in base alla PARTECIPAZIONE DEL RICERCATORE: PARTECIPANTE: il ricercatore si


mischia tra le persone da studiare e può essere SCOPERTA O NASCOSTA(non si rivela identità) – NON
PARTECIPANTE
2) in base all’INTRUSIVITA’ DEGLI STRUMENTI DI RILEVAZIONE: ALTA (strumenti scoperti) – BASSA
(strumenti nascosti)
3) in base al GRADO DI STRUTTURAZIONE: STRUTTURATA (il ricercatore segue uno schema) – NON
STRUTTURATA (si fa guidare dalle persone)
4) in base alla PROSPETTIVA ADOTTATA DAL RICERCATORE: del MARZIANO (guarda le cose con distacco) –
CONVERTITO (si lascia conquistare dalle persone e dalle cose che osserva, diventa un nativo, PERSONA che
appartiene ai CONTESTI studiati)

COSA E COME SI OSSERVA: L’ATTIVITA’ OSSERVATIVA deve considerare: CONTESTO STORICO: il passato del
contesto – CONTESTO FISICO: caratteristiche dei luoghi dove si svolge l’interazione sociale – CONTESTO
SOCIALE – INTERAZIONI FORMALI E INFORMALI: modi di stare assieme in pubblico o privato –
INTERPRETAZIONI ORALI E SCRITTE DEI NATIVI: spiegazioni del mondo da pare dei soggetti studiati –
PRODUZIONI MATERIALI E SIMBOLICHE: ciò che le persone fanno assieme (modi di decidere)

STRUMENTI E ANALISI DELL’OSSERVAZIONE: lo STRUMENTO fondamentale dell’OSSERVATORE è il DIARIO:


contiene DESCRIZIONI di ciò che si vede e sente – INTERPRETAZIONI emotive o teoriche – VERBALIZZAZIONI
DEI NATIVI.
Gli appunti vanno presi attraverso CRITERI di: DISTINZIONE (riconoscibilità grafica dei vari elementi) –
CONCRETEZZA (linguaggio concreto) – RIDONDANZA (resoconti dettagliati)
L’ANALISI DELL’OSSERVAZIONE: è simile a quella delle interviste o FG, si segue l’APPROCCIO ETNOGRAFICO.
Uno STRUMENTO unico della RICERCA ETNOGRAFICA è il BACKTALK: dove il RICERCATORE, insieme ai
SOGGETTI STUDIATI, analizza il suo lavoro e chiede ai NATIVI di confermare i suoi resoconti, il ricercatore
investigherà anche sulle ultime osservazioni o dubbi.

PROBLEMI DELL’OSSERVAZIONE: Il PROBLEMA più IMPORTANTE dell’OSSERVAZIONE PARTECIPANTE è


l’ACCESSO ALLA REALTA’ DA STUDIARE: i NATIVI possono rifiutare qualcuno che li vuole studiare, quindi si
ricorre a MEDIATORI CULTURALI o INFORMATORI.
Il MEDIATORE CULTURALE: è una persona che gode della fiducia della popolazione, il ricercatore può
affidarsi a lui per mediare con i nativi. – L’INFORMATORE: è ISTITUZIONALE: incaricato dal gruppo –
NON ISTITUZIONALE: offre la sua collaborazione al ricercatore, ma c’è il rischio che non sia adatto.
Un altro problema è il COINVOLGIMENTO EMOTIVO del RICERCATORE: nell’OSSERVAZIONE NASCOSTA il
problema è ETICO.
L’ultimo PROBLEMA è la GENERALIZZABILITA’ dei risultati, ci sono 5 POSIZIONI: secondo STAKE: i casi
studiati in ambito etnografico non hanno problemi di GENERALIZZABILITA’ – secondo CONNOLLY: si devono
distinguere STUDI ESTENSIVI e INTENSIVI(osservazione, deve ricostruire i meccanismi CAUSA-EFFETTO), si
sottrae all’osservazione la responsabilità della generalizzazione e assume il COMPITO di SPIEGAZIONE
ATTRAVERSO I MECCANISMI - per altri autori la RICERCA ETNOGRAFICA può ricondurre a casi usati per
studiare un CONTESTO SIMILE. - secondo GUBA E LINCOLN: il concetto di GENERALIZZABILITA’ va
sostituito da TRASFERIBILITA’ (asserti di un contesto sono estesi ad altri contesti)

CAPITOLO VII:

INCHIESTA CAMPIONARIA (survey): è l’IDEALITIPO DELLA RICERCA QUANTITATIVA, è una TECNICA DI


RILEVAZIONE basata sul QUESTIONARIO, fa ricorso a grandi CAMPIONI PROBABILISTICI e cerca di spiegare
FENOMENI E PROBLEMI SOCIALI. Rispetto al SONDAGGIO, è più ampia e articolata, ricorre a teorie e ipotesi
e si basa su più domande.
L’INCHIESTA CAMPIONARIA si basa sul fatto che: ad un numero di STIMOLI corrisponde un numero di
REAZIONI, se lo stimolo è lo stesso per tutti, è possibile ottenere le stesse reazioni da parte degli
intervistati.
Ci possono essere DISTORSIONI: determinate dal CONTENUTO e dalla STRUTTURA delle DOMANDE, dal
CONTESTO del COLLOQUIO e dal COMPORTAMENTO dell’INTERVISTATORE.
Le DISTORSIONI sono: DESIDERABILITA’ SOCIALE: l’intervistato fornisce risposte socialmente accettabili ma
a cui NON CREDE veramente - ACQUIESCENZA: dichiararsi d’accordo con le affermazioni o rispondere
sempre si (yeasaying), una forma di acquiescenza è il RESPONSE SET (si da la stessa tipologia di risposta in
una serie di domande) - PSEUDO-OPINIONI: risposte inventate per mancanza di opinioni
I MECCANISMI DI RISPOSTA AD UNA DOMANDA sono raccolti in 4 MODELLI DI SPIEGAZIONE, 3 di matrice
cognitivista e 1 di matrice linguistica: MODELLO DI TOURANGEAUE E RASINSKI: è una STRATEGIA
OTTIMIZZANTE, l’intervistato cerca di comprendere la domanda, recupera le INFORMAZIONI per fornire la
risposta e impiega GIUDIZI per scegliere la risposta adatta - MODELLO DI KRONISCK E ALWIN: è una
STRATEGIA SATISFICING, si accontentano le pretese dell’intervistatore - MODELLO DEL
CAMPIONAMENTO DELLE CREDENZE: sostiene che gli intervistati rispondono con le prime considerazioni
che hanno in mente, in seguito ai limiti cognitivi - MODELLO DELLA LOGICA CONVERSAZIONALE DI
GRICE: sostiene che se vengono violate le 4 MASSIME, QUANTITA’ (la comunicazione non deve essere né
troppo lacunosa né troppo ridondante) – della QUALITA’ (comunicazione sincera) – della RELAZIONE
(appropriata al CONTESTO) – della MODALITA’(chiara, breve), il CONTESTO dell’intervista scavalca la
SINCERITA’ delle RISPOSTE.

Il QUESTIONARIO: è costituito da domande standardizzate, chiamate ITEM, seguono uno SCHEMA FISSO.
Sono composti da: PAGINA DI PRESENTAZIONE (COVER LETTER) in cui si presenta la ricerca , si motiva
l’intervistato e si spiegano gli obiettivi, istruzioni, c’è il CORPO PRINCIPALE che comprende le domande vere
e proprie.
QUESTIONARIO A IMBUTO (dal generale al particolare) Le prime domande sono GENERICHE, per ottenere la
fiducia dell’intervistato – quelle dopo richiedono maggiore CONCENTRAZIONE– altre possono essere
IMBARAZZANTI– infine ci sono domande SOCIO-DEMOGRAFICHE. Ci sono anche il QUESTIONARIO A
IMBUTO CAPOVOLTO (dal particolare al generale), a diamante, a X, rettangolare.

FORMULAZIONE e TIPI DI DOMANDE: Le DOMANDE devono essere: SEMPLICI – avere una SINTASSI
LINEARE – non contenere 2 domande in 1 – essere CONCRETE – ALTERNATIVE DI RISPOSTA LIMITATE – NON
SUGGERIRE RISPOSTE – considerare tutte le risposte accettabili.
Ci sono 2 tipi di DOMANDE: APERTE: richiedono una post-codifica tramite la CONTENT ANALYSIS – CHIUSE:
sono frequenti, permettono l’analisi statistica. Tra le DOMANDE CHIUSE ci sono: SCELTA FRA CATEGORIE
SEMANTICAMENTE AUTONOME(Es. Qual è la sua religione?) – CHECKLIST: si possono segnare più risposte –
SCELTA FRA CATEGORIE ORDINATE (Es. Quante volte giochi a calcio? 1-2-mai) – STILE LIKERT: quando si
indica il grado di accordo/disaccordo, grado di importanza – ORDINAMENTO DI PREFERENZE PERSONALI: si
ordinano le risposte in base alla preferenza – DIFFERENZIALI SEMANTICI: si indica la soddisfazione –
DOMANDE CHE IMPLICANO UN CONTEGGIO O MISURAZIONE (es. quanti figli minorenni ha?)

PRE-TEST: si effettua prima di somministrare il QUESTIONARIO, per verificare se sarà compreso dagli
intervistati, senza produrre DISTORSIONI (BIAS), si rivolge a soggetti simili al campione. Il risultato del PRE-
TEST può portare il ricercatore a RIVEDERE LE DOMANDE, CANCELLARNE o AGGIUNGERNE. Il PRE-TEST non
deve essere MAI SALTATO.

SOMMINISTRAZIONE DEL QUESTIONARIO: i QUESTIONARI possono essere AUTO SOMMINISTRATI – ETERO


SOMMINISTRATI (si cura la formazione e si controllano gli intervistatori).
Può essere somministrato anche: FACCIA A FACCIA – PER TELEFONO – VIA POSTA – VIA INTERNET
(raggiunge un grande numero di persone, riduce l’intrusività, ma ci sono campioni di bassa qualità)
Si possono somministrare anche in base al TEMPO: UNA VOLTA (C’è uno STUDIO TRASVERSALE) – PIU’
VOLTE (c’è uno studio LONGITUDINALE) <<- lo studio LONGITUDINALE si divide in INCHIESTE TRASVERSALI
REPLICATE (questionario somministrato in più occasioni a campioni diversi) – PANEL (questionario
somministrato in più occasioni allo stesso campione)

SCALA LIKERT – ALPHA DI CRONBACH: una SCALA è un insieme coerente di ITEM, che misurare un
CONCETTO GENERALE o un ATTEGGIAMENTO non osservabile. Per COSTRUIRE UNA SCALA si sommano i
punteggi ottenuti da un individuo su ciascun item (SCALA ADDITIVA).
La SCALA ADDITIVA PIU’ FAMOSA è la SCALA DI LIKERT, si divide in 4 fasi: DEFINIZIONE DEGLI ITEM ADATTI
A MISURARE IL CONCETTO – SOMMINISTRAZIONE DEGLI ITEM TRAMITE IL QUESTIONARIO – CONTROLLO DI
COERENZA INTERNA DELLA SCALA (ITEM ANALYSIS) – CONTROLLO DI VALIDITA’ E UNIDIMENSIONALITA’
(quando si misura un solo concetto, per misurare l’UNIDIMENSIONALITA’ della scala si utilizza l’ANALISI
FATTORIALE.
ALPHA DI CRONBACH: consente di capire se una scala funziona, misura la COERENZA INTERNA della SCALA
e le MISURE DI ATTENDIBILITA’, che dicono se un individuo otterrebbe lo stesso punteggio, nel caso gli
venisse somministrata la scala nuovamente.
L’ALPHA DI CRONBACH si misura tramite la formula: n r : 1+ r (n-1) – N è il numero degli ITEM, R la loro
correlazione media – l’ALPHA DI CRONBACH varia tra 0 e 1, più è GRANDE più è COERENTE. Se è minore di
0,70 la scala va modificata, eliminando gli ITEM MENO CORRELATI. Il VALORE BASSO di ALPHA dipende da
una STRUTTURA MULTIDIMENSIONALE DELLA SCALA, quindi si deve effettuare un CONTROLLO DI
UNIDIMENSIONALITA’ attraverso ANALISI FATTORIALE.

CAPITOLO VIII

ANALISI DEI DATI: deve trovare STRUTTURE DOTATE DI SENSO all’interno del MATERIALE RACCOLTO.
L’ANALISI può essere effettuata rispetto a: CASI, VARIABILI, RELAZIONI, PAROLE.
ANALISI DEI CASI: si dividono in CASE STUDY: analizza un SINGOLO CASO ESEMPLARE in modo
DETTAGLIATO. Si può svolgere tramite APPROCCIO QUALITATIVO (etnografie, interviste, immagini) –
APPROCCIO QUANTITATIVO (statistiche, scale di valutazione). Lo SCOPO dell’indagine è DESCRITTIVO
ANALISI COMPARATIVA: si confrontano alcuni casi, evidenziando somiglianze o differenze, si effettua
tramite APPROCCIO QUALITATIVO E QUANTITATIVO.
CLUSTER ANALYSIS (ANALISI DEI GRUPPI): tecnica di analisi di tipo QUANTITATIVO, utile per classificare i
casi della ricerca e costruire tipologie, si distinguono all’interno TECNICHE GERARCHICHE (agglomerative o
divisive) – TECNICHE ITERATIVE o PARTIZIONI RIPETUTE (TECNICA DELLE K-MEDIE) – TECNICHE BASATE
SULLA DENSITA’ LOCALE e RETI NEUTRALI.

ANALISI DELLE VARIABILI: tipica della RICERCA QUANTITATIVA – utilizza la STATISTICA, si distingue in:
ANALISI MONOVARIATA: si occupa delle variabili singolarmente e ha SCOPI DESCRITTIVI. L’Obiettivo è
CONOSCERE LA DISTRIBUZIONE DI CERTE VARIABILI fra i casi studiati. La FORMA PIU SEMPLICE è la
RAPPRESENTAZIONE TABELLARE DI UNA DISTRIBUZIONE: dove si riportano FREQUENZA di una distribuzione
– PERCENTUALI SEMPLICI(frequenza/tot risposte) – PERCENTUALI CUMULATE (percentuale precedente +
percentuale considerata).
Nell’ ANALISI MONOVARIATA, si indicano: MISURE DI TENDENZA CENTRALE: indicano il centro della
distribuzione. Le misure di TENDENZA CENTRALE più note sono: MEDIA (da usare con VARIABILI CARDINALI)
MODA (modalità di risposta con percentuale maggiore) – DEVIAZIONE STANDARD (misura quanto sono
distanti i valori della distribuzione dalla media, si usa solo solo con VARIABILI CARDINALI – INDICE DI
ETEROGENEITA’: si calcola togliendo a 1 la somma dei quadrati delle proporzioni riferite a ciascuna
categoria di risposta, più l’indice di eterogeneità è vicino lo 0, meno eterogenea è la distribuzione. ---
MISURE DI VARIABILITA’: analizza se rispetto a questo centro ci sono piccole o grandi differenze

ANALISI BIVARIATA: si occupa delle variabili prese in coppia, ha SCOPI ESPLICATIVI. Lo STRUMENTO DI BASE
è la TABELLA DI CONTINGENZA: rappresenta la DISTRIBUZIONE CONGIUNTA DI 2 VARIABILI, ovvero il modo
in cui una variabili si distribuisce nelle categorie di un’altra. La TABELLA si usa solo con VARIABILI NOMINALI
o ORDINALI. --- Si deve misurare anche la SIGNIFICATIVITA’ con x2 (chi-quadrato), è legata alla probabilità
che la relazione osservata sia frutto del caso (se la probabilità è 0, la significatività è massima e la relazione
non è dovuta al caso) --- Si misura la FORZA DI UNA RELAZIONE: ci dice in che misura varia la variabile
dipendente al variare della variabile indipendente.

ANALISI MULTIVARIATA: si occupa di 2 o più variabili contemporaneamente, ha SCOPI DESCRITTIVI (scaling


multidimensionale) – SCOPI ESPLICATIVI (regressione lineare multipla) – SCOPI ESPLORATIVI (analisi
fattoriale) – SCOPI CONFERMATIVI (path analysis)
ANALISI DELLE PAROLE: si effettua tramite l’ANALISI DEL CONTENUTO, è una TECNICA basata su
PROCEDURE IMPERSONALI di SCOMPOSIZIONE DEI TESTI IN ELEMENTI PIU’ SEMPLICI (parole, keyword,
frasi) per classificarli in CATEGORIE DI SENSO e calcolare PRESENZA, FREQUENZA, CO-OCCORRENZA.
Questa analisi è passata da un approccio orientato al CONTENUTO MANIFESTO della comunicazione
(BERELSON) ad un approccio INFERENZIALE(dal particolare al più ampio), APPROCCIO ERMENEUTICO-
INTERPRETATIVO.
Ci sono 3 tecniche di ANALISI DEL CONTENUTO: ANALISI DELLE FREQUENZE: analizza le presenza
(occorrenza) delle parole, keyword, categorie all’interno dei testi. Più si ripete una parola maggiore è
l’importanza.
ANALISI DELLE CO-OCCORRENZE (CONTINGENZE): cerca di capire se 2 parole vengono associate
regolarmente all’interno di un testo. L’ASSOCIAZIONE si misura tramite il COEFFICIENTE DEL COSENO,
tramite la formula: f(x,y) : radice quadrata di f(x) x radice quadrata di f (y). -- f(x,y) è il numero di volte in
cui compaiono assieme le 2 parole – f(x) numero di volte in cui compare la parola x – f(y) numero di volte in
cui compare la parola y.
il COEFFICIENTE DEL COSENO varia tra 0 e 1: se è 0, vuol dire che gli elementi non sono mai associati, se è 1
si trovano sempre assieme.

ANALISI DEGLI ASSERTI VALUTATIVI: basata sulle frasi contenuti nei testi, cerca di capire come sono valutati
alcuni OGGETTI DEL DISCORSO da parte degli AUTORI. Le VALUTAZIONI sono POSITIVE o NEGATIVE, FORTI
O DEBOLI. C’è un PUNTEGGIO: -3(MOLTO NEGATIVO) - +3(MOLTO POSITIVO), si calcolano le varie medie dei
giudizi e si disegna un grafico.
ELEMENTI DI METODOLOGIA
CAPITOLO I: CONOSCENZA SCIENTIFICA E CONOSCENZA SOCIOLOGICA.
La conoscenza scientifica si può paragonare a un palazzo di 3 piani:

1. Piano epistemologico: qua ci dobbiamo sempre chiedere “come” conosciamo, infatti si occupa della
conoscenza. Questo piano è occupato da domande che riguardano l’esistenza della realtà e già di
questo tema se ne sono occupati filosofi e scienziati (es. Platone con il mito della caverna, Kant con
la distinzione di fenomeno e noumeno). Il problema delle scienze sociali riguarda l’identità tra
soggetto conoscente e oggetto conosciuto e si pone il problema che chi si conosce e ciò che viene
conosciuto sono la stessa cosa. Infine nelle scienze sociali gli oggetti di studio sono le persone.
2. Piano teorico interpretativo: qua ci si spiega come il mondo fisico o sociale funzioni. Cosa è una
teoria? Una teoria è un insieme di proposizioni organicamente connesse che si pongono ad un
elevato livello di astrazione e generalizzazione rispetto alla realtà empirica. Una teoria è fatta da
frasi e di affermazioni preposizioni che ci dicono qualcosa sul mondo che ci circonda. Queste frasi
per fare una teoria devono essere collegate in modo organico. Infine si appoggiano su fatti empirici
dove alla fine possiamo formulare delle previsioni.
Un’ipotesi è una proposizione che indica una relazione fra uno o più oggetti che si colloca ad un
pino inferiore rispetto alla teoria. Hanno un carattere meno astratto e proprio per questo possono
essere controllate empiricamente tramite esperimenti e hanno un campo di applicazione più
limitato. Le ipotesi possono articolarsi in schemi e sono: Ipotesi generali che hanno un’applicazione
più ampia ed Ipotesi specifiche che hanno un campo di applicazione più ristretto.
3. Tecnico metodologico: la scienza si occupa dei modi pratici attraverso i quali è possibile conoscere il
mondo, in questo piano bisogna trovare le prove delle teorie che vengono formulate nel piano
precedente. La scienza sociale però trova delle difficoltà: 1 nelle scienze sociali soggetto conoscente
e soggetto conosciuto non sono separati ma interagiscono e per questo è difficile essere ricercatori
obbiettivi, 2 le scienze sociali hanno a che fare con soggetti non osservabili o misurabili. All’interno
del piano metodologico avremmo a che fare con 4 concetti: a. il metodo che è una sequenza generale
di azioni con lo scopo di raggiungere un determinato obiettivo, b. la tecnica è una sequenza
dettagliata di operazioni che fanno raggiungere un risultato, c. lo strumento è il mezzo che consente
al ricercatore di raccogliere i dati empirici ( un questionario, una scheda) infine abbiamo, d. la
metodologia che è un ragionamento sul metodo, quindi consiste nello studio dei metodi delle
tecniche più appropriate per conoscere la realtà.

LA PROSPETTIVA DELLA SCIENZA: IL PARADIGMA.


Il paradigma è una prospettiva teorica condivisa da una comunità di scienziati che definisce
l’importanza dei fatti sociali. Inoltre suggerisce agli scienziati le cose di cui si dovrebbero occupare
quindi sulla rilevanza dei fatti sociali. Si occupa infine delle ipotesi interpretative e degli orientamenti
sulle tecniche, in quanto il paradigma opponendoci un punto di vista ben specifico ci porta ad
ipotizzare sul funzionamento del mondo sociale in quella determinata prospettiva. Essi non sono
eterni ma possono collassare lasciando il posto ad una nuova prospettiva. I paradigmi sono
rappresentati dalla risposta a 3 domande e sono: la questione ontologia (la realtà esiste?), la
questione epistemologica (se esiste è possibile conoscerla?), la questione metodologica (se è
possibile conoscerla, in che modo ciò può avvenire?). A queste tre domande corrispondono 3 gruppi
di risposte e sono il positivismo, il neo e il post positivismo, il costruttivismo o interpretativismo.
POSITIVISMO: dal punto di vista ontologico esso afferma che la realtà esiste ed è conoscibile
oggettivamente, ciò viene definito realismo ingenuo perché si affida alle capacità umane di
conoscere la realtà. Dal punto di vista epistemologico, per i positivisti oltre che è possibile conoscere
la realtà si può conoscere anche il modo oggettivo, ciò è possibile perché bisogna concepire soggetto
e oggetto come natura separata e diversa e quindi vedere i fatti sociali come oggetti. Dal punto di
vista metodologico il positivismo pensa che per la sociologia si può adottare il metodo delle scienze
esatte.
IL NEO E IL POST POSITIVISMO: per quanto riguarda la questione ontologica la realtà si scorge ma
non si rivela mai in modo obiettivo e per questo ci può tradire, dal punto di vista epistemologico si
afferma che la realtà e possibile riconoscerla ma con un certo margine di errore e non afferma il
dualismo tra soggetto conoscente e oggetto conosciuto in quanto posso interagire provocando dei
guasti, dal punto di vista metodologico si parla nuovamente dell’identità fra il metodo delle scienze
sociali e delle scienze esatte.
IL COSTRUTTIVISMO O IL INTERPRETATIVISMO: dal punto di vista ontologico la realtà non esiste in
modo oggettivo va interpretata e gli va dato un nome e quindi la realtà e una costruzione sociale, sul
piano epistemologico si ha un’unione tra soggetto conoscente e oggetto conosciuto, quindi
l’influenza tra questi due elementi viene accettata nel processo di conoscenza, dal punto di vista
metodologico bisogna trovare un nuovo metodo scientifico che tenga conto della specificità delle
scienze sociali superando l’approccio positivista. Per Weber bisogna utilizzare il metodo verstehen
cioè comprensione razionale delle motivazioni dell’agire. Il sociologo dovrà capire l’individuo non
nell’immedesimarsi in esso ma spiegando in modo razionale perché l’individuo ha agito in quel modo.
Inoltre dato che la realtà non è conoscibile oggettivamente il sociologo deve accontentarsi dei
modelli della realtà che gli fornisce definiti ideali e che non corrispondono esattamente alla realtà
ma costituiscono una semplificazione.

TENDENZE PIU’ RECENTI dove si ha il rifiuto delle teorie generali, il rifiuto della razionalità e della
linearità, l’esaltazione delle differenze e dell’altro, il mondo della vita quotidiana, le teorie qualitative
e la micro sociologia. Vengono usati nuovi approcci che sono la linguistic turn che hanno rivolto
l’attenzione al discorso alle sociologie interpretative e alla costruzione sociale della realtà.
SOCIOLOGIE INTERPRETATIVE: interazionismo simbolico cioè negazione del senso, approccio
drammaturgico (situazioni e maschere), etnometodologia che sono metodi per comprendere la
realtà e infine analisi della conversazione. Un altro studio è stato fatto dallo strutturalismo cioè
ragionare per categorie immutabili, la forma è il contenuto.
POST STRUTTURALISMO: distrugge ogni categoria immutabile.
REALISMO: si occupa dei meccanismi nascosti.

CAPITOLO 2 I PERCORSI DELLA RICERCA SOCIALE


La ricerca può essere descrittiva/esplicativa oppure esplorativa/confermativa.
• Ricerca descrittiva: Come si presenta un certo fenomeno? Serviranno per questo tipo di
ricerca dei dati che fotografano il fenomeno.
• Ricerca esplicativa: Perché un fenomeno si presenta in un certo modo? E in questo caso si
dovranno individuare le cause che hanno prodotto il fenomeno osservato
• Ricerca esplorativa: affronta il percorso di ricerca come un esploratore che cerca di
conoscere una realtà ignota e sarà una ricerca qualitativa
• Ricerca confermativa: il ricercatore parto da una serie di ipotesi e da qui deve trovare le
prove che confermano le ipotesi ed è di carattere quantitativo.

LE FASI DELLA RICERCA

La ricerca sociale usa uno schema dove la:

D. sta per Disegno della ricerca (è il momento della progettazione dell’indagine)

C. costruzione della base empirica.


O. Organizzazione dei dati.

A. analisi dei dati.

E. esposizione dei risultati.

Questo schema non è sempre lineare in quanto il ricercatore può tornare sempre sui suoi passi. Una ricerca
sociale può nascere da diversi motivi, si inizia sempre da un problema esistente in ambito teorico, dopo da
un’indicazione proveniente da colui che ordina la ricerca e infine può scaturire da una motivazione del
ricercatore. Iniziata una ricerca, la prima cosa da fare è una raccolta dei dati bibliografici oppure da
testimonianze delle persone. Successivamente il ricercatore decide che tipo di ricerca utilizzare. Ogni ricerca
viene condotta su precise unità di analisi che possono essere famiglie, gruppi ecc., inoltre dovrà scegliere
alcune caratteristiche su cui si baseranno le sue indagini ed infine dovrà scegliere su quante unità di analisi
dovrà effettuare la sua indagine.

La fase di costruzione della base empirica costituisce il momento più delicato di una ricerca, gli scienziati
sociali i dati li costruiscono e non li raccolgono perché essi non sono disponibili in natura. Essa si articola in 5
fasi:

1. Dai concetti alle variabili: si parte da un’ipotesi per finire ad un concetto generale, nel loro interno
vi è l’individuazione di un altro concetto generale con l’applicazione di varie proprietà. Si parla di
processo di operativizzazione il quale consiste nello scegliere il concetto completo da operativizzare,
costruzione della definizione operativa che stabilisce le regole per la traduzione del concetto,
applicazione di tali regole ai casi veri e propri quali sono: classificazione, ordinamento e conteggio.
Infine una variabile è una proprietà operativizzata.
2. Individuazione della tecnica di rilevazione
3. Definizione dello strumento di rilevazione
4. Validazione dello strumento di rilevazione
5. Rilevazione dei dati

Le variabili

Vi è una modalità di operativizzazione che comprende 3 tipi di variabili:

1. Nominali (categoriale): cioè classificazione di etichette


2. Cardinali: conteggio o misurazione di numeri o misure
3. Ordinali: ordinamento delle posizioni.

Stati della Procedura di Tipo di variabile Caratteristiche Operazioni


proprietà operativizzazione dei valori consentite
Discreti non Classificazione Nominale Etichette =≠
ordinabili (categoriale)
Discreti Ordinamento Ordinale Posizioni = ≠ ><
ordinabili
Discreti Conteggio Cardinale Numeri = ≠ >< + - x ÷
enumerabili
Continui Misurazione Cardinale Misure = ≠ >< + - x ÷
Le famiglie di tecniche di rilevazione: cioè tecniche che servono a raccogliere i dati empirici nella ricerca
sociale e sono: raccolta di fonti secondarie di tipo statistico; raccolta di fonti secondarie di tipo testuale;
esperimento; osservazione; intervista; questionario cioè inchiesta campionaria; data mining e big data;
simulazione al computer.

Una questione importante quando si prende in considerazione le tecniche di rilevazione è quella della loro
intrusività cioè problemi epistemologici, problemi etici ed estensione.

L’organizzazione dei dati: (framing) vuol dire trasformare i dati empirici raccolti in modo da dare delle
risposte alle domande conoscitive del ricercatore. L’organizzazione dei dati può essere fatta tramite la post-
codifica e tramite la matrice casi per variabili.

L’analisi dei dati: è il momento in cui dobbiamo trovare all’interno dei dati le risposte alle nostre domande
conoscitive (casi, variabili, relazioni, parole e testi).

L’esposizione dei risultati: è il momento finale della ricerca in cui si comunicano i risultati ai colleghi. È il
momento in cui si scrive il così detto report il quale contiene un’introduzione, lo stato dell’arte cioè una
sintesi della letteratura scientifica, presentazione dei risultati, commenti e conclusioni, note metologiche
qualora ci siano e infine riferimenti bibliografici. Il ricercatore deve assumersi delle responsabilità, deve
garantire la validità del processo.

Infine vi sono 2 stili di ricerca cioè alcune tecniche di raccolta e analisi: approccio qualitativo e approccio
quantitativo. Il primo consiste in un’intervista qualitativa o un’intervista di gruppo, nell’osservazione
etnografica, analisi del contenuto e del contenuto etnografico. Il secondo consiste in un’analisi fattoriale, in
un esperimento, teoria dei giochi, intelligenza artificiale, modelli matematici e simulazioni al computer.

CAPITOLO TRE: IL CAMPIONAMENTO

Il campionamento consiste nel selezionare alcune unità di analisi dalla popolazione. Si campiona per
risparmiare sia denaro che tempo, per vantaggio organizzativi e possono dedicare più tempo all’analisi dei
dati. Uno svantaggio del campionamento consiste nel suo errore cioè che le unità presa in analisi non
saranno mai come l’intera popolazione ci sarà sempre uno scarto, la formula dell’errore di campionamento
è: Y=Ῠ± E rappresentazione del campionamento con l’errore dove Y rappresenta il parametro della realtà
(popolazione), Ῠ rappresenta il parametro del campione.

Campioni probabilistici: cioè fanno riferimento alla teoria matematica della probabilità, e il contrario i
campioni non probabilistici. Senza i casi possibili cioè parametri della realtà non si potrebbe effettuare il
calcolo del campionamento, quindi bisogna accettarsi che i casi possibili (intera popolazione) sia preciso e
conosciuto. Vi sono diversi tipi di campioni probabilistici e sono: il campione stratificato che consiste nel
suddividere le unità prese in analisi in proporzione ad alcune variabili note; il campione sistematico dove le
persone vengono selezionate a caso e si comunica estraendo casualmente un individuo dalla lista della
popolazione e poi si selezionano gli altri fino a quando non si raggiunge il totale previsto di unità prese in
analisi.

Campioni non probabilistici: essi sono campioni molto eterogenei e sono costruiti ad-hoc. Ambiscono a
una rappresentatività tipologica, i loro risultati sono trasferibili e l’errore di campionamento è sconosciuto.
Vi sono vari tipi di campioni non probabilistici come: campione a valanga; campione a scelta ragionata;
campione di convenienza e infine campione per quote.

Il problema più grande del campionamento rimane il concetto di rappresentatività in quanto in primo luogo
non possiamo mai sapere se un campione è rappresentativo o meno, perché appunto il campionamento ci
serve a scoprire qualcosa su una realtà che non conosciamo, in secondo luogo per provare la
rappresentatività di un campione, le stime sono spesso confrontate con i dati dei censimenti, in terzo e
ultimo luogo il ricercatore dovrebbe cercare di minimizzare gli errori non campionari, tali errori però sono
molto difficili da scoprire e controllare.

CAPITOLO 4: L’INTERVISTA

Con il termine intervista si intendono quei modi per raccogliere dei dati. Possiamo considerarla una famiglia
cioè un insieme di tecniche apparentate fra di loro che si basano sul chiedere a dei soggetti delle
informazioni di cui il ricercatore ha bisogno. La possiamo definire anche come una forma di conversazione
nella quale due persone parlano. Nell’intervista troviamo una persona che fa delle domande (intervistatore)
e una che risponde (intervistato).

I TIPI DI INTERVISTA: Vi sono diversi tipi di intervista che si articolano in 5 classificazioni, che sono, il livello
di standardizzazione delle domande e delle risposte, il grado di direttività assegnato all’intervistatore, il
grado di focalizzazione, la natura delle finalità conoscitive e la prospettiva paradigmatica o teorica adottata.
Un primo criterio che bisogna analizzare riguarda come sono organizzate le domande e possono essere:

1. Intervista strutturata cioè presenta delle domande standardizzate da porre nello stesso ordine a
tutti gli intervistati, ed essi possono risponde liberamente.
2. L’intervista semi strutturata, nella quale non ci sono delle domande fisse ma una sorta di scaletta
(topic guide).
3. L’intervista non strutturata che parte da un tema da approfondire.

Un secondo criterio riguarda lo stile dell’intervistatore e sono:

1. Intervista direttiva dove l’intervistatore segue una lista di domande e ignora le reazioni
dell’intervistato.
2. Intervista non direttiva dove le domande seguono le risposte dell’intervistato
3. Intervista semi direttiva dove si ha una parte che è uguale per tutti gli intervistati e una parte dove si
seguono le esigenze dell’intervistato.

Un terzo criterio di classificazione riguardano il tipo di domanda e di risposte che possono essere
standardizzate o non. Infine possiamo distinguere le interviste in base al numero degli intervistati, quindi
possono essere individuali o di gruppo, queste ultime si suddividono in naturali che sono le famiglie cioè che
hanno la stessa provenienza e quelli artificiali che li sceglie l’intervistatore. Intervista biografica dove viene
raccontata la storia dell’intervistatore.

IL RAPPORTO TRA INTERVISTATORE E INTERVISTATO.

Esso è molto difficile e bisogna fare molta attenzione a delle caratteristiche che sono, caratteristiche di
sfondo (età, cultura), e influenzano i fattori psicologici degli intervistatori e degli intervistati. Successivamente
vi è l’atteggiamento cioè una buona e una cattiva disposizione nei confronti dell’intervistatore. Abbiamo le
motivazioni cioè una cattiva percezione dell’intervistatore determina la partecipazione dell’intervistato.

L’INTERVISTATORE

Egli deve garantire: brevità del colloquio, deve citare il committente della ricerca in quanto se è una persona
già famosa l’intervistato è più motivato, il tema dell’intervista in quanto se sa già di cosa parleranno sarà più
motivato a rispondere, la scientificità della ricerca e infine l’anonimato dell’intervista. Nonostante
l’intervistatore mette in atto tutto ciò si potrebbero venire a creare dei problemi quindi deve cercare di creare
un ambiente di normale conversazione, deve sempre chiedere l’uso del registratore solo dopo l’inizio
dell’intervista, deve rispettare le sequenze delle domande se l’intervista è strutturata, non deve mai
esprimere la propria opinione, deve essere propositivo e deve ascoltare l’intervistato, non deve mai imporre
una risposta in caso di rifiuto.
STRUMENTI E TRASCRIZIONI DELL’INTERVISTA

L’intervista è anche uno strumento e può presentarsi sotto due forme: la scaletta (topic guide) questa si usa
nell’intervista semi strutturata ed è uno schema generale dove l’intervistatore può attingerci durante il
colloquio; ed il percorso strutturato (questioning route) assomiglia ad un questionario. Le interviste possono
essere trascritte fedelmente (ex-post) oppure annotate in tempo reale, oppure prodotte dallo stesso
intervistato.

L’ANALISI DEI DATI

Esistono due approcci di analisi e sono quello etnografico o narrativo che consiste nel raccontare il materiale
avvalendosi di brani significativi. Questo approccio ricorre alla tecnica del taglia e riordina (scissor and sort).
L’idea è quella di sottolineare e poi trascrivere le parti più significanti e per questo si possono scegliere diverse
soluzioni, o dall’uso di diversi evidenziatori oppure uso di programmi per pc. Il secondo metodo di analisi è
quello quantitativo che prevede una codifica sistematica delle trascrizioni in categoria di temi e concetti.
Prevede una post-codifica dei concetti poi vengono conteggiati e presentati in grafici e tabelle e questo
conteggio ha lo scopo di descrivere i testi esaminati ordinandoli in base ai temi trattati durante le interviste,
infine si possono effettuare delle comparazioni quando il ricercatore ha a che fare con due o più casi.

CAPITOLO 5: IL FOCUS GROUP.

Il focus group (FG) è una tecnica di rivelazione che si pone di studiare il modo in cui nascono le opinioni, si è
mostrata molto utile nella ricerca del mercato.

DEFINIZIONE E TIPI.

Le origini del FG risalgono agli anni 40 con Merton poi abbandonata perché non arrivava agli scopi che si
erano delineati. Negli anni 80 è stata ripresa in considerazione.

FG è una tecnica che ricorre a procedure non standardizzate, basata su discussioni apparentemente informali
di gruppi di persone estranee fra loro, con la presenza di un moderatore e un osservatore. Potremmo dire
che è simile a un talk- show televisivo con alcune differenze: le persone non sono spiate, non viene fatto per
fare spettacolo e le persone non si conoscono.

I FG possono essere realizzati in modo diversi:

- In base alla composizione di gruppi (omogeni o eterogenei, piccoli medi e grandi)


- In base al grado di strutturazione (alta, media o bassa)
- In base al ruolo del mediatore (direttivo, semi e non direttivo)

AMBITI D’APPLICAZIONE E VANTAGGI.

Inizialmente FG ha avuto successo nelle ricerche di mercato, successivamente in campo politico e nelle
ricerche elettorali e soltanto alla fine nella ricerca sociale.

Nella ricerca sociale l’FG è stato usato in vari campi: la valutazione di enti, servizi e politiche pubbliche, cultural
studies e nella comunicazione di massa. Ciò è avvenuto perché presenta numerosi vantaggi:

- Economicità:
- Rapidità: si possono intervistare più persone contemporaneamente
- Flessibilità: in quanto gli strumenti utilizzati possono essere cambiati
- Alta densità di informazione: in quanto vengono prese in considerazione non solo le risposte ma
anche le dinamiche di gruppo che si vengono a creare
- Alta tollerabilità: viene considerato poco intrusivo.
Al contrario sarà molto difficile la pianificazione in quanto è difficile individuare i partecipanti più adatti,
difficile la conduzione per le domande da fare, ed è difficile l’analisi dei dati.

LA PIANIFICAZIONE DEL FOCUS GROUP.

Pianifica un FG significa scegliere in numero e la composizione dei gruppi, il luogo e reclutare i partecipanti.
I gruppi sono composti all’incirca da 8 persone che posso variare dipende il tipo di ricerca, non si conoscono
tra loro così da non creare imbarazzo e poter esprimersi al meglio. La durata varia dalle 3 o 4 FG con le stesse
persone, anche meno se non escono temi nuovi. Un’altra strategia usata sono gli incentivi o i gadget dati alla
fine ai singoli partecipanti. Un’altra strategia che si è mostrata efficace è quella di creare una squadra tipo
esempio: politico, educatore, studente. Infine il luogo deve essere neutrale così da mettere tutti i partecipanti
a loro agio, vengono sistemati in cerchio in quanto indica simbolicamente che tutti partecipanti sono uguali.

IL MODERATORE E L’OSSERVATORE.

Il compito del moderatore è quello di mantenere la discussione in tema, rispettare i temi e gestire
l’interazione tra il gruppo. Per fare ciò deve avere alcune caratteristiche: capacità comunicative, conoscenza
delle dinamiche di gruppo, esperienza ecc...

Inizialmente il moderatore ha il compito di facilitare il warm- up cioè la fase di riscaldamento, intrattenere


gli ospiti e far in modo che socializzano tra loro. Una volta iniziato il moderatore avrà il compito di far
interagire tutti i partecipanti ma solo nel caso che abbiano qualcosa da dire e non perché tocca a loro.

Il compito dell’osservatore è quello di stare attento ai contenuti e come essi emergono durante la
discussione, prenderà gli appunti e dovranno avere 3 caratteristiche fondamentali: 1. Dati che non riguardano
l’interazione non verbale; 2. Dati relazionali cioè chi ha parlato con chi e quanto; 3. Riflessioni in presa diretta
che possono essere usate successivamente.

GLI STRUMENTI DI RIVELAZIONE.

Gli strumenti che molto spesso vengono utilizzati è la traccia o guida di intervista. La traccia è formata da
poche domande e non hanno un ordine preciso. Si distinguono 5 tipi di domande:

- Domanda di apertura: permettono la creazione del gruppo.


- Domanda di introduzione: portano il partecipante a riflettere sulla discussione.
- Domanda di transazione: si passa da un tema all’altro.
- Domanda chiave: si riferisco ai temi centrali della discussione.
- Domanda finale: portano alla chiusura della discussione.

Le domande saranno una quindicina in quanto devono chiudere un arco di tempi di un’ora, non saranno
domande dove darai risposte si e no ma saranno risposte motivate.

Un altro strumento utilizzato è la carta dove l’osservatore annoterà i nomi, luoghi, età ecc.… degli intervistati,
annoterà le loro riflessioni e risposte. Il foglio può essere strutturato in vari modi: può essere rilegato ad anelli
in cui ciascuna pagina corrisponde a una domanda o a una specifica rea di analisi. Le pagine potranno essere
a sua volta divise in quadratini dove verranno associate diverse posizioni e merse durante la discussione,
accanto ad ogni affermazione può essere inserito un cerchietto che sarà vuoto se la persona ha avuto pochi
consensi oppure pieno se ne ha ricevuti tanti. Una parte del foglio importante è la trascrizione non verbale
dell’intervistato. Dato che l’osservatore non riuscirà a trascrivere tutto in tempo reale ci sarà anche l’aiuto di
un registratore, video.
LE FASI DI UN FOCUS GROUP E I TIPI IDEALI DI PARTECIPANTI.

Un FG si sviluppa attraverso alcune fasi tipiche e sono:

- Formazione del gruppo (forming)


- Rottura dell’equilibrio iniziale (storming)
- Emergenza di regole di conversazione (norming)
- Definizione di ruoli (performing)
- Comitato finale (mourning)

Una parte importante è la performing dove vediamo emergere dei tipi ideali di partecipanti e sono:

- Leader strumentale che sarebbe l’uomo delle idee


- Leader espressivo l’uomo più simpatico
- Critico colui che esprime il dissenso motivando
- Negativo esprime il dissenso a prescindere e non motiva
- Joker il buffone
- Divaga
- Timido non partecipa alle discussioni
- L’entusiasta
- Apatico che ha atteggiamenti di indifferenza.

L’ANALISI DEI DATI.

L’analisi dei dati può avvenire in 2 modi differenti: 1. Immediatamente; 2. Alla fine di tutte le rivelazioni.

Nel primo caso si tratta di sviluppare e integrare le note prese durante la discussione, trascrivere le note
prese, le registrazioni e serve per non perdere impressioni e interpretazioni immediate.

Nel secondo dei casi si ha l’analisi dei dati veri e propri e ha il compito di suggerire risultati più rivelanti
dell’intervista. Avviene in 4 fasi: - analisi del contenuto; - analisi quantitativa pc assistita; - analisi del discorso
e della interazione faccia a faccia; - social network analysis.

Il ricercator nel processo di anali si deve concentrare su alcune caratteristiche e sono:

- Identificazione dei temi principali


- Misurazione dell’intensità e della frequenza delle opinioni emerse
- Identificazione di consensi e dissensi rispetto alcuni temi o persone del gruppo
- Flusso delle opinioni espresse

Infine l’analisi deve risultare sistematica cioè che il ricercatore deve seguire un protocollo rigoroso di indagine
e controllabile cioè che l’analisi deve risultare replicabile e garantire la ispezionabilità della base empirica.

IL REPORT FINALE.

Per quanto riguarda il report finale mancano ancora delle linee guide e indicazioni. Innanzitutto
fondamentale fare una tabella con tutte le abbreviazioni utilizzate, servono per garantire l’anonimato dei
partecipanti. Dopo si procede alla presentazione dei risultati, inizialmente si indica il peso di ogni tema,
successivamente l’analista assocerà i pesi dei vari temi con le risposte più significative, infine si avranno delle
eventuali comparazioni fra situazioni.

CAPITOLO 6: ETNOGRAFIA E OSSERVAZIONE.

L’osservazione è una delle tecniche di raccolta dati più antica, risale alle ricerche etnografiche che andavano
di moda in epoca coloniale sotto l’influenza del positivismo. Da allora le tecniche si sono evolute e si sono
allontanate dall’influenza positivistica e oggi si applicano a campi più disparati.
TIPI, AMBITI E PROSPETTIVE TEORICHE DELL’OSSERVAZIONE.

Esistono vari modi di fare osservazione e possono essere classificate facendo riferimento ad alcune
dimensioni: partecipazione o meno del ricercatore; intrusività dei strumenti; strutturazione; prospettiva
adottata dal ricercatore.

Si può parlare così di:

- Osservazione partecipante o non a seconda se l’intervistatore si mischi tra le persone. L’osservazione


partecipante può essere scoperta o nascosta a seconda se l’intervistatore dichiari la sua identità
- Intrusività alta o bassa assecondo che gli strumenti sono scoperti o nascosti.
- Osservazione strutturata o non strutturata a seconda che il ricercatore a no schema prestabilito
oppure si lasci guidare dalle persone
- Prospettiva del marziano e prospettiva del convertito, nel primo caso è completamente estraneo e
distaccato nel secondo diventa a tutti gli effetti un nativo.

Le prospettive teoriche dominanti in campo etnografico sono due: 1. La grounded theory sostiene che la
teoria sociologica debba emergere dai dati empirici ricavati nell’immersione nel contesto sociale; 2.
Etnometodologia si fonda sulla idea che le attività quotidiane delle persone siano rese possibili dal ricorso ad
assunti e convenzioni. Attraverso gli etnometodi gli individui possono dare senso al mondo sociale nello
svolgimento della loro vita quotidiana.

CHE COSA E COME SI OSSERVA?

L’attività osservatrice considera questi aspetti:

- Contesto storico: riguarda il passato del contesto da studiare


- Contesto fisico: caratteristiche dei luoghi
- Contesto sociale: il modo in cui è organizzata la società
- Interazioni formali e informali: modi di stare con le persone in pubblico o in privato
- Interpretazioni orali e scritte dei nativi: spiegazioni del mondo che li circonda da parte dei soggetti
studiati.
- Produzioni materiali e simboliche: ciò che le persone fanno assieme.

GLI STRUMENTI E LE ANALISI DEL MATERIAE RACCOLTO.

Uno strumento fondamentale di cui si avvale l’osservatore è il diario che può essere cartaceo o digitale. Gli
appunti riportati devo avere alcuni elementi fondamentali:

- Descrizione: devono essere il più dettagliate possibile


- Note sulla relazione osservativa: il modo in cui il rapporto con la popolazione studia e si è svolto
- Interpretazioni del ricercatore: le sue impressioni emotive di quello che ha avvisto.
- Verbalizzazione dei nativi e i documenti rilevanti

Gli appunti vengono presi giornalmente e devono ispirarsi ad almeno tre principi: 1. Distinzione netta
separazione tra i vari elementi che compongono il diario; 2. Concretezza che usi un linguaggio quotidiano; 3.
Ridondanza per aumentare al massimo il livello di dettaglio dei resoconti.

Uno strumento unico della ricerca etnografica è il così detto backtalk dove l’osservatore ritorna insieme ai
soggetti studiati sulle conclusioni del lavoro.

I PROBLEMI DELL’OSSERVAZIONE.

Come problemi dell’osservatore abbiamo:


- Il problema dell’accesso alla realtà studiata soprattutto per l’osservatore partecipante di tipo
scoperto. Ciò si risolve tramite i mediatori culturali o gli informatori. Il primo è una persona che gode
della fiducia della popolazione in studio ed ha solidi legami con entrambe le culture. Il secondo è un
testimone o interlocutore privilegiato, può essere istituzionale cioè incaricato dal gruppo studiato
oppure non istituzionale cioè una persona che si offre volontariamente. Il rischio nel primo caso è
che filtri le informazioni che il gruppo studiato vuol far passare e nel secondo caso il rischio è che si
tratti di una persona marginale.
- Un secondo problema sta nell’eticità dell’osservatore nascosto quindi se è giusto oppure no studiare
una cultura di nascosto.
- Un terzo problema dell’osservatore partecipante è il coinvolgimento emotivo
- Un quarto problema riguardano le tecniche che ha che vedere con la generalizzabilità. Da qui 5
diverse posizioni:
1. Stake i casi etnografici sono interessanti di per sé e quindi non si pone nessun tipo di problema
2. Connolly sottrae la responsabilità alla generalizzabilità affidandogli però un importante compito
alla spiegazione tramite meccanismi
3. Guba e Lincoln al concetto di generalizzabilità lo sostituiscono con quello di trasferibilità. Essa
esprime la misura in cui gli aspetti di una ricerca possono essere espansi in un’altra
4. Infine i sostenitori dello studio del caso critico per i quali la selezione dei casi studiati non va
affidata alla teoria della probabilità ma alla teoria che si vuole porre sotto controllo.

CAPITOLO 7: L’INCHIESTA CAMPIONARIA.

L’inchiesta campionaria (survey) rappresenta la ricerca quantitativa ed è molto utilizzata nella ricerca sociale
perché si possono utilizzare molti strumenti statici in sede di analisi dei dati.

DEFINIZIONE: L’INCHIESTA E IL SONDAGGIO.

L’inchiesta campionaria è una tecnica di rivelazione basata sul questionario, fa riferimento a campioni di tipo
probabilistico e si propone di spiegare fenomeni e problemi sociali. Viene spesso confusa con il sondaggio
ma hanno alcune differenze: 1. Il survey è più ampio del sondaggio; 2. Il survey si basa su un questionario
formato da molte domande il sondaggio invece può basarsi su una sola.

LA PSICOLOGIA DI CHI RISPONDE.

L’intera filosofia dell’inchiesta campionaria si basa su un semplice assunto quello per cui uniformità di stimoli
corrisponde ad una uniformità di reazioni. Le persone a cui viene posto il questionario interpretano le
domande in vario modo dando forma a varie distorsioni della relazione tra intervistato e intervistatore. Le
più importanti sono:

1. Desiderabilità sociale: quel fenomeno per cui le persone intervistate finisce per dare delle risposte
socialmente desiderabili ma alle quali non crede veramente. Per questo è stata fatta una scala di
desiderabilità sociale che permettono di capire se nel corso del colloquio una persona ha indossato
una maschera sociale.
2. L’acquiescenza: è la tendenza di certi individui di dichiararsi d’accordo con le affermazioni contenute
nelle domande, anche qua esistono delle scale.
3. Le pseudo-opinioni: il risultato della mancanza di opinione dell’intervistato.

Per capire meglio come funziona il meccanismo risposta domanda sono stati elaborati 4 modelli di
spiegazione tre di matrice cognitiva ed 1 di linguistica:

- Il modello di Tourangeau e Rasinski sostiene che nel rispondere l’intervistato osserva una sequenza
fissa di paesaggi che producono la comprensione della domanda, ricorso a informazioni e infine la
modalità della risposta. Questa strategia viene definita ottimizzante.
- Modello di Krosnick e Alwin sostiene che accanto alla strategia ottimizzante l’intervistato può
utilizzare una strategia satisficing cioè accontentare le pretese dell’intervistatore.
- Campionamento delle credenze gli intervistati rispondono in base alle prime cose che gli passano per
il cervello
- Logica conversazionale quando l’intervistato parla sinceramente.

IL QUESTIONARIO.

Il questionario è costituito da un insieme di domande standardizzate dette item, seguono uno schema fisso
allo scopo di raccogliere individuali su uno o più argomenti.

Per costruire un questionario è necessario tenere conto di 4 presupposti:

1. Bisogna conoscere il fenomeno oggetto studiato.


2. È necessario operativizzare in modo valido e affidabile i concetti di ricerca
3. È necessaria una certa esperienza
4. Conoscere bene la popolazione che si sta studiando.

Il questionario di solito è composto da 3 parti:

1. Parte di presentazione (cover letter): presenta la ricerca e cerca di motivare gli intervistati a
cooperare.
2. Le istituzioni: contengono tutte le regole che gli intervistati devono seguire per rispondere
3. Corpo principale: comprende le domande vere e proprie. Vi sono varie domande: su ciò che le
persone sono; fanno; pensano; ricordano.

Il questionario deve avere una struttura logica e coerente e le domande devo essere ben organizzate e
coerenti tra loro. Per spiegare il questionario si possono seguire alcune regole: 1. Deve essere contrassegnato
da un codice; 2. Le domande devono essere numerate in modo progressivo; 3. Gli spazi e lo stile di grafico di
domanda devono essere leggibili; 4. Nelle domande chiuse vanno inseriti i codici che corrispondono a
ciascuna domanda.

I questionari seguono uno schema tipo di solito i iniziano con domande generiche, poi con domande che
richiedono maggiori sforzi di memoria, e infine domande socio- demografiche che riguardano dati
dell’intervistato. L’ordine delle domande può variare e possono essere ad imbuto dal generale al particolare,
imbuto capovolto particolare generale eccc…

Una regola nella costruzione del questionario è quello di essere chiari e semplici nella struttura delle
domande da sottoporre. Si possono distinguere due tipi di domande aperte e chiuse. La prima sono utili
quando il ricercatore pensa che sia meglio lasciare gli intervistati liberi di esprimersi. La seconda sono più
frequenti e ne esistono di vari tipi: 1. Scelta fra categorie semantiche autonome; 2. Checklist; 3. Categorie
ordinate; 4. Ordinamento di preferenze personali; 5. Differenziali semantici; 6. Conteggio o misurazione.

Prima di somministrare un test bisogna fare un pre-test l’esito di ciò può portare l’intervistatore a modificare
uno degli elementi che sopra abbiamo descritto. Il pre-test può essere fatto in vari modi registrando le
risposte, facendo commentare il test, chiedendo il parere di esperti.

Infine si somministrano i test ciò può avvenire in vari modi: - auto somministrati; - etero somministrati.
Un’altra distinzione viene fatta nel modo in cui vengono raccolti i dati: faccia a faccia; via posta; pc. Infine i
questionari possono essere somministrati in circostanze singole o più volte nel tempo. Nel primo caso avremo
uno studio trasversale, mentre nel secondo longitudinale. Quest’ultimi si dividono in 2 tipi: inchieste
trasversali replicate il questionario viene somministrato a più volte a più persone; e i penal quando lo stesso
questionario viene somministrato allo stesso campione nel corso del tempo.
LE SCALE LINKERT E L’ALPHA DI CRONBACH.

Una scala è un insieme coerente di item che serve per misurare e osservare un concetto più in generale. Il
modo per costruire una scala è quello di somministrare ottenuti da un individuo su ciascun item. Queste scale
di dicono adattive. Le scale adattive di Linkert si svolge in 4 passi: 1. La definizione degli item che si pensano
adatti a misurare il concetto; 2. La somministrazione tramite questionari; 3. Controllo di coerenza interna alla
scala; 4. Controllo di validità e unidimensionalità.

La parte più importante per stabilire se una scala funzioni oppure no è il calcolo Alpha di Cronbach, esso
misura la coerenza interna della scala. Un approccio diverso è quello per misurare l’attendibilità in termini di
coerenza interna. Il controllo può essere effettuato facendo uso della tecnica split- half che consiste nel
dividere gli item della scala in 2 gruppi per vedere se il punteggio del primo e correlato con il secondo.
L’approccio più diffuso consiste nel calcolare la coerenza totale.

Alpha di Cronbach viene calcolata attraverso la seguente formula:

n è il numero degli item, r la loro correlazione media. L’Alpha varia da 0 a 1 più è grande più la scale è
coerente e attendibile, se è negativa vi è qualche problema nell’orientamento delle categorie di risposta di
alcuni item.

CAPITOLO 8: L’ANALISI DEI DATI.

Il compito principale dell’analisi dei dati è quello di trovare delle strutture dotate di senso nel materiale
raccolto. Ciò può risultare difficile se i dati sono molti e se sono di natura quantitativa. L’analisi può effettuata
rispetto a 4 oggetti:

1. L’analisi dei casi: che a si divide in:


. case study: è lo studio dettagliato di un oggetto o di un fenomeno che viene considerato esemplare,
tale esame può avvenire tramite un approccio quantitativo, qualitativo.

. L’analisi comparativa: si mettono a confronto alcuni casi individuando delle caratteristiche comuni
e verificando somiglianze e differenze.

. L’analisi dei gruppi o cluster analysis: è un tipo di analisi quantitativo, al suo interno abbiamo le
tecniche gerarchiche, tecniche iterative o partizioni ripetute, tecniche sulla densità locale e le reti neurali.

2. L’analisi delle variabili: implica l’uso della statistica e si possono distinguere tre tipi di variabili:
. Monovariata: si occupa delle variabili prese a uno a uno e ha scopi descrittivi. La forma più semplice
di queste variabili è la rappresentazione tabellare, il ricercatore individua le varie modalità di risposta
e per ciascuna conta le frequenze. Infine calcola le percentuali semplici e quelle cumulate. Inoltre
vengono calcolate le misure di tendenza centrale e le misure di variabilità. Le prime indicano qual è
il centro della distribuzione, le seconde servono a capire le se ci sono delle differenze. La misura più
usata nel primo caso è la media per calcolarla basta fare la somma di tutti i valori e poi dividerla per
il loro numero. Un altro tipo di misura è la moda vede quale risposta ha una percentuale più alta.
Poi si ha la deviazione standard misura quanto i valori hanno una distanza media. Infine si ha l’indice
di eterogeneità si calcola togliendo a 1 la somma dei quadrati delle proporzioni con le quali si
presenta ciascuna categoria di risposta.
. Bivariata: si occupa delle variabili prese a due a due e ha scopo esplicativo, attraverso questa analisi
si possono controllare le ipotesi. Uno strumento utilizzato è la tabella di contingenza rappresenta il
modo in cui una variabile si distribuisce nelle diverse modalità di un’altra. I dati sono organizzati in
righe e colonne. Ogni riga corrisponde a una modalità della prima variabile, mentre la colonna
rappresenta la modalità della seconda variabile. L’unirsi delle righe e colonne prende il nome di celle.
Ogni cella mostra il numero di casi che possiedono una certa combinazione corrispondenti alla riga e
colonna d’appartenenza. Inoltre contiene anche la somma delle colonne e delle righe e vengono
dette marginali. Infine il prodotto del numero di righe per il numero di colonne indica l’ordine della
tabella. Avvolte i valori all’interno della tabella sono difficili da analizzare ciò accade per due motivi:
1. Le categorie di una o entrambe le variabili sono molte e di numero diverso; 2. La frequenza o le
percentuali osservate sono confuse perché la relazione tra le due variabili non è lineare.

L’analisi multivariata: considera più di due variabili contemporaneamente e ha scopi sia descrittivi che
esplicativi, esplorativi o confermativi.

1. L’analisi dei dati relazionali: è affidata alla network analysis o analisi di rete. Si basa su una matrice
detta matrice di adiacenza o sociomatrice. La presenza di due membri nella tabella indica l’esistenza
di rapporti biunivoci in cui si possono rintracciare iniziatore e destinatario della relazione. Nel lessico
delle analisi di rete si parla di sociomatrice che si possono effettuare tutta una serie di analisi tipo:
descrivere e rappresentare graficamente le caratteristiche e la struttura della rete, rintracciare i
sottogruppi, rintracciare la leadership degli attori, descrivere posizioni e ruoli sociali.
2. L’analisi delle parole: possiamo trovarle:
. Nella domanda e nella risposta aperta: vengono sottoposte a una codifica per 2 ragioni: per
riassumere e chiarire il significato delle parole e per consentire un successivo trattamento statistico.
La post-codifica implica la costruzione di categorie o etichette e l’assegnazione di parole frasi o
discorsi ad una di esse. Ciò presenta dei svantaggi come il tempo, la perdita di dati e principalmente
non garantisce un’ottima attendibilità. Ultimamente molti ricercatori s sono rivolti all’analisi delle
corrispondenze lessicali ACL. Questa analisi afferma che le parole da sole non hanno alcun senso ma
lo acquisiscono solo se associate ad altre. Essa persegue due obiettivi: 1. Creare delle regolarità nei
dati; 2. Individuare poche dimensioni di senso che possano spiegare tali regolarità tramite tecniche
di tipo fattoriale.
Per raggiungere questi obietti i dati vengono prima organizzati in una matrice parole-per-testi. Le
parole vengono disposte sulle righe mentre i testi sulle colonne. Il numero nelle celle indica quante
volte quella parola è stata detta dall’intervistato. Il risultato non è altro che la codifica automatica
delle risposte aperte. L’output dell’ACL è uno spazio fattoriale che mostra l’orientamento semantico
delle parole su semiassi opposti destra, sinistra, alto e basso. Le parole sono significative se si trovano
distanti dal centro.
. Le parole nelle interviste e nei focus group: come già sappiamo l’analisi può essere quantitativa,
qualitativa e pc assistita. Nel primo caso può essere post-codifica al fine di poter di poter
rappresentare graficamente i dati. Nel secondo caso si possono adottare diverse pratiche come:
paradigmi e discipline. Fra le tecniche principali vanno dette l’analisi del discorso e l’analisi della
conversazione esse si concentrano sullo studio delle strutture e del processo discorsivi. Nel terzo e
ultimo caso consiste nella trascrizione dei dati tramite programmi adatti.
3. Le parole nei documenti: l’analisi del contenuto: l’analisi delle parole viene fatto tramite l’analisi
del contenuto. È una tecnica che si basa su procedure di scomposizione dei testi in elementi più
semplici. Esso può essere utilizzato per analizzare qualsiasi testo scritto fra cui anche le domande
aperte e il focus group. Le tecniche di analisi del contenuto sono 3: 1. Analisi della frequenza si
effettua contando le presenze dei testi studiati di parole, categorie o temi d’interesse. Essa ha tre
scopi fondamentali: una rapida esplorazione del testo, un affinamento delle parole del testo, la
misurazione di una fonte; 2. Analisi co-occorrenze serve a capire se 2 parole vengono regolarmente
associate all’interno del testo preso in esame. Uno degli indici più diffusi di associazione è il
coefficiente del coseno che si calcola: c (x,y) = f(x,y)/radice quadra di f(x) x radice di f(y)
Dove f(x,y) è il numero delle volte in cui compaiono assieme le due parole, f(x) è il numero delle
volte che appare la parola x, f(y) il numero delle volte che appare la parola y. Il coefficiente del
coseno varia tra 0 e 1, 0 vuol dire che i due elementi non sono mai associati 1 si trovano sempre
insieme; 3. Analisi degli asserti valutativi è basato sull’analisi delle frasi contenute nei testi, servono
a capire come vengono valutati determinati oggetti del discorso. Per effettuare questo tipo di
analisi il ricercatore si affida a dei differenziali semantici, ad ogni parola gli viene attribuito un
punteggio che va da -3 a 3, vengono calcolate le medie e infine costruito un grafico.
LA RICERCA SOCIALE QUALI-QUANTITATIVA
Capitolo 1. Qualità e quantità nella ricerca sociale.
In sociologia i termini qualitativo e quantitativo sono sempre stati usati con troppa disinvoltura per colpa di una cattiva abitudine
che ha portato da una parte i ricercatori alle prime armi ad usare tale distinzione per prender confidenza con i nuovi mezzi e
metodi, mentre dall'altra ha creato una dicotomia tra i due approcci, che si sono cristallizzati in due fazioni apposte disinteressate
ad imparare l’una dall’altra. Questa dicotomia ha prodotto solo dei danni alla ricerca sociale ostacolandone uno sviluppo maturo.
Secondo Cavalli infatti “chi ha acquistato competenze nel metodo quantitativo non ha competenze nell'altro approccio e
viceversa”. L'opposizione tra qualità e quantità viene da lontano dalla divisione tra cultura scientifica e cultura umanistica. Tale
opposizione ha avuto origine con la rivoluzione industriale e quella scientifica che hanno segnato una frattura nei modi di
conoscere la realtà sociale e dalle quali emergerà il primo dibattito sul metodo delle scienze storico sociali (il Methodenstreit). La
metodologia della ricerca sociale nasce letteralmente diabolica, nel senso di doppia: ‘diavolo’; dal greco diaballein ovvero colui
che getta differenza. Il doppio senso è qui implicito, in quanto sottolinea i guasti che la doppiezza e la separatezza metodologica
ha prodotto nelle scienze storico sociali. Il problema non riguarda il metodo in sé ma se questo è adatto o meno agli obiettivi del
ricercatore. L'etimologia del termine quantitativo fa riferimento alla quantità numerica, alla determinazione numerica; mentre il
termine qualitativo si riferisce a ciò che concerne la qualità, e riguarda il concetto di determinazione logica; mira dunque a
determinare la natura di un certo oggetto di studio. Nell'analisi scientifica il termine qualitativo è spesso usato per indicare
qualcosa di generico, sempre in contrapposizione con il termine quantitativo, per indicare un discorso o un ragionamento non
supportato da dati numerici. Ma i sociologi cosa intendono quando usano i termini qualitativo e quantitativo? È difficile trovare
delle definizioni precise per i due tipi di approcci in quanto vi è un sostanziale vuoto definitorio su cui si regge la differenza
qualità-quantità. E quindi l'oggetto del contendere si riduce a uno stereotipo. L'incerta distinguibilità tra i due termini porta
dunque a pensare che questi due termini siano gli estremi di un continuum multidimensionale, lungo il quale sono possibili
molteplici graduazioni intermedie. Nella teoria sono stati trovati molteplici differenze tra i due approcci, tuttavia sul piano pratico
le differenze non sono così nette. In letteratura sono state proposte diverse argomentazioni contro la dogmatica separazione
qualità/quantità; la classificazione in questi due approcci di tutte le tecniche infatti non soddisfano i criteri di esaustività, mutua
esclusività e unicità del fundamentu divisionis. L'approccio quantitativo si rifà al paradigma positivista il cui massimo esponente è
Durkheim, mentre quello qualitativo si rifà al paradigma costruttivista e il maggior esponente è Weber. Essi hanno aperto due
strade ma dopo di essi quest'ultime si sono divise cristallizzandosi in potenti modelli cognitivi. Ma la domanda fondamentale è
cosa vuol dire fare scienza? Gli scienziati non fanno altro che produrre asserti, ovvero affermazioni su come funziona il mondo
sociale, giustificare gli asserti su base empirica e produrre un sapere controllabile, cioè pubblico e riproducibile. Inoltre per
stabilire se la nostra è una ricerca buona bisogna chiedersi: - quanto sono accurate le mie rappresentazioni della realtà sociale,
quanto sono generalizzabili, e quanto sono stabili nel tempo le conclusioni alle quali sono giunto. Tutti questi controlli sono
effettuati secondo i criteri di validità, attendibilità e triangolazione. Validità: Lo strumento che ho utilizzato misura veramente ciò
che ho studiato? È un giudizio circa la rappresentazione semantica tra il mondo reale e le risultanze empiriche della ricerca (i miei
risultati dovrebbero combaciare con la realtà). Vi sono diversi tipi di validità: riguarda la pertinenza delle spiegazioni date alla
situazione oggetto di studio (intervista fatta a delle donne per capire come sono, alla fine arriverò a chiedermi se queste donne
sono veramente così), Esterna: riguarda la generalizzabilità delle spiegazioni date ad altre situazioni analoghe, quella di
contenuto, per criterio e di costrutto. Attendibilità segnala il grado con il quale una certa procedura di traduzione di un concetto
produce gli stessi risultati in prove ripetute con lo stesso strumento di rilevazione. Può riguardare: il momento della
somministrazione (test-retest), lo strumento (parallel forms), il rapporto giudice osservatore codificatore (intercoding). Infine
l’attendibilità ha a che fare con la coerenza dei dati raccolti, la precisione, ovvero quanto ci possiamo fidare delle risposte che
abbiamo ottenuto?) e la replicabilità (un altro sociologo otterrebbe i miei risultati?). Triangolazione: esso consiste nella proposta
di studiare uno stesso oggetto attraverso prospettive teoriche, metodi, ricercatori, e dati diversi, con lo scopo di ottenere una
convergenza dei risultati ottenuti. Vi sono tre tipi di triangolazione: un ricercatore che usa due o più tecniche di ricerca, due o più
ricercatori che usano la stessa tecnica di ricerca e due o più ricercatori che usano due o più tecniche.
CAPITOLO 2. L’intervista strutturata.
Uno degli strumenti quali-quantitativi più importanti è l’intervista strutturata, rivolta ad un elevato numero di soggetti scelti sulla
base di un campionamento che segue una traccia rigida e standardizzata in cui al suo interno troviamo la dicotomia tra
espressioni (riguardanti le domande a risposta aperta) e reazione (riguardanti le domande a risposta chiusa). Ed è proprio per
questo motivo che viene definita uno strumento quali-quantitativo. La presenza di domande sia aperte che chiuse è
un’opportunità per il ricercatore che intende triangolare dati e tecniche sia di tipo quantitativo che qualitativo. Affinchè la
triangolazione sia possibile è necessario adottare una delle seguenti soluzioni: 1. Includere nello schema d’intervista domande
che prevedono risposte sia aperte che chiuse. Lo svantaggio di questa soluzione è che l’intervistato troverà noioso rispondere in
due modi diversi a una stessa domanda. 2. Effettuare una post-codifica delle risposte aperte allo scopo di ottenere variabili
analizzabili. Questa soluzione però comporta un lavoro lungo e faticoso da parte del ricercatore. 3. Analizzare il testo delle
risposte aperte per individuare i temi principali. 4. Identificare attraverso l’analisi delle domande a risposta chiusa degli idealtipi di
rispondente e approfondirli successivamente con l’analisi delle domande a risposte aperte. Ai fini dell’analisi è molto importante
che vengono tenuti sotto controllo tutti i fattori di distorsione: ad esempio, la differenza tra lingua parlata e lingua scritta, errori
di interpretazione del pensiero, la comunicazione non verbale. Inoltre per quanto riguarda le diverse tecniche quantitative di
classificazione, la tecnica migliore usata è la cluster analysis (tecnica di tipo esplorativo) il quale obbiettivo è quello di ordinare i
casi in gruppi, in modo tale che vi sia una sorta di omogeneità fra i membri di uno stesso gruppo e un’eterogeneità tra i membri di
gruppi diversi. Tra i vari tipi di cluster analysis troviamo: clustering gerarchiche, delle partizioni ripetute ed iterative (es. metodo
delle k medie) basate sulla densità locale. Quella che più si utilizza è quella della del K-medie, ovvero tale procedura prevede che
il ricercatore preveda a priori il numero dei cluster, assegna poi ciascun caso a un gruppo. A questo punto i casi vengono spostati
da un gruppo all’altro fino a quando non verrà raggiunta l’omogeneità al loro interno e l’eterogeneità al loro interno. La
rappresentazione grafica ci permette di identificare 4 tipi differenti di spettatori: critico lettore (colui che registra un valore basso
su tutti i campi tranne sulla lettura del libro), fan deluso (registra valori alti in tutte le variabili tranne sul giudizio complessivo), fan
entusiasta (registrano valori alti in tutte le variabili) e spettatore di massa (colui che non ha letto i libri ma ha guardato il film).
Questi gruppi sono emersi sono degli idealtipi, e le curve sono una media di tutti i componenti della cluster. Il tipo astratto è detto
centroide, ossia il centro ideale da cui ciascun caso concreto si distanzia più o meno. Ed è possibile conoscere la distanza precisa
che ogni caso ha con il suo centro ideale. Inoltre per avere un’interpretazione più precisa ci si può chiedere quali risposte gli
intervistati più vicini al centroide abbiano dato alle domande aperte, quindi si valla ricerca delle citazioni più significative per
ciascun tipo di spettatore, al fine di giungere ad una descrizione più ricca dei gruppi emersi della cluster analysis. A questo punto
è possibile arricchire il quadro con un'ulteriore analisi delle domande a risposta aperta attraverso l'analisi delle corrispondenze
lessicali → ACL. Questa è una tecnica di tipo esplorativo: la sua utilità sta nel fatto che consente di ottenere una prima sintesi
dell'informazione contenuta nei dati senza dover effettuare nessun intervento di codifica intermedia. L'ACL è una tecnica
multivariata e multidimensionale che consente quindi di leggere i dati in più prospettive. L'approccio dell'ACL è basato sulle
differenze → il significato di una parola riguarda le relazioni che essa ha con le altre parole: una parola è tanto più significativa
quanto più essa è specifica di determinati gruppi di persone. L'ACL inoltre prevede la possibilità di connettere dati testuali con
dati di contesto → nell'analisi delle risposte aperte possiamo mettere in relazione le parole con ogni altra caratteristica di un
individuo → associare un vocabolario a determinate variabili della matrice. Per effettuare l'ACL i dati testuali vengono organizzati
in una matrice lemmi x testi → ovvero una tabella in cui ogni parola contenuta nel corpus rappresenta una riga, mentre ogni testo
di cui il corpus è formato rappresenta una colonna e dall'incrocio di ogni riga con ogni colonna avremo le occorrenze di ciascuna
parola per ciascun testo. Per lemma s’intende la forma canonica di una parola, così come si trova sul vocabolario. Tali analisi
producono uno o più grafici. Gli oggetti più significativi sono quelli più lontani dall'origine degli assi. Inoltre interpretare un asse
fattoriale significa trovare tutto ciò che c'è di analogo tra tutto ciò che è a destra dell'origine degli assi e tutto ciò che di analogo
c'è a sinistra di questo. Attraverso un’analisi approfondita della matrice lemmi x testi si può ottenere un’altra tabella che
rappresenta i fattori, ossia i significati nascosti all’interno dei testi e la loro forza all’interno del testo, ossia autovalore. La somma
di tutti gli autovalori prende il nome di inerzia, e dopo aver determinato i fattori e gli autovalori, si calcolano gli autovalori in
percentuale così da capire quanto sono importanti i singoli autovalori rispetto agli altri così da calcolare infine la percentuale
cumulata.
CAPITOLO 3. IL FOCUS GROUP E L’ANALISI DI RETE.
Il focus group e l’analisi di rete sono due tecniche di ricerca sociale oggi fondamentali per l’operatore sociale e il menager dei
servizi sociali. Innanzitutto l’analisi del focus group non è sempre stata condotta con molto rigore anche se esistono in letteratura
suggerimenti su come trattare il materiale empirico. I dati raccolti attraverso un focus group sono dati di gruppo, infatti le
persone non sono isolate, dicono certe cose perché stanno interagendo con altre persone, non possiamo non tenere conto di ciò
che viene detto a prescindere dal contest, questi dati di gruppo scaturiscono delle interazioni fra le persone e in fine il gruppo che
partecipa ad un focus group è in genere costruito ‘ad hoc’, ovvero composto da sconosciuti, ha brevissima durata e si distingue da
un gruppo naturale. Bisogna passare poi alla fase di analisi dei dati dove esistono due percorsi ovvero, quello più quantitativo che
si rifà alla content analysise e quello più qualitativo definito etnografico o narrativo. Per quanto riguarda le tecniche
sociometriche, dalle quali si è sviluppata la social network analysis, sono nate al fine di rilevare e studiare le relazioni
interpersonali esistenti in un gruppo. Innanzitutto l’analisi di rete o SNA è una tecnica concepita per le relazioni, dunque come
posso applicarla al focus group dove invece dominano le interazioni? Dal punto di vista metodologico per studiare le relazioni
dobbiamo necessariamente partire dalle interazioni poiché una relazione non è altro che un insieme di interazioni, inoltre se
voglio studiare empiricamente una relazione non la posso osservare astrattamente da qualche parte, mentre quello che invece
posso osservare con i miei occhi sono le interazioni e infine quando siamo in relazione con qualcuno, nell’ambito di questa
relazione esistono numerose interazioni e sono proprio queste che alla fine hanno prodotto la relazione, dunque la relazione è
l’esito di queste interazioni. Secondo Nedelmann l’interazione sociale può essere definita come un processo di durata più o meno
lunga, tra due o più attori che orientano il proprio agire l’uno verso l’altro lo svolgimento di tale agire e producendo effetti di
associazione che corrispondono alle relazioni che possono essere di affetto, amicizie cc. Per far ciò devo raccogliere un nuovo tipo
di dati, chiamati relazionali, ma la raccolta e l’organizzazione dei dati del FG è un’operazione tutt’altro che semplice, ben lontana
dalla semplice registrazione. Per tale ragione durante l’effettuazione di un FG, il moderatore (che è impegnato a gestire la
discussione) dovrebbe essere affiancato da almeno un’altra persona che lo aiuti ad annotare le informazioni principali che
emergono nel corso del dibattito. La persona che affianca il moderatore è chiamata osservatore o assistente moderatore. In un
FG ve ne possono essere più di uno o nessuno e possono essere palesi o dissimulati. All’osservatore andrebbe anche affiancato il
compito di rilevare i dati sociometrici, ma trattandosi di un compito che richiede una costante attenzione è utile che un’altra
persona si dedichi a quest’attività. Sono tre i tipi di dati da registrare: i legami, gli attributi dei legami e gli attributi dei soggetti. Lo
strumento più pratico per la raccolta dei dati relazionali è la cosiddetta sociomatrice. I numeri riportati all’interno di ogni cella
rappresentano il numero di volte in cui un partecipante ha rivolta la parola ad un altro. Per quanto riguarda gli attributi dei
soggetti è necessario costruire una matrice con tutte le informazioni di cui disponiamo dei partecipanti. In matrice possono essere
aggiunti anche altri dati raccolti nel corso del FG stesso arricchendo così le informazioni iniziali sui partecipanti. Il pregio
dell’approccio di rete può essere analizzato da due punti di vista ovvero, quello dei singoli nodi e quello della rete nella sua
globalità. Ciò vuol dire che nel FG è possibile studiare sia i profili di ogni singolo partecipante, sia la struttura globale delle
interazioni. Inoltre il ricercatore può rappresentare graficamente le interazioni determinatesi durante il FG grazie al sociogramma,
dove gli individui sono rappresentati da punti e le relazioni tra questi da linee che li uniscono e le linee più spesse indicano legami
più forti. Di norme dalla lettura del sociogramma dovrebbero risultare evidenti alcune caratteristiche essenziali del gruppo, cioè: 1
la sua omogeneità ovvero la sua suddivisione in sottogruppi (cluster), -2 la presenza di individui isolati, 3 le posizioni di centralità e
leadreship all’interno del gruppo e 4 le equivalenze (somiglianze) strutturali dei nodi. 1) L’individuazione di sottogruppi è uno dei
compiti che vengono affidati alla SNA, ovvero si tratta di rintracciare attraverso procedure di cluster analysis quei raggruppamenti
di nodi che formano una cerchia. Si pensa che all’interno di tali gruppi gli individui tendano ad avere opinioni e comportamenti
simili. Sono stati proposti diversi criteri per l’individuazione di cluster o cerchie all’interno di una rete. Nella ricerca di tali
sottogruppi si possono seguire due approcci: un approccio bottom-up ce sottolinea come il macro possa emergere dal micro, e
uno top-down che invece guarda alla struttura per evidenziare al suo interno aree più dense o al contrario buchi. Per l’utilizzo nel
FG il criterio del clan in particolare del clan-2 è sicuramente il migliore. Del clan-2 fanno parte quei partecipanti connessi
direttamene o indirettamente ma solo tramite un altro membro del gruppo. 2) Fra i compiti della SNA vi è quello di scoprire gli
individui isolati di una rete. Ciò permette di introdurre il tema dei ideali di partecipanti ad un FG, in particolare la figura del timido
e dell’apatico. Il primo è una delle figure più frequentemente si presentano ad un FG. Si tratta di persone poco disinvolte che
tendono ad alienarsi dalla discussione, mentre il secondo, l’apatico, non è Interessato a partecipare, è indifferente, annoiato. 3)
Per quanto riguarda la leadership, il leader è un individuo che all’interno di un gruppo, occupa una posizione centrale e per questa
ragione è in grado di esercitare potere. Se un sistema presenta una bassa densità di relazioni, in esso ci sarà poco potere, mentre
se invece presenta un’alta densità di relazioni, ve ne sarà molto. Ma ciò che interessa il sociologo è capire come il potere si
distribuisca. A partire da Bavelas la SNA misura il potere tramite la centralità considerando tre indicatori fondamentali: Il grado, la
vicinanza e l’intermedietà. Il primo indica il numero delle connessioni in uscita o in entrata che si riferiscono a un particolare
modo. Il secondo indicatore misura quanto facilmente un attore sia raggiungibile o possa raggiungere gli altri e infine il terzo
misura quanto gli altri attori dipendano da un certo nodo per stabilire delle relazioni. Zammuner ha inoltre indicato 6 tipi ideali di
partecipante: L’esperto che influenza il gruppo, il dominante, l’intollerante, colui che divaga, il timido e il distratto. I primi due
corrispondono al diverso modo di essere leader in un gruppo, facendo uso della conoscenza e dell’autorità nel secondo. Ma ci
sarebbe un’ulteriore classificazione più completa, dove viene chiamato leader strumentale (l’uomo delle idee) e leader espressivo
(l’uomo più simpatico), rispettivamente l’esperto e il dominante. La figura dell’intollerante potrebbe invece essere scomposta in
due profili diversi, ovvero il critico colui che esprime dissenso motivandolo e il negativo ovvero colui che esprime dissenso a
prescindere. Poi vi sono il joker, il buffone che può avere effetti disgreganti nel gruppo, l’apatico, il distratto che include
atteggiamenti di indifferenza.

CAPITOLO 5. L’ANALISI QUALITATIVA COMPUTER-ASSISTITA.


I software per l'analisi qualitativa dei dati prendono il nome di CAQDAS e servono ad organizzare l'enorme mole di informazioni
che caratterizza il materiale di tipo qualitativo. Tale analisi interpreta i dati attraverso l'identificazione e la possibile codifica di
temi al fine di costruire ipotesi o teorie. Negli approcci qualitativi tale codifica viene effettuata a priori, mentre nella ricerca
quantitativa a posteriori. Non tutta l'analisi qualitativa prevede una codifica ma ciò avviene sempre nell'analisi computer assistita.
Nei CAQDAS il dato quantitativo viene preso in considerazione per recuperare le caratteristiche descrittive dei casi studiati per
agevolare l'analisi dei dati qualitativi. I CAQDAS si distinguono in programmi per la ricerca descrittivo-interpretativa →
categorizzazione e codifica del corpus testuale, e programmi per la ricerca orientata alla teoria → ispirati alla grounded theory e
sono quelli più diffusi. Una classificazione più recente distingue i CAQDAS in: -programmi di codifica e recupero delle informazioni
(code and retrive) -programmi per la costruzione delle teorie basati sulla codifica e -programmi per la ricerca e la gestione di testi
(prospettiva quali-quantitativa). Il primo gruppo comprende i software meno recenti e hanno strumenti di ricerca limitati. Il
secondo gruppo presenta strumenti di ricerca più evoluti e prevede la costruzione di mappe semantiche, categorizzazioni etc. Il
terzo gruppo è costruito secondo una prospettiva quali-quantitativa e includono strumenti di analisi del contenuto anche
avanzati. Le differenze tra questo tipo di programmi si sono fatte più sfumate, soprattutto tra i primi due. I CAQDAS sono molto
recenti (i primi sono apparsi negli anni 80) e presentano le fondamentali caratteristiche comuni ma ognuno ha poi delle
caratteristiche peculiari. Le principali funzioni svolte dai CAQDAS sono: -Registrazione/ archiviazione → la registrazione è una
funzione accessoria, mentre la seconda riguarda la capacità di organizzare efficacemente il materiale raccolto; tale organizzazione
avviene sempre all'interno di un processo che consente di rimanere sempre in contatto con i dati originali. -Codifica → isolare
frammenti di materiale empirico attribuendogli un'etichetta di riconoscimento. Il sistema di codifica può essere continuamente
aggiornato per far fronte a nuove evidenze empiriche o al progressivo sviluppo della teoria. Si può inoltre integrare il materiale in
tempo reale con note a margine dell'analista. -Recupero e collegamenti → il sistema di codifica consente il recupero efficiente
dell'informazione. Si possono effettuare ricerche sistematiche in forma di navigazione ipertestuale su materiale di ogni tipo.
L'insieme dei testi recuperati può essere sottoposto a vari tipi di analisi. -Analisi → analizzare differenze, somiglianze e relazioni
fra i diversi segmenti recuperati. Si possono effettuare anche forme rudimentali di content analysis, ovvero il conteggio delle
frequenze e le associazioni tra parole e codici. -Integrazione → integrazione interna, ovvero assistere il ricercatore nello sviluppo
di categorizzazioni, tipologie e proposizioni teoriche con la possibilità di collegarle insieme per elaborare una teoria. Integrazione
esterna, ovvero stabilire un collegamento con il materiale non direttamente raccolto dal ricercatore, ma utile per comprendere
meglio il fenomeno oggetto di studio. CRITERI PER SCEGLIERE UN CAQDAS: La soluzione migliore è seguirne l'evoluzione su
internet. I siti internet contengono dei demo dimostrativi che si possono utilizzare per brevi periodi di tempo. Un primo criterio
per scegliere un programma adatto alle proprie esigenze è quello della diffusione; infatti i programmi più noti sono quelli che gli
analisti hanno apprezzato di più, per i quali esiste un'assistenza puntuale e forum e newsgroup su internet. I CAQDAS più diffusi
sono Atlas.ti, N6, e HyperReserch. Il secondo criterio di scelta deve tener conto delle proprietà del programma uniti agli scopi del
ricercatore. Il terzo criterio invece deve tenere conto della struttura e della complessità della ricerca. Nella scelta di un CAQDAS
vanno considerati: – dati tecnici (prezzo, lingua, sistema operativo) – il formato dei dati accettai (es HTML/XML). Atlas.ti e Qualrus
sono i più versatili. – L'ergonomia (interfaccia, tipi di icone, gestione delle finestre) – Performance (tempi di ricerca
semplice/complessa, stabilità, uso della CPU) – La possibilità di includere e manipolare dati multimediali. – Tipi di codifica. –
Modalità di ricerca testuale. – La possibilità di creare diagrammi e grafici. –Funzioni statistiche. Oltre a queste caratteristiche ve
ne sono alcune tipiche di alcuni programmi, come ad esempio l'ausilio di tecniche di intelligenza artificiale nelle operazioni di
codifica offerta da Qualrus → il programma apprende le codifiche precedenti effettuate dal ricercatore e successivamente
suggerisce delle nuove codifiche. VISUALIZZAZIONE, INTEGRAZIONE, SERENDIPITY ED ESPLORAZIONE: INTRODUZIONE AD
ATLAS.IT:

Atlas.ti è uno dei programmi più diffusi e completi per l'analisi dei dati qualitativi. Tale programma si basa su 4 principi: -
visualizzazione, integrazione, serendipity ed esplorazione. Atlas.it è uno strumento che può essere validamente usato con finalità
dirette alla modifica di un modello. Tale programma è stato pensato per un contatto diretto con i testi attraverso letture ripetute
e un confronto interno tra i passi codificati dal ricercatore. Se il tipo di ricerca non prevede un tale approccio ai dati questo
software è sconsigliato. Atlas.ti opera su diversi livelli di analisi, ovvero: -I documenti primari → testi su cui viene effettuata
l'analisi. -Citazioni → brani di testo significativi. -Codici → servono ad etichettare particolari batterie di keywords o citazioni. -
Annotazioni → in cui il ricercatore appunta impressioni e spiegazioni. -Famiglie → raggruppano ad un livello superiore di
astrazione citazioni, codici e annotazioni. -Reti semantiche → rappresentazione dell'intreccio logico e semantico fra documenti,
citazioni, codici, annotazioni e famiglie. Nell'interfaccia di Atlas.ti l'area di lavoro è divisa in 4 parti: quella del menu e degli
strumenti, quella dei quattro box corrispondenti ai documenti primari, memo e codici, quella in cui si può scorrere il documento
attivo e quella in cui si posso vedere le operazioni effettuate dal ricercatore. Tutti i CAQDAS sono costruiti per il recupero selettivo
delle informazioni contenute nei documenti raccolti seguito di una codifica sistematica. Le caratteristiche dei CAQDAS sono utili
per una ricerca di tipo quantitativo in quanto in un report di ricerca permette di indicare il peso di ogni tema e la gamma delle
opinioni emerse, ottenendo una prima serie di indicazioni. Inoltre i codici possono essere usati per una comparazione →
all'interno del report vi possono essere comparazioni di ambiti, situazioni, etc e ciò si può fare ricorrendo a delle rappresentazioni
grafiche o rimanendo nell'ambito numerico. Nel caso invece di una ricerca di tipo qualitativo si sviluppa un'argomentazione e
vengono associati ad essa i brani più significativi dell'intervista a mo di prove empiriche, il testo scorre quindi così fra
esemplificazioni e prove a sostegno dell'argomentazione. Una particolare caratteristica di Atlas.ti consiste nel controllo di
attendibilità delle codifiche → il sistema controlla che sia stata la stessa persona o meno a porre le codifiche e se esse siano
allineate o meno. Infatti il sistema permette di associare il nome dell'autore la data e l'ora alla creazione di ciascun autore e
quindi si possono verificare anche le modifiche che possono venire fatte da diversi autori nel caso di un lavoro di gruppo. Tale
programma lascia anche ampia libertà nella scelta dei codici i quali possono anche essere raggruppati in famiglie. Un tratto
peculiare di Atlas.ti è la ricerca di combinazioni di codici, che è propedeutica alla costruzione delle reti semantiche. I risultati della
ricerca possono diventare dei nuovi codici detti super codici ed essere usati per nuove ricerche. Un altro strumento è quello delle
co-occorrenze → selezionare un certo codice e vedere tutte le possibili combinazioni con gli altri; tale metodo viene scelto
quando il ricercatore non ha in mente un'ipotesi precisa sui dati che ha raccolto. Atlas.ti, inoltre si offre anche alle costruzioni di
reti semantiche che legano tra loro i codici, espongono in modo immediato i risultati della ricerca e danno un senso complessivo
ai risultati. Il software dà anche la possibilità di produrre un documento HTML e quindi di renderlo accessibile a chiunque. In
Atlas.ti è anche possibile effettuare il merge tool, che riunisce i contributi di diversi membri di un team di ricerca. Il multi
authoring invece si ha quando molti autori lavorano su una sola unità ermeneutica. I CAQDAS favoriscono la triangolazione tra
ricercatori allo scopo di integrare i propri sistemi di codifica, integrarli e fonderli e sono di aiuto nullo nel caso di testi molto brevi.
lOMoARcPSD|3524121

Riassunto completo libro "La ricerca sociale


quali-quantitativa"
Metodologia della ricerca sociale (Università degli Studi di Palermo)

StuDocu non è sponsorizzato o supportato da nessuna università o ateneo.


Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)
lOMoARcPSD|3524121

La ricerca sociale quali-


quantitativa
Capitolo 1
In sociologia i termini qualitativo e quantitativo sono sempre stati usati con troppa disinvoltura per
colpa di una cattiva abitudine che ha portato da una parte i ricercatori alle prime armi ad usare tale
distinzione per prender confidenza con i nuovi mezzi e metodi , mentre dall'altra ha creato una
dicotomia tra i due approcci, che si sono cristallizzati in due fazione apposte disinteressate ad
imparare le une dalle altre. Questa dicotomia ha prodotto solo dei danni alla ricerca sociale
ostacolandone uno sviluppo maturo. Secondo Cavalli infatti “chi ha acquistato competenze nel
metodo quantitativo non ha competenze nell'altro approccio e viceversa”. L'opposizione tra qualità
e quantità viene da lontano dalla divisione tra cultura scientifica e cultura umanistica. Tale
opposizione ha avuto origine con la rivoluzione industriale e quella scientifica che hanno segnato
una frattura nei modi di conoscere la realtà sociale. E dalle quali emergerà il primo dibattito sul
metodo delle scienze storico sociali “Methodenstreit”. La metodologia della ricerca sociale nasce
letteralmente diabolica, ovvero doppia; dal greco diaballein ovvero colui che getta differenza. Il
doppio senso è qui implicito in quanto sottolinea i guasti che la doppiezza e la separatezza
metodologica ha prodotto nelle scienze storico sociali. Il problema non riguarda il metodo in se ma
se questo è adatto o meno agli obiettivi del ricercatore.
L'etimologia del termine quantitativo fa riferimento alla quantità numerica, alla determinazione
numerica; mentre il termine qualitativo si riferisce a ciò che concerne la qualità, e riguuarda il
concetto di determinazione logica; mira dunque a determinare la natura di un certo oggetto di
studio. Nell'analisi scientifica il termine qualitativo è spesso usato per indicare qualcosa di generico,
sempre in contrapposizione con il termine quantitativo, per indicare un disorso o un ragionamento
non supportato da dati numerici. Ma i sociologi cosa intendono quando usano i termini qualitativo e
quantitativo? È difficile trovare delle definizioni precise per i due tipi di approcci; vi è un
sostanziale vuoto definitorio su cui si regge la differenza qualità quantità. E quindi l'oggetto del
contendere si riduce a uno stereotipo. L'incerta distinguibilità tra i due termini porta dunque a
pensare che questi due termini siano gli estremi di un continuum multidimensionale, lungo il quale
sono possibili molteplici graduazioni intermedie. Nella teoria sono stati trovati molteplici differenze
tra i due approcci, tuttavia sul piano pratico le differenze non sono così nette.
Approccio QL Approccio QT
Paradigma
di riferimento Costruttivista Positivista

Campione non probabilistico/ probabilistico

Numero dei
casi pochi molti

organizzazione
dei dati post-codifica matrice CxV

In letteratura sono state proposte diverse argomentazioni contro la dogmatica separazione


qualità/quantità; la classificazione in questi due approcci di tutte le tecniche infatti non soddisfano i
criteri di esaustività, mutua esclusività e unicità del fundamentum divisionis.
L'approccio quantitativo si rifà al paradigma positivista il cui massimo esponente è Durkheim ,
mentre quello qualitativo si rifà al paradigma costruttivista e il maggior esponente è Weber. Essi
hanno aperto due strade ma dopo di essi quest'ultime si sono divise cristallizzandosi in potenti
modelli cognitivi. Tra i due approcci sono tuttavia possibili mole ibridazioni, anche a livello

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

tecnico, e se ciò è possibile, la questione della classificazione dei due approcci è quantomeno
discutibile. Negli ultimi anni, lo scarso sviluppo delle tecniche di raccolta ha contribuito a spostare
la questione quali-quantitativa all'analisi dei dati. Il metodo è scelta → dall'etimo bivio, il concetto
di metodo sta essenzialmente nella scelta delle tecniche da adottare. Tuttavia la scelta compiuta non
implica il ricorso ad una sola strada, anzi è il metodo stesso che suggerisce la triangolazione.
Negli ultimi anni la dicotomia tra i due approcci ha subito una svolta epistemologica → che ha
suscitato un nuovo interessa per la qualità. Tale svolta ha favorito l'apertura di un dialogo tra i due
approcci con il riconoscimento da parte dei sociologi quantiativi la dignità dell'approccio
concorrente. Un ulteriore contributo alla saldatura dei due approcci è stata data da criteri alieni che
hanno messo in crisi i vecchi criteri classificatori e lo sviluppo dell'analisi qualitativa computer-
assistita.

Capitolo 2
Uno degli strumenti per la raccolta dei dati più ibridi è l'intervista strutturata; essa non è ne un
questionario ne un'intervista n senso stretto e ciò consente un approccio di tipo quali-
quantitativo e si offre alla triangolazione dei dati.
L'intervista viene utilizzata in modo diverso a seconda degli obiettivi del ricercatore e può avere un
carattere qualitativo o quantitativo.
L'intervista strutturata viene utilizzata quasi sempre con l''approccio quantitativo. Essa è una
conversazione specializzata rivolta a un gran numero di soggetti scelti sulla base di un
campionamento (non necessariamente di tipo probabilistico), che segue una traccia rigida e
standardizzata il cui schema prevede risposte aperte e chiuse. La peculiarità di domande a risposta
aperta e chiusa consente al ricercatore di adottare un approccio quali-quantitativoe di effettuare la
triangolazione dei risultati. Infatti la matrice CxV conviverà con l'analisi del contenuto delle
domande a risposta aperta. Affinchè la triangolazione sia possibile è necessario adottare queste due
soluzioni in modo congiunto:
-analizzare rapidamente il testo delle risposte aperte , per esplorare rapidamente le aree tematiche
emerse nei discorsi degli intervistati, incrociandole con le variabili ottenute dalle domande a
risposta chiusa
-identificare attraverso le domande a risposta chiusa gli idealtipi di rispondente i cui profili verranno
poi approfonditi dall'analisi delle risposte aperte.
Prima di fare ciò è necessario considerare il tipo di dati raccolti e le distorsioni (bias) che vi
potrebbero essere.
La tecnica che risponde meglio all'esigenza in tipi diversi i casi di una matrice dati è la cluster
analysis → ovvero una tecnnica di analisi multivariata di tipo esplorativo. Essa ha l'obiettivo di
ordinare i casi in gruppi (cluster), in modo tale che essi risultino omogenei al loro interno ed
eterogenei tra loro. La cluster analysis si può definire una famiglia di tecniche che ospita al proprio
interno metodi differenti; ci sono 4 procedure di clustering → gerarchiche, delle partizioni ripetute
ed iterative (metodo delle k-medie), delle reti neurali.
Il metodo delle k-medie → il ricercatore deve definire a priori il numero dei cluster; ciascun caso
viene inizialmente assegnato ad un gruppo, e a questo punto, attraverso una procedura iterativa, gli
oggetti vengono spostati da un gruppo all'altro al fine di ottenere il massimo grado di omogeneità
all'interno dei gruppi e il massimo grado di eterogeneità all'esterno di essi. Tale operazione viene
fatta cercando di diminuire la distanza dal centro del cluster (centroide). L'ispezione delle medie di
ciascun cluster per ogni item suggerisce (nel caso della ricerca sul signore degli anelli il film) una
tipologia di spettatore e si ottengono vari profili che rappresentano degli idealtipi rispetto ai casi
concreti → quanto son distanti tali idealtipi dai casi concreti? → in termini statistici il tipo astratto
è rappresentato dal centroide, ovvero il centro ideale di gravità del cluster rispetto al quale ciascun
caso concreto è più o meno distante. Al termine della cluster analysis, utilizzando un software di
analisi statistica calcoleremo le distanze euclidee di ciascun caso dal centroide, quindi calcolandone
la media avremo una misura della variabilità interna di ogni cluster. E quindi la isura della sua
rappresentatività e coerenza. Per ogni caso incluso nella matrice CxV è possibile conoscere il

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

cluster a cui appartiene e la sua distanza dal centroide. Nell'analisi qualitativa si sviluppa
un'argomentazione e a suo sostegno e illustrazione vengono riportati dei brani d'intervista; il testoo
scorre quindi in un intreccio continuo tra l'analisi del ricercatore e illustrazioni esemplificazioni e
sostegni empirici. Per ogni caso citato è riportato il codice identificativo e la sua distanza dal
centroide. A questo punto è possibile arricchire il quadro con un'ulteriore analisi delle domande a
risposta aperta attraverso l'analisi delle corrispondenze lessicali → ACL.
Questa è una tecnica di tipo esplorativo: la sua utilità sta nel fatto che consente di ottenere una
prima sintesi dell'informazione contenuta nei dati senza dover effettuare nessun intevento di
codifica intermedia. L'ACL è una tecnica multivariata e multidimensionale che consente quindi di
leggere i dati in più prospettive. L'approccio dell'ACL è basato sulle differenze → il significato di
una parola riguarda le relazioni che essa ha con le altre parole:una parola è tanto più significativa
quanto più essa è specifica di determinati gruppi di persone.
L'ACL inoltre prevede la possibilità di connettere dati testuali con dati di contesto → nell'analisi
delle risposte aperte possiamo mettere in relazione le parole con ogni altra caratteristica di un
individuo → associare un vocabolario a determinate variabili della matrice.
Per effettuare l'ACL i dati testuali vengono organizzati in una matrice lemmi x testi → è una tabella
in cui ogni parola contenuta nel corpus rappresenta una riga, mentre ogni testo di cui il corpus è
formato rappresenta una colonna e dall'incrocio di ogni riga con ogni colonna avremo le occorrenze
di ciascuna parola per ciascun testo. Tali analisi producono uno o più grafici a dispersione.
Gli oggetti più significativi sono quelli più lontani dall'origine degli assi. Interpretare un asse
fattoriale significa trovare tutto ciò che c'è di analogo tra tutto ciò che è destra dell'origine degli
assi e tutto ciò che di analogo c'è a sinistra di questo. Dall'esplorazione di questi oggetti e dalle
opposizioni emerse è possibile identificare le principali opposizioni di senso presenti nel corpus.
Le associazioni di parole consentono di comprendere meglio le relazioni tra i lemmi1 interne al
cluster , e vengono calcolate con il coefficiente del coseno.

Capitolo 5
I software per l'analisi qualitativa prendono il nome di CAQDAS e servono ad organizzare l'enorme
mole di dati qualitativa. Tale analisi interpreta i dati attraverso l'identificazione e la possibile
codifica di temi al fine di costruire ipotesi o teorie. Negli approcci qualitativi tale codifica viene
effettuata a priori, mentre nella ricerca quantitativa a posteriori. Non tutta l'analisi qualitativa
prevede una codifica ma ciò avviene sempre nell'analisi computer assistita.
Nei CAQDAS il dato quantitativo viene preso in considerazione per recuperare le caratteristiche
descrittive dei casi studiati per agevolare l'analisi dei dati qualitativi.
I CAQDAS si distinguono in programmi per la ricerca descrittivo-interpretativa →
categorizzazione e codifica del corpus testuale, e programmi per la ricerca orientata alla teoria →
ispirati alla grounded theory e sono quelli più diffusi.
Una classificazione più recente distingue i CAQDAS in :
-programmi di codifica e recupero delle informazioni (code and retrive)
-programmi per la costruzione delle teorie basati sulla codifica
-programmi per la ricerca e la gestione di testi (prospettiva quali-quantitativa)
il primo gruppo comprende i software meno recenti e hanno strumenti di ricerca limitati.
Il secondo gruppo presenta strumenti di ricerca più evoluti e prevede la costruzione di mappe
semantiche categorizzazioni etc.
il terzo gruppo è costruito secondo una prospettiva quali-quantitativa e includono strumenti di
analisi del contenuto anche avanzati. Le differenze tra questo tipo di programmi si sono fatte più
sfumate, soprattutto tra i primi due.
I CAQDAS sono molto recenti (i primi sono apparsi negli anni 80) e presentano le fondamentali
caratteristiche comuni ma ognuno ha poi delle caratteristiche peculiari.
Le principali funzioni svolte dai CAQDAS sono:
-registrazione/ archiviazione → la registrazione è un funzione accessoria, mentre la seconda
riguarda la capacità di organizzare efficacemente il materiale raccolto; tale organizzazione avviene

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

sempre all'interno di un processo che consente di rimanere sempre in contatto con i dati originali.
-codifica → isolare frammenti di materiale empirico attribuendogli un'etichetta di riconoscimento.
Il sistema di codifica può essere continuamente aggiornato per far fronte a nuove evidenze
empiriche o al progressivo sviluppo della teoria. Si può inoltre integrare il materiale in tempo reale
con note a margine dell'analista
-recupero e collegamenti → il sistema di codifica consente il recupero efficiente dell'informazione.
Si possono effettuare ricerche sistematiche in forma di navigazione ipertestuale su materiale di ogni
tipo. L'insieme dei testi recuperati può essere sottoposto a vari tipi di analisi.
-analisi → analizzare differenze, somiglianze e relazioni fra i diversi segmenti recuperati. Si
possono effettuare anche forme rudimentali di content analysis, ovvero il conteggio delle frequenze
e le associazioni tra parole e codici.
-integrazione → integrazione interna, ovvero assistere il ricercatore nello sviluppo di
categorizzazioni , tipologie e proposizioni teoriche con la possibilità di collegarle insieme per per
elaborare una teoria. Integrazione esterna, ovvero stabilire un collegamento con il materiale non
direttamente raccolto dal ricercatore, ma utile per comprendere meglio il fenomeno oggetto di
studio.
-visualizzazione → i risultati dell'analisi possono essere visualizzati sul computer in vari modi; tra
questi le rappresentazioni grafiche sono molto apprezzate dai ricercatori.
-sviluppo e validazione di teorie → molti programmi sono concepiti come un framework che
agevola la costruzione di teorie a partire dai dati. La costruzione della teoria avviene utilizzando
sofisticati metodi di visualizzazione supportati da molti CAQDAS.

Criteri per scegliere un CAQDAS


La soluzione migliore è seguirne l'evoluzione su internet. I siti internet contengono dei demo
dimostrativi che si possono utilizzare per brevi periodi di tempo.
Un primo criterio per scegliere un programma adatto alle proprie esigenze è quello della diffusione;
infatti i programmi più noti sono quelli che gli analisti hanno apprezzato di più, per i quali esiste
un'assistenza puntuale e forum e newsgroup su internet. I CAQDAS più diffusi sono Atlas.ti, N6, e
HyperReserch.
Il secondo criterio di scelta deve tener conto delle proprietà del programma uniti agli scopi del
riceratore.
Il terzo criterio invece deve tenere conto della struttura e della complessità della ricerca.
Nella scelta di un CAQDAS vanno considerati:
– dati tecnici (prezzo,lingua,sistema operativo)
– il formato dei dati accettai (es HTML/XML) Atlas.ti e Qualrus sono i più versatili
– l'ergonomia (interfaccia, tipi di icone, gestione delle finestre)
– performance (tempi di ricerca semplice/complessa, stabilità, uso della CPU)
– la possibilità di includere e manipolare dati multimediali
– tipi di codifica
– modalità di ricerca testuale
– la possibilità di creare diagrammi e grafici
– funzioni statistiche

Oltre a queste caratteristiche ve ne sono alcune tipiche di alcuni programmi, come ad esempio
l'ausilio di tecniche di intelligenza artificiale nelle operazioni di codifica offerta da Qualrus → il
programma apprende i le codifiche precedenti effettuate dal ricercatore e successivamente
suggerisce delle nuove codifiche.

Visualizzazione, integrazione serendipity ed esplorazione: introduzione ad Atlas.ti


Atlas.ti è uno dei programmi più diffusi e completi per l'analisi dei dati qualitativi. Tale programma
si basa su 4 principi:
-visualizzazione, integrazione, serendepity, esplorazione.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


lOMoARcPSD|3524121

Il modello di riferimento è la grounded theory di Strauss e Glaser.in cui le categorie di analisi, le


ipotesi e la teoria vengono fatti emergere dai dati.
Atlas ti.è uno strumento che può essere validamente usato con finalità dirette alla modifica di un
modello. Tale programma è stato pensato per un contatto diretto con i testi attraverso letture ripetute
e un confronto interno tra i passi codificati dal ricercatore. Se il tipo di ricerca non prevede un tale
approccio ai dati questo software è sconsigliato.
Atlas.ti opera su diversi livelli di analisi
-i documenti primari → testi su cui viene effettuata l'analisi
-citazioni → brani di testo significativi
-codici → servono ad etichettare particolari batterie di keywords o citazioni
-annotazioni → in cui il ricercatore appunta impressioni spiegazioni etc.
-famiglie → raggruppano ad un livello superiore di astrazione citazioni, codici e annotazioni
-reti semantiche → rappresentazione dell'intreccio logico e semantico fra documenti,
citazioni,codici annotazioni e famiglie.
Nell'interfaccia di Atlas.ti l'area di lavoro è divisa in 4 parti: quella del menu e degli strumenti,
quella dei quattro box( citazioni, documenti primari, memo e codici), quella in cui si può scorrere il
documento attivo e quella in cui si posso vedere le operazioni effettuate dal ricercatore.
Tutti i CAQDAS sono costruiti per il recupero selettivo delle informazioni contenute nei documenti
raccolti seguito di una codifica sistematica. Le caratteristiche dei CAQDAS sono utili per una
ricerca di tipo quantitativo in quanto in un report di ricerca permette di indicare il peso di ogni tema
e la gamma delle opinioni emerse, ottenendo una prima serie di indicazioni. Inoltre i codici possono
esser usati per una comparazione → all'interno del report vi possono essere comparazioni di ambiti,
situazioni, etc. ciò si può fare ricorrendo a delle rappresentazioni grafiche o rimanendo nell'ambito
numerico. Nel caso invece di una ricerca di tipo qualitativo si sviluppa un'argomentazione e
vengono associati ad essa i brani più significativi dell'intervista a mo di prove empiriche, il testo
scorre quindi così fra esemplificazioni e prove a sostegno dell'argomentazione.
Una particolare caratteristica di Atlas.ti consiste nel controllo di attendibilità delle codifiche → il
sistema controlla che sia stata la stessa persona o meno a porre le codifiche e se esse siano allineate
o meno. infatti il sistema permette di associare il nome dell'autore la data e l'ora alla creazione di
ciascun autore e quindi si possono verificare anche le modifiche che possono venire fatte da diversi
autori nel caso di un lavoro di gruppo. Tale programma lascia anche ampia libertà nella scelta dei
codici i quali possono anche essere raggruppati in famiglie. Una pecularità di Atlas.ti è la ricerca di
combinazioni di codici, che è propedeutica alla costruzione delle reti semantiche. I risultati della
ricerca possono diventare dei nuovi codici detti super codici ed essere usati per nuove ricerche. Un
altro strumento è quello delle co-occorrenze → selezionare un certo codice e vedere tutte le
possibili combinazioni con gli altri; tale metodo viene scelto quando il ricercatore non ha in mente
un'ipotesi precisa sui dati che ha raccolto.
Atlas.ti si offre anche alla costruzioni di reti semantiche che legano tra loro i codici, espongono in
modo immediato i risultati della ricerca e danno un senso complessivo ai risultati.
Il software da anche la possibilità di produrre un documento HTML e quindi di renderlo accessibile
a chiunque . In Atlas.ti è anche possibile effettuare il merge tool , che riunisce i contributi di diversi
membri di un team di ricerca. Il multi authoring invece si ha quando molti autori lavorano su una
sola unità ermeneutica. I CAQDAS favoriscono la triangolazione tra ricercatori allo scopo di
integrare i propri sistemi di codifica, integrarli e fonderli.
I CAQDAS sono di aiuto nullo nel caso di testi molto brevi.

Scaricato da Bartolo Aguglia (bartolo.aguglia@gmail.com)


Riassunti del libro Fondamenti di Sociologia
(ANTHONY GIDDENS)

CONTESTO STORICO: “Sociologia” è un termine moderno che si sviluppa a partire dal XIX
secolo con Comte e il Positivismo, favorito dai mutamenti che hanno caratterizzato la Rivoluzione
francese: sovranità che appartiene alla Nazione e al Popolo. La sociologia è correlata al
modernismo poiché, affinché avvenga il mutamento della società, bisogna distruggere le radici e
rigettare le basi per un nuovo futuro migliore (distruzione creatrice): Pensare a cosa si può fare per
uscire dallo Status Quo è il pensiero moderno:

1. La politica diventa un luogo in cui si decide del “cambiamento” (e non del mantenimento)
della società. L’attività legislativa aumenta (Contratto sociale – Rousseau, in cui si delinea
l’idea di Stato democratico, in sorprendente anticipo sui tempi).

2. Avviene la Rivoluzione Industriale, in cui aumenta lo sviluppo e l’utilizzo di nuove


tecnologie e di nuove macchine: aumenta la produzione, che accantona quella precedente
di Sussistenza, in cui non vi era surplus. I soggetti diventano i Capitalisti e gli Operai.
GIOCO A SOMMA ZERO: (se io ho molto, l’altro ha poco) → Nascono inevitabilmente
disuguaglianze a causa del lavoro salariato, conseguenza della rivoluzione industriale. Se
intorno al 1500 si parla di ceti stabiliti per legge, ora la rivoluzione industriale (e dunque il
lavoro salariato) permette di migliorare la propria classe sociale: le radici diventano
economiche.

3. Si ha un netto mutamento culturale con lo sviluppo dell’Illuminismo: Il mondo non è più


diretto dal sovrannaturale, ma dalla ragione. Si ha un disincanto dell’uomo. Attraverso il
metodo scientifico è possibile dominare il mondo, stimolando il pensiero dell’uomo. Si
supera quel concetto medievale a cui era a capo la Res publica cristiana, in cui si sosteneva
che la ragione era nelle mani di Dio, o più propriamente, era Dio. È implicito che lo
sviluppo della ragione porti un maggior uso di essa per molteplici fini: diventa semplice
manipolare la società per mezzo della ragione: l’uomo che la possiede, infatti, ha i mezzi
per cambiare la società, negativamente o positivamente, manipolando la mente di chi non ne
ha.

COS’È LA SOCIOLOGIA: la sociologia (XIX secolo) è una scienza sociale che studia i
fenomeni della società. Deriva etimologicamente da Socius (latino) e Logos (greco) Studio
della società. Il suo fine è quello di produrre teorie per interpretare ciò che avviene nella società
umana, trovando spiegazioni su vari meccanismi di determinati contesti storico-sociali. Per mezzo
di tale scienza è possibile decodificare il comportamento dell’essere umano in più contesti
sociali, senza prendere in considerazione un particolare episodio (come fa la Storiografia). In Italia,
la sociologia riprende forma dopo gli anni 50 del 900, in quanto bloccata col fascismo.

APPROCCI: quando non avviene uno studio dettagliato di un preciso fenomeno o episodio
storico, è possibile parlare di approccio Nomotetico (dal greco “nomos”: legge, “Thetikòs”: che
tende a stabilire), che ha l’obiettivo di produrre una conoscenza generalizzata, applicabile in
diversi contesti, con possibilità di fare previsioni del futuro (es: fenomeni economici). Si parla di
approccio Ideografico, invece, quando non avviene una generalizzazione; gli eventi umani sono
irripetibili perché dipendono da un determinato fenomeno e contesto.

RICERCA EMPIRICA: si basa su protocolli razionali, condivisi in una comunità scientifica, e


serve per studiare molteplici fenomeni. La cultura scientifica indaga la realtà, studiando quali
procedure sono necessarie per studiare ed interpretare quest’ultima: non esiste un processo
conoscitivo perfetto (ad hoc). La sociologia costruisce un ragionamento e lo dimostra (è valido
ciò che penso?); dev’essere una conoscenza condivisa, pubblica (Pubblicità delle conoscenze), per
moltiplicare il sapere (acquista valore solo se condivisa). La filosofia, invece, si ferma al pensiero
senza usare strumenti per il controllo delle idee e della mente.

CONCETTO DI CULTURA: in sociologia, secondo la concezione di Tylor (antropologo inglese


- 1871), si definisce cultura quell’insieme di segni, artefatti e modi di vita che gli individui
condividono. In senso antropologico, cultura è tutto ciò che possiede un determinato significato
(simboli, linguaggio), e il termine è riferito a un gruppo specifico: la cultura ha quindi dei confini
riconoscibili.

A partire dagli anni 60/70 del 900, il concetto di cultura ha iniziato ad avere un ruolo centrale e
non più marginale. La struttura produttiva e occupazionale (società dei servizi) cambia e si
sviluppano i vari settori. La cultura dunque porta cambiamento, che a sua volta valorizza il
marketing, la qualità del prodotto, le strategie economiche: tutti elementi che necessitano la
conoscenza.

Ogni cultura è relativa alla società o al gruppo a cui appartiene. Essa può essere per esempio la
vita familiare, la religione, gli abbigliamenti, le consuetudini ecc, ed è limitata ad un determinato
arco di tempo e luogo. Uno dei più grossi errori della storia è stato quello di gerarchizzare la
cultura, un vero e proprio atto di egoismo che ha comportato la credenza e il sostenimento di
culture “superiori” ad altre, generando il blocco culturale delle nazioni e quindi conflitti
internazionali. Oggi invece siamo nel pieno della globalizzazione: si può dunque parlare di
Sincretismo, la fusione/conciliazione di più credenze.

DISTINZIONI: la cultura si può distinguere in base agli Aspetti materiali e quelli Immateriali:

1. Aspetti materiali (cultura materiale): sono oggetti, artefatti, tecnologia e beni di consumo:
prodotti da una società. Secondo William Ogburn (sociologo Usa), rielaborando la teoria
Marxiana, la cultura materiale muta sempre più velocemente in maniera progressiva.

2. Aspetti immateriali (cultura adattiva): linguaggio, simboli, conoscenze ecc.

Tuttavia esiste una correlazione (o meglio Interdipendenza) tra i due tipi di cultura, ovvero non
può esistere la cultura materiale senza quella immateriale: la materiale è portatrice
dell’immateriale, ed è responsabile dei cambiamenti e dei modi di vita. Secondo Weber, in Cina
erano molto più avanzati dell’Occidente, ma la presenza dell’etica confuciana e il tipo di società
bloccavano la rivoluzione capitalista. In occidente, invece, la rivoluzione protestante sbloccò il
capitalismo e svegliò il suo sviluppo economico. La cultura immateriale è sempre più lenta: le
mentalità rimangono immutate per secoli.
ASPETTI IMMATERIALI: sono i valori, le norme e i simboli:

1. Valori: definiscono ciò che è considerato importante in una cultura. I valori sono le idee e
le sensibilità. Guidano gli esseri umani nella loro interazione con l’ambiente sociale.

2. Norme: Regole di comportamento scritte (formali) o non scritte (informali), che riflettono
i valori di una cultura. Il conformismo, per esempio, è l’adattarsi a opinioni, usi e
comportamenti preesistenti e prevalenti. Le norme informali sono soggette a sanzioni da
quelle formali.

3. Simboli: ogni insieme di lettere dell’alfabeto rimanda a un significato. Il linguaggio, infatti,


è un simbolo. Ciò che ci distingue dagli altri esseri viventi, è la capacità di condividere e
comprendere i simboli.

DIFFUSIONE e INFLUENZA: Esistono diversi tipi di cultura:

1. Cultura dominante (Egemone): è il cosiddetto senso comune, l’insieme delle opinioni


prevalenti in una determinata società: il modo in cui giudichiamo le cose.

2. Subcultura: è l’insieme di valori o norme che identificano un gruppo all’interno di una


società (Partito politico, Hacker, ecc.). Si pone al fianco di quella egemone, ma non per
questo è da considerarsi inferiore. Non si pone in contrasto con essa. La società odierna è
caratterizzata da più minoranze culturali.

3. Controcultura: si pone in conflitto con le norme dominanti e mina a sostituirsi a quella


egemone (prevalente). È simile al concetto di anticonformismo.

LA CULTURA IN BASE AL SOGGETTO PRODUTTORE: Da chi viene creata una cultura? E


a quali scopi? E’ possibile distinguere diversi livelli di cultura:

1. Alta cultura: composta da cose prodotte intenzionalmente dagli intellettuali, con uno
scopo preciso, un proprio codice e canone estetico.

2. Cultura popolare: cultura prodotta non intenzionalmente da Non intellettuali nel corso
delle loro attività sociali (es. cucina, costumi, proverbi). È la tradizione.

3. Cultura di massa (Pop): prodotta intenzionalmente dai mass media e dalle industrie.
L’industria culturale è composta da cinema, tv, radio ecc, e traggono profitto economico.
La cultura Pop è la cultura di massa che sostituisce la tradizionale cultura popolare,
egemonizzando la vita quotidiana degli individui e dei gruppi. Il capitalismo e i mass
media hanno dominato e pilotato in pochi anni gli individui e le loro menti, plasmandoli
per mezzo dei prodotti di massa (di cui si fa un grande uso), pur avendo un margine di
libertà di utilizzo.

PROCESSO DI SOCIALIZZAZIONE: la cultura ci distingue dagli altri esseri viventi perché è


fonte di astrattismo, che a sua volta è creatore di cultura. Con quest’ultima, un gruppo è in grado
di trovare stabilità e sopravvivere. I nuovi nati richiedono un lungo periodo di protezione, in
quanto non sono in grado di trovare autonomamente le risorse per sopravvivere: le conoscenze nel
periodo formativo richiedono dunque una stabilità del gruppo in cui il bambino vive, aumentando
la sua forza strutturale.

La cultura è parte del nostro modo di essere (identità di base): l’uomo fa della cultura il suo modo
di vivere. Il processo di socializzazione, quindi, fa diventare l’individuo un “Attore competente”,
che acquisisce le conoscenze di base di un gruppo (regole morali interne) che gli consentono di
essere riconosciuto come un suo membro.

1) PROCESSO DI SOCIALIZZAZIONE PRIMARIA: è il periodo più intenso di


apprendimento culturale, e si estende dalla nascita fino ai 5/6 anni. E’ un processo mediato dai
primi agenti di socializzazione (famiglia, scuola ecc.) già socializzati. Il bambino deve acquisire
conoscenze e pratiche educative di base, e deve imparare a vivere in società. I due momenti del
processo primario sono la Socializzazione, in cui il bambino apprende le regole universali (e
generali) a fondamento di ogni socialità umana, e l’Acculturazione, che consiste
nell’apprendimento di norme specifiche di un determinato gruppo.

2) PROCESSO DI SOCIALIZZAZIONE SECONDARIA: comincia dopo l’infanzia per


continuare fino alla maturità e oltre. In età adulta l’individuo diventa attore competente di un ruolo
ben determinato. Si può sperimentare la socializzazione secondaria ogni volta che si entra
all’interno di un nuovo gruppo (es. passaggio dal liceo all’università). La Consapevolezza è il
compimento della socializzazione secondaria: è possibile comprendere l’intero contesto solo
quando ormai termina un processo/fase. Tuttavia, la socializzazione Primaria lascia delle tracce
molto più profonde (senso di sicurezza, insicurezza, realtà, ecc.) rispetto alla secondaria, che si
basa su principi facilmente modificabili e messi in discussione.

RUOLI e SENTIMENTI NEL GRUPPO: ogni individuo possiede un ruolo nel gruppo. Un ruolo
sociale è l’insieme dei comportamenti socialmente definiti che ci aspettiamo da chi ricopre un
determinato status o posizione sociale. Lo Status può essere ascritto (assegnato sulla base di fattori
biologici) o acquisito (ottenuto attraverso una prestazione). In ogni società ci sono master status,
cioè status che hanno priorità su tutti gli altri e determinano la posizione sociale complessiva di una
persona.

Tale ruolo può essere anche considerato come una maschera; il professore, ad esempio, è
conosciuto dagli studenti solo come docente. In un gruppo, però, l’utilizzo della maschera può
servire a nascondere il sentimento della vergogna e di colpa:

a) Sentimento della vergogna: avviene quando l’individuo crede che gli altri lo giudichino
e che egli non sia in grado di stare in quel determinato gruppo.

b) Sentimento della colpa: si afferma nella dimensione dell’autocoscienza, ovvero si


percepisce la colpa a livello di coscienza. Il soggetto è consapevole ed identifica in un
oggetto/situazione ben definiti la ragione del proprio malessere psicologico.

SOGGETTIVITÀ e COERENZA: l’autonomia è solo uno dei principi necessari in un gruppo. Di


grande rilevanza è anche il principio della coerenza; i diversi costumi di un individuo necessitano
di coerenza se messi a confronto, devono avere unitarietà (Interna coerenza). La persona deve
possedere autenticità, distinguendo l’apparenza dalla natura reale. L’individuo normale, in
psichiatria (principio ripreso da Freud), doveva possedere interna coerenza nel proprio Ego; in caso
contrario, si manifestavano problemi psichici o disturbi mentali, più propriamente ridotti nel
termine Schizofrenia (essere scisso in due).

CAPOVOLGIMENTO DEI PRINCIPI: negli anni 70’ si verifica un processo inverso per quanto
riguarda il principio di coerenza: vi era un’immagine dell’Io frammentata. L’idea dell’individuo
sano svanisce, e lo stesso accade per l’educazione, che non promuove più l’individuo coerente. La
normalità consiste ora nel ricoprire il ruolo così com’è, comportandosi in modo differente a seconda
del contesto (maschera).

DESIDERIO e EMOZIONE: desidero ed emozione prevalgono sulle altre dimensioni (Principio


dell’individualizzazione). È possibile distinguere la letteratura formativa giovanile (romanzo di
formazione) da quella di fantasia:

a) Romanzo di formazione: Pinocchio è un esempio di letteratura formativa, in quanto


inizialmente non agisce come essere morale essendo ancora in fase di formazione. La
mancanza di moralità svanisce con l’intervento di agenti esterni che lo riportano sulla
retta via: Pinocchio diventa quindi bambino e accetta i suoi doveri diventa un individuo
autocosciente e responsabile.

b) Romanzo di fantasia: è un prodotto di massa che si inserisce nella mentalità e nella


cultura dell’individuo. Il contesto non è realistico, e domina una rappresentazione
compulsiva ed emozionale. Il soggetto vive in emozione pur cadendo nell’immoralità: ciò
viene esaltato e spinge la mente umana a riconoscerlo come giusto, vero e reale.

ISTITUZIONALIZZAZIONE: quando all'interno di una società, un insieme determinato di


valori, norme, ruoli e simboli si struttura e si consolida nel corso del tempo, assumendo la
caratteristica dell'esteriorità, Coercività e Generalità (Durkheim): nasce l'Istituzione. Le
istituzioni sono gli elementi che rendono possibile l’esistenza stessa della “società” (le danno forma,
organizzazione, stabilità e riconoscibilità). Rappresentano i rapporti sociali reali ed hanno un alto
valore simbolico. Gli attori sociali considerano le istituzioni come “oggettive”, quasi fossero
elementi “naturali”, “a-problematici”, “dati per scontato”, comportamenti complessi che devono
essere seguiti.

Le istituzioni sono spesso formalizzate dal diritto positivo e la loro osservanza è garantita da
sanzioni formali o informali. Le istituzioni sono presenti in ogni ambito della vita sociale (sono
perciò politiche, culturali, economiche, ecc.) e possono essere divise in Istituzioni “organizzate”
(come lo Stato, che possiede un apparato organizzativo, risorse, corpi di funzionari ecc.) e
Istituzioni “diffusive” (il linguaggio, il denaro ecc.).

ISTITUZIONI TOTALI: il loro compito è esercitare il controllo totale della vita degli individui;
attraverso tale controllo, viene imposta una disciplina impossibile da eludere (si diventa automi) –
Primo Levi descrive dettagliatamente come avviene il processo.

È possibile individuare come maggior esponente dell’istituzione totale il Campo di


concentramento. Il suo scopo, infatti, era quello di annientare l’individualità e la personalità
delle persone al suo interno. Si eliminavano processi fondamentali come il sonno e il cibo,
attuando tutto ciò che annienta la volontà di reazione. Le Persone migliori erano le prime ad essere
eliminate, in quanto possedevano ancora la volontà di reazione. I nomi venivano cancellati e
sostituiti da numeri, per distruggere l’autorità e la personalità dell’individuo.

Le istituzioni totali nominavano poi dei Kapò, persone interne ad un gruppo responsabili degli
individui al suo interno. I Kapò dovevano esercitare l’autorità contro i loro compagni: il loro
compito fondamentale era quello di reprimere sul nascere le possibili idee e speranze di rivolte
interne e di far funzionare alla perfezione la "comunità" carceraria.

LEGGE BASAGLIA: ispirandosi alle idee dello psichiatra ungherese Thomas Szasz, Franco
Basaglia (psichiatra e neurologo italiano) si impegnò nel compito di riformare l'organizzazione
dell'assistenza psichiatrica ospedaliera, proponendo il superamento della logica manicomiale. La
Legge 180 è la prima ed unica legge che impose la chiusura dei manicomi e regolamentò il
trattamento sanitario obbligatorio, istituendo i servizi di igiene mentale pubblici.

IDENTITA’: in sociologia l’identità è sempre un punto di incontro tra processo di


istituzionalizzazione e di socializzazione. L’identità può essere:

a) Sociale: L’identità sociale “ci dice” di quale gruppo, di quale collettività, noi siamo parte
(quindi come ci definiamo e veniamo definiti, come ci accomuniamo e distinguiamo dagli
“altri”, formando un senso del “noi” e del “loro”). È plurima e cumulativa.

b) Individuale: ci distingue dagli altri ed è la prima fonte di tutti i processi di affermazione,


emancipazione e soggettivazione all’interno di un gruppo. Si riferisce al processo di
sviluppo personale attraverso il quale elaboriamo il senso della nostra unicità.

- Uomo nel gruppo: dal punto di vista generale, le norme di socializzazione (elementi che
possono mutare nel tempo) formano l’impronta fondamentale per la personalità di base, che
consente all’individuo di vivere in un gruppo umano. L’uomo, nella storia, è sempre stato parte
organica di un gruppo (tribù, famiglia) e ha regolato le proprie azioni e l’autocoscienza in base
agli altri individui presenti nel gruppo, come per esempio aderire alla religione dominante ecc.

- Iliade e Odissea: le azioni dipendono da forze esterne all’individuo (es. la volontà degli déi):
Nell’Iliade, per esempio, i soggetti si comportano in relazione agli altri individui e alle forze
esterne. Nell’Odissea, Ulisse fa sorgere l’Io penso, la capacità di esprimersi autonomamente,
l’auto-riflessione.

INDIVIDUALIZZAZIONE: nel sistema sociale contemporaneo è in atto un potente processo di


Individualizzazione: l’identità sociale non si basa più soltanto sulla posizione nel processo
produttivo. Siamo chiamati dalle istituzioni e dalle logiche sistemiche a scegliere e costruire la
nostra identità sociale (che si frammenta). La nostra identità individuale, fondamento del Sé, tende
sempre più a frammentarsi, divenendo erratica.

GENERE E SESSUALITÀ: occorre fare un’importante distinzione tra Sesso e Genere. I sociologi
usano il termine Sesso per riferirsi alle differenze anatomiche e fisiologiche che caratterizzano i
corpi maschili e femminili. Riguarda la conformazione fisica e ormonale, la differenza dei
cromosomi. Per Genere, invece, si intendono le differenze psicologiche, culturali e sociali, che
sono connesse alla sessualità di maschi e femmine. Il genere è tutto ciò che non riguarda le
differenze fisiche e biologiche tra uomo e donna, bensì riguarda le differenze sociali che incidono
nelle relazioni fra essi. Le modalità del genere vengono apprese all’interno dell’ambiente sociale di
riferimento, e sono differenti a seconda della cultura.

DIFFERENZE DI GENERE: benché i ruoli di uomini e donne siano variabili da cultura a cultura,
non esiste alcuna società conosciuta in cui le donne abbiano maggior potere degli uomini. I ruoli
maschili sono infatti più reputati e premiati di quelli femminili. Alle donne sono
tradizionalmente affidati i lavori domestici e la cura dei figli, mentre gli uomini hanno la
responsabilità di mantenere la famiglia. Questa divisione sessuale del lavoro ha fatto sì che uomini
e donne raggiungessero posizioni ineguali in termini di potere. Tuttavia, queste posizioni hanno
perso credito a causa dei processi di emancipazione femminile in tutto il mondo. Rimangono
comunque le differenze di genere e le disuguaglianze sociali.

Le differenze di genere riguardano diverse concezioni sul genere:

1. Differenza naturale: determinati aspetti della biologia umana esternano dei


comportamenti innati tra uomini e donne. Infatti, si parla spesso della maggiore tendenza
di aggressività da parte dell’Uomo rispetto alla donna, ma ciò può variare a seconda della
cultura. Inoltre, tali concezioni si basano più sullo studio dell’animale. Le differenze tra
uomo e donna non derivano per forza dalla biologia, anzi, spesso esse provengono dal
sistema culturale in cui gli individui vivono. Ogni comportamento umano, infine, è
determinato dall’interazione sociale con altri individui.

2. Socializzazione di genere: pone l’accento sull’apprendimento dei ruoli sociali, che


avviene attraverso la famiglia, la scuola e i media (primi agenti di socializzazione. Lo
scopo della socializzazione di genere è il mantenimento dell’ordine sociale. Tramite il
contatto con diversi genti della socializzazione, i bambini interiorizzano gradualmente le
norme e le aspettative sociali corrispondenti al proprio sesso. L’uomo e la donna vengono
socializzati in maniera differente: per esempio, il bambino può ricevere sanzioni positive
(che bambino coraggioso!) o negative (i maschi non giocano con le bambole), e ciò aiuta a
prevenire comportamenti devianti e a conformarsi ai ruoli sessuali attesi. Gli esseri umani,
però, non sono oggetti passivi che subiscono senza discussioni la programmazione di
genere: un bambino può sin dall’inizio rifiutarsi alle regole di genere. L’uomo e la donna
possono creare e modificare i propri ruoli. Ciò non esclude comunque che le identità di
genere siano il risultato di influenze sociali.

Con le nuove tecnologie, il processo di socializzazione di genere inizia sin da quando il bambino si
trova ancora nella pancia, poiché il genitore prepara i vestiti in base al sesso del bambino, ecc. La
socializzazione di genere è stata talmente tanto forte, che noi troviamo una differenza che vale per
entrambi i sessi: gli uomini sono stati socializzati all’essere, mentre le donne all’essere percepite.

IDENTITA’ DI GENERE: esistono due teorie che spiegano la formazione dell’identità di genere.
Secondo queste due teorie, le differenze di genere si formano inconsciamente durante i primi anni
di vita, anziché risultare da una predisposizione biologica:
1. La teoria di Sigmund Freud: secondo Freud, l’apprendimento delle differenze di genere
da parte dei bambini è incentrato sulla presenza o l’assenza del pene. L’uomo è tale nella
virtù di avere questa caratteristica. La formazione delle identità di genere ha inizio nella
Fase edipica, in cui il rapporto tra i genitori e il bambino (intorno ai 5 anni) è essenziale. Il
bambino si sente minacciato dal fatto che il padre comincia a esigere da lui disciplina e
autonomia, sottraendolo alle cure affettuose della madre. Inconsciamente, il bambino vede
il padre come rivale nella lotta per le attenzioni della madre, fino a sviluppare la paura della
castrazione da parte del padre. Ciò induce il bambino ad accettare la superiorità di
quest’ultimo, ed inizia ad identificarsi nel padre con i suoi atteggiamenti aggressivi. Le
bambine, da parte loro, soffrono per l’invidia del pene, in quanto prive dell’organo visibile
che distingue i maschi. Ciò induce la bambina a svalutare la madre, anche lei priva del
pene. Quando la bambina inizia a identificarsi con la madre, assume gli atteggiamenti
remissivi tipici dell’identità femminile.

2. La teoria di Nancy Chodorow: Nancy Chodorow, studiosa psicoanalista, sostiene che sia
più importante la madre rispetto al padre, poiché la formazione dell’identità di genere si
ha a causa dell’attaccamento alla madre, che dovrà poi essere spezzato per poter acquisire
un senso di sé. Tuttavia, le bambine rimangono più vicine alla madre, e non essendoci una
separazione netta con essa, la bambina ha un senso di sé meno separato dagli altri. I bambini
maschi invece acquistano il senso di sé in seguito a un rifiuto della vicinanza alla madre,
ricavando la maschilità da ciò che non è femminile. Ecco perché le donne sono più
sensibili, e gli uomini sono meno capaci di intrattenere rapporti di intimità con altri. Il loro
approccio alla vita è più attivo e incentrato sulla prestazione, però hanno meno capacità di
capire i propri sentimenti e quelli altrui. Secondo la Chodorow, dunque, sarebbe la
maschilità, invece della femminilità, ad essere definita come perdita (esattamente il
contrario di Freud). La separazione precoce del maschio con la madre, fa si che gli uomini
si sentano in pericolo se coinvolti in un rapporto intimo con gli altri. Le donne, al contrario,
provano il sentimento opposto.

CRITICHE ALLA TEORIA DI CHODOROW: la chodorow, tuttavia, non spiega e non


considera tutte le lotte che sono state fatte dalle donne per raggiungere l’indipendenza e
l’autonomia. La femminilità, infatti, può anche avere degli elementi di aggressività. La Chodorow,
poi, considera soltanto una famiglia bianca occidentale. E cosa accade invece se i bambini vengono
cresciuti da più adulti insieme? Comunque sia, la sua teoria ha aiutato a comprendere
l’inespressività maschile, ossia la difficoltà degli uomini a manifestare i propri sentimenti.

SESSUALITÀ E SOCIETÀ: la differenza fondamentale tra sessualità umana e animale, è che


in quella umana si può parlare di comportamento significativo, ed è collegata non soltanto alla
dimensione simbolica, ma anche alla consapevolezza e alle emozioni della persona. Esiste un
imperativo biologico alla riproduzione, altrimenti la specie umana si sarebbe estinta.

IL COMPORTAMENTO SESSUALE (KINSEY): attorno agli anni 50, Alfred Kinsey condusse
un’indagine sul comportamento sessuale (Il rapporto Kinsey). Nonostante la denuncia di
immoralità lanciata dai quotidiani, Kinsey riuscì a raccogliere informazioni sulla storia sessuale di
18.000 persone americane. Si rilevò che quasi il 70% degli uomini aveva avuto rapporti con una
prostituta, e oltre l’80% esperienze sessuali prematrimoniali. Ciò fu scioccante agli occhi dei più.
Il 40% di essi, tuttavia, si aspettava che la propria moglie fosse vergine al momento del
matrimonio. Si sottolineavano quindi le discordanze tra gli atteggiamenti pubblici e i
comportamenti reali, e di conseguenza si poteva notare che l’individuo non è portato ad avere
rapporti monogamici con una singola persona (pansessualità).

ORDINE DI GENERE: R. W. Connel (sociologa australiana – nata nel 1944) ha proposto una
delle interpretazioni teoriche più complete negli studi sul genere. Il suo approccio integra i concetti
di patriarcato e maschilità in una teoria complessiva delle relazioni di genere. L’ordine di genere
(ambito organizzato di pratiche umane e relazioni sociali) definisce, secondo Connel, le forme
della maschilità e della femminilità, che non possono essere comprese al di fuori di esso. L’ordine
di genere è costituito da:

• Lavoro: la divisione sessuale delle attività familiari e professionali

• Potere: relazioni basate sull’autorità e sulla violenza nelle istituzioni sociali o nella vita
domestica

• Catessi: la dinamica dei rapporti intimi, emozionali e affettivi.

GERARCHIA DI GENERE: esiste un ordine di genere nella società occidentale in cui si ha un


predominio degli uomini rispetto alle donne. La maschilità Egemone ha un maggior potere in
assoluto (eterosessualità, matrimonio, forza, autorità, lavoro); sotto di sé vede la maschilità
Complice (uomini che si rifanno al modello egemone), e infine quella Omosessuale (l’opposto del
vero uomo), che si trova tra le maschilità subordinate.

Tra le forme di femminilità subordinate troviamo quella Enfatizzata, orientata alle capacità di
seduzione e al soddisfacimento dei desideri maschili (mito di Marilyn Monroe). Le femminilità
Resistenti sono quelle nascoste dalla storia (prostitute, streghe, single).

FEMMINISMO: il movimento femminista ha prodotto una serie di teorie che spiegano le


disuguaglianze di genere e formulano programmi per il loro superamento:

1. Femminismo Liberale: pone l’attenzione sui singoli fattori che contribuiscono alle
disuguaglianze tra uomini e donne, come la discriminazione nel lavoro, nella scuola ecc.
Questo approccio tende a concentrarsi sulla difesa e sulla promozione delle pari
opportunità. Le femministe liberali lavorano all’interno del sistema esistente per
riformarlo in maniera graduale.

2. Femminismo Radicale: l’idea di base è che gli uomini siano responsabili dello
sfruttamento delle donne e ne traggano benefici. Si pongono quindi l’analisi del potere
patriarcale (dominazione sulle donne da parte degli uomini). Le femministe radicali
puntano a un rovesciamento totale dell’intero sistema attuale. I mezzi di comunicazione, la
moda e la pubblicità, infatti, ridurrebbero le donne a oggetti sessuali, il cui ruolo primario è
quello di intrattenere gli uomini.

3. Femminismo Nero: le divisioni etniche tra donne non sono prese in considerazione dalle
principali scuole di pensiero femministe, che si concentrano sulle donne bianche. Questa
insoddisfazione ha portato alla nascita di un femminismo nero, che si interessa delle donne
di colore.

4. Femminismo Marxiano: tutto si risolve in rapporti materiali a causa del capitalismo.

OMOSESSUALITA’: si introduce l’argomento dell’omosessualità come fatto sociale: in ogni


società con prevalenza eterosessuale, vi è anche la forma omosessuale che sta assumendo sempre
più importanza. Varia da cultura a cultura, infatti l’omosessualità può essere talvolta praticata
regolarmente. Può essere vista come una malattia o un disturbo psichico. In alcuni paesi
dell’Unione Europea (nell’800), esisteva la pena di morte per gli omosessuali. Si distinguono 4 tipi
di omosessualità, ovvero:

1. quella Casuale (esperienza transitoria che si decide di provare),

2. Situata (le pratiche omosessuali vengono praticate da un individuo con una certa
continuità, ma non sono la sua attività prevalente),

3. Personalizzata (individui che praticano attività omosessuali ma tendono ad essere


distaccati ai gruppi in cui essa è prevalente)

4. e infine l’Outing (uscire allo scoperto – identità di genere omosessuale, da cui tutte le
richieste di diritti per omosessuali).

Ci sono due atteggiamenti verso l’omosessualità: l’Eterosessismo (che discrimina gli omosessuali
tramite pregiudizi, formando stereotipi su comportamenti omosessuali), e l’Omofobia (disprezzo e
atti aggressivi verso omosessuali). Negli ultimi decenni la tolleranza verso gli omosessuali è
aumentata, anche grazie ad apposite leggi.

LE FAMIGLIE: la famiglia è un gruppo di persone legate da rapporti di parentela, all’interno


del quale i membri adulti hanno la responsabilità di allevare i bambini. La parentela è un sistema
di rapporti fondati sulla discendenza tra consanguinei, o sul matrimonio. Il matrimonio è l’unione
sessuale socialmente riconosciuta e approvata tra due individui adulti, tramite atto pubblico. In ogni
società è presente la famiglia nucleare, ossia due adulti che vivono insieme con figli naturali o
adottivi. Quando, invece, si vive insieme anche a zii, nonni, o altri parenti, si parla di Famiglia
estesa. Nelle società occidentali il matrimonio è associato alla monogamia (è illegale essere sposati
con più di un individuo). Tuttavia, in altre società, si può parlare di Poliandria (quando le donne
possono sposare più uomini) e quindi anche di Poliginia (la possibilità dell’uomo di sposare più
donne). Negli ultimi decenni, nelle società occidentali, i mutamenti sono stati prettamente
strutturali. La famiglia ha avuto cambiamenti anche solo rispetto a 50 anni fa.

APPROCCI ALLO STUDIO DELLA FAMIGLIA: la prospettiva Funzionalista concepisce la


società come un insieme di istituzioni sociali che svolgono funzioni orientate a garantire
continuità e consenso. La famiglia svolge quindi compiti importanti che soddisfano i bisogni
fondamentali della società e preservano l’ordine sociale. Secondo il sociologo americano Talcott
Parsons, le funzioni della famiglia sono la Socializzazione primaria (i bambini apprendono le
norme culturali della società in cui nascono) e la Stabilizzazione della personalità (ruolo svolto
dalla famiglia nel fornire supporto emotivo ai suoi membri adulti). Inoltre, secondo Parsons, la
famiglia nucleare è la struttura meglio equipaggiata per affrontare le richieste della società
industriale, poiché un adulto può lavorare fuori casa (ruolo strumentale) e l’altro può occuparsi
della casa stessa e dei figli (ruolo affettivo): tuttavia, oggi tale concezione è inadeguata e
antiquata, perché non è più giustificabile la divisione domestica del lavoro tra uomo e donna, e
soprattutto sottovaluta gli altri agenti di socializzazione, come la scuola e i media.

APPROCCI FEMMINISTI: l’approccio femminista studia con attenzione l’interno delle famiglie,
per esaminare le esperienze delle donne nella sfera domestica. Le femministe sostengono che la
famiglia non sia un luogo dove regna reciproca cura e sostegno, ma anzi, al contrario vi sono delle
forti disparità e asimmetrie che provocano svantaggi sempre nei confronti della donna. Una delle
voci più rilevanti e dissenzienti fu nel 1965 Betty Friedan, che scrisse del “Problema senza nome”:
l’isolamento e la noia che affliggevano molte casalinghe americane. Vi sono tre argomenti di
particolare importanza:

1. la Divisione domestica del lavoro: il capitalismo ha comportato una distribuzione dei


compiti fra i diversi componenti della famiglia, portando svantaggi alla donna.

2. la Disuguaglianza dei rapporti di potere nelle famiglie: il femminismo ha sempre


denunciato le violenze domestiche, i maltrattamenti e gli stupri coniugali. La famiglia
avrebbe favorito l’oppressione e i maltrattamenti fisici.

3. Attività di cura: si riferisce all’assistenza a un familiare e alla cura di un parente anziano.


Le donne tendono non solo a farsi carico di compiti come i lavori domestici, ma investono
anche molte energie emotive nei rapporti personali, per consolare il marito, aiutare i figli,
ascoltare, percepire e agire.

MUTAMENTO DELLA FAMIGLIA: i modelli familiari sono mutati, è diminuita la


propensione al matrimonio, con la conseguente de-istituzionalizzazione della famiglia. È
aumentata l’età media del matrimonio (aumento della scolarizzazione). Sono mutate anche le
famiglie marsupiali, in cui la prole rimane in casa fino a oltre l’età adulta. L’individuo non è
pronto a prendersi le responsabilità del matrimonio. È inoltre aumentato il tasso di divorzi e il
tasso delle famiglie monoparentali, composte soprattutto da donne che allevano da sole la prole. È
aumentato il numero delle famiglie ricostituite, che si trasformano con nuovi matrimoni e figli
che fanno ora parte dei nuovi matrimoni.

IL DIVORZIO: in Occidente, il matrimonio è stato considerato per molti secoli indissolubile.


Veniva concesso solo in un numero molto limitato di casi, come la mancata consumazione del
matrimonio. In seguito, il divorzio fu introdotto in tutti i paesi industrializzati, sulla base del
“Sistema accusatorio” (uno dei coniugi doveva accusare l’altro). Dagli anni 60, invece, furono
introdotte le prime leggi del divorzio “senza colpa”, anche solo per convivenza intollerabile e
instabilità coniugale. Nell’arco di decenni, il numero di divorzi è cresciuto rapidamente. Un
motivo è probabilmente che il matrimonio non ha più connessioni con la trasmissione di ricchezza
tra generazioni. Le donne, poi, sono sempre più indipendenti economicamente.

FAMIGLIE MONOPARENTALI e SECONDE NOZZE: la maggior parte delle famiglie


monoparentali è retta da donne, e deriva prevalentemente da separazione o divorzio, o da madri
mai sposate. Con il termine Seconde nozze si indicano tutti i matrimoni successivi al primo. In
tutte le fasce di età, gli uomini divorziati hanno più probabilità di risposarsi rispetto alle donne
divorziate.

FAMIGLIE RICOSTITUITE: il termine si riferisce a quelle famiglie in cui almeno uno degli
adulti ha figli nati da un precedente matrimonio o relazione. In questo caso, c’è sempre un
genitore naturale la cui influenza sul bambino rimane forte. I rapporti di collaborazione tra
divorziati, poi, entrano in tensione quando uno dei due (o entrambi) si risposa. Nelle famiglie
ricostituite confluiscono bambini provenienti da ambienti diversi, con aspettative divergenti sul
comportamento da tenere nell’ambito familiare.

PADRE ASSENTE: la figura del Padre assente era solita soprattutto in tempo di guerra:
separazione necessaria derivante dal servizio militare. Il padre, quindi, era colui che manteneva la
famiglia, e di conseguenza stava fuori casa tutto il giorno. Oggi, invece, il “Padre assente” designa
quel padre che, a causa di una separazione o divorzio, ha un legame solo sporadico coi propri figli
o perdono ogni contatto con loro. L’assenza del padre comporta la mancanza di confronto tra
figlio e padre, fa aumentare i costi di sostegno all’infanzia, aumenta la criminalità,
impossibilitando i figli a diventare bravi genitori. In alcuni casi, gli uomini percepiscono che le
donne siano capaci di occuparsi dei figli in maniera autosufficiente; si sentono deresponsabilizzati.

DECLINO DELLA FECONDITÀ: il declino di massa della fecondità è cominciato in Francia


all’inizio dell’Ottocento. Dopo un breve periodo di crescita verificatosi successivamente alla prima
guerra mondiale (Baby boom), a cominciare dagli anni 60 il tasso di fecondità (numero medio di
figli per donna) è sceso in tutta Europa. Una conseguenza è la modificazione del livello di
ricambio generazionale, che assicura il numero costante tra morti e nascite (rimpiazzo della
popolazione). Il tasso di fecondità è influenzato dalle politiche sociali, dalle caratteristiche del
mercato del lavoro, dalla precarietà.

CONVIVENZA: esistono delle alternative emergenti alle famiglie fondate sul matrimonio, tra cui
la convivenza, ovvero il rapporto che intercorre tra due persone sessualmente legate che vivono
insieme senza matrimonio. Le Tribù umane invece sono quelle reti di sostegno e reciprocità
costituite a base amicale (non di parentela), che si trovano nelle aree urbane. Nelle Urban tribes
raramente si formano delle coppie, ma anzi la ricerca del partner è al di fuori di tale concezione.

FAMIGLIE OMOSESSUALI: in molti paesi i rapporti omosessuali sono riconosciuti


legalmente. Non si fondano su un’istituzione (matrimoni) e molti sono fondati sui participi di
responsabilità (Pacs – patti civili di solidarietà) importanti dal punto di vista economico;
permettono l’assistenza sanitaria, la reperibilità della pensione ecc. Nelle coppie omosessuali non
vi è asimmetria, e c’è una maggiore divisione della responsabilità. In sostanza, le coppie
omosessuali presentano maggiore uguaglianza tra i partner, una più ampia negoziazione dei
meccanismi interni che regolano il rapporto, e una forma di impegno priva di sostegno istituzionale.

VIOLENZA DOMESTICA: la violenza domestica è il maltrattamento fisico esercitato da un


membro della famiglia contro un altro. Il luogo più pericoloso della società sarebbe la casa: un
individuo ha molte più probabilità di essere aggredito in casa propria che per strada di notte. Uno
dei motivi per cui avviene la violenza domestica è la combinazione di intensità emotiva
caratteristica della vita familiare: spesso si mescolano amore e odio. All’interno della famiglia,
inoltre, una notevole dose di violenza viene tollerata e approvata (tuttavia, si ritiene che gesti come
un “ceffone” non siano considerati violenza). L’abuso sui minori può essere definito come l’atto
sessuale di un adulto con persone non di maggiore età. L’incesto designa un rapporto sessuale tra
parenti prossimi (e non sempre comporta l’abuso sessuale). I contatti sessuali con adulti sono per i
bambini motivo di turbamento, vergogna, disgusto, e possono avere conseguenze a lungo termine.

LA SITUAZIONE IN ITALIA: per Endogamia socioculturale (Gamia: matrimonio, Endo:


interna) si intende la maggiore omogeneità degli sposi o conviventi, ovvero il matrimonio
all’interno di un gruppo.

• Il 25% delle famiglie italiane è composta da un solo membro, mentre circa il 60% ha almeno
un figlio.

• Meno di una donna spostata su due lavora fuori casa.

• Cresce il tempo di permanenza in famiglia dei figli.

• Fino agli anni 60 la maggior parte di sposi si conosceva attraverso paesi, feste o parenti. Ora
ci si conosce nei locali o in modi alternativi.

• Oltre un matrimonio su tre viene celebrato dinnanzi al sindaco, mentre il 70% dei matrimoni
avviene in Chiesa.

• Quasi il 10% erano matrimoni misti (sposi italiani e stranieri – 2005). La maggior
parte dei matrimoni misti sono di seconde nozze.

RAZZE, ETNIE E MIGRAZIONI: oggi, molti ritengono erroneamente che gli esseri umani
possano essere facilmente suddivisi in razze biologicamente differenti. Le teorie scientifiche della
razza si svilupparono intorno al XIX secolo, periodo in cui le nazioni europee si trasformavano in
potenze imperiali. Il conte Arthur de Gobineau, considerato il padre del razzismo moderno,
sostenne l’esistenza di tre razze (bianca, nera, gialla): la razza bianca, secondo de Gobineau,
possiede intelligenza ed è superiore alle altre razze.

Negli anni successivi alla Seconda guerra mondiale, la scienza della razza è stata completamente
screditata. Infatti, non esistono razze in termini biologici, ma solo una gamma di variazioni tra
gruppi umani. Quindi, dal punto di vista sociologico, la razza è intesa come un insieme di relazioni
sociali che permette di classificare individui e gruppi, assegnando loro attributi o competenze
sulla base di caratteristiche biologiche.

ETNIA:il concetto di etnia è di portata sociale. Esso si riferisce ai tratti culturali che
contraddistinguono una determinata comunità di persone. I membri dei gruppi etnici si
considerano culturalmente distinti da altri gruppi. La lingua, la storia, la stirpe, la religione, le
usanze ecc, sono fattori che distinguono un gruppo. L’etnia è il risultato di un movimento
migratorio che si stabilisce in un territorio. Le differenze etniche sono completamente apprese
(Tuttavia, l’uso collettivo di etichette etniche comporta il rischio di produrre divisioni tra i vari
gruppi esistenti).
Il complesso Nido-simbolico significa che un gruppo/etnia condivide un nido di formazione di
quel determinato gruppo, e i relativi simboli. Il problema delle etnie sono i rapporti tra esse e lo
stato: c’è il tentativo dell’assimilazione violenta, ovvero la cancellazione della propria identità
culturale. Esiste tuttavia anche il tentativo del multiculturalismo, in cui le varie etnie o
minoranze possono esprimere la propria rappresentanza nella nazione in cui vivono.

TEORIA PRIMORDIALISTA vs. STRUMENTALISTA: la tesi Strumentalista è che quando i


membri di due o più gruppi si incontrano, ciascun individuo si identifica con il proprio gruppo in
quanto l'appartenenza a esso comporterà per lui importanti ricompense materiali. Sottolinea come
l’etnia è una costruzione di carattere sociale e culturale per finalità politiche (vi è una leadership
che emerge nel gruppo). Nella teoria Primordialista si afferma che l’etnia è un modo di essere dei
gruppi umani, che in qualche maniera si ritrova in tutta la storia dell’umanità, la quale si va ad
associare in tribù ed etnia. Primordialista perché il modo di essere etnico è concepito come se fosse
un elemento essenziale alla personalità dell’uomo.

CONCEZIONE ETNICA E ILLUMINISTA: nella concezione etnica e organicistica della


nazione, l’etnia è la base della nazione, ossia esiste un legame di sangue, lingua e razza; è un
dato biologico. Secondo la concezione che risale all’Illuminismo, la nazione è composta dal
popolo che condivide storia e territorio, legati da valori comuni.

LE MINORANZE: in sociologia, i membri di una minoranza sono svantaggiati rispetto alla


maggioranza della popolazione e condividono un senso di solidarietà. Per minoranza si intende
quindi la posizione subordinata di un gruppo all’interno della società. I membri dei gruppi
minoritari tendono spesso a considerarsi una popolazione a sé stante, e sono fisicamente e
socialmente isolati dal resto della comunità, concentrandosi in quartieri, città o regioni di un paese.

PREGIUDIZIO: i pregiudizi sono opinioni, atteggiamenti e preconcetti che i membri di un


gruppo condividono verso gli appartenenti ad un altro gruppo, attribuendogli determinate
caratteristiche (stereotipi – caratterizzazioni rigide e immutabili di un gruppo). Le categorie sono
grandi caselle in cui mettiamo tutte le informazioni che acquisiamo dal mondo esterno circa le
persone che incontriamo. Il pregiudizio si basa quindi sulla categorizzazione. Non è di carattere
scientifico ma si basa sul sentito dire, su voci comuni che tendono ad orientarci (anche
erroneamente) sulle persone nuove: il pregiudizio, infatti, può essere di carattere positivo o
negativo.

Il Protocolli dei Savi di Sion (1915) raccontano di un gruppo di anziani rabbini che hanno
costruito un piano per la conquista del mondo (cospirazione ebraica). Vengono diffusi dalla
stampa, e solo anni dopo si scopre che si trattava di un falso creato dalla Polizia zarista, il cui
scopo era indirizzare la rabbia verso la minoranza ebraica. Tale gesto sottolinea come i pregiudizi
vanno a colpire le etnie.

ESPERIMENTO SUL PREGIUDIZIO: un ricercatore americano gira gli Stati Uniti in


compagnia di due cinesi, ed entrando nei bar o chiedendo camere d’albergo non ottiene mai
nessun rifiuto. Tuttavia, quando sottopone un questionario che misura il pregiudizio, oltre il 90%
ha risposto che avrebbe rifiutato i cinesi. Significa che il meccanismo di categorizzazione si
rompe solo attraverso l’interazione quotidiana.
PSEUDOSPECIAZIONE: si verifica quando un gruppo tende a considerare i membri di un
gruppo esterno esseri appartenenti ad un'altra specie. Zimbardo (psicologo statunitense)
condusse un Esperimento, chiamato “Esperimento carcerario di Stanford”, in cui tenta di
dimostrare come la costruzione del pregiudizio non derivi da una malattia mentale delle persone,
bensì è un meccanismo collegato ad una situazione sociale. Chiede a un gruppo di studenti
(mentalmente sani) di Stanford di partecipare per alcuni giorni ad una simulazione carceraria che
si svolgerà nei sotterranei di Stanford: una parte degli studenti interpreterà i prigionieri, e l’altra
parte i poliziotti. Col passare dei giorni, le persone che interpretavano i prigionieri cominciavano a
non rispondere agli ordini delle guardie, disobbedendo: le guardie, dunque, si organizzavano per
imporre la disciplina, calandosi nella loro parte ed arrivando ad episodi di vera violenza. Dopo 10
giorni l’esperimento venne interrotto in quanto stava degenerando.

ESPERIMENTO MILGRAM: anche Milgram (psicologo statunitense), nel 1961, condusse un


esperimento simile, il cui scopo era quello di studiare il comportamento di soggetti a cui
un'autorità (in questo caso uno scienziato) ordina di eseguire delle azioni che confliggono con i
valori etici e morali dei soggetti stessi. Lo scienziato era accompagnato da un collaboratore
complice, che svolgeva sempre il ruolo di Allievo. I soggetti, invece, svolgevano il ruolo di
insegnante. Dovevano porre alcune domande all’allievo, il quale se avesse sbagliato, avrebbe
ricevuto una scossa più o meno forte (a seconda della domanda) dall’insegnante (l’allievo era
complice dello scienziato, quindi in realtà fingeva di prendere la scossa). Milgram dimostrò che
l’85% delle persone ha spinto il voltaggio fino al limite massimo, sotto pressione e comando dello
scienziato, il quale istigava ad aumentare il voltaggio. Al termine dell’esperimento, lo scienziato
riferiva ai soggetti che si era trattato di una finzione. Tuttavia, scoprì che quando noi
acconsentiamo al potere legittimo, possiamo compiere sulle altre persone anche atti riprovevoli.

RAZZISMO: è la credenza che certi individui siano superiori ad altri sulla base di differenze di
più tipi: il razzismo di tipo biologico (vecchio razzismo) e culturale (nuovo razzismo). Quello
biologico si basa sulle differenze fisiche (il razzismo nazista è essenzialmente biologico), mentre il
razzismo culturale è il rovescio del multiculturalismo, discriminando i gruppi diversi da quello a
cui si appartiene (incentivato dopo l’attentato dell’11 Settembre). Il razzismo sarebbe incorporato
nella struttura e nel modo di funzionare di una società. Il razzismo istituzionale, dunque, suggerisce
che tutte le strutture sociali siano sistematicamente pervase da idee razziste.

INTERPRETAZIONE PSICOLOGICA: individui e gruppi, ricorrendo a stereotipi, scaricano la


loro conflittualità su un Capro espiatorio, a cui viene attribuita la colpa di qualsiasi problema. Il
meccanismo del capro espiatorio è spesso utilizzato contro gruppi relativamente impotenti
(bersagli più facili). Esiste però un secondo approccio, che afferma l’esistenza di individui che
utilizzano il meccanismo della Proiezione, ossia l’inconscia attribuzione ad altri di propri
desideri o caratteristiche. Theodor W. Adorno (intorno agli anni 40), ha identificato un tipo di
carattere chiamato Personalità autoritaria: furono elaborate diverse scale di misurazione per
valutare i livelli di pregiudizio. Tale personalità scaturisce da un modello educativo in cui i
genitori non riescono a esprimere il proprio amore ai figli e si mantengono distaccati da essi,
imponendo la disciplina.

INTERPRETAZIONI SOCIOLOGICHE: i concetti sociologici utili per lo studio dei conflitti


etnici sono quelli di Etnocentrismo, Chiusura di gruppo e Allocazione differenziale delle risorse:
1. Etnocentrismo: è la diffidenza verso i membri di altre culture, percepite come
intellettualmente e moralmente inferiori.

2. Chiusura di gruppo: un gruppo preserva i confini che lo separano da altri gruppi. I confini
vengono creati attraverso meccanismi di esclusione, che rafforzano le divisioni tra i gruppi.

3. Allocazione differenziale delle risorse: una distribuzione diseguale dei beni materiali. Il
gruppo dominante, per conservare le posizioni di privilegio, ricorre a forme estreme di
violenza (massima intensità di conflitto etnico).

INTEGRAZIONE E CONFLITTI ETNICI: per evitare i conflitti tra diverse etnie, sono stati
adottati i modelli di integrazione etnica, che sono rispettivamente:

1. Assimilazione: prevede l’abbandono di usi e costumi tradizionali da parte degli immigrati


e la loro adesione ai valori e alle norme della maggioranza.

2. Crogiolo (Melting pot): anziché dissolvere le tradizioni degli immigrati a favore di quelle
dominanti, si cerca di mescolarle in nuove forme capaci di rielaborare i modelli culturali
esistenti.

3. Pluralismo culturale: promuove lo sviluppo di una società pluralistica, in cui sia


riconosciuta eguale dignità alle diverse subculture. Tutti i gruppi etnici possiedono pari
diritti.

CONFLITTI ETNICI: l’eterogeneità etnica può costituire un’enorme ricchezza sociale. Gli stati
multietnici, infatti, sono vitali e dinamici, ma possono anche essere fragili. La diversità delle
culture può produrre fratture e antagonismi tra i gruppi etnici. Quando scoppiano conflitti, si
possono verificare tentativi di Pulizia etnica, ovvero la creazione di aree etnicamente omogenee
attraverso l’espulsione delle altre etnie presenti (come è avvenuto nei Balcani). Il concetto di
Genocidio indica invece l’eliminazione sistematica di un gruppo etnico da parte di un altro.

MIGRAZIONI: le migrazioni si sono intensificate con la globalizzazione, a causa della rapida


trasformazione dei legami economici, politici e culturali tra i diversi paesi. I movimenti migratori
sono costituiti da Immigrazione (afflusso in un paese di persone che hanno abbandonato altri paesi)
e Emigrazione (uscita da un paese). Le migrazioni hanno accentuato le diversità culturali delle
società. Gli alti tassi d’immigrazione negli ultimi decenni, inoltre, hanno messo in crisi le società
occidentali e il loro modo di concepire l’identità nazionale. Gli studiosi hanno identificato quattro
modelli migratori:

1. Modello classico: paesi costituiti come Nazioni di immigrati. L’immigrazione è stata


largamente incoraggiata e la cittadinanza sempre concessa ai nuovi venuti. (Usa, Canada,
Australia).

2. Modello coloniale: tende a favorire l’immigrazione dalle ex colonie rispetto a quella da


altri paesi (Francia, Inghilterra).

3. Modello dei lavoratori ospiti: immigrazione su base temporanea per rispondere a


richieste provenienti dal mercato del lavoro. Non concede diritti di cittadinanza agli
immigrati, nemmeno dopo lunghi periodi di permanenza. (Germania, Svizzera, Belgio).
4. Modelli illegali: stanno diventando sempre più comuni a causa dell’irrigidimento delle
leggi sull’immigrazione. Gli immigrati che riescono ad entrare in un paese irregolarmente,
spesso riescono anche a vivere illegalmente ai margini della società.

LE FORZE DEI MOVIMENTI MIGRATORI: molte teorie delle migrazioni si sono concentrate
sui fattori di Push (spinta) e Pull (attrazione). I fattori di Push sono problemi interni al paese
d’origine che spingono le persone all’emigrazione (guerre, carestie, oppressione politica). I fattori
Pull invece riguardano i paesi di destinazione che attirano gli immigranti (abbondanza di lavoro,
condizioni di vita migliori, maggiore libertà). Oggi gli studiosi delle migrazioni hanno adottato un
approccio sistemico, cioè hanno cercato di considerare i modelli migratori come Sistemi prodotti
da interazioni tra processi Macro (situazione politica di una regione, leggi che disciplinano
l’immigrazione) e Micro (risorse, competenze, conoscenze dei migranti).

Sono state identificate quattro tendenze che caratterizzano i modelli migratori degli anni a venire:

• Accelerazione: aumenta il numero di migranti da un paese all’altro;

• Diversificazione: molti paesi sono destinatari di un’immigrazione diversificata rispetto al


passato;

• Globalizzazione: le migrazioni assumono un carattere globale, coinvolgendo più paesi;

• Femminilizzazione: l’emigrazione è sempre meno dominata dalla presenza maschile a


causa di cambiamenti del mercato del lavoro globale.

DIASPORE GLOBALI: il termine diaspora indica il processo per cui un’etnia abbandona il luogo
di insediamento originario per disperdersi in altri paesi (sotto costrizione o a causa di circostanze
traumatiche). Cohen, nel suo Global Diasporas (1997) identifica cinque diverse categorie di
diaspore: diaspora di vittime (africani, ebrei, armeni), diaspora imperiale (britannici), diaspora
di lavoratori (indiani), diaspora di commercianti (cinesi), diaspora culturale (caraibici).
Qualunque sia la diaspora, essa deve soddisfare i seguenti criteri:

• Il trasferimento forzato o volontario da una patria di origine a nuovi paesi;

• Il ricordo comune della patria d’origine;

• Un senso di identità etnica più forte del tempo e delle distanze;

• Un senso di solidarietà verso i membri del medesimo gruppo etnico;

• Una tensione nei confronti delle società ospiti;

• -La capacità di apportare un contributo creativo al pluralismo delle società ospiti.

IMMIGRAZIONE IN EUROPA: le migrazioni del XX secolo hanno trasformato il volto dei


paesi europei. L’immigrazione era favorita in particolar modo da manodopera a buon mercato. In
ordine cronologico:

1. Primi due decenni del secondo dopoguerra: i paesi mediterranei prestavano a quelli nord-
occidentali manodopera a buon mercato;
2. Esaurimento del boom economico: rallentamento dell’immigrazione di lavoratori verso
l’Europa occidentale;

3. Caduta del muro di Berlino (1989): nuove migrazioni a seguito dell’apertura delle
frontiere fra est e ovest;

4. Guerra nella ex Jugoslavia: esodo di 5 milioni di rifugiati verso altri paesi europei.

Uno dei motivi dell’accrescimento della migrazione tra i paesi europei è la stato la rimozione di
molte barriere al libero movimento di merci, capitali e lavoratori. I cittadini dell’Ue (25 paesi)
hanno oggi diritto di lavorare in ogni altro paese dell’Unione. L’immigrazione da paesi extra-Ue è
oggi una delle questioni più pressanti dell’agenda politica di molti Stati dell’Unione europea. I paesi
che hanno aderito agli accordi di Schengen (tutti i membri dell’Ue prima dell’allargamento
avvenuto nel 2004) consentono il libero ingresso dagli altri paesi firmatari; gli immigrati
irregolari che riescono a entrare in uno qualsiasi dei paesi aderenti possono poi muoversi senza
impedimenti in tutto lo spazio di Schengen. Oggi la maggior parte dei paesi dell’Ue limita
fortemente l’immigrazione legale, e conseguentemente gli episodi di immigrazione irregolare
tendono a moltiplicarsi.

GLI STRANIERI IN ITALIA: secondo i dati ISTAT e CARITAS/MIGRANTES, L’Italia ha


raggiunto livelli di immigrazione paragonabile agli stranieri residenti in Francia, ovvero circa
4 milioni (il 6% della popolazione Italiana). Paradossalmente, l’Italia è il paese con il più alto
numero di sanatorie (7 in totale) fatte sull’immigrazione (politica restrittiva). Molti immigrati
entrano col visto del turismo e poi rimangono in Italia anche a visto scaduto. L’Italia, inoltre,
attrae ben pochi ricercatori dall’estero, e anzi attrae persone interessate a un guadagno facile,
immediato, con qualunque tipo di lavoro. Nell’ordine, i paesi attratti dall’Italia sono
Romania, Albania, Marocco, Cina, Ucraina. Oltre il 60% degli stranieri residenti nel nostro
paese, vive nel nord Italia. Dal punto di vista dell’istruzione, il 38% ha un diploma di scuola
media superiore ed il 10% una laurea.

STRATIFICAZIONE, CLASSI E DISUGUAGLIANZA: la stratificazione sociale è il luogo di


formazione dei movimenti sociali e della questione sociale, e descrive le disuguaglianze tra
individui e gruppi nelle società. La società è costituita da “Strati” ordinati gerarchicamente, dove i
privilegiati stanno in alto e i meno privilegiati in basso. Esistono quatto diversi strati delle società:

1. La schiavitù: una forma estrema di disuguaglianza, per cui alcuni individui sono
letteralmente posseduti da altri come loro proprietà.

2. La casta: è un sistema di stratificazione associato soprattutto alle culture del sub-continente


indiano e alla credenza induista della reincarnazione. Gli individui che disattendono i riti e i
doveri della propria casta si ritroveranno in una posizione inferiore nella loro vita
successiva.

Il ceto: i ceti feudali erano formati da strati con diritti e doveri diversi. Il ceto superiore era
composto dall’aristocrazia. Il Clero formava un altro ceto, inferiore al precedente ma con
importanti privilegi. I semplici lavoratori (operai) appartenevano al terzo stato.
3. La classe: è un vasto gruppo di individui che condividono lo stesso tipo di risorse
economiche. Ricchezza e tipo di occupazione costituiscono le basi primarie delle
differenze di classe. Le classi non dipendono da ordinamenti giuridici o religiosi. Si fondano
su differenze economiche, ovvero su disuguaglianze nel possesso di risorse materiali.

STRUTTURA DI CLASSE (MARX): per Marx, una classe è un gruppo di individui che
condivide un determinato rapporto con i mezzi di produzione, mezzi attraverso cui provvede al
proprio sostentamento. Prima dell’industria, i mezzi erano la terra e gli strumenti per
l’agricoltura. Le classi erano quindi costituite dai proprietari terrieri e dai lavoratori. Nelle
società industriali, invece, i mezzi sono i macchinari, ovvero il capitale: in questo caso, le due
classi diventano quella dei Capitalisti e quella Operaia. Quello tra le classi, secondo la concezione
Marxiana, è un rapporto di sfruttamento. Nel corso della giornata lavorativa, gli operai producono
più valore di quello che ricevono sotto forma di salario: di questo Plusvalore si appropriano i
capitalisti come loro profitto. La classe operaia quindi subisce un progressivo impoverimento (e
logoramento) rispetto a quella capitalistica (Pauperizzazione).

LA TEORIA DI WEBER: Weber riprende l’analisi sviluppata da Marx circa la stratificazione,


rielaborandola. Anche per Weber la società è caratterizzata da conflitti per le risorse materiali e il
potere. Weber individua una più ampia varietà di fattori economici rilevanti per la formazione
delle Classi. Si tratta di risorse quali le capacità e le credenziali professionali: la Classe quindi si
fonda sulla posizione di mercato (possesso dei mezzi di produzione).

Nella teoria Weberiana, lo Status (o Ceto) si fonda su differenze sociali relative all’onore o al
prestigio. Tuttavia, lo Status viene riconosciuto attraverso lo Stile di vita: si tratta di diversi
simboli di status (abitazione, abbigliamento, modi di essere), che contribuiscono a costruire la
reputazione sociale di un individuo agli occhi degli altri. Classe e status non necessariamente
coincidono (es. ‘nobiltà decaduta’ o ‘nuovi ricchi’).

Il Partito è un fattore importante nella distribuzione del potere; definisce un gruppo di individui
che operano insieme in virtù degli obiettivi o interessi comuni. Né lo Status e né il Partito possono
essere ridotti alle divisioni di classe, anche se a loro volta incidono sulla situazione economica
degli individui.

LE CLASSI: nelle società occidentali contemporanee è possibile trovare la Classe superiore, la


Classe media e quella Operaia. Fanno parte della Classe superiore gli alti dirigenti,
imprenditori e capitalisti finanziari (amministratori di banche ecc.). Alcuni “ricchi” nascono in
famiglie la cui ricchezza secolare viene tramandata di generazione in generazione. Altri invece
hanno accumulato il proprio patrimonio iniziando dal nulla (i nuovi ricchi).

La classe Media fa riferimento ad un’ampia gamma di individui con molte occupazioni diverse
(professionisti, dirigenti, impiegati, ecc). Si tratta della maggior parte della popolazione dei paesi
industrializzati, in quanto il lavoro manuale è nettamente diminuito a favore di quello non manuale.
A differenza della classe operaia, i membri della classe media possono vendere anche la loro
capacità lavorativa mentale.

La classe Operaia, secondo Marx, era quella predisposta a diventare più numerosa rispetto alle
altre. In realtà si è verificato esattamente il contrario. Nei paesi industrializzati, la maggioranza
degli operai non vive più in condizioni di povertà ed ha accesso ai principali beni di consumo.
Essi si stanno avvicinando sempre di più alla classe Media: si parla infatti di Imborghesimento,
processo attraverso il quale gli operai con redditi da classe media ne adottano anche i valori, la
mentalità e gli stili di vita.

Vi è poi il fenomeno del Sottoproletariato, termine che indica la popolazione collocata


all’estremità inferiore della stratificazione sociale. I membri del sottoproletariato hanno un
tenore di vita nettamente più basso rispetto alla popolazione. Si tratta di emarginati, esclusi,
disoccupati, e talvolta immigrati per quanto riguarda i paesi europei.

LE TRE DIMENSIONI: attualmente, lo studio della stratificazione sociale si articola nell’analisi


delle tre dimensioni che si considerano fondamentali:

1. Struttura delle disuguaglianze (distribuzione degli individui e dei gruppi nello spazio
sociale, nel suo farsi).

2. Fenomeni di mobilità (in che modo gli individui e i gruppi accedono a queste posizioni).

3. Rappresentazioni sociali della stratificazione (percezione, immaginario e


razionalizzazioni delle strutture di disuguaglianza e dei fenomeni di mobilità).

LA MOBILITÀ SOCIALE: per Mobilità sociale si intendono i movimenti di individui e gruppi


tra diverse posizioni socio-economiche. Si è soliti distinguere tra Mobilità verticale, orizzontale,
ascendente, discendente, orizzontale:

• Nella mobilità Verticale il movimento avviene verso l’alto o verso il basso nella scala delle
posizioni socio-economiche.

• Per mobilità Orizzontale si intende il movimento geografico attraverso quartieri, città,


regioni e paesi.

• La mobilità Ascendente si ha nel caso di chi guadagna in ricchezza, di conseguenza la


Discendente è quando un individuo si muove nella direzione opposta. I principali fattori
della mobilità discendente sono l’insorgere di problemi e disturbi psicologici, la
disoccupazione, le ristrutturazioni aziendali, i tagli occupazionali, il divorzio (soprattutto
per le donne).

STUDIO DELLA MOBILITÀ: studiamo la mobilità sociale per capire se, quanto e come una
società è fluida oppure bloccata, vale a dire come sono distribuite, come funzionano e come sono
riprodotte le disuguaglianze di opportunità al suo interno (considerata, nella modernità, dove
dovrebbero dominare i valori acquisitivi, una delle principali fonti delle altre disuguaglianze sociali
e dell’equità sociale). Per analizzare i fenomeni della mobilità sociale, si studiano i concetti di
mobilità Intragenerazionale, Intergenerazionale, Assoluta, Relativa, prendendo in
considerazione la Classe Occupazionale:

• La mobilità Intragenerazionale è data dal cambiamento di posizione socio-economica di


un singolo individuo all’interno dell’arco di vita (indicato dalla sua carriera lavorativa –
essa è un indicatore complessivo della distribuzione delle opportunità per una data
generazione).

• La mobilità Intergenerazionale, invece, è data dal cambiamento di posizione socio-


economica rispetto alla generazione precedente (si ottiene mettendo a confronto la
posizione occupazionale del figlio al primo lavoro, con quella del padre). Essa misura la
riproduzione complessiva (e gli effetti) delle disuguaglianze da una generazione ad
un’altra, e dunque anche uno degli aspetti più rilevanti del mutamento sociale.

• La mobilità Assoluta è la quota di figli che hanno raggiunto una posizione occupazionale
diversa da quella dei padri (misura “contingente” e “grezza” di mobilità sociale).Essa
misura il cambiamento di classe occupazionale da una generazione ad un’altra.

• La Mobilità relativa: si misura proprio a questo scopo. Essa è un confronto sistematico


delle probabilità di raggiungere una data destinazione, anziché un’altra ad essa alternativa,
da parte di individui provenienti da due classi diverse.

TRAIETTORIE DI MOBILITÀ: sono i percorsi seguiti dagli individui di una stessa


generazione, per raggiungere una data posizione sociale. Si misura prendendo
contemporaneamente in considerazione la classe d’origine, quella al primo lavoro e la classe
occupata al momento della rilevazione. Esse misurano gli archi di ampiezza della mobilità sociale
e le varie tipologie di percorsi, consentendoci di capire se conta più l’azione della mobilità
Intragenerazionale o di quella Intergenerazionale e come si combinano.

POVERTÀ: è una situazione di de-privazione di risorse materiali, utili per vivere e partecipare
alla società: è definita povera una famiglia il cui reddito o la cui spesa per consumi, si pone sotto
una soglia di povertà (variabile storicamente, culturalmente e socialmente). Esistono tre criteri
fondamentali per definire la soglia: assoluto, relativo, soggettivo:

1. Criterio assoluto: la soglia è definita rispetto ad un paniere minimo di beni sufficiente ad


assicurare la sopravvivenza della famiglia; la povertà assoluta è definita come incapacità
ad acquisire tale paniere.

2. Criterio relativo: la soglia è definita in base allo standard di vita medio della società
considerata. Di norma lo standard è definito come una quota (pari di solito al 60%) del
valore medio o mediano dei redditi equivalenti familiari; la povertà relativa è la
condizione in cui si trovano tutte le persone che eguagliano o sono al di sotto di questa
soglia.

3. Criterio soggettivo: la soglia è definita a quel livello di reddito che le famiglie


considerano necessario per garantire uno standard minimo di benessere.

LAVORO: il lavoro è lo svolgimento di compiti che richiedono sforzo fisico (manuale) e mentale
(intellettuale), ed ha come obiettivo la produzione di beni o servizi destinati a soddisfare il
bisogno umano. Il lavoro, generalmente, presenta un altro elemento particolarmente importante, la
Retribuzione (lavoro in cambio di salario o stipendio). Si possono infatti distinguere due tipi di
lavoro, quello retribuito e quello Non retribuito (es. le attività domestiche o il volontariato) che
impiega sforzo fisico o mentale senza che gli venga riconosciuta una retribuzione. Gran parte del
lavoro svolto nell’ambito dell’economia informale non viene registrato dalle statistiche ufficiali
sull’occupazione: per economia informale, infatti, si intendono tutte le attività esterne
all’occupazione regolare, che comportano pagamento in denaro (es. senza ricevuta, in nero).

Le società antiche erano basate sul lavoro manuale, e il lavoro informale non era definito tale. In
generale, la modernità è stata un’epoca in cui gran parte del lavoro ha subito un apprezzamento
all’interno della società. C’era una netta distinzione tra l’attività di contemplazione (classi
privilegiate con dignità maggiore) e il Negozium (utile e indispensabile per la società, ma con
valore sociale molto basso). La tradizione cristiana ha accolto questa tradizione arricchendola con
due significati: il lavoro è una maledizione (Dio condanna Adamo al lavoro manuale) ed è il
prodotto della caduta dell’uomo dal paradiso terrestre.

L’Illuminismo, le arti e i mestieri, iniziano ad essere oggetto di trattazione da parte degli


intellettuali e ad essere riconosciute come attività necessarie che meritano più attenzione. Ad
esempio, nella Divina commedia i beati contemplano Dio e riflettono sulla sua grandezza: questa
descrizione è un’idealizzazione di ciò che facevano i filosofi e gli intellettuali all’interno delle
società antiche, e non si dedicavano alle attività pratiche. Nel 1700 nasce un’enciclopedia sulle arti
e i mestieri, scritta in lingua francese ad opera di più intellettuali.

CAMBIAMENTI DEL LAVORO: il tema del lavoro (come produzione materiale) si impone
come uno dei temi centrali nel XIX secolo a causa delle sue problematiche e del suo dinamismo. Si
sviluppa la teoria del Valore del lavoro: le cose prodotte hanno un valore, e ad esse può essere
stabilito un prezzo in base al tipo e alla quantità di lavoro necessaria per produrle. Tra i
cambiamenti culturali, troviamo:

1. Lo sviluppo della divisione del lavoro, ossia le attività sociali vengono svolte da persone
specializzate in una determinata attività (in base alla propria capacità, si offre il proprio
contributo).

2. La separazione tra abitazione e lavoro: i lavoratori si spostano nelle industrie, e ciò


comporta una complicazione tra i tempi da dedicare al lavoro e alla famiglia (separazione tra
lavoro formale e informale).

3. La sostituzione della produzione artigianale con quella di massa: il lavoro acquista una
maggiore dignità quando la produzione è svolta non più da piccole botteghe, ma nelle
fabbriche. Nel laboratorio artigianale vi era una figura di riferimento (il maestro) attorno a
cui si trovavano gli apprendisti. Il maestro dirigeva in totale libertà il lavoro. Adam Smith
(filosofo ed economista scozzese – XVIII) descrive ne “La ricchezza delle nazioni” una
fabbrica di spilli con tutte le sue relative fasi di produzione: ogni individuo svolge una
fase per mezzo di una macchina. Tuttavia, questo sistema ha comportato una serie di
conflitti sull’autonomia del lavoro e sulla distribuzione della ricchezza.

4. Il passaggio dall’autosufficienza all’interdipendenza economica. Per autosufficienza


economica si intende il vivere di ciò che si ha prodotto autonomamente.
L’interdipendenza economica, invece, implica lo scambio del lavoro, ossia il lavorare con
più individui (tutti noi dipendiamo da un numero incalcolabile di altri lavoratori).

5. Il crescere del fenomeno dell’Alienazione (descritta da Marx): in fabbrica, i lavoratori


erano costretti a ripetere lo stesso compito monotono infinite volte, ed erano privati della
capacità creativa. Ciò comportava una distruzione psicologica della mente umana, che si
riduceva a diventare un braccio della macchina stessa su cui lavorava.

FORDISMO: Henry Ford (imprenditore statunitense vissuto a cavallo tra XIX e XX secolo) è il
fondatore dell’omonima casa automobilistica, e gli si deve la produzione di un bene che diventerà
il simbolo di crescita economica (automobile). Ford applica e produce una serie di innovazioni, fra
cui la catena di montaggio (ripresa dal sistema utilizzato nei Mattatoi, in cui l’animale veniva
agganciato su di un nastro trasportatore e lavorato in più fasi). In precedenza la fabbriche avevano il
datore di lavoro che regolava e sceglieva la quantità di produzione necessaria. Con la catena di
montaggio, invece, la produzione non era più soggettiva per ogni lavoratore, poiché esso (nella sua
fase) doveva compiere un tipo di lavoro prestabilito. Si riducono così i tempi di produzione e si
prevede l’innalzamento del salario a seguito dell’aumento di produzione.

TAYLORISMO: Ford si rese conto di dover sfruttare il mercato di massa, e mette quindi a punto
il sistema Taylorista, ossia l’organizzazione scientifica del lavoro: Taylor era un ingegnere
statunitense vissuto a cavallo tra XIX e XX secolo, ed aveva l’ambizione di suddividere la
produzione in più operazioni elementari per velocizzare il lavoro. L’organizzazione scientifica del
lavoro compie l’analisi oggettiva di ogni singolo compito alla ricerca del metodo più efficiente e
veloce per compiere un’operazione, quindi il modo migliore per svolgere il processo produttivo.
L’aumento dei salari doveva compensare la fatica del lavoro, ed aveva quindi lo scopo di
incentivare la produzione. È stato un sistema dominante fino agli anni 60.

SISTEMI A BASSO AFFIDAMENTO: Fordismo e Taylorismo sono stati chiamati da alcuni


sociologi “sistemi a basso affidamento”, in quanto le mansioni vengono stabilite dalla direzione, i
lavoratori sono strettamente sorvegliati e dotati di scarsa autonomia d’azione. Questa costante
supervisione produce però un risultato opposto all’impegno dei lavoratori, che si sentono
demotivati e senza voce in capitolo. È quindi alto il livello di insoddisfazione. I Sistemi ad alto
affidamento, invece, sono quelli in cui i lavoratori sono lasciati liberi di controllare l’andamento del
lavoro.

POST FORDISMO: il mercato del bene di massa è un mercato in cui si producono beni
accessibili alla maggior parte delle persone; i beni sono prodotti in serie (uno uguale all’altro –
Sistema rigido). Tuttavia, il cliente si ritrova ad avere una scarsa libertà di scelta del prodotto, e i
mercati di massa vengono lentamente sostituiti da quelli di Nicchia, incentrati su beni innovativi e
di alta qualità. Dopo gli anni 70 si afferma un diverso modo di organizzazione del lavoro, il Post-
fordismo (termine dato da Piore e Sabel – 1984): è un metodo che si afferma quando il fordismo
entra in crisi a causa dell’aumento del prezzo del petrolio e della crisi americana del dollaro. Il Post-
fordismo si basa sulla produzione flessibile: non è più la produzione di massa ad essere al centro
del processo produttivo, quindi si producono prodotti differenziati, con organizzazione più snella,
reticolare e orizzontale, non più burocratica e pesante in tutti gli aspetti.
I motivi della crisi del Fordismo erano anche strutturali, poiché la concentrazione di masse
operaie nell’industria ha comportato la crescita della popolazione, quindi lo Stato e le imprese
dovevano concedere aumenti salariali sempre più grandi. Inoltre, lo Stato doveva costruire
istituzioni come le pensioni e le assicurazioni che davano vantaggio al lavoro stesso: la forza degli
operai diventava maggiore, e ciò portava un’erosione della quota dei profitti a sfavore dei quella dei
salari. Vi era inoltre la conflittualità, perché una concentrazione così grande nel lavoro (si parla di
migliaia di persone insieme) comportava una forte frustrazione.

LA PRODUZIONE FLESSIBILE: il lavoro si arricchisce nei suoi contenuti e il valore aggiunto


è creato dai servizi: la società post-fordista è una società del terziario, in cui la conoscenza e
l’innovazione sono fondamentali. La produzione flessibile prevede che un numero minore di
lavoratori ad alta specializzazione impieghino tecnologie avanzate per produrre quantità ridotte di
beni con caratteristiche finalizzate alla soddisfazione di una specifica clientela (personalizzazione,
design, optional ecc). La flessibilità può essere Numerica (comporta maggior libertà di
licenziamento e assunzione), e Funzionale (il datore di lavoro può spostare all’interno
dell’industria il lavoratore in base alle esigenze di produzione). La flessibilità consente di fare
profitto e far apprezzare un’azienda in borsa.

PRODUZIONE DI GRUPPO: L’idea di fondo della produzione di gruppo è quella di accrescere


la motivazione dei lavoratori, consentendo ai gruppi di collaborare al processo produttivo, invece
di svolgere sempre lo stesso compito. Si riconosce quindi che i lavoratori possiedono le
competenze per contribuire alla definizione dei compiti che svolgono. Il lavoro di squadra si sta
diffondendo sempre di più per accrescere l’efficienza e risolvere i problemi di produzione.

MULTISKILLING: La produzione di gruppo e il lavoro di squadra vanno di pari passo con il


Multiskilling, cioè lo sviluppo di una forza lavoro con competenze multiple, capace di assumersi
un’ampia gamma di responsabilità. Si cercano soggetti adattabili e in grado di acquisire
rapidamente nuove competenze, e non ci si basa solo sui titolo di studio e sulle capacità
professionali.

FORZE LAVORO: Sono composte dagli occupati e dai disoccupati. Si distinguono dalla
popolazione non attiva, ossia quegli individui che non hanno cominciato a lavorare per ragioni di
età o perché sono usciti dal sistema produttivo (pensione, studenti, o chi non cerca lavoro). Per
misurare le grandezze relative al lavoro, si usa il tasso di attività (rapporto tra forze lavoro e la
popolazione di 15 anni e più), il tasso di occupazione (rapporto tra le persone occupate e la
popolazione di 15 anni e più – ci dice quali sono i posti di lavoro occupati dalle persone in un
paese), e il tasso di disoccupazione (rapporto tra persone non occupate – dai 15 ai 74 anni – e le
forze lavoro).

IN ITALIA: Negli anni 50, lo sviluppo fu dato da masse di contadini che si spostavano al nord
nelle fabbriche, e non erano abituati a quei ritmi produttivi: i metodi di disciplinamento erano
dei metodi che creavano ondate di conflittualità. Inoltre, il fatto che si producesse in serie non
era positivo, poiché quando i bisogni diventavano più complessi, la domanda dei prodotti si
raffinava sempre di più e le persone volevano possedere beni personalizzati e differenziabili: i
metodi fordisti non lo consentivano.
POTERE E POLITICA: la politica è suddivisa in due branchie principali, Politics e Policy. Con
il termine Politics (che in inglese assume un senso di “rapporti di forza”) si intende l’aspirazione
al potere da parte di partiti o persone, che legittima, a chi ne detiene, l’uso della forza. È vista
quindi come dimensione di potenza, piuttosto che di autorità. Per Policy, invece, si intendono le
leggi, l’amministrazione e il governo, attuati dal potere politico per gestire realmente la cosa
pubblica.

POTERE: può essere Economico, Ideologico, Politico, Autoritario:

1. 1Economico: si esercita sulla base del possesso dei mezzi. E’ esercitato da chi possiede
risorse materiali o finanziarie che permettono di indurre coloro che non le hanno a tenere
determinati comportamenti (esempio: imprenditori vs. operai).

2. Ideologico: esercitato da colui che dispone della conoscenza e del sapere, influenzando il
pensiero e le opinioni altrui.

3. Politico: esercitato da chi detiene la forza, i mezzi della coercizione fisica (obbligare
qualcuno con la forza), per imporre una decisione anche per mezzo delle armi.

4. Autorità: si esercita il potere dello Stato, ed è una forma di legittimazione del potere. La
società è sottoposta agli ordini perché riconosce il diritto dello Stato di emettere degli
ordini.

TEORIA DI WEBER: secondo la concezione Weberiana, esistono tre tipi di potere legittimo,
quello Tradizionale, Razional-legale e Carismatico:

1. Tradizionale: è una forma di potere antico che si basa sulla conservazione.

2. Razional-legale: tipico delle società moderne. Si ritengono legittime le cariche dello Stato
(es. presidente della Repubblica) e le norme giuridiche istituite dalle autorità.

3. Carismatico: secondo Weber, il carisma è una dote, una certa qualità della personalità di un
individuo, in che consente di elevarsi dagli uomini comuni. Questi requisiti non sono
accessibili alle persone normali, ma sono considerati di origine divina o esemplari, e sulla
loro base l'individuo in questione è trattato come un leader. Il termine viene anche usato in
ambito religioso: Gesù, ad esempio, è descritto come un leader religioso carismatico.

SISTEMI POLITICI: le due forme fondamentali di sistema politico sono quella Democratica e
quella Autoritaria:

1. DEMOCRATICA: nel sistema politico democratico, il governo si forma attraverso un


processo di coinvolgimento del popolo. Nella democrazia diretta, le decisioni vengono
prese insieme dai detentori dei diritti politici, ma non è applicabile. Il Referendum è un
atto di democrazia diretta in una democrazia rappresentativa, nella quale le decisioni
vengono prese da rappresentanti eletti dai detentori dei diritti politici: il popolo si riunisce
per scegliere i suoi rappresentanti, che hanno il diritto e il dovere di governare per un
determinato periodo di tempo.
2. AUTORITARIA: nel sistema politico autoritario, chi detiene il potere sceglie da sé come
esercitarlo e lo impone al popolo. Il regime mobilita le masse, non necessita del consenso
del popolo o cerca di instaurare un rapporto fiduciario con esso basato sulla
manipolazione e sul carisma.

LE ATTIVITÀ POLITICHE: le attività politiche si possono esercitare in due forme: quella


Ortodossa (riconosciuta come legittima, che rispecchia il normale gioco della politica), composta
da Partiti politici, elezioni e rappresentanza. Quella Eterodossa (che rompe il funzionamento
normale del sistema e inserisce elementi problematici che possono avere conseguenze
sull’andamento del sistema politico), invece, è composta da rivoluzioni e movimenti sociali. È una
distinzione che muta continuamente nel tempo.

I partiti politici di massa, in cui è possibile esprimere la propria partecipazione, sono stati
legittimati soprattutto dopo la prima guerra mondiale. Le prime formazioni che inventano il
partito di massa sono quelle socialiste (il primo è quello Social-democratico tedesco – SPD, 1875).
Ora, invece, il partito politico è costituzionalizzato ed è riconosciuto legittimo e fondamentale.

MOVIMENTI SOCIALI: i movimenti sociali sono delle forme di aggregazione di individui che
esprimono un obiettivo di cambiamento, di difesa, o la promozione di un fatto che ha connotazione
sociale, o più in generale che esprime la protesta. Sono azioni collettive tese a perseguire più
obiettivi di trasformazione attraverso delle iniziative esterne all’istituzione. Ciò avviene quando il
sistema politico non è in grado di rappresentare la società civile e si viene a creare una frattura tra
società politica e quella civile. Le forme sono legittimate all’interno del gioco demografico,
contrariamente a come avveniva in passato. Gli anni 60 sono protagonisti di nuovi movimenti
sociali.

I movimenti sociali sono soggetti politici e sociali che si definiscono in base a:

1. Tipo di conflitto espresso: gli elementi che vengono portati all’attenzione della sfera
pubblica da parte dei movimenti sociali, sono incentrati da movimenti di carattere culturale,
esigenze di auto-affermazione dell’identità individuale, esigenze più astratte e post
materialiste. Sono legate a un livello di istruzione più alto, necessario per poter afferrare
l’importanza di determinate questioni. I movimenti odierni guardano dunque ai Ceti medi
riflessivi in formazione (gli studenti). I conflitti non sono più immediati, ma richiedono un
maggiore livello di consapevolezza rispetto al passato.

2. Identità e progetto: un movimento sociale è tale se ha un’identità collettiva condivisa e se


presenta un progetto di cambiamento nella società. Tende alla rivoluzione, al
cambiamento: è la ribellione sociale, che può essere violenta (es. Brigate Rosse); una
violenza di tipo espressivo dato che la maggior parte dei movimenti sociali contemporanei
esprimono istanze democratiche radicali e pragmatiche. Esse, infatti, promuovono
trasformazioni parziali del sistema e si pongono come obiettivo principale, appunto, il
Cambiamento. C’è però bisogno di una forza politica che rappresenti le istanze del
movimento, in quanto i movimenti sociali, di per sé, non sono in grado di rappresentarsi
autonomamente.
3. Forme organizzative: un movimento sociale porta avanti un progetto di cambiamento, ma
non può esistere alcuna azione collettiva senza organizzazione: non vi è politica senza
ordine. I Partiti politici possiedono una disciplina interna, sono costruiti per via gerarchica e
i membri interni beneficiano di una tessera di partito; i movimenti sociali invece presentano
un’organizzazione più debole, poiché non hanno tessera, hanno organizzazione labile,
partecipazione volontaria e libera, e soprattutto non possiedono dirigenti a cui il membro
deve rispondere del suo comportamento. Più essi sono complessi e più è difficile stabilire un
controllo della piazza, essendo complicato organizzare servizi d’ordine: una minoranza
organizzata riesce talvolta a prevalere su una maggioranza disorganizzata.

Le forme organizzative possono essere Verticali, ossia prevedono un dirigente posto a capo, il
quale organizza il movimento stesso (società industriale, a partire dalla quale sono nati i partiti
industriali), e forma Reticolare, ovvero la logica secondo cui è organizzata la rete internet (vi sono
elementi differenti tra loro, ma nessuno ha funzione dirigente), in cui i diversi soggetti sono in
contatto e stabiliscono l’organizzazione del movimento, ma nessuno ha l’egemonia sugli altri. I
movimenti odierni sono strettamente legati alla logica reticolare, perché l’organizzazione è più
veloce e sfugge al controllo del potere. Tuttavia, altrettanto velocemente questi movimenti tendono
a non consolidarsi (stato latente).

COME SI FORMA IL MOVIMENTO SOCIALE:i movimenti sociali si trasformano in base allo


Stato nascente, alla Mobilitazione, al Consolidamento e all’Istituzionalizzazione:

1. Stato nascente: si richiedono leader profetici e carismatici in grado di attirare


l’attenzione.

2. Mobilitazione: è la fase in cui nascono le prime forme di organizzazione del movimento,


che comincia a rendersi visibile e a manifestarsi, aumentando le adesioni ad esso. Si
concretizzano le parole d’ordine che convincono ad aderire al movimento.

3. Consolidamento: una volta diffuse le proprie istanze di rinnovamento, il movimento si


trova davanti a un bivio: se i leader del movimento generano un’organizzazione più solida,
fondano partiti e delle sedi per essere riconoscibili (costruiscono la “macchina”, i contatti,
l’amministrazione, non infiammano le folle), si ha il Consolidamento, altrimenti si giunge
alla Smobilitazione, in cui il movimento sociale ha cattiva amministrazione e dunque non
riesce a consolidarsi; calano le adesioni ed aumenta il pericolo di nascita di gruppi minori o
terroristici.

4. Istituzionalizzazione: è l’ultima fase, in cui non tutti i movimenti riescono a giungere. Le


organizzazioni decidono di diventare attori politici, di competere nelle elezioni,
legittimando alcune tematiche proposte. Si richiede un modello di leadership esperto in
politica, e un modello invece carismatico che riesca a trarre voti all’interno di una
situazione critica.

MOVIMENTO OPERAIO: il primo esempio di movimento è quello Operaio (a partire dal XIX
secolo – rivoluzione industriale), in cui veniva sottolineato il conflitto tra capitale e lavoro: uno dei
problemi fondamentali della società industriale era come distribuire il capitale tra i lavoratori
(conflitto risolto con la proprietà privata, sottoforma di profitti e salari pagati a coloro che
vendono la loro forza lavoro impiegata in fabbrica). Il movimento operaio si è battuto anche per
l’abolizione delle classi sociali, affinché venisse ampliato il suffragio; il sistema economico
avrebbe potuto così produrre di più in condizioni di maggiore giustizia. Vi è a seguire il movimento
nazionalista (seconda metà del 900),

SOCIETA’ POST-INDUSTRIALE: nella società post-industriale, il settore industriale non è più


in posizione centrale, in quanto risulta centrale quello terziario, che produce e fornisce servizi
(insegnamento, sanità, pubblicità, commercio: tutto ciò che non riguarda lavoro agricolo e operaio).
Il contributo dato al PIL dal settore terziario cresce via via maggiormente. Si afferma quindi un
declino del movimento operaio, anche se da una parte prende la forma di Sindacato. A partire dagli
anni 60, nascono i movimenti sociali come quello femminista, per i diritti civili, antinucleare ed
ecologico, per i diritti omosessuali, antiglobalisti (tutti facenti parte della società post-industriale).

MECCANISMO DELLA CONTRATTAZIONE COLLETTIVA: il livello salariale viene


stabilito attraverso una contrattazione tra lavoratori e datori di lavoro. Il conflitto viene
riconosciuto a livello istituzionale, e non è più un conflitto politico che mette in discussione il
funzionamento del sistema, ma anzi produce una rappresentanza politica inserita nel gioco
demografico. Il movimento operaio diventa un elemento di attività politica ortodossa, quindi
istituzionalizzata.

RIVOLUZIONI: le rivoluzioni sono fenomeni di rinnovamento politico per mezzo di un’azione


violenta di massa; quando accanto al cambiamento nel governo si verifica un mutamento radicale
anche nella struttura della società, si parla di cambiamento politico-sociale, mentre quando esso
riguarda solo la politica, assume il nome di Colpo di Stato.

MASS MEDIA E COMUNICAZIONE: la comunicazione è il processo connettivo di base di


qualunque gruppo umano. Essa può essere definita, in generale, come un processo tramite il quale
un messaggio transita da una fonte ad un emittente, secondo un determinato canale e codice, con
relativo feedback. Oltre la comunicazione interpersonale, i Mass media sono, a partire dalla
nascita della società di massa (fine XIX secolo) i principali canali/codici della comunicazione
sociale. Essi influenzano l’esperienza personale e l’opinione pubblica, in quanto strumenti di
accesso alla conoscenza da cui dipendono molte attività sociali.

GIORNALI: i giornali derivano dai fogli di informazione diffusi nel 700. Solo dal XIX secolo
essi sono divenuti quotidiani. Il giornale ha rappresentato uno sviluppo di importanza
fondamentale nella storia dei mezzi di comunicazione moderni. Fu il principale mezzo con cui le
informazioni venivano trasmesse rapidamente alla massa. La loro influenza è diminuita con
l’avvento della radio, del cinema e della televisione.

TELEVISIONE: la televisione è il più importante sviluppo verificatosi nel campo dei media nella
seconda metà del secolo scorso. Le reti televisive sono Generaliste o ad Accesso condizionato. Le
prime sono accessibili a tutti e con un palinsesto prefissato. Quelle ad accesso condizionato (via
cavo o satellite), consentono allo spettatore di scegliere tra moltissimi canali e programmi
attraverso abbonamenti, costruendosi un palinsesto personale.
TEORIA DI McLUHAN: la struttura di una società è più influenzata dalla natura dei media,
piuttosto che dai messaggi trasmessi: il mezzo è il messaggio. I media elettronici stanno creando un
villaggio globale: ogni evento può essere seguito in tutto il mondo in tempo reale. Tutti partecipano
simultaneamente agli stessi eventi.

TEORIA DI HABERMAS: Habermas (1929) è un filosofo e sociologo tedesco legato alla teoria
sociale della Scuola di Francoforte, che considera le idee di Marx bisognose di una revisione.
Habermas analizza lo sviluppo dei media dal 18esimo secolo ad oggi, delineando la nascita della
Sfera pubblica: un’arena di pubblico dibattito in cui possono essere discusse questioni di
interesse generale e in cui si formano opinioni. Gli individui si incontrano da eguali in uno spazio
di pubblico dibattito: la sfera pubblica favorisce lo sviluppo iniziale della democrazia, in quanto
attraverso la discussione pubblica si possono risolvere i problemi politici. Tuttavia il dibattito
democratico nelle società moderne è stato soffocato dall’espansione dell’industria culturale. La
politica viene rappresentata dai media come una sorta di spettacolo, mentre gli interessi
economici trionfano su quelli pubblici: l’opinione pubblica si costruisce attraverso la
manipolazione e il controllo da parte dei mass media.

TEORIA DI BAUDRILLARD: Baudrillard ritiene che l’impatto dei moderni mass media sia
molto diverso e molto più profondo di quello di ogni altra tecnologia. La televisione non
rappresenta il mondo, ma definisce in misura crescente che cosa è il mondo. Vi è una realtà
sostituita dalle immagini televisive. L’Iperrealtà prodotta dai media è fatta di simulacri:
immagini che ricevono senso solo da altre immagini e perciò non hanno fondamento in alcuna
realtà esterna. Nessun leader politico può vincere un’elezione se non appare costantemente in
televisione: l’immagine televisiva del leader è la persona che la maggior parte degli spettatori
conosce.

NUOVE TECNOLOGIE: da alcuni decenni è in atto una rivoluzione delle comunicazioni i cui
principali fattori responsabili sono: la Globalizzazione (abbattimento delle frontiere) e Internet
(strumento di informazione, intrattenimento, pubblicità e commercio per eccellenza). Le
innovazioni tecnologiche del XX secolo hanno modificato il volto delle telecomunicazioni:
incremento della potenza dei computer (e la loro diminuzione del prezzo), sviluppo delle
comunicazioni via satellite e via fibra ottica, digitalizzazione dei dati (sviluppo della
multimedialità e dei media interattivi).

INTERNET: internet nasce al Pentagono nel 1969 con il nome di Arpanet (Arpa: Advanced
Research Projects Agency). Il suo obiettivo era consentire agli scienziati che lavoravano per la
Difesa in diverse parti d’America di mettere in comune le risorse. Con la diffusione dei Pc, esso
iniziò a diffondersi anche fuori dall’ambito militare e universitario, crescendo in maniera
spropositata (circa del 200% all’anno). È un mutamento imponente avvenuto però in maniera non
uniforme. Vi sono esclusi infatti i paesi meno sviluppati. Si parla dunque di disuguaglianze sociali
in termini di Divario digitale (disparità di accesso alle tecnologie della comunicazione elettronica).

ASPETTI POSITIVI: promuove nuove forme di relazione elettronica che integrano o potenziano
le interazioni faccia a faccia; facilita il superamento della distanza e della separazione; espande e
arricchisce la rete dei rapporti sociali.
ASPETTI NEGATIVI: spinge a trascurare le interazioni con familiari e amici; accentua
l’isolamento sociale e l’atomizzazione; stravolge l’esistenza domestica offuscando la
distinzione tra lavoro e famiglia; induce a trascurare forme di intrattenimento tradizionali
(es. lettura, cinema e teatro); indebolisce il tessuto della vita sociale.

ISTRUZIONE: l’istruzione è stata considerata come il principale mezzo attraverso cui è possibile
combattere le disuguaglianze nella società. Oggi si arricchisce e diventa un mezzo di
emancipazione, di mobilità sociale, consentendo lo sviluppo economico e umano in società.
Prima dell’invenzione della stampa (1454) i libri venivano copiati a mano e quindi erano rari e
costosi. Saper leggere non era necessario e nemmeno utile. Oggi invece l’alfabetismo (capacità
elementare di leggere e scrivere) è esteso nella maggior parte dei paesi industrializzati.

La Scolarizzazione è la partecipazione (che può essere obbligatoria) a un processo di istruzione


formale all’interno di un’istituzione educativa. Nelle Poleis il rapporto tra docente e allievo era
molto personale; il docente infatti era un esempio da seguire (maestro) pur possedendo una
formazione minima. Successivamente, l’istruzione era fondamentalmente in mano alla chiesa: si
accedeva alla cultura entrando a far parte di un ordine monastico (cultura amanuense – corale) e la
trasmissione delle conoscenze era limitata.

I Dispotismi illuminati erano sovrani che si ispiravano all’Illuminismo e per primi costruirono
dei sistemi di istruzione e del sapere, contrapponendosi al sistema gestito dalla chiesa. Alla fine
dell’800 invece lo Stato si trovava a gestire interamente l’istruzione: le istituzioni scolastiche
prendevano percorsi e esami riconosciuti dall’istituzione dello Stato.

L’universalizzazione dei sistemi educativi è il passaggio successivo realizzato tra gli anni 30 e 60
del ventesimo secolo, in quanto fa riferimento all’apertura di tutti i gradi dell’istruzione all’intera
popolazione senza distinzioni sociali di alcun tipo (di classe, di ceto, di censo, di etnia, di
religione). Si da quindi maggiore insistenza sull’apprendimento astratto (es. matematica, scienze,
storia, letteratura – conoscenza tecnica e scientifica) piuttosto che sulla trasmissione pratica di
competenze specifiche, proprio per preparare le nuove generazioni all’inserimento nella vita
economica (economia di conoscenza).

Oggi la quota di analfabetismo è minima e trascurabile. Essere analfabeta significa essere tagliato
fuori dalla società e da tutte le sue funzioni, accentuando tutti i processi di dipendenza e
disuguaglianza. All’Unità d’Italia, più del 75% della popolazione era analfabeta, mentre oggi la
percentuale è ridotta al 7%. L’alfabetizzazione è quindi compito primario dello Stato.

APPRENDIMENTO PERMANENTE: acquisizione di conoscenza che ha luogo in una pluralità


di contesti ed è indeterminata nel tempo. Oggi si sta sempre più assistendo al passaggio
dall’istruzione alla formazione permanente. Istruzione: trasmissione strutturata di conoscenza
all’interno di un’istituzione formale durante un ciclo di studi.

ILLICH - IL PROGRAMMA OCCULTO: Illich era uno studioso indipendente e autonomo, in


polemica con l’accademia. Secondo la teoria di Illich, la nozione di scolarizzazione obbligatoria
andrebbe messa in discussione. Le scuole svolgono quattro compiti: custodia, distribuzione degli
individui nei ruoli occupazionali, apprendimento dei valori dominanti, acquisizione delle capacità e
delle conoscenze socialmente approvate.

Lo sviluppo economico, infatti, è basato su strutture organizzative, necessarie allo sviluppo e alla
crescita dei sistemi sociali moderni: gli individui, un tempo autosufficienti, vengono privati delle
proprie capacità tradizionali e costretti ad affidarsi ai medici per la salute, agli insegnanti per
l’istruzione, alla televisione per l’intrattenimento e ai datori di lavoro per la sussistenza. Ai
ragazzi, la scuola inculca il Consumo passivo, ossia insegna a sapere qual è il proprio posto e
starsene lì tranquilli. Si tratta di un insegnamento che non viene impartito a livello cosciente,
implicito nell’organizzazione scolastica: è questo il Programma occulto della scuola. Illich
propone quindi la descolarizzazione della società. Chi vuole apprendere non dovrebbe essere
costretto ad accettare un programma standardizzato, ma poter scegliere personalmente cosa
studiare.

BOURDIEU – CAPITALE CULTURALE: per Riproduzione culturale si intendono modi in cui


la scuola, insieme ad altre istituzioni, contribuisce a far durare nel tempo, di generazione in
generazione, le disuguaglianze sociali ed economiche. Questo concetto richiama l’attenzione sui
meccanismi attraverso cui la scuola rafforza le differenze di riferimenti culturali acquisiti nel corso
della vita.

GOLEMAN – TEORIE DELL’INTELLIGENZA: Daniel Goleman (1996) ha sostenuto che


l’intelligenza emotiva può essere altrettanto importante quanto il Qi nel determinare le nostre
opportunità di vita. Il concetto di intelligenza emotiva indica la capacità di gestire proficuamente
le proprie emozioni (motivazione, autocontrollo ecc). Secondo Goleman, le persone con un Qi
elevato possono essere incapaci a condurre la propria esistenza. Ecco perché l’intelligenza non
risulta correlata con il successo nella professione e nella vita.

RISULTATI SCOLASTICI: negli ultimi anni si sta assistendo a un aumento


dell’impreparazione maschile. I fattori che spiegano il migliore rendimento scolastico delle
ragazze sono la crescita dell’autostima e delle aspettative femminili, la maggiore consapevolezza
della discriminazione di genere all’interno del sistema educativo (contrasto agli stereotipi di genere
nell’insegnamento, materiale educativo esente da pregiudizi di genere, incoraggiamento delle
ragazze a esplorare materie maschili), la differenza di approccio allo studio fra ragazzi e ragazze (le
ragazze sono più motivate e maturano più rapidamente).

LA SITUAZIONE IN ITALIA:

1. Nel 2007 l’incidenza della spesa in istruzione e formazione sul Pil è pari al 3,7%,
ampiamente al di sotto della media dell’Ue27 (5,1% nel 2006).

2. Nel 2008 il 47,2% della popolazione in età compresa tra i 25 e i 64 anni ha conseguito come
titolo di studio più elevato soltanto la licenza di scuola media inferiore, valore che – nel
contesto europeo – colloca il nostro Paese distante dalla media Ue27 (28,5%), nelle peggiori
posizioni insieme a Spagna, Portogallo e Malta.

3. Nello stesso anno il 76,0% dei giovani italiani in età 20-24 anni ha conseguito almeno il
diploma di scuola secondaria superiore. Gli iscritti all’università sono in costante crescita e
la loro consistenza è pari a circa il 41% dei giovani in età 19-25 anni.
LA RELIGIONE: Per religione si è soliti intendere quell’insieme di simboli che si manifestano
attraverso riti o cerimonie. I simboli sono volti a creare e mantenere riverenza e timore,
formando la comunità dei credenti. In alcune religioni i credenti venerano divinità personificate,
in altre si venerano invece figure non divine che però sono ugualmente oggetto di devozione.

La magia è il tentativo di influenzare gli eventi con l’uso di posizioni, formule o pratiche rituali:
non vi è una linea netta che divide la religione dalla magia, e solitamente si distinguono per il fatto
che la Religione è praticata maggiormente in comunità, mentre la Magia viene praticata da
individui.

Nel cristianesimo, si ha fede in un essere supremo che chiama gli individui a un comportamento
morale su questa Terra e ci promette una vita ultramondana dopo la morte. Tuttavia, il
cristianesimo non identifica la maggior parte delle religioni. Infatti, la fede in un solo Dio
(monoteismo) è rispecchiata solo in una piccola parte delle religioni. La maggior parte di esse
rientra nel Politeismo, la fede in una molteplicità di Dèi. In molte religioni, inoltre, gli Dèi si
presentano disinteressati alla vita degli umani, contrariamente alle Prescrizioni morali (tipiche
del cristianesimo). La religione non si preoccupa necessariamente di spiegare l’origine del mondo.
Infine, la religione non può essere identificata necessariamente con una dimensione
soprannaturale.

LA TEORIA DI MARX: Weber, Durkheim e Marx non erano religiosi, e tutti e tre ritenevano che
la religione fosse fondamentalmente un’illusione, e che la sua importanza sarebbe diminuita
nell’epoca moderna. Marx non condusse mai uno studio specifico sulla religione; le sue idee infatti
derivano dagli scritti di alcuni filosofi ottocenteschi (es. Feuerbach in “L’essenza del
cristianesimo”).

Secondo Feuerbach la religione consiste di idee e valori prodotti dagli esseri umani,
erroneamente proiettati su forze e personificazioni divine. Dio sarebbe quindi la costruzione di
un Super uomo (uomo potenziato con attribuiti ideali dati dall’uomo stesso). È una forma di
Alienazione (che non ha lo stesso significato attribuito da Marx), in quanto la religione estranea
l’uomo da se stesso facendogli credere di non essere in prima persona: l’uomo è sottomesso da se
stesso.

La religione si trova ad essere dunque un rifugio dell’uomo di fronte alla durezza della realtà
quotidiana. Marx afferma che la religione è “l’oppio dei popoli”; essa rimanda felicità e
ricompense alla vita ultraterrena, distogliendo l’attenzione dalle disuguaglianze e dalle ingiustizie
di questo mondo grazie alla promessa di ciò che accadrà in quello a venire.

LA TEORIA DI DURKHEIM: a differenza di Marx, Durkheim condusse vari studi sulla


religione. “Le forme elementari della vita religiosa - 1912” è lo studio più influente di Durkheim, in
cui si afferma che una religione è un sistema coerente di credenze e di pratiche relative a “cose
sacre”, cioè separate e proibite, che riuniscono in una stessa comunità morale, chiamata chiesa,
tutti coloro che vi aderiscono. Egli collega la religione con il carattere complessivo delle istituzioni
di una società, basando il suo lavoro su uno studio del totemismo (praticato nelle società aborigene
australiane).
Un Totem è un animale o una pianta cui un gruppo sociale attribuisce un particolare significato.
Parte dunque dalla forma di religione più elementare per studiarne le caratteristiche e capire il
significato di quelle più complesse. Durkheim definisce la religione in base alla distinzione tra
Sacro e Profano. Un totem sarebbe sacro in quanto è il simbolo del gruppo stesso: esso
rappresenta i valori fondamentali della comunità. L’oggetto del culto è quindi la società stessa.
Durkheim sottolinea che tutte le religioni prevedono attività rituali, che fanno temporaneamente
dimenticare agli individui le preoccupazioni della vita profana. Riti e cerimonie sono quindi
essenziali per stabilire il legame tra i membri di un gruppo. Le cerimonie collettive affermano la
solidarietà di gruppo nelle esperienze critiche di cambiamento.

LA TEORIA DI WEBER: Max Weber affronta un’analisi delle religioni di tutto il mondo; mai
nessuno ha intrapreso un’indagine così ampia. Egli concentra le attenzioni sulle Religioni
mondiali, capaci di raccogliere vaste masse di credenti e di influenzare il corso della storia
universale. Weber non crede che la religione sia una forza conservatrice (Marx), bensì crede che
essa possa provocare enormi trasformazioni sociali: La religione influisce sulla vita sociale ed
economica. Il Puritanesimo e il protestantesimo, ad esempio, furono all’origine del modo di pensare
capitalistico. Ne ”L’etica protestante e lo spirito del capitalismo” Weber discusse ampiamente
l’influenza del cristianesimo sulla storia dell’Occidente moderno.

Weber scoprì che effettivamente alcune religioni sono caratterizzate da un ascetismo


ultramondano, che privilegia la fuga dai problemi terreni, distogliendo gli sforzi dallo sviluppo
economico. Il cristianesimo sarebbe una religione di salvezza per Weber, poiché è incentrata sulla
convinzione che gli esseri umani possano essere salvati purché scelgano la fede e seguano le sue
prescrizioni morali. Le religioni di salvezza presentano un aspetto rivoluzionario perché sono
caratterizzate da un ascetismo intramondano, cioè uno spirito religioso che privilegia la condotta
virtuosa in questo mondo. Le religioni asiatiche invece avevano un atteggiamento di passività
rispetto all’esistente.

CHIESE e SETTE: una chiesa è un’associazione religiosa di grandi dimensioni e ben


organizzata. Le chiese hanno di norma una struttura formale e burocratica, con una gerarchia di
funzionari religiosi. Si può appartenere ad una chiesa fin dalla nascita, per trasmissione familiare.
Una Setta, invece, è un’associazione religiosa di piccole dimensioni e scarsamente organizzata,
che di solito sorge in polemica con una chiesa: si basa su una forma di potere di tipo carismatico.
Le Sette mirano a scoprire e seguire la “vera via” e tendono a ritirarsi dalla società esterna,
chiudendosi in comunità autonome. Il termine Setta ha assunto una connotazione negativa, come
un gruppo essenzialmente manipolatorio.

CONFESSIONI e CULTI: le confessioni sono sette “raffreddate” e hanno cessato di essere


gruppo di protesta attiva per diventare organismi istituzionalizzati. Le Sette che sopravvivono
oltre un certo limite di tempo si trasformano in confessioni. I Culti sono le organizzazioni
religiose meno strutturate e più transitorie, essendo composti da individui orientati a respingere i
valori della società esterna. I singoli individui non aderiscono formalmente a un culto e possono
conservare altri legami religiosi.

SECOLARIZZAZIONE: Marx, Durkheim e Weber credevano che la secolarizzazione, cioè il


processo attraverso cui la religione perde la sua influenza nelle diverse sfere della vita sociale,
sarebbe stata inevitabile. Le società moderne, infatti, tendono ad affidarsi sempre di più alla
scienza e alla tecnologia per controllare e spiegare il mondo. La secolarizzazione può essere
analizzata sulla base di tre diversi parametri:

1. Il Seguito delle organizzazioni religiose: il numero dei loro membri (è un parametro


oggettivo). Un declino religioso si è avuto in Europa.

2. Influenza sociale: influenza delle organizzazioni religiose sulle istituzioni politiche e sulla
comunità. Le organizzazioni religiose hanno progressivamente perduto gran parte
dell’influenza sociale esercitata in precedenza.

3. Religiosità: riguarda la Fede e i Valori. Non necessariamente i credenti partecipano alle


attività religiose, pur avendo convinzioni religiose.

La secolarizzazione è un fenomeno controverso, poiché il declino della religione delle chiese


tradizionali non interessa tutti i paesi occidentali (es. in Usa non è ancora registrato un declino
significativo). Tale processo non è avvenuto ovunque e oggi interessa soprattutto i paesi post-
industriali; anche fra i paesi occidentali permangono profonde differenze riguardo alle credenze
religiose. La religiosità e la spiritualità, inoltre, sono ancora importanti fattori di motivazione nella
vita di molte persone: si guardi ad esempio alla fede senza appartenenza, in cui si continua a
credere in Dio, ma la propria fede è praticata al di fuori delle forme religiose istituzionalizzate.

NUOVI MOVIMENTI RELIGIOSI: le chiese tradizionali stanno cedendo il passo a favore di


altre forme di attività religiosa. Si intendono “Nuovi movimenti religiosi” l’ampia gamma di
gruppi religiosi e spirituali, culti e sette che si sono diffusi nei paesi occidentali accanto alle
religioni consolidate. Può esistere ad esempio un modo di concepire la sfera del sacro che non
prevede l’esistenza di una divinità: sono nuove modalità di vedere il sacro, attraverso
l’organizzazione di movimenti che non necessariamente prevedono culti verso divinità. Si fondano
dunque su messaggi di ritrovamento individuale, senza dare informazioni su ciò che sarà
nell’aldilà, ma offrendo un percorso di crescita individuale che porti al miglioramento della
condizione spirituale, ritrovando il contatto con i propri valori (cit. Bryan Wilson). I nuovi
movimenti religiosi tendono a fornire una risposta al bisogno di sostegno da parte di chi si sente
estraneo ai valori sociali dominanti.

TIPOLOGIE DEI MOVIMENTI RELIGIOSI: Roy Wallis classifica nel suo libro (The
Elementary Forms of the New Religious Life) i nuovi movimenti religiosi in tre categorie:

1. Movimenti di affermazione del mondo: Sono gruppi di auto-aiuto o terapeutici, spesso


privi di riti e dogmi, e si concentrano sul benessere spirituale dei membri. Essi non
respingono il mondo esterno o i suoi valori, e cercano di esaltare le capacità e le possibilità
di successo dei propri membri, liberandone il potenziale.

2. Movimenti di negazione del mondo: Sono movimenti di rottura totale nei confronti del
mondo circostante. Si avvicinano alla forma pura della setta: l’appartenenza è di tipo totale,
e comporta che i loro seguaci cambino radicalmente stile di vita. Si basano su rigidi codici
etici e sull’astensione da ogni attività mondana. Alcuni di questi movimenti sono stati
accusati di lavaggio del cervello nei confronti dei loro membri, cercando di controllarne la
mente in modo da privarli delle capacità di prendere decisioni indipendenti.
3. Movimenti di adattamento al mondo: è la categoria che più si avvicina alle religioni
tradizionali. Tendono ad enfatizzare l’importanza della vita religiosa interiore a spese
degli interessi più strettamente mondani, cercando quindi di svalutare le preoccupazioni
che derivano dalla vita esteriore.

MOVIMENTI MILLENARISTICI: il termine “Millenaristico” deriva dalla tradizione


cristiana, in quanto vigeva la credenza che il Mondo sarebbe finito con l’avvento dell’anno Mille.
È una credenza basata sull’idea del secondo avvento di Cristo sulla Terra, che avrebbe comportato
un rinnovamento totale del mondo attraverso la fine della storia: ricongiungimento terreno col
divino. L’Apocalisse infatti è il rinnovamento del mondo, e non la sua fine. Si definisce
millenaristico dunque un movimento che attende la salvezza collettiva dei propri membri in virtù
di qualche cambiamento catastrofico.

GIOACHIMISMO: un movimento millenaristico dell’Europa medievale fu il Gioachimismo,


sviluppatosi nel XIII secolo come protesta alle nuove ricchezze della Chiesa ufficiale. A
Gioacchino de Fiore fu attribuita la profezia secondo cui nel 1260 gli spirituali (i gioachimiti)
avrebbero inaugurato la terza ed ultima età del cristianesimo, che avrebbe condotto al millennio, in
cui tutti gli esseri umani si sarebbero uniti in una vita di devozione cristiana e di volontaria
povertà. Secondo la profezia, la chiesa ufficiale sarebbe stata soppressa e il clero massacrato
dall’imperatore di Germania.

LA DANZA DELLO SPIRITO: un esempio diverso di movimento millenaristico è il culto della


Ghost Dance (danza dello Spirito), sorto tra gli indiani delle pianure nordamericane nel XIX sec.
Essi annunciarono l’arrivo di una catastrofe universale che avrebbe visto tempeste, terremoti,
trombe d’aria e inondazioni uccidere tutti gli invasori bianchi, inaugurando una nuova era di
prosperità e di pace. La danza dello Spirito cessò di essere praticata dopo la battaglia di
Wounded Knee, nella quale 370 indiani furono massacrati da soldati bianchi.

FONDAMENTALISMO RELIGIOSO: il termine fondamentalismo può essere applicato per


descrivere la rigida adesione a un insieme di principi o credenze. Il fondamentalismo religioso è
un atteggiamento mirante a imporre un’interpretazione letterale dei testi fondamentali di una
religione e una loro applicazione a ogni aspetto della vita sociale, economica e politica. Si
diffonde soprattutto alla fine degli anni 70, anche se il termine nasce negli Usa (anni 10 e 20) per
designare alcune tendenze estreme nell’ambito delle chiese evangeliche, fondate su una religiosità
esagerata applicata ad ogni aspetto della vita. Per mezzo del fondamentalismo si tenta di restaurare
nella società la tradizione della centralità religiosa, non disdegnando l’utilizzo della violenza. La
religione si trasforma quindi in forza politica.

FONDAMENTALISMO CRISTIANO: la Bibbia è la guida per tutte le attività umane; si erge


contro la “crisi morale” prodotta dalla modernizzazione. Es. ‘nuovi conservatori’ (neo-cons) negli
Stati Uniti.

FONDAMENTALISMO ISLAMICO: in Oriente il termine si applica sulla rivoluzione iraniana,


che intende riapplicare l’Islam al mondo moderno: è anche una risposta alla globalizzazione, vista
come perdita dei fondamenti delle culture. Si attua il risveglio islamico attraverso la costruzione di
uno Stato fondato sulla legge islamica tradizionale (sharia); 1978-79 ‘rivoluzione islamica’ iraniana
guidata da Khomeini. La religione è il fondamento della vita economica e politica.
Riassunti tratti dal sito, ora non più esistente, “http://riassunti-scienzepolitiche.blogspot.com”.
Fondamenti di Sociologia

Capitolo 1

CHE COS'E' LA SOCIOLOGIA?

Le prime teorie

Un passo avanti decisivo fu il ricorso alla scienza per comprendere il mondo:


L'affermazione del metodo scientifico: progressivamente, le spiegazioni tradizionali
e quelle basate sulla religione furono soppiantate dagli sforzi di attingere ad una
conoscenza critica e razionale.
Come la fisica, la chimica, la biologia e le altre discipline, la sociologia nacque nel
contesto di questo importante processo intellettuale. La nascita della sociologia
avviene sullo sfondo dei cambiamenti travolgenti indotti dalle due grandi rivoluzioni
europee del diciottesimo secolo:
− La rivoluzione francese del 1789 che segnò il trionfo dei valori di libertà ed
uguaglianza sull'ordine sociale tradizionale.
− La rivoluzione industriale con trasformazioni socio-economiche che
accompagnarono lo sviluppo di innovazioni tecnologiche quali l'introduzione delle
macchine a vapore e del vapore come fonte d'energia. Massiccia migrazione di
contadini dalle campagne alle fabbriche, rapida espansione delle aree urbane.
Il mondo sociale ne fu profondamente trasformato e con esso molte delle abitudini
quotidiane. I pionieri del pensiero sociologico cercarono di comprenderne la genesi e
le potenziali conseguenze.

Auguste Comte (1798-1857)

Pensatore francese, fu lui a coniare la parola sociologia (prima fisica sociale),


ideò la parola sociologia per definire la disciplina che voleva fondare.
Comte ambiva a creare una scienza della società che potesse spiegare le leggi del
mondo sociale così come le scienze della natura spiegavano il funzionamento del
mondo fisico.
Così come la scoperta delle leggi naturali ci permette di controllare e prevedere gli
eventi del mondo fisico, la scoperta delle leggi che governano la società umana può
aiutarci a modificare il nostro destino e ad accrescere il benessere dell'umanità.
Comte era convinto che la sociologia dovesse applicare allo studio della società gli
stessi metodi scientifici rigorosi che la fisica o la chimica applicano allo studio del
mondo fisico.

Il positivismo sostiene che la scienza si applica solo a fenomeni osservabili, sulla


base di accurate osservazioni, si possono dedurre quelle relazioni casuali tra eventi
che consentono di prevederne la ripetizione futura.
La legge dei tre stadi di Comte afferma che gli sforzi umani per comprendere il
mondo sono passati attraverso tre stadi:
 Lo stadio teologico: il pensiero viene guidato dalle idee religiose e dal concetto di
società come espressione della volontà di Dio.
 Lo stadio metafisico: la società viene spiegata facendo ricorso a principi astratti.
 Lo stadio positivo: applicazione del metodo scientifico al mondo sociale.

Comte considera la sociologia come l'ultimo prodotto dello sviluppo scientifico e come
la scienza più importante e complessa.
Tra le sue preoccupazioni vi erano le disuguaglianze generate dall'industrializzazione e
la minaccia che esse costituivano per la coesione sociale. La soluzione a suo parere
era nella produzione di un consenso morale capace di mantenere unita la società a
dispetto di quelle nuove disuguaglianze.

Emile Durkheim (1858-1917)

Pensatore francese, pensava che molte idee del suo predecessore fossero troppo
vaghe.
Per Durkheim la sociologia era una scienza nuova, che si dovesse studiare la vita
sociale con la stessa oggettività con cui gli scienziati studiano la natura.
Il primo principio della sociologia di Durkheim è :
“studia i fatti sociali come cose”
Per Durkheim il principale oggetto intellettuale della sociologia è lo studio dei fatti
sociali come elementi della vita sociale che determinano le azioni individuali.
I fatti sociali sono esterni agli individui e hanno una vita propria a prescindere dalle
percezioni individuali, essi esercitano un potere di coercizione sugli individui che si
conformano ad esse liberamente senza accorgersene, illudendosi di esercitare una
facoltà di scelta; in realtà Durkheim sostiene che le persone spesso non fanno altro
che seguire modelli vigenti per l'intera società in cui vivono.
I fatti sociali sono difficili da studiare, essi non possono essere osservati direttamente
ma solo attraverso un'analisi indiretta sugli effetti o esaminando gli strumenti utilizzati
per dare loro espressione (leggi, testi religiosi, regole di condotta scritte) scartando
del tutto pregiudizi e ideologie.

Uno dei suoi interessi primari era la solidarietà sociale e morale.


Nel suo primo lavoro importante, La divisione del lavoro sociale, egli elabora un'analisi
del mutamento sociale secondo cui con l'avvento dell'era industriale si afferma anche
un nuovo tipo di solidarietà.
Egli contrappone solidarietà meccanica e solidarietà organica, cioè l'affermarsi di
differenze sempre più complesse tra le occupazioni.
− Solidarietà meccanica: caratterizza le società tradizionali che hanno una scarsa
divisione del lavoro, i membri di queste società si dedicano ad occupazioni simili tra
loro e sono legati tra di loro da esperienze comuni e credenze condivise, fatte
valere attraverso sanzioni repressive: la comunità punisce in modo esemplare
coloro che mettono in discussione gli stili di vita convenzionali.
− Solidarietà organica: caratterizza le società moderne, i membri si dedicano in
prevalenza ad occupazioni diverse tra loro, essi sono legati tra di loro
dall'interdipendenza reciproca, come le componenti di uno stesso organismo. Con
l'aumento della divisione del lavoro, gli individui diventano sempre più dipendenti
gli uni dagli altri, poiché ognuno ha bisogno di beni e servizi forniti da coloro che
svolgono attività differenti dalla propria, fatti valere attraverso sanzioni
restitutive: miranti a ristabilire l'equilibrio turbato dalla violazione.
I processi di cambiamento sono così rapidi e intensi da generare serie difficoltà a
livello sociale.
Durkheim collegava queste condizioni di disagio all'anomia: ovvero la carenza di
valori e di norme provocata dalla vita sociale moderna.

Uno degli studi più famosi di Durkheim riguarda il suicidio (1897).


“Il suicidio è un fatto sociale che può essere spiegato solo da altri fatti sociali”
Esaminando le statistiche ufficiali sui suicidi in Francia, egli scoprì che certe categorie
di individui erano più propense al suicidio di altre (es. uomini più delle donne, ricchi
più dei poveri, ecc.).
Questi riscontri portarono il sociologo ad affermare l'esistenza di due forze sociali,
esterne all'individuo, che influenzano i tassi di suicidio:
l'integrazione sociale e la regolazione sociale.
Queste due forze determinano, per carenza o per eccesso, quattro tipi di suicidio:
• Suicidio egoistico : carenza di integrazione sociale.
Ha luogo quando l'individuo è isolato, i suoi legami con i gruppi sociali sono
allentati o interrotti.
• Suicidio anomico : carenza di regolazione sociale.
La perdita di solidi punti di riferimento normativi, ad esempio in tempi di
rivolgimenti economici.
• Suicidio altruistico : eccesso di integrazione sociale.
I legami sociali sono troppo forti e l'individuo attribuisce alla società più valore che
a se stesso.
• Suicidio fatalistico : eccesso di regolazione sociale.
L'oppressione cui è sottoposto l'individuo, produce in lui un senso di impotenza che
può indurlo all'auto-soppressione.
Molte obiezioni sono state sollevate sullo studio di Durkheim , ad esempio il suo uso di
statistiche ufficiali ed il suo rifiuto di considerare fattori non sociali.

Karl Marx (1818-1883)

Pensatore tedesco, le sue attività politiche in giovane età lo misero in contrasto con le
autorità tedesche, dopo un breve soggiorno in Francia si stabilì in esilio in Gran
Bretagna, dove fu testimone dello sviluppo industriale e delle disuguaglianze che ne
derivavano. Le sue idee contrastano con quelle di Comte e Durkheim.
Gli scritti di Marx riflettono in particolare il suo interesse per il movimento operaio
europeo e per le idee socialiste. Molte delle sue opere sono dedicate a questioni
economiche, ma poichè il suo interesse principale fu sempre quello di collegare i
problemi economici alle istituzioni sociali anche i suoi critici riconoscono ad esse una
notevole importanza per lo sviluppo della sociologia.

Marx si concentrò soprattutto sui cambiamenti dell'età moderna, collegati soprattutto


allo sviluppo del capitalismo.
Il capitalismo è un modo di produzione. Nel modo di produzione capitalistico Marx
individuava due elementi costitutivi:
➢ Il capitale : ovvero i mezzi di produzione (denaro,macchine,fabbriche) utilizzati
per produrre merci.
➢ Il lavoro salariato : cioè l'insieme dei lavoratori che devono cercare occupazione
presso i detentori del capitale, vendendo la propria forza lavoro in cambio di
salario.
➢ La borghesia : ovvero i capitalisti.
➢ Il proletariato : ovvero la classe operaia (proletario=colui che possiede soltanto la
propria prole)
Secondo Marx il capitalismo è un sistema intrinsecamente classista.
Per quanto capitalisti ed operai dipendano gli uni dagli altri questa dipendenza è
fortemente sbilanciata.
Il rapporto tra le classi è fondato sullo sfruttamento: i capitalisti ricavano profitti
appropriandosi del prodotto per la parte (detta plusvalore).
Nella società capitalista le classi intrattengono un rapporto conflittuale:
la borghesia costituisce la classe dominante, il proletariato la classe subordinata.
Marx era convinto che questo conflitto di classe fosse destinato a inasprirsi nel corso
del tempo.

La visione del processo storico poggia su quella che Marx definiva “concezione
materialistica della storia”: le cause principali del mutamento sociale non sono da
ricercare nelle idee o nei valori, ma innanzitutto nei fattori economici.
Secondo la celebre formula contenuta nel “Manifesto del partito comunista”:
La storia di ogni società esistita fino a questo momento è la storia di lotte di classi.

Marx analizzò anche lo sviluppo delle società nel corso della storia.
Secondo lui le società cambiano a causa delle contraddizioni insite nei rispettivi modi
di produzione, egli delineò una progressione di fasi storiche:
primitive di cacciatori e raccoglitori, società schiavistiche antiche e sistemi feudali,
mercanti,artigiani e borghesia capitalistica.
Marx prevedeva che i capitalisti stessi sarebbero stati a loro volta soppiantati
dall'avvento di un ordine nuovo; considerava inevitabile una rivoluzione dei lavoratori
che avrebbe rovesciato il sistema capitalistico, instaurando una nuova società senza
classi. Il modo di produzione si sarebbe organizzato attorno a una proprietà di tipo
comunitario, fondamento di un ordine sociale più egualitario.
Max Weber (1864-1920)

Pensatore tedesco, buona parte della sua opera si occupa dello sviluppo del
capitalismo e dei modi in cui la società si differenzia dalle forme precedenti di
organizzazione sociale.
Weber cercò di comprendere natura e cause del mutamento sociale.
Benchè influenzato da Marx, ne criticò duramente alcune idee di fondo:
respinse la concezione materiali della storia e attribuì meno importanza al conflitto di
classe. Secondo lui infatti l'influenza di idee e valori sul mutamento sociale è pari a
quella delle condizioni economiche.
Weber era convinto che la sociologia dovesse concentrarsi sull'azione sociale e non
sulle strutture, gli individui hanno la capacità di agire liberamente e di plasmare il
proprio futuro.
Egli non credeva che le strutture esistessero all'esterno o indipendentemente dagli
individui, piuttosto le strutture sociali sono formate da un complesso gioco di azioni e
la sociologia ha il compito di comprendere il significato nascosto di quelle azioni
definita sociologia comprendente.

Weber studiò le religioni della Cina, dell'India e del Medio Oriente e comparò i sistemi
religiosi cinese e indiano con quelli occidentali.
Weber arrivò alla conclusione che alcuni aspetti dell'etica protestante -inducendo
l'individuo ad impegnarsi per il successo delle proprie iniziative economiche, visto
come segno di predestinazione divina- avevano contribuito in maniera decisiva a
formare quel complesso di orientamenti normativi, da lui chiamato spirito del
capitalismo che è all'origine della società moderna.
“L'etica protestante e lo spirito del capitalismo” è una delle sue maggiori opere (1905)

Un elemento importante è il concetto di tipo ideale.


I tipi ideali sono modelli concettuali utili a comprendere il mondo. Nel mondo reale i
tipi ideali non esistono in quanto tali e spesso solo alcuni dei loro attributi sono
presenti nei fenomeni concreti, ma un fenomeno può essere meglio compreso
confrontandolo con un tipo ideale.
Ideale non designa un obiettivo perfetto o desiderabile, quanto piuttosto la forma pura
di un certo fenomeno.
Weber era convinto che la società si stesse affrancando delle credenze radicate nella
superstizione, nella religione, nelle usanze e nelle abitudini tradizionali.
Al loro posto subentra il calcolo strumentale razionale, che tende al
raggiungimento dell'efficienza sulla base delle conseguenze prevedibili.
Processo che viene chiamato da Weber, razionalizzazione.
Egli impiegò in termine disincanto, per descrivere il modo in cui il pensiero razionale
moderno ha spazzato via le credenze di carattere “magico”, ovvero non scientifico,
legate alla tradizione.
Weber non era però del tutto ottimista riguardo agli esiti della razionalizzazione, aveva
paura che nel tentativo di regolamentare ogni sfera della vita sociale, si trasformasse
in una gabbia d'acciaio capace di soffocare lo spirito umano.

Funzionalismo

Per il funzionalismo la società è un sistema complesso le cui parti cooperano per


produrre stabilità; ad ogni parte è assegnato l'assolvimento di una determinata
funzione. La sociologia dovrebbe indagare le relazioni che le varie parti della società
intrattengono tra loro ed il tutto.
I funzionalisti come Comte e Durkheim hanno fatto spesso ricorso all'analogia secondo
cui la società è come un organismo vivente (le sue componenti lavorano per il bene
della società come il corpo umano).
Questa metafora porta il funzionalismo ad accentuare l'importanza dell'ordine sociale
fondato sul consenso considerato come condizione normale della società.

Talcott Parsons (1902-1979) e Robert Merton (1910-2003) sono stati i maggiori


esponenti del funzionalismo.
Negli ultimi anni il vigore del funzionalismo ha iniziato a declinare, c'è scarsa
attenzione per il ruolo dell'azione sociale creativa; hanno spesso scritto dei bisogni e
dei fini di una società, ma tali concetti hanno senso solo se applicati agli individui
umani.
Teorie del conflitto

Le teorie del conflitto si concentrano sui temi del potere, della disuguaglianza e del
conflitto.
Secondo questo modello la società è composta di gruppi distinti, ciascuno dedito al
proprio interesse. L'esistenza di interessi distinti comporta la costante presenza di un
conflitto, quelli che prevalgono nel conflitto diventano gruppi sociali dominanti,
quelli che soccombono diventano gruppi sociali subordinati.
Molti dei teorici conflittualisti si richiamano agli scritti di Marx con il concetto di
conflitto di classe, ma anche a Weber.

Il sociologo Ralf Dahrendorf (1929-) nel suo “Classi e conflitto di classe nella società
industriale” (1959) sostiene che il conflitto deriva dalle differenze di autorità e potere
piuttosto che da differenze di carattere economico, più vicino a Weber che a Marx.

Teorie dell'azione sociale

Le teorie dell'azione sociale rivolgono la loro attenzione alle azioni e interazioni che
producono le strutture, si concentrano sui comportamenti individuali dei singoli attori.
Spesso si è sostenuto che il primo alfiere sia stato Weber, egli affermava che le
strutture sociali vengono create dall'azione sociale degli individui.

George Mead (1863-1931) sviluppò il punto di vista di Weber con l'interazionismo


simbolico.
Esso nasce dall'interesse per il linguaggio, il simbolo e il significato.
Mead afferma che il linguaggio ci consente di diventare autocoscienti e quindi
consapevoli della nostra individualità.
L'elemento chiave è il simbolo, cioè “qualcosa che sta per qualcos'altro”.
Le parole che usiamo per designare gli oggetti sono in realtà simboli che
rappresentano ciò che vogliamo dire.
Mead afferma che gli esseri umani fanno affidamento sui simboli per scambiarsi
significati condivisi nelle interazioni reciproche. I sociologi che si ispirano a questo
approccio si concentrano sull'analisi delle interazioni dirette nei contesti della vita
quotidiana. Spesso criticato perchè ignora le questioni della struttura, del potere e del
loro condizionamento.
Capitolo 2

CULTURA E SOCIETA'

La cultura si può concettualmente distinguere dalla società, ma tra le due nozioni


esistono rapporti molto stretti.
Quando parlano di cultura, i sociologi si riferiscono a caratteri appresi anziché
ereditati. Questi caratteri culturali, condivisi dai membri di una società, sono alla
base della cooperazione e della comunicazione.
Una cultura comprende sia aspetti materiali (cultura materiale), sia aspetti
immateriali come il linguaggio, i valori e le norme.

Valori e norme

Elemento fondamentale di ogni cultura sono le idee che definiscono ciò che è
considerato importante, degno e desiderabile.
Queste idee o valori, guidano gli esseri umani nelle interazioni con l'ambiente sociale.
(Un esempio di valore nelle società occidentali è la monogamia).
Le norme sono le regole di comportamento che riflettono i valori di una cultura.
Valori e norme contribuiscono a determinare il modo in cui gli appartenenti a una data
cultura si comportano nel loro ambiente.
Alcune culture sono individualistiche, altre propongono un accento maggiore sui
bisogni comuni. (ad es. gli studenti britannici non fanno copiare i compagni, gli
studenti russi fanno copiare, come aiutarsi a vicenda).

Mutamento → Valori e norme si modificano spesso nel tempo. Molte cose che oggi
diamo per scontate, pochi decenni or sono contraddicevano valori socialmente
condivisi. Può accadere che all'incontro tra culture diverse si tenti di modificarli in
maniera deliberata. (ad es. gli eschimesi Inuit non danno valore positivo al “sorriso
pubblico”, alcuni datori di lavoro con lo sviluppo della Groenlandia, hanno cercato di
inculcare il valore del sorriso nei confronti degli stranieri).
La differenza culturale

Anche comportamenti e pratiche variano da una cultura all'altra.


ESEMPI:
− Gli ebrei non mangiano maiale → gli indù sì ma non la bovina
− Gli occidentali considerano il bacio normale → altri disgustoso o sconosciuto
Le piccole società tendono ad essere culturalmente omogenee o società
monoculturali (ad es. quella giapponese).
La maggior parte delle società industrializzate ha un processo diverso che le rende
società multiculturali.
Fenomeni come lo schiavismo, il colonialismo e le guerre hanno provocato degli
spostamenti di popolazione attraverso le frontiere, portando alla formazione di società
culturalmente composite (gruppi di diverse culture e origini).
Nelle metropoli moderne ci sono numerose comunità subculturali (ad es. Londra ha
pachistani, indiani, italiani, greci, cinesi ecc.).

Per subculture si intende anche qualsiasi segmento di popolazione appartenente a


una società più ampia e distinguibile sulla base di parametri culturali.
Le subculture sono quanto mai variegate (ad es. naturisti, hippy, hacker, tifosi di
squadre di calcio, ecc.).
Ci sono persone che si identificano fortemente con una particolare subcultura, altre
che passano da una all'altra con facilità.

Esistono anche le controculture ( gruppi che respingono i valori e le norme di


un'altra società) possono elaborare e diffondere valori alternativi a quelli della cultura
dominante.

L'etnocentrismo

Ogni cultura possiede specifici modelli di comportamento, che risultano estranei agli
individui provenienti da altre culture. Chi ha viaggiato all'estero conosce la sensazione
che si avverte al contatto con una cultura diversa.
Si parla di schock culturale, il disorientamento quando si entra in una cultura
diversa.
Una cultura può essere studiata sulla base dei significati e dei valori che le sono
propri, questo concetto viene chiamato relativismo culturale.
Il giudizio dei sociologi sulle altre culture confrontandole con la propria spesso ritenuta
superiore si chiama etnocentrismo.

Sorgono interrogativi →Esistono standard universali cui tutti gli esseri umani
dovrebbero conformarsi?
(ESEMPI: Sotto il regime talebano le donne afgane furono sottoposte a regole
rigidissime riguardanti ogni aspetto dell'esistenza dall'abbigliamento agli spostamenti
in pubblico, dalle possibilità di istruzione alla vita privata.)
Non è possibile risolvere facilmente questo dilemma né decine di altri casi analoghi.
E' importante sforzarsi di non applicare i propri standard culturali a persone che
vivono in contesti molto differenti, ma è anche problematico accettare situazioni che
infrangono valori e norme considerati irrinunciabili.

La socializzazione

Il processo attraverso cui il bambino, o qualunque nuovo membro, apprende valori,


norme e stili di vita della società di cui entra a far parte è detto socializzazione.
Canale primario di trasmissione della cultura tra le generazioni.

Un bambino non può sopravvivere senza aiuto almeno per i primi 4-5 anni di vita.
La socializzazione è dunque il processo attraverso cui il bambino inerme diviene una
persona consapevole di se stessa; la socializzazione non è una sorta di
“programmazione culturale” grazie alla quale il bambino assorbe passivamente le
influenze con cui viene a contatto ma è fin da subito un soggetto attivo.

La socializzazione collega l'una all'altra le diverse generazioni.


Maternità e paternità vincolano di norma ai figli le attività degli adulti per il resto della
vita.
La socializzazione è un processo lungo quanto la vita stessa.
I sociologi la dividono in due ampie fasi che coinvolgono differenti agenti della
socializzazione, cioè gruppi o contesti sociali cui si verificano processi significativi di
socializzazione:
 La socializzazione primaria : avviene durante l'infanzia ed è il periodo più
intenso di apprendimento culturale, in questa fase il principale agente della
socializzazione è la famiglia.
 La socializzazione secondaria : comincia dopo l'infanzia fino alla maturità e
oltre, in questa fase gli agenti sono, la scuola, il gruppo dei pari, le organizzazioni,
i media, il lavoro.

Status e ruoli sociali

Attraverso il processo di socializzazione gli individui imparano a conoscere i ruoli


sociali.
Un ruolo sociale è l'insieme dei comportamenti socialmente definiti che ci aspettiamo
da chi ricopre un determinato status o posizione sociale. (ad es. il medico)
poiché tutti i medici sono accomunati da questo ruolo è possibile fare riferimento ai
loro comportamenti di ruolo, prescindendo dalle persone specifiche.

I sociologi distinguono tra:


− Status ascritto : as