Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Domande approfondite
1. Positivismo: Un esempio di quadro “positivista” è La Ville d’Avray. Guardando il quadro,
nessuno avrebbe dubbi circa il fatto che in esso i vedano degli alberi, delle case ecc. Il
punto di vista dei positivisti è proprio questo: la realtà esiste, ed è conoscibile
oggettivamente (realismo ingenuo). Questa è dunque la risposta che viene data alla
questione ontologica ed epistemologica. Tuttavia, si deve fare una precisazione, come si
supera il problema che nelle scienze sociali soggetto conoscente e oggetto conosciuto
siano della stessa natura? Dobbiamo ad Emilè Durkein la risposta a questo fondamentale
problema; per il sociologo francese, infatti, i fatti sociali devono essere considerati come
cose, come oggetti. Dunque, separando la natura di soggetto conoscente e oggetto
conosciuto è possibile conoscere oggettivamente. Per quanto riguarda la questione
metodologica, i positivisti sostengono che la sociologia deve utilizzare il metodo delle
scienze esatte, un metodo basato sulla misurazione dei dati, la formulazione di leggi e
l’osservazione dei dati empirici. Secondo i positivisti, la sociologia può dirsi scienza proprio
perché utilizza lo stesso metodo delle scienze esatte.
2. Neo-post-positivismo: Un quadro che descrive il punto di vista dei neo e post positivisti è
La Notte Stellata di Vincent Van Gogh. In generale nessuno avrebbe problemi a riconoscere
un villaggio, una chiesa, gli astri del cielo ecc. Ciò che però ci fa riflettere è il modo in cui
essi ci vengono mostrati (realismo critico). Le risposte che vengono date alla questione
ontologica e a quella epistemologica è che la realtà esiste, ma che si deve scorgere, non
posso conoscerla oggettivamente a causa dei limiti dei miei sensi. I nostri occhi sono
abituati a vedere in un certo modo perché sono socializzati. L’ epistemologia non afferma
un netto dualismo tra soggetto conoscente e oggetto conosciuto, questi possono
interagire provocando dei guasti rispetto alla possibilità di conoscere in modo oggettivo il
mondo fisico e sociale. Si ricorsi che siamo nel periodo in cui Heisemberg ed Einstein
bissarono il muro delle conoscenze scientifiche assolute per aprire la strada al
probabilismo. A livello metodologico, si afferma che la conoscenza sociale si può avere
affidandosi al linguaggio delle variabili. La realtà non può essere conosciuta direttamente,
è come se si dovessero mettere insieme dei pezzi di conoscenza per comporre un mosaico
più complesso.
3. Costruttivismo: Un quadro che descrive il punto di vista costruttivista è il Suprematismo di
Kazimir. Ognuno di noi può vedere una cosa diversa in questo quadro. In sostanza i
costruttivisti sostengono che la realtà non esiste in maniera oggettiva ma è una
costruzione sociale (relativismo culturale). Sul piano epistemologico avviene il definitivo
abbraccio tra soggetto conoscente ed oggetto conosciuto. Il ricercatore deve cercare di
perseguire l’avalutatività, è necessario che egli si spogli del proprio etnocentrismo, che
potrebbe influenzare l’interpretazione della realtà. A livello metodologico si rende
necessario individuare un nuovo metodo, superando definitivamente l’approccio
positivista. Per Weber, in particolare, il sociologo dovrà comprendere l’individuo che
agisce, non nel senso di empatizzare con lui, ma arrivando a capire e spiegare
razionalmente perché l’individuo abbia agito in quel modo. Egli afferma che, poiché la
realtà non è conoscibile oggettivamente, il sociologo si deve accontentare dei modelli della
realtà, che vengono definiti ideal-tipi, che tuttavia conducono verso importanti luoghi della
conoscenza.
4. Postmodernità e ricerca sociale: Per quanto riguarda le tendenze postmoderne vi è un
significativo rifiuto delle teorie generali, il rifiuto della razionalità e della linearità,
l’esaltazione delle differenze. Si possono, innanzitutto, citare gli approcci del linguistic turn
(la svolta del linguaggio), tali approcci hanno rivolto una grande importanza al linguaggio e
al discorso, considerandoli come il veicolo di senso dell’ambito della vita sociale. Queste
influenze, in sociologia, prendono il nome di sociologie interpretative. Fanno parte delle
sociologie interpretative: interazionismo simbolico, l’approccio drammaturgico,
l’etnometodologia e le tecniche di analisi della conversazione. Lo strutturalismo, invece,
ricerca le forme invariabili delle relazioni sociali a prescindere dalle manifestazioni
concrete. L’eredità del positivismo è stata raccolta in parte dal realismo, che ribadisce
l’identità di metodo tra le scienze sociali e le scienze naturali, ma la ricerca sociologica è
concepita come diretta a cercare quel come dei fenomeni che non è immediatamente
visibile. Una terza via, che cerca di saldare insieme realismo e strutturalismo, è
rappresentata dal neofunzionalismo.
5. Disegno della ricerca: Una ricerca sociale può nascere per diversi motivi. Una volta iniziata
la ricerca, il primo passo da fare è quello di effettuare una ricognizione bibliografica, ove
ciò non fosse possibile si può fare ricorso a testimonianze di persone coinvolte o vicine al
fenomeno che intendo indagare. Il passo successivo è quello di scegliere in base al mio
obiettivo il tipo di ricerca (descrittiva/esplicativa o esplorativa/ confermativa). A questo
punto dovrò chiarire i concetti che utilizzerò e le eventuali ipotesi cui faccio riferimento.
Per esempio facendo ricorso a vocabolari della lingua, dizionari enciclopedici e costruendo
ipotesi in modo dettagliato e non ambiguo. Ogni ricerca va condotta su precise unità di
analisi: persone, famiglie, eventi, aziende. Una volta individuate le varie unità d’analisi
dovrò scegliere alcune proprietà sulle quali indagherò.
6. Operativizzazione di un concetto: Riguarda soltanto lo stile di ricerca quantitativo, poiché è
diretto all’espressione del linguaggio delle variabili. Operativizzare un concetto vuol dire
trasformarlo in modo da poterlo rilevare e/o misurare. Per far ciò devo individuare un
concetto, per esempio “la qualità della vita”. Poi costruire uno schema che lo scompone
nelle sue proprietà concettuali e lo traduce nei suoi indicatori empirici. Ad esempio, devo
capire a partire da quali elementi posso rilevare e misurare il mio concetto di qualità della
vita, potrei per esempio scegliere indicatori come il reddito, la buona salute etc. La scelta
degli indicatori deve avvenire in maniera tale da coprire tutto il significato del concetto. Il
passo successivo è quello di trovare le modalità concrete attraverso le quali rilevare gli
indicatori, per esempio individuando delle fasce di reddito che gli intervistati dovranno
segnare. A questo punto dovremmo classificare o ordinare o misurare o conteggiare i casi.
7. Framing (organizzazione dei dati): L’organizzazione dei dati consiste nel preparare o
trasformare i dati empirici raccolti, in modo da dare delle risposte al ricercatore.
L’organizzazione dei dati cambia a seconda che si sia scelto di raccogliere dati qualitativi o
quantitativi. Nel caso di dati qualitativi il tipo di organizzazione prevalente è la post-
codifica del materiale raccolto. Essa consiste nell’isolare frammenti di materiale empirico
attribuendogli un’etichetta di riconoscimento. Il lavoro del ricercatore in questo caso è
lungo e le categorie che si creano poco robuste, tuttavia negli ultimi anni sono nati dei
programmi di computer che assistono il ricercatore nella post-codifica. Nel caso dei dati
quantitativi, il framing (incorniciamento) è la cosiddetta matrice casi per variabili. Si tratta
di una griglia, organizzata in righe e colonne, in cui le prime rappresentano i casi e le
seconde le variabili. I dati raccolti vengono inseriti nelle celle che risultano dall’incrocio riga
per colonna.
8. Esposizione dei risultati: L’esposizione dei risultati è il momento finale della ricerca. In
questa fase si scrive il cosiddetto report di ricerca, ossia un libro, una relazione, una tesi
che contengono sia i risultati ottenuti, sia una scelta delle scelte metodologiche adottate.
Un report dovrebbe contenere: introduzione (illustra in modo sintetico la struttura del
report stesso, gli obiettivi della ricerca sociale e le principali conclusioni cui si è giunti), lo
stato dell’arte (una sintesi della letteratura scientifica esistente fino a quel momento
rispetto a quel fenomeno), la presentazione dei risultati, i commenti, le conclusioni della
ricerca sociale, una nota metodologica (che spieghi le scelte adottate), i riferimenti
bibliografici.
9. Campione probabilistico: Il campionamento probabilistico, deve rispettare il criterio che
tutte le unità della popolazione abbiano la stessa probabilità di essere incluse nel
campione. I campioni probabilistici sono ritenuti essere rappresentativi della realtà, ciò
vuol dire che i risultati ottenuti su quel particolare campione possono essere generalizzati
per tutta la popolazione dalla quale il campione proviene. Un ulteriore vantaggio del
campionamento probabilistico è che l’errore di campionamento può essere misurato. Vi
sono diversi tipi di campioni probabilistici: il campione causale semplice, il campione
sistematico e il campione stratificato.
10. Campione non probabilistico: I campioni non probabilistici sono in genere fatti ad hoc o
sono suggeriti dalla teoria. Ciò vuol dire che sono costruiti al fine di ottenere una
rappresentatività tipologica. Questa viene raggiunta quando si ha un numero sufficiente di
esemplari delle varie unità d’analisi. La rappresentatività tipologica genera risultati
trasferibili ma non generalizzabili. I campioni non probabilistici sono di diverso tipo:
campioni per quote, a valanga, a scelta ragionata, teorico e di convenienza. Il problema più
grosso dei campioni non probabilistici è che l’errore di campionamento non è
quantificabile.
11. Tipi di intervista: Un primo criterio di classificazione delle interviste può essere il modo in
cui sono organizzate le domande. In questo modo avremo: l’intervista strutturata (o
standardizzata) che presenta domande standardizzate, cioè da porre nello stesso ordine e
nella stessa formula a tutti gli intervistati; l’intervista semi-strutturata, in cui non esiste
uno schema fisso di domande. L’intervistatore piuttosto dispone di una sorta di scaletta di
temi da trattare nelle domande, che potranno variare da intervista ad intervista;
l’intervista non-strutturata (o libera), che parte da un tema da trattare ma non esistono
domande prestabilite, ogni intervista fa storia da sè. Un secondo criterio di classificazione
riguarda il ruolo o lo stile dell’intervistatore. Avremo così: l’intervista direttiva (o guidata),
in cui l’intervistatore segue scrupolosamente la struttura prevista delle domande;
l’intervista non-direttiva (o libera), in cui chi pone le domande tende a seguire
l’intervistato nei suoi ragionamenti, reagendo agli stimoli nuovi che di volta in volta
emergono; l’intervista semi-direttiva, in cui è presente una parte che va somministrata allo
stesso modo a tutti i soggetti, e una parte in cui si assecondano le esigenze
dell’intervistato. Un terzo criterio di classificazione riguarda il tipo di domande e di
risposte: standardizzate o non-standardizzate. Infine possiamo distinguere le interviste in
base al numero degli intervistati, avremo perciò interviste individuali e di gruppo
(suddivise a sua volta in interviste di gruppo naturali e artificiali, a seconda che i gruppi
esistano indipendentemente dalla volontà del ricercatore). Vi sono, inoltre, interviste
biografiche o storie di vita.
12. Rapporto intervistatore-intervistato: La prima cosa da considerare sono le caratteristiche
di sfondo di intervistato e intervistatore, in termini di età, cultura, condizioni
socioeconomiche, ecc. Queste caratteristiche di sfondo influenzano i fattori psicologici dei
due soggetti in interazione. L’aspetto più importante, è legato alle motivazioni. Una cattiva
percezione dell’intervistatore, determina una bassa motivazione a collaborare con
l’intervistatore. Le condizioni di sfondo dell’intervistato possono demotivare
l’intervistatore fino a farlo desistere dall’intervista, o a condurla in modo forzato. Vanno
considerati i diversi fattori comportamentali che riguardano intervistatore e intervistato, e
hanno una diretta ricaduta metodologica.
13. Comportamento dell’intervistatore: Può essere utile che l’intervistatore si presenti prima
dell’intervista. In secondo luogo, bisogna che l’intervistatore studi bene lo strumento che
dovrà somministrare, per evitare di trovarsi in difficoltà di fronte a dubbi, esitazioni ecc. da
parte degli intervistati. Inoltre, sarà necessario trovare un abbigliamento adeguato, adatto
al tipo di persone da intervistare. A questo punto l’intervistatore, dovrà: - assicurare
l’intervistato circa la brevità del colloquio; – citare il committente della ricerca; –
specificare il tema dell’intervista, se una persona sa cosa vuole sapere esattamente
l’intervistatore, sarà più propensa a collaborare; – assicurare circa la scientificità della
ricerca, le persone sono molto disponibili a collaborare ad un lavoro che si presenta come
scientifico; – spiegare perché si è scelto d’intervistare proprio quella persona, sapere, che
si è stati estratti attraverso una procedura “impersonale” rassicura molto gli intervistati; –
infine, garantire l’anonimato dell’interista, a tutela della privacy di colui che è intervistato.
L’intervistatore deve cercare di creare una situazione di normale conversazione, mai di
giudizio. Lo sforzo deve riguardare anche la comunicazione non verbale. Se dovesse
interpretare la situazione in cui si trova come una specie d’esame, egli fornirà delle
risposte artefatte, distorte, e alla fine inutili per la ricerca. Se è previsto l’uso del
registratore, bisognerà chiedere di accenderlo solo dopo l’inizio dell’intervista. Se è
previsto uno strumento d’intervista strutturato, bisognerà rispettare la sequenza delle
domande. L’intervistatore non deve mai esprimere le proprie opinioni nel corso
dell’intervista. L’intervistatore deve evitare di far traspirare qualsiasi coinvolgimento
emotivo. Allo stesso modo, per via del fatto che l’intervistatore si fa inevitabilmente
un’idea del suo interlocutore, influenzata da certe caratteristiche di sfondo, deve imparare
a superare gli stereotipi e i pregiudizi che la percezione dell’altra persona ha attivato. Un
intervistatore, deve sapere ascoltare l’intervistato, piuttosto che rimanere aggrappato al
suo foglio di carta con lo schema delle domande. Infine, l’intervistatore non deve mai
imporre una risposta nel caso ottenga un rifiuto.
14. Analisi delle interviste: Per l’analisi delle interviste, esistono due approcci: quello
etnografico o narrativo, che consiste nel raccontare il materiale raccolto avvalendosi di
brani significativi estratti dalle trascrizioni; e quello quantitativo, che prevede una codifica
sistematica delle trascrizioni in categorie di temi e concetti, i quali andranno poi
conteggiati e riassunti in grafici e tabelle.
15. Tipi di osservazione: I diversi tipi di osservazione possono essere classificati facendo
riferimento a diverse dimensioni, quali: la partecipazione o meno del ricercatore,
l’intrusività degli strumenti di rivelazione, il grado di strutturazione e l prospettiva adottata
dal ricercatore. Si può parlare di: 1) osservazione partecipante o non partecipante, a
seconda che il ricercatore si mischi o meno tra le persone e nelle situazioni da studiare. L’
osservazione partecipante può essere scoperta o nascosta a seconda che il ricercatore
dichiari o meno la propria identità;
2)d’intrusività alta o bassa, a seconda che gli strumenti d’osservazione siano o meno
nascosti;
3)d’osservazione strutturata o non strutturata, a seconda che il ricercatore si attenga ad
uno schema prestabilito, oppure si lasci guidare da persone, circostanze o eventi che si
presentano alla sua attenzione; 4) di
prospettiva marziano o prospettiva del convenuto, a seconda che il ricercatore cerchi di
guardare i suoi oggetti di studio col distacco che, appunto, avrebbe un ipotetico marziano
oppure che il ricercatore si lasci conquistare dalle persone e dai contesti che osserva.
16. Cosa si osserva: L’attività di osservazione non riguarda solo il guardare, ma è un’esperienza
che coinvolge l’udito, l’olfatto, il tatto, il gusto. L’osservazione dovrebbe coinvolgere
almeno i seguenti aspetti: il contesto storico, che riguarda il passato del contesto da
studiare; il contesto fisico, cioè le caratteristiche dei luoghi in cui l’interazione si svolge; il
contesto sociale, cioè il modo in cui è organizzata la società da studiare, in termini di
differenze uomo-donna, giovane-anziano, ricchi e poveri; le interazioni formali ed
informali, cioè ,ad esempio; i modi di stare assieme delle persone in pubblico e in privato;
le interpretazioni orali e scritte dei nativi, cioè le spiegazioni del mondo che li circonda da
parte dei soggetti studiati; le produzioni materiali e simboliche, che riguardano ciò che le
persone fanno insieme: oggetti di lavoro, modi di decidere, riti d’iniziazione.
17. Problemi dell’osservazione: I problemi dell’osservazione partecipante sono diversi.
Innanzitutto l’accesso alla realtà da studiare, soprattutto nel caso di osservazione
partecipante di tipo scoperto. In questo caso i nativi potrebbero opporre resistenza alla
presenza di un intruso che vorrebbe studiarli. Per ovviare a questo problema potrebbero
intervenire dei mediatori culturali o degli informatori, persone che godono della fiducia
della popolazione in studio nel primo caso o testimoni incaricati da qualche istituzione che
parlando con la popolazione facilitino il compito del ricercatore e la sua inclusione. Nel
caso dell’osservazione nascosta il problema principale è quello etico: è giusto osservare e
studiare delle persone in incognito, e poi raccontare in una pubblicazione scientifica ciò
che si è sentito? Questo problema potrebbe essere risolto garantendo l’assoluto
anonimato dei soggetti studiati. Un ulteriore problema dell’osservazione partecipata è il
coinvolgimento emotivo del ricercatore che potrebbe causare problemi in termini di
obiettività. Un ultimo problema delle tecniche osservative riguarda la generalizzabilità dei
risultati.
18. Moderatore di un FG: Il compito del moderatore è quello di mantenere la discussione in
tema, rispettare i tempi, e gestire l’interazione tra i partecipanti, in modo che tutti si
possano sentire proprio agio ed esprimere liberamente le proprie idee e opinioni. Per fare
ciò il moderatore deve possedere certe caratteristiche: capacità comunicative, conoscenza
delle dinamiche di gruppo, esperienza, sensibilità, autorevolezza. Il moderatore ha il
compito di agevolare il warm up, cioè la fase di riscaldamento prima della discussione. Alla
fine dovrà riuscire ad istaurare un clima confortevole. Dovrà cercare di far parlare tutti,
evitando di fare “il giro delle domande”, ogni partecipante parlerà solo quando avrà
qualcosa da dire.
19. Organizzare un FG: Organizzare un FG vuol dire scegliere il numero e la composizione dei
gruppi, il luogo di svolgimento del focus e reclutare i partecipanti. Ogni FG è composto in
genere da otto persone, le quali possono variare da un minimo di quattro ad un massimo
di dodici. Il ricercatore avrà cura di prevedere un numero lievemente maggiore di
partecipanti, al fine di evitare che l’assenza di qualcuno faccia fallire il FG. Il reclutamento
inizia con l’individuare le caratteristiche delle persone da intervistare (per esempio le
esperienze che queste persone hanno avuto in un certo campo). La via più facile, tuttavia,
di individuare i partecipanti è quella di sceglierle tra i conoscenti dei miei conoscenti,
persone che non mi conoscono personalmente e non si conoscono fra di loro. Si può
incentivare la loro partecipazione mettendo a loro disposizione dei gadget. Quando si
contattano le persone si accenna solo vagamente al tema del FG, per evitare che esse
possano documentarsi prima, lo scopo del FG è studiare come le opinioni si formino nel
dibattito, non prima. Il numero complessivo di FG da effettuare è, in genere, tre. Non ha
alcun senso effettuare solo un FG. Per quanto riguarda il luogo di svolgimento, è buona
ricerca scegliere un luogo neutro, in modo che nessuno possa “giocare in casa”. Inoltre, è
utile disporre le persone in cerchio, perché ciò indica che tutti i partecipanti sono uguali e
possono partecipare liberamente alla discussione.
20. Desiderabilità sociale, acquiescenza, pseudo-opinioni: La desiderabilità sociale è quel
fenomeno per cui la persona intervistata finisce col dare all’intervistatore delle risposte
che appaiono socialmente accettabili, ma alle quali non crede veramente. Ciò può avvenire
perché il setting dell’intervista non agevola la conversazione serena o non vi è fiducia nei
confronti dell’intervistatore. L’acquiescenza è la tendenza di certi individui a dichiararsi
d’accordo con le affermazioni contenute nelle domande, o a rispondere sempre
affermativamente ad esse, indipendentemente dal contenuto. Le pseudo-opinioni sono il
risultato della mancanza di opinioni dell’intervistato, il quale, pur di non mostrare la sua
“ignoranza” su un certo argomento, s’inventa una risposta sul momento.
21. Psicologia di chi risponde: Le persone sottoposte a un questionario interpretano in vario
modo le domande che gli vengono poste, dando luogo a numerose forme di distorsione
dalla relazione tra intervistato ed intervistatore. Le più importanti sono: la desiderabilità
sociale, l ‘acquiescenza e la pseudo opinione. Tali distorsioni sono determinate da quattro
fonti: il contenuto più o meno comprensibile e/o sensibile della domanda, la struttura più
o meno logica e ordinata del questionario, il contesto più o meno consono in cui avviene il
colloquio, il comportamento più o meno corretto da parte dell’intervistatore e le sue
caratteristiche di sfondo.
22. Come formulare le domande in un questionario: Una regola generale è quella di essere
chiari nel linguaggio e semplici nella struttura sia delle domande che dello strumento. Più
specificatamente: le domande devono usare un vocabolario semplice, la loro sintassi deve
essere lineare, esse non devono mai contenere due domande in una, le domande devono
essere concrete rispetto al tempo e agli eventi da ricordare, non devono mai suggerire una
risposta in particolare, il numero di alternative deve essere molto limitato, tutte le
alternative di risposta devono apparire accettabili, le alternative di risposta devono essere
esaustive e, in genere, mutuamente esclusive.
23. Tipi di domande: Possiamo distinguere, essenzialmente, due tipi di domande: aperte o
chiuse. Le domande aperte sono utili quando il ricercatore pensa che sia meglio lasciare gli
intervistati liberi di usare le proprie parole per esprimere un pensiero. Poiché queste
domande richiedono una successiva post-codifica prima di poter analizzare i dati, quindi
tempo, fatica e soldi in più, per molto tempo si è preferito l’uso dei questionari; negli
ultimi tempi, considerati gli sviluppi tecnologici, molte riserve sono cadute. Le domande a
risposta chiusa sono di gran lunga più frequenti. Esse permettono un immediato
trattamento statistico. Lo svantaggio è nel fatto che a volte l’intervistato non riesca a
scegliere una risposta adatta.
24. Pre-test: Prima di somministrare il questionario è necessario effettuare almeno un pre-test
dello strumento, per verificare che esso sia compreso dagli intervistati e non produca
evidenti distorsioni. Va rivolto a soggetti simili a quelli facenti parte del campione, in una
proporzione che non supera il 10% del campione. Il pre-test può essere condotto in diversi
modi: registrato le reazioni dei rispondenti durante l’intervista, intervistando o facendo
commentare il questionario ex-post, oppure facendo esaminare il questionario da una
commissione di esperti.
25. Come si somministra un questionario: Si distingue fra questionario auto-somministrato e
questionario etero-somministrato. Un’ ulteriore distinzione riguarda il modo in cui
vengono raccolti i dati: faccia a faccia, per telefono, via posta, o attraverso il computer
nelle sue forme. Ogni modalità presenta vantaggi e svantaggi in termini di costi, rapidità,
intrusività, garanzie d’anonimato, modalità di caricamento dei dati. Si deve di volta in volta
trovare il giusto compromesso tra costi e benefici rispetto agli altri fattori. Infine, i
questionari posso essere somministrati in circostanze singole (studio trasversale) o più
volte nel tempo (studio longitudinale). Gli studi longitudinali si dividono a loro volta in:
inchieste trasversali replicate, quando lo stesso questionario viene somministrato in più
occasioni a diversi campioni, e i planet, quando lo stesso questionario viene somministrato
allo stesso campione nel corso del tempo.
26. La scala Likert: La scala Likert è una scala additiva, che si costruisce sommando i punteggi
ottenuti da un individuo su ciascun item. La costruzione della scala Likert si svolge i quattro
fasi: 1) definizione degli item che si pensano adatti a misurare il concetto; 2) la
somministrazione di tali item attraverso il questionario; 3) il controllo di coerenza interna
dalla scala; 4) il controllo di validità e unidimensionalità (misura solo un concetto?).
27. L’alpha di Cronbach: L’alpha di Cronbach misura la coerenza interna della scala e, dunque,
l’attendibilità. Se voglio misurare il razzismo, e una persona ha un punteggio alto verso il
primo, il secondo ed il terzo item, mi attendo che anche nel quarto abbia un punteggio
alto, se ciò non accade nella scala c’è un problema. Alpha=nr.(1+r(n-1)). L’alpha di
Cronbach varia tra 0 e 1, più grande è, più la scala è coerente e dunque attendibile. Alcuni
autori hanno proposto il valore di 0.7 come valore limite di coerenza, maggiore di 0.7 la
scala è coerente. Un valore basso dell’alpha può essere dovuto anche al fatto che la scala
sia multidimensionale, dunque, occorrerebbe fare anche un test dell’unidimensionalità.
28. Analisi dei casi: Le tecniche di analisi dei casi sono: il case study, l’analisi comparativa e la
cluster analysis. Lo studio d’un caso è l’esame “dettagliato” di un oggetto o di un
fenomeno, che viene considerato in qualche modo esemplare. Tale esame dettagliato può
avvenire sia attraverso un approccio di tipo qualitativo sia attraverso un approccio di tipo
quantitativo. Lo scopo dell’indagine è quasi sempre di natura descrittiva, e raramente avrà
pretese di generalizzabilità. Con l’analisi comparativa, si mettono a confronto alcuni casi,
individuando delle caratteristiche comuni e verificandone somiglianze e differenze. Anche
in questo caso, si può procedere sia con un approccio qualitativo, sia con un approccio
quantitativo. L’analisi dei gruppi infine, è una famiglia di tecniche di analisi di tipo
quantitativo. Al suo interno si distinguono: tecniche gerarchiche, tecniche iterative o delle
partizioni ripetute, tecniche baste sulla densità locale e, infine, le cosiddette reti neurali. La
cluster analysis serve a classificare i casi della ricerca, a costruire delle tipologie. La cluster
analysis produce gruppi. Tali gruppi devono risultare molto omogenei al loro interno, e
molto eterogenei tra loro.
29. Analisi monovariata: L’analisi monovariata si occupa delle variabili prese ad una ad una, e
ha scopi puramente descrittivi. Con questo tipo di analisi si intende conoscere la
distribuzione di certe variabili fra i casi studiati. La forma più semplice di analisi
monovariata è la rappresentazione tabellare di una distribuzione.
30. Analisi bivariata: L’analisi bivariata si occupa delle variabili prese a due a due, e ha scopi
esplicativi, cioè attraverso l’analisi bivariata si possono controllare delle ipotesi. Uno
strumento di base per l’analisi bivariata è la tabella di contingenza. Ogni riga corrisponde a
una modalità della prima variabile e ogni tabella alle diverse modalità della seconda
variabilie. L’incrocio tra una riga e una colonna dà luogo a una cella che mostra il numero
di casi che possiedono quella combinazione di attributi. L’analisi bivariata è utile quando si
vuole studiare la dipendenza tra le due variabili.
31. Analisi del contenuto: L’analisi del contenuto è una tecnica di analisi delle parole nei
documenti. Si tratta di scomporre i testi (sistema di significato), tramite procedure
impersonali, in elementi più semplici allo scopo di classificarli in categorie di senso. Essa è
adoperata per analizzare tutti i tipi di materiale scritto, fra cui anche le domande scritte, i
focus group, le interviste. Le tecniche di analisi del contenuto sono: l’analisi delle
frequenze, l’analisi delle contingenze e l’analisi degli assetti valutativi.
32. Analisi delle frequenze: L’analisi delle frequenze si effettua contando le presenze nei testi
studiati di parole, keywords, categorie o temi d’interesse. L’assunto di fondo è che più una
parola o un tema ricorrano nel testo, maggiore è la loro importanza.
33. Analisi delle contingenze: L’analisi delle contingenze serve a capire se due parole vengono
regolarmente associate all’interno dei testi esaminati. Uno degli indici più diffusi di
associazione è il coefficiente del coseno (una sorta di covarianza, si calcola come rapporto
tra le volte in cui le parole compaiono assieme e il prodotto delle radice quadrata delle
volte in cui compaiono separatamente).
34. Analisi degli asserti valutativi: L’analisi degli assetti valutativi è basata sull’analisi delle frasi
contenute nei testi. Serve a capire come vengono valutati determinati oggetti del discorso
(ad esempio, un noto personaggio dello spettacolo o una categoria di persone come gli
immigrati) dagli autori dei testi studiati. Per effettuare questo tipo di analisi, il ricercatore
si affida a dei differenziali semantici che ricordano quelli del questionario. Ogni frase viene
valutata con un punteggio che va da -3 a +3. Vengono poi calcolate le medie di tutti i
giudizi e alla fine viene elaborato un grafico.
DOMANDE DI METODOLOGIA (SECONDA PARTE)
1. Differenza tra ricerca qualitativa e ricerca quantitativa
2. Schema di Ricolfi
3. Validità, attendibilità, triangolazione
4. Tecnica delle k-medie
5. Analisi delle corrispondenze lessicali
6. Come analizzare le dinamiche di un focus group con l’analisi di rete
7. Sociomatrice e sociogramma
8. Densità di rete
9. Le misure di centralità e potere nell’analisi di rete
10. Trovare i sottogruppi nell’analisi di rete
RISPOSTE
1. L’etimologia del termine quantitativo fa riferimento al concetto di determinazione
numerica, l’analisi quantitativa mira a determinare in quale proporzione certi
elementi sono presenti in un oggetto di studio. Il termine qualitativo si riferisce a ciò
che concerne la qualità e rimanda al concetto di determinazione logica. L’analisi
qualitativa mira a determinare la natura di un certo oggetto di studio. Nella filosofia
delle origini la conoscenza qualitativa non mira all’individuazione di rapporti e
dipendenze alle quali mira la conoscenza scientifica, da qui nasce il pregiudizio
antiscientifico intorno al concetto di qualità.
Nella pratica è difficile riuscire a distinguere la qualità dalla quantità; possiamo
quindi considerare entrambe come due estremi di un intervallo all’interno del quale
è possibile collocare molteplici graduazioni intermedie.
La ricerca quantitativa, per Berg, riguarda il conteggio e la misurazione di oggetti.
Boudon sposta invece l’attenzione sulla comparabilità. È questa comparabilità che
permette di effettuare l’analisi quantitativa dei dati. (Per Ricolfi…)
Qualsiasi attributo che misuriamo con numeri sarà denominato variabile
quantitativa.
Per quanto riguarda la ricerca qualitativa cercare una definizione è problematico.
Per Berg essa riguarda i significati, i concetti, le caratteristiche, le metafore, i
simboli e le descrizioni di oggetti. Il ricercatore è interessato principalmente a come
gli esseri umani si organizzano e danno senso a se stessi e a ciò che li circonda. La
ricerca qualitativa offre degli strumenti per accedere a degli oggetti non
quantificabili che riguardano gli individui concreti che il ricercatore osserva. La
dicotomia qualità/quantità è solo una questione di misurazione: alle rispettive
categorie degli attributi verranno assegnate denominazioni e non numeri. Il dibattito
su qualità e quantità si è sviluppato su piani diversi:
• logico, con riferimento alle procedure di argomentazione di giustificazione del
sapere
• storico
• epistemologico
• metodologico
• tecnico
L’opposizione qualità/quantità si dimostra tutt’altro che definita, e rimane discutibile
l’idea diffusa di chi ritiene che l’adesione a l’uno o all’altro modo di conoscere la
realtà sociale rinvii necessariamente a modi diversi di intendere la realtà stessa,
negando che la questione metodologica fondamentale sia un problema di
adeguatezza e cioè dei metodi e degli strumenti giusti per conseguire un
determinato obbiettivo conoscitivo in merito ad una data realtà sociale.
2. VEDI FOTOCOPIA
Esame scritto con 31 domande in forma aperta o chiusa che comprendono anche la
risoluzione di piccoli problemi con l'ausilio della calcolatrice.
Occuparsi della conoscenza sociologica vuol dire occuparsi della conoscenza in generale.
La sociologia è una scienza che si pone il problema della conoscenza della società e del
comportamento sociale in generale, indi per cui la sociologia deve affrontare il problema di studiare
le persone.
Quindi si crea il paradosso che l'oggetto conoscente è della stessa natura del soggetto conosciuto.
(uomini che studiano altri uomini) ed entrano inevitabilmente in relazione tra loro.
Le persone tuttavia sono esseri che interagiscono fra loro con le emozioni, quindi non riescono ad
essere obiettivi (non riesco ad essere empatico nei confronti di una pietra, ad esempio)
l'uomo ad esempio è anche influenzato da stereotipi e pregiudizi.
In sintesi fare scienza con le scienze sociali è difficile.
I sociologi si occupano, a differenza delle altre scienze, di fenomeni e concetti astratti (Razzismo,
anomia, devianza)
Come faccio a misurare, ad esempio, l'unita di misura della devianza? E' impossibile misurare una
cosa che fisicamente non esiste.
Ma la cosa più drammatica, infine, è che la conoscenza non è sicura neanche nel campo delle
scienze esatte in quanto tutto può essere messo in discussione.
Come funziona la conoscenza scientifica in generale? Si può paragonare la scienza esatta ad una
casa fatta di tre piani.
Piano epistemologico.
(esempio l'approccio di Platone con il mito della caverna che riguarda un mondo perfetto delle idee
non visibili agli uomini, proprio per il fatto che si trovano nella caverna)
Anche Kant si era posto il problema della conoscenza in generale (fenomeno- come una bottiglia
appare a noi, e noumeni – l'idea pura della cosa)
In sintesi è difficile conoscere il mondo oggettivo, ma stabilendo certi limiti è possibile generare un
punto di partenza per poterci muovere negli altri due piani.
Piano teorico interpretativo.
(Piano intermedio) Una volta chiarito il problema epistemologico, si producono delle teorie.
Cos'è una teoria? Una spiegazione di come funziona il mondo o una parte di esso.
(esempio: l'acqua passa dallo stato liquido allo stato gassoso se portata a 100°)
Ma le teorie non sono soltanto spiegazioni ma anche interpretazioni. Ossia contengono un
background di chi l'ha data. Una teoria è teoria solo se riguarda fatti che accadono sistematicamente
in relazione ad altri. ( ES: Ogni volta che c'è X io incontro Y)
Tuttavia le regolarità empiriche potrebbero mutare nel lungo termine e quindi bisogna ripensare la
teoria.
Cos'è una ipotesi? Si trovano all'interno della definizione di teoria (le abbiamo chiamate
“proposizione originariamente connesse”)
L'ipotesi è una relazione (o rapporto di tipo matematico) fra due o più concetti
(All'aumentare di A si osserva anche l'aumento del fattore B) ma si colloca ad un livello di
astrazione minore (riguarda casi più ristretti) rispetto alla teoria e che permette una traduzione della
stessa in termini empiricamente controllabili.
Le ipotesi sono pezzi di teoria a carattere provvisorio e quindi ribaltabili nel loro significato. Una
sola ipotesi non può dar luogo ad una teoria.
Tecnica: (lo scienziato si avvale di tecniche) è una sequenza di operazioni che debbo compiere per
conoscere ciò che mi interessa (specifica procedura operativa)
Metodo: Sequenza più generale di azioni per raggiungere un obiettivo conoscitivo. (comprende una
serie di tecniche) La scienza utilizza il metodo scientifico.
Il metodo contiene una tecnica che a sua volta comprende una serie di strumenti.
Una prospettiva teorica condivisa da una comunità di scienziati che definisce la rilevanza dei fatti
sociali, fornisce le ipotesi interpretative, orienta le tecniche della ricerca empirica.
Il primo problema di una conoscenza scientifica è proprio quello di Partire da una prospettiva,
escludendo quindi le altre, come anche il fatto che gli scienziati condividano la prospettiva e siano
“giudici” in un certo senso del lavoro svolto dalla comunità, condannando pesantemente chi si
approccia da una prospettiva differente.
Esempio più recente è quello di Einstein con la sua teoria della relatività.
Ma non solo: perché la prospettiva implica anche il fatto che impone che tu, studioso ti debba
occupare solo di alcune cose ed escluderne altre. (il sociologo ad esempio, fino a qualche tempo fa,
non si poteva occupare del tempo libero in quanto considerato “frivolo”)
Ogni tanto, tuttavia, nella storia della scienza arriva uno scienziato “eretico” o innovatore che,
nasce in un periodo in cui il paradigma presenta delle “crepe” e cambia il sistema di
riferimento, proponendo una nuova lettura dei fenomeni (rivoluzione) e un nuovo paradigma
(Es:Einstein)
Nelle scienze sociali (che trattano di fenomeni più astratti e non misurabili come le emozioni) i
paradigmi ci sono?
Qual è la struttura di un paradigma? Da cosa è composto? Non si può determinare con certezza.
Tuttavia un modo per esplicitarlo è quello di porsi tre domande:
2) La seconda domanda riguarda l’epistemologia (parte della filosofia che si occupa della
conoscenza scientifica)
Se la realtà esiste è possibile conoscerla?
Piano ontologico
Quadro realista - ingenuo, vede le cose come stanno e come sono percepite dai cinque sensi.
La realtà esiste? SI
Piano epistemologico
Piano Metodologico.
Come è possibile conoscere la realtà? Il metodo conoscitivo è lo stesso delle scienze fisiche.
Quindi la sociologia è una disciplina fra le tante che adotto il metodo scientifico (Comte)
Questo metodo è Induttivo. (guardo la realtà e formulo delle leggi “deterministiche” in base a una
riproposizione ciclica di eventi)
Piano ontologico.
La realtà esiste? Si, ma… Non riesco a coglierla tutta. E’offuscata. – Realismo Critico
Piano epistemologico
Soggetto e oggetto non sono del tutto separati. (Chi conosce, in qualche modo, entra nella cosa che
conosce)
Gli scienziati quindi possono solo produrre delle congetture, che però sono instabili a fronte delle
nuove conoscenze e risultare falsificabili in un secondo momento. La conoscenza è provvisoria.
Falsificabilità vuol dire anche che una teoria scientifica possa essere scritta per essere falsificata.
Es: teorie che si affermano come scientifiche ma non lo sono, nel senso che sono suscettibili di
modifiche e aggiustamenti nel tempo.
Tuttavia una teoria “Scientifica” Non può essere scritta in questo modo (Non può essere modificata,
può essere solo vera o falsa) e io nel presente devo scriverla in modo che nessuno possa
“Falsificarla” ossia rimescolarla. Se non sarà Adatta verrà eliminata. (Popper)
Piano Metodologico
La realtà è possibile solo conoscerla tramite frammenti (variabili) e confrontarle in modo che
insieme possono portare ad una visione di insieme (Approccio dal particolare al generale)
Apertura verso le tecniche quantitative. Il neopositivista si apre alla qualità e al senso delle cose.
Costruttivismo.
Quadro: Astratto.
Malevick – Il suprematismo. (Concetto astratto)
Piano ontologico
La realtà Esiste? Si, ma è frutto di un accordo/mediazione (costruzione) sociale tra culture, popoli
(chi la guarda). Ciò che noi conosciamo diventa Relativo.
Piano epistemologico
Se esiste è possibile conoscerla?
Soggetto conoscente e oggetto conosciuto sono della stessa natura e si influenzano. E’ possibile che
le cose che noi percepiamo dipendano dal momento, dall’epoca storica etc.
Nel momento in cui accetto il fatto che esistano molteplici prospettive per guardare il mondo e
distinguo nelle diverse prospettive ciò che sia giusto o sbagliato riconosco i valori.
Tuttavia Max Weber afferma che lo scenziato debba essere Avalutativo. Non deve lasciare
influenzarsi dai valori, tuttavia deve riconoscerli tutti, in quanto facenti parte di quella specifica
cultura.
Piano Metodologico
Se è possibile conoscerla, come la conosco?
Weber afferma (a differenza di Durkheim) che le scienze sociali, visto che soggetto e oggetto
condividono la stessa natura debbano dotarsi di qualcosa di diverso dal metodo scientifico.
Le scienze sociali devono entrare in un’ottica di analisi che sia una “comprensione razionale delle
motivazioni dell’agire”.
Weber ha idea di mettersi nei panni della persona che deve studiare per capire razionalmente perché
quella persone ha agito in quella maniera. Tuttavia con criteri razionali e non empatici (Non si
giustifica un comportamento ma lo si apprende e si comprende). (Weber spiega il capitalismo con
l’etica protestante calvinista)
Scoperta della realtà attraverso la costruzione di modelli e semplificazioni (visioni più generali e
meno dettagliate): Idealtipi.
____
Perché sfruttare l’arte? Perchè le discipline umanistiche e la scienza sono profondamente legate e
fanno parte della conoscenza. Molti filosofi facevano anche altro:
ES: Pitagora (Filosofo e matematico) Cartesio (Filosofo e matematico) Leonardo (Filosofo,
Matematico, Scienziato).
Goethe affermava: Non c’è differenza tra indagine scientifica e creazione artistica, in quando sono
entrambi mossi dal desiderio di conoscere la stessa realtà.
L’artista va in estasi mistica (Fuori di sé), ma se l’artista diventa “un altro” nel momento della
creazione, si supera la distinzione tra soggetto conoscente e oggetto conosciuto.
Quando guardiamo un quadro vediamo i girasoli di van Gogh (Esempio) come sono stati visti da lui
in quel momento.
Cosa non possibile nelle scienze sociali in quanto SC/OC sono della stessa natura.
Ad un certo punto nella storia dell’arte si passa dall’idea di riprodurre il fuori (arte classica) all’idea
di riprodurre il dentro, la dimensione interiore, dell’artista (ES: cubismo/arte contemporanea )
Ricerca della realtà profonda, che ci appare strana perché non concreta.
Stessa cosa accade alla scienza con l’avvento della fisica quantistica (I quark, le particelle sub
atomiche).
Ma dopo il positivismo sono emersi nuovi paradigmi? No. Tuttavia nel corso del tempo sono stati
prodotti dei contributi da parte di studiosi che hanno contribuito ad aggiustare il tiro.
Un cambiamento epocale si è avuto nella meta dei 60, periodo in cui la società è cambiata in
maniera così radicale da essere considerata una nuova epoca. La cosiddetta Società – post moderna.
Qualcosa che segue la società moderna tuttavia senza avere contorni definiti.
Cosa succede in questo mutamento? Da premettere che le condizioni di cambiamento si hanno già
nel 20/30, anni in cui si comincia a pensare di non poter produrre teorie generali in cui si può
spiegare tutto. Prima di questa data i filosofi erano “tuttologi” parlavano di tutto ciò che stava nel
mondo.
Negli anni 20 la Filosofia si “arrende” e stabilisce che tutto ciò che conosciamo è dovuto al
linguaggio. Una cosa esiste nel momento in cui gli diamo un nome. (caduta delle teorie generali e
sostituzione della filosofia del linguaggio)
Nel rifiuto di questa società si afferma che la razionalità non è tutto e anzi il mondo è guidato
dall’irrazionalità. Questo perché i filosofi del tempo erano stati spettatori della prima guerra
mondiale con milioni di morti. Addirittura Hegel pensava che la Storia stesse per finire.
Rompendosi la razionalità si rompe la linearità anche nel mondo delle arti (si abbandona la linea
retta con l’arte astratta) e anche il cinema cambia il suo modo di raccontare le storie.
Si veda la differenza tra la linearità di Cabiria e La Non linearità di Pulp Fiction. Il romanzo post
moderno è un Anti Romanzo.
Anche la musica diventa “Strana” Differenza tra repertorio classico e repertorio contemporaneo.
Negli anni 60 tutto questo esplode e la non linearità diventa popolare. L’anno di rottura e il 1968.
In europa in quell’anno succede di tutto. Sul palcoscenico della storia salgono i dimenticati.
Ad esempio le donne. In quegli anni nasce il femminismo nelle sue varie articolazioni.
Oppure i neri (M. Luther King) cominciano a chiedere i loro diritti. Basti pensare alle classifiche
musicali di quel periodo in cui il “blues” era per i neri e il “western country” per i bianchi.
Sarà il rock a fondere le due cose. Esplosione della questione razziale ma anche delle differenze
sessuali. Gli omosessuali incominciano a reclamare i loro diritti di rispetto della loro posizione.
Le scienze sociali si approcciano a questi cambiamenti rivalutando il mondo della vita quotidiana e
abbandonando lo studio delle grandi istituzioni della storia. Ma per indagare la vita “singola” delle
persone devi adottare non più le statistiche numerali volute dal positivismo per l’analisi dei grandi
fenomeni ma tecniche quantitative. La sociologia diventa Micro sociologia.
La svolta linguistica. La realtà non è altro che linguaggio, la filosofia studia il linguaggio ed è
grazie al linguaggio che si “crea” il mondo circostante.
I confini del mio mondo sono i confini del mio linguaggio.
Da questa svolta filosofica vengono fuori le sociologie interpretative, che studiano le parole e si
fondano sul paradigma costruttivista (Max Weber)
Interazionismo simbolico (Negoziazione del senso) Il significato delle cose che ci circondano è
contrattato con gli altri (accordo). Accordo che varia da cultura a cultura. Interagendo con gli altri
ci scambiamo istruzioni su quale sia il senso di ciò che ci circonda.
Approccio drammaturgico: (situazioni e maschere) Groffman. Ciascuno di noi che sta in società
indossa una maschera diversa e si comporta in relazione di quella a seconda del contesto sociale in
cui è inserito.
Etnometodologia E’ l’insieme dei modi/metodi che i vari gruppi di persone hanno per comprendere
la realtà.
Questi metodi si basano sulla Indicalita (le cose che diciamo o facciamo sono sempre calate in un
contesto) e Riflessività ( Non riuscire ad essere completamente separato dalla persona che sto
studiando. Il soggetto conosciuto è anche oggetto conoscente. Quando guardi studi e osservi ci stai
mettendo te stesso)
Analisi della conversazione (Visto che i limiti del mio mondo sono i linguaggi, cosa devono fare le
scienze sociali? Interrogarsi sul modo in cui questi linguaggi sono prodotti)
Le scienze sociali sono attraversate da un sacco di fratture e contrapposizioni. Negli ultimi anni
molti autori hanno provato a rinsaldare alcune di queste spaccature generando teorie satellite che in
sindesi fondono le prime.
Secondo capitolo – I percorsi della ricerca
Il ricercatore sociale si pone come obiettivo quello della conoscenza. Segue un approccio di
investigazione come un detective privato.
Cerca la verità, tuttavia qualche volta sarà costretto a mentire (a fin di bene) o ai soggetti presi in
analisi o a sé stesso o alla comunità a cui si rivolge.
Il passaggio dal come al perché implica l’aumento della difficoltà della ricerca. Per arrivare al
Perché si deve passare dal Come. A quel punto comincerò a formulare delle ipotesi.
Ricerca esplorativa: Il ricercatore sa poco su ciò che deve studiare ed esplora senza pregiudizi.
(Ricerca qualitativa ovvero non si fanno misurazioni sulle estensioni dei fenomeni)
Disegno della ricerca (Progetto che si fa della ricerca, organizzazione del lavoro, scelte
metodologiche sul paradigma adottato,)
Costruzione Base empirica (Quali dati mi servono? In quale maniera posso costruirli?)
(Framing) Organizzazione dei dati raccolti (In che modo li ho organizzati? Servono a rispondere
a ciò che cerco nella mia ricerca)
Sembra tutto bello, tuttavia si possono, in queste fasi, determinare degli errori nella costruzione
dell’analisi.
Es: Raccolgo delle interviste in giro e non riesco a classificare le informazioni raccolte.
A questo punto è necessario fare un passo indietro e somministrare nuovamente il questionario.
Oppure finisco per organizzarli con qualche forzatura ma non riesco ad analizzarli, e quindi è
necessario fare due passi indietro e somministrare nuovamente il questionario.
la soluzione è fare un disegno della ricerca ben fatto già nella fase iniziale.
Analizziamo le fasi in modo specifico:
La ricerca può iniziare perché viene aperta nella letteratura o nella scienza e non viene mai data una
spiegazione del meccanismo che genera quel dato fenomeno. Oppure un committente paga affinché
si faccia la ricerca. Oppure si è semplicemente mossi da passione.
Il secondo step è quello di documentarsi in merito a quel dato fenomeno attraverso lo studio
bibliografico, scientifico e sulla raccolta di testimonianze.
Chiarificazione dei concetti e delle eventuali ipotesi. La prima chiarificazione di un concetto viene
dal dizionario, ma per ogni disciplina esistono dei dizionari specialistici.
Ci sono delle ipotesi solo nel caso della ricerca confermativa ed esplicativa
Il problema della ricerca sociale è che gli oggetti di studio (le emozioni) non sono osservabili ne
misurabili.
Come si fa a passare dai concetti astratti alle loro misurazioni attraverso variabili? Qual è la tecnica
di rilevazione più adeguata per raccogliere i dati? (decido di fare delle interviste)
Si applicano queste regole ai casi studiati. L’applicazione può essere fatta nei seguenti modi:
- Classificazione: trovare un posto ad un oggetto in uno schema, che può dirsi efficiente se vengono
rispettati i principi di: esaustività (che considera tutti gli aspetti di quel qualcosa ogni oggetto ha un
suo posto, se non c’è verrà classificato come altro), esclusività (ogni oggetto deve avere solo un
posto nella classificazione), unicità (quando scelgo le categorie della mia classificazione, devo usare
solo un criterio).
-Conteggio: Contare quella proprietà. (quante volte vai al cinema in un anno?) Si chiama
misurazione quando i conti che faccio si basano su una unità di misura. (Peso di una persona che si
misura in chili)
Grazie a questo processo si formano le variabili che sono proprietà (aspetto teorico di un concetto)
operativizzate ( cioè sottoposte a processo di ordinamento, classificazione,conteggio)
Si passa da una ipotesi che è una relazione fra due o più concetti. Analizzando un singolo concetto
di cui fa parte l’ipotesi ci accorgiamo che è possibile scomporlo nelle sue proprietà teoriche, ossia
quegli aspetti che definiscono ad esempio il razzismo. Come è possibile trovare questi “aspetti”?
Tramite il dizionario. (Dicesi razzista chi….) . Tuttavia questa cosa non ci aiuta a misurare il
razzismo. Quindi trasformiamo la proprietà in indicatore empirico, ossia quell’aspetto concreto che
io posso trovare nella realtà (E quindi misurare) Facciamo delle domande a delle persone per
determinare se sono razziste, tuttavia le domande devono appartenere agli indicatori del concetto di
razzismo, se molti indicatori vengono confermati via via le persone rientrano all’interno del
concetto (Sono più o meno razziste).
Questo lavoro di “progressiva copertura del concetto oggetto di misura da parte degli indicatori” si
chiama massimizzazione del rapporto di indicazione
Una volta che io ho scelto la tecnica di acquisizione debbo costruire lo strumento (ne trascrivo le
domande e imposto un questionario) Qui si deve fare attenzione a non predisporre gli stati o
modalità perché si potrebbe influenzare la lettura del mondo di chi risponde in base a dei
preconcetti proposti (Al ristorante ad esempio le persone non ordineranno mai fuori dal menù che
viene proposto)
A questo punto dobbiamo capire se lo strumento funziona (validazione dello strumento – a quante
domande le persone non vorranno rispondere? Capiranno le domande?)
Tipi di Variabile
Ognuna di queste variabili è l’esito di un processo di operativizzazione.
Le variabili più scarse sono le nominali (perché possiamo fare ben poco) Le variabili più complete
sono le cardinali (Possiamo utilizzare tutti i segni). Tuttavia misurare nelle scienze sociali non è
sempre possibile matematicamente.
Raccolta di fonti secondarie (dati presi da altre fonti di natura numerica) di tipo statistico.
Raccolta di fonti secondarie di tipo testuale (Fonti possono essere Fumetti, opere teatrali, interviste,
diari, articoli di giornale, canzoni)
Esperimenti (Il ricercatore misura una situazione prima di introduce uno stimolo o modifica dello
stato delle cose e cerca di studiarne gli effetti di quella modifica) Tuttavia l’esperimento potrebbe
essere influenzato da molteplici fattori quali il contesto e la presenza del ricercatore.
Simulazioni al computer
Intrusività
Soggetto conoscente e oggetto conosciuto sono della stessa materia. La sociologia è poco oggettiva,
ma allora come si può essere il meno intrusivi possibili e non disturbare l’oggetto di studio?
Vi sono problemi epistemologici (la persona che noi studiamo è in un certo modo ma cambia a
seconda del nostro approccio) Paradosso del gatto.
Estensione (Si può essere poco intrusivi ma con una estensione gigantesca)
Problemi etici. (E’ giusto farsi gli affari degli altri di nascosto?)
Quando raccogliamo i dati non sono fin da subito organizzati ma devono essere “organizzati” e
aggiustati.
L’organizzazione dei dati quantitativi avviene tramite il Framing, il quale prevede l’uso della tabella
“Matrice Casi X Variabili”.
Organizzazione dei dati Qualitativi (Post-Codifica)
Nel caso in cui ci troviamo ad organizzare dati di una ricerca qualitativa noi lavoriamo con dati
testuali e effettuiamo una organizzazione dei dati “post codificata” ossia aggiustiamo i dati dopo
averli raccolti. Perché non saprò quali dati andrò a raccogliere.
Come si svolge?
Nel caso della ricerca quantitativa l’organizzazione viene fatta prima. In questo caso ricorriamo alla
matrice casi per variabili (tabella). Il ricercatore ha le stesse informazioni per tutti i casi di analisi.
L’analisi dei dati serve a trovare delle risposte ai nostri quesiti scientifici.
Il primo livello è quello dell’analisi dei Casi (analisi molto “concreta” incentrata sul singolo
individuo)
(Analisi delle righe orizzontali di una tabella)
Il terzo tipo di analisi è l’analisi delle relazioni. Analisi su sottogruppi composti da tre/quattro
elementi in cui si studiano le relazioni tra questi.
Il quarto tipo di analisi riguarda le parole e i testi (Analisi molto complessa in quanto con le parole
possiamo esprimere di tutto)
Come faccio a raccontare al mondo cosa ho fatto? Attraverso il documento del report di ricerca
L’abstract: Breve riassunto in cui ci sarà tutto ciò che c’è da sapere sulla ricerca. In modo tale che
nell’immediatezza chi la legge possa capire di cosa tratta sulla ricerca.
Stato della conoscenza di quel fenomeno al momento di inizio della ricerca: Correnti teoriche,
approccio scelto, letteratura su quel fenomeno,
Riferimenti Bibliografici.
La terza questione riguarda la responsabilità degli scienziati. Gli scienziati dicono alla società come
è fatta. Se io dico alla società come è fatta ho una grande responsabilità, quindi ciò che scrivono
deve essere frutto di un percorso metodologico basata su precisi paradigmi e soprattutto scientifico.
Non può mentire per interessi personali in quanto la sua bugia ha influenza sulla sua società.
Il Campionamento
Il campionamento è quella procedura attraverso la quale noi sezioniamo delle unità di analisi della
popolazione di riferimento provando a fare diventare questa sezione rappresentativa dell’universo
attraverso l’inferenza statistica.
Il motivo per il quale scelgo di fare una cosa del genere è che intervistando un campione risparmio
tempo e soldi.
Il vantaggio è anche la macchina organizzativa che sarà più semplice ( sarà possibile organizzarsi
meglio)
Altro vantaggio ha a che fare con il tempo che io posso dedicare all’analisi dei dati piuttosto che
alla semplice raccolta.
Il dato reale è uguale alla stima di quello che è il dato reale piu o meno un errore
_
dato reale Y= stima del dato reale Y + - E (errore)
Es: Stima del 15% con errore del 5% significa che il dato potrebbe essere tra il 10% e il 20%
I campioni si dividono in
Probabilistici (quei campioni che fanno ricorso alla teoria matematica delle probabilità) si dice
probabilistico un campione quando tutte le unita di analisi della popolazione hanno la stessa
probabilità di essere estratte. Si suddividono in campioni casuali semplici e sistematici stratificati.
Essi rappresentano un “paradosso di rappresentatività”, che li rende rappresentativi riguardo alcune
variabili rispetto ad altre, indipendentemente dal processo di estrazione.
Non probabilistici (non fanno ricorso alla teoria matematica della probabilità), sono
rappresentabili tipologicamente e producono risultati non generalizzabili dato che l’errore di
campionamento non è qui calcolabile. I criteri ragionati di scelta dei casi sono: scelta ragionata, a
langa e di convenienza; quelli analogici invece sono: bilanciato, per quote, telefonico.
Ma cosa è la probabilità? Mettiamo che io abbia una moneta, quante possibilità ci sono che esca
testa? 0,5 in quanto ci sono due facce. Si farà sempre il caso favorevole (Su cui abbiamo
scommesso, quindi la testa) diviso il totale dei casi (il numero di eventi possibili)
Usiamo dire il 50% per convenzione (rapportiamo sempre in percentuale ossia rapportiamo sempre
su base 100)
.Per calcolare una possibilità serve sempre conoscere i casi possibili e il numero della popolazione.
Il numero dei casi favorevoli cerco di considerarlo io.
Ma se io non ho il numero della popolazione, NON posso calcolare un campione probabilistico.
Qual è la formula magica che ci consente di determinare quale sia la dimensione ottimale (più
rappresentativo della realtà) di un campione?
Facciamo un Esempio
Z=
E= Errore (stabilito dal ricercatore) (generalmente minore o uguale al 4%) (qui non useremo il
numero percentuale ma l’intero quindi 0,04)
La distribuzione campionaria (una gaussiana posizionata in un grafico) è una curva che mi da una
possibilità di vedere con quanta frequenza e in quale probabilità possono essere sorteggiate delle
medie, medie piccole hanno minore probabilità di essere sorteggiate a differenza di quelle più vicine
alla media delle medie (Es. su 90 abbiamo una media di medie di 45) la media delle medie è
corrispondente al punto massima della curva. Se tagliamo le parti basse, più vicina all’asse delle
ordinate, della gaussiana, rimpiccioliamo (ottimizziamo) il campione. Ottenendo un campione più
piccolo ma più rappresentativo della popolazione, la parte presa in esame si chiama “intervallo di
fiducia” in quanto oggetto di una personale fiducia dell’analista che ritiene che il campione
risultante non possa essere così “brutto” (es. Non scelgo di considerare il 5% dei dati, quindi cinque
volte su cento un campione non è buono, 95 si). Quanto tagliare il campione spetta all’analista.
la nostra Z Mancante è l’intervallo che va dalla media delle medie al punto ultimo di considerazione
dei dati (Metà dell’intervallo di Fiducia) (ha sempre il val di 1,96) ma come lo abbiamo trovato?
_
Per trovare la Z dobbiamo necessariamente avere la X, ma come trovare la media? Con un trucco.
Spostiamo l’asse dei grafici e la facciamo diventare la linea che diventa punto massimo della
gaussiana. A questo punto la media coinciderà con l’origine ossia 0 e gli intervalli Z saranno sempre
1,96 (Solo se consideriamo sempre questo intervallo di fiducia , con errore al cinque percento.
Possiamo anche mettere 2, ma a questo punto otteniamo il 99% e includeremmo anche i campioni
non buoni)
Foto
Soluzione
Abbiamo M F
Basato di un sistema di estrazione dove si stabilisce un passo da seguire per scegliere le persone da
intervistare
Si sceglie un numero casuale all’inizio e a partire da quel numero casuale si sceglie una persona da
intervistare ogni (Numero casuale es. una ogni 20)
Si chiamano così perché non fanno ricorso alla teoria matematica della probabilità
Tuttavia sono più deboli, in quanto vengono creati apposta per una certa ricerca. Hanno sempre le
stesse caratteristiche.
I campioni non probabilistici non hanno errori di campionamento (non sappiamo di quanto
sbagliamo)
Mentre i campioni probabilistici sono rappresentativi statisticamente (i dati del campione sono
estendibili alla popolazione e viceversa) non si può per i campioni non probabilistici.
Si raggiunge una rappresentatività tipologica (se ne prende uno solo per ogni tipo)
Mentre i campioni probabilistici la generalizzabilità alla popolazione (i dati del campione sono
sicuramente estendibili alla popolazione e viceversa) i dati dei campioni non probabilistici sono
soggetti a trasferibilità (ossia possono gettare luce su qualche fenomeno del mondo)
Quanti sono i campioni?
Si individuano all’inizio delle unità di analisi interessanti, a queste persone si chiede di far
conoscere altri casi simili al ricercatore (una sorta di catena di sant’antonio). In questa maniera il
campione seguirà un ingrandimento incrementale (valanga)
Stabilisco una logica per selezionare i miei casi. Ma ho deciso i numeri del campione a caso.
Esempio:
Giovani Maturi
istruiti 2 3
Poco istruiti 3 2
Totale = 10
Una logica di ordine può essere quella della comparsa o meno di un fenomeno in una determinata
fascia di età
Campionamento di convenienza:
In sintesi faccio quello che mi conviene fare, e lo unisco a ciò che posso o non posso fare.
A prima vista sembra un campione semplice, ma in realtà non lo è. Stabilisce la grandezza del
campione piccolo utilizzando la formula dei campioni probabilistici, è vero, tuttavia la procedura di
selezione delle unità da analizzare non si prendono casualmente ma seguendo il principio di
convenienza.
Se devo scegliere seicento persone queste seicento persone me le vado a scegliere dove le trovo più
facilmente. Questi campioni non garantiscono la generalizzabilità dei risultati e i loro risultati sono
trasferibili.
I campioni casuali semplici producono un errore, il fatto stesso di non considerare l’intero universo
comporta un errore. Che rapporto esiste tra l’intervallo di fiducia e l’errore di campionamento? Es:
95 volte su cento l’errore non viene considerato, ma cinque volte su cento posso incappare
nell’errore di campionamento. Significa che se ho stabilito un errore del 4%, cinque volte su cento
potrebbe essere di più. Quindi potrei sbagliare cinque volte su cento nell’estrarre un campione dalla
popolazione.
Ci sono una serie di altri errori, che fanno le persone, che devono necessariamente essere spiegati.
Questi errori li troviamo sia negli campioni probabilistici sia in quelli probabilistici
Sono:
Errori di selezione: che hanno a che fare con il fatto che abbiamo usato una lista sbagliata della
popolazione, Sottostima o sovrastima della popolazione.
Errore di non risposta: Uno dei più grandi problemi che abbiamo quando facciamo un
campionamento. Le persone non vogliono rispondere al questionario o non sono rintracciabili.
Errori di misurazione: Noi utilizziamo uno strumento di raccolta dei dati che non funziona bene.
Es: Questionario illeggibile o incomprensibile.
Errori di procedura: Quando abbiamo finito di somministrare il questionario, i dati vanno caricati
nel pc. Tuttavia nel caso di una grande mole di dati, nella procedura di trascrizione commettiamo
qualche errore.
Paradosso del campionamento: Non possiamo verificare se il nostro campione e corretto o no,
perché siccome io uso il campione per analizzare una realtà sconosciuta come faccio a paragonare
questi risultati ad una reatà che non conosco? Per poter conoscerla dovrei fare un censimento.
Si potrebbero tuttavia confrontare i campioni con i censimenti. Tuttavia i censimenti vengono fatti
ogni dieci anni, come posso confrontare i dati del duemilaedieci con quelli del duemilauno?
Drop out: Problema delle non risposte. Avevamo 900.000 persone. Se su un campione di seicento
persone trecento non rispondono. Ne prendo altre trecento. Ma a questo punto abbiamo levato
trecento persone dalla popolazione, perché queste persone non rispondono e non risponderanno.
Di conseguenza abbiamo violato la definizione di campione probabilistico. Perché adesso il
rapporto di estrazione di altri soggetti della popolazione è aumentato, non più 1 su 900.000 ma 1 su
899,700. Tuttavia possiamo anche ponderare. Se mi rispondono 300 persone, considero le risposte
come doppie. Ma comunque avremo sempre lo stesso problema.
L’approccio qualitativo
Le tecniche:
Parliamo dell’intervista:
Tipi di intervista
Strutturata (o standardizzata) quindi l’elenco delle domande sarà uguale per tutti.
Semi strutturata (con traccia o topic guide) Quando una persona da una risposta si indagheranno
degli aspetti prefissati della risposta già previsti dall’intervistatore.
Non strutturata (o libera in profondità) intervista che presenta l’argomento come una
improvvisazione.
Direttiva (o guidata) (l’intervistatore decide lui il percorso dell’intervista e come fare le domande)
Semi direttiva (L’intervistatore ha scelto dei momenti in cui dirigerà ma ha previsto anche dei
momenti di libertà per l’intervistato
Dedichiamo molto tempo all’intervistato (Esempio intervista biografica sulla vita di un artista)
In base al numero di intervistati (si possono fare anche interviste di gruppo, che si distinguono da
quelle individuali.
Interviste ai Gruppi naturali (esiste a prescindere dalla volontà del ricercatore – gruppo di
famiglia)
Interviste ai gruppi artificiali (gruppo artificiale creato allo scopo – Focus group)
Si parla, ovviamente della relazione tra oggetto conoscente e oggetto conosciuto, che in questo caso
sono della stessa natura.
Esistono molteplici differenze (caratteristiche di sfondo) di età cultura, razza, religione, condizioni
socioeconomiche, sesso, etc..
A questo punto, l’analisi dei fattori operata da entrambe le parti e in entrambe le direzioni, porterà a
un giudizio operato da entrambe le parti (se, in modo tacito, fidarsi o meno reciprocamente)
Fattori comportamentali:
Fattori comportamentali:
Essere preparati sullo strumento di indagine, saper porre le domanda (saper gestire lo strumento,
prevedere possibili problemi)
l’intervistatore
Deve creare una situazione di normale conversazione, mai di giudizio (ne espresso a parole, ne in
maniera non verbale)
Chiedere di avviare il registratore solo una volta avviata l’intervista. (le prime domande servono
solo a rompere il ghiaccio e a creare una atmosfera di familiarità tale per cui l’intervistato sarà più
propenso ad accettare il registratore)
le domande
Vi possono essere problemi nella trascrizione delle interviste (Bisogna trascrivere dialetti?
Ripetizioni? Errori? Esitazioni?)
Tuttavia il buonsenso dice che il riassunto non è bello perché ci fa perdere la presa diretta con la
realtà. Scrivere tutto invece ci fa perdere tempo.
Si prova a riportare con le parole il senso del discorso (togliendo ciò che ci sembra inutile)
Lo scopo dell’analisi è trovare delle strutture dotate di senso nel materiale raccolto.
Post codifica: (Sottolineare delle cose più interessanti e mettere accanto un codice che in genere
consiste con il topic della discussione). Dopodichè si conta il numero delle volte in cui un topic
compare in una intervista. Alla fine si costruiranno delle tabelle con dei grafici con la frequenza dei
topic emersi.
Approccio qualitativo:
Il secondo step consiste nel mettere da parte le citazioni più significative per ciascun tema o area
individuata.
Interpretazione e commento
Percorso quali/quantitativo:
L’osservazione
Osservare comporta la fruizione dei nostri cinque sensi. E’una pratica immersiva in cui si cala il
ricercatore.
Quando si parla di osservazione partecipante distinguiamo tra osservazione coperta (il ricercatore fa
finta di essere uno di loro) o scoperta (palese)
Intrusività degli strumenti di rilevazione: quanto sono intrusivi per l’ambiente studiato?
Strutturazione dell’osservazione (Può essere forte nel caso in cui i ricercatori sanno cosa osservare o
debole nel caso opposto)
Prospettiva dell’osservatore
Si distingue in:
Prospettiva del marziano: (in cui il ricercatore osserva cose che non ha mai visto prima, quindi
molto più stimolante per la creazione di nuove domande e mette in discussione tutto)
Prospettiva del convertito: (il ricercatore è talmente preso da quello che osserva che diventa uno di
loro)
Studi organizzativi (Lo studio delle organizzazioni come uffici, ditte, fabbriche, aziende di servizi…
posti dove si formano delle culture organizzative)
Studi di realtà clandestine e occulte (Sette religiose, sataniche, attività sessuali devianti, massoneria
etc.. )
Le interazioni formali/informali (noi interagiamo con gli altri sempre in modi diversi, in genere il
tipo di relazione coincide con la distinzione di contesti privato/pubblico)
Le interpretazioni orali e scritte degli indigeni dei fenomeni del mondo. (Come lo interpretano?)
Gli strumenti
Il diario di bordo (raccolta di descrizioni dei fenomeni, interpretazioni del ricercatore che possono
essere emotive – cosa mi è successo dentro, nelle emozioni - e teoriche – ciò che mi è successo
nella testa -) verbalizzazioni e comportamenti degli indigeni (citazioni di estratti)
Il Backtalk (Scrivo il report e chiedo conferma delle situazioni rappresentate agli stessi indigeni)
Problemi dell’osservazione
Attraverso il mediatore culturale (uno degli indigeni che è preventivamente messo d’accordo con il
ricercatore e lo fa entrare nel gruppo)
Attraverso gli informatori (che informano il ricercatore. Tuttavia può essere inviato dalla cultura
stessa. Oppure proporsi spontaneamente.
Definizione:
Il focus group è una tecnica di rilevazione per la ricerca sociale basata sulla discussione tra un
piccolo gruppo di persone, alla presenza di uno o più moderatori, focalizzata su un argomento
che si vuole indigare in profondità.
Vantaggi:
Il moderatore:
Può guardare (o allo specchio segreto o con le telecamere) o essere presente direttamente nel
gruppo.
L' osservatore prepara i riassuntini (sta attento ai contenuti) o dei survey pool (ovvero prepara tre
pallini e riempie più o meno una delle posizioni per quanto è condivisa dal focus group).
Nel come mi chiedo “come siamo arrivati a dire quelle cosa”, quel processo lo utilizzerò nella
campagna di marketing.
-Strumentale: Sanno delle cose (leadership della conoscenza), punto di riferimento e parlano bene.
• Il Timido (opposto del leader, ha “paura” del contesto e di esprimere la sua opinione;
Compito del moderatore è quello di cercare di limitae l'invadenza dei leader e valorizzare
quella dei timidi)
• L' Apatico (l' apatico è “abbuttato, il moderatore deve accorgesene e cercarlo di farlo
interessare)
• Il Joker (quello che fa le battute, smonta l' ufficialità delle cose e istiga alla risata su tutto)
Strumenti
• Topic Guide
• Questioning route
• Con o senza stimoli (immagini, filmati, stimoli sonori, ect...) (questi strumenti sono
mostrati in determinati momenti e non subito!)
Tipi di domande
• Domande di Apertura
• Domanda di introduzione
• Domande di transizione
• Domande chiave
• Domande finali
-Un focus group è in genere composto da circa 8 persone (min 4 e max 12 + dropout (chi da buca).
-Il numero di Focus Group da effettuare è variabile, ma in genere maggiore o uguale a 3 ---> I
Focus Group ono sempre con persone diverse.
Si fanno Focus Group fino al criterio della saturazione teorica (guardando i nuovi risultati ottenuti
non emergono novità per i risultati o non si scopre nulla di rilevante).
-Quando si contattano persone, si accenna solo vagamente al tema del Focus Group (schermatura).
Nel gruppo, in genere, non ci devono essere persone che si conosco.
-Le persone si scelgono sulla base delle esigenze di ricerca, seguendo criteri di omogeneità
(Quando vogliamo approfondire molto dell' argomento) piuttosto che di eterogeneità o
rappresentatività (Quando mi interessa sapere tutte le opinione su quel determinato ambito).
- Scegliere dei posti neutri (es. ufficio azienda, sala univeritaria, sale convegni degli alberghi) per
effettuare i focus group.
Ai partecipanti si danno come “incentivo” soldi, fornitura del prodotto pe un periodo di tempo,
gadget della ditta o una buono da spendere.
Differenza tra Poll (Sondaggio basato su una singola domanda e non richiede necessariamente
un campione probabilistico, alle spalle di un poll non c’è nulla se non la curiosità di sapere quel
dato) e Survey (più domande con campione probabilistico, alle spalle c’è una ricerca di natura
scientifica e sociologica)
Noi porgeremo attenzione alla survey (inchiesta campionaria) che è un modo di rilevare
informazioni che si basa sulla interrogazione.
Vengono consultati gli stessi individui oggetti della ricerca.
Questa ricerca ricorre ad un campione probabilistico.
Le domande vengono impostate in un questionario a risposta chiusa.
Lo scopo dell’inchiesta campionaria è quello di studiare le relazioni (ipotesi) che esistono tra le
variabili.
Questa è una ricerca confermativa perché deve confermare/smentire la veridicità delle ipotesi
formulate
Questa è una ricerca esplicativa (non ci chiediamo come si presenta il fenomeno ma il perché si
presenta in un certo modo)
Tradotto:
Se io faccio la stessa domanda a più persone, tutte quante capiranno la stessa cosa.
Questo è l’approccio che utilizza chi fa la ricerca sociale per impostare i questionari
Ma ne siamo sicuri?
Non solo le persone sono eterogenee, ma lo potrebbero essere anche gli intervistatori.
Vi sono dei problemi che nascono tra l’intervistato e l’intervistatore: (Desiderabilità sociale,
acquiescenza, pseudo opinioni)
Desiderabilità sociale: Quando interagiamo per la prima volta con gli sconosciuti allora ci
mostriamo nella maniera migliore che possiamo (l’intervistato smussa le risposte che darebbe
realmente) questo è un problema perché falsa le risposte e non raccolgo il dato reale che mi
interessa
Acquiscenza: situazione per il quale l’intervistatore sta al di sopra dell’intervistato per via del
suo modo di apparire, e per questo lo condiziona implicitamente nelle risposte.
Oppure le persone annoiate da un questionario eccessivamente lungo daranno una prima
risposta veritiera e falseranno le altre in base alla prima.
Pseudo opinioni: Domande difficili a cui le persone non sanno rispondere e per ciò inventano
una risposta pur di non sembrare ignoranti.
Contenuto: Cosa viene chiesto (Attenzione a tematiche che riguardano sesso, soldi, questioni morali
e religiose) questi temi possono produrre i problemi enunciati prima.
Struttura: Come è stata organizzata la lista delle domande? Il tema “scottante” deve essere trattato
ed inserito al momento opportuno.
Setting: Contesto nel quale io faccio l’intervista (Dove la faccio? Le persone intervistate hanno
fretta?)
Intervistatore: Se la persona che mi intervista sta antipatica o nutro dei sospetti posso non
rispondere o falsare.
Ci sono quattro diverse spiegazioni su come funziona il processo di risposta. Tre modelli sono di
natura cognitivista (Branca della psicologia che immagina il cervello come un computer
funzionante ad imput che produce un output)
Il quarto modello è linguistico
Quando ad una persona viene rivolta una domanda la prima cosa che una persona fa è
COMPRENDERE cosa gli è stato chiesto.
La seconda fase consiste nel RECUPERO dell’informazione che serve per rispondere
La quarta fase consistere nel far corrispondere quello che so ad una delle alternative di risposta che
mi propone il questionario.
Dove alla prima fase (gli studiosi Krosnick e Alwin) aggiungono la seconda fase.
La soddisfazione sta nel fatto che io devo SODDISFARE chi mi intervista a prescindere se la
risposta sia vera o falsa.
L’ultimo modello è quello che si rifà alla logica conversazionale di Grice (Annullamento del
contesto)
Grice sostiene che una conversazione funziona solo se vengono rispettati quattro principi.
Che sono:
Qualità delle informazioni: (verità e sincerità devono essere qualità mai mancanti della nostra
conversazione)
Relazione (appropriata al contesto) Le cose che ci stiamo dicendo non sono adatte al conteso in cui
ci troviamo.
Se non si rispettano queste massime comincia a prevalere nel contesto dell’intervista la situazione
(le persone non stanno più attente alle domande ma al contorno - come verranno usate le
informazioni etc..)
Cosa ci vuole?
Esperienza e cumulabilità. (Ci si può anche ispirare o copiare domande prese dai questionari vari)
Istruzioni: Quando il questionario è auto somministrato bisogna fornire delle istruzioni per
compilarlo.
Corpo principale (domande del questionario – struttura del questionario vera e propria)
Ringraziamenti e note.
Costruire il questionario: Ingredienti.
Il questionario è formato da domande (Items) per costruirlo servono dei precisi ingredienti da
mettere nelle domande:
Dati sociografici (Ciò che le persone sono) (contesto di appartenenza, sesso, età, titolo studio…)
Si comincia sempre con domande generiche e neutrali che non possono essere considerate un
discorso mirato (Queste sono le domande socio-anagrafiche)
Si comincia in questa fase a tenere conto dell’attenzione che le persone hanno nel rispondere al ns.
questionario.
Dopo queste domande generiche e neutrali mettiamo delle domande che richiedano un lavoro
mentale più grande da parte di chi risponde: Queste sono le domande importanti.
A questo punto possiamo congedarci, il ns. lavoro è finito, tuttavia non possiamo congedarci subito
dopo in quanto l’intervistato avrà con se un ricordo che l’ultima domanda è stata qualcosa
imbarazzante.
A questo punto mettiamo delle domande salvagente, che hanno il compito di distogliere l’attenzione
e che non richiedono grande sforzo mentale, queste domande sono quelle Socioanagrafiche.
(Usare carta intestata dell’istituzione che sta proponendo la ricerca) – Dare maggiore
autorevolezza al questionario.
Ordinare le domande con numeri progressivi. (In modo da ordinare le domande in una matrice
casi per variabili)
Diverso stile grafico per domande e risposte (in modo da distinguerle meglio)
Gestire le domande di controllo (domande quasi uguali che vengono copiate in un'altra parte del
questionario – si fa questa cosa quando si ha il sospetto che le persone non ci stiano dicendo la
verità, se le risposte alle due domande in modo diverso, l’intervistato non sta dicendo la verità) o di
filtro (domande che ci indirizzano durante la compilazione del questionario e ci creano una
condizione di affermazione negazione in base ala quale io, studioso, ti metto in condizione di
rispondere a delle domande supplementari a seconda della tua risposta)
Semplicità di linguaggio.
Tipi di domande
Checklist
La risposta può essere nessua delle variabili, tutte insieme contemporaneamente o una
combinazione di variabili.
Si fa una affermazione all’inizio e sin chiede all’intervistato in che misura è d’accordo con quanto
enunciato.
Le risposte somigliano a quelle delle modalità graduali, tranne per il fatto che vi è l’affermazione
all’inizio
Il soggetto che deve rispondere si colloca da solo in un determinato spazio (scala auto ancorante)
Es: per favore indichi con un puntino il suo orientamento politico lungo questa linea che va
dall’estrema sinistra all’estrema destra.
Il valore viene trascritto in una tabella casi per variabili semplicemente con l’ausilio di una
squadretta con il quale si misurerà il segmento e si determinerà un valore.
ci sono tuttavia persone che non sono in grado di collocarsi sulla linea per tutta una serie di casi
(Nessuna istruzione politica, mancanza delle più basilari conoscenze di matematica e geometria,
etc..)
Scale LIKERT.
- sono scale additive (fanno delle addizioni) (Misurare il livello di razzismo in base alla somma dei
punteggi delle risposte alle domande di un questionario)
Controllo di validità – controllare se la scala è corrispondente tra i risultati della ricerca e la realtà.
Controllo di attendibilità – La stabilità di dati nel tempo, la coerenza, e la riproducibilità dei dati.
Split half: Prendiamo la scala delle domande e la dividiamo a metà, si fanno due distinte sottoscale,
si fanno le somme e si vede se una scala è coerente con l’altra. Questo test serve solo a capire se c’è
un problema ma non riesce a determinare quale.
Correlazione Elemento/scala. E’ un numero che mi dice quanto sono associate due distribuzioni.
Si misura il coefficiente di correlazione tra la somma dei valori di ogni risposta e a la somma delle
somme dei valori totali delle risposte.
Una volta trovato il coefficiente relativo più basso, si elimina l’item e migliora l’attendibilità della
scala. (il valore degli altri altri coefficenti di correlazione aumenta)
l’alfa di Cronbach – con questo procedimento è possibile calcolare tramite un valore solo
l’attendibilità della rilevazione. Il valore minimo per cui la scala è attendibile è 0,7
__
nr
alfa = --------------
-
1 + r (n-1)
_
r = Media delle correlazioni degli item tra di loro (Si calcola sommando tutti i valori degli item e
dividendoli per il numero di item stessi)
L’ultimo controllo della scala di Likert è il controllo di unidimensionalità.
Quando noi costruiamo una scala dobbiamo accertarci di misurare uno e un solo fenomeno. Quindi
bisogna stare attenti a non mettere degli item che riguardano, ad esempio, l’intolleranza o la
xenofobia.
L’analisi fattoriale ci aiuta a trovare quell’insieme di items che potrebbero misurare anche altri
fattori e quindi non sono adatte.
Altre scale.
Scala del differenziale semantico (una scala che ha la presunzione, attraverso delle domande che
sembrerebbero non essere pertinenti con il fenomeno studiato, cercano di capire cosa passa nella
mente delle persone)
Come si fa? Individuando dei poli opposti fra i termini in cui le persone si autocollocano lungo
questo segmento.
Il Pre Test.
Rimuovere o riformulare le domande che presentano troppo “non so” o “non ricordo”
Giudizio di esperti.
Forme di somministrazione
Per telefono.
Per posta.
con il computer.
-Cati
-Capi
-Cawi
Obiettivo
I casi (singole untità di analisi, le ricerche sui casi si definiscono di tipo concreto in quanto ci
occupiamo delle singole persone)
Variabili: Invece di lavorare in orizzontale lavoriamo in verticale (ci interessa il mucchio più che il
singolo caso) Es: età media di una popolazione. Il lavoro è astratto perché le persone non ci sono.
Parole e testi: (Insiemi di parole, che possono evocare mondi o essere ambigue)
Oggi gran parte del lavoro di analisi dei dati non viene fatta manualmente su schede perforate, bensì
al computer.
La prima tecnica è il Case study: (studio di un solo caso) ovviamente se ne occupa in termini
qualitativi.
Le considerazioni si fondano su:
Tecniche gerarchiche: Per classificare i gruppi è stato utilizzato il criterio della gerarchia.
Che si dividono In agglomerative ( partono dal basso per arrivare verso l’alto – dal particolare al
generale) e divisive (che fanno il contrario)
Tecniche Iterative: (tecniche che prevedono un particolare iter) Sin dall’inizio il ricercatore decide
quanti gruppi creare.
Delle tecniche iterative fanno parte le Tecniche delle K medie. Dopo aver diviso gli oggetti di
analisi in vari gruppi con criterio casuale provvediamo ad ordinarli progressivamente secondo
precisi iter e criteri di classificazione. Fino a quando ottengo il livello di omogeneità desiderato.
Tecnica della densità locale: basata sulla geometria analitica e sui sistemi di assi cartesiani in cui si
disegnano punti dettati da coordinate X Y che possono, ad esempio, essere caratteristiche di una
persona. (ES: quante volte va a scuola e quante va in chiesa)
la tecnica della densità locale è utilizzata da questa azienda per tracciare il profilo della popolazione
italiana.
La mappa che ci propone eurisko è sempre un piano cartesiano.
Asse X = confronto sociale, lavoro, ricchezza, forza, razionalità sport (tratti duri)
Asse Y = Cultura, moderazione, riflessione, affetti, amore eleganza aspetto (tratti morbidi)
Foto 2
Il posizionamento dello stile di vita.
Ci propone uno studio che da concreto diventa astratto. L’analisi cambia a seconda del numero delle
variabili oggetto di analisi.
Dstinguiamo tra:
Analisi Monovariata: Analisi di tipo descrittivo (come si presenta un certo fenomeno?) che
riguarda una singola variabile.
Si tratta di riassumere e sintetizzare una distribuzione. Tuttavia questa distribuzione può essere
grande, come riassumere? Costruiamo una rappresentazione tabellare. In cui inseriamo la modalità
della variabile, le frequenze della presenza manifestata di questa modalità, delle percentuali e
delle percentuali cumulate.
Foto 3
ES: Alla domanda: hai mai pensato di fare sport?
Bisogna anche inserire le misure di tendenza centrale (che mi dicono dove sta il baricentro della
distribuzione) che sono: (Moda: che serve solo per le variabili di tipo nominale. Mediana: che serve
per misurare la tendenza centrale di variabili ordinali. E la media solo per misurare la tendenza
centrale delle le variabili Cardinali.)
Analisi Bivariata: analisi che lega due o più concetti ed è una analisi Esplicativa – (la ricerca
spiega il perché di quella cosa)
Stavolta il piano si sposta dfa descrittivo a esplicativo.
X= variabile indipendente
Y= variabile dipendente
Come si verifica la presenza di una relazione fra due variabili? Con la tabella di contingenza.
La statistica tuttavia si interessa di indici più sintetici che spiegano l’esistenza o meno di una
relazione.
Significatività vs forza (forza: Relazione che lega due variabili. Quanto sono legati X eY e quanto
cambia Y al variare di X e viceversa) – (Significatività: Può succedere che una relazione misurata
tra x e y in realtà sia dovuta ad un campione particolare estratto dalla popolazione e potrebbe
succedere che se io estraggo un campione diverso, quella relazione possa non esistere più. La
significatività mi dice qual è la probabilità che quella relazione che io ho misurato sia dovuta al
caso. Ed è espressa in valori reali che vanno da 0 a 1. Se, ad esempio, il valore di significatività
viene 0,95 che vol dire 95% ci saranno novantacinque possibilità su cento che quella relazione
possa essere di nuovo confermata nel caso dell’estrazione di un nuovo campione.)
Misure di relazione:
Tra le variabili esistono criteri gerarchici di ordine:
Analisi Multivariata:
Descrittiva (MDS)
Esplicativa(Regressione)
Il primo posto dove ci capita di trovare testi e le parole sono le domande a risposta aperta.
Noi riassumiamo i dati in una post codifica.
La Content Analysis è una tecnica di analisi basata su procedure impersonali di scomposizione dei
testi in elementi più semplici, allo scopo di classificarli in categorie di senso, di calcolarne la
frequenza o la co-occorrenza, o di valutare i giudizi espressi dall’autore su determinati oggetti del
discorso, per stabilire inferenze valide e replicabili sul produttore, il contesto e gli effetti di un
messaggio.
Chi dice cosa, a chi, attraverso quale canale e con quale effetto?
“questo deve essere l’obiettivo della analisi del contenuto (Lasswell)
L’analisi del contenuto riesce a dare una risposta a questo quesito? No.
Possiamo capire alcune cose ma non tutte, la tecnica è incompiuta.
L’analisi del contenuto si sposta dalla politica ai media. Per fare cosa? Raccogliere dati. (Medi
research)
La prima strada non smonta i testi bensì li analizza e classifica i dati in una scheda di codifica (un
questionario che noi idealmente sottoponiamo allo spot)
Il secondo modo di raccogliere i dati è o la trascrizione a mano, o la scansione dei dati con OCR, un
tipo di scanner che digitalizza e riconosce i testi.
Le tecniche di analisi del contenuto di questi due percorsi sono fondamentalmente tre:
L’analisi delle frequenze. Quante volte una parola compare in questo testo?
Perché si fa? Per esplorare un testo in maniera rapida e veloce. (analisi del corpus)
Se il numero che viene fuori e zero, vuol dire che le due parole non vengono mai messe in
correlazione. Se il numero che viene fuori e 1 allora le parole vengono sempre messe insieme.
Si occupa delle frasi. Si smontano i testi in frasi. Si usano le scale dei differenziali semantici. Con
punteggi che vanno da + 3 a – 3
Si prende ogni frase e ci si chiede se in questa frase c’è una valutazione positiva o negativa sul
nostro oggetto di studio.
Se non c’è valutazione il punteggio sarà 0
In seguito si farà una media delle valutazioni positive e negative per capire il giudizio complessivo
che Es: un giornale ha “sul politico” (ad esempio).
La distinzione tra queste due metodologie va evitata perché crea molti più problemi di quanti ne
risolve. I due approcci vanno presi insieme.
Perché sono stati separati questi due approcci?
Ma i primi filosofi erano anche matematici (Es: Talete, Pitagora. Lonardo da vinci)
Cosa che non faceva Leonardo da vinci. Le sue erano pure manifestazioni di intelletto senza che
fosse necessario produrre il suo elicottero in serie.
Con le rivoluzioni si aprirono due strade: Una degli uomini di intelletto e L’altra degli uomini di
industria.
Quando nasce la sociologia? Alla fine dell 800 ed è prettamente di marco positivista.
Auguste Comte (il fondatore) dice che bisogna utilizzare le scienze esatte per capire la società.
Tuttavia alcuni filosofi tedeschi, in seguito alle manifestazioni positiviste, si opposero affermando
che non si può studiare i fenomeni della società alla stessa maniera in cui si studiano le diete.
Essi affermavano che il metodo delle scienze sociale doveva essere peculiare (proprio della scienza
sociale) “Methodenstreit” fu il nome che questa guerra tra scuole di pensiero ebbe.
Tesi confermata e condivisa poi dal sociologo Max Weber, che si schiera contro i positivisti.
Tutta questa diatriba nasce anche dal fatto che i vari esponenti di opposte fazioni si contendevano le
cattedre universitarie.
L’esperienza
C’è un altro aspetto legato alle varie analisi. Ossia l’esperienza che ognuno ha dei fatti del mondo.
Esistono due parole diverse (che riguardano una l’analisi quantitativa e una quella qualitativa) per
dire “esperienza” nella lingua tedesca:
Erfrarung (prassi, interazione col mondo, aspetti pratici e soggettivi del vivere) - quantità
Questa differenza che esiste tra cultura scientifica e umanistica esiste perché esistono queste due
forme di esperienza nel nostro vissuto quotidiano. Questa diatriba tra cultura scientifica e
umanistica si fonda su livelli molto più profondi.
La scienza sociale è una metodologia diabolica perché è una scienza profondamente divisa tra lo
studio della quantità e della qualità.
Ma divisa in che termini? Dove sta la differenza fra quseti due tipi di approcci?
Un primo confronto
Approccio quantitativo
Approccio qualitativo
Si distinguono su questioni generali, su come si fa la raccolta dei dati e in merito all’analisi dei dati.
Questioni generali
Nel 1997 esce un libro chiamato la ricerca qualitativa (Di Luca Ridolfi). Ed è uno dei primi tentativi
in italia di rimettere in discussione il dibattito storico.
L’autore premetteva che la faccenda che le due metodologie non dovessero contrapporsi e propone
un nuovo metodo che illustriamo:
Da un lato le tecniche che fanno ricorso a procedure formali (Ricerche chiuse e piene di regole).
Da un lato abbiamo tecniche che fanno ricorso a procedure informali (Regole più aperte,
linguaggio meno rigoroso)
Quelli che garantiscono l’ispezionabilità della base empirica (risalire ai dati originari su cui si è
basato il ricercatore.
E quelli che non garantiscono l’ispezionabilità di questa base.
Ricerca LOG e COMP (Ricerca logica e ricerca computazionale “simulazione al pc”) procedure
formali ma non matematiche.
Non è così, quello che cerco di dimostrare è che in realtà si può fare ricerca con strumenti sia
qualitativi e quantitativi sia per micro e sia per macro.
Il tempo nella ricerca sociale
La ricerca sociale ha sempre lavorato come se il tempo non esistesse, cosa sbagliata.
Il tempo significa raccogliere dati diacronici che possono essere:
Oggettivi (aggregati a livello territoriale): non significa indiscutibile ma si riferisce ad oggetti
quindi non ci occupiamo di persone. Solitamente sono aree geografiche;
Soggettivi: non sono dati criticabili ma soggetti (persone). Quando i dati guardano le persone
abbiamo diverse situazioni: studi trasversali ripetuti (studi fatti su campioni diversi nel tempo), studi
longitudinali prospettici (somigliano al precedente ma vengono fatti sullo stesso campione) e studi
longitudinali retrospettivi (riguarda sempre le persone ma viene chiesto alle persone di ricordare il
loro passato);
Artificiali: sono prodotti da simulazioni
La “buona” ricerca sociale
Alcune domande fondamentali:
- Quanto sono accurate le mie rappresentazioni della realtà?
- Quanto sono generalizzabili?
- Quanto sono stabili nel tempo?
- In che misura possono essere riprodotte?
Tutte queste domande hanno a che fare con la Validità e attendibilità
Validità
Definizione: è il giudizio circa il grado di rappresentanza semantica fra il mondo reale e le
risultanze empiriche della ricerca.
Spiegazione: La rappresentanza semantica significa che c’è una corrispondenza tra mondo reale e
quello che è stato trovato.
È in grado con quale una certa procedura di traduzione di un concetto in variabile effettivamente
rileva il concetto che si intende rilevare. Spiegazione: se io ho costruito una scala di religiosità la
domanda che mi pongo: ma davvero la scala misura la religiosità?
Attendibilità
Segnala il grado con il quale una certa procedura di traduzione di un concetto in variabile produce
gli stessi risultati in prove ripetute con lo spesso strumento di rilevazione (stabilità) oppure con
strumenti equivalenti (equivalenza).
Può riguardare: il momento della somministrazione (test-retest), lo strumento (parallel forms, split-
half), coerenza interna), il rapporto giudice/osservatore/codificatore (intercoding).
Il contributo dell’approccio “qualitativo”
Alcune premesse comuni:
- Contiguità soggetto-oggetto (soggetto conoscente e oggetto conosciuto non sono separati)
- Ruolo attivo e coinvolgimento dei soggetti studiati;
- Riconoscimento di una realtà molteplice nel tempo e nello spazio
- Responsabilità del ricercatore
- Esplicitazione di criteri (anche nella raccolta e organizzazione dei dati) e punti di vista
- Rifiuto dell’aneddotismo
- Ispezionabilità della base empirica
Triangolazione
Come?
– Costruendo un insieme di casi attraverso una cluster analysis (analisi dei gruppi) e poi
entrando dentro i gruppi per vedere i casi.
– Codifica automatica dei testi tramite computer
Illustrazione 1: Rossi: Fan (Valori più alti del blu) Blu: Occassionali
Tre cluster
Illustrazione 2: Rossi: Fan Cinefili - Blu: Fan sia di Libro e Film - Verdi: Occassionali
Quattro cluster
Illustrazione 3: Rossi: Fan Delusi - Blu: Critici lettori (leggono ma criticano il film) - Verdi: Fan
Entusiasti - Viola: Spettatori di Massa
Questo è uno degli strumenti più potenti, messi a disposizione agli studiosi metodologici, si possono
costruire tipi ideali presenti e provare a prevenire atteggiamenti futuri.
Centroide
Le fotografie degli spettatori corrispondono alle linee, tuttavia i pallini sono media di determinati
cluster, questo vuol dire che qualcuno dei valori sarà più alto o più basso rispetto alla media. La
figura che si va a determinare è un centroide, una linea fatta da tanti centri in base al numero di
variabili.
Ci possono essere delle persone lontane dal giudizio (e che potrebbero in teoria stare in un altro
gruppo) e persone che sono rappresentative del caso.
Attraverso la funzione del programma “Member of each cluster and ...” , il programma calcola, in
base al caso, la distanza di ognuno rispetto al proprio centro del cluster di riferimento.
Analizzando le risposte aperte date dai più vicini a un determinato cluster, troverò affermazioni
tipiche del gruppo di riferimento.
L' Analisi delle corrispondenze lessicali
E' una tecnica che effettua una analisi computerizzata per capire il senso ultimo delle cose scritte.
L' analisi del contenuto parte da un presupposto: più una parola ricorre nel testo, più è importante.
L' analisi delle corrispondenze lessicali ha un presupposto differente: è più importante capire se le
parole sono specifiche per un determinato tipo di persone (Approccio sulle differenze: chi usa
determinate parole?).
E' necessario preparare il testo (scritto) inserendolo in una matrice “Lemmi x Testi”
Lemmi= Intende la forma canonica di una parola (quella che troviamo scritta nel dizionario).
Prendiamo tutte le parole e mettiamole in una matrice, i lemmi nei casi, e nelle variabili i testi che
analizzeremo.
Nel diagramma ci sono anche triangolini con punta in su, queste sono Variabili Attive (Variabili
per accorpare i testi) e triangolini con punta in giù queste sono Variabili Illustrative (ovvero
variabili che diventeranno tali in un secondo momento) queste sono le modalità delle variabili.
Es: Se i maschi si trovano in un quadrante con noia e tecnica, allora la maggior parte dei maschi
avranno parlato più di questi due aspetti- Più sono lontani dal centro, più sono utili.
Per ordinarli possiamo clusterizzare le parole tramite la tecnica delle “tipologie di contesti
elementari” (tecnica che fa cluster di parole prodotte dall' analisi di corrispondenze lessicali)
Clu_1 : Passaggio dal libro al film Clu_2: Piacere/Divertimento
Cos’è?
Quando parliamo di software bisogna considerare che nel tempo i software si sono evoluti. La storia
dei software risale agli anni 80.
La seconda generazione fu quella dei software costruttori di teorie basate sulla codifica (code
based theory builders) Questi software funzionavano per immagini e addirittura permettevano la
creazione di mappe concettuali.
La terza generazione e quella dei Text retriever, tex based manager Questi programmi
gestiscono in modo quali quantitativo una grande mole di dati oltre a fare tutte le operazioni delle
versioni precedenti.
A codificare i dati (codifica e post/codifica) La codifica può essere euristica o tematica (serve
semplicemente a codificare un testo per argomenti o temi) quella fattuale (è una codifica che
esprime una valutazione o un giudizio).
Possiamo integrare dati fra di loro eterogenei (integrare i materiali raccolti con fonti esterne come
link o mappe di google maps)
Come si sceglie?
Un primo criterio è quello della diffusione del programma, se un software è molto diffuso allora è
buono.
Il secondo criterio è quello che più un software è diffuso maggiori saranno le possibilità che io
possa chiedere aiuto ad altri nel momento in cui avrò difficolta di utilizzo del software.
Un successivo criterio è quello di coerenza con obiettivi e dati (ci sono software che non lavorano
bene con i video. Se avete fatto video per la vostra ricerca sicuramente scarterete questi software)
Altro criterio è quello della struttura e complessità della ricerca (ci sono software più orientati alla
conferma è altri all’esplorazione )
Parametri di un Caqdas
Bisogna osservare:
Dati tecnici (sistema operativo, lingua o prezzo) spesso questi software sono in abbonamento e in
lingua
Ergonomia (Comodità di lavoro) con questi software si lavora molte ore, è importante che siano
comodi.
Modalità di ricerca.
Creazione di diagrammi e grafici (il grafico che ci consente creare il software è un grafico
chiaro?)
Funzioni statistiche ( ci sono software che permettono di lavorare con matrici di casi per variabili)
Nasce nel 1984 in tedesco da thomas moore. SI è sempre ispirato a queste quattro vatiabili
(Visualizzazione, Integrazione, esplorazione, Serendipità – che è una caratteristica della scienza per
la quale noi troviamo cose interessanti senza cercarle Es: Scoperta della pennicillina - )
Bilancio metodologico
Velocità di manipolazione di una grande mole di dati, lasciando libero il ricercatore di esplorare
svariate questioni analitiche.
Agevolano la ricerca di gruppo. Il progetto può essere messo in rete e molti ricercatori vi possono
partecipare.
Svantaggi di utilizzo:
Alcuni programmi non sono molto diversi dai worl processer (Programmi di videoscrittura, anche
word stesso o excel)
Rischio di imporre una determinata “filosofia” di ricerca da parte dei programmatori del software.
Nel tempo è aumentata l’espressione social network nel ambito delle ricerche scientifiche.
Il momento prima del 1995 segna la vecchia social network analisys, dopo il 1995 segna la NUOVA
SOCIAL NETWORK ANALISYS
La SNA tradizionale
Nasce con Simmel nei primi ‘900 che analizzava piccoli gruppi e le cerchie in particolar modo.
Per simmel noi siamo le persone che frequentiamo. Quando frequentiamo le persone che
conosciamo tendiamo a stare con persone che sono simili a noi. (Omofilia) Quando scegliamo gli
amici scegliamo sepre persone che ci assomigliano.
Contemporaneamente, a trent’anni dalle sue ricerche, in più parti del mondo, studiosi di varia
estrazione cominciano a riprendere gli studi di simmel. Negi anni trenta succede che tre scuole si
approcciano al suo sistema
La prima scuola è quella della sociometria che si rifà all’approccio sviluppato dalla branca della
filosofia della Gestalt “forma”
La loro forma di pensiero era: quando noi abbiamo una percezione del mondo la nostra percezione è
più globale che locale, questa roba qui si riflette anche nel rapporto con gli altri. La gestalt dice che
io sto bene o sto male a seconda di quelle che sono le mie amicizie.
Questi esponenti della scuola sociometrica partono dal presupposto che il tutto è più importante
della parte.
Questi signori sono ebrei e dalla germania scapparon durante le persecuzioni naziste.
Lewin (che parla di un campo sociale che è qualcosa che ci circonda solo quando noi siamo in
relazione o in società con altri )
Heider (incomincia le sue riflessioni dall’idea di equilibrio cognitivo – una serie di forze che
lavorano per tenerci in equilibrio psicologicamente – eg si accorge che la questione non si può
limitare a ciò che avviene dentro le persone, bensì la cosa debba essere estesa ad un equilibrio
strutturale, che è quello strutturale. Per stare bene anche la società che mi circonda deve stare bene)
Moreno: (inventore del sociogramma - che è una rappresentazione grafica in cui noi teniamo conto
delle persone e delle relazioni che esistono tra le persone. Nel sociogramma le persone vengono
rappresentate da pallini che noi chiamiamo nodi. Tra questi pallini rappresentiamo le relazioni che
legano le persone.
Tra i soggetti vi si instaurano delle relazioni, che possono essere più o meno forti a seconda del
tratteggio o dello spessore.
tra stefania e franco vi è una relazione forte solo per stefania, la relazione è asimmetrica.
Se franco cerca sempre mimmo ma la loro relazione non è fortissima la linea sarà stretta ma con una
freccia a favore di mimmo.
Con un colore diverso (blu) abbiamo evidenziato invece un rapporto di lavoro tra i soggetti.
La seconda scuola:
Contemporaneamente il nostro Simmel viene studiato negli stati uniti, precisamente ad Harvard.
Qui si studiano le cricche, che sono sempre gruppi, ma isolati (es: I fan di un cantante, una banda
criminale, etc..) Alla scuola di Harvard studiano la pluriappartenenza a più gruppi o cricche)
La scuola studia i gruppi e le cerchie in modo molto quantitativo, attraverso la matematica dei grafi.
Altro argomento che interessa loro è la vità di fabbrica (In quegli anni si sviluppava la ford) Lo
studioso Elton Mayo scopre che nella fabbrica esistono relazioni formali e informali. Può anche
accadere che persone che abbiano mansioni superiori lascino i loro compiti a gente che abbia
mansioni inferiori.
George Homans negli anni quaranta mette insieme le due scuole e farà nascere la terza
scuola.
Se ha un legame: 1
Se non ha un legame: 0
Terza scuola- Università di Manchester
Proprietà strutturali della rete (come è fatta la rete nel suo complesso, in maniera macro) --->
Densità (quante linee), connettività (se tutte le persone sono connesse).
Conflitto e potere ---> Si occupano della questione fondamentale del potere e del conflitto negli
anni 30.
Negli anni 60', il sociologo Harrison White dell' Università di Harvard, riprende la tradizione della
seconda scuola e fa diventare la SNA una tecnica matematica prendendo come base la teoria dei
grafi.
Negli anni 80' (Precisamente nel 88'), viene pubblicato un manuale di Social Network Analysis
scritto da Wellman, istituzionalizzando (diventa una materia insegnata all' università) la SNA.
La social network analysis tradizionale si ferma in questi anni poiché nel 94-95 nasce la nuova
SNA.
La prospettiva di rete
Attenzione alla relazione sociale (unità di analisi della SNA sono le relazioni tra persone)
Le relazioni tra gli individui spiegano meglio degli attributi (caratteristiche), secondo la SNA io
sono io perché frequento determinate cerchie, è un approccio rivoluzionario perché si considerano
le persone non come dati anagrafici ma per le loro relazioni.
Gli individui sono influenzati da reticoli sociali e viceversa, siamo influenzati da determinate
cerchie di persona ma allo stesso tempo noi influenziamo la stessa cerchia (Influencer e Utenza).
Alcuni problemi:
• La matematica e il formalismo
Sono analisi statiche, non ci consentono di studiare la rete che cambia continuamente.
Nel 94-95:
La network analysis non è ne qualitativa ne quantitativa, quindi viene ripresa la SNA (tecnica Quali-
Quantitativa).
Questa tecnica si presta a studiare concetti di moda negli anni 90 come il capitale sociale e la
solidarietà.
A partire dal 1985, negli USA, vengono inserite delle domande sulle relazioni tra le persone del
censimento (General Social Survey).
Sociologia dei sistemi complessi: la questione è più complessa quindi c'è bisogno di grafici e
sistemi complessi (ciò che viene dall' interazione di cose semplici, ad es. le singole persone formano
con le relazioni: coppie, gruppi, parlamenti, chiese, ect.). Con la modernità abbiamo sempre più
interagito con gli altri, per questo la società è sempre più complessa).
Sociologia analitica (Coleman, Hedstom, Goldthorpe)
Una rete possiamo guardarlo sia nella sua dimensione macro (tutta la rete) o micro (gli individui
nella rete).
-Ridefinisce la SNA alla luce delle scoperte e innovazioni negli ultimi anni (es. computer potenti):
• Interdisciplinarità
• Studia l' avvento della Globalizzazione, che determina un aumento della complessità
sistematica delle reti sociali.
• Wallerstein: Usa gli strumenti della teoria della complessità per definire il sistema-mondo.
• Castells: studia l'impatto della tecnologia nella società, NTI, Network Society, solleva alcuni
problemi (Digital Divide).
Bisogna definire i confini della rete (dove comincia e dove finisce la rete, e non ci limitiamo diventa
troppo complesso definire la relazione).
Consiste nel farci dare i nomi dei nostri intervistati (a sua volta contatteremo i nomi dati)
Strategia posizionale (attributi, posizioni)
Serve per rintracciare una persona attraverso attributi (ad es. essere fan di...) e posizioni (es. tutte le
prime 100 banche al mondo).
E' una strategia a valanga, a 20 persone si chiede la relazione con altre persone in una lista.
Chiediamo se hanno partecipato a determinati eventi (o anche prodotti acquistati). Può essere utile
per costruire una strategia di Marketing.
Prendiamo tutti i confini o facciamo un campione? (Se faccio un campione ma sto considerando le
relazioni potrei costruire un campione differente dalla realtà).
Non si campiona un analisi, non risolve il problema, generalmente si prendono tutte le unità di
analisi.
Quali attributi?
Bisogna costruire tante matrici quante sono le relazioni (es. linee verde per le amicizie e linea gialla
per rapporti di colleganza).
Binaria o Pesata
Pesiamo la
relazione tra
due
individui
(es. da 0 a
100),
parliamo di
binaria
quando
Ego-rete
La matrice diventa rettangolare (il numero tra righe e di colonne non corrispondono), si utilizza per
analizzare i casi in relazione a prodotti fisici o mediali.
Es. Persone in relazione a marche di scarpe acquistate
Franco, Ciccio e Enzo sono clienti simili, quindi potrebbero essere interessati alla stessa cosa.
In alcuni casi, pur non essendo inclusa nel SNA, possiamo usare la Matrice CXV.
Con quale criterio dispongo le palline nello spazio? Se la rete è grande, come faccio a rappresentare
tuti i nodi nello schermo del computer?
E' riferito al numero dei collagamenti (link) tra i nodi, più collagamenti sono visibili, maggiore sarà
la densità.
Un sociogramma senza link avrà densità 0 mentre un sociogramma con il numero massimo di link
possibili avrà densità 1.
Quanto è lontano Antonio con Stefania? Misuriamo la distanza attraverso i numeri di link tra uno e
l'altro.
Nell' esempio Antonio con Stefania dista un link mentre Antonio con Giovanni distano 2 link.
In questo altro esempio, abbiamo due distanze tra Antonio e Stefania (una di 2 e una di 3).
La distanza che prendiamo in considerazione è quella minore che è definita Geodetica.
Misura la coesione nella rete. Se la media è bassa è molto coesa, se è alta non è molto coesa.
Sono numeri che si misurano tra 0 e 1 e sono inversamente proporzionali (se uno aumenta, l'altro
diminuisce e la loro somma darà sempre 1).
Un valore alto di compattezza sta a significare una rete compatta, se è alta la frammentazione
avremo una rete molto divisa.
Una rete di Big Data è sempre a maglia larga e il diametro della rete è uguale alla geodetica più
lunga.
Centralità e Potere
Il potere nell' analisi dei dati di rete si traduce nel concetto di centralità ovvero quando un nodo ha
un sacco di connessioni.
Il numero di connessioni che questo nodo ha (es. Ciccio ha due legami (grado = 2).
Tanto è più potente, tante più amicizie ha. Però i legami possono essere in entrata o in uscita
ovvero.
Bonacich
Con il Degree posso cercare e selezionate gli influencer a cui mandare i miei prodotti.
Avere forza e potere, significa stare in mezzo alle coppie di nodi, la potenza dipende dal fatto che,
per parlare a un’altra persona, bisogna passare da queste persone.
Centralizzazione
Rispetto agli altri, è una misura che riguarda l'intera rete e c'è n'è per ogni misura.
CTZ: Centralizzazione
Il potere.
Nell’analisi della rete il potere viene determinato come centralità del potere.
I gruppi si possono rintracciare o con un approccio bottom up o con un approccio top down.
Clique - Ogni nodo è collegato agli altri in maniera omogenea e tutti hanno legami con tutti.
All’interno della “rete c’è una rete più stretta che agisce da sottogruppo.
N - Clique - Rete in cui uno dei nodi non ha rapporti con tutti gli altri ma solo con alcuni. Anche se
qualcuno non ha legami con tutti gli altri deve comunque avere legami indiretti. Ovvero arriva agli
altri membri passando per le relazioni che già ha, tuttavia questi legami devono essere determinati.
(ES: due clique / due passaggi) per arrivare a qualunque altro membro.
N – Clan – Nell’aspetto è simile alla N clique, tuttavia nel’ N - Clan il membro esterno fa parte del
gruppo (Esempio: una comitiva di persone in cui X e Y hanno relazioni solamente indirette. E
hanno relazioni solo tramite Z quella comitiva è un N-Clan. Se X e Y hanno relazioni tramite una
persona G che però sta al di fuori della comitiva allora quello sarà u n N Clique.
Queste due variabili sono fondamentali per lo studio bottom up delle reti.
Nell’approccio top down il ricercatore va a scovare quei legami (Bridge) che se fossero tolti
creerebbero un danno enorme distruggendo la rete.
Lambda set è uno di questi algoritmi che determina una gerarchia di importanza tra i legami degli
appartenenti alla rete. Il più importante sarà posizionato in alto nella tabella e sotto ci saranno tutti
gli altri.
Fa una cluster analysis molto più rapidamente e consente di individuare delle comunità vere è
proprie sulla base di caratteristiche razionali.
Questa cosa è importante nell’analisi di rete. E’ più importante catalogare le persone nelle reti a
seconda dei ruoli sociali, tuttavia è molto difficile lavorrci.
I sociologi viene affrontano il problema dei ruoli attraverso l’equivalenza reazionale. Ovvero tutti
quelli che hanno lo stesso tipo di relazione con gli altri sono equivalenti ed avranno lo stesso ruolo.
Nella matrice di adiacenza questi ruoli vengono determinati nella somiglianza delle righe di
ciascuno. Se le righe sono uguali queste caratteristiche allora questi avranno lo stesso ruolo.
Poi abbiamo:
L’equivalenza automorfica ( Due persone sono equivalenti se hanno lo stesso numero di relazioni
con altri nodi della rete, somiglianza nella forma ma non nella sostanza in quanto le persone con cui
intratterranno relazioni non saranno le stesse.)
Equivalenza regolare: (Situazione in cui abbiamo una somiglianza perché le persone hanno lo
stesso tipo di relazione con o stesso tipo di persone) Tutti gli studenti sono equivalenti regolari
perché accomunati dalla relazione tipica con i professori.
A bloccchi: dentro la matrice si cercano dei pezzi che abbiano delle somiglianze dal punto di vista
dei numeri
Le reti egocentrate
Il problema di queste reti è che sono spesso in complete perché le informazioni che abbiamo sul
vicinato di ego le otteniamo da ego stesso, tuttavia ego potrebbe non sapere quali relazioni hanno i
suoi vicini.
Ci sono una sere di misure di base nell’analisi delle reti egocentrate che sono le stesse incontrate in
passato. (Si parla di densità, di centralità etc…)
Due nuove misure di analisi sono state prodotte in questi ultimi anni:
Buchi strutturati: Se manca un legame all’interno di una rete , si parlerà di buco strutturato. In
quanto il nodo che metterà in contatto i due punti (ego) tra cui manca la relazione avrà più potere.
Una seconda misura che viene presa si riferisce ai vincoli diadici (Una situazione in cui avrò meno
vincoli determinerà il mio maggiore potere)
Misure specifiche (cosa succede ad ego se uno dei buchi viene colmato?)
Brokeraggio: Se un tizio si trova al centro di un sentiero, può avere un ruolo di coordinatore, di
gatekeeeper , rappresentante, consulente. (Ego può coordinare una rete o può dare consigli
dall’esterno, può filtrare o comunicare informazioni dall’esterno verso l’interno o viceversa, può
rappresentare qualcuno dall’interno per comunicare a qualcuno di esterno).
Le reti bimodali
Le reti bimodali partono dalle matrici di affiliazione. Qual è la filosofia che sta dietro alle reti
bimodali? Si porova a mettere insieme micro e macro. Esistono le persone e le strutture presso il
quale interagiscono.
Si utlizza il grafo bipartito. ES: Uno schema che collega ciascun individuo ad una propria
caratteristica di appartenenza o ad un comportamento:
Sulla base di questo si vengono a creare delle reti fra gli animali che si nutrono delle stesse piante,
quindi si può costruire il gruppo degli animaletti che si cibano della stessa pianta.
Tutto ciò serve per sopperire ad una mancanza di dati. Se non conosco le persone costruisco le
relazioni tra le persone in base a quello che le persone consumano.
Cosa si fa sulle reti bimodali? Si distinguono chiaramente le reti delle piante e degli animali e si
definiscono delle reti a parte.
Densità e centralità sono espresse come tasso di partecipazione (Matrice degli attori) e dimensione
dell’evento (matrice degli eventi).
Se ciccio e franco sono appassionati di modellismo e comprano trenini. Ciccio e franco non si
conoscono ma li metto dentro la stessa rete perché comprano sempre trenini.
Allo stesso modo posso costruire una rete di quanti hanno comprato uno specifico modello di
trenino rispetto ad un altro.
Partiamo da una costatazione dicendo che la rete è composta da un numero enorme di nodi, la
conseguenza di questa quantità di nodi è la complessità solamente apparente della rete.
Queste reti complesse si trovano ovunque, cioè la complessità che si viene a creare dai nodi può
dare forme simili tra i nodi.
Le reti complesse hanno una struttura particolare, nonché un' invarianza di scala.
• Clustering coefficient (quanto gli amici di ego sono amici tra loro?)
Si calcola perché ci permette di capire se la rete è complessa o no e deve essere dentro un certo
range.
• Assortività = C'è un mettersi insieme delle persone simili che hanno le stesse
caratteristiche / Disassortitivà = Non stanno necessariamente insieme(omofilia).
• Struttura comunitaria (Componenti).
Queste tre caratteristiche devono essere tenute in considerazione proprio per capire se la rete è
complessa oppure no.
1. Invarianza di scala
2. Struttura small-world
Invarianza di scale
• Il diametro di una rete sociale è ridotto (Milgram) => Six degree of seperation
• Non è il numero dei nodi a creare complessità, ma il modo in cui sono connessi (casualità,
clustering, weak ties).
1
Tendenze più recenti
Successivamente vengono usati i nuovi approcci che sono la Linguistic Turn, che ha rivolto
l'attenzione alle sociologie interpretative e alla costruzione sociale della realtà.
Es: Interazionismo simbolico, approccio drammaturgico, etnometodologia, strutturalismo... ecc
Capitolo 2
i percorsi della ricerca sociale
La ricerca può essere descrittiva/esplicativa oppure esplorativa/confermativa.
-Ricerca descrittiva: Come si presenta un certo fenomeno? Serviranno per questo tipo di ricerca
dei dati che fotografano il fenomeno.
- ricerca esplicativa: Perché un fenomeno si presenta in un certo modo? In questo caso si
dovranno individuare le cause che hanno prodotto il fenomeno osservato.
Ricerca esplorativa: Affronta il percorso di ricerca come un esploratore che cerca di conoscere una
realtà ignota (ricerca qualitativa).
- ricerca confermativa: Il ricercatore parte da una serie di ipotesi e da qui dovrà trovare le prove
che confermano tali ipotesi (carattere quantitativo).
2
Organizzazione dei dati (framing)
Vuol dire trasformare i dati empirici raccolti, in modo da dare delle risposte alle domande
conoscitive del ricercatore. L'organizzazione dei dati può essere fatta tramite la post codifica e
tramite la matrice casi per variabili.
Capitolo 3
Il campionamento
Il campionamento consiste nel selezionare alcune unità di analisi della popolazione. Si campiona
per risparmiare sia denaro che tempo, tuttavia uno svantaggio del campionamento consiste nel
suo errore, dovuto al fatto che le unità prese in analisi non saranno mai come l'intera popolazione,
ci sarà sempre uno scarto. La formula dell'errore di campionamento è:Y=Y^+-E Dove Y
rappresenta la popolazione e Y^ rappresenta il campione.
Distinguiamo tra campioni probabilistici e campioni non probabilistici.
Campioni probabilistici: Fanno riferimento alla teoria matematica della probabilità, in quanto tutte
le unità di analisi della popolazione hanno la stessa probabilità di essere estratte
n=Z^2(Pq)xN/E^2(N-1)+Z^2(Pq)
Vi sono diversi tipi di campioni probabilistici:
- campione stratificato: Che consiste nel suddividere le unita prese in analisi in proporzione ad
alcune variabili note.
- campione sistematico: Le persone vengono selezionati a caso e si comunica estraendo
casualmente un individuo dalla lista della popolazione e poi si selezionano gli altri fino a quando
non si raggiunge il totale previsto di unita prese in analisi.
Campioni non probabilistici: Campioni eterogenei ambiscono ad una rappresentatività
tipologica.
Vi sono vari tipi di campioni non probabilistici come:
- campione a valanga
- campione a scelta ragionata
- campione di convenienza
- campione per quote
Capitolo 4
L'intervista
Con il termine intervista si intendono quei modi per raccogliere dei dati.
Possiamo definirla come una forma di conversazione nella quale due persone parlano, di cui una
fa delle domande (intervistatore) e una che risponde (intervistato).
Tipi di intervista
Un primo criterio che bisogna analizzare riguarda come sono organizzate le domande,
3
esse possono riguardare:
- intervista strutturata: Presenta delle domande standardizzate da porre nello stesso ordine a tutti
gli intervistati, ed essi possono rispondere liberamente.
- intervista semistrutturata: non ci sono delle domande fisse ma una sorta di scaletta.
- intervista non strutturata: parte da un tema da approfondire.
Un secondo criterio riguarda lo stile dell'intervistatore e sono:
- intervista direttiva: L'intervistatore segue una lista di domande e ignora le reazioni dell'intervistato.
- intervista non direttiva: Le domande seguono le risposte dell'intervistato.
- intervista semidirettiva: Si ha una parte uguale per tutti gli intervistati e una parte dove si seguono
le esigenze dell'intervistato.
Un terzo criterio di classificazione riguardano il tipo di domanda e di risposte che possono essere
standardizzate o non.
Capitolo 5
Focus group
Il focus group è una tecnica di rilevazione che ricorre a procedure non standardizzate, basata su
discussioni apparentemente informali di gruppi di persone estranee fra loro, con la presenza di un
moderatore e un osservatore.
Il Focus group ha avuto successo nella ricerca sociale, e in tanti altri ambiti perché presenta
numerosi vantaggi:
- economicità
- rapidità: Si possono intervistare più persone contemporaneamente
- flessibilità: Gli strumenti utilizzati possono essere cambiati
- alta densità di informazione: Vengono prese in considerazione non solo le risposte ma anche le
dinamiche di gruppo che si vengono a creare
- alta tollerabilità: Viene considerato poco intrusivo
4
La pianificazione del focus group
Pianificare un focus group significa scegliere il numero e la composizione dei gruppi, il luogo, i
partecipanti.
I gruppi sono composti all'incirca da 8 persone che non si conoscono tra loro. La durata varia dalle
3 o 4 focus group con le stesse persone. Il luogo deve essere neutrale così da mettere tutti i
partecipanti a loro agio, vengono sistemati in cerchio in quanto indica simbolicamente che tutti i
partecipanti sono uguali.
Il moderatore e L'osservatore
Il compito principale del moderatore è quello di gestire l'interazione tra il gruppo.
Inizialmente il moderatore ha il compito di facilitare il warm up cioè la fase di riscaldamento,
intrattenere gli ospiti e fare in modo che socializzano tra loro.
Il compito del osservatore è quello di stare attento ai contenuti e come essi emergono durante la
discussione, prendendo appunti.
Strumenti di rilevazione
Lo strumento che molto spesso viene utilizzato è la traccia. La traccia è formata da poche
domande e non hanno un ordine preciso. Si distinguono 5 tipi di domande:
- domanda di apertura: Permettono la creazione del gruppo.
- domanda di introduzione: Portano il partecipante a riflettere sulla discussione.
- domanda di transazione: Si passa da un tema all'altro
- domanda chiave: Si riferiscono i temi centrali della discussione.
- domanda finale: Portano alla chiusura della discussione.
5
abbreviazioni utilizzate, si procede poi alla presentazione dei risultati indicando il peso di ogni tema
e successivamente l'analista assocerà i pesi dei vari temi con le risposte più significative.
Capitolo 6
Etnografia è osservazione
L’osservazione è una delle tecniche di raccolta dati più antica, risale alle ricerche etnografiche che
andavano di moda in epoca coloniale sotto l'influenza del positivismo.
Capitolo 7
Inchiesta campionaria
L’inchiesta campionaria rappresenta la ricerca quantitativa, è una tecnica di rilevazione basata sul
questionario che fa riferimento a campioni di tipo probabilistico e si propone di spiegare fenomeni e
problemi sociali.
6
Le più importanti sono:
- desiderabilità sociale: Quel fenomeno per cui le persone intervistate, finiscono per dare delle
risposte socialmente desiderabili ma alle quali non credono veramente. Per questo è stata fatta
una scala di desiderabilità sociale che permette di capire se nel corso del colloquio una persona ha
indossato una maschera sociale.
- l’aquiescenza: Tendenza di dichiararsi d'accordo con le affermazioni contenute nelle domande.
- le pseudo opinioni: Il risultato della mancanza di opinione dell'intervistato.
Per capire meglio come funziona il meccanismo risposta domanda sono stati elaborati 4 modelli di
cui tre di matrice cognitiva ed una di linguistica.
: Sostiene che nel rispondere l'intervistato osservi una sequenza
fissa di paesaggi che producono la comprensione della domanda, il recupero dell'informazione e
infine la modalità della risposta. Questa strategia viene definita ottimizzante.
: Sostiene che accanto alla strategia ottimizzante l'intervistato può
utilizzare una strategia satisficing cioè accontentare le pretese dell'intervistatore.
: Gli intervistati rispondono in base alle prime cose
che gli passano per la mente
: L'intervistato parla sinceramente (si annulla il contesto di
intervista).
Il questionario
Il questionario è costituito da un insieme di domande standardizzate dette item.
Per costruire un questionario è necessario tenere conto di quattro presupposti:
- conoscere il fenomeno studiato
- operativizzare in modo valido e affidabile i concetti di ricerca
- avere esperienza nel campo
- conoscere bene la popolazione che si sta studiando.
Il questionario di solito è composto da tre parti:
1) parte di presentazione (cover Letter): presenta la ricerca e cerca di motivare gli intervistati a
cooperare.
2) istituzioni: Contengono tutte le regole che gli intervistati devono seguire per rispondere.
3) corpo principale: Comprende le domande vere e proprie.
Una regola nella costruzione del questionario è quello di essere chiari e semplici nella struttura
delle domande da sottoporre. Queste ultime possono essere aperte o chiuse. Nel secondo caso
sono più frequenti e ne esistono di vari tipi:
- scelta fra categorie semantiche autonome
- check list
- categoria ordinate
- ordinamento di preferenze personali
- differenziali semantici
- conteggio o misurazione
Prima di somministrare un questionario bisogna fare un pre-test, l'esito di ciò può portare
l'intervistatore a modificare uno degli elementi che sopra abbiamo descritto.
Infine si somministrano i test e ciò può venire in diversi modi: dal vivo, per telefono, per posta, per
computer ecc...
Essi possono essere somministrati o in circostanze singole (studio trasversale) o più volte nel
tempo (studio longitudinale).
7
generale. Le scale adattive di Linkert si svolgono in quattro passi:
1) la definizione degli item che si pensano adatti a misurare il concetto
2) la somministrazione tramite questionari
3) controllo della coerenza
4) controllo di validità e unidimensionalità
La parte più importante per stabilire se una scala funzione oppure no, è il calcolo dell’alfa di
Cronbach, che misura la coerenza interna della scala. Il controllo può essere effettuato facendo
uso della tecnica split half che consiste nel dividere gli item della scala in due gruppi per vedere
se il punteggio del primo è correlato con il secondo.
L'Alfa di Cronbach viene calcolata attraverso la seguente formula:
L'Alfa varia da 0 a 1. Più è grande, più le scale sono coerenti e attendibili, se risulta negativa vi è
qualche problema nell'orientamento delle categorie di risposta di alcuni item.
Capitolo 8
analisi dei dati
Il compito principale dell'analisi dei dati è quello di trovare delle strutture dotate di senso del
materiale raccolto. Essa può essere effettuata rispetto ai seguenti oggetti:
1)l'analisi dei casi. Che si divide in:
-case study: Studio dettagliato di un oggetto o di un fenomeno che viene considerato esemplare.
-analisi comparativa: Si mettono a confronto alcuni casi individuando delle caratteristiche comuni
evidenziando somiglianze eh differenze.
- l'analisi dei gruppi o Cluster analysis: Tipo di analisi quantitativa, dove al suo interno abbiamo le
tecniche gerarchiche, tecniche iterative o , tecniche sulla densità locale e le reti neutrali.
2) analisi delle variabili. Implica l'uso della statistica e si possono distinguere tre tipi di variabili:
- MONOVARIATA: Si occupa della variabili prese singolarmente e ha scopi descrittivi. La forma più
semplice di queste variabili è la rappresentazione tabellare, in cui il ricercatore individua le varie
modalità di risposta e per ciascuna conta le frequenze.
- BIVARIATA: Si occupa delle variabili prese a due a due e ha uno scopo esplicativo. Attraverso
questa analisi si possono controllare le ipotesi. Uno strumento utilizzato è la tabella di contingenza,
che rappresenta il modo in cui una variabile si distribuisce nelle diverse modalità di un'altra.
-MULTIVARIATA: Considera più di due variabili contemporaneamente e ha scopi sia descrittivi che
esplicativi, esplorativi o confermativi.
3) l'analisi dei dati relazionali. È affidata alla network analysis. Si basa su una matrice detta
matrice di adiacenza o sociomatrice. La presenza di due membri nella tabella indica l'esistenza di
rapporti biunivoci in cui si possono rintracciare iniziatore e destinatario della relazione, serve infatti
per descrivere posizioni e ruoli sociali.
4) analisi delle parole. Possiamo trovarle:
-Nella domanda nella risposta aperta. Vengono sottoposte ad una codifica per due ragioni:
1) riassumere a chiarire il significato delle parole
2) consentire un successivo trattamento statistico
Ultimamente molti ricercatori si sono rivolti all’analisi delle corrispondenze lessicali (ACL).
Quest'analisi afferma che le parole da sole non hanno alcun senso, ma lo acquisiscono solo se
associate ad altre. Essa persegue due obiettivi: Creare delle regolarità dei dati e individuare poche
dimensioni di senso che possono spiegare tali irregolarità tramite tecniche di tipo fattoriale.
- nelle interviste è nei focus group attraverso l'analisi quantitativa e qualitativa.
L'analisi delle parole viene fatta tramite l'analisi del contenuto, è una tecnica che si basa su
procedure di scomposizione dei testi in elementi più semplici.
Le tecniche di analisi del contenuto sono tre:
1) analisi della frequenza. Ha 3 scopi fondamentali:
8
- rapida esplorazione del testo
- affinamento delle parole del testo
- misurazione di una fonte
2) analisi co-occorrenze.
Serve a capire se due parole vengono regolarmente associate all'interno del testo preso in esame.
L’indice più diffuso di associazione è il coefficiente del coseno che si calcola:
c(x,y)=f(x,y)/√f(x)x√f(y)
3) analisi degli asserti valutativi.
È basata sull'analisi delle frasi contenute nei testi, serve a capire come vengono valutati
determinati oggetti nel discorso. Per effettuare questo tipo di analisi, il ricercatore si affida ai
differenziali semantici.
Capitolo 2
Intervista strutturata
Uno degli strumenti quali-quantitativi più importanti è l'intervista strutturata, rivolta ad un elevato
9
numero di soggetti scelti sulla base di un campionamento, che segue una traccia rigida e
standardizzata, in cui al suo interno troviamo la dicotomia tra espressioni (riguardanti le domande
a risposta aperta) e reazioni (riguardanti le domande risposta chiusa). Ed è proprio per questo
motivo che viene definito uno strumento quali-quantitativo. La presenza di domande sia aperte che
chiuse rappresenta un'opportunità per il ricercatore che intende triangolare dati e tecniche, sia di
tipo quantitativo che qualitativo. Affinché la triangolazione sia possibile è necessario adottare una
delle seguenti soluzioni:
1) includere nello schema di intervista a domande che prevedono risposte sia aperte che
chiuse. Lo svantaggio di questa soluzione è che l'intervistato troverà noioso rispondere a due
modi diversi ad una stessa domanda.
2) effettuare una post codifica delle risposte aperte allo scopo di ottenere variabili
analizzabili. Questa soluzione però comporta un lavoro lungo e faticoso da parte del ricercatore.
3) analizzare il testo delle risposte aperte per individuare i temi principali.
4) identificare attraverso l'analisi delle domande a risposta chiusa degli idealtipi di
rispondente e approfondirli successivamente con l'analisi delle domande a risposte aperte.
Per quanto riguarda le diverse tecniche quantitative di classificazione, la tecnica migliore usata è la
Cluster analysis, il quale obiettivo è quello di ordinare i casi in gruppi, in modo tale che vi sia una
sorta di omogeneità fra i membri di uno stesso gruppo e un eterogeneità tra i membri di gruppi
diversi. Tra i vari tipi di Cluster analysis troviamo: clustering gerarchiche, delle partizioni ripetute ed
iterative (es: Metodo delle K medie) basato sulla densità locale. Quella che più si utilizza è quella
del k - medie, tale procedura prevede che il ricercatore preveda a priori il numero dei cluster,
assegna poi ciascun caso a un gruppo. A questo punto i casi vengono spostati da un gruppo
all'altro fino a quando non verrà raggiunta l'omogeneità al loro interno e l'eterogeneità al loro
esterno.
La rappresentazione grafica ci permette di identificare 4 tipi differenti di spettatori:
- critico lettore: (colui che registra un valore basso su tutti i campi tranne sulla lettura del libro)
- fan deluso: (colui che registra valori alti in tutte le variabili tranne sul giudizio complessivo)
- fan entusiasta: (colui che registra valori alti in tutte le variabili)
- spettatore di massa: (colui che non ha letto il libro ma ha guardato il film).
Un altro modo per analizzare le domande a risposta aperta è attraverso l'analisi delle
corrispondenze lessicali, ACL. Questa è una tecnica di tipo esplorativo, la sua utilità sta nel fatto
che consente di ottenere una prima sintesi dell'informazione contenuta nei dati senza dover
effettuare nessun intervento di codifica intermedia. L'approccio dell’ ACL è basato sulle differenze
in quanto il significato di una parola riguarda le relazioni che essa ha con le altre.
Per effettuare l’ACL, i dati testuali vengono organizzati in una matrice lemmi x testi. Per lemma si
intende la forma canonica di una parola. Tali analisi producono uno o più grafici, dove gli oggetti
più significativi sono quelli più lontani dall'origine degli assi. Da un'analisi approfondita della
matrice lemmi per testi si può ottenere un'altra tabella che rappresenta i fattori, ossia i significati
nascosti all'interno dei testi, e la loro forza all'interno del testo, ossia l'autovalore. La somma di tutti
gli autovalori prende il nome di inerzia.
Capitolo 3
Il focus group è l'analisi di rete
Il focus group è l'analisi di rete sono due tecniche di ricerca sociale oggi fondamentali per
l'operatore sociale e il manager dei servizi sociali.
A riguardo, le tecniche sociometriche, dalle quali si è sviluppata la social network analysis, sono
nate al fine di rilevare studiare le relazioni interpersonali esistenti in un gruppo.
Innanzitutto la Sna è una tecnica concepita per le relazioni, dunque Come posso applicarla al
focus group dove invece dominano le interazioni? Dal punto di vista metodologico per studiare le
10
relazioni bisogna partire dalle interazioni poichè una relazione non è altro che un insieme di
interazioni.
Secondo Nedelmann l'interazione sociale può essere definita come un processo di durata più o
meno lunga, tra due o più attori che orientano il proprio agire l'uno verso l'altro, lo svolgimento di
tale agire produce effetti di associazione che corrispondono alle relazioni che possono essere di
affetto, amicizia, ecc.. Per far ciò è necessario raccogliere un nuovo tipo di dati, chiamate
relazionali, tuttavia la raccolta e l'organizzazione dei dati del focus group è un'operazione tutt'altro
che semplice. Per tale ragione durante l'effettuazione di un focus group, il moderatore dovrebbe
essere affiancato da almeno un'altra persona che lo aiuti ad annotare le informazioni principali che
emergono nel corso del dibattito: l’osservatore, dove ne possono essere più di uno, e possono
essere palesi o dissimulati.
Sono tre i tipi di dati da registrare: I legami, gli attributi dei legami e gli attributi dei soggetti.
Lo strumento più pratico per la raccolta dei dati relazionali è la cosiddetta sociomatrice, in cui
vengono aggiunte tutte le informazioni sui partecipanti, rappresentandole successivamente grazie
al sociogramma. Dal sociogramma dovrebbero risultare evidenti alcune caratteristiche essenziali
del gruppo, cioè:
- la sua omogeneità, ovvero la suddivisione in sottogruppi:
Nella ricerca di tali sottogruppi si possono seguire due approcci:
- un approccio bottom up che sottolinea come il magro possa emergere dal micro.
- un approccio top-down che invece guarda la struttura per evidenziare al suo interno aree
più dense o al contrario buchi.
- la presenza di individui isolati: Fra i compiti della Sna vi è quello di scoprire gli individui isolati
di una rete. Se un sistema presenta una bassa densità di relazioni, in esso ci sarà poco potere,
mentre invece se presenta un’alta densità di relazioni ve ne sarà molto. Ma ciò che interessa è
capire come il potere si distribuisca.
- le posizioni di centralità all'interno del gruppo
- le equivalenze strutturali dei nodi
A partire da Bavelas la sna misura il potere tramite la centralità, considerando tre indicatori
fondamentali:
- il grado: Connessioni in entrata o in uscita che si riferiscono a un particolare nodo
- la vicinanza: Misura quanto facilmente un attore sia raggiungibile o posso raggiungere gli altri
- l'Intermedietà misura quanto gli altri attori dipendono da un certo modo per stabilire delle
relazioni.
Capitolo 5
L'analisi qualitativa computer assistita
I software per l'analisi qualitativa dei dati prendono il nome di CAQDAS, e servono ad organizzare
l'enorme mole di informazioni che caratterizza il materiale di tipo qualitativo. Tale analisi Interpreta
i dati attraverso l'identificazione e la possibile codifica dei temi al fine di costruire ipotesi o teorie. I
CAQDAS si distinguono in programmi per la
-ricerca descrittivo interpretativa: categorizzazione eh codifica del Corpus testuale
-ricerca orientata alla teoria: Ispirate alla grounded Theory.
Una classificazione più recente distingue i CAQDAS in:
- programmi di codifica il recupero delle informazioni
- programmi per la costruzione delle teorie basate sulla codifica
- programmi per la ricerca e la gestione di testi
Le principali funzioni svolte dai CAQDAS sono:
- registrazione/archiviazione: La registrazione è una funzione accessoria, mentre la seconda
11
riguarda la capacità di organizzare efficacemente il materiale raccolto.
- codifica: Isolare frammenti di materiale empirico attribuendogli un etichetta di riconoscimento.
- recupero e collegamenti: Il sistema di codifica consente il recupero efficiente dell'informazione, di
conseguenza si possono effettuare ricerche sistematiche in forma di navigazione ipertestuale su
materiale di ogni tipo.
- analisi: L'insieme dei testi recuperati può essere sottoposto a vari tipi di analisi. Analizzare
differenze, somiglianze e relazioni tra i diversi segmenti recuperati.
- integrazione:
-integrazione interna: Ovvero assistere il ricercatore nello sviluppo di categorizzazioni,
tipologie e proposizioni teoriche con la possibilità di collegarle insieme per elaborare una teoria.
-integrazione esterna: Ovvero stabilire un collegamento con il materiale non direttamente
raccolto dal ricercatore, ma utile per comprendere meglio il fenomeno oggetto di studio.
I criteri per scegliere un CAQDAS:
1) un primo criterio per scegliere un programma adatto alle proprie esigenze, è quello della
diffusione. Infatti i programmi più noti sono quelli che gli analisti hanno apprezzato di più. I
CAQDAS più diffusi sono: Atlas.ti , N6 e Hyper Research.
2)Il secondo criterio di scelta deve tener conto delle proprietà del programma uniti agli scopi del
ricercatore.
3) il terzo criterio invece deve tenere conto della struttura della complessità della ricerca.
Inoltre nella scelta di un CAQDAS vanno considerati: Dati tecnici, formato dei dati accettati,
l'ergonomia, performance, la possibilità di inserire dati multimediali, tipi di codifica, unità di ricerca
testuale, funzioni statistiche.
Atlas.ti è uno dei programmi più diffusi e completi per l'analisi dei dati qualitativi. Tale programma
si basa su quattro principi: visualizzazione, integrazione, serendipity, esplorazione. E’ stato pensato
per un contatto diretto con i testi attraverso letture ripetute e un confronto interno tra i passi
codificati del ricercatore.
Atlas.it opera su diversi livelli di analisi, ovvero: Documenti primari, citazioni, annotazioni, famiglie,
reti semantiche.
Tutti i CAQDAS, sono costruiti per il recupero selettivo delle informazioni contenute nei documenti
raccolti a seguito di una codifica sistematica.
Una particolare caratteristica di atlas.it consiste nel controllo della attendibilità delle codifiche: Il
sistema controlla infatti che sia stata la stessa persona o meno a porre le codifiche in quanto il
sistema permette di associare il nome dell'autore, la data e l'ora della creazione di ciascun autore,
quindi si possono verificare anche le modifiche che possono venire fatte da diversi autori nel caso
di un lavoro di gruppo. In generale I CAQDAS favoriscono la triangolazione tra ricercatori allo
scopo di integrare i propri sistemi di codifica, integrali e fonderli.
12
quell'equilibrio che si crea tra me e gli altri ovvero l'equilibrio strutturale (le persone sono quelle che
sono in base ai rapporti che hanno con gli altri).
Moreno. Inventa uno strumento chiamato sociogramma, che mostra le relazioni delle persone. Con
questo strumento riuscì ad aprire una riflessione sulle strutture sociometriche venute fuori dalle
molteplici relazioni che un individuo presenta.
La seconda è la . Composta da sociologi e antropologi che fanno parte
della scuola funzionalista. I maggiori esponenti sono Warner e Mayo, che intrapresero una serie di
studi empirici sulla vita di fabbrica e di comunità. Essi focalizzarono la loro attenzione sulla
struttura dei sottogruppi che vi si trovano all'interno, intraprendendo l'analisi dei gruppi isolati e
delle “chicche” che si sovrappongono l'una con l'altra (l'insieme di più gruppi di cui un individuo fa
parte contemporaneamente).
Alla fine degli anni 40 Homans, tenta di unire gli studi fatti da Moreno a quelle della scuola di
Harvard in quanto la sociologia di Moreno forniva una buona base metodologica e a questa
Homans introdusse la tecnica della riorganizzazione matriciale dei dati relazionali.......
La terza è la . Composta da antropologi tra cui
Gluckman, Barnes, Bott and Mitchell, interessati a vedere come è strutturata una rete sociale nel
suo complesso. Svilupparono un approccio strutturale per poter esaminare le dimensioni del
conflitto e del potere all'interno delle strutture sociali.
In seguito intorno agli anni 80, l'eredità della scuola di Harvard passò alla scuola di Toronto,
guidata da Wellman, che iniziò un processo di istituzionalizzazione e sistematizzazione della sna.
Wellman ha riassunto le conoscenze teoriche acquisite fino a quel momento e ha cercato di dare
un'identità ad un movimento ancora troppo frammentato ed eterogeneo.
13
di persone da andare ad intercettare e così via.
5) strategia basata su Eventi. Si selezionano persone che hanno condiviso un certo evento.
Dopodiché bisognerà stabilire quante unità d'analisi considerare, se l'intera popolazione,
effettuando quindi un censimento o se solo una parte approntando un campionamento.
Centralità
Il concetto di centralità è uno dei più importanti nell'ambito della Sna.
14
Molto spesso le persone che occupano le posizioni centrali sono coloro che risultano essere le più
attiva e che possono quindi facilmente influenzare le dinamiche interne della rete.
Le misure di centralità più diffuse sono:
(il grado): La centralità cresce con il crescere dei legami. Il grado di un nodo è dato dalla
somma dei legami in cui esso è presente. Inoltre si distingue:
In-degree: Si riferisce al numero di legami provenienti da altri membri della rete verso un nodo
specifico.
Out-degree: Si riferisce al numero di legami che hanno origine in un modo e sono diretti verso
altri membri della rete.
(vicinanza ): Misura quanto ruolo risulta vicino a tutti gli altri nodi della rete. Vicini
sono quei nodi che hanno meno intermediari, quindi viene indicata la strada migliore che unisce
due punti ossia la geodetica. Anche per la closeness abbiamo:
In-closeness: Facilità con cui un nodo è raggiungibile dagli altri
Out-closeness: Facilità con cui un nodo raggiunge gli altri.
: L'idea è che un nodo che fa da intermediario tra altri due, ha una posizione di
vantaggio rispetto agli altri in quanto la capacità di intermediazione permette di controllare lo
scambio di informazioni.
Sottogruppi
All'interno di un sistema reticolare si vengono a creare dei sottogruppi. Di maggiore rilevanza sono
i sottogruppi coesi, ossia composti da un insieme di nodi connessi tra loro in maniera diretta.
Esistono fondamentalmente due approcci allo studio dei sottogruppi:
- approccio bottom up: Esso si occupa di rintracciare all'interno di un reticolo :
clique: Ossia composta da nodi collegati in maniera diretta l'uno con l'altro
N-clique: Ossia composte da nodi collegati in maniera diretta o indiretta attraverso un
intermediario.
N-clan: Ossia composte da nodi collegati in modo diretto o indiretto attraverso un
intermediario E quest'ultimo deve appartenere al gruppo.
- approccio top down: Esso si occupa di definire la lamdba set, una sorta di graduatoria dei legami
più importanti della rete, senza i quali sarebbe compromessa in modo rilevante la sua struttura
originaria.
15
attaccamento preferenziale (preferential attachment): Più una pagina web è cliccata più sarà
visitata in futuro, ciò ha portato alla regola secondo il quale quando un individuo deve stabilire con
chi instaurare un legame lo farà con il nodo vicino che ha il maggior numero di legami. Ciò produce
reti di piccolo Mondo di tipo aristocratico.
16
lOMoARcPSD|3524121
che viene data dai positivisti alla questione ontologica “la realtà
esiste?”) I positivisti dicono che la realtà è conoscibile oggettivamente,
Durkeim in un suo libro dice che dobbiamo considerare i fatti sociali
come oggetti, dice questa cosa perché non ci occupiamo più di soggetti
ma di cose e quindi per lui non c’è più il problema che il soggetto
conoscente e l’oggetto conosciuto sono la stessa cosa, e così è possibile
conoscere la realtà in modo oggettivo; (Questione Epistemologica e
risponde alla seconda domanda). I positivisti usano il metodo scientifico
per conoscere la realtà, questo metodo è basato sulle procedure
induttive, cioè io guardo la realtà e cerco delle regolarità, cioè cose che
accadono sempre allo stesso modo e così io posso formulare delle leggi,
queste leggi prendono il nome di LEGGE DETERMINISTICA (Legge
deterministica significa che le cose accadono sempre allo stesso modo,
quindi se accade “A” sicuramente accadrà “B”); (Questione
Metodologica e risponde alla terza domanda).
- IL NEO E POST-POSITIVISMO (Secondo paradigma): Un esempio di
quadro per il secondo paradigma è “Notte Stellata” dipinto da Van
Gogh. In questo quadro noi vediamo le stesse cose del quadro di Corot
descritto precedentemente, ma in realtà è diverso perché cambiano le
luci, i colori ecc, cioè è diverso il modo in cui gli stessi elementi ci
vengono mostrati. Qui la realtà esiste però non riusciamo a vederla
bene, perché è offuscata, questo punto di vista di Van Gogh viene
definito REALISMO CRITICO, perché la realtà c’è ma non riusciamo a
vederla in modo chiaro (Questione Ontologica “la realtà esiste?”), qui
iniziano i problemi perché si la realtà c’è ma può indurci in errore per la
limitazione dei nostri sensi, quindi la realtà si può conoscere ma con un
certo margine d’errore, perché ad esempio i nostri occhi e la nostra
mente possono vedere cose che non esistono come un incendio nel
quadro di Van Gogh. Qui soggetto conoscente e oggetto conosciuto non
sono del tutto separati, perché come ha fatto Van Gogh con il suo
quadro che è sia la notte stellata che lui stesso, anche gli scienziati
entrano nell’oggetto che stanno conoscendo, quindi a questo punto sul
mondo possiamo formulare soltanto congetture, in particolare gli
scienziati devono formulare congetture falsificabili; Questo concetto di
falsificabilità è di Popper e può voler dire due cose:
- Vuol dire che una congettura arrivando ad un certo punto si dimostra
falsa;
- Vuol dire anche che una teoria scientifica deve essere costruita in modo
tale di essere falsificata;
Falsificabile vuol dire che qualcuno dice “si funziona”, ‘’no, non funziona” e se
non funziona si annulla e non come diceva Max che se non funziona si
aggiusta per adattarla al presente (Questa è la risposta alla questione
epistemologica). A questo punto dobbiamo capire come conoscere questa
realtà opaca, qui le scienze esatte hanno avuto un cambio di paradigma, cioè
la realtà è conoscibile per pezzi, ciò vuol dire affidarsi al linguaggio delle
variabili, non potendo conoscere la realtà direttamente, si deve ricorrere ad
un percorso tortuoso, mettendo assieme dei “pezzi” di conoscenza per
comprendere tutta la realtà, questi pezzi sono le proprietà e gli attributi della
realtà da conoscere (Questa è la risposta alla questione metodologica).
- COSTRUTTIVISMO (Terzo paradigma): Un esempio di quadro per il
terzo paradigma è “suprematismo” di Malevic, questo è un quadro
astratto ed è quindi difficile spiegare cosa c’è raffigurato, qui ognuno
ci vede quello che vuole. Qui la realtà c’è ma è una costruzione
sociale, cioè quello che ognuno vede è una realtà che si vede dopo
esserci messi d’accordo su quello che si vede, per questo motivo si
aprono possibilità di conflitto fra gruppi sociali diversi che
interpretano in modo diverso la realtà. I costruttivisti dicono che la
realtà non esiste in modo oggettivo ma va interpretata e va dato un
nome. (Questa è la risposta alla questione ontologica). Quindi se ci
sono realtà diverse è possibile conoscerle? Nel piano epistemologico
soggetto conoscente e oggetto conosciuto si conoscono, si
confrontano e questo viene ammesso nel processo di conoscenza, la
conoscenza deve fare i conti con i valori del ricercatore, il quale deve
perseguire la valutatività, cioè deve limitarsi a chiarire il significato
dei valori che ispirano le scelte sociali, quindi è necessario che il
ricercatore si spogli del proprio etnocentrismo visto che quest’ultimo
può influenzare l’interpretazione della realtà, in poche parole non
dare per scontata la realtà ma scoprirla e interpretarla ogni volta.
(Questa è la risposta al piano epistemologico). Weber, Rickert e
Windelband nel dibattito sul metodo che li impegnò contro il
positivismo, alla fine dell’800 (METHODENSTREIT) si reserò conto
che era necessario individuare un nuovo metodo scientifico che
poteva tener conto della specificità delle scienze sociali, superando
così definitivamente l’approccio positivista. Per Weber, in
particolare, il metodo delle scienze sociali si deve basare sul
“VERSTEHEN”, cioè sulla comprensione razionale dell’agire
individuale, orientato dal significato che gli viene attribuito dagli
attori sociali. Il sociologo così dovrà comprendere l’individuo che
agisce, spiegando razionalmente perché l’individuo ha agito in un
Le sociologie interpretative:
significato delle cose che ci stanno a torno è contrastato con gli altri, cioè è perché
stiamo insieme a gli altri che capiamo le cose che ci stanno a torno. Interazionismo
simbolico significa che io vedo qualcosa e gli altri mi aiutano a capire il significato,
cioè mi guardo attorno e cerco di capire come comportarmi. Quindi noi diamo senso
ciascuno di noi indossa delle maschere rispetto alla situazione che abbiamo davanti.
metodologia invece significa metodi da usare a chi appartiene a dei gruppi per
comprendere la realtà.
Un ulteriore tentativo, derivato dagli studi sul linguaggio, di fare degli studi
anni 70 l’idea di essere dominati da strutture non va più bene e quindi si fa avanti il
novità di quegli anni è anche il REALISMO, cioè i meccanismi nascosti. I realisti sono
coloro che hanno rinunciato a qualcosa e ragionano con i piedi per terra, appunto
sono più realistici. Negli ultimi anni una serie di scienziati hanno provato a costruire
CAPITOLO: 2
I PERCORSIDELLA RICERCA SOCIALE:
Il primo modo si basa su due grandi categorie di ricerca:
- La ricerca descrittiva;
- La ricerca esplicativa;
La differenza tra la ricerca descrittiva e la ricerca esplicativa sta nella
domanda conoscitiva al quale devo rispondere. Nella ricerca descrittiva la
domanda sarà: come si presenta un certo fenomeno? Invece nella ricerca
esplicativa la domanda sarà: perché un fenomeno si presenta in un certo
modo?
Quindi nel caso della ricerca descrittiva, ci serviranno delle fotografie del
fenomeno, faremo dei confronti ecc; Nel caso della ricerca esplicativa
Una volta che la ricerca sociale è nata il primo passo è fare una
ricognizione bibliografica sull’argomento prescelto. Per fare questo
esistono le biblioteche, le riviste scientifiche, le risorse su internet ecc,
quando tutto ciò non è possibile perché ad esempio non esistono libri di
quell’argomento allora possiamo ricorrere alla raccolta di testimonianze
da parte di persone coinvolte o vicine al fenomeno che intendo studiare.
Il secondo passo consiste nello scegliere il tipo di ricerca, successivamente
abbiamo la chiarificazione dei concetti e delle eventuali ipotesi. A questo
punto si dovranno scegliere le nostre unità di analisi, cioè tipi di oggetti
concreti sul quale io farò la ricerca e possono essere persone, famiglie,
gruppi, nazioni, eventi ecc; Delle unità di analisi dovremmo scegliere
alcune proprietà, cioè le caratteristiche che ci interessano di più e sul
quale noi indagheremo. In fine dovremmo scegliere su quante unità di
analisi esattamente effettueremo la nostra indagine, in base alla nostra
scelta avremo:
- Un censimento, cioè quando considero tutta la popolazione di
riferimento.
- Un campione, quando seleziono una parte della popolazione.
- Un’analisi comparativa, cioè quando scelgo un piccolo numero di analisi.
- Lo studio di un caso, cioè quando considero solo una unità di analisi.
La costruzione della base empirica:
La fase di costruzione della base empirica costituisce il momento più
delicato di una ricerca. A questo livello, infatti vengono operate delle
scelte cruciali, che avranno delle ricadute anche su tutte le fasi successive.
Per questo motivo questa fase si può considerare il cuore della
Metodologia Della Ricerca Sociale. La fase di costruzione della base
empirica si articola in 5 sotto fasi:
1. Il passaggio dai concetti alle variabili (la cosiddetta operativizzazione dei
concetti);
2. La scelta della tecnica di rilevazione (il questionario, l’intervista, ecc);
fasi:
indicazione.
un’intervista fra tre modalità: “altro”, “medio”, “basso” ecc. A volte è più
unico criterio gerarchico, ad una scala. Cioè significa mettere degli oggetti
al primo posto, al secondo ecc, i posti non sono tutti uguali, alcuni stanno
ecc.
Per essere più precisi le tecniche di rilevazione dei dati possono essere
- L’esperimento;
- L’osservazione;
- Le interviste;
- Il questionario;
- La simulazione al computer.