Sei sulla pagina 1di 3

Analisi statistica dei dati quantitativi

Nella ricerca quantitativa per descrivere i dati, verificare le ipotesi e


fornire evidenze sulle proprietà delle misure di variabili quantificabili
viene utilizzata l’analisi statistica.
Sostanzialmente si misura per sintetizzare la complessità. Per fare ciò bisogna
prima definirei i fenomeni, chiamati anche concetti, e da questi ricavarne le
proprietà, cioè ogni caratteristica che può appartenere a un soggetto. Le
proprietà verranno trasformate in variabili, che hanno una definizione
operativa e di conseguenza sono misurabili. Una singola proprietà può del
luogo a più variabili.
Misurare quindi significa assegnare dei valori numerici ad una variabile per
rappresentare il grado con cui questo è presente in un individuo o in un
oggetto o gruppo. Quando le caratteristiche non sono direttamente misurabili
vengono definite variabili latenti. Le variabili possono essere:
 Indipendenti, quindi può essere manipolata o solo misurata, e può
influenzare altre variabili.
 Dipendenti, dette anche variabili osservate, può essere misurata, la sua
variazione è legata alla variabile indipendente.
Scopo delle ricerche è comprendere l’interazione tra di esse.
I livelli di misurazione di una variabile, dalle quali dipendono tutte le
operazioni statistiche, sono:
1. Scala nominale: il livello più basso che prevede i valori numerici solo
per assegnare una categoria agli attributi (es. 1 maschile e 2 femminile),
non hanno un significato quantitativo né possono essere sottoposte ad
operazioni matematiche. La variabile è definita categorica;
2. Scala ordinale: classifica le persone rispetto ad un attributo stabilendo
una relazione di ordine, che può essere crescente o decrescente, senza
specificare l’entità della differenza tra due livelli. un esempio una scala
per misurare l’ADL 1= completamente dipendente, 2=assistenza da
un'altra persona ecc. le operazioni possibili sono limitate. La variabile è
ordinale
3. Scala intervallare: classifica le persone in base ad un attributo e ne
specifica la reciproca distanza, è possibile quindi misurare le differenze
tra coppie di valori. Le unità di misura sono oggettive e costanti. Un
esempio è il test QI. Le variabili sono discrete.
4. Scala di rapporto: il livello più elevato, ha lo zero assoluto, quindi
fornisce informazioni sulla grandezza assoluta dell’attributo e sui rapporti
tra le grandezze. Es. sono il peso e il reddito. La variabile è continua.
Il vantaggio delle scale di misura è che una caratteristica qualitativa, quale può
essere una caratteristica psicologica, può essere quantificata ad esempio in
base al numero di comportamenti manifestati dal soggetto, o in base a scale di
valutazioni del comportamento. Ma anche una caratteristica quantitativa può
essere misurata su base qualitativa, ad esempio l’età di 17 anni può essere
valutata su scale nominale dicotomica (essere o non essere maggiorenne) o
ordinale bambino-preadolescente-adolescente-adulto.
Nelle ricerche quantitative può essere utilizzata sia la statistica descrittiva con
la quale vengono sintetizzati e descritti i dati quantitativi attraverso dei
parametri, sia quella inferenziale che utilizza un processo logico, detto
inferenza, per poter generalizzare le osservazioni fatte su un campione
all’intera popolazione target.
La statistica descrittiva uni variata valuta l’insieme dei valori assunti da una
sola variabile e tre caratteristiche:
1. Distribuzione di frequenza: organizza i dati numerici in tabella dal più
basso al più alto, specifica quante volte (ossia la frequenza) ciascun dato
compare. Le distribuzioni di frequenza aiutano anche a rappresentare
graficamente i dati: descrivendo come i dati sono distribuiti in forma
visiva. La curva del grafico può essere asimmetrica, con una coda più
lunga dell’altra e il picco non è centrale, oppure simmetrica rispetto ad
un asse centrale e i dati sono distribuiti simmetricamente.
2. Indici di tendenza centrale: indicano il valore tipico, o medio, che
sintetizza l’intera distribuzione dei valori. Ve ne sono 3:
 la moda rappresenta il valore che si manifesta più frequentemente in
una distribuzione e possono essere anche più di una;
 la mediana è il valore che occupa la posizione centrale in un insieme
ordinato di dati;
 la media è il rapporto tra la somma dei valori e il numero dei dati e
rappresenta il metodo più semplice di confronto ed è influenzata da
ogni valore.
In una curva simmetrica gli indici di tendenza coincidono e viene
chiamata distribuzione normale.
3. Indici di variabilità o di dispersione: vengono calcolati per esprimere
quanto i punteggi di una distribuzione differiscono l’uno dall’altro. Quelli
più comunemente calcolati sono:
 Campo di variazione: dato dalla differenza tra il punteggio più alto
e quello più basso. Il pregio è che è facile da calcolare, ma
basandosi su solo due valori è instabile e facilmente influenzato da
valori anomali.
 Deviazione standard (DS): è calcolato tenendo conto di ogni valore
in una distribuzione, ci informa di quanto mediamente ogni singolo
valore si scosta dalla media. In una distribuzione normale il 95%
dei punteggi è centrato sulla media e ha una semi-ampiezza pari a
2DS.

La statistica descrittiva bivariata, invece descrive le relazioni tra due variabili, per
fare questo si avvale di una tabella a doppia entrata o di contingenza con la quale si
rappresenta una distribuzione di frequenza a due dimensioni in cui la frequenza
delle due variabili (nominalo o ordinali) sono incrociate. La relazione tra due
variabili, ad es. altezza e peso di diversi soggetti, può essere descritta dal
coefficiente di correlazione che indica la forza e la direzione di una relazione. I valori
vanno da -1,00 a +1,00, passando per lo 0,00. Se le due variabili sono perfettamente
correlate negativamente , ossia vi è una relazione inversa (all’aumentare dell’uno
l’altro diminuisce)si ha il valore -1,00. Se si ha una correlazione perfettamente
positiva , ossia all’aumentare dell’uno aumenta l’altro e viceversa, il valore assunto
sarà +1,00. Se si ha valore 0,00 no vi è nessuna correlazione. Normalmente una
correlazione reale è intorno a +/-0,50 ; +/-0,60. Il coefficiente di correlazione più
usato è l’indice di correlazione di PEARSON, espresso con “r” che si calcola per
correlare linearmente misure di scala a intervalli (es il peso o numero di sigarette) o
rapporti (es Quoziente intellettivo). Invece per le misure di scala ordinale si usa
l’indice chiamato rho di Spearman .
Descrizione del rischio: molti indici descrittivi si basano sul calcolo della
variazione del rischio in relazione all’esposizione o meno a un trattamento
benefico o un fattore protettivo. Si può valutare ad esempio una variabile
dicotomica come il rischio caduta (caso particolare di variabile nominale
dove sono presenti solo due possibilità , ad es ha avuto caduta/non ha
avuto caduta) e come si comporta alla presenza o meno di un intervento
infermieristico potenzialmente benefico.
Si definisce rischio assoluto , AR absolute risk, il rapporto tra outcome non
desiderato e totale soggetti del gruppo di appartenenza, e può essere
calcolato sia per il gruppo sperimentale che per quello di controllo. Mentre
la riduzione del rischio assoluto, ARR o absolute risk reduction, è il
confronto tra i due rischi assoluti, e si calcola sottraendo il rischio assoluto
del gruppo esposto da quello del gruppo non esposto. Ma l’indice di rischio
più utilizzato è l’ ODDS RATIO (OR), o rapporto di probabilità, e prevede il
confronto tra le frequenze di comparsa dell’evento (es
malattia)rispettivamente nei soggetti esposti e non esposti al fattore di
rischio in studio.
Un altro indice importate è il numero necessario da trattare, o number
needed to treat,NNT, che indica il numero di persone che
necessiterebbero di un intervento sanitario per prevenire un esito non
desiderabile. Questo si ottiene dividendo per 1 l’indice di riduzione di
rischio assoluto.

Potrebbero piacerti anche