Sei sulla pagina 1di 11

LEZIONI DI STATISTCA APPLICATA

Parte 2

Statistica inferenziale

Variabili continue per categoriali

____________________________________

Alessandro Valbonesi

SARRF di Scienze ambientali

Anno accademico 2010-11


CAPITOLO 4 - TEST STATISTICI CHE COINVOLGONO VARIABILI
CONTINUE PER CATEGORIALI -

Nei test statistici che coinvolgono variabili continue per categoriali, la variabile continua, che può
essere anche discreta, rappresenta le misurazioni (o i conteggi, nel caso di variabile discreta)
eseguite sui soggetti 1 , mentre quella categoriale rappresenta la variabile di raggruppamento
perché indica il criterio che ci ha consentito di dividere le osservazioni in due o più distinte
categorie. I test più usati sono il t-test, detto anche t-di Student, che si basa sul confronto tra
medie, e l’F di Fisher che si basa sul confronto tra varianze, per cui si parla di analisi della
varianza (in inglese abbreviato con l’acronimo ANOVA, analysis of variance). Il primo è limitato
al solo confronto tra due medie, oppure tra il valore di una osservazione (un dato) ed una media
(ottenuta da più dati). Il secondo test è una derivazione del primo, anche dal punto di vista algebrico
dato che t2 = F ma non è limitato al confronto tra due gruppi per cui è quello maggiormente più
usato. Entrambi i test, essendo dei test parametrici ovvero basati su dei parametri (media,
varianza) di popolazione hanno comunque dei presupposti che devono essere soddisfatti, se ciò
no avviene bisogna ricorre a test non parametrici.
Abbiamo già detto che quando si esegue un test inferenziale occorre formulare un ipotesi iniziale e
l’ipotesi più semplice è l’ipotesi zero, ovvero che le due medie ottenute dai due gruppi di dati,
siano statisticamente uguali in quanto rappresentano la stima di un'unica popolazione, H0: x 1= x 2 =
0 . L’aggettivo “statisticamente” sta ad indicare che le medie non saranno mai matematicamente
uguali a causa di un “errore”statistico dovuto alla variabilità intrinseca dei componenti dei due
gruppi. Pertanto, quello che dobbiamo verificare è se questa differenza sia dovuta solo alla
componente stocastica (casuale) oppure alla variabile di raggruppamento, ciò al fatto che le medie
sono state ottenute a partire da due categorie distinte e quindi sono stime di due popolazioni
differenti,
H1: ( x 1= 1) ≠ ( x 2 = 2 ) .

4.1. INFERENZA SU UNA O DUE MEDIE CON IL TEST t DI STUDENT


Questo test si basa su una estensione del teorema centrale: le differenze delle medie dalla media
parametrica ( Y -), come pure la relativa standardizzazione ([ x -), è una curva simmetrica. La
nuova distribuzione di probabilità è più ampia della corrispondente distribuzione normale
standardizzata, in quanto il denominatore è l’errore standard delle medie campionarie invece che
l’errore standard parametrico (della popolazione), per cui sarà a volte più piccolo, a volte più grande
rispetto al valore atteso. Questa distribuzione di probabilità è quella studiata da Gosset (conosciuto
sotto lo pseudonimo di Student):
t = media del campione - media della popolazione =
errore standard del campione

1
In inglese si usa il termine generico items (elementi di un gruppo)

50
Quando si considerano due medie campionare 2 , ottenute da campioni aventi la stessa numerosità
(n), la precedente formula può essere scritta nel seguente modo 3 :

Nel caso che i campioni abbiano numerosità diverse la formula diventa:


(Y  Y )  (    )
ts = 1 2 2 12 2
s1 s 2

n1 n2
2
Si noti che al denominare c’è l’errore standard delle medie (es = = s/ n ) e che quando si
s
n
voglia testare H0, il secondo membro del numeratore diventa uguale a 0 in quanto indicano la stessa
media parametrica: 1 = 2 .

E' condizione di validità della distribuzione t di Student, e quindi dei test che la utilizzano, che:
- la distribuzione dei dati sia normale;
- le varianze siano omogenee;
- le osservazioni siano raccolte in modo indipendente.
Rispetto alla condizione di normalità la distribuzione t è robusta. Con tale termine tecnico si
intende affermare che rimane approssimativamente valida, anche quando le distribuzioni di
dati non rispettano esattamente la condizione dalla normalità.
La seconda condizione è vincolante, per cui se non è soddisfatta bisogna cercare di ovviare
operando una trasformazione dei dati e nel caso che non si riesca ad ottenere varianze omogenee
con questo artefatto bisognerà ricorrere a test non parametrici. I test che verificano l’omogeneità
della varianza saranno illustrati successivamente quando si illustrerà l’F-test.
La terza condizione dipende dalla modalità di organizzazione della raccolta dei dati. Ad esempio, le
osservazioni non sono indipendenti se entro un gruppo di persone delle quali si misura il peso
esistono più fratelli; se, in un esperimento sulla conducibilità elettrica di un metallo a temperature
diverse, si utilizzano campioni di metallo diversi ma un campione è misurato più volte.
Nella statistica applicata, il test t è utilizzato in quattro casi, cioè per il confronto tra:
1 - la media di un campione e la media parametrica o una generica media attesa;
2 – un singolo dato e la media di un campione, per verificare se possono appartenere alla stessa
popolazione;
3 - la media delle differenze di due campioni dipendenti;
4 - le medie di due campioni indipendenti.
In ognuno di questi casi si ottiene un valore di t la cui significatività, ovvero la probabilità  di
ottenere quel valore nel caso H0 sia vera , può essere ottenuta consultando i valori critici riportati
sulle tavole della distribuzione di t.
- Nel test ad una coda, la zona di rifiuto è solamente da una parte della distribuzione (a sinistra
quando il segno è negativo, a destra quando è positivo), in questo caso il ricercatore si chiede se una
media è maggiore dell'altra, escludendo a priori che essa possa essere minore, o viceversa. Per
esempio se si vuole controllare l’effetto di una dieta dimagrante è ovvio che ci aspettiamo che i pesi

2
Dato che le formule sono state spesso scannerizzate da testi differenti si possono trovare simboli discordanti. Un
esempio è la media campionaria che qui figura simbolizzata con Y mentre in quella precedente con x . L’autore si
scusa per questo inconveniente!
3
In molti testi viene riportata una formula apparentemente più complessa ma sostanzialmente uguale a quella riportata
in queste dispense.

51
delle persone, registrati dopo la dieta, siano diminuiti rispetto ai valori iniziali e che questa
diminuzione sia imputabile alla dieta H1 e non al caso H0; quindi l’ipotesi alternativa è H1: x i> x f
- nel test a due code, la zona di rifiuto è simmetricamente distribuita dalle due parti e vi si ricorre
quando non si ha alcuna idea sui possibili risultati, ovvero il ricercatore si chiede se tra le due medie
esista una differenza significativa, senza che egli abbia indicazioni su quali sia la maggiore o la
minore.
E' maggiore la probabilità di dimostrare l'esistenza di una differenza significativa mediante un
test ad una coda che con un test a due code. Con un termine tecnico, si dice che il test a due code è
più conservativo, mentre quello ad una coda è più potente.

Test per la differenza appaiata al livello di significatività ( = 0,05) del 5% con 10 gdl:

Test unilaterale Test bilaterale

Abitualmente nei testi di statistica sono riportate due differenti tabelle di valori critici della
distribuzione t : quella per test unilaterali e quella per test bilaterali. In queste tabelle, la parte
superiore di ogni colonna indica l'area sottesa dalle rispettive code della distribuzione, mentre le
righe (v) si riferiscono ai gdl. I valori critici per l'area in una coda al rischio  coincidono con
quelli del rischio 2 nella distribuzione a due code (per esempio, i valori per =0,05 coincidono con
la colonna di = 0,1 nella tabella per test a due code) 4
Test  valore critico per 10 gdl
Unilaterale 0,05 1,8125
bilaterale 0,05 (somma di =0,025 nelle due code) 2,228

Vediamo ora alcuni esempi relativi ai quattro casi di confronti in cui è possibile applicare il t-test.

4
Se abbiamo invece una tabella con i valori critici di t per test ad una coda, i valori critici per test a due code
coincidono con quelli di /2

52
1 - La media di un campione e una generica media attesa.
Disponendo di un campione di 13 individui di Heterocypris incongruens pescati in un fiume, dei
quali sono riportate le lunghezze (in mm), si vuole verificare se alla probabilità P = 0.99 la loro
lunghezza media è significativamente differente dalla media di 1,25 mm stimata per la stessa specie
nei laghi della regione, in varie ricerche precedenti.

Dai 13 dati campionari, devono essere calcolati il valore della media e della deviazione standard:
X = 1,235; s (deviazione standard) = 0,059; n = 13

La domanda dell’esempio richiede un test a due code o bilaterale, poiché prima della raccolta dei
dati è ugualmente logico che la media del campione abbia un valore sia significativamente minore
sia maggiore della media attesa.
Alla probabilità α = 0.01 per un test bilaterale con 12 gdl il valore critico riportato è uguale a 3,055.
Il valore assoluto di t calcolato (0,900) è nettamente inferiore a quello critico sinottica; di
conseguenza, non si è in grado di rifiutare l’ipotesi nulla e quindi si può affermare che la
dimensione media dei 13 individui della specie Heterocypris incongruens pescati nel fiume non è
significativamente diversa da quella degli individui della stessa specie che vivono nei laghi della
regione.

Oltre che fornire una risposta mediante l’applicazione del test t per un campione, è possibile avere
anche una risposta attraverso la stima dell’intervallo di confidenza della media campionaria, che
come abbiamo visto utilizza i valori di t.

0.059
 = 1,235 ± 3,055* = 1,235 ± 0.0496
13

I limiti inferiori e superiori dell’intervallo di confidenza risultano rispettivamente 1,186 e 1,285.


La media della popolazione μ0 uguale a 1,25 è compresa nell’intervallo fiduciale della media
campionaria. Pertanto, otteniamo un risultato analogo a quello di un t-test bilaterale.
Se fosse stata rifiutata l’ipotesi nulla, il valore atteso (ovvero quello della popolazione degli altri
laghi) risulterebbe escluso dall’intervallo fiduciale calcolato.

53
2 – Un singolo dato e la media di un campione
Nelle rilevazioni in natura ed in laboratorio, sovente sorge il problema che una certa misura possa
essere errata, rispetto alle altre del campione raccolto. Le cause possono essere le più diverse:
l’imperizia del nuovo rilevatore rispetto all’esperto che ha raccolto gli altri dati, il funzionamento
non corretto dello strumento, una condizione ambientale differente, il materiale o i reagenti di
qualità diversa, una procedura nuova o applicata in modo non corretto. In altri casi, come in
tassonomia, sorge il problema di verificare se l’individuo che si sta analizzando possa essere di
un’altra popolazione rispetto alle unità già raccolte.
La verifica a questi sospetti, che può essere condotta con un test unilaterale o bilaterale secondo le
ipotesi formulate, è fatta mediante un test t la cui formula risulta essere:

dove
X1 = singola rilevazione da verificare; X A = media del campione A;
S2A = varianza del campione A; nA = numero di osservazioni del campione A.
ESEMPIO. Si vuole verificare se una misura (49,7) può essere ritenuta diversa dalle 6 del campione
raccolto (40,3 - 38,8 - 33,5 - 38,6 - 31,9 - 37,6).
Risposta. La media del campione è uguale a 36,783 e la varianza risulta uguale a 11,006. Da essi
deriva
11,006
3,60
11,006 3,583

i valori critici di t con 6-1 gdl , per un test a una coda 5 , sono:
- 2,015 alla probabilità α = 0,05;
- 3,365 alla probabilità α = 0,01
In questo caso si sono considerati i valori critici per un test ad una coda in quanto il dato che
vogliamo testare è maggiore della media campionaria per cui c’è solo una possibilità da verificare,
ovvero se questo valore è abbastanza grande per non poterlo considerare appartenente ai valori del
campione. In questo caso posiamo rifiutare H0 (il valore di t è risultato superiore ad entrambi i
valori critici) con una probabilità di sbagliare (errore di tipo I, ovvero rigetto di un H0 vero) di 0,01.

5
Se abbiamo valori di t tabulati per test a due code occorre consultare i valori di  che lasciano 0,05 e 0,01 su una coda,
ovvero vedere i valori di 2 (0,1 e 0,02).

54
3 - La media delle differenze di due campioni dipendenti (dati appaiati);

Le caratteristiche distintive di questo test sono:


• poter accoppiare ogni osservazione di un campione con una e una sola
osservazione dell'altro campione;
• necessariamente i due gruppi hanno sempre lo stesso numero di dati.
Scopo principale dell’appaiamento dei dati:
- creare il massimo di omogeneità entro ogni coppia
- creare il massimo di eterogeneità tra le coppie
Situazione A : auto-accoppiamento (dati auto-appaiati)
ogni soggetto serve come controllo di se stesso e i dati vengono ricavati dagli stessi individui in
momenti diversi. Per esempio i confronti prima-e-dopo riferiti agli stessi individui:
- confronto tra i livelli di pressione rilevati nello stesso gruppo di individui sia in condizioni
normali che dopo uno stress;
- confronto tra trattamento e controllo sugli stessi individui.
Stuazione B : osservazioni naturalmente appaiate
non sono ottenute dagli stessi individui, ma da coppie di individui scelti appositamente.
Per esempio:
- misure rilevate in coppie di animali tratti dalla stessa nidiata e sottoposti a situazioni ambientali
differenti;
- confronto tra il comportamento materno e paterno nella cura alla prole, quando si dispone di dati
relativi a coppie.

Il confronto tra trattamento e controllo sugli stessi individui o tra situazioni simili si propone di
eliminare alcune sorgenti di variabilità che potrebbero nascondere le reali differenze tra le due serie
di misure: esaminare le differenze fra due misurazioni riduce l'effetto della variabilità
intrinseca degli individui.

ESEMPIO. Si vuole verificare se un conservante per alimentazione umana abbia effetti sui fattori
di crescita. A questo scopo, un gruppo di 10 cavie adulte è stato sottoposto a un regime di
alimentazione contenente la sostanza da testare. Ogni soggetto è stato pesato sia prima che dopo la
nuova dieta, per misurarne le variazioni.
Nella tabella sottostante sono riportati i pesi in grammi prima e dopo la dieta, per ognuna delle 10
cavie:
devianza della differenza

medie 168,2 177, 2 9


(l’ordine dei due membri della differenza D, non ha importanza. La differenza potrà pertanto
risultare o positiva o negativa e di conseguenza anche il valore di t trovato, che andrà comunque
considerato in valore assoluto per confrontarlo con i valori tabulari )

55
Si vuole sapere:
1 - Se la sostanza può essere la causa di variazioni significative di peso.
2 - Quale è la reale variazione (δ) di peso determinata dal conservante, alla probabilità α = 0.05.

Risposta 1. bisogna applicare un t-test per dati appaiati, bilaterale (non sappiamo a priori quale
sarà l’effetto), in cui (come sempre) H0: x 1= x 2 = 0 .
In questo caso possiamo anche dire che:
- l’ipotesi nulla H0 afferma che la media reale (δ) delle singole differenze (D) è H0: δ= 0
- mentre l’ipotesi alternativa H1 afferma che H1: δ# 0.
Risulta pertanto che nell’applicare la formula generale è indifferente considerare la differenza delle
due medie (168,2 – 177,2 = 9) o la media delle singole differenze ( d = 9). Nel caso di dati appaiati
cambia invece il denominatore che in questo caso è l’errore standard della differenza tra le medie,
per cui la formula per il calcolo di t risulta :
d
t=
SE diff
Svolgendo i calcoli abbiamo che:
la somma delle (d - d )2 , cioè la devianza delle differenze, risulta uguale a 676, la deviazione
standard (sd)

il numero di coppie di osservazioni (n) o di differenze sulle quali sono stati effettuati i calcoli, n = 10

Il valore di t con 9 gdl è uguale a 3,28.


Per un test a due code, il valore critico della distribuzione t per 9 gdl e δ= 0,05 è uguale a 2,262.
Il valore calcolato (3,28) è superiore al valore critico: la probabilità P che la differenza riscontrata
sia dovuta al caso è minore di 0,05, per cui si rifiuta l'ipotesi nulla H0 e si accetta l'ipotesi alternativa
H1: la nuova dieta determina nelle cavie una differenza ponderale che è significativa.

Risposta 2. Il valore reale (δ) della differenza è ottenuto mediante la stima dell'intervallo fiduciale
della differenza media, che per due campioni dipendenti è dato da

Con i dati dell'esercizio, per la probabilità α= 0.05, alla quale corrisponde un valore con t0.025 in
entrambe le code o t0.05 bilaterale uguale a 2,262 si ottiene: 2,262* 2,741 = 6,199 dalla quale risulta
un intervallo Ls = 15,199 e Li = 2,801.
Si può osservare che il valore di d espresso nell'ipotesi nulla (Η0:δ = 0) è escluso dall'intervallo
fiduciale calcolato; quindi si discosta dal valore medio sperimentale in modo significativo alla
probabilità prescelta. In un test a due code, alla medesima probabilità con cui nel test t per dati
appaiati la differenza media risulta significativa, il valore dell'ipotesi nulla è escluso

56
dall'intervallo fiduciale. Per quanto riguarda la significatività, i due approcci forniscono la
medesima informazione 6 .

4 - le medie di due campioni indipendenti.

La caratteristica distintiva di questo test è che le osservazioni di un campione sono completamente


indipendenti da quelle dell’altro campione e gli elementi che compongono i due gruppi sono
stati assegnati casualmente ad uno o all’altro dei due gruppi.

In molti casi, non è tecnicamente possibile formare due campioni dipendenti. Spesso non è possibile
misurare gli effetti di due differenti trattamenti sugli stessi individui: è il caso in cui si confrontano
misure di accrescimento somatico in animali o piante sottoposte a condizioni ambientali differenti
oppure si confrontano livelli d’inquinamento idrico tra due fiumi differenti con rilevazioni in varie
stazioni. Altre volte, non è possibile nemmeno fare appaiamenti naturali o artificiali, perché le
situazioni non si ripetono a coppie nelle medesime condizioni e la dose di soggettività è ritenuta
eccessiva. L'unica possibile strategia di analisi dei dati è quella di confrontare due campioni
indipendenti, due campioni formati da individui differenti. Aumenta la variabilità tra i due
gruppi: nel caso di cavie, in uno possono essere presenti più maschi o più femmine, più individui
anziani o più giovani, più sani o ammalati, per cui la variabilità delle risposte aumenta. Ma si
ottengono due vantaggi:
- poter utilizzare un numero differente di osservazioni,
- avere dati che più facilmente sono espressione della variabilità casuale,
- utilizzare per il confronto con il proprio un campione raccolto da altri.
Con il test di significatività per due campioni indipendenti, viene verificata la stessa ipotesi del
caso di dati appaiati, seppure espressa in forma diversa. E' fondamentale comprendere che:
- per due campioni dipendenti i calcoli vengono effettuati sulla sola colonna delle differenze;
- nel caso di due campioni indipendenti i calcoli vengono effettuati sulle due serie di
osservazioni.
In un test a due code o bilaterale, l'ipotesi nulla H0 è che i due campioni (indicati con A e B)
siano estratti dalla stessa popolazione oppure da due popolazioni differenti ma con media (µ)
uguale; essa può essere scritta come H0: µA = µB oppure H0: µA - µB = 0
e la sua ipotesi alternativa H1 come H1: µA # µB oppure H1: µA - µB # 0
In un test ad una coda o unilaterale si possono avere due impostazioni alternative:
-H1: µA > µB oppure H1: µA - µB > 0
- H1: µA < µB oppure H1: µA - µB < 0

Nel caso di 2 campioni indipendenti, i gradi di libertà del t sono uguali a (nA–1) + (nB-1), che
possono anche essere scritti come (nA + nB - 2) oppure (N-2).
Il valore del t è ottenuto mediante la formula generale riportata all’inizio di questo paragrafo
(Y  Y )  (    )
ts = 1 2 2 12 2
s1 s 2

n1 n2

6
Nel caso di test ad una coda occorre tenere presente che questo è meno conservativo per cui, dato che l’intervallo
fiduciale è sempre bilaterale, si possono avere risultati discordanti tra i due approcci.

57
e nel caso che le numerosità siano uguali diventa:

Vediamo ora di fare questa analisi considerando i dati precedenti ma ottenuti da un’altra situazione
in cui i dati non siano appaiati ma indipendenti. Si vuole sempre verificare se un conservante per
alimentazione umana abbia effetti sui fattori di crescita. A questo scopo, un gruppo di 20 cavie
adulte è stato suddiviso casualmente in due gruppi da 10 individui ciascuno (ogni individuo deve
avere la stessa probabilità di essere inserito nell’uno o nell’altro gruppo). Un gruppo è stato
sottoposto a un regime di alimentazione contenente la sostanza da testare l’altro funziona da
controllo e quindi non assume la sostanza. Ogni soggetto è stato pesato sia prima che l’inizio
dell’esperimento, per misurarne le variazioni ponderali. Nella tabella è quindi riportata la variazione
in peso (grammi) osservata tra l’inizio e la fine dell’esperimento, per ognuna delle 10 cavie dei due
gruppi e l’intestazione dei due gruppi va quindi letta come: gruppo controllo (e non prima) e gruppo
trattato (e non dopo). Si vuole sapere se la sostanza può essere la causa di variazioni significative di
peso.
Risposta. Bisogna applicare un t-test per dati indipendenti, bilaterale (non sappiamo a priori
quale sarà l’effetto), in cui (come sempre) H0: x 1= x 2 = 0 .
Le medie sono sempre 168,2 per il gruppo controllo e 177, 2 per il gruppo trattato, per cui la
differenza è sempre 9.
Questa volta però il t test viene fatto sulle medie e non sulla differenza delle osservazioni per cui:
9
t= = 2,00
1
* (130,62  71,73)
10

Risulta pertanto che t = 2,00 (mentre con i dati appaiati risultava essere 3,28) ed il valore critico,
alla stessa probabilità α= 0,05, risulta essere 2,101, perché i gdl sono 18 (mentre con i dati appaiati
risultava essere 2,262 perché i gdl erano pari al numero dei confronti –1, ovvero 9).
Il valore calcolato (2,00) è inferiore al valore critico: la probabilità P che la differenza riscontrata
sia dovuta al caso è superiore di 0,05, per cui si accetta l'ipotesi nulla H0 e si rifiuta l'ipotesi
alternativa H1: la nuova dieta non determina nelle cavie una differenza ponderale significativa.

Stessi dati risultati diversi! Nei dati appaiati una differenza di 9 gr. tra i due gruppi era sufficiente
ad individuare un effetto della sostanza testata su peso delle cavie mentre la stessa differenza non lo
è nel caso di dati indipendenti. La cosa potrebbe sembrare strana ma se ci ragioniamo risulta chiaro
che nel primo caso, trattandosi degli stessi individui monitorati prima e dopo la somministrazione
della sostanza, la differenza osservata era verosimilmente imputabile alla sola sostanza, mentre nel
secondo caso i due gruppi sono costituiti da cavie differenti per cui ci possono essere differenze
imputabili ad altri fattori. L’eterogeneità dei due gruppi misurata come varianza dentro i gruppi
(s12 + s22) risulta essere maggiore per cui il test è più conservativo, ovvero tende ad essere
maggiormente protettivo verso un errore di tipo I (rigetto di un H0 vera). Vedremo in seguito come
per questo tipo di confronti si preferisca fare il test di Fisher, F-test. In effetti non c’è nessuna
differenza tra questi due test (abbiamo già accennato all’equivalenza matematica. F = t2) quando ci
riferiamo a confronti fra due gruppi. Il test di Fisher ha il vantaggio che può essere esteso a
confronti maggiori di due gruppi (il t test no) ed in più si possono usare più variabili di
raggruppamento (test multifattoriale). Per esempio se abbiamo il sospetto che una determinata
sostanza possa avere un effetto diverso a seconda dell’età degli animali, possiamo suddividere i due
gruppi, controllo e trattamento, in altri sottogruppi (età, sesso, condizioni fisiologiche e patologiche,

58
ecc…..) per cui possiamo scorporare le varie fonti di variazione al fine di risalire alla valutazione
del reale effetto prodotto dalla sostanza in esame.

Deve pertanto risultare chiaro che Il modello statistico, ovvero i test statistici devono essere già
programmati nella fase iniziale del disegno sperimentale, poiché è da essi che dipende il tipo
di campionamento.

Ritorniamo ora all’esempio pratico e vediamo come, anche in questo, caso è possibile calcolare
l’intervallo di confidenza, IC = x ± t(, v)*es delle due medie campionarie e con esso si può
conoscere l’intervallo entro il quale è collocato il valore reale delle due popolazioni alla probabilità
α=0,05 e gdl = 9.
130,62
Per il gruppo di controllo: 95% IC = 168,2 ± 2,262* = 168,2 ± 8,176 dalla quale risulta un
10
intervallo Ls = 176,4 e Li = 160,0.
71,73
Per il gruppo di trattati: 95% IC = 177,2 ± 2,262* = 177,2 ± 6,059 dalla quale risulta un
10
intervallo Ls = 183,3 e Li = 171,1.

I questo caso dato che i due intervalli fiduciali si sovrappongono parzialmente non possiamo
escludere che la vera media dei due gruppi sia identica e quindi accettiamo H0

I t-test possono essere eseguiti con excel selezionando dal menù strumenti l’opzione Analisi dati ed
il tipo di test che si vuole eseguire.

A conclusione ricordiamo che il t-test, come del resto tutti i test statistici, ha delle assunzioni che
devono essere soddisfatte (es., omogeneità delle varianze) e se ciò non avviene occorre ripiegare
su test non parametrici che in questo caso i più comuni sono:
Wilcox Signed Rank test per dati appaiati;
Mann-Whitneu U e Kolmogorov-Smirnov z per dati indipendenti

59