Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Sara Maccaferri
2
Indice
Ringraziamenti 2
Introduzione 6
1 Test d’ipotesi 9
1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Test parametrici . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Proprietà delle funzioni test . . . . . . . . . . . . . . . . . . . 11
1.3.1 Errori e funzione potenza . . . . . . . . . . . . . . . . 11
1.3.2 Test uniformemente più potenti . . . . . . . . . . . . . 13
1.4 Test non parametrici . . . . . . . . . . . . . . . . . . . . . . . 14
2 Test di permutazione 16
2.1 Un esempio introduttivo . . . . . . . . . . . . . . . . . . . . . 16
2.2 La teoria dei test di permutazione . . . . . . . . . . . . . . . 18
2.3 Test di permutazione non distorti . . . . . . . . . . . . . . . . 20
2.4 Test UMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Comportamento asintotico . . . . . . . . . . . . . . . . . . . . 30
2.5.1 Test per un campione . . . . . . . . . . . . . . . . . . 31
2.5.2 Test per due campioni . . . . . . . . . . . . . . . . . . 35
2.5.3 Il teorema sulle forme lineari . . . . . . . . . . . . . . 37
2.6 Test di permutazione Monte Carlo . . . . . . . . . . . . . . . 44
3
3.3.2 Test di van der Waerden . . . . . . . . . . . . . . . . . 56
3.3.3 Wilcoxon rank-sum test . . . . . . . . . . . . . . . . . 56
3.3.4 Il test sulla mediana . . . . . . . . . . . . . . . . . . . 57
4 Esempi ed applicazioni 59
4.1 Confronto della funzione potenza: esperimento bilanciato . . 59
4.2 Confronto della funzione potenza: esperimento non bilanciato 66
4.3 Test di Mann-Whitney . . . . . . . . . . . . . . . . . . . . . . 69
Bibliografia 80
4
Elenco delle figure
5
Introduzione
6
sfruttano tutta l’informazione contenuta nelle osservazioni stesse, mentre
dall’altro lato i test sui ranghi, basandosi sul rango dei dati, sfruttano già
una sintesi delle informazioni contenute nelle osservazioni; in entrambi i casi
però le conclusioni a cui si giunge sono le medesime.
Il motivo per cui si è voluto analizzare proprio questi test non parametrici
è dovuto alla loro applicazione in ambito clinico, come verrà spiegato meglio
nell’ultimo capitolo. I test d’ipotesi tradizionali si basano sul concetto di
un modello di popolazione, in base al quale ogni campione proveniente da
una popolazione è rappresentativo di tale popolazione, e tutti gli elementi
del campione possono essere considerati come indipendenti e identicamente
distribuiti con funzione di distribuzione nota a meno di parametri. Per
condurre un test si estraggono un certo numero di soggetti, tutti indipen-
denti e identicamente distribuiti, dalla popolazione, che si suppone essere di
ampiezza infinita. Nel caso dei test clinici questo modello non è più valido,
perchè i pazienti non sono più scelti in maniera totalmente casuale, e spesso
il numero di pazienti adatti allo studio è molto basso (nel caso ad esem-
pio di patologie rare) o addirittura nullo, nel caso si voglia sperimentare un
nuovo trattamento. In questi casi non è più lecito supporre l’esistenza di
una popolazione (in questo caso specifico formata da pazienti) di ampiezza
infinita, e i processi decisionali legati a tale modello non sono più validi.
Quando l’ipotesi di modello di popolazione non è più valida si ricorre al
modello di randomizzazione, che è alla base dei test di permutazione e dei
linear rank tests. L’utilizzo della randomizzazione fornisce infatti le basi
per poter implementare test statistici, che non prevedano l’esistenza di una
popolazione da cui estrarre i campioni, per il confronto ad esempio dei trat-
tamenti A e B somministrati agli nA e nB pazienti scelti. La differenza
fondamentale tra i test basati sul modello di popolazione e quelli basati sul
modello di randomizzazione è la seguente: nei test di permutazione le realiz-
zazioni ottenute sono considerate fissate mentre variano gli assegnazioni ad
un trattamento o all’altro; in un test con un modello di popolazione invece
le variabili aleatorie possono assumere in maniera casuale, con una certa
probabilità, un valore proveniente da un insieme fissato generico.
La materia presentata in questo lavoro è cosı̀ organizzata:
Capitolo 1. Sono riportati tutti i principali risultati sulla teoria dei test
d’ipotesi, in ambito parametrico e non parametrico.
Capitolo 2. Viene presentata la teoria dei test di permutazione: definizione
di test, test non distorti, lemma di Neymann-Pearson. Sono riportati
anche i risultati principali sul comportamento asintotico, quando il nu-
mero delle osservazioni tende all’infinito. Nell’ultima parte del capitolo
7
viene descritto un metodo di simulazione di tali test basato sul metodo
Monte Carlo.
Capitolo 3. Viene presentata la teoria dei linear rank tests. Dal momento
che questa categoria di test è molto vasta, vengono anche riportati
alcuni fra i linear rank tests più utilizzati.
8
Capitolo 1
Test d’ipotesi
1.1 Introduzione
I test d’ipotesi sono un esempio di processo decisionale dell’inferenza statis-
tica, ovvero sono delle procedure che permettono di trarre delle conclusioni
riguardo caratteristiche della popolazione che si vuole studiare. Tale proce-
dura si applica a sottoinsiemi della popolazione chiamati campioni : essi sono
modellizzati da un certo numero di variabili aleatorie la cui distribuzione
può essere nota a meno di parametri (ad esempio, il campione è formato
da variabili aleatorie Normali con media incognita e varianza nota), oppure
può essere completamente incognita. Nel primo caso i test d’ipotesi sono
detti parametrici, nell’altro caso non parametrici. Le realizzazioni di tali
campioni, generalmente formati da n elementi, assumono valori in Rn .
Essi sono costituiti da due ipotesi relative alla popolazione, che sono
chiamate ipotesi nulla (che in seguito verrà indicata con H0 ), e ipotesi alter-
nativa (indicata con H1 ). Lo scopo di un test d’ipotesi è quello di decidere,
basandosi su di un campione proveniente da una certa popolazione, quale
delle due ipotesi sia vera.
9
dove Θ0 e Θ1 sono sottoinsiemi dello spazio dei parametri disgiunti, cosı̀ che
θ non possa appartenere contemporaneamente ad entrambi. Se ad esempio θ
indica la media della variazione di pressione sanguigna di un malato al quale
è stato somministrato un certo farmaco, gli studiosi potrebbero eseguire il
seguente test: H0 : θ = 0 contro H1 : θ 6= 0. L’ipotesi nulla afferma che,
in media, il farmaco non ha alcun effetto sulla pressione sanguigna, mentre
l’ipotesi alternativa afferma che vi è un qualche effetto.
In un problema di test d’ipotesi, dopo aver osservato il campione si deve
decidere se accettare H0 come vera o se rifiutare H0 in favore di H1 .
10
1.3 Proprietà delle funzioni test
Decidere di accettare o rifiutare H0 comporta degli errori: per questo motivo
si vogliono valutare tali errori e si cercano test con basse probabilità di errore.
accetto H0 rifiuto H0
H0 vera Decisione corretta Errore di primo tipo
H1 vera Errore di secondo tipo Decisione corretta
Probabilità errore di I tipo se θ ∈ Θ0
Pθ ((X1 , . . . , Xn ) ∈ R) =
Uno meno probabilità errore di II tipo se θ ∈ Θ1
β(θ) = Pθ ((X1 , . . . , Xn ) ∈ R)
con θ ∈ Θ0 ∪ Θ1
11
Per un campione di ampiezza fissata è praticamente impossibile ottenere
che le probabilità di entrambi i tipi di errori siano arbitrariamente piccole e
per questo, quando si costruisce un buon test, si considera la probabilità di
commettere l’errore di primo tipo e si decide di garantire che rimanga al di
sotto di una certa soglia fissata.
Definizione 1.3.2 Data una funzione test δ, si dice dimensione del test il
valore α tale che
sup β(θ) = α
θ∈Θ0
dove 0 ≤ α ≤ 1.
Dire che un test è di dimensione α equivale a dire quindi che la probabilità
di commettere un errore di primo tipo è al più pari ad α.
Definizione 1.3.3 Data una funzione test δ, si dice livello del test il valore
α tale che
sup β(θ) ≤ α
θ∈Θ0
dove 0 ≤ α ≤ 1.
In base alle precedenti definizioni, dimensione è livello di un test non sono la
stessa cosa: nel primo caso si conosce il valore massimo della probabilità di
commettere un errore di primo tipo, mentre nel secondo caso si sa solo che
tale valore è al di sotto di una certa soglia, ma tale soglia può anche essere
una stima grossolana, molto più grande del valore vero.
Quando si ha a che fare con modelli e test complessi per i quali è impos-
sibile, da un punto di vista computazionale, costruire un test di dimensione
α, ci si accontenta di conoscere il livello di tale test. In questi casi si speci-
fica sempre il valore del livello scelto; i valori di α scelti normalmente sono
α = 0.01, 0.05 e 0.1. È importante sottolineare che, fissando il livello del
test, si controlla soltanto la probabilità di commettere un errore di primo
tipo, mentre non si può dire nulla sulla probabilità di commettere un errore
di secondo tipo.
Oltre al livello, esiste un’ulteriore proprietà dei test.
Definizione 1.3.4 Un test di livello α per le ipotesi (1.1) si dice non dis-
torto se β(θ) ≥ α per ogni θ ∈ Θ1 .
Un test non distorto è un test per cui è più probabile rifiutare H0 se θ ∈ Θ1
piuttosto che per θ ∈ Θ0 .
Definizione 1.3.5 Un test di livello α per le ipotesi (1.1) si dice esatto se
β(θ) = α per ogni θ ∈ Θ0 .
12
1.3.2 Test uniformemente più potenti
Nella sezione precedente sono stati introdotti test d’ipotesi che controllano
la probabilità di commettere un errore di primo tipo; ad esempio, i test
d’ipotesi di livello α hanno probabilità di commettere un errore di primo
tipo al massimo pari ad α per tutti i θ ∈ Θ0 . Sarebbe utile poter trovare tra
tutti questi test quelli che hanno anche una bassa probabilità di commettere
un errore di secondo tipo, ovvero una funzione potenza con valori grandi per
θ ∈ Θ1 . Se fra tutti questi test ne esiste uno con funzione potenza massima,
tale test è un buon candidato per essere il migliore fra tutti quelli presi in
considerazione.
Definizione 1.3.6 Sia C la classe di test per le ipotesi (1.1). Un test δ ap-
partenente a tale classe C con funzione potenza β(θ) è il test uniformemente
più potente (UMP) della classe C se β(θ) ≥ β 0 (θ) per ogni θ ∈ Θ1 e per ogni
β 0 (θ) funzione potenza di un generico test δ 0 appartenente a C.
per k > 0, e
α = Pθ0 ((X1 , . . . , Xn ) ∈ R) = Eθ0 [δ]. (1.3)
Allora:
13
Sı̀ è già accennato prima che non in tutti i problemi esiste un test UMP
di livello α: questo succede perchè la classe di test C di livello α è troppo
grande e nessun test appartenente a tale classe riesce a dominare in termini
di funzione potenza tutti gli altri. In questi casi, se si vuole trovare comunque
un test UMP si deve restringere la ricerca ad un sottoinsieme di funzioni test
di C e si ottiene il test UMP relativo a tale sottoinsieme.
Definizione 1.4.2 Data una funzione test δ, si dice dimensione del test il
valore α tale che
sup β(F, G) = α
H0
dove 0 ≤ α ≤ 1.
Definizione 1.4.3 Data una funzione test δ, si dice livello del test il valore
α tale che
sup β(F, G) ≤ α
H0
dove 0 ≤ α ≤ 1.
14
Definizione 1.4.4 Un test di livello α si dice non distorto se β(F, G) ≥ α
quando vale l’ipotesi alternativa.
15
Capitolo 2
Test di permutazione
I gruppo II gruppo
121 118 110 34 12 22
16
alternativa. L’ipotesi nulla, vera fino a prova contraria, è che la crescita
di una coltura non sia influenzata dalla presenza della vitamina E nella
soluzione, mentre l’ipotesi alternativa è che le cellule trattate con la vitamina
E vivano più a lungo (e possano quindi riprodursi di più).
Successivamente si deve scegliere una statistica test che permetta di
scegliere fra l’ipotesi nulla e quella alternativa. Una statistica utile in questo
ambito è la somma dei valori ottenuti nel gruppo trattato con la vitamina E.
Se l’ipotesi alternativa è vera questa somma dovrebbe essere maggiore della
somma delle osservazioni del gruppo non trattato. Se l’ipotesi nulla invece è
vera, allora la somme dei due gruppi di osservazioni dovrebbero essere quasi
uguali.
Si calcola la statistica test in corrispondenza delle osservazioni originali.
Le prime tre osservazioni provengono dal gruppo di colture trattato con
vitamina E, quindi è possibile calcolare la statistica test per le osservazioni
come sono state originariamente classificate: 121 + 118 + 110 = 349.
Successivamente si permutano le osservazioni, assegnando in maniera
casuale ad ogni osservazione l’etichetta ”trattato” o ”non trattato”, tre per
ogni tipo: per esempio, consideriamo 121, 118 e 34 ”trattati”, e 110, 12
e 22 ”non trattati”. Con questa assegnazione la somma delle osservazioni
del gruppo ”trattato” è 273. Ripetiamo questa procedura finché tutte le
6
3 = 20 permutazioni non sono state analizzate. Tutte le permutazioni
sono riportate nella tabella 2.2.
Si è scelto questo ordine di permutazioni per poter avere i valori del-
la statistica test, ovvero la somma delle osservazioni del primo gruppo, in
ordine decrescente e poter individuare più facilmente i valori estremi.
L’ultimo passo è il processo decisionale. Intuitivamente si può fare il
seguente ragionamento: se si ipotizza che tra i due trattamenti non ci siano
grandi differenze, allora il valore della statistica test originale è simile ai
valori della statistica test ottenuti a partire dalle permutazioni: in tal caso
si accetta l’ipotesi nulla. Viceversa, se si ipotizza una qualche differenza tra i
due trattamenti, il valore della statistica test originale compare come valore
estremo: in tal caso si rifiuta l’ipotesi nulla. In questo caso si osserva che
la somma delle osservazioni provenienti dal gruppo realmente trattato con
la vitamina E è 349 e tale valore non è mai superato per le altre possibili
permutazioni. Si può dire che è raro osservare un valore cosı̀ alto, solo una
volta su 20, quindi si rifiuta l’ipotesi nulla con un livello del 5% (ovvero
con probabilità al massimo del 5% io rifiuto l’ipotesi nulla quando questa è
vera).
17
Primo gruppo Secondo gruppo Somma del primo gruppo
1. 121 118 110 34 22 12 349
2. 121 118 34 110 22 12 273
3. 121 110 34 118 22 12 265
4. 118 110 34 121 22 12 262
5. 121 118 22 110 34 12 261
6. 121 110 22 118 34 12 253
7. 121 118 12 110 34 22 251
8. 118 110 22 121 34 12 250
9. 121 110 12 118 34 22 243
10. 118 110 12 121 34 22 240
11. 121 34 22 118 110 12 177
12. 118 34 22 121 110 12 174
13. 121 34 12 118 110 22 167
14. 110 34 22 121 118 12 166
15. 118 34 12 121 110 22 164
16. 110 34 12 121 118 22 156
17. 121 22 12 118 110 34 155
18. 118 22 12 121 110 34 152
19. 110 22 12 121 118 34 144
20. 34 22 12 121 118 110 68
18
Teorema 2.2.2 Se X1 , . . . , Xn sono variabili aleatorie scambiabili, allora
esiste una variabile aleatoria Θ tale che
Yn
P [ X1 ≤ x1 , . . . , Xn ≤ xn | Θ] = E F (xj ) Θ (2.1)
j=1
quasi ovunque.
19
Dimostrazione. Dato un campione Z1 , . . . , Zm+n di variabili aleatorie, si
dice statistica d’ordine T (Z) = (Z(1) , . . . , Zm+n ) la statistica definita da:
Z(1) = min{Zi }
Z(2) = min{Zi : Zi ≥ Z(1) }
..
.
Z(n) = min{Z(i) : Z(i) ≥ Z(n−1) }
Date Z1 , . . . , Zm+n , m + n variabili aleatorie, la statistica d’ordine T (Z) =
T (Z1 , . . . , Zm+n ) = (Z(1) , . . . , Z(m+n) ) è sufficiente e completa. Una ulte-
riore condizione necessaria e sufficiente affinché il test sia non distorto è
che E[δ(Z)|T (z)] = α quasi ovunque. Calcoliamo ora la distribuzione di Z
condizionata a T (Z): osserviamo che la densità di T (Z) vale
(m + n)! m+n
Q
i=1 f (ti ) se t1 ≤ . . . ≤ tm+n
0 altrimenti
La densità di Z condizionata a T (Z) vale allora:
f (z1 , . . . , zm+n |Z1 = t1 , . . . , Zm+n = tm+n )
( Q
i fQ
(zi )
(m+n)! i f (zi ) se Z1 = t1 , . . . , Zm+n = tm+n
=
0 altrimenti
ovvero la densità di Z condizionata a T (Z) assegna probabilità 1/(m + n)!
ad ogni elemento di S(z). Si può concludere che E[δ(Z)|T (z)] = α se e solo
1 0
P
se (m+n)! z ∈S(z) δ(z ) = α e il teorema è dimostrato.
0
20
F (x) e G(x) rappresentano le probabilità che la variabile aleatoria di cui
sono distribuzione sia minore o uguale a x, ovvero rappresentano, in un
certo senso, le probabilità di ottenere ”piccoli valori”: la relazione (2.4)
esprime il fatto che piccoli valori sono meno probabili con G che con F .
Siano X1 , . . . , Xm variabili aleatorie indipendenti e identicamente dis-
tribuite con funzione di distribuzione F e siano Y1 , . . . , Yn variabili aleatorie
indipendenti e identicamente distribuite con funzione di distribuzione G. Le
ipotesi che si vogliono sottoporre a verifica sono le seguenti:
H0 : F = G
H1 : F 6= G
21
• h0 (v) ≤ h1 (v) per ogni v.
La precedente disuguaglianza vale per ogni x, quindi F1 (x) ≤ F0 (x) per ogni
x.
Viceversa, si supponga che F1 (x) ≤ F0 (x) per ogni x. Si definisce:
y ≤ Fi (x0 ) (2.8)
grazie all’equivalenza delle relazioni (2.7) e (2.8). Poiché per ipotesi F1 (x) ≤
F0 (x) per ogni x, si può concludere che h0 (y) ≤ h1 (y) per ogni y.
22
Lemma 2.3.4 Siano X1 , . . . , Xm variabili aleatorie indipendenti e iden-
ticamente distribuite con funzione di distribuzione F , e siano Y1 , . . . , Yn
variabili aleatorie indipendenti e identicamente distribuite con funzione di
distribuzione G. Sia δ(X1 , . . . , Xm ; Y1 , . . . , Yn ) un test tale che:
Poiché per ipotesi f (z) ≤ g(z) per ogni z, vale anche che f (vi ) ≤ g(vi ) per
ogni vi dove vi è una generica realizzazione di Vi .
Per ogni realizzazione (v1 , . . . , vm+n ) per ipotesi vale che
23
Dimostrazione del teorema 2.3.2. Per dimostrare il teorema, si
applichi il lemma (2.3.4). Se sono verificate le ipotesi di tale lemma, si può
concludere che δ è non distorto.
Il fatto che β(F, F ) = α segue dal teorema (2.2.4) e dalla definizione di
δ. Il primo punto del lemma (2.3.4) è verificato. La definizione di test di
permutazione data dall’espressione (2.2) diventa ora
X
0 m+n
δ(z ) = α .
0
n
z ∈S(z)
positive.
Pe una particolare permutazione di indici (j1 , . . . , jm+n ) vale
m+n
X m+n
X p
X p
X
zi − zji = zs i − zr i (2.9)
i=m+1 i=m+1 i=1 i=1
dove r1 < . . . < rp rappresentano gli interi jm+1 , . . . , jm+n che sono minori o
uguali a m, mentre s1 < . . . < sp rappresentano gli interi m+1, . . . , m+n che
non erano compresi nell’insieme jm+1 , . . . , jm+n . Come esempio di questo
fatto si considerino 5 realizzazioni z1 , z2 , z3 , z4 , z5 e sia m = 2 e n = 3, e si
consideri una generica permutazione:
24
m=2 n=3
z 1 z2 z3 z4 z5
z3 z1 z4 z5 z2
z3 + z4 + z5 − z1 − z 5 − z2 = z3 + z4 − z1 − z2 .
La sequenza di permutazione vale infatti (3, 4, 1, 2, 5). Gli interi jm+1 , . . . , jm+n
che sono minori o uguali a m sono 1 e 2, mentre gli interi m + 1, . . . , m + n
che non sono compresi nell’insieme jm+1 , . . . , jm+n sono 3 e 4. Con queste
osservazioni
P si verifica P l’uguaglianza.
Se pi=1 zsi − pi=1 zri è positiva, e se yP 0
i ≤ yi , ovvero zi ≤ zi0 per i =
p p
m + 1, . . . , m + n allora anche la differenza i=1 zs0 i − i=1 zri è positiva e
P
quindi δ soddisfa il primo punto del lemma (2.3.4).
per k > 0, e
α = E0 [δ(Z)]. (2.12)
Allora:
25
• Se esiste un test δ che soddisfa (2.11) e (2.12) e se un altro test δ 0
è UMP di livello α per le ipotesi (2.10), allora δ 0 soddisfa (2.11) e
(2.12) tranne al più in un insieme A di misura nulla per entrambe le
distribuzioni.
Prima di passare alla trattazione dei test UMP, viene riportato un risultato
che sarà utilizzato in seguito.
Siano X1 , . . . , Xn variabili aleatorie indipendenti e identicamente dis-
tribuite con funzione di distribuzione continua e sia
26
La formula precedente può essere ricavata anche senza supporre che
X1 , . . . , Xn siano indipendenti e identicamente distribuite. Si supponga
che X1 , . . . , Xn abbia densità congiunta h(x) rispetto ad una misura µ
(come per esempio la misura di Lebesgue), che sia simmetrica nelle vari-
abili x1 , . . . , xn , nel senso che per ogni A ∈ A tale densità assegni all’in-
sieme {x : (xi1 , . . . , xin ) ∈ A} la stessa misura per tutte le permutazioni
(i1 , . . . , in ).
Sia P
f (xi1 , . . . , xin )h(xi1 , . . . , xin )
f0 (x1 , . . . , xn ) = P
h(xi1 , . . . , xin )
dove le somme si intendono estese a tutte le n! permutazioni di (x1 , . . . , xn ).
La funzione f0 è simmetrica nei suoi n argomenti e quindi è A0 misurabile.
Per ogni insieme A0 , l’integrale
Z
f0 (x1 , . . . , xn )h(xi1 , . . . , xin )dµ(x1 , . . . , xn )
A0
1
R P
= A0 f0 (x1 , . . . , xn ) n! h(xi1 , . . . , xin )dµ(x1 , . . . , xn )
R
= A0 f (x1 , . . . , xn )h(x1 , . . . , xn )dµ(x1 , . . . , xn )
27
Per massimizzare la potenza di δ soddisfacendo anche la condizione (2.2) è
necessario massimizzare E[δ(Z)|T (Z) = t] per ogni t soddisfacendo anche
la (2.2). Il problema si riduce a determinare una funzione δ(z) tale che,
soddisfacendo X 1
δ(z) =α
(m + n)!
z∈S(t)
massimizzi
X h(z)
δ(z) P 0
.
z∈S(t) z 0 ∈S(t) h(z )
h(z)
P 0
(2.14)
z 0 ∈S(t) h(z )
H0 : Zi ∼ N (η, σ 2 ) i = 1, . . . , m + n
(2.15)
Z ∼ N (η, σ 2 ) i = 1, . . . , m
H1 : i
Zi ∼ N (η + ∆, σ 2 ) i = m + 1, . . . , m + n
con ∆ > 0. Si vuole eseguire un test sull’uguaglianza delle medie dei due
campioni (aventi la stessa varianza). Tale test può essere esguito con le
tecniche dei test parametrici, ma ora lo si vuole eseguire con la teoria dei
test di permutazione, per mostrare che si giunge alle medesime conclusioni.
28
Per prima cosa si calcola la distribuzione congiunta sotto l’ipotesi H1 :
n hP io
1 N/2 exp − 1 m 2+
Pm+n 2
h(z) = ( 2πσ 2 ) 2σ 2
(z
j=1 j − η) j=m+1 j (z − η − ∆)
n hP
1 N/2 exp − 1 m 2
Pm+n 2
= ( 2πσ 2) 2σ 2 j=1 (zj − η) + j=m+1 (zj − η) +
io
+ m+n
P 2
Pm+n
j=m+1 ∆ − 2∆ j=m+1 (zj − η)
n hP
1 N/2 exp − 1 m+n 2
Pm+n
= ( 2πσ 2) 2σ 2 j=1 (zj − η) − 2∆ j=m+1 (zj − η)+
2
+n∆
n hP
1 N/2 exp 1 m 2
Pm+n
= ( 2πσ 2) − 2σ2 j=1 (zj − η) − 2∆ j=m+1 zj +
2
+2n∆η + n∆
n hP
1 N/2 exp − 1 m 2
Pm+n
= ( 2πσ 2 ) 2σ 2 j=1 (zj − η) − 2∆ j=m+1 zj +
+n∆(2η + ∆)]}
Ȳ − X̄
q > z1−α (2.17)
σ 2 ( n1 + 1
m)
29
(2.16) può essere riscritta come
2n
X σ2
zj > ln (C[T (z), α]) (2.18)
∆
j=n+1
Per quanto riguarda il caso parametrico, si può osservare che i due campioni
hanno densità Xi ∼ N (µ, σ 2 ) e Yi ∼ N (µ+∆, σ 2 ). Le Yi possono essere viste
come la somma di due variabili aleatorie Normali entrambe con varianza σ 2 ,
una con media µ e l’altra con media ∆: le Yi possono quindi essere riscritte
come Yi = Xi + i , dove Xi ∼ N (µ, σ 2 ) e i ∼ N (∆, σ 2 ). Il termine di
sinistra della (2.17) può essere riscritto come
Pn
j=1 j
√
2nσ 2
e quindi (2.17) diventa
Xn √
j > z1−α 2nσ 2 (2.19)
j=1
A meno di fattori costanti, che possono rientrare nella costante C[T (z), α],
le sommatorie delle espressioni (2.18) e (2.19) coincidono e quindi, a patto
di prendere un adeguato valore per C[T (z), α], i processi decisionali (2.18)
e (2.19) portano alle medesime conclusioni.
Tutti i precedenti risultati sono stati riportati da Good [5] e da Lehmann [9]
30
2.5.1 Test per un campione
Dato X = (X1 , . . . , Xn ) campione di ampiezza n e con funzione di dis-
tribuzione incognita F . Per prima cosa si vogliono sottoporre a verifica le
seguenti ipotesi sull media:
H0 : µ(F ) = µ0
H1 : µ(F ) 6= µ0 .
k ≤ α2n ≤ k + 1
31
con probabilità 1, e
x
sup Rn (x, Gn ) − Φ
→0 (2.21)
x σ(F )
32
con probabilità 1. Da questo si dimostra che Rn (·, Gn ) converge debolmente
a Φ(·/σ(F )) per quasi tutte le sequenze campionarie X1 , X2 , . . .. Dal mo-
mento che tale distribuzione limite è continua, segue che la convergenza è
uniforme in x, vale (2.21). Da (2.21) e dal fatto che Jn (x, F ) → Φ(x/σ(F ))
uniformemente in x, segue (2.20). Per provare (2.22), si noti che ogni volta
che Hn (·) è una sequenza di funzioni di distribuzione che convergono uni-
formemente ad una funzione di distribuzione H(·) continua e strettamente
crescente, allora Hn−1 (1 − α) → H −1 (1 − α); in questo caso Hn−1 (1 − α)
può essere qualsiasi numero compreso tra sup{x : Hn (x) ≤ (1 − α)} e
inf{x : Hn (x) ≥ (1 − α)}. Poiché rn è il quantile 1 − α di Rn (·, Gn ), segue
(2.22).
H0 : med(X1 , . . . , Xn ) = m0
H1 : med(X1 , . . . , Xn ) 6= m0 .
33
Prima di procedere alla dimostrazione del teorema è necessario enunciare
il seguente lemma:
Lemma 2.5.4 Sia x1 , . . . , xn una fissata sequenza di numeri. Sia Rn (x) la
funzione di distribuzione di Sn = n−1/2 med(σ1 x1 , . . . , σn xn ), dove le σi sono
variabili aleatorie indipendenti e identicamente distribuite tali che P [σi =
1] = P [σi = −1] = 1/2. Per un vlore fissato x, sia An = An (x) il numero
di xi , con 1 ≤ i ≤ n, tali che |xi | > √1n x. Si assuma che
An
= 1 − n−1/2 2xC + o(n−1/2 ) (2.27)
n
per n → ∞, dove C è una costante positiva. Allora Rn (x) → Φ(2xC).
Dimostrazione del teorema 2.5.3. Sia Rn (·, Gn ) la funzione di dis-
tribuzione di n−1/2 med(σ1 X1 , . . . , σn Xn ), con le Xi considerate fissate. Sia
An = An (x) il numero di Xi , con 1 ≤ i ≤ n, tali che |Xi | > n−1/2 x. Allora
An ∼ BI(n, pn ), dove pn = 1 − [F (n−1/2 x) − F (−n−1/2 )]. Infatti
h i
An = n − n F̂n (n−1/2 x) − F̂n (−n−1/2 )
34
Analogamente a quanto dimostrato nel teorema precedente, Rn (·, Gn )
converge debolmente a Φ(2f (0)·) per quasi tutte le sequenze campionarie.
Da (2.25) e dal fatto che Jn (x, F ) → Φ(x/σ(F )) uniformemente in x, segue
(2.24). Per provare (2.26), si noti che ogni volta che Hn (·) è una sequenza di
funzioni di distribuzione che convergono uniformemente ad una funzione di
distribuzione H(·) continua e strettamente crescente, allora Hn−1 (1 − α) →
H −1 (1−α); in questo caso Hn−1 (1−α) può essere qualsiasi numero compreso
tra sup{x : Hn (x) ≤ (1 − α)} e inf{x : Hn (x) ≥ (1 − α)}. Poiché rn è il
quantile 1 − α di Rn (·, Gn ), segue (2.26).
H0 : µ(FX ) = µ(FY )
H1 : µ(FX ) 6= µ(FY ).
35
dove Sm,n (X) è la statistica valutata in corrispondenza delle osservazioni
originali, mentre k è tale che
k ≤ αN ! ≤ k + 1
36
Allora
zτ
sup RN (z, Π) − Φ √ →0
z λ
con probabilità 1, e √
rN → τ z1−α λ
con probabilità 1.
per ogni r ∈ N.
µr (HN )
= O(1). (2.28)
[µr (HN )]r/2
37
Allora, per N → ∞, vale
Z t
1 1 2
P [LN − E[LN ] < tσ(LN )] → √ e− 2 x dx
2π −∞
e
N
d i − 1
1 X
d0i = [µ2 (DN )]− 2 dj . (2.30)
N
j=1
0 continuano a soddisfare la condizione W . Inoltre
Le sequenze A0N e DN
µ1 (A0N ) ≡ µ1 (DN
0
)≡0 (2.31)
e
µ2 (A0N ) ≡ µ2 (DN
0
) ≡ 1. (2.32)
e X
d0i1 , . . . , d0ik = O(N [N/2] ). (2.34)
i1 <i2 <···<ik ≤N
38
• Esiste una sequenza di numeri l1 , . . . , lr , . . ., tali che
N
1 X r
ai ≤ lr (2.35)
N
i=1
• Vale
lim inf µ2 (AN ) > 0. (2.36)
N
39
Allora vale
E[L0p
N ] = O(N
[p/2]
). (2.41)
O(N [k/2]−k ) j1 6=···6=jk+r d0j1 · · · d0jk d0ijk+1 · · · d0ijk+r = O(N [k/2]−k )O(N [k/2]+r )
P 1 r
.
= O(N 2[k/2]−k+r )
e il lemma è dimostrato.
40
Lemma 2.5.14
(2k)! X
E[L02k
N ]− d02 02
i1 · · · dik E[V12 · · · Vk2 ] = o(N k ). (2.43)
k!2k
i1 6=···6=ik
Lemma 2.5.15
E[L0N ] = 0 (2.44)
E[L02 2
N ] = N E[V1 ] + o(N ) = N + o(N ). (2.45)
è
N
!
X
d02
i E[V12 ] = N E[V12 ] = N
i=1
grazie alle formule (2.29) e (2.30).
Lemma 2.5.16
E[V12 · · · Vj2 ] = 1 + o(1) (2.46)
X
d02 02 j
i1 · · · dij = N + o(N ).
j
(2.47)
i1 6=···6=ij
Grazie alla (2.39) la somma di questi altri termini non può essere maggiore
di O(N j−1 ), e la (2.47) è dimostrata. In modo analogo si dimostra la (2.46).
41
Dimostrazione del teorema 2.5.9. Poiché
L0N LN − E[LN ]
L∗N = = ,
σ(L0N ) σ(LN )
è sufficiente mostrare che i momenti di L∗N tendono a quelli di una dis-
tribuzione Normale quando N → ∞. Dalla (2.44), dalla (2.45) e dalla (2.41)
si vede che, quando p è dispari, il momento p-esimo di L∗N è O(N −1/2 ) e tende
a zero quando N → ∞. Viceversa, quando p è pari ed è uguale a 2s, dal
lemma 2.5.14 segue che
(2s)! X
E[L02s
N ]− d02 02
i1 · · · dis E[V12 · · · Vs2 ] = o(N s ).
s!2s
i1 6=···6=is
∗2s (2s)!
lim E[LN ]=
N →∞ s!2s
e la dimostrazione del teorema è completata.
Un’applicazione (proposta da Pitman,1937) di questo risultato è la seguente.
Per sottoporre a verifica il fatto che due campioni provengano o meno dalla
stessa popolazione, Pitman ha proposto la seguente procedura. Siano
a1 , . . . , am
am+1 , . . . , am+n
di = 1 i = 1, . . . , m
di = 0 i = m + 1, . . . , m + n
42
e si costruiscano le sequenze DN e DN 0 . L’espressione della statistica test da
PN PN
per ogni r > 2, dove h̄ = 1/N i=1 hi e ū = 1/N i=1 ui .
43
con N = m + n.
Con questa scelta la somma pesata delle variabili N aleatorie viene ri-
condotta alla somma delle osservazioni provenienti dal secondo campione,
ovvero alla (2.5).
I teoremi (2.5.9) e (2.5.18) sono una generalizzazione del Teorema del
Limite Centrale. La differenza fondamentale è che mentre nel Teorema
del Limite Centrale le variabili aleatorie devono essere tutte indipenden-
ti e identicamente distribuite, ora non viene più fatta nessuna richiesta
sull’indipendenza delle variabili aleatorie.
una stima del livello α e il suo valore ovviamente dipende dal sottoinsieme
di permutazioni scelto.
Questo metodo, molto utile, è noto in letteratura come Monte Carlo
test. Dal momento che αR è basato su un sottoinsieme di permutazioni, tale
valore è affetto da un errore dipendente dal campionamento eseguito. Per
essere sicuri che tale errore sia sufficientemente piccolo, si deve selezionare
un sottoinsieme di permutazioni sufficientemente grande.
Siano X1 , . . . , Xm e Y1 , . . . , Yn due campioni di ampiezza m e n, e sup-
poniamo che l’ipotesi nulla sia che i due campioni abbiano la stessa dis-
tribuzione. Se è vera l’ipotesi nulla, allora il numero di permutazioni che
producono un valore della statistica maggiore o uguale a Goss è una variabile
aleatoria con distribuzione binomiale di parametri NR e α.
Definizione 2.6.1 Il coefficiente di variazione è una misura della disper-
sione relativa e viene definito come il rapporto tra la deviazione standard e
44
la media, in formula: p
var(X)
,
|E[X]|
dove X è una generica variabile aleatoria.
In questo caso X è la variabile aleatoria che rappresenta il numero di permu-
tazioni che producono un valore della statistica maggiore o uguale a Goss :
il coefficiente di variazione assume in tal caso la seguente forma:
s
(1 − α)
.
NR α
Per trovare valori di NR che permettano di stimare con precisione valori
piccoli di α si impone che il coefficiente di variazione di X sia minore di un
certo valore prefissato, ad esempio 0.05 o 0.1. Per ottenere un coefficiente
di variazione di 0.1 con α = 0.5, NR deve essere pari a 100, ma questo
valore cresce fino a 1900 se α = 0.05. Questo è intuitivamente ragionevole:
un numero maggiore di simulazioni è necessario per determinare, con una
precisione fissata, la probabilità di un evento raro piuttosto che la probabilità
di un evento più comune.
Per determinare NR a partire dal coefficiente di variazione è necessario
conoscere una stima di α. Un primo approccio a questo problema, di tipo
conservativo, è quello di scegliere un valore di α molto piccolo, a patto
però di essere disposti a utilizzare, se il valore di α non è quello esatto,
un numero di permutazioni maggiore del necessario. Questo metodo si usa
per applicazioni in cui risulta agevole campionare anche molte migliaia di
permutazioni, e la valutazione della statistica sia veloce.
Un approccio alternativo, detto sequenziale (Besag e Clifford, 1991), è
utile quando la valutazione della statistica è molto dispendiosa in termini
di tempo o di memoria del calcolatore occupata. L’idea che sta alla base
è che se la statistica osservata non è un valore estremo rispetto alle altre,
allora è probabile che la maggior parte dei valori di G ottenuti a partire dalle
prime (poche) permutazioni siano maggiori di Goss . Per esempio, se 40 tra
le prime 100 osservazioni danno valori della statistica G maggiori di Goss ,
allora risulta chiaro che tale test non rifiuterà l’ipotesi nulla. In tal caso non
serve procedere con altre permutazioni per ottenere una stima sempre più
accurata di αR , perchè è molto probabile che non si rifiuterà l’ipotesi nulla.
D’altro canto, se Goss è un valore estremo, si deve andare avanti a campi-
onare nuove permutazioni fino a ottenere una stima sufficientemente precisa
di α. Besag e Clifford sostengono di dover continuare a campionare permu-
tazioni e calcolare G fino a che non si ottengono h valori di G maggiori di
45
Goss . Se il numero di permutazioni necessarie per ottenere questo è l, allora
la stima di α è αR = h/l. Per h si scelgono solitamente valori pari a 10 o 20,
ma nel caso di campionamenti e valutazioni di G particolarmente onerosi, si
possono scegliere valori di h più piccoli.
I valori dei livelli che si possono ottenere con questo metodo sono valori
discreti, del tipo 0, 1/NR , . . . , (NR − 1)/NR , 1. Nella pratica però NR è
sufficientemente grande da generare una griglia molto fitta di valori.
I risultati appena presentati sono riportati in [1].
Esempio. Due gruppi di topi sono stati trattati con due due differenti
tipologie di diete: per il primo gruppo una dieta con un alto contenuto di
proteine, e per secondo caso con un basso contenuto di proteine. Per en-
trambi i gruppi è stato misurato l’aumento di peso tra il 28esimo e l’84esimo
giorno di trattamento. I dati ottenuti sono riportati in tabella 2.3. Si vuole
46
decide di considerare come statistica test il rapporto tra le deviazioni stan-
dard dei due gruppi. La tabella 2.4 mostra i valori ottenuti e alcune delle
Permutazioni
Aumento Osservazioni 2 3 4 ... 50388
di peso (g) originali
134 H L H H L
146 H H L H L
104 H H H L L
119 H H H H L
124 H H H H L
161 H H H H L
107 H H H H L
83 H H H H H
113 H H H H H
129 H H H H H
97 H H H H H
123 H H H H H
70 L H H H H
118 L L L L H
101 L L L L H
85 L L L L H
107 L L L L H
132 L L L L H
94 L L L L H
Rapporti 1.037 1.349 1.116 1.653 ... 0.942
delle DevSt
47
può utilizzare il Monte Carlo test. Se si utilizza un coefficiente di variazione
pari a 0.1 e se si sceglie α = 0.05, allora sono necessarie 1900 permutazioni,
mentre se α = 0.1, allora ne servono solo 900.
Per 1900 permutazioni, 1760 danno risultati della statistica test mag-
giori di quella originale, e il valore di αR = 1760/1900 = 0.926. Per 900
permutazioni invece si ottengono 844 valori più grandi e αR = 844/900 =
0.938.
Utilizzando l’approccio sequenziale invece, si continua a generare per-
mutazioni finchè non si sono ottenuti 20 valori della statistica test maggiori
del valore originale. Già nelle prime 22 osservazioni si ottengono 20 valori
della statistica test maggiori di 1.037 e si ha αR = 20/22 = 0.909.
In tutti i test eseguiti si sono ottenute stime di α molto alte e simili tra
di loro, e si può concludere il test dicendo che non c’è evidenza per rifiutare
l’ipotesi nulla. Il vantaggio rispetto ad un test di permutazione normale è
che non è stato necessario generare e valutare tutte le 50388 permutazioni
possibili, ma ne è bastato un numero molto più ridotto.
48
Capitolo 3
3.1 Introduzione
Un’altra categoria di test non parametrici che spesso viene presentata assieme
ai test di permutazione è quella dei linear rank tests. Come dice il nome stes-
so, questo tipo di test si basa sul concetto di rango di un’osservazione (si
veda a tal proposito la definizione 3.2.1). Secondo alcuni (ad esempio, si
veda Lehmann [10]), i test di permutazione sono un caso particolare dei test
sui ranghi, mentre secondo altri (ad esempio, si veda Hajek e Sidak [6]) i
test sui ranghi sono un caso particolare dei test di permutazione. Quello che
è certo è che i test di permutazione e quelli sui ranghi sono due modi simili
di affrontare lo stesso problema inferenziale.
Da un lato i test di permutazione, utilizzando il valore dell’osservazione,
sfruttano tutta l’informazione contenuta nelle osservazioni stesse, mentre
dall’altro lato i test sui ranghi, basandosi sul rango dell’osservazione, sfrut-
tano già una sintesi delle informazioni contenute nelle osservazioni; in en-
trambi i casi però le conclusioni a cui si giunge sono le medesime.
In questo capitolo verranno presentati i risultati più importanti della
teoria dei linear rank tests e anche alcuni tra i tipi di test più diffusi.
49
si dice rango Ri di Xi rispetto a X1 , . . . , XN , il valore
N
X
Ri = u(Xi − Xj ) con i = 1, . . . , N
j=1
N
1 X
a(i, ·) = a(i, j)
N
j=1
e
N N
1 XX
ā = 2 a(i, j).
N
i=1 j=1
E[S] = N ā (3.2)
50
Infatti
var(S) = E (S − E[S])2
2
P N
= E i=1 (a(i, Ri ) − a(·, Ri ) − a(i, ·) + ā)
PN h i
2
= i=1 E (a(i, R i ) − a(·, R i ) − a(i, ·) + ā) +
P
+ i6=j E [a(i, Ri ) − a(·, Ri ) − a(i, ·) + ā] ·
1 P P
N (N −1) i6=j h6=k [a(i, h) − a(·, h) − a(i, ·) + ā]· (3.4)
PN
=− h=1 [a(i, h) − a(·, h) − a(i, ·) + ā][a(j, h) − a(·, h) − a(j, ·) + ā]
(3.5)
e che
P
i6=j [a(i, h) − a(·, h) − a(i, ·) + ā][a(j, h) − a(·, h) − a(j, ·) + ā] =
(3.6)
PN
=− i=1 [a(i, h) − a(·, h) − a(i, ·) + ā]2
si ottiene, sostituendo (3.5) e (3.6) nella (3.4)
var(S) = N1 N
P PN 2
i=1 j=1 [a(i, j) − a(·, j) − a(i, ·)ā] +
PN PN
+ N (N1−1) i=1 j=1 [a(i, j) − a(·, j) − a(i, ·)ā]2
PN PN
= 1
N −1 i=1 j=1 [a(i, j) − a(·, j) − a(i, ·) + ā]2
51
e la (3.3) è dimostrata.
Nel caso in cui H0 sia l’ipotesi nulla che ipotizza che le variabili aleato-
rie Xi siano tutte indipendenti e identicamente distribuite, vale il seguente
risultato generale.
Definizione 3.2.2 Sia J un intervallo di R aperto contenente lo 0. Una
famiglia F di densità d(x, θ), con θ ∈ J, si dice che soddisfa la condizione
A se
• d(x, θ) è assolutamente continua in θ per quasi tutti i valori di x.
• Il limite
˙ 0) = lim 1 [d(x, θ) − d(x, 0)]
d(x, (3.7)
θ→0 N
˙ θ) è la derivata parziale
esiste per quasi tutti i valori di x, dove d(x,
di d(x, θ) rispetto a θ.
• Vale Z +∞ Z +∞
lim ˙ θ)|dx =
|d(x, ˙ 0)|dx < ∞.
|d(x, (3.8)
θ→0 −∞ −∞
e che Z +∞ Z +∞
lim |f 0 (x − θ)|dx = |f 0 (x)|dx.
θ→0 −∞ −∞
Per ipotesi vale che Z +∞
|f 0 (x)|dx < ∞.
−∞
e quindi anche il terzo punto della definizione (3.2.2) è dimostrato.
52
Teorema 3.2.4 Sia F una famiglia di densità d(x, θ), con θ ∈ J, che
soddisfi la condizione A. Allora il test con regione critica
N
X
ci a(Ri , d) ≥ k (3.10)
i=1
è il rank test UMP di livello α per H0 contro ipotesi alternative con densità
q definita dalla (3.9), con ∆ > 0.
Definizione 3.2.5 Si dice linear rank statistic una rank statistic S della
forma
XN
S= ci a(Ri ) (3.11)
i=1
Ponendo
N
1 X
ā = a(i)
N
i=1
53
N
1 X
c̄ = ci
N
i=1
e
N
1 X
σa2 = (a(i) − ā)2
N −1
i=1
le formule (3.2) e (3.3) diventano
N
X
E[S] = ā ci
i=1
N
X
var(S) = σa2 (ci − c̄)2 .
i=1
La statistica S definita in (3.11) dipende dal campione X1 , . . . , XN solo
attraverso il vettore dei ranghi R ed dipende anche da una funzione di score
φ(u), con 0 < u < 1, tale che a(Ri ) è una funzione (uno score) dipendente
da φ. La scelta di φ e il tipo di dipendenza di S da φ non sono univoci, ma
dipendono solo dal tipo di test che si vuole utilizzare.
54
Vale il seguente teorema:
Teorema 3.3.1 Sotto l’ipotesi (3.13) il test con regione critica
N
X
a(Ri , f ) ≥ k
i=m+1
55
Grazie al teorema 3.3.1 il test con regione critica {S ≥ k}, con k definito
da (3.14), è il test UMP di livello α nel caso in cui f abbia distribuzione
Normale.
La statistica S ha media nulla, mentre la varianza di S vale
N
mn X 2
var(S) = E V(i) .
(m + n)(m + n + 1)
i=1
e S diventa
N
X
−1 Ri
S= Φ .
m+n+1
i=m+1
56
mentre la varianza di S vale
1
var(S) = mn(m + n + 1).
12
Una versione analoga della (3.16) è la statistica U di Mann-Whitney,
cosı̀ definita: sia
1 se Xi < Yj
Zij =
0 se Xi ≥ Yj
per ogni coppia
Pm di Xi , Yj , con i = 1, . . . , m e j = 1, . . . , n.PCon questa
n
notazione Z
i=1 ij è il numero di X minori di Yj , mentre j=1 ij è il
Z
numero di Y maggiori di Xi . La statistica U è:
m X
X n
U= Zij . (3.17)
i=1 j=1
1
var(S) = 12 mn(m + n + 1)
dove
N
0
X 1
S = sign(Ri − (m + n + 1)).
2
i=m+1
Tale distribuzione risulta asintoticamente normale nel caso in cui f sia una
densità della forma 12 e−|x| . Valgono inoltre:
1
E[S] = n
2
57
e (
mn
4(m+n−1) se m + n è pari
var(S) = mn
4(m+n) se m + n è dispari
58
Capitolo 4
Esempi ed applicazioni
In questo capitolo vengono presentati alcuni esempi pratici dei test presentati
nei capitoli precedenti.
Z > z1−α
59
dove
X̄ − Ȳ
Z= q ∼ N (0, 1)
2σ 2
n
σ2 σ2
X̄ ∼ N (µ0 , ) Ȳ ∼ N (µ1 , )
n n
e inoltre
2σ 2
Q̄ = X̄ − Ȳ ∼ N (θ, )
n
La funzione potenza β, definita, in ambito parametrico, come la probabilità
di cadere nella regione d rifiuto al variare del parametro nel suo dominio di
definizione, diventa, per il test che si sta analizzando,
" r # " r #
2σ 2 2σ 2
β(θ) = P Q̄ > z1−α = 1 − P Q̄ < z1−α
n n
ovvero q
2
z1−α 2σn − θ
β(θ) = 1 − Φ q
2σ 2
n
β(θ) = 1 − Φ(z1−α ) = 1 − 1 + α = α
che è il livello del test. Per ottenere in Matlab il grafico della funzione
potenza per θ compreso fra 0 e 3, implemento il seguente codice.
z=sqrt(2)*erfinv(1-2*a);
beta=inline(’0.5+0.5*erf((x-z*sqrt(s*2/n))/sqrt(s*4/n))’,’x’,’z’,’s’,’n’);
X=[0:0.01:3];
Y=beta(X,z,s,n);
plot(X,Y)
60
dove z=sqrt(2)*erfinv(1-2*a) è la formula per il quantile di ordine α
(indicata nel codice con la lettera a), s è la varianza e n l’ampiezza dei due
campioni, che per comodità considero uguale. La funzione erf è definita
come Z x
2 2
erf(x) = √ e−t dt
π 0
mentre erfinv è la sua inversa.
Per calcolare la funzione potenza del test di permutazione non esistono
formule esplicite, ma si deve ricorrere alla simulazione. Decido di utilizzare
due campioni di Normali cosı̀ distribuiti:
X1 , . . . , Xn ∼ N (1 + t, 1) Y1 , . . . , Yn ∼ N (1, 1)
61
perchè è la statistica test valutata in corrispondenza delle osservazioni orig-
inali. Salvo gli elementi dei vettori Z1 e Z2 in un unico vettore
Z=[Z1 Z2];
che contiene tutti gli elementi che andrò a permutare e ad utilizzare per
calcolare i valori della statistica test corrispondenti a tutte le possibili per-
mutazioni degli elementi.
A questo punto devo poter creare uno ‘schema’ da seguire che mi per-
metta di generare tutte le possibili permutazioni e mi permetta di calcolare
le rispettive statistiche test. Per fare questo creo un vettore
indici=[1:1:2*n];
perm=nchoosek(indici,n);
[1 5 7 8 10]
Z(1,1)+Z(1,5)+Z(1,7)+Z(1,8)+Z(1,10).
Per calcolare tutti i valori delle statistiche test basta iterare il procedimento
per tutte le righe di perm. Il codice è:
statistica=[];
for k=1:dim
somma=0;
for j=1:n
somma=somma+Z(1,perm(k,j));
end
statistica=[statistica, somma];
end.
62
Creo anche un vettore statistica, inizialmente vuoto, in cui vado ad ag-
giungere, alla fine di ogni ciclo, il valore della statistica test calcolato in
corrispondenza di una certa scelta di indici. dim è un numero ed è uguale a
2n
n .
Il vettore statistica contiene tutti i valori delle statistiche test, ma a
priori in ordine sparso. Per poter confrontare sommaoriginale con gli α 2n n
valori estremi creo un vettore statordinata contenente tutti gli elementi
di statistica in ordine crescente e poi confronto gli ultimi α 2n n elementi
di statordinata con sommaoriginale, a patto di aver fissato il valore di
α. Per questa simulazione ho fissato α, che in codice Matlab indico con a,
pari a 0.05. Se sommaoriginale cade tra i valori estremi, allora δ vale 1,
altrimenti vale 0; con il valore di δ che ottengo vado ad aggiornare, per ogni
test che eseguo, il vettore delta, i cui elementi saranno 0 o 1. In codice:
delta=[];
statordinata=sort(statistica);
numero=ceil(a*dim);
valoriestremi=statordinata(dim-numero+1:dim);
confronto=valoriestremi==sommaoriginale;
if sum(confronto)>=1
delta=[delta, 1];
else
delta=[delta, 0];
end
L’elemento generico j-esimo del vettore confronto vale 1 se l’elemento j-
esimo del vettore valoriestremi è uguale a sommaoriginale, altrimen-
ti vale 0. Se il vettore confronto contiene almeno un 1, vuol dire che
2n
sommaoriginale cade fra gli α n valori estremi e quindi δ vale 1, ovvero
rifiuto l’ipotesi nulla.
Dopo aver simulato 5000 volte, in corrispondenza di un valore di t fis-
sato, tale test, ripetendo tutti i passaggi appena descritti, il vettore delta
sarà formato da elementi uguali a 0 o 1. Il valore della funzione potenza
corrispondente a t è pari alla media degli elementi di delta. Per poter trac-
ciare il grafico finale aggiorno un vettore potenza, inizialmente vuoto, con
le medie di delta ottenute in corrispondenza di ogni incremento di t.
potenza=[potenza, mean(delta)];
Il codice intero del programma è riportato di seguito.
function finale
63
n=5;
potenza=[];
x=[0:0.01:3];
s=1
mu=1
a=0.05
z=sqrt(2)*erfinv(1-2*a);
beta=inline(’0.5+0.5*erf((x-z*sqrt(s*2/n))/sqrt(s*4/n))’,’x’,’z’,’s’,’n’);
Y=beta(x,z,s,n);
plot(x,Y)
hold on
for t=1.*x
delta=[];
indici=[1:1:2*n];
perm=nchoosek(indici,n);
dim=nchoosek(2*n,n);
for i=1:5000
Z1=sqrt(s)*randn(1,n)+mu+t;
Z2=sqrt(s)*randn(1,n)+mu;
Z=[Z1 Z2];
sommaoriginale=sum(Z1);
statistica=[];
for k=1:dim
somma=0;
for j=1:n
somma=somma+Z(1,perm(k,j));
end
statistica=[statistica, somma];
end
statordinata=sort(statistica);
numero=ceil(a*dim);
valoriestremi=statordinata(dim-numero+1:dim);
confronto=valoriestremi==sommaoriginale;
if sum(confronto)>=1
delta=[delta, 1];
else
delta=[delta, 0];
end
64
end
potenza=[potenza, mean(delta)];
end
plot(x,potenza,’r’)
title(’Funzioni potenza’)
legend(’Potenza teorica’,’Potenza empirica’)
xlabel(’theta’)
ylabel(’beta’)
return
65
4.2 Confronto della funzione potenza: esperimen-
to non bilanciato
Si vuole ora ripetere lo stesso test di permutazione del paragrafo precedente
nel caso in cui i campioni non abbaiano più la stessa ampiezza, ovvero nel
caso in cui si ha a che fare con un esperimento non bilanciato. Si dimostra che
la funzione potenza, a θ fissato, è massima quando i due campioni hanno la
stessa numerosità. In questo paragrafo si vuole controllare che questo valga
ancora nel caso di test di permutazione.
I campioni che si utilizzano per la simulazione sono
X1 . . . , Xn1 ∼ N (µ0 , σ 2 )
Y1 . . . , Yn2 ∼ N (µ1 , σ 2 )
function sbilanciato2
n1=2;
n2=8;
n=n1+n2;
potenza=[];
x=[0:0.01:3];
s=1
mu=1
a=0.05
% modello sbilanciato
for t=1.*x
delta=[];
indici=[1:1:n];
perm=nchoosek(indici,n1);
dim=nchoosek(n,n1);
66
for i=1:5000
Z1=sqrt(s)*randn(1,n1)+mu+t;
Z2=sqrt(s)*randn(1,n2)+mu;
Z=[Z1 Z2];
sommaoriginale=sum(Z1);
statistica=[];
for k=1:dim
somma=0;
for j=1:n1
somma=somma+Z(1,perm(k,j));
end
statistica=[statistica, somma];
end
statordinata=sort(statistica);
numero=ceil(a*dim);
valoriestremi=statordinata(dim-numero+1:dim);
confronto=valoriestremi==sommaoriginale;
if sum(confronto)>=1
delta=[delta, 1];
else
delta=[delta, 0];
end
end
potenza=[potenza, mean(delta)];
end
plot(x,potenza)
hold on
%modello bilanciato
n=5;
potenza=[];
x=[0:0.01:3];
for v=1.*x
delta=[];
indici=[1:1:2*n];
67
perm=nchoosek(indici,n);
dim=nchoosek(2*n,n);
for i=1:5000
Z1=sqrt(s)*randn(1,n)+mu+v;
Z2=sqrt(s)*randn(1,n)+mu;
Z=[Z1 Z2];
sommaoriginale=sum(Z1);
statistica=[];
for k=1:dim
somma=0;
for j=1:n
somma=somma+Z(1,perm(k,j));
end
statistica=[statistica, somma];
end
statordinata=sort(statistica);
numero=ceil(a*dim);
valoriestremi=statordinata(dim-numero+1:dim);
confronto=valoriestremi==sommaoriginale;
if sum(confronto)>=1
delta=[delta, 1];
else
delta=[delta, 0];
end
end
potenza=[potenza, mean(delta)];
end
plot(x,potenza,’r’)
title(’Funzioni potenza’)
legend(’Potenza sbilanciata’,’Potenza bilanciata’)
xlabel(’theta’)
ylabel(’beta’)
return
68
Figura 4.2: Grafico della potenza del test di permutazione nel caso di
esperimento bilanciato e sbilanciato
4 6 7 9 11 14 17 21
A B A A B B A B
69
A, 9. Per il quarto elemento appartenente ad A, 17, ci sono 3 elementi di B
che lo precedono.
La statistica U , definita dalla 3.17, è data dalla somma del numero di
tutti gli elementi di B che precedono ogni elemento di A, ovvero
U =0+1+1+3=5
Se U è molto piccolo, vuol dire che la maggior parte delle osservazioni ap-
partenenti ad A sono più piccole della maggior parte delle osservazioni ap-
partenenti a B; se U è molto grande, vuol dire che la maggior parte delle
osservazioni appartenenti ad A sono più grandi della maggior parte delle os-
servazioni appartenenti a B. Il valore minimo di U è 0, quando tutti i valori
di A sono più piccoli del più piccolo valore di B, mentre il valore massimo
di U è n1 n2 , dove n1 e n2 sono le numerosità dei due campioni, in questo
caso n1 = n2 = 4.
Se si conosce la distribuzione di U sotto l’ipotesi nulla in base alla quale
i due campioni provengono dalla stessa popolazione o meno, si può calco-
lare la probabilità di avere le osservazioni ottenute. La distribuzione di U
può essere facilmente calcolata. Esistono 84 = 70 possibili combinazioni
70
sono i valori minori o uguali a 5 e i valori maggiori o uguali a 16 − 5 = 11.
Dalla tabella 4.2 la probabilità di ottenere questi valori estremi vale:
Per prima cosa verifico che i due dati non abbiano distribuzione Nor-
male, tracciando il Normal Probability Plot per i due campioni. Il Normal
Probability Plot è uno strumento grafico che permette di visualizzare il buon
adattamento di una serie di dati ad una distribuzione Normale.
71
Figura 4.3: Normal Probability Plot per i dati provenienti da pazienti affetti
dal morbo di Crohn
Figura 4.4: Normal Probability Plot per i dati provenienti da pazienti affetti
da celiachia
72
Si può condurre un test statistico con la procedura di Mann-Whitney
appena introdotta.
Indico il gruppo di dati proveninti da pazienti affetti dal morbo di Crohn
con la lettera A, l’altro gruppo con la lettera B, e li ordino.
1.8 1.8 2.0 2.0 2.0 2.2 2.4 2.5 2.8 2.8
A B B B B A A A A A
3.0 3.2 3.6 3.8 3.8 4.0 4.2 4.2 4.4 4.8
B A A A B A B A A A
73
n2
n1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
2 - - - - - - 0 0 0 0 1 1 1 1 1 2 2 2 2
3 - - - 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8
4 - - 0 1 2 3 4 4 5 6 7 8 9 10 11 12 13 13
5 - 0 1 2 3 5 6 7 8 9 11 12 13 14 15 17 18 19 20
6 - 1 2 3 5 6 8 10 11 13 14 16 17 19 21 22 24 25 27
7 - 1 3 5 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
8 0 2 4 6 8 10 13 15 17 19 22 24 26 29 31 34 36 38 41
9 0 2 4 7 10 12 15 17 20 23 26 28 31 34 37 39 42 45 48
10 0 3 5 8 11 14 17 20 23 26 29 33 36 39 42 45 48 52 55
11 0 3 6 9 13 16 19 23 26 30 33 37 40 44 47 51 55 58 62
12 1 4 7 11 14 18 22 26 29 33 37 41 45 49 53 57 61 65 69
13 1 4 8 12 16 20 24 28 33 37 41 45 50 54 59 63 67 72 76
14 1 5 9 13 17 22 26 31 36 40 45 50 55 59 64 67 74 78 83
15 1 5 10 14 19 24 29 34 39 44 49 54 59 64 70 75 80 85 90
16 1 6 11 15 21 26 31 37 42 47 53 59 64 70 75 81 86 92 98
17 2 6 11 17 22 28 34 39 45 51 57 63 67 75 81 87 93 99 105
18 2 7 12 18 24 30 36 42 48 55 61 67 74 80 86 93 99 106 112
19 2 7 13 19 25 32 38 45 52 58 65 72 78 85 92 99 106 113 119
20 2 8 13 20 27 34 41 48 55 62 69 76 83 90 98 105 112 119 127
Tabella 4.4: Distribuzione del valore estremo più piccolo di U per un test
bilatero con un livello del 5%. Rifiuto l’ipotesi nulla se il valore di U ottenuto
è minore o uguale al valore riportato in tabella
74
Capitolo 5
La randomizzazione come
base per l’inferenza negli
studi clinici
75
sia possibile estrarre un campione. Nella maggior parte degli studi clinici i
pazienti vengono scelti tra quelli provenienti da una selezione non casuale di
ospedali: gli ospedali sono scelti in base alla loro fama, alla loro disponibilità
a collaborare e al loro budget. Da queste strutture scelte, si prendono una
selezione non casuale di pazienti, con i requisiti necessari per gli studi che si
vogliono eseguire e disposti a sottoporsi a questi studi. Solo a questo punto
si possono assegnare i pazienti in maniera casuale al trattamento A o B.
Estraendo gli nA e nB pazienti, è pratica comune supporre ugualmente
che entrambi i campioni provengano ciascuno da una qualche popolazione
indefinita di ampiezza infinita, anche se tali campioni non sono stati estratti
in maniera completamente casuale da queste popolazioni (anzi, talvolta tali
popolazioni non esistono del tutto). In questi casi, comuni nell’ambito clini-
co, si può dire che il modello di popolazione viene invocato come base da cui
partire per fare inferenza, ipotizzando quindi che ogni Yij abbia funzione di
distribuzione G(y|θi ). Il modello di popolazione e il modello di popolazione
invocato sono riassunti in tabella 5.1.
Sia nel modello di popolazione che nel modello invocato si è trattato
soltanto di modelli di popolazione omogenei, in cui cioè le risposte dei pazi-
enti ai trattamenti potevano essere rappresentate da variabili aleatorie aven-
ti la stessa distribuzione, dipendente solo dal trattamento assegnato. Nella
realtà però all’interno anche solo dei campioni stessi si hanno delle disomo-
geneità, o delle caratteristiche che variano nel tempo, di cui il modello, cosı̀
com’è, non tiene conto.
76
nulla che si poteva avere con un modello di popolazione, dove semplice-
mente si ipotizzava l’uguaglianza tra i parametri di due distribuzioni note a
meno del parametro. Una caratteristica essenziale del test di permutazione
è che, sotto l’ipotesi nulla di randomizzazione, l’insieme dei valori osservati
viene considerato come un insieme di valori deterministici che non dipen-
dono dal trattamento; la risposta cioè che si osserva per ogni paziente, sotto
l’ipotesi nulla, è quella che si sarebbe osservata indipendentemente dal trat-
tamento assegnato al paziente stesso. Le differenze che si osservano tra i due
gruppi dipendono solo dal modo in cui è stato assegnato a ciascun paziente
il trattamento.
A questo punto si sceglie una grandezza che possa rispecchiare un qualche
effetto del trattamento, e la si utilizza nella statistica test. Si valuta quindi
la statistica test scelta in funzione delle osservazioni originali e di quelle
permutate e si analizza la distribuzione ottenuta come fatto nel capitolo
sulla teoria dei test di permutazione.
Questo modo di procedere tuttavia sembra essere in contraddizione con la
teoria dei test parametrici. Nei test di permutazione le realizzazioni ottenute
sono considerate fissate mentre variano gli assegnamenti ad un trattamento o
all’altro; in un test con un modello di popolazione invece le variabili aleatorie
possono assumere in maniera casuale, con una certa probabilità, un valore
proveniente da un insieme fissato. Questa contraddizione viene meno se si
osserva che nel modello di randomizzazione non si ipotizza l’esistenza di una
popolazione di ampiezza infinita, nota o meno, da cui proviene il campione,
come invece accade nei test con un modello di popolazione.
77
Modello di popolazione Modello invocato
Popolazione di
Popolazione A Popolazione B
pazienti
Y ∼ G(y|θA ) Y ∼ G(y|θB )
indefinita
↓ ↓ ↓
Procedura di
Campionamento Campionamento campionamento
casuale casuale indefinita
↓ ↓ ↓
nA pazienti nB pazienti
N pazienti
YAj ∼ G(y|θA ) YBj ∼ G(y|θB )
↓
Randomizzazione
↓ ↓
nA pazienti nB pazienti
YAj ∼ G(y|θA ) YBj ∼ G(y|θB )
78
Modello di randomizzazione
N pazienti
↓
Randomizzazione
. &
nA pazienti nB pazienti
79
Bibliografia
[3] Casella G., Berger R.L.: Statistical Inference, Duxbury, CA, 2002
[4] Chow Y. S., Teicher H.: Probability Theory, Springer, NY, 1978
[6] Hajek J., Sidak P.D.:Theory of Rank Tests, Academic Press, NY, 1967
[12] Puri M.L., Sen P.K.: Nonparametric Methods in General Linear Models,
Wiley, NY, 1985
80
[14] Romano J.P.: On the Behavior of Randomization Tests Without a
Group Invariance Assumption, Journal of the American Statistical
Association, 1990, 85: 686-692
[16] Wald A., Wolfowitz J.: An Exact Test for Randomness in the Non-
Parametric Case Based on Serial Correlation, Annals of Mathematical
Statistics, 1943, 14: 378-388
81