Sei sulla pagina 1di 59

Appunti di

Misure Fisiche 2
Francesco Dulio
Indice
1 Concetti fondamentali 6
1.1 Variabile aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . 6
1.2 Spazio campionario o dei casi . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Eventi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Eventi incompatibili . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Spettro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Prova . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Misura, esperimento o campionamento . . . . . . . . . . . . . . . . . 7
1.7 Campione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.8 Popolazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.9 -algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.10 Spazio di probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.11 Quantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.12 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.13 Campione casuale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.14 Statistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.15 Probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.15.1 Probabilit soggettiva . . . . . . . . . . . . . . . . . . . . . . 8
1.15.2 Probabilit a priori . . . . . . . . . . . . . . . . . . . . . . . . 8
1.15.3 Probabilit frequentista . . . . . . . . . . . . . . . . . . . . . 9
1.15.4 Probabilit di Kolmogorov o assiomatica . . . . . . . . . . . . 9
1.15.5 Probabilit composta . . . . . . . . . . . . . . . . . . . . . . . 9
1.15.6 Probabilit condizionata . . . . . . . . . . . . . . . . . . . . . 9
1.15.7 Legge ipergeometrica . . . . . . . . . . . . . . . . . . . . . . . 9
1.16 Calcolo combinatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.16.1 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.16.2 Permutazioni con ripetizione . . . . . . . . . . . . . . . . . . 10
1.16.3 Disposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.16.4 Disposizioni con ripetizione . . . . . . . . . . . . . . . . . . . 10
1.16.5 Combinazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.16.6 Combinazioni con ripetizioni . . . . . . . . . . . . . . . . . . 10
1.17 Variabile standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.18 Ellisse di concentrazione . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.19 Momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2
1.20 Intervallo di condenza . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.21 Livello di condenza . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.22 Quantit pivotali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.23 Stimatore distorto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.24 Gradi di libert di una statistica . . . . . . . . . . . . . . . . . . . . 12
1.25 Scienza esatta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.26 Grandezze siche costanti e variabili . . . . . . . . . . . . . . . . . . 12
1.27 Sensibilit o risoluzione di uno strumento . . . . . . . . . . . . . . . 13
1.28 Errore statistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.29 Precisione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.30 Errore sistematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.31 Accuratezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.32 Funzione dellapparato . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Media, varianza, deviazione standard 15
2.1 Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Varianza
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Deviazione standard . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3 Criteri di convergenza 17
3.1 Limite in probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Limite quasi certo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Convergenza in legge o distribuzione . . . . . . . . . . . . . . . . . . 18
4 Principali distribuzioni 19
4.1 Densit di probabilit per variabili discrete . . . . . . . . . . . . . . 19
4.2 Densit di probabilit per variabili continue . . . . . . . . . . . . . . 19
4.3 Distribuzione binomiale . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3.1 Distribuzione geometrica . . . . . . . . . . . . . . . . . . . . . 20
4.4 Distribuzione di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.1 Processi poissoniani . . . . . . . . . . . . . . . . . . . . . . . 21
4.5 Legge esponenziale negativa dei tempi di arrivo . . . . . . . . . . . . 21
4.5.1 Densit di Weibull . . . . . . . . . . . . . . . . . . . . . . . . 22
4.5.2 Densit erlanghiana di ordine k o gamma . . . . . . . . . . . 22
4.6 Distribuzione gaussiana o normale . . . . . . . . . . . . . . . . . . . 22
4.6.1 Densit gaussiana bidimensionale . . . . . . . . . . . . . . . . 23
4.7 Densit
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.7.1 Distribuzione di Maxwell . . . . . . . . . . . . . . . . . . . . 25
4.7.2 Distribuzione Snedecor . . . . . . . . . . . . . . . . . . . . . . 25
4.8 Densit t di Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.9 Densit uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.9.1 Distribuzione triangolare . . . . . . . . . . . . . . . . . . . . . 26
4.10 Distribuzione di Boltzmann . . . . . . . . . . . . . . . . . . . . . . . 26
4.11 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3
5 Funzioni 28
5.1 Passaggio dallo spettro discreto a quello continuo . . . . . . . . . . . 28
5.2 Funzione comulativa o di ripartizione . . . . . . . . . . . . . . . . . . 28
5.3 Funzione degli errori . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6 Funzioni di variabili aleatorie 29
6.1 Funzione di una variabile aleatoria . . . . . . . . . . . . . . . . . . . 29
6.2 Funzione di pi variabili aleatorie . . . . . . . . . . . . . . . . . . . . 30
6.3 Trasformazione di media e varianza . . . . . . . . . . . . . . . . . . . 30
7 Stastistica di base 33
7.1 Determinazione degli intervalli di condenza . . . . . . . . . . . . . . 33
7.2 Approccio bayesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
7.3 Stima della probabilit da grandi campioni . . . . . . . . . . . . . . . 34
7.3.1 Per grandi campioni: . . . . . . . . . . . . . . . . . . . . . . . 35
7.3.2 Per piccoli campioni: . . . . . . . . . . . . . . . . . . . . . . . 35
7.4 Stima della probabilit da piccoli campioni . . . . . . . . . . . . . . . 35
7.5 Intervalli di stima per eventi poissoniani . . . . . . . . . . . . . . . . 36
7.6 Stima della media da grandi campioni . . . . . . . . . . . . . . . . . 37
7.7 Stima della varianza da grandi campioni . . . . . . . . . . . . . . . . 37
7.7.1 Varianza della varianza . . . . . . . . . . . . . . . . . . . . . 38
7.8 Stima della media da piccoli campioni . . . . . . . . . . . . . . . . . 39
7.9 Stima della varianza da piccoli campioni . . . . . . . . . . . . . . . . 39
7.10 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.11 Verica di una ipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.11.1 Confronto tra livello del test e SL . . . . . . . . . . . . . . . . 41
7.12 Verica di compatibilit tra due valori . . . . . . . . . . . . . . . . . 41
7.13 Stima della densit di una popolazione . . . . . . . . . . . . . . . . . 42
7.14 Verica di compatibilit tra campione e popolazione . . . . . . . . . 44
8 Statistica multidimensionale 45
8.1 Densit congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
8.2 Densit marginale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
8.3 Indipendenza di variabili . . . . . . . . . . . . . . . . . . . . . . . . . 46
8.4 Densit condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
8.5 Covarianza di due variabili . . . . . . . . . . . . . . . . . . . . . . . . 46
8.6 Correlazione tra variabili . . . . . . . . . . . . . . . . . . . . . . . . . 47
8.7 Densit normali condizionate . . . . . . . . . . . . . . . . . . . . . . 47
9 Analisi dei dati sperimentali 48
9.1 Misure indirette e propagazione degli errori . . . . . . . . . . . . . . 48
9.1.1 Metodo bootstrap . . . . . . . . . . . . . . . . . . . . . . . . 50
9.2 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
9.3 Denizione dei tipi di misura . . . . . . . . . . . . . . . . . . . . . . 51
9.3.1 M (0, 0, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
9.3.2 M (0, , 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
9.3.3 M (0, , ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
9.3.4 M (f, 0, 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4
9.3.5 M (f, , 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
9.3.6 M (f, 0, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
9.3.7 M (f, , ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
10 Teoremi 56
10.1 Teorema di additivit . . . . . . . . . . . . . . . . . . . . . . . . . . 56
10.2 Teorema del prodotto . . . . . . . . . . . . . . . . . . . . . . . . . . 56
10.3 Teorema di Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
10.4 Legge 3- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
10.4.1 Disuguaglianza di Tchebychev . . . . . . . . . . . . . . . . . . 57
10.5 Teorema Limite Centrale . . . . . . . . . . . . . . . . . . . . . . . . . 57
10.6 Teorema dellindipendenza stocastica . . . . . . . . . . . . . . . . . . 57
10.7 Teorema di Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
10.8 Additivit della variabile
2
. . . . . . . . . . . . . . . . . . . . . . . 57
10.9 Teorema delle variabili aleatore comulative . . . . . . . . . . . . . . . 58
10.10Teorema di Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . 58
10.11Teorema di indipendenza di variabili gaussiane . . . . . . . . . . . . 58
10.12Teorema del cambiamento di variabile in funzioni densit . . . . . . 58
10.13Indipendenza di M e S
2
. . . . . . . . . . . . . . . . . . . . . . . . . 58
10.14Varianza campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5
Capitolo 1
Concetti fondamentali
1.1 Variabile aleatoria
Una variabile statistica, aleatoria o casuale il risultato dellinterazione di molti
fattori, ognuno dei quali non preponderante sugli altri. Questi fattori (e le loro
leggi dinamiche) non possono essere completamente individuati, ssati e comunque
tenuti sotto controllo, nemmeno in linea di principio.
Una variabile aleatoria X(a) una funzione avente come dominio lo spazio S, come
codominio la retta reale e tale che linsieme degli elementi a per i quali vale la relazione
X(a) x un evento per x R.
Deve essere sempre denita su tutti gli elementi dello spazio campionario S.
Su uno stesso spazio di probabilit si possono denire pi variabili aleatorie.
1.1.1 Variabili aleatorie indipendenti
Se le variabili aleatorie X
i
sono denite sullo stesso spazio di probabilit e gli
eventi X
i
A
i
sono indipendenti secondo la denizione 1.15.4, per ogni scelta
possibile degli intervalli A
i
R
x
da 1.3.1 si ha:
PX
1
A
1
, . . . X
n
A
n
=

i
PX
i
A
i
.
1.2 Spazio campionario o dei casi
Insieme di tutti i possibili valori diversi (casi) che pu assumere una variabile
aleatoria.
1.3 Evento
Particolare combinazione o particolare sottoinsieme di casi. a : X(a) R
0
.
1.3.1 Eventi indipendenti
Se P(

iJ
A
i
) =

iJ
P(A
i
)
6
1.3.2 Eventi incompatibili
Due eventi sono incompatibili o disgiunti se quando si realizza A non si realizza
B e viceversa: A B =
1.4 Spettro
Insieme di tutti gli elementi diversi del sottoinsieme di casi che denisce levento.
Codominio reale della variabile aleatoria 1.1.
Se il codominio un insieme numerabile, diremo che lo spettro discreto;
quando i valori possibili sono su tutto R, o su unioni di interevalli di R, diremo che
lo spettro continuo.
1.5 Prova
Insieme delle operazioni che realizzano levento.
1.6 Misura, esperimento o campionamento
Insieme di prove.
1.7 Campione
Risultato di un esperimento.
1.8 Popolazione
Risultato del numero di prove, nito o innito, tale da esaurire tutti gli eventi
possibili.
1.9 -algebra
Ogni famiglia T di sottoinsiemi di S aventi le propriet:
a) linsieme vuoto appartiene ad T : T;
b) se una innit di insiemi A
1
, A
2
, T, allora

i=1
A
i
T;
c) se A T, lo stesso vale per linsieme complementare:

A T.
1.10 Spazio di probabilit
Terna (S, T, P) formata dallo spazio campionario, da una -algebra T e da
P.
7
1.11 Quantile
Si chiama quantile di ordine il pi piccolo valore x

che verica la disuguaglianza


PX x

= F(x

) .
1.12 Valore atteso
Se f(X) una funzione di una variabile aleatoria X avente densit di proba-
bilit p(x) (4.1, 4.2), si denisce come: f(X) E [f(X)] =

k
f(x
k
)p(x
k
)
_
f(x)p(x)dx.
1.13 Campione casuale
Insieme delle N variabili X
i
indipendenti ed aventi densit di probabilit p(x)
(4.1, 4.2).
1.14 Statistica
Dato un campione 1.13 di densit p(x) (4.1, 4.2), una funzione
T = t(X
1
, . . . X
N
) (1.1)
che non contiene alcun parametro incognito, una variabile aleatoria 1.1 che prende
il nome di statistica.
1.15 Probabilit
Valutazione quantitativa della possibilit di ottenere un determinato evento.
Viene fatta o su base dellesperienza, utilizzando modelli matematici, o su base
puramente soggettiva.
Segue in 3.
1.15.1 Probabilit soggettiva
Grado di convinzione (degree of belief ) soettivo circa il vericarsi di un evento.
1.15.2 Probabilit a priori
Se N il numero totale di casi dello spazio campionario di una variabile aleatoria
ed n il numero di casi favorevoli per i quali si realizza levento A, la probabilit a
priori di A data da
P(A) =
n
N
. (1.2)
8
1.15.3 Probabilit frequentista
Se m il numero di prove in cui si vericato levento A su un totale di M prove,
la probabilit di A data da
P(A) = lim
M+
m
M
. (1.3)
1.15.4 Probabilit di Kolmogorov o assiomatica
Una funzione P(A) che soddisfa a P : T [0, 1] ed alle propriet: P(A) 0;
P(S) = 0
per ogni famiglia nita o numerabile A
1
, A
2
, . . . di insiemi di T, tra loro mutualmente
disgiunti:
P
_

_
i=1
A
i
_
=

i=1
P (A
i
) (1.4)
1.15.5 Probabilit composta
Si denisce P(AB) oppure P(AB) la probabilit che si verichino contempora-
neamente gli eventi A e B.
1.15.6 Probabilit condizionata
Si denisce P(B[A) la probabilit che si verichi levento B essendosi vericato
levento A. Essa espressa come:
P(B[A) =
P(A B)
P(A)
se P(A) > 0. (1.5)
1.15.7 Legge ipergeometrica
Permette di calcolare la probabilit che da unurna contenente a biglie di tipo A e
b biglie di tipo B si estraggano k biglie di tipo A avendone estratte n a +b senza
reintroduzione nellurna. Assumendo che tutte le biglie abbiano la stessa probabilit
di essere estratte e che le estrazioni siano indipendenti si ha:
P k; a, b, n =
_
a
k
__
b
nk
_
_
a+b
n
_ . (1.6)
1.16 Calcolo combinatorio
1.16.1 Permutazioni
P
n
= n! (1.7)
9
1.16.2 Permutazioni con ripetizione
P

k
1
...k
r
=
n!

r
j=1
(k
j
!)
(1.8)
1.16.3 Disposizioni
D
n,k
=
n!
(n k)!
(1.9)
1.16.4 Disposizioni con ripetizione
D

n,k
= n
k
(1.10)
1.16.5 Combinazioni
C
n,k
=
D
n,k
P
k
=
n!
k!(n k)!
=
_
n
k
_
(1.11)
1.16.6 Combinazioni con ripetizioni
C

n,k
=
_
n +k 1
n 1
_
(1.12)
1.17 Variabile standard
Variabile fondamentale in statistica che misura lo scarto di un valore x dalla sua
media in unit di deviazione standard:
T =
X

che assume i valori t =


x

. (1.13)
Ha media nulla e varianza unitaria.
1.18 Ellisse di concentrazione
Se si immagina di tagliare la curva gaussiana bidimensionale con piani di quota
costante, lintersezione d luogo ad una curva di equazione per variabili standard:
u
2
+2uv +v
2
= costante (1.14)
e per variabili normali:
(x
x
)
2

2
x
2
(x
x
) (y
y
)

y
+
(y
y
)
2

2
y
= costante. (1.15)
Queste curve in generale rappresentano delle ellissi con centro nel punto (
x
,
y
).
10
- se = 0, lellisse ha gli assi principali paralleli agli assi di riferimento;
- se
x
=
y
, lellisse degenera in una circonferenza;
- se = 1, le variabili sono completamente correlate e lellisse degenera in una
retta di equazione
(x
x
)

(y
y
)

y
= costante .
1.19 Momento

n
=

k=1
p
k
(x
k
)
n

_
+

(x )
n
p (x) dx. (1.16)
1.20 Intervallo di condenza
Se il valore vero del parametro incognito ad esso corrisponde sullasse dei
valori misurati lintervallo [x
1
, x
2
] e, per costruzione, si ha Px
1
X x
2
= CL.
Dato che quando x = x
1
sullasse dei parametri =
2
e quando x = x
2
sullasse dei
parametri =
1
, per costruzione x [x
1
.x
2
] se e solo se [
1
,
2
]. Vale allora la
relazione fondamentale:
P x
1
X x
2
= P
1

2
= CL. (1.17)
Date due statistiche
1
e
2
con
1
e
2
variabili continue e
1

2
con probabilit
1, si dice che I = [
1
,
2
] un intervallo di condenza per un parametro , di livello
di condenza 0 < CL < 1, se, appartenente allo spazio dei parametri, la probabilit
che I contenga vale CL:
P
1

2
= CL. (1.18)
Se
1
e
2
sono variabili discrete, lintervallo di condenza lintervallo pi piccolo
che soddisfa la relazione:
P
1

2
CL. (1.19)
Nellintervallo di condenza 1.18 gli estremi sono variabili aleatorie, mentre il parame-
tro ssato; di conseguenza il livello di condenza va sempre riferito allintervallo
I = [
1
,
2
] ed indica la frazione di esperimenti che individuano correttamente il
valore vero, in un insieme innito di esperimenti ripetuti, ognuno dei quali trova un
intervallo di condenza diverso.
Ogni particolare intervallo [
1
,
2
] viene ricavato con un metodo che d il risultato
corretto in una frazione CL degli esperimenti.
In statistica lecito chiamare intervallo di condenza sia lintervallo aleatorio
I = [
1
,
2
] sia le sue realizzazioni numeriche [
1
,
2
].
1.21 Livello di condenza
La probabilit che un intervallo ha di contenere la vera probabilit p di osservare
un evento si chiama livello di condenza. Si indica con CL (1), con chiamato
livello di signicativit. Questo intervallo deve avere contemporaneamente un livello
di condenza elevato e unampiezza ridotta perch sia utile.
11
1.22 Quantit pivotali
Variabili aleatorie la cui distribuzione non dipende dal parametro che si vuole
stimare.
Se Q(X, ) una quantit pivotale, la probabilit PQ A non dipende da , A R.
1.23 Stimatore distorto
Uno stimatore si dice distorto quando la media degli stimatori T
N
, calcolati da
un campione di dimensione N, dierisce dal limite per N dallo stimatore.
1.24 Gradi di libert di una statistica
Il numero dei gradi di libert di una statistica T = t
_
X
1
, . . . , X
N
,

_
dipendente
da un insieme noto di parametri

, dato dal numero N di variabili del campione
meno il numero k di parametri

stimati dai dati:
= N k. (1.20)
1.25 Scienza esatta
Una scienza si dice esatta quando sempre in grado di associare un errore alle
proprie previsioni e risultati.
1.26 Grandezze siche costanti e variabili
Una grandezza costante se durante lesperimento si osservano uttuazioni
(risultati diversi ad ogni prova, pur mantenendo costanti le condizioni sperimen-
tali), esse sono da attribuire alle operazioni di misura oppure al funzionamento
degli strumenti impiegati. Essa una costante sica universale, cio una
grandezza che ha lo stesso valore in tutti i sistemi di riferimento, oppure una
grandezza che ragionevolmente si pu considerare costante e stabile rispetto alle
operazioni della misura che si sta eettuando.
Una grandezza una variabile aleatoria se le uttuazioni osservate conterranno
anche quelle delloggetto in misura. Questa componente delle uttuazioni
contiene informazioni siche sulla legge statistica della grandezza che si sta
misurando. Essa presenta delle uttuazioni e variazioni misurabili che sono
intrinseghe al processo sico che si sta studiando. Molto spesso le uttuazioni
sono puramente statistiche, ed allora la grandezza una variabile aleatoria che
possiede una certa distribuzione. Scopo della misura proprio la determinazione
di questa distribuzione.
12
1.27 Sensibilit o risoluzione di uno strumento
Se uno strumento fornisce il valore x nella misura di una grandezza, si denisce
come intervallo di sensibilit o risoluzione e si indica con x, la minima quantit
necessaria per spostare il risultato della misura del valore x ad uno contiguo. Si dice
sensibilit dello strumento il rapporto:
S =
1
x
. (1.21)
Se x il valore letto e x lintervallo di sensibilit, il valore vero sar compreso
con legge di probabilit uniforme, nellintervallo x
x
2
, con un CL = 100%:
valore vero = x
x
2
. (1.22)
1.28 Errore statistico
quel tipo di errore, dovuto alle operazioni di misura, che fa variare i risultati
secondo una certa distribuione statistica. La media di questa distribuzione (media
vera) coincide col valore vero della grandezza sica che si misura. La deviazione
standard della distribuzione lerrore di misura. Queste due grandezze sono stimate
dalla media e dalla deviazione standard del campione sperimentale delle misure.
1.29 Precisione
La precisione determinata dallerrore statistico della misura, che dato dalla
deviazione standard stimata dal campione delle misure eettuate. Una misura tanto
pi precisa quanto pi piccolo lerrore statistico.
1.30 Errore sistematico
quel tipo di errore che fa scostare la media dei valori misurati dal valore vero,
indipendentemente dal numero di misure che si eettuano. In altre parole, gli errori
sistematici provocano uno scostamento tra la media della distribuzione delle misure
e il valore vero della grandezza. Sono dovuti ad operazioni errate oppure ad ipotesi
sbagliate sul modello sico su cui si basa la misura. Negli strumenti scientici lerrore
sistematico viene indicato con: + (syst).
1.31 Accuratezza
Per uno strumento di sensibilit ideale, si denisce accuratezza lo scostamento
tra il valore misurato dallo strumento ed il valore vero. Questo eetto non di tipo
casuale ed ha origine da una taratura imperfetta dello strumento. Viene indicato con
. Laccuratezza determinata dagli errori sistematici della misura. Una misura
tanto pi accurata quanto pi sono piccoli gli errori sistematici.
13
1.32 Funzione dellapparato
Si dice funzione dellapparato o funzione strumentale, e si indica in genere con
(x, y), la funzione che d la probabilit (x, y)dxdy di misurare un valore in [y, y+dy]
quando il valore della variabile in [x, x + dx]. Fa conoscere la probabilit che lo
strumento risponda con y quando il valore di ingresso x.
La funzione osservata dipende da due variabili (apparato Z e sica X) e i valori
misurati Y sono legati a queste variabili secondo y = h(z, x) e z = h
1
(y, x) [la
funzione h rappresenta il legame tra z e x creato dalloperatore di misura (x +z, xz
. . . )].
14
Capitolo 2
Media, varianza, deviazione
standard
2.1 Media
Se x
i
sono le N realizzazioni numeriche di una variabile aleatoria 1.1, la media
campionaria denita:
m =
1
N
N

i=1
x
i
. (2.1)
Per una variabile aleatoria vale:
=

k=1
x
k
p
k
=
_
+

xp(x)dx. (2.2)
m =
C

k=1
f
k
x
k
. (2.3)
Propriet:
X = X X + = X +
2.2 Varianza
2
Se x
i
sono le N realizzazioni numeriche di una variabile aleatoria 1.1, la varianza
campionaria denita:
s
2

=
1
N
N

i=1
(x
i
)
2
(2.4)
dove il valore della media assegnata a priori.
La varianza rispetto alla media campionaria m 2.1 invece:
s
2
m
=

N
i=1
(x
i
m)
2
N 1
=
N
N 1

N
i=1
(x
i
m)
2
N
. (2.5)
15
Per una variabile aleatoria vale:

2
=

k=1
(x
k
)
2
p
k

2
=
_
+

(x )
2
p(x)dx. (2.6)
La varianza pu essere anche espressa come:
s
2

=
C

k=1
(f
k
x
2
k
)
2
, (2.7)
s
2
m
=
N
N 1
_

N
i=1
x
2
i
N
m
2
_
, (2.8)

2
=
C

k=1
(p
k
x
2
k
)
2

2
=
_
+

x
2
p(x)dx
2
. (2.9)
Propriet:
V ar[X] =
_
(X X)
2
_
V ar [X] =
2
V ar [X]
V ar [X +] = V ar [X] V ar[X] =

X
2
_
X
2
2.3 Deviazione standard
La deviazione standard non altro che:
s =

s
2
. (2.10)
Per una variabile aleatoria vale:
=

2
. (2.11)
16
Capitolo 3
Criteri di convergenza
Ricollegandosi alla probabilit 1.15 vengono deniti tre criteri di convergenza:
3.1 Limite in probabilit
Una successione di variabili X
N
converge verso una variabile X se, pressato
un numero > 0 comunque piccolo, la probabilit che X
N
dierisca da X per una
quantit > tende a zero per N :
lim
N
P [[X
N
(a) X (a)[ ] = 0. (3.1)
Dire che questa probabilit tenda a zero non assicura aatto che tutti i valori
[X
N
(a) X (a)[, per ogni elemento a dello spazio campionario, si manterranno
minori di al di sopra di un certo N, ma solo che linsieme dei valori che superano
ha una probabilit piccola, al limite nulla.
Essa implica la probabilit in legge 3.3.
3.2 Limite quasi certo
Se si vuole che per la maggior parte delle successioni si abbia [X
N
(a) X (a)[
per ogni a, si introduce:
P
_
lim
N
[X
N
(a) X (a)[
_
= 1 (3.2)
sullinsieme degli elementi a dello spazio di probabilit (S, T, P) 1.10.
In questo caso siamo sicuri che esista un insieme di elementi a, che per N
tende a coincidere con lo spazio campionario S.
Essa implica sia la probabilit in legge 3.3 sia quella in probabilit 3.1.
Un teorema fondamentale di Kolmogorov assicura la convergenza quasi certa di
successioni di variabili aleatorie indipendenti 1.1.1 se vale la condizione:

N
Var [X
N
]
N
2
< + (3.3)
17
3.3 Convergenza in legge o distribuzione
Una successione di variabili X
N
converge ad una variabile X se, essendo F
X
N
e
F
X
le rispettive formule di ripartizione (o comulative) 5.2:
lim
N
F
X
N
(x) = F
X
(x) (3.4)
per ogni punto x in cui F
X
(x) continua.
18
Capitolo 4
Principali distribuzioni
4.1 Densit di probabilit per variabili discrete
Data una variabile X 1.1 discreta, la funzione
p(x
i
) = PX = x
i
= F(x
k
) =
k

i=1
p(x
i
) (4.1)
(in corrispondenza dei valori dello spettro di X), detta densit di probabilit per
variabili discrete.
normalizzata.
4.2 Densit di probabilit per variabili continue
Data una variabile X R 1.1 continua, la funzione p(x) 0 che soddisfa x
lequazione
F(x) =
_
+

p(t) dt (4.2)
detta densit di probabilit per variabili continue.
normalizzata.
Nello spettro continuo la probabilit di trovare uno specico valore x nulla.
Nei punti dove F(x) derivabile, si ottiene la relazione:
p (x) =
dF (x)
dx
. (4.3)
4.3 Distribuzione binomiale
Espressione della densit binomiale (teorema delle probabilit totali 10.3) :
PX = x successi = b(x; n, p) =
n!
x!(n x)!
p
x
(1 p)
nx
=
_
n
x
_
p
x
(1 p)
nx
.
(4.4)
Questa distribuzione valida se e solo se gli n tentativi sono indipendenti 1.3.1 e la
probabilit di successo in un tentativo sempre costante e pari a p.
La distribuzione binomiale, quando n = 1, detta anche di Bernulli.
19
la legge di una variabile aleatoria X che rappresenta il numero x di successi che
si possono ottenere in n tentativi indipendenti, ognuno dei quali ha una probabilit
di successo costante.
- normalizzata;
- La media :
= X = np
n

=0
n

!
x

!(n

)
p
x

(1 p)
n

= np; (4.5)
- La varianza :

2
= Var [X] = np [(n 1) p + 1] n
2
p
2
= np (1 p) ; (4.6)
4.3.1 Distribuzione geometrica
La probabilit di avere un successo alla n-esima prova data dalla densit
geometrica:
g (n) = p(1 p)
n1
. (4.7)
Media:
n =
1
p
. (4.8)
Varianza:

2
n
=
1 p
p
2
. (4.9)
normalizzata.
4.4 Distribuzione di Poisson
Se n 1 e p 1, si avranno pochi successi (x 1), perci si pu approssimare
la distribuzione binomiale 4.3 a una nuova densit discreta:
p(x; ) =

x
x!
e

(4.10)
che rappresenta la probabilit di ottenere un valore x quando la media dei valori .
unapprosimazione accettabile della binomiale gi a partire da > 10 e p < 0.1.
- normalizzata;
- La media :
= np; (4.11)
- La varianza :

2
= Var [X] =

x=0
_
x
2

x
e

x!
_

2
=
2
+
2
= ; (4.12)
20
4.4.1 Processi poissoniani
In questi casi la distribuzione di Poisson va considerata come legge fondamentale
della natura. Si consideri quindi un processo stocastico in cui la sorgente genera
eventi:
a) discreti;
b) con probabilit per unit di tempo costante e uguale per tutti gli eventi
generati;
c) indipendenti tra loro (1.3.1).
Si devono denire le quantit:
il numero di tentativi: N =
t
dt
;
la probabilit di osservare un eventi in un tentativo di durata dt: p = dt;
il numero medio di eventi generati entro t: = t.
Il conteggio X(t) in un intervallo t in un processo di emissione discreto una
variabile aleatoria che segue la legge di Poisson con = t:
P X (t) = n =
(t)
n
n!
e
t
. (4.13)
Considerando anche il tempo di arrivo T si dimostra la 4.5. I processi stocastici
poissoniani seguono perci la legge dellindipendenza stocastica 10.6.
4.5 Legge esponenziale negativa dei tempi di arrivo
Eventi ravvicinati nel tempo sono molto pi probabili di eventi separati da lunghi
intervalli di attesa.
La variabile T (tempo di arrivo) ha densit di probabilit di tipo esponenziale
negativo
e (t) dt = p
0
(t) dt = e
t
dt; (4.14)
normalizzata con media =
1

e varianza
2
=
1

2
. (Lequivalente nel discreto
la densit geometrica 4.3.1: g(n) = p(1 p)
n1
). In realt media e varianza, non
essendo con la forma a campana, sono poco rilevanti; pi rilevante la funzione
comulativa 5.2:
P 0 T t F (t) =
_
t
0
e
t
= 1 e
t
. (4.15)
La probabilit di non essere osservato alcun evento no a t:
P T > t = 1 F (t) = e
t
= p
0
(t) . (4.16)
Percentuali che arrivi prima o dopo la media:
P
_
0 T
1

_
= 0.63 = 63%, P
_
1

T
_
= 0.37 = 37%.
La legge esponenziale negativa lunica forma funzionale che assicura lindipen-
denza temporale degli eventi.
21
4.5.1 Densit di Weibull
Si utilizza per descrivere sistemi biologici o dispositivi dotati di memoria che
tendono a invecchiare:
w(t) = at
b1
e

a
b
t
b
(4.17)
con t 0 e a, b > 0.
La funzione comulativa vale F (t) =
_
t
0
w(t) dt = 1 e

a
b
t
b
.
La probabilit di non avere eventi no a t + t diminuisce se aumenta t.
Se a = b = 1 si ha la legge esponenziale negativa 4.14. Se b > 1 tende ad assumere
la forma a campana.
4.5.2 Densit erlanghiana di ordine k o gamma
Un caso particolare della legge esponenziale negativa la densit gamma, che
lequazione 4.14 con p
0
(t) sostituito da p
k1
(t):
e
k
(t) =

k
(k 1)!
t
k1
e
t
=

k
(k)
t
k1
e
t
(4.18)
Media: =
k

; varianza:
2
=
k

2
. la densit della somma di k variabili aleatorie
esponenziali negative indipendenti. La funzione gamma :
(p) =
_

0
x
p1
e
x
dx (4.19)
4.6 Distribuzione gaussiana o normale
Se n 1, 0 < p < 1 e x 1, si pu approssimare la distribuzione binomiale 4.3
a una nuona densit continua:
g (x; , ) =
1

2
exp
_

1
2
(x )
2

2
_
=
1

2
e

1
2
(x)
2

2
(4.20)
che per 1 approssima la binomiale.
La funzione di Gauss pu essere sostituita alla binomiale quando sono valide le
condizioni = np 10 e n(1 p) 10 [valido in pratica. . . ].
Se p e 1p non sono molto vicine agli estremi dellintervello [0, 1], basta la condizione
10.
La primitiva della gaussiana, secondo la legge 3 10.4 :
E (x) =
1

2
_
x
0
exp
_

1
2
(t )
2

2
_
dt (4.21)
La gaussiana:
- normalizzata;
- La media :
X =
1

2
_
+

x exp
_

1
2
(x )
2

2
_
dx = (4.22)
22
- La varianza :
Var [X] =
1

2
_
+

(x )
2
exp
_

1
2
(x )
2

2
_
dx =
2
; (4.23)
Essendo la gaussiana simmetrica:
E(x) = E(x). (4.24)
Viene denita la densit gaussiana standard, cio una gaussiana con media nulla
e deviazione standard unitaria:
g (x, 0, 1) =
1

2
e

x
2
2
. (4.25)
Viene denita anche la funzione comulativa della gaussiana standard:
(x) =
1

2
_
x

x
2
2
dx. (4.26)
Essa legata alla versione integrale della gaussiana attraverso la relazione (x) =
0.5 +E(x).
4.6.1 Densit gaussiana bidimensionale
La densit gaussiana di due variabili gaussiane indipendenti:
g (x, y) = g
X
(x) g
Y
(y) =
1

2
x

x
exp
_

1
2
_
(x
x
)
2

2
x
+
(x
y
)
2

2
y
__
. (4.27)
La gaussiana ridotta :
g (u, v; 0, 1) =
1
2
exp
_

1
2
_
u
2
+v
2
_
_
(4.28)
avendo sostituito U =
X
x

x
e V =
Y
y

y
.
Gode delle propriet:
a) non essere fattorizzabile in due termini dipendenti rispettivamente solo da u e
solo da v;
b) avere distribuzioni marginali 8.2 gaussiane standard;
c) soddisfare lequazione
xy
= ;
d) soddisfare la condizione di normalizzazione.
La gaussiana ridotta pu essere riscritta in termini di correlazione:
g (u, v; 0, 1) =
1
2
_
1
2
exp
_

1
2 (1
2
)
_
u
2
2uv +v
2
_
_
. (4.29)
23
La gaussiana standard invece:
g (u, v; 0, 1) =
1
2
x

y
_
1
2
e

1
2
(x,y)
(4.30)
con (x, y) =
1
1
2
_
(x
x
)
2

2
x
2
(x
x
)(y
y
)

y
+
(y
y
)
2

2
y
_
.
La conoscenza delle due distribuzioni marginali, cio delle proiezioni della gaus-
siana sui due assi x e y, non basta per una conoscenza completa della densit
bidimensionale, perch variabili correlate o incorrelate danno in entrambi i casi
proiezioni gaussiane. La conoscenza della covarianza o del coeciente di correlazione
quindi essenziale per la determinazione completa della distribuzione statistica delle
variabili.
sempre possibile, operando una rotazione di assi, trasformare una coppia di
variabili gaussiane dipendenti in variabili gaussiane indipendenti.
4.7 Densit
2
Determinazione della densit di probabilit di una variabile aleatoria funzione di
pi varibili aleatorie. Si vuole trovare la funzione di densit della variabile
Q =
N

i=1
X
2
i
(4.31)
somma dei quadrati di n variabili standard gaussiano tra loro indipendenti.
Con F
Q
(q) si indica la comulativa 5.2 della funzione densit
2
[essa da la
probabilit che la variabile Q (4.31) sia compresa entro unipersfera di raggio

q]:
P
_

X
2
i
q
_
F
Q
(q) =
_

x
2
i
q
. . .
_ _
1

2
_
n
e

x
2
i
2
dx
1
. . . dx
n
(4.32)
La densit
2
:
p
n
(q) dq =
1
2
n
2

_
n
2
_e

1
2
q
q
1
2
(n2)
dq (4.33)
con (p) la funzione gamma 4.19 e individua la distribuzione statistica del modulo
quadro di un vettore di n componenti gaussiane indipendenti.
Se si opera la sostituzione n (con gradi di libert) e si intende
2
sia
la distribuzione di densit p
n
(q) dq sia i valori numerici di Q (sostituendo quindi
q
2
) ottenuti in prove speciche, si ha: Q()
2
() che assume valori
2
. La
densit diventa quindi:
p

2
_
d
2
p
_

2
;
_
d
2
=
1
2

2
_e

2
2
_

2
_
2
1
d. (4.34)
La media :
Q =
1
2

2
_
_

0
x(x)

2
1
e

x
2
dx = . (4.35)
24
La varianza :
Var [Q] =
1
2

2
_
_

0
(x )
2
(x)

2
1
e

x
2
dx = 2. (4.36)
Si usa spesso la distribuzione
2
ridotto:
Q
R
() =
Q()

(4.37)
con media Q
R
() = 1 e varianza Var [Q
R
()] =
2

. La versione del
2
ridotto :
P
_
Q
R
()
2
R
()
_
=
_

2
R
()

2
2

2
_x

2
1
e

x
2
dx. (4.38)
4.7.1 Distribuzione di Maxwell
La densit di Maxwell la generalizzazioni in tre dimensioni della densit
2
4.7.
La sua equazione :
m(r) dr =
_
2

3
r
2
e

r
2
2
2
dr (4.39)
Media:

R
2
_
= 3
2
. (4.40)
Varianza:
Var
_
R
2

= 6
4
. (4.41)
4.7.2 Distribuzione Snedecor
Avendo denito la variabile di Snedecor F come F =
Q
R
()
Q
R
()
, si denisce la densit
di Snedecor come rapporto tra due variabili indipendenti
2
ridotto:
p

(F) = c

D
1
2
(2)
(F +)

1
2
(+)
(4.42)
con c

2
(
+
2
)
(

2
)(

2
)
.
4.8 Densit t di Student
Per variabili formate dal rapporto di una variabile gaussiana standard e la radice
di una variabile Q
R
di densit
2
ridotto con gradi di libert viene introdotta la
densit di Student.
Avendo posto Z =
X

Y
si ottiene:
p
Z
(z) =

_
+1
2
_

2
_

_
z
2

+ 1
_

+1
2
. (4.43)
Viene riscritta nella variabile t, ponendo

= (
1
2
):
s

(t) =

_
+1
2
_

2
_

_
1
2
_
1

_
t
2

+ 1
_

+1
2
. (4.44)
25
4.9 Densit uniforme
Una variabile aleatoria X 1.1 continua, che assume valori nellintervallo nito
[a, b], si dice uniforme in [a, b] e si denota con X U(a, b) quando ha una densit di
probabilit costante data da:
u(x) =
_
1
ba
per a x b
0 per x < a, x > b
. (4.45)
normalizzata, con media =
1
ba
_
b
a
x dx =
b+a
2
e varianza
2
=
1
ba
_
b
a
_
x
b+a
2
_
2
dx =
(ba)
2
12
.
Per una variabile aleatoria a X b, avente densit uniforme, la probabilit di
localizzazione in (x
1
, x
2
) proporzionale allampiezza dellintervallo
P x
1
X x
2
=
1
b a
_
x
2
x
1
dx =
x
2
x
1
b a
;
viceversa, se una variabile aleatoria continua soddisfa a P x
1
X x
2
=
1
ba
_
x
2
x
1
dx =
x
2
x
1
ba
,
essa distribuita in modo uniforme.
4.9.1 Distribuzione triangolare
Una particolare densit uniforme quella triangolare:
p
Z
(z) =
_

_
z per 0 z 1
2 z per 1 < z 2
0 altrimenti
. (4.46)
normalizzata, compresa tra 0 e 2, di forma triangolare e con massimo in z = 1.
4.10 Distribuzione di Boltzmann
La densit di Boltzmann :
m(E) dE =
2

1
KT
_
E
KT
e

E
KT
dE, (4.47)
avendo posto m
2
= KT e quindi =
_
KT
m
.
26
4.11 Riassunto
Nome Densit Media Deviazione
standard
Commenti
binomiale
n!
x!(nx)!
p
x
(1 p)
nx
np
_
np (1 p) successi in
prove indi-
pendenti
con pro-
babilit
costante
poissoniana

x
x!
e


conteggi
gaussiana
1

2
e

1
2
(x)
2

2
combinazione
lineare di
variabili in-
dipendenti
esponenziale e
t 1

tempi tra
variabili
poissonia-
ne
gamma

k
(k)
t
k1
e
t k

somma di
k variabi-
li esponen-
ziali negati-
ve

2 1
2

2 (

2
)
e

2
2
_

2
_
2
1
d

2 modulo di
un vettore
gaussiano
uniforme
1

(0 x )

2

12
variabili
comulative
student
(
+1
2
)
(

2
)(
1
2
)
1

_
t
2

+ 1
_

+1
2
0
_

2
per variabi-
li formate
dal rappor-
to di una
variabile
gaussiana
standard e
la radice di
una varia-
bile Q
R
di
densit
2
ridotto
27
Capitolo 5
Funzioni
5.1 Passaggio dallo spettro discreto a quello continuo

k
p(x
k
)
_
p(x)dx, p(x
k
) p(x
k
)dx (5.1)
5.2 Funzione comulativa o di ripartizione
Se X una variabile aleatoria 1.1, continua o discreta, la funzione comulativa :
F(x) = PX x (5.2)
e rappresenta la probabilit che X assuma un valore non superiore ad un valore
assegnato x.
x non deve necessariamente far parte dello spettro di X.
Se gli eventi sono incompatibili e la probabilit, data da 1.4, P X x
2
=
P X x
1
+P x
1
< X x
2
e quindi si ha limportante relazione:
P x
1
< X x
2
= F (x
2
) F (x
1
) . (5.3)
La relazione 5.3 pu essere riscritta in termini di densit:
P X = x
1
= P x
k1
< X x
k
= F (x
k
) F (x
k1
) = p (x
k
) . (5.4)
5.3 Funzione degli errori
Avendo denito la variabile standard 1.17:
Erf (x) 2
1

2
_
2
0
exp
_

t
2
2
_
dt 2E
_

2x
_
(5.5)
28
Capitolo 6
Funzioni di variabili aleatorie
Considerando pi variabili aleatore X, Y, . . . , esse si possono combinare in una
funzione Z = f(X, Y, . . . ) e questo porta ad avere una nuova variabile aleatoria Z.
Nel caso di due variabili X, Y , la densit della variabile Z denita da Z = f(X, Y )
X, Y p
X,Y
(x, y) = Z p
z
(x). Z resta denita in funzione dei risultati a e b
delle prove che realizzano X e Y : Z = Z(a, b) = f(X(a), Y (b)).
La probabilit che Z appartenga ad un certo insieme numerico R
Z
:
P Z R
Z
=

[x,y;f(x,y)R
Z
]
P (AB) =

[x,y;f(x,y)R
Z
]
P X R
X
; Y R
Y
. (6.1)
6.1 Funzione di una variabile aleatoria
Sia Z legata ad X, variabile aleatoria continua di densit p
X
(x), attraverso
Z = f(X). Per determinare la densit p
Z
(x) si utilizzano le relazioni 5.4 e 4.3 e si
ottiene:
p
Z
(z) =
1
[a[
p
X
_
z b
a
_
, (6.2)
che riscritta in termini della variabile funzionale Z = f(X) = aX
2
diventa:
p
Z
(z) =
1
2

az
_
p
X
_

_
z
a
_
+p
X
__
z
a
__
; (6.3)
inne se la densit di partenza p
X
(x) gaussiana:
p
Z
(z) =
1
[a[

2
exp
_
_

_
z (a +b)
2
_
2a
2

2
_
_
(6.4)
(nel caso che la gaussiana abbia una media nulla si ritrova la densit gamma 4.19 di
media
z
= a
2
e varianza
2
z
= 2a
2

4
).
La media :

z
= a +b (6.5)
e la varianza:

2
z
= a
2

2
. (6.6)
29
La sua funzione comulativa :
P Z z
0
F
Z
(z) =

i
_
i
p
X
(x) dx. (6.7)
6.2 Funzione di pi variabili aleatorie
Funzione comulativa:
P Z z
0
F
Z
(z) =
_
. . .
_
(XD)
p
X
(x
1
, . . . x
n
) dx
1
, . . . , dx
n
. (6.8)
Pu essere riscritta, utilizzando il teorema 10.12 come:
p
Z
(z) =
_
p
X
(x
1
, x
2
)

f
1
1
z

dx
2
=
_
p
X
_
f
1
1
(z, x
2
) , x
2
_

f
1
1
z

dx
2
. (6.9)
Se le variabili X
1
e X
2
sono indipendenti allora la densit p
X
si fattorizza secondo
la 8.4 e utilizzando la 6.9 si ottiene:
p
Z
(z) =
_
p
X
1
_
f
1
1
(z, x
2
) , x
2
_
p
X
2
(x
2
)
f
1
1
z
dx
2
. (6.10)
Quando la variabile Z data dalla somma Z = X
1
+X
2
, la funzione inversa f
1
e la sua derivata da inserire nella 6.9 sono date da X
1
= f
1
1
(Z, X
2
) = Z X
2
e
f
1
1
z
= 1 e la densit quindi:
p
Z
(z) =
_
p
X
(z x
2
) dx
2
. (6.11)
Se le due variabili sono indipendenti la densit di probabilit di partenza si fattorizza
nella 8.4 e si ottiene lintegrale chiamato di convoluzione:
p
Z
(z) =
_
+

p
X
1
(z x
2
) p
X
2
(x
2
) dx
2
. (6.12)
6.3 Trasformazione di media e varianza
- Variabile Z funzione di una sola variabile aleatoria X di densit nota p
X
(x),
cio Z = f(X):
Z =
_
f (x) p
X
(x) dx. (6.13)
In molti casi si ricorre ad una formula apporssimata, ottenuta sviluppando al
secondo ordine in serie di Taylor la funzione f(x) nellintorno del varl medio
della variabile di partenza X:
Z f () +
1
2
f

()
2
. (6.14)
La media della funzione f pari alla funzione della media pi un termine
correttivo che dipende dalla concavit della funzione nellintorno della media e
della varianza di X;
30
- Z = aX +b:
Z = f (X) ; (6.15)
Var [Z] =
_
[f (x) f (X)]
2
p
X
(x) dx. (6.16)
Anche in questo caso la varianza pu essere approssimata:
Var [Z]
_
f

()

2
+
1
4
_
f

()

2
_

4

4
_
+f

() f

()
3
(6.17)
dove
i
sono i momenti deniti da 1.16. Conoscendo lordine di grandezza dei
momenti, si pu fare una stima accettabile della varianza di Z:
Densit X simmetrica intorno alla media:

3
= 0; (6.18)
Densit gaussiana (
3
= 0 e
4
= 3
4
):
Var [Z]
_
f

()

2
+
1
2
_
f

()

4
; (6.19)
Densit simmetrica ma non gaussiana:
Var [Z]
_
f

()

2
+
1
2
_
f

()

4
. (6.20)
Quando
2

4
:
Var[Z] [f

()]
2

2
. (6.21)
- Z = aX
2
con X che segue la densit gaussiana:
Z f () +
1
2
f

()
2
; (6.22)
Var [Z]
_
f

()

2
+
1
2
_
f

()

4
. (6.23)
- Z funzione di n variabili X
i
: Z = f(X
1
, . . . , X
n
). Si utilizza lapporssimazione
lineare:
Z = f (X) ; (6.24)
Var[Z] [f

()]
2

2
. (6.25)
Per due variabili:
Z =
_
f (x
1
, x
2
) p
X
(x
1
, x
2
) dx
1
dx
2
= f(
1
,
2
); (6.26)
Var [Z] =
_
[f (x
1
, x
2
) f (
1
,
2
)]
2
p
X
(x
1
, x
2
) dx
1
dx
2
. (6.27)
Il risultato contiene delle novit:

2
z

_
f
x
1
_
2

2
1
+
_
f
x
2
_
2

2
2
+ 2
_
f
x
1
f
x
2
_

1,2
. (6.28)
31
Variabili indipendenti
1,2
= 0:

2
z
=
_
f
x
1
_
2

2
1
+
_
f
x
2
_
2

2
2
; (6.29)
Z = X
1
+X
2
:

z
=
1
+
2
; (6.30)

2
z
=
2
1
+
2
2
; (6.31)
Z = X
1
X
2
, Z =
X
1
X
2
, Z =
X
2
X
1
:
V ar [Z]
Z
2
=
V ar [X
1
]
X
1

2
+
V ar [X
2
]
X
2

2
. (6.32)
32
Capitolo 7
Stastistica di base
Lo spazio di probabilit 1.10 cambia leggermente la notazione e diventa ()
(S, T, P

) dove P

una probabilit dipendente da un parametro , che fornisce una


legge
P X A =
_
A
p (x; ) dx (7.1)
per il campione casuale (X
1
, . . . , X
N
).
7.1 Determinazione degli intervalli di condenza
Avendo ottenuto un valore x di una variabile X continua e conoscendo la densit
p (x; ) della probabili P X A =
_
A
p (x; ) dx, se un parametro di posizione
come la media, i valori [
1
,
2
], relativi ad una realizzazione dellintervallo aleatorio
[
1
,
2
] secondo il CL assegnato, possono essere trovati con le relazioni:
_
+
x
p (z;
1
) dz = c
1
,
_
x

p (z;
2
) dz = c
2
(7.2)
dove CL = 1 c
1
c
2
. Nel caso X sia una variabile discreta, agli integrali vanno
sostituite le somme sui componenti.
Considerando il caso in cui il parametro sia la media di una curva normale:
. La forma di p(x; ) invariante per traslazioni e le funzioni
1
(x) e
2
(x)
sono due rette parallele. Risulta quindi:
_
+t
t
p (x; ) dx =
_
+t
t
p (; x) d
che si pu scrivere:
P t X +t = P t X t = P X t X +t .
(7.3)
I livelli di probabilit dellintervallo centrato su coincidono con i livelli di
condenza dellintervallo aleatorio centrato su X.
33
7.2 Approccio bayesiano
Nellapproccio bayesiano il parametro da stimare viene considerato come una
variabile aleatoria e lintervallo di condenza 1.20 rappresenta la conoscenza ottenuta,
dopo la misura, sul valore del parametro.
7.3 Stima della probabilit da grandi campioni
Prova di n tentativi bernoulliani, ottenendo x successi con quindi una frequenza
f =
x
n
. Si denisce una variabile standard 1.17 T =
Fp
[F]
che assume i valori
t =
f p
_
p(1p)
n
. (7.4)
Se si esegue una prova, f noto e p incognito; utilizzando lapproccio statistico,
si pu allora determinare i valori di p per i quali il valore assunto dalla variabile
standard risulta minore di un certo limite t assegnato:
[f p[
_
p(1p)
n
[t[ . (7.5)
Elimando i valori assoluti elevando al quadrato ambo i membri e risolvendo
rispetto allincognita p, si ottiene, in forma compatta la formula di Wilson per piccoli
campionamenti:
p
f +
t
2
2n
t
2
n
+ 1

t
_
t
2
4n
2
+
f(1f)
n
t
2
n
+ 1
. (7.6)
Il parametro t sta ad indicare un qualunque valore della variabile standard T; porre
t = 1 corrisponde a considerare ununit di errore statistico.
Lintervallo centrato nel punto
f+
t
2
2n
t
2
n
+1
, funzione di f e del numero di tentativi
eettuati. Ci dovuto allassimetria della binomiale per un numero di prove
abbastanza esiguo.
Per un numero di prove n 1 vale lapprossimazione gaussiana e la 7.6 diventa:
p f t
1

2
s = f t
1

2
_
f (1 f)
n
, (7.7)
dove

= t
1

2
sono i valori quantili della gaussiana standard che deniscono gli
estremi dellintervallo che sottende unarea pari a CL = 1 . La dimensione del
campione necessaria per mantenere lerrore statistico al di sotto di un valore assoluto
pressato a priori :

2
max
=
1
4n
(7.8)
Ricavato dalla varianza:

2
=
p (1 p)
n
(7.9)
34
Il numero di tentativi necessari per mantenere lintervallo di stima t
1

max
al
disotto di un certo valore pressato quindi:
n =
t
2
1

2
4
_
t
2
1

max
_
2
. (7.10)
Con lintervallo 1 e quindi t
1

2
= 1 da 7.7 si ha lintervallo di Wald:
p f s = f
_
f (1 f)
n
. (7.11)
Moltiplicando per il numero di tentativi la 7.11 pu essere espressa in funzione
del numero di successi x:
f
_
x
_
1
x
n
_
. (7.12)
Lintervallo centrato sul valore misurato, la variabile T pivotale perch T N(0, 1);
lerrore statistico ha la stessa espressione della deviazione standard della distribuzione
binomiale (con la probabilt p sostituita dalla frequenza misurata f) e i livelli di
condenza CL sono gaussiani.
7.3.1 Per grandi campioni:
la densit binomiale assume una forma gaussiana;
lintervallo di condenza simmetrico;
il valore misurato f denisce due code che valgono entrambe
1CL
2
in modo da
avere le due aree tra f e p
1
e tra f e p
2
uguali ognuna a
CL
2
;
se valida la condizione nf, n(1 f) 1, i livelli di condenza associati
allintervallo 7.11 sono quelli della legge 3 gaussiana (10.4).
7.3.2 Per piccoli campioni:
la variabile T non pivotale e non pi possibile assegnare in modo generale i
livelli di condenza;
lintervallo di condenza asimmetrico;
le due code di area
1CL
2
assumono forma diversa
7.4 Stima della probabilit da piccoli campioni
Per un numero di campioni esiguo, in cui x = nf < 10 si utilizza lintervallo 7.6
ma non sono possibili da denire i livelli di condenza universali perch la binomiale
dipende fortemente sia da n che dal valore della probabilit di successo p. Un modo
per denire gli estremi dellintervallo di condenza corrispondente al CL sono le
equazioni di Clopper-Pearson:
n

k=x
_
n
k
_
p
k
1
(1 p
1
)
nk
= c
1
,
x

k=0
_
n
k
_
p
k
2
(1 p
2
)
nk
= c
2
. (7.13)
35
Nel caso simmetrico c
1
= c
2
=
1CL
2
=

2
.
In alternativa si pu applicare la 7.6 applicando la correzioni di continuit
f

=
x0.5
n
alla frequenza f =
x
n
; con lapprossimazione alla gaussiana si ottiene:
p
f

+
t
2

2
2n
t
2

2
n
+ 1

_
t
2

2
4n
2
f

(1f

)
n
t
2

2
n
+ 1
. (7.14)
Nei casi x = 0 e x = n le equazioni di Clopper-Pearson 7.13 con c
1
= c
2
= 1CL
presentano due casi limite:
x = n p
n
1
= 1 CL,
x = 0 (1 p
2
)
n
= 1 CL.
Ci utile per denire il limite inferiore di una probabilit quando tutti i
tentativi hanno avuto successo:
p
1
=
n

1 CL = e
1
n
ln (1CL)
= 10
1
n
log (1CL)
(7.15)
e il limite superiore quando non si registrato alcun successo:
p
2
= 1
n

1 CL = 1 e
1
n
ln (1CL)
= 1 10
1
n
log (1CL)
. (7.16)
Quando n grande e non si sono registrati successi, p
2
piccola e si ottiene
approssimando al secondo ordine:
p
2

1
n
ln (1 CL)
che corrisponde allequazione:
e
np
2
= (1 CL) = . (7.17)
7.5 Intervalli di stima per eventi poissoniani
Il caso binomiale pu essere esteso a quello poissoniano. Per stimare correttamente
si usano equazioni analoghe a quelle 7.13:
n

k=x

k
1
k!
e

1
= c
1
,
x

k=0

k
2
k!
e

2
= c
2
. (7.18)
Nel caso simmetrico si ha sempre c
1
= c
2
=
1CL
2
.
Con lapprossimazione gaussiana (
2
= ) lintervallo di condenza per il valore
atteso :
[x [

. (7.19)
Introducendo la correzione di continuit x

= x 0.5 se x ,= 0 si ottiene:
x

+
t
2

2
2

+
t
2

2
4
. (7.20)
36
Per x = 0:
e

= 1 CL; (7.21)
per x = 1:
e

+e

= 1 CL; (7.22)
per x = 2:
e

+e

+

2
2
e

= 1 CL, (7.23)
quando x > 100:
x

x. (7.24)
7.6 Stima della media da grandi campioni
La media di un campione, o media campionaria, una variabile aleatoria. Se si
produce un campione casuale di dimensione N da una distribuzione, e se ne si fa la
media m =
1
N

N
i=1
x
i
e si ripete il procedimento, ogni volta si ottiene un risultato
diverso.
La media campionaria uno stimatore:
M =
1
N
N

i=1
X
i
. (7.25)
La varianza alla variabile M :
Var [M] = Var
_
1
N
N

i=1
X
i
_
=
1
N
2
N

i=1
Var [X
i
] =
1
N
2
N

i=1

2
=

2
N
. (7.26)
Poich
2
non nota solitamente, si pu approssimare con la varianza s
2
calcolata
dal campione e si ottiene:
m

N
m
s

N
. (7.27)
Il teorema del limite centrale 10.5 aerma che la densit della media campionaria
sar gaussiana per N 1, cio per N > 10. Nel caso gaussiano 7.3 i livelli
di condenza cercati sono dati dai livelli di probabilit rispetto alla media della
corrispondente densit gaussiana.
Nella 7.27 la varianza vera pu essere sostituita da quella osservata s se
N 1 N, cio per valorei di N > 20, 30 con livelli di condenza gaussiani per
N > 10.
7.7 Stima della varianza da grandi campioni
La varianza campionaria per variabili X qualsiasi tende alla densit gaussiana,
ma solo per campioni N > 10.
Se le variabili del campione sono gaussiane allora la distribuzione campionaria della
37
varianza riconducibile alla densit
2
la quale converge a quella gaussiana un po
pi velocemente allincirca per N > 30.
La variabile aleatoria varianza campionaria tende a diventare una variabile gaussiana
molto pi lentamente della corrispondente media campionaria che lo gi per N > 10.
Si possono avere due tipi di varianza:
varianza rispetto la media vera:
S
2

=
1
N
N

i=1
(X
i
)
2
; (7.28)
La 7.28 uno stimatore distorto 1.23 infatti
_
1
N

N
i=1
(X
i
)
2
_
=
N1
N

2
,
con
1
N
come fattore di distorsione;
varianza rispetto la media campionaria:
S
2
=
1
N 1
N

i=1
(X
i
M)
2
. (7.29)
La 7.29 uno stimatore non distorto in quanto gode della propriet

S
2
_
=
2
.
Esse tendono alla varianza vera
2
per N .
7.7.1 Varianza della varianza
La varianza della varianza fatta sul valore vero :
Var
_
S
2

=
1
N
2

i
Var
_
(X
i
)
2
_
=
1
N
2
_
N
4
N
4

=
1
N
_

4

4
_
(7.30)
e sostituendo ai valori veri
4
e
4
i valori stimati D
4
=
1
N

i
(X
i
)
2
e s
4

si
ottiene:
Var
_
S
2


D
4
s
4

N
. (7.31)
Lintervallo di condenza della varianza con media nota :

2
s
2


_
S
2

= s
2

D
4
s
4

N
. (7.32)
Lintervallo di condenza della varianza con media ignota :

2
s
2

_
S
2

= s
2

D
4
s
4

N 1
. (7.33)
Lintervallo di condenza della deviazione standard :
s

D
4
s
4
4 (N 1) s
2
. (7.34)
38
Se le variabili che compongono il campione sono gaussiane, valendo la relazione

4
= 3
4
e le formule di prima diventano:

2
s
2

2
_
2
N 1
, (7.35)
s

_
2 (N 1)
. (7.36)
Per CL = 1 :
s
2
1 +t
1

2
_
2
N1

2

s
2
1 t
1

2
_
2
N1
, (7.37)
s
1 +t
1

2
_
1
2(N1)

s
1 t
1

2
_
1
2(N1)
. (7.38)
7.8 Stima della media da piccoli campioni
La media campionaria M, se la somma di N variabili gaussiane, anchessa
gaussiana per qualunque N, e quindi anche la variabile
M

N una variabile
standard gaussiana per qualunque N, cio una quantit pivotale.
Lintervallo di condenza della media si ricava attraverso
T =
M

N
1

Q
R
=
M
S

N (7.39)
che distribuita come la densit di Student 4.44 con N1 gradi di libert. Luso della
variabile di Student permette di eliminare dallintervallo di condenza la varianza
vera (incognita)
2
e di denire una quantit pivotale per la stima di .
7.9 Stima della varianza da piccoli campioni
Il teorema della varianza campionaria 10.14 fornisce la quantit pivotale
S
2

2
R
(N 1). Lintervallo di probabilit
2
R(

2
)

S
2

2

2
R(1

2
)
con
2
R(

2
)
e

2
R(1

2
)
presi come valori dei quantili della variabile Q
R
corrispondenti al livello di
condenza CL pressato; perci lintervallo di stima della varianza in corrsipondenza
di un valore misurato s
2
:
s
2

2
R(1

2
)

2

s
2

2
R(

2
)
. (7.40)
Lintervallo di condenza per la deviazione standard invece:
s
_

2
R(1

2
)

s
_

2
R(

2
)
. (7.41)
39
7.10 Riassunto
Variabili gaussiane Variabili qualunque
Intervallo CL Intervallo CL
Probabilit
nf < 10 - - eq. 7.13 Binomiale
N(1 f) > 10 - - eq. 7.14 Gauss
Frequenza
x < 10 - - eq. 7.18 Poisson
x > 10 - - eq. 7.19 Gauss
Media
N < 30 m
s

N
Student m
s

N
?
N > 30 m
s

N
Gauss m
s

N
Gauss
Varianza
N < 100
s
2

2
R1

2

s
2

2
R2

2
R
s
2

_
D
4
s
4
N1
?
N > 100 eq. 7.37 Gauss s
2

_
D
4
s
4
N1
Gauss
Dev. standard
N < 100
_
s
2

2
R1

_
s
2

2
R2
Maxwell s
_
D
4
s
4
4s
2
(N1)
?
N > 100 eq. 7.38 Gauss s
_
D
4
s
4
4s
2
(N1)
Gauss
7.11 Verica di una ipotesi
Considerando la densit di probabilit p (x; ) della variabile X denita come
7.1 dipendente dal parametro e si supponga venga assunta lipotesi =
0
. Se
lesperimento fornisce un evento X = x, occorre decidere se accettare o meno il
modello corrispondente allipotesi.
Si stabilisce a priori un livello di signicativit , chiamato anche livello del test
o dimensione dellerrore del I tipo, che determina i valori dei quantili x

2
e x
1

2
.
Si riuta lipotesi se il livello di signicativit osservato
0
< .
Si accetta lipotesi se il livello di signicativit osservato
0
> .
Osservato levento occorre calcolare la probabilit, chiamato livello di signicativit
o p-value:
P X < x =
0
: test a una coda a sinistra;
P X > x =
0
: test a una coda a destra;
P [X [ > [x [ =
0
: test a due code.
Se si scarta lipotesi, la probabilit di sbagliare non supera mai : errore del I tipo.
La verica dipotesi pu essere anche fatta con statistiche T = t (X
1
, . . . , X
N
) che
stimano il valore di , cio con degli stimatori. In questo caso alla densit p (x;
0
)
attribuita al campione va sostituita la densit della distribuzione campionaria dello
stimatore e tutto procede come prima. Se lo stimatore non distorto: T
N
(X) =
0
.
Il livello di signicativit ora:
40
P T < t
0
= SL <
0
: test a una coda a sinistra;
P T > t
0
= SL <
0
: test a una coda a destra;
P [T
0
[ > [t
0

0
[ = SL <
0
: test a due code.
7.11.1 Confronto tra livello del test e SL
Per una variabile aleatoria discreta, i livelli SL di due valori contigui possono
stare a cavallo del valore deciso per il test.
Nel caso del test a due code, ad un livello possono corrispondere limiti
duciari diversi, cio intervalli di estremi diversi ma con lo stesso livello di
condenza CL = 1 . Generalmente in questo caso si scelgono i due estremi,
a destra e sinistra, che sottendono code aventi la stessa area

2
.
7.12 Verica di compatibilit tra due valori
Se, fatti due campionamenti dierenti, si volesse vericare che i risultati x
1
e x
2
siano in accordo tra loro, bisogna procedere in ambito statistico.
Si denisce una nuova variabile aleatoria dierenza:
D = X
1
X
2
, (7.42)
la quale ha valore atteso nullo nellipotesi che i due valori provengano dalla stessa
popolazione 1.8. Si pu scrivere la varianza di tale variabile:
V ar [D] s
2
1
+s
2
2
. (7.43)
Si pu inne denire il valore standard da cui calcolare il livello di signicativit:
[t
D
[ =
[x
1
x
2
[
_
s
2
1
+s
2
2
. (7.44)
In questo casi si approssima a grandi campioni e perci ad una gaussiana.
Generalmente la 7.44 viene utilizzata per confrontare due frequenze o due medie
campionarie:
Due frequenze f
1
e f
2
, in termini di probabilit:
t
f
=
[f
1
f
2
[
_
f
1
(1f
1
)
N
1
+
f
2
(1f
2
)
N
2
; (7.45)
se N
1
= N
2
= N il confronto pu essere fatto in termini di numero di
successi x
1
e x
2
:
t
x
=
[x
1
x
2
[
_
x
1
_
1
x
1
N
_
+x
2
_
1
x
2
N
_
; (7.46)
se N
1
,= N
2
pi utile il confronto con la frequenza.
41
Due medie m
1
e m
2
:
t
m
=
[m
1
m
2
[
_
s
2
1
N
1
+
s
2
2
N
2
; (7.47)
se i due campioni sono piccoli e la distribuzione campionaria gaussiana
si utilizza la densit di Student:
t
D
=
m
1
m
2
_

2
1
N
1
+

2
2
N
2
=
m
1
m
2

_
1
N
1
+
1
N
2
. (7.48)
Per utilizzarla con valori campionati e non veri bisogna apporre la corre-
zione di continuit s
1,2
=
_
(N
1
1)s
2
1
+(N
2
1)s
2
2
N
1
+N
2
2
e il risultato :
t
D
=
m
1
m
2
s
1,2
_
1
N
1
+
1
N
2
(7.49)
7.13 Stima della densit di una popolazione
Se p (x) la densit della popolazione del campione, denendo le variabili aleatorie
I e F associate agli eventi I
i
= n
i
e
_
F
i
=
n
i
N
_
, dalla 4.2 segue:
I
i
=
i
= Np
i
Np (x
0
) x, (7.50)
F
i
= p
i
p (x
0
) x (7.51)
dove x la larghezza del canale dellistogramma e x
0
un punto interno ad esso.
Il numero di eventi I
i
caduti in un generico canale segue la distribuzione binomiale
4.3:
se il fenomeno stocastico stazionario nel tempo, la probabilit p
i
di cadere
nel canale resta costante;
la probabilit di cadere nel canale non dipende dagli eventi che sono caduti o
che cadranno negli altri canali.
La probabilit perci:
P I
i
= n
i
= b (n
i
; N, p
i
) =
N!
n
i
! (N n
i
)!
p
n
i
i
(1 p
i
)
Nn
i
. (7.52)
La deviazione standard:

i
=
_
Np
i
(1 p
i
). (7.53)
Questa quantit pu essere stimata attraverso lincertezza s
i
s (n
i
):
Se il canale ha pi di 5, 10 elementi:
s
i
=
_
n
i
_
1
n
i
N
_
(7.54)
42
Se listogramma normalizzato:
s
_
n
i
N
_
=
_
f
i
(1 f
i
)
N
(7.55)
Se listogramma non ottenuto con numero totale N di eventi costante ma
raccolto controllando altri parametri: il numero N si trasforma da costante
a variabile statistica N poissoniana e le uttuazioni del contenuto dei canali
vanno calcolate in modo diverso.
In base alla legge delle probabilit composte 10.3 la probabilit di osservare N
eventi sar data dal prodotto della probabilit poissoniana 4.4 di ottenere un
totale N = N di eventi quando la media e dalla probabilit binomiale 4.3
di avere n
i
eventi nel canale in esame, su un totale di N, quando la probabilit
vera p
i
:
P I
i
= n
i
, N = N =
N!
n
i
! (N n
i
)!
p
n
i
i
(1 p
i
)
Nn
i
e

N
N!
.
Denendo m
i
= N n
i
:
p n
i
, m
i
=
e
p
i
(p
i
)
n
i
n
i
!
e
(1p
i
)
[(1 p
i
)]
m
i
m
i
!
,
prodotto di due poissoniane di media p
i
e (1 p
i
) rispettivamente. Si ha
quindi la varianza:
s
_
n
i
N
_
=
_
f
i
N
. (7.56)
La stima del numero di eventi veri
i
(valori attesi) nel canale i-esimo dato
dalla 7.50 e lintervallo di condenza :
Per istogrammi raccolti con numero di eventi N determinato:

i
n
i

_
n
i
_
1
n
i
N
_
.. (7.57)
Per istogrammi normalizzati:
p
i
f
i

_
f
i
(1 f
i
)
N
, f
i

n
i
N
. (7.58)
Per istogrammi in cui il numero totale di eventi N una variabile poissoniana

i
n
i

n
i
. (7.59)
Per istogrammi normalizzati:
p
i
f
i

_
f
i
N
. (7.60)
43
7.14 Verica di compatibilit tra campione e popolazio-
ne
Oltre a poter valutare ad occhio si pu utilizzare il test
2
. Bisogna conoscere
(o assumere come ipotesi nulla) le probabilit vere p
i
di ogni canale ed eseguire su
tutti i K canali:

2
=
K

i=1
(n
i

i
)
2

i
=
K

i=1
(n
i
Np
i
)
2
Np
i
. (7.61)
Se il numero totale N di eventi variabile e si somma sui canali con pi di 5,
10 eventi: la 7.61 risulta essere approssimativamente la somma del quadrato di
K variabili gaussiane standard indipendenti e pertanto in base al teorema di
Pearson 10.7, essa si distribuisce approssimativamente come la densit
2
4.7
con K gradi di libert.
Se il numero totale N di eventi costante: le variabili della 7.61 sono correlate
ma hanno una densit
2
4.7 con (K 1) gradi di libert.
Occorre sempre sommare il quadrato delle dierenze tra le frequenze osservate e
quelle vere e dividere per le frequenze vere, avendo cura di ricordarsi che i gradi di
libert sono pari al numero di canali se N una variabile poissoniana, mentre vanno
diminiuti di ununit se N costante.
La densit
2
asimmetrica.
Test a una coda (coda destra): livello di signicarivit:
SL = P
_
Q
R
()
2
R
()
_
(7.62)
Test a due code: livelli di signicativit
SL = 2P
_
Q
R
() >
2
R
()
_
se P
_
Q
R
() >
2
R
()
_
< 0.5 (7.63)
SL = 2P
_
Q
R
() <
2
R
()
_
se P
_
Q
R
() >
2
R
()
_
> 0.5 (7.64)
Quando P
_
Q
R
() >
2
R
()
_
< 0.01 il valore di
2
ridotto trovato si situa
nella coda a destra e risulta troppo alto: altamente probabile che la densit
della popolazione assunta come modello non sia quella vera.
Quando P
_
Q
R
() >
2
R
()
_
> 0.99 il valore di
2
ridotto trovato troppo
alto.
Spesso il
2
di un istogramma viene calcolato dividendo le frequenze misurate
invece che per quelle vere:

2
=
K

i=1
(n
i
Np
i
)
2
n
i
. (7.65)
44
Capitolo 8
Statistica multidimensionale
8.1 Densit congiunta
Denendo la probabilit composta P(AB) Px
1
X x
2
, y
1
X y
2
, se
esiste una funzione p(x, y) 0 tale che:
P x
1
X x
2
, y
1
Y y
2
=
_
x
2
x
1
_
y
2
y
1
p (x, y) dx dy
si dice che essa la densit congiunta di probabilit per due variabili.
Se p(x, y) soddisfa questequazione, la probabilit che (X, Y ) A data da:
P (X, Y ) A =
_
A
p (x, y) dx dy (8.1)
analogo del livello di probabilit P a X b =
_
b
a
p (x) dx. normalizzata; ha
media:
X =
x
Y =
y
(8.2)
e varianza:
Var [X] =
2
x
Var [Y ] =
2
y
. (8.3)
Se X e Y sono stocasticamente indipendenti, si denisce la densit congiunta
come:
p (x, y) = p
X
(x) p
Y
(y) . (8.4)
Media e varianza di combinazioni di variabili:
XY =
xy
Var [XY ] =
_
(xy
xy
)
2
p(x, y)dx dy (8.5)
X +Y =
x+y
Var [X +Y ] =
_
(x +y
x+y
)
2
p(x, y)dx dy (8.6)
45
8.2 Densit marginale
Se X e Y sono due variabili aleatorie con densit p(x, y) ed A un intervallo
dellasse reale, la densit marginale p
X
(x) denita dalla relazione:
P X A =
_
A
p
X
(x)dx =
_
A
dx
_
+

p(x, y)dy (8.7)


da cui:
p
X
(x) =
_
+

p(x, y)dy. (8.8)


La densit marginale p
Y
(y) si ottiente dallequazione 8.8, scambiando x con y.
Sono normalizzate.
8.3 Indipendenza di variabili
Due variabili aleatorie (X, Y ) di densit congiunta p(x, y), sono stocasticamente
indipendenti se e solo se esistono due funzioni g(x) e h(x) tali che per ogni x, y R,
si abbia:
p (x, y) = g (x) h(y) . (8.9)
8.4 Densit condizionata
Se X e Y sono due variabili aleatorie con densit p(x, y), la densit condizionata
p (y[x
0
) di y per ogni x = x
0
ssato e tale che p
X
(x
0
) > 0, data da:
p (y[x
0
) =
p (x
0
, y)
p
X
(x
0
)
=
p (x
0
, y)
_
+

p (x
0
, y) dy
. (8.10)
normalizzata.
8.5 Covarianza di due variabili
La covarianza di due variabili X e Y denita come:
Cov [X, Y ] =
_ _
(x
x
) (y
y
) p (x, y) dx dy
xy
. (8.11)
Quando la covarianza calcolata attraverso la funzione di densit, la sommatoria
doppia e va fatto sulle probabilit delle coppie dei valori possibili delle due variabili;
quando la covarianza calcolata da un insieme sperimentale di dati, la somma
singola e va fatta su tutte le coppie ottenute nel campionamento.
Esiste uninteressante relazione:
Cov [X, Y ] = (X
x
) (Y
y
) = XY
x

y
.
La covarianza di due variabili gode della propriet di annullarsi quando le variabili
sono indipendenti 1.3.1.
46
8.6 Correlazione tra variabili
Viene denito come coeciente di correlazione il rapporto tra la covarianza e le
varianze delle variabili aleatorie a cui si riferisce la covarianza:

xy
[X, Y ] =
Cov [X, Y ]
[X] [Y ]
(8.12)
Gode della propriet: 1
xy
1.
Due variabile aleatorie si dicono incorrelate quando il loro coeciente di correlazio-
ne nullo, si docono correlato in caso contrario. Se due variabili sono statisticamente
indipendenti, allora sono anche incorrelate.
- Condizione suciente perch vi sia dipendenza statistica la presenza di
correlazione;
- condizione necessaria per lindipendenza statistica la mancanza di correlazione
(
xy
= 0).
8.7 Densit normali condizionate
Rielaborando la 4.30, notando che del tipo della 4.20 si ottiene:
g (y[x) =
1

y
_
2 (1
2
)
exp
_

_
y
y

x
(x
x
)
_
2
2
2
y
(1
2
)
_

_
. (8.13)
Ha media:
(Y [x) =
x
+

x
(x
x
)
e varianza:
V ar [Y [x] =
2
x
_
1
2
_
.
La media di Y condizionata ad x si dispone, nel piano (x, y) ed al variare di x, lungo
una retta, detta di regressione. Tra le medie condizionate della gaussiana bivariata
esiste un legame di regressione lineare. La varianza di Y si mantiene costante e
dipende da x solo attraverso il coeciente di correlazione.
La varianza condizionata misura la dispersione dei dati intorno alla retta di
regressione ed sempre di quella proiettata
2
y
.
47
Capitolo 9
Analisi dei dati sperimentali
9.1 Misure indirette e propagazione degli errori
Una grandezza si dice misurata in modo indiretto quando una funzione z =
f(x, y, w, . . . ) di una o pi grandezze misurate direttamente e aette da incertezza.
La determinazione dellincertezza su z a partire da quella delle grandezze misurate si
chiama propagazione degli errori.
Errori statistici e misure indipendenti: la propagazione degli errori segue la
6.28 o la generalizzazione a n variabili
2
z
TV T

con V la matrice simmetrica


delle covarianze e T la matrice delle derivate ( indica la trasposta), sostituendo
alle deviazioni standard, gli errori di misura s
x
e s
y
:
s
2
f
=
_
df
dx
_
2
s
2
x
+
_
df
dy
_
2
s
2
y
; (9.1)
con n misure si ha la legge di propagazione degli errori di misura, valida solo
in approssimazione lineare:
s
2
f
=
n

i=1
_
df
dx
i
_
2
s
2
(x
i
). (9.2)
La stima della deviazione standard risultante denisce un intervallo di con-
denza gaussiano solo se tutte le variabili sono gaussiane.
La propagazione lineare viene utilizzata anche per prodotti o rapporti
dando luogo alla propagazione lineare degli errori percentuali. Si sommano
le varianze percentuali o relative:
Z = X
1
X
2
, Z =
X
1
X
2
, Z =
X
2
X
1
=
s
2
z
z
2
=
s
2
1
x
2
1
+
s
2
2
x
2
2
. (9.3)
Incertezze strumentali (errore sistematico) e misure correlate: si attribuisce
spesso la densit uniforme 4.9. La legge di propagazione degli errori di misura
:

f
=

f
x

x
+

f
y

y
, (9.4)
48
che per n misure vale:

f
=
n

i=1

f
x
i

i
. (9.5)
Queste formule rappresentano la larghezza totale della deviazione standard
quando la composizione delle misure lineare. Viene usato per una stima del
limite superiore dellerrore.
Misure non correlate: bisogna applicare la propagazione dellerrore stati-
stico 9.1 al caso della densit uniforme 9.4 la cui varianza vale

2
12
. Per
due variabili vale:
s
2
f
=
1
12
_
_
f
x
_
2

2
x
+
_
f
y
_
2

2
y
_
(9.6)
e per n variabili:
s
2
f
=
1
12
n

i=1
_
f
x
i
_
2

2
i
. (9.7)
Queste varianze non vanno mai associate alla densit gaussiana.
Somma di due errori sistematici uguali: seguono la densit triangolare in
[0, ]:
p(x) =
_

_
4

2
x per 0 x

2
4

2
(x) per

2
< x <
0 altrimenti
(9.8)
di parametri =

2
,
2
=

2
24
e =

2

6
.
Si considerano intervalli di condenza gaussiani gi a partire da errori
ottenuti dalla combinazione lineare di due soli errori sistematici.
Se si utilizza la densit triangolare, nella 9.6 al posto di
1
12
, bisogna porre
1
24
.
La propagazione lineare viene utilizzata anche per prodotti o rapporti
dando luogo alla propagazione lineare degli errori massimi:
Z = X
1
X
2
, Z =
X
1
X
2
, Z =
X
2
X
1
=

z
z
=

1
x
1
+

2
x
2
. (9.9)
Errori statistici e sistematici:
Sovrapposizione lineare di due misure (errore gaussiano + errore sistema-
tico uniforme) [X N(,
2
), Y U(a, b)]:
p
z
(z) =
1
b a
_

_
b (z )

_
a (z )

__
. (9.10)
utilizzando la funzione comulativa della gaussiana standard 4.26, .
Se si immagina lerrore sistematico come un intervallo (a =

2
, b =

2
)
e si introduce la variabile standard t =
z

( lerrore statistico vero).


49
Riscrivendo e ricordando che E(x) = E(x) e che (x) = 0.5 +E(x) si
ha:
p (t) =

_
E
_
t +

2
_
E
_
t

2
__
. (9.11)
Essa ha una deviazion standard:

m
=
_

2
+

2
12
. (9.12)
9.1.1 Metodo bootstrap
Si assumono come valori centrali e deviazioni standard i valori misurati ed i loro
errori.
Si estraggono a cao delle variabili aleatorie, che vengono combinate come prescritto
dalla misura per ottenere listogramma simulato delle grandezze nali (o istogrammi,
nel caso di misure complesse)
La forma dellistogramma fornisce unidea della densit di probabilit della grandezza
misurata.
Gli errori di misura vengono ricavati direttamente come limite delle aree corrispon-
denti, sullistogramma, ai livelli di condenza assegnati.
I valori centrali in genere coincidono o sono molto vicini, entro lerrore statistico, ai
valori misurati e quindi non forniscono nuove informazioni.
Per i valori centrali (le medie) risultanti dalla simulazione, va notato che se gli
istogrammi provengono da densit asimmetriche, il valor medio simulato dierisce dal
valore misurato. Bisogna ugualmente riferirisi al valore misurato e calcolare lerrore
di misura centrandosi sempre su di esso.
9.2 Riassunto
Errori statistici: stimare le deviazioni standard dei campioni sperimentali ed
applicare la 9.1. Se tutti gli errori di partenza sono gaussiani, il risultato
fornisce la deviazione standard della densit gaussiana risultante e vale la legge
3.
Errori sistematici: la deviazione standard risultante quasi sempre denisce
livelli di condenza approssimativamente gaussiani. Si applica la 9.6.
La 9.4 denisce un errore massimo che non va combinato con altre grandezze
che rappresentano stime di deviazioni standard.
Combinazione lineare di errori statistici e sistematici: si fa sempre in quadratura
attraverso la 9.1, dove la varianza degli eetti strumentali va calcolata con la
9.6. Non segue la legge 3. Spesso per in pratica si assumono livelli gaussiani.
Errori grandi correlati o da combinarsi non linearmente: si ricorre al metodo
bootstrap 9.1.1.
50
9.3 Denizione dei tipi di misura
La notazione per il tipo di misura : M (grandezza, errori statistici, errori sistematici).
M (0, , 0): misura di una grandezza costante con errori statistici.
M (0, 0, ): misura di una grandezza costante con errori sistematici.
M (f, , ): misura di una grandezza variabile con errori statistici e sistematici.
9.3.1 M (0, 0, )
Grandezza costante, errori sistematici. La misura non presenta uttuazioni,
misure ripetute forniscono tutte le stesso valore.
Il risultato della misura va presentato nella forma x
(x)
2
con un CL = 100%:
errore massimo.
Agli errori sistematici si attribuisce una densit uniforme.
Varianza:
s
2
(x) =

2
(x)
12
, (9.13)
deviazione standard:
s(x) =
(x)
2

3
. (9.14)
9.3.2 M (0, , 0)
Grandezza costante, errori statistici. Misure ripetute danno valori diversi (gene-
ralmente si distribuiscono come una gaussiana).
Il risultato della misura va presentato nella forma x = m
s

N
con un CL = 68% se
N > 10: viene presentato cos quando
s

N
.
s

N
rappresenta la precisione della
misura globale.
Se due misure hanno errori diverso si pu avere la stessa precisione nale se
N
1
N
2
=
s
2
1
s
2
2
.
Se le x
i
misure provengono da esperimenti diversi, esse avranno precisioni s
i
dierenti e perci bisogna usare la media pesata

k
i=1
x
i
p
i

k
i=1
p
i

k
i=1
p
i
(9.15)
con p
i
=
n
i

2
i
e n
i
= 1. Si considera quindi una funzione di verosimiglianza
prodotto di N misure gaussiane.
Con lapprossimazione s
i

i
si ha la probabilit di ottenere il risultato osser-
vato secondo la verosimiglianza L(, x) =

n
i=1
_
1

i
()

2
exp
_

(x
i

i
())
2
2
2
i
()
__
:
L(, x) =
n

i=1
_
1
s
i

2
exp
_

(x
i
)
2
2s
2
i
__
. (9.16)
51
9.3.3 M (0, , )
Grandezza costante, errori statistici, errori sistematici. Misure ripetute forniscono
valori diversi, campione dei dati presentato in forma di istogramma. Non ha senso
scegliere il passo dellistogramma inferiore allerrore sistematico . In questa classe
rientrano le misure 9.3.2 quando i dati sono riportato in un istogramma di passo .
Dopo aver calcolato m ed s di un campione di N misure, si calcola la varianza del
campione osservato, dovuta agli errori statistici e agli errori sistematici:
s
2
= s
2
(stat) +

2
(syst)
12
. (9.17)
Da questo si ricava la correzione di Sheppard:
s
2
(stat) = s
2


2
(syst)
12
. (9.18)
D buoni risultati nel caso di misure 9.3.2 istogrammate con passo .
Il risultato della misura va presentato nella forma x = m
s

N
(stat)

2
(syst).
Per lintervallo di condenza si utilizza:
Errore massimo globale:
x = m
_
3
s

N
+

2
_
(9.19)
Densit uniforme:
x = m
_
s
2
N
+

2
12
. (9.20)
9.3.4 M (f, 0, 0)
Grandezza variabile. Scopo della misura quello di determinare la distribuzione
che determina il fenomeno. A questa classe appartengono tutti i fenomeni stocastici,
gli esperimenti di conteggio e i metodi per determinare medie, varianze e forme
funzionali.
Nel conteggio di N
s+b
(s: sorgente, b: fondo) eventi da una sorgente entro un tempo
t
s
si deve prima trovare lerrore poissoniano dei conteggi originali e poi si deve
moltiplicare per la costante
t
s
t
b
. Il rapporto segnale/fondo :
n

=
N
s+b
N
b
t
s
t
b
_
N
s+b
+N
b
t
2
s
t
2
b
. (9.21)
Con n

3 si parla di forte evidenza; con n

> 5 si ritiene avvenuta la scoperta.


9.3.5 M (f, , 0)
Grandezza variabile, errori statistici, errori sistematici. Le uttuazioni dei valori
assunti dalloggetto sico si combinano con le uttuazioni dovute alla misura.
Bisogna prima di tutto misurare la risposta dellapparato, cio la funzione dellappa-
rato 1.32.
52
Se p
Z
(z) f(x) e p
X
(x) f(x), Z e X sono indipendenti e quindi vale:
g (y) =
_
p
Z
_
h
1
(y, x)
_
f (x)
h
1
y
dx (9.22)
e quindi la funzione dellapparato :
p
Z
_
h
1
(y, x)
_
f (x)
h
1
y
(y, x) . (9.23)
In base alle leggi della probabilit composte e totali, le tre funzioni f(x) (sica),
g(y) (osservazione) e (y, x) (apparato) sono legate dalla relazione chiamata integrale
di folding:
g (y) =
_
f (x) (x) dx f +. (9.24)
La probabilit di osservare un valore y data dalla probabilit che la variabile sica
assuma un valore x, per la probabilit che lo strumento, in presenza di un valore x,
fornisca un valore y. Queste probabilit vanno integrate su tutti i valori veri x dello
spettro che possono avere y come valore osservato.
Se la risposta dellapparato lineare y = z +x, z = y x,
h
1
y
= 1
:
g (y) =
_
f (x) (y x) dx (9.25)
Si ha:
s
2
(x) = s
2
(y) s
2
(d) ; (9.26)
m(x) = m(y) m(d) ; (9.27)
= m(x)
s (x)

N
; (9.28)
s (x)
s (x)

2N
. (9.29)
9.3.6 M (f, 0, )
Grandezza variabile, errori statistici, errori sistematici. Le uttuazioni dei valori
assunti dalloggetto sico si combinano con le incertezze dovute alla misura.
Bisogna prima di tutto misurare la risposta dellapparato, cio la funzione dellappa-
rato 1.32.
Se p
Z
(z) f(x) e p
X
(x) f(x), Z e X sono indipendenti e quindi vale:
g (y) =
_
p
Z
_
h
1
(y, x)
_
f (x)
h
1
y
dx
e quindi la funzione dellapparato :
p
Z
_
h
1
(y, x)
_
f (x)
h
1
y
(y, x) .
53
In base alle leggi della probabilit composte e totali, le tre funzioni f(x) (sica),
g(y) (osservazione) e (y, x) (apparato) sono legate dalla relazione chiamata integrale
di folding:
g (y) =
_
f (x) (x) dx f +.
La probabilit di osservare un valore y data dalla probabilit che la variabile sica
assuma un valore x, per la probabilit che lo strumento, in presenza di un valore x,
fornisca un valore y. Queste probabilit vanno integrate su tutti i valori veri x dello
spettro che possono avere y come valore osservato.
Se la risposta dellapparato lineare y = z +x, z = y x,
h
1
y
= 1
:
g (y) =
_
f (x) (y x) dx
Si ha:
s
2
(x) = s
2
(y)

2
12
; (9.30)
m(x) = m(y) m(d) ; (9.31)
= m(x)
s (x)


2
; (9.32)
s (x)
s (x)

2N
. (9.33)
9.3.7 M (f, , )
Grandezza variabile, errori statistici, errori sistematici. Le uttuazioni dei valori
assunti dalloggetto sico si combinano con le uttuazioni e le incertezze dovute alla
misura.
Bisogna prima di tutto misurare la risposta dellapparato, cio la funzione dellappa-
rato 1.32.
Se p
Z
(z) f(x) e p
X
(x) f(x), Z e X sono indipendenti e quindi vale:
g (y) =
_
p
Z
_
h
1
(y, x)
_
f (x)
h
1
y
dx
e quindi la funzione dellapparato :
p
Z
_
h
1
(y, x)
_
f (x)
h
1
y
(y, x) .
In base alle leggi della probabilit composte e totali, le tre funzioni f(x) (sica),
g(y) (osservazione) e (y, x) (apparato) sono legate dalla relazione chiamata integrale
di folding:
g (y) =
_
f (x) (x) dx f +.
54
La probabilit di osservare un valore y data dalla probabilit che la variabile sica
assuma un valore x, per la probabilit che lo strumento, in presenza di un valore x,
fornisca un valore y. Queste probabilit vanno integrate su tutti i valori veri x dello
spettro che possono avere y come valore osservato.
Se la risposta dellapparato lineare y = z +x, z = y x,
h
1
y
= 1
:
g (y) =
_
f (x) (y x) dx
Si ha:
s
2
(x) = s
2
(y) s
2
(d)

2
12
; (9.34)
m(x) = m(y) m(d) ; (9.35)
= m(x)
s (x)


2
; (9.36)
s (x)
s (x)

2N
. (9.37)
55
Capitolo 10
Teoremi
10.1 Teorema di additivit
La probabilit dellevento dato dal vericarsi degli eventi elementari A oppure B,
nel caso generale in cui A B ,= data da:
P(A B) = P(A) +P(B) P(A B). (10.1)
10.2 Teorema del prodotto
Per le probabilit classica e frequentista, la probabilit che si verichi levento
costituito dalla realizzazione degli eventi elementari A e B data da:
P(A B) = P(A[B)P(B) = P(B[A)P(A). (10.2)
10.3 Teorema di Bayes
Se gli elementi soddisfano a

n
i=1
B
i
= S, B
i
B
k
= per i, k, la probabilit
condizionata P(B
k
[A) si pu scrivere come:
P(B
k
[A) =
P(A[B
k
)P(B
k
)

n
i=1
P(A[B
i
)P(B
i
)
P(A) > 0. (10.3)
Formula delle probabilit totali
P(A) =
n

i=1
P(A[B
i
)P(B
i
). (10.4)
10.4 Legge 3-
Se X una variabile gaussiana di media X = e di deviazione standard
[X] = , la probabilit di ottenere un valore x compreso in un intervallo centrato
56
sulla media e di ampiezza di circa il 68%, con 2 di circa il 95%, con 3
di circa il 99%:
P [X [ +k
1

2
_
+k
k
exp
_

1
2
_
x

_
2
_
dx =
_

_
0.682, per k=1
0.954, per k=2
0.997, per k=3
.
(10.5)
10.4.1 Disuguaglianza di Tchebychev
Negli intervalli centrati sulla media e ampi 2 e 3 sono compresi rispettivamente
almeno il 75% e il 90% della probabilit totale:
P [X [ +K
_
+K
K
p(x)dx 1
1
K
2
=
_

_
0, per K=1
0.75, per K=2
0.89, per K=3
. (10.6)
Questa legge una legge 3- generalizzata.
10.5 Teorema Limite Centrale
Sia Y una variabile aleatoria 1.1 lineare di N variabili aleatorie X
i
: Y
N
=

N
i=1
a
i
X
i
dove gli a
i
somo coecienti costanti. Se:
a) le variabili X
i
sono tra loro indipendenti (1.1.1);
b) le variabili X
i
hanno varianza 2.2 nita;
c) le varianze (o deviazioni standard) sono tutte dello stesso ordine di grandezza;
allora, per N , la variabile aleatoria Y
N
converge in legge, secondo la 3.3, verso
la distribuzione gaussiana.
10.6 Teorema dellindipendenza stocastica
Condizione necessaria e suciente perch un processo sia stazionario di Poisson
che gli intertempi siano indipendenti (tempi tra gli arrivi: variabili aleatorie
indipendenti 1.3.1) ed abbiano legge esponenziale negativa 4.5, con equazione 4.14.
10.7 Teorema di Pearson
La somma dei quadrati di variabili gaussiane indipendenti 1.3.1 una variabile
aleatoria che ha densit
2
4.34 con gradi di libert, detta
2
().
10.8 Additivit della variabile
2
Siano Q
1
e Q
2
due variabili aleatorie indipendenti 1.3.1. Se esse hanno densit

2
con
1
e
2
gradi di libert rispettivamente, la variabile Q = Q
1
+ Q
2
ha una
densit
2
() con =
1
+
2
gradi di libert: Q
2
(
1
+
2
).
Inoltre, se Q
2
() e Q
1

2
(
1
), allora Q
2

2
(
1
).
57
10.9 Teorema delle variabili aleatore comulative
Se X una variabile aleatoria 1.1 avente densit p(x) continua, la variabile
aleatoria comulativa C:
C (X) =
_
X

p (x) dx (10.7)
uniforme in [0, 1], cio C U(0, 1).
10.10 Teorema di Cauchy-Schwarz
Se le variabili X e Y hanno varianze nite, vale la disuguaglianza:
[Cov [X, Y ][ [X] [Y ] . (10.8)
10.11 Teorema di indipendenza di variabili gaussiane
Condizione necessaria e suciente anch due variabili aleatorie congiuntamente
gaussiane (normali) siano indipendenti, che il loro coeciente di correlazione 8.12
lineare sia nullo.
Lesistenza di una covarianza nulla (che implica = 0) tra variabili gaussiane
assicura la indipendenza statistica e quindi lassenza di un legame causa-eetto tra
di esse.
10.12 Teorema del cambiamento di variabile in funzioni
densit
Siano X (X
1
, . . . , X
n
) n variabili casuali con densit congiunta p
X
x e siano
Z (Z
1
, . . . , Z
n
n variabili legate alle X dalle n relazioni fondamentali
Z
1
= f
1
(X) . . . Z
n
= f
n
(X), le quali siano tutte invertibili e derivabili con derivata
continua rispetto a tutti gli argomenti (vi sia cio una corrispondenza biunivoca tra
i due domini delle X e delle Z, per cui X
1
= f
1
1
(Z) . . . ).
La densit di probabilit p
Z
allora data da
p
Z
(z
1
, . . . , z
n
) = p
X
_
f
1
1
(z) , . . . , f
1
n
(z)
_
[J[ (10.9)
dobe [J[ lo jacobiano denito come il valore assoluto del determinante della matrice
dei
f
1
i
z
i
.
Ovviamente la trasformazione possibile se tutte le derivate sono continue e [J[ , = 0.
Nel caso non vi sia ununica trasformazione f
i
= (i = 1, . . . , n) che sia invertibile,
occorre suddividere i domini delle X e delle Z in m sottoinsiemi tra loro disgiunti
tra i quali esista una corrispondenza biunivoca e sommare la 10.9 su tali domini.
10.13 Indipendenza di M e S
2
Se (X
1
, . . . , X
N
) un campione casuale di dimensione N estratto da una popola-
zione avente densit normale g (x; , ), M ed S
2
sono variabili aleatorie indipendenti.
58
10.14 Varianza campionaria
Se (X
1
, . . . , X
N
) un campione casuale estratto da una popolazione avente
densit normale g (x; , ), la variabile
Q
R
=
S
2

2
=
1
N 1

i
(X
i
M)
2

2
(10.10)
ha densit
2
ridotto 4.38 con N 1 gradi di libert 1.24. Essa pertanto una
quantit pivotale rispetto a
2
.
59