Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
x=
1
N
, che
1
N
(x
x ) 2 (la cui radice quadrata s X lo scarto quadratico medio empirico), che d una
misura di quanto la distribuzione dei valori xi concentrata intorno alla media. Si verifica infatti
immediatamente che s X piccolo se i valori xi sono in prevalenza molto prossimi a x , e cresce
quando se ne allontanano. I valori i = xi x sono detti scarti dalla media.
1.2 Distribuzione gaussiana
I risultati empirici descritti nel paragrafo precedente possono essere utilizzati per costruire un
modello probabilistico di previsione. Si definisce una funzione f X , detta densit di probabilit, il
cui grafico riflette landamento a campana dellistogramma visto sopra, tale che il suo integrale su
un intervallo I fornisce la probabilit che la misura x della grandezza X cada in I :
X =
xf
( x)dx
(valore atteso)
(1.1)
X2 = ( x X ) 2 f X ( x)dx
(varianza)
(1.2)
xf
( x)dx x j f X ( x j )x .
Se il grafico di
f X ( x j )x ,
che approssimativamente uguale alla probabilit che X cada nel j-esimo intervallo della
suddivisione, deve anche essere circa uguale a j = n j / N , ossia alla frazione di tutte le misure
eseguite con risultati nel j-esimo intervallo della suddivisione (detta frequenza).
nj
1
Quindi x j f X ( x j )x x j
xi , dove nellultimo termine la somma su tutti i
N N
risultati delle misure, e lultima uguaglianza approssimata giustificata dal fatto che il valore x j
approssima tutti i valori xi contenuti nel j-esimo intervallo della suddivisione.
In maniera analoga ci si rende conto che la varianza empirica assume verosimilmente un valore
prossimo a X2 .
NOTA: In generale, data una funzione
1.3 Correlazioni
Si supponga ora che 2 quantit X (1) , X ( 2 ) vengano misurate contemporaneamente e che questa
operazione di misura venga ripetuta N volte. Ogni misura d luogo a una coppia xi(1) , xi( 2) ; come
in 1.1 si possono determinare medie empiriche
(s
2
X (1)
,s
2
X ( 2)
).
(x
(1)
,x
( 2)
) , scarti (
1
N
(1)
i
(1) ( 2 )
i
i
( 2)
i
e varianze empiriche
non esiste alcuna relazione particolare fra i segni di i(1) e di i( 2) , che quindi sono circa
altrettante volte concordi e discordi. Di conseguenza, i segni dei loro prodotti sono circa
altrettante volte positivi e negativi, e quindi ci sono molte cancellazioni nella somma in
s X(1, 2) , che in questo modo risulta in generale molto piccola;
i segni di i(1) e di i( 2) sono prevalentemente concordi o prevalentemente discordi. In
questo caso i segni dei loro prodotti sono prevalentemente positivi o prevalentemente
negativi, e quindi la somma in s X(1, 2) non piccola in valore assoluto.
Nel primo caso si dice che X (1) e X ( 2) non sono correlate, nel secondo che sono correlate
(positivamente o negativamente). La quantit
rX = s (X1, 2 ) / s X (1) s X ( 2 ) , detta coefficiente di
correlazione empirico, d una misura della presenza o meno di correlazione. Si pu provare che
1 < rX < 1 .
1.4 Variabile aleatoria 2-dim.
Per costruire il modello probabilistico di previsione relativo alla coppia di grandezze (X (1) , X ( 2) ) ,
si introduce una funzione di 2 variabili f X ( x (1) , x ( 2) ) tale che, per un dominio D R 2 ,
{(
Di conseguenza
(1)
( 2)
(1)
( 2)
dx dx f X ( x , x ) = 1 .
Introdotta la notazione
dx dx
(i )
C ij( X )
{ }
= E {( X
= E X ( i ) , i = 1,2
(i )
X (i )
(1)
( 2)
(valore atteso)
(1.4)
(1.5)
NOTA: C ii( X ) = X2 (i ) ; inoltre, con ragionamenti simili a quelli visti in 1.2, ci si pu rendere conto
che il coefficiente di correlazione empirico rX introdotto in 1.3 assume verosimilmente un valore
(X )
(coefficiente di correlazione). Come per rX , si pu
prossimo alla quantit X = C12( X ) / C11( X ) C 22
provare che 1 < X < 1 .
} { v v
v T C ( X ) v = vi v j E ( X (i ) X ( i ) )( X ( j ) X ( j ) ) = E
=E
{( v ( X
i
(i )
X (i) )
) }> 0 .
( X ( i ) X ( i ) )( X ( j ) X ( j ) ) =
1 / 2
exp ( x ) T C 1 ( x )
2
(1.6)
dove x e sono vettori (di dimensione n) e C una matrice quadrata. Si verifica che, con
questa scelta di f X , = X , C = C ( X ) .
Se C diagonale,
1
1 ( xi i ) 2
1
.
exp ( xi i ) T C ii1 ( xi i ) =
exp
2C
C
2
2
ii
ii
Quindi, nel caso di densit di probabilit gaussiana, se le variabili sono incorrelate sono anche
indipendenti.
f X ( x) = (2 ) n / 2 (det C )
1 / 2
} {
CW = E (W W )(W W ) T = E (M ( X X ) )(M ( X X ) )
= ME ( X X )( X X ) T M T = MC X M T .
} = E{M ( X
)( X X ) T M T =
(1.7)
Poich gli elementi diagonali delle matrici di covarianza sono le varianze delle componenti, la
regola (1.7) (propagazione della covarianza), consente di ricavare informazioni sulla dispersione
delle componenti di W (e quindi sui loro errori probabili) a partire dalla conoscenza della