Sei sulla pagina 1di 25

LABORATORIO 2 ( Meccanica e Termodinamica)

a.a. 2007/2008

F.Balestra

DISTRIBUZIONI DERIVATE

z=

variabile normale centrata e ridotta:

f ( z) =

1 2

1 2

(z)

2 = z i2 variabile 2 , DF = n:
1

f ( 2 ) =

n/2

1 (n / 2)

2 n 1 ( 2 ) 2 e 2 .

W
~

z i2
variabile W,
n nW (n / 2) n / 2 2 1 2 W e g (W ) = . (n / 2) n n +1 ) (n / 2) 2 ( 1 2 h(t ) = n +1 (n / 2) n 2 (n + t ) n
1

o, 2 ridotto, DF = n:

t=

z variabile t di Student ; DF= n : r

Laboratorio 2. DISTRIBUZIONI DERIVATE

a.a 2007/08.

F.Balestra

Si consideri una variabile casuale continua x, la cui funzione densita di probabbilita sia f(x) e sia F(x) la sua funzione di ripartizione . Si definisca in termini di x una variabile casuale continua y = Y(x) e x = (y) sia la funzione inversa in modo che ad ogni valore di x corrisponda uno ed uno solo valore di y , ed inversamente ad ogni valore di y corrisponda uno ed uno solo valore di x. Se x e una variabile casuale anche una sua funzione , y, lo e. Allora la funzione densita di probabilita di y e data da g (y) definita come: g(y)|dy| = f(x)|dx| g(y) = f(x) |dx / dy| = f [ (y)]| | (y) |. ( Vedere Fig. 3) Sia G(y) la corrispondente funzione di distribuzione della y. Si dimostrano le relazioni precedenti nel caso in cui y = Y(x) sia monotona e derivabile Esempio: ex monotona crescente ; e-x monotona decrescente x2 monotona crescente per x 0 e monotona decrescente per x 0 Sia y differenziabile, monotona crescente al crescere di x Dalla Figura(1)

Sia y = yb allorche x = xb Allora Quindi

( y yb ) per ogni (x xb) P ( y yb ) = P (x xb) G ( yb ) = F ( xb) dG(y)/ dy = g(y) ; dF(x) / dx = f(x)

Si consideri ora x come funzione di y : x = (y) Sia y = ya allorche x = xa P (ya y yb) = P(xa x xb )
yb ya

g ( y)dy = f ( x)dx
xa

xb

Cambiando ora le variabili e ponendo : x = (y) ; dx = (y)dy; f(x)dx = f [ (y)] (y) dy si ottiene cambiando gli opportuni limiti di integrazione
yb

ya

g ( y)dy = f ( x)dx = f [( y)]' ( y)dy


xa ya

xb

yb

Questa relazione puo valere, qualunque valore assumano ya e yb , solo se gli integrandi sono eguali , ossia g(y) = f [ (y)] d(y)/dy Se si suppone y monotona decrescente (Fig. 2) 2

P (ya y yb) = P(xb x xa )


yb ya

g ( y)dy =

xa

xb

f ( x)dx = f [ ( y )] ' ( y )dy


ya

yb

g(y) = -f [ (y)] d(y)/dy

P (ya y yb) = P(xb x xa )


yb

ya

g ( y)dy =

xa

xb

f ( x)dx = f [ ( y )] ' ( y )dy


ya

yb

g(y) = -f [ (y)] d(y)/dy Ma se Y(x) e monotona decrescente ne segue che x = (y) e anche decrescente e d(y)/dy < 0 : ha pendenza negativa. (- d(y)/dy) risulta positiva e si puo sostituire con |d(y)/dy| Pertanto : g(y) = f [ (y)] |d(y)/dy| conserva il segno positivo come deve essere per una funzione densita di probabilit.

Fig.3 3

Esempio Sia data una variabile casuale normale x la cui funzione densita di probabilita abbia i parametri x e 2x :
f ( x) = 1

x 2

1
2 2 x

( xx )

definita tra [- e + ]

(1)

La variabile y sia funzione lineare della x ; y = a +b x, con b0. La variabile y e monotona crescente per b > 0, mentre e monotona decrescente per b < 0. La funzione densita di probabilit della variabile y risulta :g(y) = f[ (y)] | d(y)/dy| La funzione inversa vale : x = (y-a)/b = (y), e |dx/dy| = | d(y)/dy| =1/|b| Sostituendo nella (1) la x = (y-a)/b = (y ) si ottiene y a b x x x = da cui : b (x x )2 2 x
2

( y a b x ) 2 2b 2 x
2

Ponendo: = a + bx ; = |b| x , la funzione densita di probabilita della variabile y assume la forma :

d g ( y ) = f [ ( y )] | |= y dove
g ( y) = 1
1 ( y )2 2 2

1 2 x

1 ( y )2 2 2

1 | |= b

1 2

1 ( y )2 2 2

e definita tra - e +, con : = a + b x e =| b | x . 2 Una variabile casuale y che risulta funzione lineare di unaltra variabile casuale normale, risulta anchessa distribuita normalmente . Se la relazione e del tipo y = a bx, con b >0, si ottiene lo stresso risultato, purche si ponga:

= a b x

e =| b | x

Si riportano, per chi sia interessato, due altri casi interessanti . Sia data una variabile casuale normale x, la cui funzione densita di probabilita abbia parametri x e 2x :
f ( x) = 1

x 2

1 2x
2

( x x )

definita tra - e +

(1)

La funzione densita di probabilita della variabile y, che dipende dalla x secondo la relazione y = a/x, essa risulta essere:
1 2 2 y 2 . g ( y) = e 2 y 2 Per chi sia interessato vedere i dettagli : Garfagnini pag. 169 a
(a x y )2

Trasformazione di probabilita Sia data una variabile casuale x, sia f(x) la sua funzione densit di probabilit e sia F(x) la sua funzione di ripartizione. La funzione y = Y(x) sia definita dallequazione : y = F(x) con y compreso tra 0 e 1. Se vale: dy/dx = f(x) = dF(x)/dx g(y) = f(x) |dx/dy| = f(x) 1/f(x) = 1 con 0 y 1 La funzione densit di probabilit della y ha la caratteristica di essere distribuita con distribuzione uniforme tra y = 0 e y =1. Se un numero e scelto a caso da una distribuzione y continua tra 0 e 1 e la forma y = F(x) e invertita, il valore della variabile x : x = (y) e distribuito con densita di probabilita f(x).

Caso in cui la variabile non e monotona crescente o decrescente in tutto il campo di variabilita Se la y non e una funzione monotona di x , le formule precedenti possono essere applicate solo nei tratti di monotonicita crescente o decrescente. Si consideri il caso con la relazione funzionale tra x ed y sia del tipo y = x2 con : - x e, corrispondentement,e 0 y +. Vedere la figura (1)

Se f(x) la funzione densita di probabilita della x ,si vuole trovare trovare la funzione densit di probabilit ,g(y), della y. Si divida lintervallo - x in due intervalli (- x 0 ) e (0 x ) Le funzioni inverse sono : x = - y e x = y Per ogni y, e per ognuno dei due intervalli, corrisponde un singolo valore di x.. Si divida il contributo di g(y) nei due intervalli: P ( a < y < b) = P( -b < x < - a ) + P(a < x < b) =
a b

f ( x)dx

f ( x)dx
a

Si esegua il cambio di variabili x y d ( y ) 1 dy = dy , x = y ; dx = dy 2 y

per ogni intervallo si puo scrivere : Sostituendo si ottiene : P ( a < y < b) = f ( y )


b a

g ( y ) = f ( y )

d ( y ) dy

b d ( y ) d (+ y ) dy + f (+ y ) dy = dy dy a

=
b

f ( y ) 2 y

dy +
a

f ( y) 2 y
b

dy =

f ( y ) 2 y

dy +
a

f ( y) 2 y

dy =

dy = g ( y )dy 2 y a La relazione e valida per qualsiasi valore di a e b se :


a

f ( y ) + f ( y )

g ( y) =

f ( y ) + f ( y ) 2 y

con 0 < y < .

Esempio
e la funzione densita di probabilita di una variabile casuale x normale 2 standardizzata, definita tra - e +, e la variabile x sia legata alla variabile casuale y dalla relazione : y = x2 , si vuole determinare la funzione densita di probabilita della y : g(y). Usando la procedura descritta : f ( y ) + f ( y ) g ( y) = , 2 y ed essendo:

Sia f ( x) =

2 1 ( x) 2

2 si perviene alla funzione densita di probabilita g(y), che assume lespressione: f ( y ) + f ( y ) 1 y / 2 1 1 y / 2 1 / 2 g ( y) = =2 e = e y . 2 y 2 2 y 2 1 La g ( y ) = y 1 / 2 e y / 2 ha campo di definizione y[ 0, ], 2 essa e la funzione densita della variabile y , chiamata variabile 2 con n=1 gradi di liberta, e rappresenta la funzione densita di probabilita di una variabile normale standardizzata. Essendo la g(y) una funzione densita di probabilita, essa e normalizzata ad 1 : y 1 1 2 2 g ( y )dy = y e dy = 1 . 2 0 0 Infatti posto y = 2t ; dy = 2 dt

f ( x) = f ( y ) =

e y / 2 = f ( y )

si ottiene:

g ( y)dy =
0

1 2

t2 2

e t 2dt =

t t 2 e dt = 0

(1 / 2) = 1 .

Il valore medio di y vale:


E ( y ) = yg ( y )dy = y
0 0

1 2

y e

1 2

y 2

dy =

1 2

y
0

1 2

e dy ,

y 2

e posto y = 2t ; dy = 2 dt:

E[ y ] =

1 2

2t e 2dt =
(r)

1 2

(3 / 2) =

1 2 1 1 2 1 (1 + ) = ( ) = =1 2 2 2 2

Nota sulla funzione

(r + 1) = x r e x dx; con r > 1; inoltre: (1) = 1 ; (1/2)= ; (r +1) = r (r)


0

Per r intero positivo (r + 1) = r ! ( r) si puo intendere come l'estensione della funzione fattoriale a numeri r non interi.

VARIABILE 2

La funzione densita di probabilita di una variabile casuale che segua la distribuzione Gamma definita come:
1 G ( y ) = +1 y e ( + 1) con -1, e > 0. y

1 Nel caso particolare in cui = ; = 2 , 2 1 y 1 y 1 1 2 2 2 2 si puo scrivere G ( y ) = 1 , con campo di definizione per la y [0,]. y e = y e 2 2 2 Lespressione pertanto coincide con la funzione densita di probabilita di una variabile 2 con DF = 1 gradi di liberta: y 2 ; DF = 1 grado di liberta. Tale funzione usando il simbolo 2 e, ricordando che il 2 a numeratore fa parte del simbolo, assume lespressione :

f ( ) =
2

1 2

( ) e
2

1 2

2
2

= 2

1
1 2

( 2 ) 2 e

2
2

1 2 (1 / 2)
1 2

( 2 ) 2 e

2
2

Estensione al caso di DF= n gradi di liberta Esiste un teorema (Per chi fosse interessato vedere ad es: Garfagnini pag:183 ) che afferma: se X1, X2, ,Xn sono variabili normali centrate e ridotte ( = 0 ; = 1) indipendenti , la variabile 2 = X21 + X2 + +X2n risulta la somma di n variabili 2 con DF =1 ; o la somma di n variabili Gamma con =2 e = -1/2. Essa risulta ancora: una variabile Gamma con : = 2 e =( n /2) -1 , o una variabile 2 con DF = n gradi di liberta. La corrispondente funzione densita di probabilita assume perci lespressione: 2 n 1 1 ( 2 ) 2 e 2 , f ( 2 ) = n / 2 2 ( n / 2) con campo di definizione [0, ]; f(2) = 0 per 2 < 0 .

Essa e la funzione densita di probabilita di una variabile 2 con DF = n gradi di liberta. Dipende da un unico parametro , n , che rappresenta appunto i gradi di liberta. Essa e definita come ( 1) : 2 DF = n = X 2 i , somma di n variabili normali standardizzate al
1 n

quadrato. Il valore medio vale : E[2] = f ( )d = n ; la varianza vale = ( 2 n) 2 f ( 2 )d 2 =2 n


2 2 2

( per chi interessato:vedere Garfagnini pag 213 per le dimostrazioni). Ricordando che E[Xi2] =1, il valore medio si pu anche ottenere dalla relazione: E[2] = E[X21 +X22++ X2n] = E[X21] + E[X22]++ E[X2n] = [1 + 1+ +1] = n (essendo la media della somma di variabili indipendenti 2 , con DF = 1 e di valore medio eguale a 1)

Vale la proprieta : La somma di due variabili 2 con n1 ed n2 gradi di liberta e ancora una variabile 2, con gradi di liberta: DF = n1 + n2 . 2DF=n1 + 2 DF = n2 = 2 DF = n1+n2 . La relazione si puo estendere alla somma di m variabili 2 qualsiasi: 2n1 + 2 n2 +...+ 2nm = 2 DF = n1+n2++nm . Al crescere di n, ossia del numero degli addendi Xi2 nella (1), f(2) tende asintoticamente alla legge normale con valore medio = n e 2 = 2n . ( A volte le tabelle riportano il valore di 2 fino ad n = 3040 poi vale lapprossimazione alla legge normale). La funzione di ripartizione F(u) e legata alla probabilita dellevento : P(2 u) = F(u) = f ( )d =
2 2 0
u

1
n 2

2 (n / 2) 0
2

n 1 2

2
2

d 2 ,

P(2 > u) =1- F(u) =

1
n 2

2 (n / 2) u Il valore di questi integrali sono tabulati per diversi valori di u e di n . Tali tabelle sono quelle usate per il test del 2 dove u, in quel caso, ha il significato di 2c; P(2DF 2c) = , con livello di fiducia del test.

n 1 2

2
2

d 2 .

P(2DF 2M) = ' , ( P-value): probabilita di ottenere un valore di 2D F maggiore o eguale al valore ottenuto 2M.

Larea tratteggiata rappresenta F(u);1 F(u) Per il test 2 le due forme che piudi frequente vengono utilizzate sono : - quella applicata al fine di valutare il grado di attendibilita di una distribuzione teorica presunta, per interpretare una distribuzione sperimentale. Ossia, per il confronto tra le frequenze assolute attese in una classe i ( E i ) ottenute da una distribuzione teorica e le frequenze osservate Oi, ottenute da un istogramma, ossia da una distribuzione sperimentale: 2 nc (O E ) 2 = i 2 i ; DF = nc 1 m , Ei 1 con : nc = numero classi istogramma ; m = numero parametri stimati; richiesto Ei > 5 quella per controllare se una relazione funzione f( xi), che interpola gli n punti sperimentali yi, approssima statisticamente bene i punti sperimentali stessi. La grandezza 2i rappresenta la varianza delle yi :
2
n

=
1

[( y i f ( xi ) 2 ]

2i

; DF = n m,

con : n = numero dei valori yi; m = numero dei parametri stimati della f(xi). Oppure scegliere , fra piu relazioni funzionali assegnate, quella che approssima in modo migliore i punti sperimentali. Sia 2M il valore di 2 osservato. Sia fissato il livello di fiducia . Sia fissata ,ad es., lipotesi H0 che ci sia buon accordo, se P(2DF 2M) = ' e, quindi 2M > 2c, si rigetta lipotesi nulla H0, al livello di fiducia . Al contrario non si ha motivo, su sole basi statistiche, di rigettare laccordo e la distribuzione e ritenuta valida nei limiti del livello di fiducia. Se l ipotesi viene rigettata esiste una probabilit ' , maggiore di , che il valore sperimentale 2 risulti maggiore di 2M e si ha quindi una probabilit maggiore di di rigettare un ipotesi vera. Non si afferma che le distribuzioni sono compatibili, ma che non possono essere messe in dubbio sulla sola base statistica. Distinzione fine, ma fondamentale. Il test definitivo solo quando porta a respingere le ipotesi fatte , in tal caso respingiamo lipotesi di accordo con probabilit di sbagliare( rigettare una ipotesi che era vera) inferiore ad .

10

Funzione densita di probabilita della variabile W = 2/n (W 2 ridotto). Essa caratterizza la distribuzione della media dei quadrati di n variabili normali standardizzate Xi:
W =

X
1

2 i

n 2 Dato che = n W e

2
d2 = n dW ,

con campo di definizione [0, ] .

se si cambia variabile nella funzione densita di probabilita f(2) si ottiene: n 1 1 f ( 2 )d 2 = n (nW ) 2 e ( nW ) / 2 ndW = g (W ) dW . n 2 2 ( ) 2 La funzione densita di probabilita della variabile W ( o variabile 2 ) n nW (n / 2) n / 2 2 1 2 g (W ) = W e (n / 2) dipende da un unico parametro n che rappresenta anche i gradi di liberta : DF = n. - I valori della media e della varianza di valgono: E[W ] = Wg (W )dW =1;
0 ~

= (W 1) 2 g (W )dW =2/n
0

Essi, ricordando che E[2] = n e che = 2 n, si possono anche ottenere utilizzando le relazioni: 1 2 n E[W ] = E[ ] = E[ 2 ] = = 1 n n n Var [ W ] = Var [2/n] = Var [2] / n2 = 2n / n2 = 2/n e quindi :2w = 2/n ( 2~ = 2/n).
2

Per il test 2 si fa uso di diversi tipi di tabelle che, fissati i gradi di liberta DF , forniscono la funzione di ripartizione per diversi valori di u. Esse forniscono per esempio , per un certo valore di DF = n, la probabilita di ottenere un valore
2 di 2 , maggiore del valore ottenuto M :
n

~ n2 n n 2 ~ ~ ~ ~ 1 2 2 2 2 2 2 ( ) e d . P( 2 > u) =1- F(u) = f ( 2 )d = (n / 2) u u Facendo riferimento alle pagine precedenti per il significato delle varie grandezze, le due forme che si sono piudi frequente utilizzate sono 2 ~ 1 nc (Oi Ei ) 2 = E 2 ; DF = nc 1 m , DF 1 i

1 n [( y i f ( xi ) 2 ] 2 i ; DF = n m . DF 1 Se, nellipotesi H0, succede per esempio:

2 =
~

P( 2DF 2M ) < 5% , il Rigetto dellipotesi H0 si dice significativo < 1% , il Rigetto dellipotesi H0 si dice altamente significativo

11

La funzione densita di probabilita della variabile r. La variabile r e distribuita come la radice quadrata della media dei quadrati di n variabili normali standardizzate:
r = W =

X
1

2 1

.
n 2 1 ( 2 ) 2 e 2 ,

Per sostituzione nella f ( 2 ) =

n/2

1 ( n / 2)

ricordando che: r2 n = 2 e 2 r dr = d2, si ottiene :


n n nr 2 nr 2 1 1 1 2(n / 2) 2 n (n 2) (nr 2 ) 2 e 2 2nrdr = f ( 2 )d 2 = f (nr 2 )2nrdr = n / 2 (r ) e 2 nrdr = (n / 2) 2 (n / 2) n nr 2 2(n / 2) 2 (n 1) (r ) e 2 dr = g (r )dr , = (n / 2) da cui : n nr 2 2(n / 2) 2 (n 1) r e 2 . g (r ) = (n / 2) Essa e la funzione di distribuzione della variabilr r con DF = n gradi di liberta.

Per chi sia interessato, il calcolo del valore medio e varianza si trovano a pag 219 del Garfagnini.

12

Distribuzione derivata di una funzione di due o piu variabili indipendenti. Alcuni richiami: siano a e b due eventi casuali e P(a), P(b) le corrispondenti probabilita , la probabilita congiunta dei due eventi vale: P(a,b) = P(a/b) P(b)= P(b/a) P(a) . Se essi sono indipendenti: P(a,b) = P(a) P(b). In analogia, se x e y sono due variabili casuali e f1(x) , f2(y) le corrispondenti funzioni densita di probabilita (dette anche: marginali), la funzione densita di probabilita congiunta di x ed y e : f(x,y) = (x/y) f2(y), f(x,y) = (y/x) f1(x), dove (x/y) e (y/x) sono le funzioni densita di probabilita condizionate. Se x ed y sono indipendenti: f(x,y) = f1(x) f2(y). Si assumano x e y due variabili casuali indipendenti e f1(x) , f2(y) le corrispondenti funzioni densita di probabilita Sia u = U (x,y) una funziona monotona della x e della y. Es: u = x + y ; u = x y; u = x/y Fissato il valore di x la U si puo assumere come una funzione monotona della sola y Fissato il valore di y la U si puo assumere come una funzione monotona della sola x Si desidera determinare la funzione densita di probabilita della variabile U(x,y) Se si vuole ottenere la funzione densita di probabilita della variabile U(x,y) si immagini di tenere fissa una delle due variabili e di fare variare laltra, secondo la corrispondente sua densita di probabilita marginale f1(x) o f2(y). Se, per es. , x rimane fissa ad un dato valore, la densita di probabilita di u : (u/x) e anche la densita di probabilita condizionata di u a quel particolare valore di x. Se x e fisso U e funzione monotona della y y = (u, x) e' la funzione inversa della U (x,y) . E immediato ottenere (u/x) col metodo visto per le funzioni monotone ,tenendo fisso il valore di x e facendo variare la y secondo la funzione f2(y): (u/x) = f2[(u, x) ] |d/du|. Infine la funzione densita di probabilita congiunta di u ed x sara : g( u, x) = (u,x) f1(x). La quantita g(u,x)dudx rappresenta la probabilita di avere u compreso tra uu +du; e x compreso tra xx+dx La funzione densita di probabilita della u indicata con: h(u). La probabilita h(u)du di ottenere un valore di u compreso tra uu +du, qualunque sia ora x , verra ottenuta integrando la g(u,x) su tutti i valori che la x puo assumere. h(u ) = g (u, x)dx .
x

13

Esempio. Siano x ed y due variabili casuali indipendenti e normali con funzioni densita di probabilita
f1 ( x) =

1 2

( x 1 ) 2
2 2 1

; f 2 ( x) =

2 2

( y 2 )2
2 2 2

entrambe con campo di definizione [- , ] Si calcoli la funzione densita di probabilita h(z) della variabile somma z = x + y . Si applichi la procedura appena descritta: fissato x la z e funzione monotona di y e la funzione inversa vale y = (z,x) = z x, inoltre d/dz = 1. La funzione densita di probabilita di z a quel particolare valore di x si ottiene cambiando le variabili in f2(y). Si ottiene: ( z / x) = f 2 [ ( z )] | d / dz |= 1

2 2

( z x2 )2
2 2 2

| 1 |=

2 2

( z x 2 )2
2 2 2

con campo di definizione per la z [-, ]. La funzione densita di probabilita congiunta di z ed x ha lespressione g(z,x) = (z/x) f1(x) = 1

2 2

( z x2 )2
2 2 2

1 2

( x 1 ) 2
2 2 1

1 2 2

( x 1 ) 2 ( z x 2 ) 2 } + 2 2 2 1 2 2

= Ke Q ,

avendo indicato con K e Q rispettivamente : 1 K= , 1 2 2 (x )2 (z x )2 1 + 2 } Q ={ 2 2 2 2 2 1 . La funzione densita di probabilita di z si ottiene integrando la g(z,x) su tutti i valori di x:

h(z) =

dove : = 1 + 2 e 2 = 12 +22 . h(z) =


1

Ke

dx =

( z )2 2 2

( z )2 2 2

e la funzione di probabilita della variabile casuale z definita tra [-, ].

La somma di due variabili normali indipendenti e ancora una variabile normale con valore medio pari alla somma dei due valori medi e varianza pari alla somma delle varianze. (1, 1)
+ (2,2) = ( = 1 +2; 2= 12 +22)

14

Variabile casuale somma di piu variabili normali indipendenti Il risultato ottenuto in precedenza si puogeneralizzare al caso di piu di due variabili. Se X1, X2, ,Xn sono n variabili normali indipendenti con parametri (1,1),(2,2),...,(n,n), allora la somma X = a0 + a1 X1 +a2X2++anXn e ancora una variabile normale con parametri (,) che sono : = a0 + a11 + a22 + ... + ann 2 = a1212 + a 2222 ++ an2n2 . Se a0 =0 e X = ai X i allora :
1

= E[X] =
n

ai E[ X i ] = ai i
1 1

2= a12 i2 .
1

Se abbiamo un campione di dati indipendenti Xi, estratti dalla stessa popolazione normale (,x) , il valore medio E[ X ] viene stimato sul campione di dati e la media viene ottenuta con la: 1 n xi e la forma del generico ai = 1/n, n 1 n _ x 1 n x = xi = i . n 1 1 n Le relazioni: n n n _ x 1 1 n n E[ x] = E[ i ] = E[ xi ] = = = = = E[ x] , n 1 n 1 n 1 n i n 2 2 n n n 1 1 x2 = 2 x2 = 2 x2 = 2 x = x ; x = x , n n 1 n n 1 n mostrano che valore medio di un campione di n valori Xi casuali ed indipendenti, estratti da una
x=
_

). n Se si eseguono n misurazioni di una data grandezza fisica si puo supporre che il comportamento delle misure sia assimilabile al comportamento di una variabile casuale normale , il cui valore medio e la varianza sono quelle della popolazione da cui sono estratte. Con le n misure si puo stimare il valore medio teorico e la varianza teorica , ossia i parametri della popolazione, 1 n utilizzando il valore medio empirico e la varianza empirica : E[ x] = x ; s 2 = ( xi x) 2 . n 1 1
Se si assume che la deviazione standard rappresenti lerrore sulla singola misura di una grandezza fisica , nelleseguire una ulteriore misurazione della data grandezza , si ha la probabilita del 68% che la misura cada nellintervallo: -x x +x . Le stesse considerazioni valgono per la media. Per questo si eseguono piu misurazioni della stessa grandezza fisica , perche allaumentare di n la deviazione standard diminuisce come la radice quadrata di n. La deviazione standard del valore medio diventa percio sempre piu piccola . Aumenta la precisione della misura e si riduce lerrore da cui e affetta la misura stessa. La varianza del campione resta invece inalterata al crescere di n , in quanto essa stima la varianza teorica della popolazione, da cui il campione viene estratto, che ha un valore ben definito.

popolazione normale (,x), e distribuito normalmente con parametri ( ,

x2

15

Intervalli di confidenza. Nel caso in cui la della popolazione sia nota, se il valore viene stimato attraverso il valore medio empirico x del campione, il risultato della misura , la migliore stima di che rappresenta il valore vero, vale: X = x x . La probabilita P(| x - | x ) = 68% . L'intervallo x x rappresenta lintervallo che ha la probabilit (confidenza ) del 68% di contenere il valore vero. Se si dispone di una sola misura xi la migliore stima di vale : X = xi x . L'intervallo xi x rappresenta lintervallo che ha la probabilit ( confidenza) del 68% di contenere il valore vero . Se la non e nota, essa viene stimata dalla deviazione standard empirica, Sx, ottenuta dal s campione di dati, e la deviazine standard del valore medio da : s x = x . n Allora il risultato si scrive come X = x s x . Lintervallo di confidenza dellintervallo x s x viene stimato, come vedremo, utilizzando la distribuzione di Student .

Il teorema del limite centrale TLC . Esso afferma che la somma Sn di n variabili casuali indipendenti Xi provenienti da una distribuzione qualsiasi di parametri (,) ha una distribuzione che tende a quella normale purche n sia sufficientemente grande. Sia : Sn = X1+ X2++Xn , allora:
lim n S n = 1

( S n n ) 2 2 n 2

e la variabile Sn tende ad una variabile gaussiana con valore medio: s= n e varianza s2 = n 2. Se x rappresenta la media degli n valori Xi , la sua distribuzione , per il TLC , tende ad una distribuzione gaussiana di valore medio e deviazione standard x = /n

16

Funzione densita di probabilita della variabile t di Student : t

= z/r

Sia z una variabile casuale normale centrata e ridotta di densita di probabilita q( z ) = 1 2 e


2 1 (z) 2

la radice quadrata del valore medio dei quadrati di n variabili n indipendenti normali centrate e ridotte.La di densita di probabilitadi r vale: n nr 2 2(n / 2) 2 (n 1) f (r ) = r e 2 . (n / 2) Si voglia determinare la funzione densita di probabilita derivata della variabile t = z/r che e funzione monotona della z e della r. Si utilizza il metodo sopra descritto. Si fissa il valore di r ; t e funzione monotona della z : t = ( z) e z = r t = Z(t) e la funzione inversa., r utilizzando la tecnica delle distribuzioni derivate per funzione monotonevale : dZ (t ) (t / r ) = q[ Z (t )] | |. dt Si tiene fisso r, si sostituisce la variabile Z(t) nella funzione densita di probabilita q(z). Inoltre vale dZ (t ) | |= r , dt r 2t 2 dZ (t ) 1 2 e ; t ha campo di definizione [- , ]. per cui si ottiene: (t / r ) = q[ Z (t )] | |= r dt 2 La distribuzione densita di probabilita congiunta di r e t vale: n n nr 2 r 2 (n + t 2 ) 2 2 r t 1 2 2(n / 2) 2 (n 1) 2(n / 2) 2 2 r ne g (r , t ) = (t / r ) f (r ) = e = , r e 2 r (n / 2) 2 (n / 2) 2

Sia r = W = 2 =

z
1

2 i

con campi di variabilita [0 r ] e [- t ]. La funzione densita di probabilita h (t) della variabile t si ottiene infine integrando la g(r,t) rispetto ad r nel suo campo di variabilita [ 0, ]: h(t ) = g (r , t )dr
0

Operando il cambiamento di variabile : u =

r n + t2 2

;r =

u 2 n+t
2

; dr =

2du n + t2

per cui : h(t ) = g (r , t )dr =


0
0
n

u2 2 (n + t 2 ) 2 n n+t u 2 n 2(n / 2) 2 2 ( ) e 2 (n / 2) 2 n+t


u2

2du n + t2

(n) 2 ( n / 2)

1 (n + t 2 )

n +1 2 0

n 2u e du.

17

Poich 2u n e du = (
0

u2

n +1 ) , segue : 2

h(t ) = (

( n)

n 2

1 (n + t )
2 n +1 2

(n / 2)

n +1 ) n +1 2 )= ( 2 (n / 2) ( n) 2 (

1 (n + t )
2 n +1 2

n +1 ) 2 = (n / 2) n

1 t (1 + ) n
2 n +1 2

,
n +1 ) 2 h(t ) = (n / 2) n (

. n +1 t2 2 (1 + ) n h(t) e la funzione densita di probabilita della variabile casuale t , dipende da un parametro n che rappresenta i gradi di liberta , DF, del campione .

Il valore medio di t : E(t) =0, in quanto h(t) e funzione pari e simmetrica rispetto allo 0. n , e rimane definita per n >2. La varianza di t vale : 2 = n2 Per n : 21. Per n grandi la distribuzione di t h(t) tende a quella normale centrata e ridotta ( = 0, = 1), e ci vale in buona approssimazione gia per n 30. La funzione di ripartizione o cumulativa vale :FDF (x) = h(t )dt .
X X

La funzione WDF (r ) =

h(t )dt = 2 FDF(X) -1= 1 -

Fissato il valore DF dei gradi di liberta e fissato il valore del livello di fiducia del test ,dalle funzioni indicate sopra si risale ai valori (-X , X) che rappresentano i valori critici di rigetto o accettazione dellipotesi H0 nel test di Student. Tali valori sono tabulati per divesi valori di DF e di .

Figura. f(t) : Distribuzione di Student (DF =2,3,6). Confronti con la gaussiana standardizzata: g(t)

18

Esiste una Relazione notevole tra il valore medio empirico x ,ottenuto da un campione, ed il valore medio teorico della popolazione:

(x
1

) 2 = ( x ) 2 + ( xi x) 2
1 1

Infatti, ricordando che : si ottiene :


n n

(x
i

) = xi n = n x n = n( x ),
1
2 n n n

( xi x) 2 = [( xi ) ( x )] = [( xi ) 2 2 ( xi )( x ) + ( x ) 2 =
1 1 1 1 1

= [( xi ) 2 2 ( xi )( x ) + n( x ) 2 = [( xi ) 2 2( x ) ( xi ) + n( x ) 2 =
1 1 1 1

= [( xi ) 2 2( x )n( x ) + n( x ) 2 = [( xi ) 2 2n( x ) 2 + n( x ) 2 =
1 1

= [( xi ) 2 n( x ) 2 .
1

Per cui:

(x (x
1 1 n

) 2 = ( x ) 2 + ( xi x) 2
1 1

) 2 = n( x ) 2 + ( xi x ) .
1

Nel caso di una variabile casuale, che segua la distribuzione normale, si estragga, da una popolazione infinita, un campione di n valori xi in n prove indipendenti. Si puo dimostrare che il valore medio e la varianza empirica: 1 n 1 n x = xi e s 2 = ( xi x) 2 n 1 n 1 1 calcolati dallo stesso campione composto di n elementi, sono distribuiti in modo indipendente. Dalla relazione notevole si possono derivare diverse importanti propriet sulla stima di 2 e sulla distribuzione della variabile casuale : varianza empirica S2. Stima corretta e consistente di 2 Dalla relazione

( xi ) 2 = ( x ) 2 + ( xi x) 2 ,
1 1 1

x2 = lim
ricordando le definizioni :

1 n n
n

(x
1 n

)2 ;

1 1 ( x ) 2 = lim n( x ) 2 , n n 1 n dove e il valore medio della popolazione , si pu ottenere uno stimatore consistente della varianza 2x della popolazione. Dividendo per n entrambi i membri dalla relazione si ottiene:

x2 = lim

19

1 n 1 n 1 n 2 2 ( x ) = ( x ) + ( xi x) 2 . Nel processo al limite per n si ottiene i n 1 n 1 n 1 n 1 x2 = x2 + ( xi x) 2 . Moltiplicando entrambi i termini per n: n 1


2 2 n x = n x + ( xi x ) 2 , e 1 n 2 ricordando che x =

x2
n

si ottiene :

2 2 n x =x + ( xi x) 2 da cui segue: 2 2 2 n x x = ( xi x) 2 , n( x 1) = ( xi x) 2 , 1 1 1 n n

1 n e 2 = ( x x) 2 ,dove x e stato ottenuto dal campione. x n 1 i 1 Questa espressione coincide con quella della varianza empirica S2x = quindi una stimatore consistente di 2 . x Dalla relazione notevole si pu ottenere che S 2 uno stimatore corretto di 2 : E[S2x] = 2 . x x x
n n n

1 n 2 ( xi x) ,che risulta n 1 1

(x La relazione
1

) 2 = ( x ) 2 + ( xi x) 2
1 1

, pu essere riscritta come

(x
1

) 2 ( x ) 2 = (n 1) S x2
1

Si calcoli il valore medio dei due termini:


E[ ( xi ) 2 ] E[ ( x ) 2 ] = (n 1) E[ S x2 ],
1 1 n n

E[( x
1 2 x

) 2 ] E[( x ) 2 ] = (n 1) E[ S x2 ],
1 2 x

n n = (n 1) E[ S x2 ],
2 n x n 2 x

x2
2 x

n n = (n 1) E[ S x2 ],
2 E[ S x2 ] = x ,

= (n 1) E[ S x2 ],

2 (n 1) x = (n 1) E[ S x2 ],

Per cui si ottiene che e S 2 uno stimatore corretto di 2 x x 2 2 E giustificato usare S x come stimatore di x .
Altre considerazioni

20

Se disponessimo di una sola misura x1: x = x1 e S x =

1 1 ( x1 x) 2 = 0 , n 1

lerrore sarebbe nullo:assurdo. Invece se fosse noto : (x1-)0

Luso della relazione S x =

0 1 1 ( x1 x) 2 = porta ad una forma indeterminata che meglio riflette 0 n 1 1

lignoranza dellerrore dopo una sola misura.

Il valore medio x e stimato sul campione di dati stessi e questo impone un vincolo. I gradi di liberta sono diminuiti
di uno; DF = n-1.

21

Calcolo della funzione densita di probabilita della variabile s dalla relazione notevole:

/2 e S/,

(x
1

) 2 = ( x ) 2 + ( xi x) 2
1 1

Si divida ciascun addendo per 2: n n ( xi ) 2 ( xi x ) 2 n 2 2 = 2 (x ) + 2


1

Rinominati i vari addendi con:


S0 =
1 n

( xi ) 2

; S1 =

(x )2 =

(x )2
2 x

; S2 =
1

( xi x ) 2

si ottiene la relazione : S0 = S1 + S2 . x La variabile z = i e normale centrata e ridotta. La somma dei suoi quadrati , cioe, S0, e distribuita come la variabile 2 con DF= n gradi di liberta. Analogamente S1 (il quadrato della variabile normale centrata e ridotta che rappresenta il valore x ) e distribuita come una variabile 2 con DF=1 gradi di liberta. Si ricordi che vale la proprieta: 2DF=n1 + 2 DF = n2 = 2 DF = n1+n2 .

Allora : S 2 =
1

( xi x) 2

= (n 1)

s2

risulta distribuita come una variabile 2 con DF=(n-1)

gradi di liberta. Quindi: = S1 + S2 S0 [2;DF= n] [2:DF = 1] [2:DF= n-1] .

~ S2 1 n ( xi x ) 2 2 = La variabile 2 = =W , 2 n 1 n 1 1

s2

risulta distribuita come una variabile W o 2 con DF= n-1 gradi di liberta .

La variabile

risulta distribuita come una variabile r = W con DF= n-1 gradi di liberta.
z z e distribuita come una variabile di Student con DF = n-1 gradi di liberta. = s r

La variabile t=

22

La variabile y = S 2 =

2 DF = n 1

=
1

( xi x ) 2

x2

= (n 1)

2 sx

x2

e una variabile 2 con DF= n-1 gradi di liberta, essendo le xi variabili normali casuali indipendenti provenienti da una popolazione di parametri( ,x), e pertanto: E[y] = n-1 ; 2y = 2(n-1) Da un campione di n valori si possono ottenere:
x= 1 n xi n 1

e S x2 =

1 n ( xi x) 2 . n 1 1

Quale la distribuzione della variabile casuale Sx2 ?.


Vale:

n 1 distribuzione y/(n-1) e quindi alla distribuzione di una variabile 2 ridotto con DF = n-1.
--Il valore medio vale: E[ S ] = E[
2 x

S =
2 x

x2

y e di conseguenza la distribuzione della S x2 e legata a quella della

x2
n 1

y] =

x2
n 1

E[ y ] =

x2
n 1

2 (n 1) = x .

2 -La varianza vale: Var[ S x ] = Var[

x2
n 1

y]= (

x2
n 1

) 2 Var[ y ] = (

x2
n 1

) 2 2(n 1) =

4 2 x n 1

2 2 2 2 Sx . x x n 1 n 1 2 ,da un campione di n valori. Essa rappresenta lincertezza sulla stima di x2 ottenuta ,mediante S x

La deviazione standard vale : s 2 =

Quanto vale la deviazione standard della deviazione standard : lerrore dellerrore ?


1

S x = S x2 = ( S x2 ) 2 = f( S x2 ).
1 2 = (df ( S x2 )/d S x2 )2 s22 ; (dS x / dS x2 ) = [ ( S x2 ) 2 ] , Applichiamo la propagazione degli errori: S x x 2 1 2 dSx 1 2 1 Sx 1 1 2 Var [Sx] = ( 2 ) 2 Var[ S x2 ] [ ( S x2 ) 2 ) 2 . S x4 = S x4 = 2 n 1 2 n 1 2 4 Sx n 1 dS x
1

Lerrore su Sx vale : s x =

Sx

Sx 2(n 1) In tabella e riportato il valore dell errore % per diversi valori di n:

; Lerrore relativo vale :

1 2(n 1)

s
s

10 20 30 50 100 7

76 36 24 16 13 10

= Errore % ).

23

Intervalli di confidenza per la varianza. Nota la distribuzione della S x2 , prefissato , si possono trovare le probabilita che S x2 sia compreso in un certo intervallo nellintorno della varianza teorica x2. S x2 2 2 2 P[ x (1 ) S x x (1 + ) ]= P[(1 )(n 1) (n 1) 2 (1 + )(n 1)] =

y2

y1

f (

)d 2 = FDF ( y 2 ) FDF ( y1 )

Dove: DF = n-1 ; y1= (n-1)(1-) e y2= (n-1)(1+) .


Prefissato , si puo valutare la probabilita che la varianza incognita x2 sia contenuta in un intervallo di fiducia: S x2 (1)

P[ S (1 ) S (1 + ) ] = f ( 2 )d 2 = FDF ( y 2 ) FDF ( y1 ) ,
2 x 2 x 2 x
y1

y2

y1= (n-1)/(1+) e y2= (n-1)/(1-) .

24

COMPENDIO DELLE DISTRIBUZIONI DERIVATE

x = variabile casuale normale:

f ( x) =

x 2
1 2
e

1 2x 2

( x x )

z=

variabile normale centrata e ridotta:

f ( z) =

(z)

2 = z i2 variabile 2 , DF = n:
1

f ( 2 ) =

n/2

1 (n / 2)

n 2 1 ( 2 ) 2 e 2 .

W
~

z i2
variabile W,
n nW (n / 2) n / 2 2 1 2 g (W ) = W e . (n / 2) n nr 2 2(n / 2) 2 (n 1) g (r ) = r e 2 . variabile r, DF = n: (n / 2) n n +1 (n / 2) 2 ( ) 2 h(t ) = (n / 2) n

o 2 ridotto, DF = n:
~

r =

W =

=
2

z
1

2 i

t=

z variabile t di Student ; DF= n : r

1 n +1 (n + t 2 ) n

F = W1 variabile F di Fischer. W2

Sia {x1, x2, , xn} un campione di n valori estratti da una popolazione gaussiana di parametri(,), 1 n 1 n ( xi x ) 2 siano il valore medio e la varianza estratte dal campione: x = xi e S 2 = n 1 n 1 1 (n-1)S2/2 ha funzione densita di probabilita di una variabile 2 con DF = n-1 gradi di libert. S2/2 = 2/(n -1) ha funzione densita di probabilita di una variabile 2 ridotto con DF = n-1 gradi di libert. S/ ha funzione densita di probabilita di una variabile r con DF = n-1 gradi di libert. La variabile t = gradi di libert. z ha funzione densit di probabilit della variabile t di Studente con DF= n-1 s r
~

25