Sei sulla pagina 1di 40

LABORATORIO 2 (meccanica e Termodinamica) a.a. 2007/2008

( Per cortesia segnalatemi punti non chiari o refusi. Grazie e buon studio)

Metodo dei Minimi Quadrati . Principio di Massima Verosimiglianza . Test del χ2.

F.Balestra.

density function and distribution function

1.0 0.8 0.6 0.4 0.2 10 20 30 40 50
1.0
0.8
0.6
0.4
0.2
10
20
30
40
50
c 2 0.95 H4L = 0.711 and c 2 0.05 H4L = 9.488 0.3 0.2
c 2 0.95 H4L = 0.711 and c 2 0.05 H4L = 9.488
0.3
0.2
0.1
2
4
6
8
10
12
-0.1
9 8 7 6 5 4 3 4 5 6 7 8
9
8
7
6
5
4
3
4
5
6
7
8

Metodo dei Minimi Quadrati e Principio di Massima Verosimiglianza. Proprieta’ degli stimatori. Dipendenza della matrice di covarianza e del χ2 dall’errore sulle y.

Test del χ2. Ricerca della migliore forma funzionale.

Correlazioni tra i coefficienti stimati.

Principio di Massima Verosimiglianza. Media pesata. Stima di parametri per la distribuzione di Bernoulli e di Poisson.

Stima e proprieta’ degli stimatori.

Principio di massima verosimiglianza e metodo dei minimi quadrati. Supponiamo di avere n coppie di dati {xi; yi ± σi} Sia y = f( x; a ) una funzione che fornisce un valore y per ogni x. La forma e’ nota, ma contiene un parametro a ( o piu’ parametri) che vogliamo stimare. Le misure yi hanno come valore vero y = f( xi;a) e sono disperse rispetto ad y a causa dell’errore σi, con distribuzione gaussiana. La probabilita’ di ottenere un particolare valore di yi per un dato valore di xi e’

P

(

y

i

;

a

) =

1

σ 2 π i
σ
2
π
i

e

[

y

i

f

(

x

i

;

a

)]

2

2

σ

2

i

dy

i

.

La probabilita’ congiunta di ottenere la serie delle n misure indipendenti {yi} realmente ottenute vale

P

=

n

1

P

(

y

i

;

a

)

=

(

n dy i 1 σ 2 π i
n dy
i
1
σ
2
π
i

)

e

n

1

[

y

i

f

(

x

i

;

a

)]

2

2

σ

2

i

La funzione densita’ di probabilita’ corrispondente,detta a posteriori perche’ costruita con il campione di dati, e’ la funzione di verosimiglianza L per il campione di dati. Essa vale

L =

n P

1

(

y

i ;

a

)

=

(

n 1 1 σ 2 π i
n 1
1
σ
2
π
i

)

e

f

[ y

i

(

x

i

;

a

)]

1 2

σ

2

i

n

2

.

Il Principio di Massima Verosimiglianza assume che il valore piu’ verosimile come stima del parametro a e’ quello che rende massima la funzione L, ossia rende massima la probabilita’ di ottenere la serie di dati del campione . Massimizzare L e’equivalente a rendere massima la funzione logaritmo l = ln L:

l

= ln

L

=

ln

n P

1

(

y

i ;

a

)

=

n

1

ln[(

1

σ 2 π i
σ
2
π
i

n

[

y i

f

(

x

i

;

a

)]

2

) − ∑

1 2

σ

2

i

] = −

n

1

ln[(

σ

1 2 π ) − i
1
2
π
)
i

2

n

1

[ y

i

f

(

x

i

;

a

)]

2

σ

2

i

.

Per rendere massima l e’ sufficiente minimizzare la sommatoria:

2

χ

n

= ∑

[

y

i

f

(

x

i

;

a

)]

2

2

i

1 σ

,

cioe’ minimizzare la somma del quadrato degli scarti, pesati, tra le yi e le f(xi;a) predette. Questo metodo e’ noto come Metoto dei Minimi Quadrati. Il metodo fornisce un mezzo per stimare il parametro a in una funzione f(xi; a) che fornisce i valori veri di y per ogni x. I dati usati sono le {xi} , assunte senza errori, ed i corrispondenti valori {yi} misurati con errore σi. Si costruisce, per tutti i punti, la somma del quadrato delle differenze fra i valori misurati e quelli attesi f(xi; a) opportunamente scalate di σi.

Questa somma

2

χ

n

= ∑

[

y

i

f

(

x

i

;

a

)]

2

2

e’ detta

χ

2

. Essa e’ la somma del quadrato di n variabili

1 σ

i

normali standardizzate. Si vuole il valore di a che rende minima questa somma . Se sono note le derivate di f rispetto ad a il problema e’ di trovare la soluzione:

d

χ

2

da

=

n

0;

1

1

df

(

x

i

;

a

)

σ

2

1

da

[

y

i

f

(

x

i

;

a

)]

=

0 .

Se le σi = σ sono tutte eguali la soluzione si ha risolvendo la :

2

d

χ

da

=

n

0;

1

df

x

( ;

i

a

)

da

[

y

i

f

(

x

i

;

a

)]

=

0 .

Se non si conoscono gli errori σ , la soluzione per a si ottiene dalla stessa relazione usata per le σi =

σ =cost.

 

^

Il valore stimato di a , indicato con

a

, sara’ prossimo al valore vero ma non coincidera’ con esso.

 

^

^

La stima

a

e’ funzione delle yi :

a = a

(

y

i

)

. Usando la propagazione degli errori, assumendo le yi

indipendenti, si ottiene la varianza del valore stimato:

σ

2

^

a

=

n

1

(

a

y

i

)

2

σ

2

i

.

Se la f contiene N parametri { a1, a2, …, an}, essi si otterranno dalla soluzione di un sistema di N equazioni in N incognite :

dχ

da

2 df

=

n

0;

1

( x

i

;

a

i

)

i da

i

[

y

i

f

(

x

i

;

a

i

)]

=

0 ; i = 1 , …, N

Il caso della retta , della interpolazione lineare, e’ il piu’ comune: y = f(xi; a,b)= a + b x. Supposte valide le condizioni descritte sopra e σi = σ = cost, la probabilita’ di ottenere un valore yi per un dato xi e’ data da:

P

( y

i ;

,

a b

) =

dy i σ 2 π
dy
i
σ
2
π

n

1

[ y

i

f

(

x

i

;

a

)]

2

2 σ

2

e .

La probabilita’ di ottenere l’insieme completo di misure {yi} e’ il prodotto

P =

n P

1

(

y

i ;

a b

,

)

=

(

n dy i ) 1 σ 2 π
n dy
i
)
1
σ
2
π

(

)]

bx

[

y

i

a

+

1 2 σ

2

n

2

e =

dy i ( ) σ 2 π
dy
i
(
)
σ
2
π

n

e

(

)]

bx

[

y

i

a

+

2

1 σ

2

n

2

.

La funzione di verosimiglianza e’ espressa come:

n ∑ [ 2 n 2 y − ( a + bx )] [ y
n
∑ [
2
n
2
y
(
a
+
bx
)]
[
y
(
a
+
bx
)]
i
i
1
2
1
2
n
2
σ
2
σ
1
n
1
L
=
(
)
e
=
(
)
e
1
σ
2
π
σ
2
π
Il logaritmo di L vale:
n
2
1
n
[
y
f
(
x
;
a
)]
n P y
1
n
i
i
l
=
ln
L
=
ln
(
;
a b
,
)
=
ln[(
)
− ∑
i
2
σ
2
π
2
σ
1
1

]

=

n

ln(

σ

1 n 2 π ) − ∑ 2 1
1
n
2
π
)
2
1

[

y

i

(

a

+

bx

i

)]

2

σ

2

Il Metodo di Massima Verosimiglianza consiste nel fare l’assunto, che la migliore stima di a e b , basata sulle n misure {yi} ottenute, e’ fornita dai valori degli stessi per cui L o l sono massime, e questo equivale a minimizzare :

χ

2

2

n

= ∑

[

y

i

(

a + bx

i

)]

2

1 σ

.

(Il metodo e’ stato trattato in dettaglio nel corso di Lab. 1) Esempio:

Vediamo come esempio il caso semplice in cui y e’ propozionale ad x : y = mx. Questo e’ un semplice esempio di fit con m come unico parametro incognito. La quantita’ da minimizzare in funzione di m, e’

χ

2

n

= ∑

i

=

1

[

y

i

mx

i

]

2

σ

2

i

Differenziando rispetto ad m si ottiene

χ

2

m

=

n

∑− 2 x

i

=

1

i

[

y

i

mx

i

]

σ

2

i

Se si assume che tutte le yi abbiano lo stesso errore σ

χ

2

= −

2

m σ

2

n

i =

2

2

x

i

[

y

i

mx

i

]

= −

1 σ

n

(

i =

1

x y

i

i

mx

2 )

i

Per la stima di m questa quantita’ e’ zero:

2 (

σ

2

i

n

=

1

x y

i

i

mx

2 )

i

=

La stima di m diventa:

0;

n

(

i = 1

x y

i

i

mx

^

m =

n

x y

i

i

= 1

i

n

=

1

1

x

2

i

.

2

i

n

);

i = 1

x y

i

i

= m

n

x

1

= 1

2

i

La precisione di questa stima , applicando la propagazione degli errori, risulta

σ

2

^

m

=

n

1

(

^

m

y

)

2

σ

2

n

(

x i

n

)

=

σ

2 σ

n

;

σ ^

x

2 m

i

=

2

σ

2

=

n 2 ∑ x i 1 = 1
n
2
x
i
1
=
1

i 1

1

=

1

x

i

2

1

=

1

Proprieta’ degli stimatori . Eseguita la misura di due grandezze fisiche (x,y) e riportati i valori (xi,yi±σi) su di un grafico cartesiano, nasce il problema di stabilire quale sia la relazione funzionale, y = f(xi,a) piu’ adatta per interpolare i dati. Le yi si assumono indipendenti e gaussiane. Il metodo dei minimi quadrati ci permette di determinare una stima dei parametri ma non ci fornisce indicazioni sulla scelta della funzione. Nel caso di una retta, di una relazione lineare : y = a + bx, per valutare i parametri si rende minima la somma

χ

2

=

n

1

(

Δ y

i

)

2

σ

2

i

=

n

1

(

y

i

a

bx

i

)

2

σ

2

i

=

n

1

z

2

i

.

Questo vale sia nel caso che le σ i siano eguali, sia in quello in cui siano differenti per ciascuna delle yi.

Se le σ i non sono note si stimano con:

S

2

y

=

N

1

[

y

i

(

a

+

bx

)]

2

N

(

Δ

y

)

2

=

i

1

N 2

N 2

Valutati a e b, nel caso di σ i = σ y =costante, si ottengono le loro incertezze attraverso le relazioni :

σ

N

1

σ

2

y

x i

2

a n

=

N

1

x

2

i

(

N

1

x

i

)

2

, σ

2

b =

2

σ y

N

N

n

1

x

2

i

(

N

1

x

i

)

2

Finora la procedura e’ stata semplicemente una determinazione di parametri.

Per le stime, a e b, dei parametri valgono le seguenti

proprieta’ :

E[a + b x] = E[a] + x E[b] = A + B x.

I valori veri A e B sono stimati da a e b che si suppongono distribuiti normalmente, con varianze

σ

2

a

e

σ

2

b

, attorno ai valori veri A e B. La varianza

σ

2

y

si suppone nota.

a e b sono detti stimatori corretti di A e B.

σ

2

a

= E[(a – A) 2 ] = minima.

σ

2

b

= E[(b – B) 2 ] = minima. Gli stimatori a e b sono stimatori

efficienti e precisi di A e B.

)

χ

2

=

n

(

Δ y

i

2

n

(

y

i

a

bx

i

)

2

1

σ

2

i

=

1

σ

2

i

=

n

1

z

2

i

segue la distribuzione χ2 con DF = n -2 .

Nel caso di n misure dirette {yi ±

σ

2 } della grandezza Y,

y

il valore medio

2 } della grandezza Y, y • • • • il valore medio y = n

y =

n

n

1

y

i e’ la migliore stima del valore medio della popolazione da cui il

campione e’ ottenuto, che si assume come il valore vero della grandezza .

y

χ

2

=

n

(

Δ y

i

)

2

n

1

(

i

y

)

2

n

1

z

2

i

la variabile :

1

σ

2

y

=

σ

2

y

=

segue la distribuzione χ2 con

DF = n – 1 gradi di liberta’.

σ

2

=

y

E[(y i y ) 2 ] = minimo. La media e’ uno stimatore efficiente o preciso.

E[ y ] = μ Y. La media e’ uno stimatore corretto di Y.

Nel caso di n misure dirette {yi±

σ

2 } della grandezza ,

i

la media pesata

n

1

y i

2

σ

i

y

= n

1

1

σ

2

i

e’ la migliore stima della grandezza , e la variabile :

χ

2

=

n

1

(

Δ y

i

)

2

σ

2

i

=

n

1

(

y

i

y

)

2

σ

2

i

liberta’.

σ

2

=

y

E[(y i y ) 2 ] = minimo.

E[ y ] = μ Y.

=

n

1

z

2

i

segue la distribuzione χ2 con DF = n – 1 gradi di

Se la distribuzione dell’errore non e’ nota la soluzione dei minimi quadrati gode ancora delle proprieta’ :

Le soluzioni sono senza bias , sono corrette;

Fra tutte le soluzioni, che sono stime senza bias della grandezza e combinazioni lineari delle misure yi, le soluzioni dei minimi quadrati hanno varianza minima;

=

n

(

Δ

y

i

)

2

n

(

y

i

a

bx

i

)

2

χ

2

=

M

1

σ

2

i

=

1

σ

2

i

, E[M] = n – 2.

TEST del χ2 : raccomandazioni per l’interpretazione e l’uso. Prendendo come esempio il caso di andamento lineare, possiamo vedere quanto bene la curva si adatta ai dati. Il test del χ2 permette di decidere se una relazione funzionale approssima “statisticamente” i punti sperimentali, oppure scegliere tra piu’ relazioni funzionali quella che li approssima meglio. Come primo passo sempre fare e rappresentare il GRAFICO di confronto dei punti misurati con la curva.

Note le σi, se le yi sono normali, allora

χ

2

=

n

1

(

Δ y

i

)

2

σ

2

i

=

n

1

(

y

i

y

)

2

σ

2

i

=

n

1

z

2

i

e’ una variabile χ2

con DF = n – 2 gradi di liberta’.

Valutato il χ 2 M , in funzione dei parametri a e b che lo minimizzano, si esegue il test del χ2.

Se χ 2 Μ >> n -2 occorre controllare bene l’assunto sul quale si basa il calcolo.

Nel caso χ 2 Μ DF =n −2 ,P[ χ 2 DF > χ 2 Μ ] > α: la funzione e' corretta al livello di significativita’ di α.

Se χ 2 Μ eccede il valore critico del χ2, che corrisponde al livello di significativita’ α e DF = n -2 ,si rigetta il risultato al livello di significativita’ di α.

Se

P[ χ 2 DF > χ 2 Μ ] < α :

Rigetto.

Il rigetto puo’ essere causato da piu’ ragioni:

-da un errore di I specie; -la y = f ( xi,a) non e’ corretta e non e’ a applicabile,o perche’ totalmente sbagliata o qualche parametro di essa, che si e’ supposto noto, non e’ corretto.

Se χ 2 Μ << DF = n -2 : o gli errori sono sovrastimati, o i dati sono stati selezionati in modo speciale, o siamo stati fortunati a selezionare valori di y i molto prossimi a quelli attesi. Se il test fallisce , ( sempre fare come primo passo il GRAFICO), perche’ si trovano modelli

migliori, in quanto ci sono evidenti deviazioni sistematiche dai punti della linea retta, si puo’ assumere una forma non lineare. Si possono nuovamente interpolare i dati, confrontandoli col nuovo modello di regressione

ESEMPI

polynomial degree

1 1
1
1

1.85563 x - 1.44361

2 1 0 -1 -2 0.0 0.2 0.4 0.6 0.8 1.0
2
1
0
-1
-2
0.0
0.2
0.4
0.6
0.8
1.0

Gli ultimi tre punti non sembrano piu’ appartenere alla retta.

polynomial degree 1
polynomial degree
1

2.73046 x - 0.894224

2 1 0 -1 -2 0.0 0.2 0.4 0.6 0.8 1.0
2
1
0
-1
-2
0.0
0.2
0.4
0.6
0.8
1.0

Il punto centrale devia di piu’ di 3 σ dalla retta.

x? ?

x2

2

?2?1012

2

0.00.20.40.60

 
     
 
     
 
   
     
 
   

polynomial degree

1
1

1

  2.33807 x - 1.64244  
 

2.33807 x - 1.64244

 

2

1 0 -1 -2
1
0
-1
-2
 

0.0

0.2

0.4

0.6

0.8

1.0

I punti sembrano essere bene interpolati da una parabola

 

mentre la retta non li interpola (successione di scarti tutti positivi poi tutti negativi, poi nuovamente positivi)

 
   
   
 
   
 

polynomial degree

 

2

polynomial degree

   
  polynomial degree   2 polynomial degree     2

2

 
2
2
 
2
2
 
   

1.77587

x 2 + 0.458199 x - 1.5923

     

2.7596 x 2 - 0.279871 x - 1.5157

 
2 1 0 -1 -2
2
1
0
-1
-2
2 1 0 -1 -2
2
1
0
-1
-2

0.0

0.2

0.4

0.6

0.8

1.0

0.0

0.2

0.4

0.6

0.8

1.0

Gli ultimi tre punti non sembrano piu’ appartenere alla parabola. Ecco come cambia il fit escludendoli.

polynomial degree 2
polynomial degree
2

12.9256 x 2 - 14.4205 x + 2.40084

2 1 0 -1 -2 0.0 0.2 0.4 0.6 0.8 1.0
2
1
0
-1
-2
0.0
0.2
0.4
0.6
0.8
1.0
polynomial degree 3
polynomial degree
3

-8.1193 x 3 + 25.7566 x 2 - 19.8212 x+ 2.86375

2 1 0 -1 -2 0.0 0.2 0.4 0.6 0.8 1.0
2
1
0
-1
-2
0.0
0.2
0.4
0.6
0.8
1.0

L’andamento parabolico non interpola sufficientemente bene i dati; quello cubico interpola bene .

polynomial degree 1
polynomial degree
1

3.37832 x - 1.42167

2 1 0
2
1
0

-1

-2

0.0

0.2

0.4

0.6

0.8

1.0

polynomial degree 2
polynomial degree
2

-0.27769 x 2 + 3.63093 x - 1.45567

2 1 0
2
1
0

-1

-2

0.0

0.2

0.4

0.6

0.8

1.0

Non ci sembrano motivi per rigettare l’interpolazione lineare e sceglierne una parabolica(figura di destra).

Se il test fallisce , ma non sembrano esistere modelli migliori, perche’ non si riscontrano deviazioni sistematiche dalla linea retta, si devono rivedere le assunzioni fatte sugli errori. Essi possono essere basati su stime troppo rozze o supposizioni non corrette, e possono essere sottostimati o sovrastimati.

Infatti, riferendoci per semplicita’ al caso di

i termini della matrice degli errori ed il χ2

σ

2 = cost., se la

y

σ

y

e’ sottostimata di un fattore F, tutti

N

σ

2

y

1

2 (

n

χ

=

Δ y

 

)

2

n

i

 

=

(

σ

2

1

y

1

sono influenzati.

 

Le varianze

σ

2

σ

2

a

,

b

σ

'

a

= σ

a

F

;

σ

'

b

=σ

b

y

i

a

bx )

i

2

x

i

σ

2

y

N

σ

2

a

σ

2

σ

2

y

,

=

N

n

1

x

2

i

(

N

1

x

i

)

2

,

b

=

N

n

1

x

2

i

(

N

1

x

i

)

2

sono aumentate di F 2 , mentre il valore del χ2 e’ diminuito di F 2 .

F

;

χ

'2

=

χ

2

F

2

,

La matrice degli errori e’ stata calcolata secondo l’errore sulle y. I valori dei parametri , pero’ non

vengono modificati poiche’ il punto di minimo del χ2 non dipende da σ

y . Al contrario il valore del

minimo del χ2 ( che serve per il test) ed i valori della matrice degli errori sono molto influenzati dal

valore di σ

Solo il test del χ2 ( non il valore degli errori sui parametri) indica quando il modello assunto nella

regressione , in questo caso una dipendenza lineare, e’ giustificato. Se σ

sono

piccoli, ma il χ2 puo’ essere grande ed il test fallisce, anche se gli errori sui parametri sono piccoli.

E’ necessario ottenere una attendibile , anche se rozza stima di

χ2.

Se le σ

metodo da solo non permette di decidere quando il modello e’ giustificato. Rimane il riscontro qualitativo, derivante dall’analisi critica del grafico y = y(xi,a), per la ricerca di deviazioni sistematiche dei punti dalla linea ipotizzata . Se tali deviazioni sembrano esistere , allora occorre costruire altre forme non lineari e confrontarle con i dati.

y . Vedere esempio A.

y

e’ piccolo ,

σ e

a

σ

b

σ

y

per potere effettuare il test del

y non sono note ( misure fatte con lo stesso strumento, senza sistematici, errore ignoto) il

Per stabilire se per una serie di punti e’ giustificato l’uso di una interpolazione lineare, come gia’ visto in piu’ occasioni, si puo’ fare uso del coefficiente di correlazione lineare ρ.

Se le σ

y non sono note , il metodo MMQ si puo’ sempre applicare . Si stimano i parametri a e b

col solito metodo. Gli errori sulle yi si assumono tutti eguali e sono stimati da

S

2

y

=

n

1

(

Δ

y

i

)

2

n 2

.

Gli errori sui parametri si ottengono a partire da

S

 

N

 

S

2

 

y

x

i

S

2

=

1

a

 

n

N

 
 

N

 

2

(

 

)

2

x

i

x

i

 

1

1

S

2 S

2

y

N

b =

n

N

N

1

x

2

i

(

1

x

i

)

2

2

y

:

Il test del χ2 pero’ non si puo’ effettuare.

La variabile per il test vale:

n

χ 2 =

1

(

Δ y

i

)

2

σ

2

y

=

n

1

(

y

i

a

bx

i

)

2 S

n

2

y

2

=

(

2)

2

y

σ

y σ

Se si assumesse σ y = S y allora il valore del χ2 assume il valore atteso χ2 = n - 2 =DF, e non avrebbe piu’ alcun significato statistico.

La variabile per il test si puo’ scrivere , come appena visto,

χ

2

=

(

n

2)

S

2

y

σ

2

y

ed il

~

χ

2

come

~

χ

2

=

χ

2

S

2

y

=

n 2

σ

2

y

.

La varianza σ y della popolazione e’ una caratteristica della dispersione dei dati dalla distribuzione primaria : y = A + B x e non e’ indicativa della bonta’ del fit. La S y stimata, e’ invece caratteristica sia della dispersione dei dati sia dell’accuratezza del fit.

 

2

 

~

La definizione di

χ

=

S

2

y

σ

2

y

come rapporto della varianza stimata e la varianza della popolazione

2

rende il

Se la funzione fit fosse una buona approssimazione della funzione vera , allora la varianza stimata

~

χ

come una misura conveniente della bonta’ del fit.

S

2

y

dovrebbe accordarsi bene con la varianza

σ

2

y

ed il valore di

~

χ

2

dovrebbe assumere un valore

prossimo ad 1. Se la funzione fit non e’ adatta per descrivere i dati, la deviazione sara’ piu’ grande e portera’ a

2 2

~ ~

valori di

χ > 1 o

χ

>> 1.

 

2

 

~

Valori di

χ

< 1 non indicano, necessariamente, un miglioramento del fit, ma la conseguenza del

fatto che esiste una incertezza nella determinazione della variabile casuale

2

S y

, che fluttua, da

 

2

2

 

~

~

campione a campione, seguendo una distribuzione

χ

;di conseguenza il valore del

χ

, in prove

ripetute, fluttua da esperimento ad esperimento.

E’ bene stimare sempre

Se il test fallisce , e si decide di rivalutare gli errori attraverso la

dei parametri devono essere rivalutati.

S

2

y

e confrontarlo con

σ

2

y

(se nota).

2

S y

, anche gli errori sulle stime

ESEMPIO A

Consideriamo la regressione lineare che fa uso delle stesse misure ma in cui si fanno tre differenti

assunzioni circa il loro errori. Si esegue una regressione per una serie di dati , che sono riportati in tabella.

t

0.5

11.2

19.3

30.7

51.0

y

5.0

8.0

23.0

36.0

43.0

Si fanno tre differenti assunzioni circa le deviazioni standard delle misure y.

a) σy = 1;

b) σy = 8;

c) σy non nota.

I risultati sono riportati nelle figure e tabelle che seguono.

Per la regressione si assume la forma: y = a + b t. La matrice di covarianza si esprime come:

2

a

2

ab

σ

σ

2

ab

2

b

σ

σ

⎟ =

σ

2

y

Δ

⎜ ⎛

N

i

t

1

N

1

t

i

N

i

t

1

N

;

Δ =

N

N

1

t

2

1

(

N

i

t

1

)

2

,

ed il valore del χ2 come:

χ

2

n

=

1

(

Δ y

i

)

2

σ

2

y

=

n

1

(

y

i

a

bt

i

)

2

σ

2

y

=

(

n

2)

S

2

y

σ

2

y

Il valore interpolato,Y, per un certo valore di t = T vale: Y = a + b T.

La varianza di Y vale:

Sebbene i parametri a e b non siano influenzati dalle assunzioni , vi e’ una significativa influenza sulla matrice di covarianza, sul minimo del χ2 e sui limiti di confidenza.

σy = 1.

σ

2

Y

=σ

2

a

+T σ

b

2

2

+

2

Tσ

2

ab

.

a = 4.35 ± b= 0.827±

0.538 0.00067
0.538
0.00067

J 0.538383 0.0150125 0.0150125 0.00066604

N

χ2= 90.42

I limiti di confidenza sono molto piccoli; gli errori sui parametri sono molto piccoli ,tuttavia il valore del χ2 e’ grande cosicche’ il test fallisce ( DF =3; α = 0.01;χ 2 c = 11.340)

• σy = 8.

a = 4.35 ± b= 0.827±

34.45 0.0427
34.45
0.0427

J

0.960802

0.960802 0.0426265

34.4565

N

χ2=1.41

I limiti di confidenza , gli errori sui parametri sono grandi ma il valore del χ2 e’ piccolo il fit sembra ragionevole.

• σy = incognita a = 4.35 ± B = 0.827±

16.28 0.0201
16.28
0.0201

J

16.2861

0.454129 0.0201477

0.454129

N

Sy e’ incognito ed e’ stimato da

2 1

s

y

=

N

1

N

1

(

y

i

a

bt

i

)

2

; Sy = 5.5

I limiti di confidenza sono ragionevoli confrontati con le variazioni dei dati. Il test del χ2 non puo’ essere valutato.

Nelle figure sono riportati, per le tre situazioni, i grafici che confrontano i dati con la retta che meglio li interpola, i valori dei parametri stimati e la matrice di covarianza, i limiti di accettazione e rigetto , fissato α = 5% e 1%, per il test χ2.

σ y = 1 40 30 20 10
σ y = 1
40
30
20
10
10 20 30 40 50 σ y =8 50 40 30 20 10 10 20
10
20
30
40
50
σ y =8
50
40
30
20
10
10
20
30
40
50

J

4.35293

0.827288 NJ 0.0150125 0.00066604

0.538383 0.0150125

J

4.35293

0.827288 NJ

34.4565

0.960802 0.0426265

0.960802

N

N

σ y = incognito ; S y = 5.4

40 30 20 10 J 4.35293 16.2861 0.827288 10 20 30 40 50 c 2
40
30
20
10
J 4.35293
16.2861
0.827288
10
20
30
40
50
c 2 0.95 H3L = 0.352 and c 2 0.05 H3L = 7.815
0.3
c 2 0.99 H3L = 0.115 and c 2 0.01 H3L = 11.345
0.3
0.2
0.2
0.1
0.1
2
4
6
8
2
4
6
8
-0.1
-0.1

0.454129

NJ 0.454129 0.0201477

Ricerca della migliore forma funzionale.

N

Si supponga di avere 7 coppie di misure , i valori dei quali sono riportati in tabella.

y

x

i

i

± 0.5 5.0

2

4.5

3

6.0

4

7.5

5

7.5

6

8.5

7

8.5

8

Gli errori sulle Xi si ritengono trascurabili.

Si vuole determinare la migliore forma funzionale che lega le due grandezze. Si prendono in esame due funzioni:

A) y = a + bx

B) y = k ln (x)

Col metodo dei minimi quadrati si determinano i valori dei parametri.

Nel caso della funzione A) si ottengono:

Nel caso della funzione B) si ottiene:

In figura e’ riportato il confronto tra i dati sperimentali e le due curve “best fit”.

;

a = 3.25 ± 0.51 , b = 0.714 ± 0.095 k = 4.364 ± 0.023.

Il test del χ2 si puo’ utilizzare per decidere quale delle due funzioni si adatta meglio ai punti sperimentali. Per la curva A) il valore di ottenuto vale :χ 2 M = 6.6 , i gradi di liberta’ risultano :DF = 7 -2 = 5.

2

Il

DF ottenuto vale P[ χ 2 DF > χ 2 M ] = 0.25. Per la curva B) ) il valore di ottenuto vale :χ 2 M = 19 , i gradi di liberta’ risultano :DF = 7 -1 = 6.

valore di

χ

2

ridotto

χ

M

=

= 1.3 . La probabilita’ di ottenere un valore pari o maggiore di quello

<