Siano y e x due grandezze fisiche fra loro legate da una relazione lineare del tipo
y = Bx + A .
Supponiamo di aver effettuato N coppie di misure: (x1, y1), (x2, y2), (x3, y3), …., (xN, yN).
yi ≠ Bxi + A ,
per valori dell’indice i che vanno da 1 a N.
Ognuno degli scarti fornisce quindi l’informazione su quanto il valore misurato yi differisca dal
valore calcolato Bxi+A. Tutti insieme gli scarti danno l’idea di quanto la retta y = Bx + A sia
prossima ai dati sperimentali. Non possiamo però adoperare la semplice somma degli scarti
N
∑(y
i =1
i − Bxi − A)
come misuratore di questa vicinanza dei dati sperimentali alla retta, in quanto in essa i contributi
positivi potrebbero compensarsi con quelli negativi e dare al limite anche risultato nullo.
N
f ( A, B ) = ∑ (y
i =1
i − Bx i − A ) 2
Viceversa potremmo, nel caso in cui non siano noti i valori di B e d A, andare a cercare la migliore
retta che approssima i punti (xi, yi) ottenuti dalle misure.
Possiamo pensare che la migliore retta sia quella per la quale i coefficienti A e B rendano minimo il
valore della funzione f(A,B).
Il Metodo dei Minimi Quadrati consiste allora nel cercare i valori A = A* e B = B* per i quali la
funzione f(A,B) pocanzi definita assume il suo più piccolo valore, cioè:
N
f ( A*, B *) = ∑ ( y i − B * xi − A*) 2 = minimo
i =1
Dall’analisi conosciamo che una condizione necessaria – e in questo caso anche sufficiente – per
trovare i minimi di una funzione di più variabili è che si annullino le derivate parziali prime della
funzione f(A,B):
∂f
∂A = 0
∂f = 0
∂B
Queste due condizioni permettono di ricavare un sistema lineare nelle incognite A e B la cui
soluzione fornisce i valori A* e B* cercati. Derivando si ottiene:
∂ N N
∂ A ∑ ( y i − Bx i − A ) = ∑ [2 ⋅ ( y i − Bx i − A ) ⋅ ( − 1) ] = 0
2
i =1 i =1
∂
N N
( y i − Bx i − A ) = ∑ [2 ⋅ ( y i − Bx i − A ) ⋅ ( − x i ) ] = 0
∂ B ∑
2
i =1 i =1
N N N N N
∑ ∑ i
A + ( x ) ⋅ B = ∑ yi N ⋅ A + ∑ i ( x ) ⋅ B = ∑ yi
i =1 i=1 i=1 i =1 i=1
N N
( x ) ⋅ A + ( x ) 2 ⋅ B = x y ( x ) ⋅ A + ( x ) 2 ⋅ B = x y
N N N N
∑ i
∑ i
i=1
∑ i i
i=1 ∑ i
∑ i
i=1
∑ i i
i=1
i =1 i =1
∑y
N N
∑yi =1
i ∑x
i =1
i
N
i =1
i
N N N N
∑ (x y ) ∑ (x )
i i i
2
∑ xi
i =1
∑ (x y )
i =1
i i
A* = i =1 i =1
N
B* = N
N ∑ xi
i =1
N ∑x
i =1
i
N N N N
∑ x ∑(x )
i =1
i
i =1
i
2
∑ xi ∑ (x ) i
2
i =1 i =1
cioè:
N N N N
∑ y ⋅∑ ( x ) − ∑ ( x y ) ⋅∑ x
i i
2
i i i
A* = i =1 i =1 i =1 i =1
∆
N
N N
N ⋅ ∑ ( xi yi ) − ∑ xi ⋅ ∑ yi
B* = i =1 i =1 i =1
∆
2
N
N
avendo evidentemente posto ∆ = N ⋅ ∑ ( xi ) − ∑ xi .
2
i =1 i =1
Con argomenti di tipo statistico (che volutamente non vengono qui introdotti) si possono ricavare
gli errori statistici σA e σB delle grandezze A e B, definiti dalle relazioni seguenti:
∑ (x ) i
2
N
σA =σy ⋅ i =1
e σB =σy ⋅ ,
∆ ∆
1 N
dove la quantità σy è definita come: σy = ∑ ( yi − Bxi − A)2 .
N − 2 i=1