Sei sulla pagina 1di 13

COME RAPPRESENTARE ED USARE LE INCERTEZZE

Il modo corretto di fornire i risultati di qualunque misura è quello di dare la


miglior stima della quantità in questione e l’intervallo all’interno del quale si ha
fiducia che essa si trovi, ad esempio come stima migliore  incertezza:

(Valore misurato di x) = xbest  x

Dato che la quantità x è una stima di un’incertezza, essa non dovrebbe


ovviamente essere stabilita con troppa precisione. E’ impensabile che l’errore
nella misura possa essere conosciuto con molte cifre significative. Nel lavoro di
precisione, le incertezze sono talvolta date con due cifre significative, ma per i
nostri scopi possiamo stabilire la seguente regola: le incertezze sperimentali
dovrebbero normalmente essere arrotondate ad una cifra significativa.

Esempio, per una misura dell’accelerazione di gravità: g  g = 9.82  0.02 ms-2

Una possibile eccezione significativa alla regola precedente si ha quando la


prima cifra nell’incertezza x è un 1, nel qual caso può essere meglio tenere due
cifre significative in x. Ad esempio, se in un qualche calcolo l’incertezza fosse
x = 0.14, arrotondare a 0.1 comporterebbe una proporzionale considerevole
riduzione; in questo caso può essere opportuno valutare x = 0.14.
Una volta che l’incertezza della misura sia stata valutata, si deve anche
considerare quali sono le cifre significative nel valore misurato. Una espressione
come:
Velocità misurata = 6051.78  30 m s-1

è ovviamente ridicola. L’incertezza di 30 significa che la cifra 5 potrebbe


realmente essere al minimo 2 o al massimo 8. Chiaramente le cifre seguenti 1, 7 e
8 non hanno significato e dovrebbero essere arrotondate. L’espressione corretta
della relazione precedente è:

Velocità misurata = 6050  30 m s-1

Analogamente, il risultato 92.81 con una incertezza di 0.3 dovrebbe essere


arrotondato come:
92.8  0.3
Se invece la sua incertezza fosse 3, allora:
93  3
Se la sua incertezza fosse 30, allora:
90  30
La regola per valutare i risultati è quindi: l’ultima cifra significativa in
qualunque risultato dovrebbe di solito essere dello stesso ordine di grandezza
(nella stessa posizione decimale) dell’incertezza.
ERRORI STATISTICI E SISTEMATICI

L'errore statistico (o casuale o indeterminato o accidentale) è un errore di


misurazione che può incidere con la stessa probabilità in aumento o in
diminuzione sul valore misurato. Influenza generalmente la precisione del
risultato.

Dalla definizione segue che una serie ripetuta di misurazioni comporta la


progressiva riduzione dell'errore casuale, poiché i singoli scostamenti si
annullano reciprocamente.

Questo genere di errore è prodotto da fenomeni aleatori derivati da errori di


lettura degli strumenti o fluttuazioni indotte da fenomeni esterni, come
disturbi, variazioni di temperatura ecc. Più uno strumento è preciso e meno
questi fenomeni aleatori influenzano la misurazione (e dunque più piccoli sono
mediamente gli errori casuali associati).
In metrologia, l'errore sistematico (o determinato) è definito come lo
scostamento (differenza) tra il valore sperimentale della media di un set di
valori replicati e il valore reale della grandezza studiata ed è indice
dell'accuratezza dei dati.

È detto sistematico perché è costante al ripetersi della misura, e per questo


non può essere eliminato con la ripetizione della misurazione, come avviene per
l'errore statistico. Ciò rende particolarmente difficoltoso determinare
l'entità, ma anche la stessa presenza dell'errore, a meno di ricorrere a metodi
di rilevamento alternativi o valutazioni di coerenza di sistemi di dati.

Tipi di errori sistematici sono l'errore strumentale, l'errore di metodo e


l'errore personale che fa parte dell'errore operativo.
ACCURATEZZA E PRECISIONE

Nella teoria degli errori, l'accuratezza è il grado di corrispondenza del dato


teorico, desumibile da una serie di valori misurati (campione di dati), con il
dato reale o di riferimento, ovvero la differenza tra valor medio campionario e
valore vero o di riferimento.

Indica la vicinanza del valore trovato a quello reale. È un concetto qualitativo


che dipende sia dagli errori casuali che da quelli sistematici.

Nella teoria degli errori, la precisione è il grado di "convergenza" (o


"dispersione") di dati rilevati individualmente (campione) rispetto al valore
medio della serie cui appartengono ovvero, in altri termini, la loro varianza (o
deviazione standard) rispetto alla media campionaria.

La dispersione di valori può essere prodotta da variazioni casuali non ripetibili


(errore statistico).
TRATTAZIONE DELL’ERRORE NELLE DETERMINAZIONI SPERIMENTALI

Se consideriamo una serie di determinazioni successive

X1, X2, X3,………….., Xn

x i
Si definisce media x i e la deviazione media sarà espressa come
n
x1  x  x 2  x  x 3  x  .............  x n  x
n
Una efficiente misura della precisione è la varianza, definita come:


 ix  x 2

s2  i
n 1
da cui si definisce anche la deviazione standard (s )  s 2
Un altro parametro importante è il limite di confidenza che predice il limite
entro cui il valor medio dovrebbe cadere, se individuato da un gran numero di
misure. Quindi possiamo scrivere, per una serie di determinazioni, che il
parametro medio x avrà una imprecisione:

(s) x
x t
n
dove t, detto t di Student (o limite di confidenza), deve essere cercato al 95%
di confidenza per (n-1) determinazioni o gradi di libertà.

In presenza di due o più serie di misure è necessario verificare se i valori


ottenuti nelle differenti serie di misure presentano la stessa precisione
(stessa varianza), cioè se appartengono alla stessa popolazione.

Per verificare tale situazione, si applica il


test statistico (test F e test t)
supponiamo, per esempio, di avere due serie di misure (I e II):
a) Si calcola la varianza s2(x) per le varie serie

s 2I ( x )
b) Si applica il test F: si determina il rapporto
s 2II ( x )
in modo che esso sia sempre > 1; se il valore ottenuto è < del valore di F
tabulato per (nI – 1)I ed (nII – 1) II determinazioni, le due serie
appartengono alla stessa legge di distribuzione.
c) Possiamo ora applicare il test t per verificare se le due medie
appartengono alla stessa legge di distribuzione. Per far questo si calcola il
parametro b come:

x I  x II n I  n II
b 
1
n I  n II
 n I  1  s 2I ( x )  n II  1  s 2II ( x )  2

 
 n I  n II  2 
se il valore di b così ottenuto è < del valore di t tabulato per (nI + nII  2)
determinazioni (gradi di libertà), le due medie appartengono alla stessa legge di
distribuzione e tutte le nI + nII determinazioni possono essere trattate come
appartenenti alla stessa serie.
DETERMINAZIONE DELL’ERRORE SU UNA RETTA

Data una retta di equazione y = a + bx


se l’errore sulla determinazione della x (o della y) è trascurabile rispetto a quello
relativo alla y (o alla x) la deviazione standard della pendenza sarà:

 y i y i
* 2

s( y)  i
n2

dove y*i è il valore PREVISTO DALLA RETTA DEI MINIMI QUADRATI


per x = xi
t
e l’incertezza sulla pendenza, (y):  ( y)   s( y)

2
n
 n

  n  x i     xi  b  (y)
2
per cui avremo:
i 1  i1 
L’incertezza sull’intercetta, a, sarà (y0) ed espressa mediante la relazione:


 ix 2

( y 0 )  i
 s ( y)  t per cui a  (y0)

PROPAGAZIONE DELL’ERRORE

Assumiamo che la grandezza Y non possa essere misurata direttamente ma


calcolata essendo funzione di quantità misurabili X1, X2, X3,…….., Xn

Y  f x1 , x 2 , x 3 ,........x n ,

L’incertezza in Y è poi il risultato degli errori in X1, X2, X3, etc.


L’incertezza in X1 (X1) causa in Y un errore

 Y 
Y1   X1
 X1 

se si desidera ricavare la massima propagazione dell’errore (o errore


massimo assoluto a priori), Ym:
n
Ym  Y1  Y2  .....   YJ
J 1