Sei sulla pagina 1di 12

Dispensa 02 - Incertezza della misura

Spesso si dice che la fisica è una “scienza esatta”, ma sarebbe invece più corretto parlare di scienza esatta “ad un
certo grado” (come del resto per ogni scienza naturale). Per es. il valore oggi accettato della velocità della luce nel
vuoto è

c = (299.792.457, 4 ± 1, 2) m/s (1)

Il numero 299.792.457, 4 m/s rappresenta la migliore stima della velocità, mentre 1, 2 m/s è una indicazione della
validità di questo risultato, il cui significato sarà precisato nel seguito.

A. Definizioni

• Errore. Questo termine si usa per indicare due cose diverse e precisamente:
1) Per denotare la differenza tra un valore misurato X ed il valore vero X ∗ di una certa grandezza: ϵ = X − X ∗ .
Ad eccezione di qualche caso (come la determinazione sperimentale del rapporto della circonferenza al diametro
di un cerchio) il valore vero X ∗ non è noto e quindi il valore da assegnare all’errore è ipotetico. Quindi l’errore
cosı̀ inteso non ha importanza pratica ma è un concetto utile nella discussione dei risultati sperimentali.
2) Quando viene dato un numero il termine errore viene riferito alla incertezza stimata in un esperimento e viene
espressa in termini di quantità come scarto, deviazione standard, deviazione media, errore probabile, indice di
precisione ecc.

• Scarto o deviazione o incertezza. E’ la differenza tra due valori misurati di una stessa quantità (ad es. tra
i valori ottenuti da due studenti alle esercitazioni o tra un valore e il valore assunto come più probabile o tra
il valore ottenuto da uno di essi e quello dato dal testo). A questo proposito è da osservare che spesso si ha la
falsa impressione che i valori trovati sui testi, siano dei valori “veri”, mentre invece sono ovviamente anch’essi
valori affetti da incertezze.
Chiameremo: incertezza assoluta la quantità X − X ∗ che quindi coincide con l’errore.
incertezza relativa la quantità (X − X ∗ )/X che quindi risulta essere adimensionale.
incertezza percentuale la quantità 100 · (X − X ∗ )/X che risulta essere ancora una grandezza adimensionale.
• Errori casuali (o sperimentali o accidentali). Se si ripete più volte una stessa misura si ottengono in generale
valori diversi. Le cause di queste differenze tra i singoli valori devono essere le stesse che li fanno differire dal
valore “vero”. Gli errori dipendenti da queste cause sono detti “sperimentali” o “accidentali” e saranno discussi
nel prossimo paragrafo.
• Errori sistematici o costanti. Se d’altra parte tutti i valori individuali sono in errore per la stessa quantità
(dovuta alle stesse cause, per es. la staratura di uno strumento) gli errori sono detti sistematici o costanti. In
molti esperimenti sono presenti sia gli errori sistematici che quelli accidentali.
Gli errori accidentali possono ritenersi determinati poichè si possono valutare con la teoria degli errori; in qualche
caso gli errori accidentali e sistematici possono essere valutati attraverso esperimenti sussidiari; quelli sistematici
possono essere valutati in altri casi con la calibrazione di strumenti ecc.
• La precisione di una misurazione, anche detta riproducibilità o ripetibilità, esprime quanto le misurazioni
successive danno risultati uguali o simili. Se in un esperimento gli errori sperimentali sono piccoli si dirà di aver
ottenuto un’alta precisione. Ciò sarà precisato introducendo un indice di precisione.
• L’accuratezza di una misurazione è il grado di conformità di una grandezza misurata al suo valore vero. Se
in un esperimento si sono avuti errori sistematici piccoli si dirà di aver ottenuto un’alta accuratezza. Spesso
questa può essere migliorata calibrando gli strumenti.

Da quanto riportato nell’esempio risulta che gli errori sistematici possono essere a loro volta classificati schemati-
camente come:
1. errori di taratura degli strumenti;
2

2. errori personali (come l’errore di parallasse dovuto alla cattiva abitudine dello sperimentatore di tenere la testa
un po’ spostata nei confronti della scala ecc.),

3. condizioni sperimentali differenti da quelle alle quali gli strumenti sono tarati (temperatura, pressione ecc.),

4. tecniche imperfette (illuminazione scarsa, strumenti poco affidabili ecc.).


Esempio: Supponiamo di voler misurazione la lunghezza di un tavolo con un metro da muratore. Ripetendo la
misura svariate volte si osserva che non tutti i valori sono identici. I motivi possono essere:

1. Perché alcune volte non si allinea correttamente il metro di legno al bordo del tavolo

2. Perché non si legge correttamente il valore (effetto di parallasse)

3. Perché il metro non è perfettamente disteso cosicchè può cambiare la propria lunghezza con l’allungamento

4. Perché la lunghezza del metro e del tavolo cambiano con la temperatura in maniera indipendente e incontrollata

5. Perché le divisioni del metro non sono sufficientemente accurate e a volte è necessario fare una stima ad hoc
della tacca più vicina al bordo del tavolo
E’ da osservare che gli errori sistematici, una volta individuati possono essere determinati e quindi eliminati. Per
contro, come è ovvio, è impossibile, tenere conto degli errori sistematici che non siano stati individuati. Appare cosı̀
l’importanza di uno dei metodi caratteristici della ricerca scientifica che consiste nell’eseguire sempre la misura di una
grandezza con almeno due metodi per quanto è possibile distinti. Se i due risultati cosı̀ ottenuti sono, a meno degli
errori casuali, coincidenti potremo ritenere di non avere errori sistematici di entità maggiore di quella degli errori
casuali. Le più importanti costanti fisiche sono state misurate per un gran numero di vie diverse ed è confortante
il fatto che i risultati ottenuti siano in ottimo accordo tra loro. Si osservi anche che per questa via sono state fatte
importanti scoperte; per es., i gas nobili nell’aria sono stati scoperti quando ci si è accorti che le misure delle densità
dell’azoto estratto dall’aria o prodotto per la via chimica risultavano sistematicamente diverse.

Gli errori sperimentali possono a loro volta essere dovuti:


1. a errori di stima nella lettura;

2. a condizioni ambientali fluttuanti (temperatura, tensione della rete elettrica, ecc.),

3. a disturbi meccanici e elettrici (vibrazioni, scariche, ecc.),

4. a non buona definizione della grandezza da misurare (la lunghezza di un regolo ad es. può essere non ben definita
perché le superfici che lo delimitano non sono ben levigate, ben parallele ecc.).
Tutti gli errori di cui si è parlato finora sono presenti più o meno in ogni misura e sta all’abile sperimentatore di
minimizzarli. Esistono poi degli errori illegittimi imputabili al solo osservatore. Sono questi gli “sbagli” (di lettura, di
progettazione ecc.) e gli errori di approssimazione (cifre significative insufficienti ecc.), veri e propri errori di calcolo,
l’uso di formule improprie, eccessive schematizzazioni, ecc.

Ad ogni modo l’incertezza di una grandezza misurata è data dalla somma dei valori assoluti delle
incertezze derivanti da errori sistematici e da quelli sperimentali.
3

I. VALUTAZIONE DELL’INCERTEZZA

I metodi per la valutazione dell’incertezza di una misura differiscono in base al numero di misure che disponiamo
di un campione.

A. Caso di una singola misura diretta

Nel caso di singola misura diretta l’incertezza dipende dalla sensibilità δ dello strumento, cioè la minima variazione
della grandezza che può essere rilevata. Per esempi: la sensibilità di un metro da muratore è generalmente 1 mm; la
sensibilità di un orologio da muro è in genere di 1 sec.

B. Caso di poche misure dirette n ≤ 20

Se si effettua più di una misure e lo strumento in dotazione è poco sensibile il risultato di tutte le misure sarà
pressochè lo stesso. In questo caso si opera esattamente come nel caso di singola misura diretta.
Diversamente, se la sensibilità dello strumento è abbastanza elevata i valori ottenuti in ogni singola misura fluttueranno
attorno ad un valore atteso che identificheremo con la media aritmetica x degli n valori misurati
n
1X
x= xi (2)
n i=1

Questa fluttuazione è dovuta a fattori che sono fuori dal nostro controllo e non possono essere eliminati è verrà stimata
identificandola con il semiscarto massimo
xmax − xmin
ξ= (3)
2

C. Caso di molte misure dirette

Se la misura è diretta il valore “più probabile” di una grandezza si assume generalmente (ma arbitrariamente) come
la media aritmetica dei singoli valori misurati. Siano x1 , x2 , . . . , xn gli n valori misurati e sia x il valore più probabile.
Per un dato valore misurato xi , lo scarto o deviazione corrispondente ξi è definito come:

ξi = xi − x (4)

Si verifica immediatamente che la media degli scarti è nulla, e cioè


n
1X
ξi = 0 (5)
n i=1

La media dei valori assoluti degli scarti è invece ̸= 0 e prende il nome di scarto medio
n
1X
ξ= |ξi | (6)
n i=1

Anche la media dei quadrati degli scarti (che sono tutti positivi) evidentemente non è nulla e prende il nome di
varianza:
n
2 1X 2
ξ = ξ (7)
n i=1 i

Dimostriamo che se si prende come valore più probabile proprio la media aritmetica x dei valori misurati, la varianza
è minima. Da questo risultato possiamo dedurre che “il valore più probabile” di una grandezza è quello per cui la
somma dei quadrati degli scarti, è minima. Calcoliamo infatti i quadrati degli scarti

ξi2 = x2i − 2 xi x + x2 (8)


4

e sommando gli n valori cosı̀ ottenuti si ha


n
X n
X n
X
X= ξi2 = x2i − 2 x xi + n x2 (9)
i=1 i=1 i=1

Per trovare il valore di x che rende minimo X, deriviamo X rispetto a x e poniamo la derivata uguale a zero:
n
dX X
= −2 xi + 2 n x = 0 (10)
dx i=1

Risolvendo rispetto a x si ricava appunto la (2).

Definiremo “scarto quadratico medio o deviazione standard” legato al valor minimo della somma dei quadrati degli
scarti, e che è una delle quantità più usate per specificare quantitativamente gli errori, come la radice quadrata della
varianza
v
u n
u1 X
S=t (xi − x)2 (11)
n i=1

Spesso è dato come


v
u n
u 1 X
s=t (xi − x)2 (12)
n − 1 i=1

Questa espressione si ricava dall’analisi statistica dei dati. Secondo la teoria generale della statistica l’attendibilità
di un risultato dipende dal numero delle misure eseguite ed in generale aumenta con la radice quadrata di questo
numero. Tuttavia il numero degli scarti indipendenti è n − 1 e non n. Si può vedere infatti che se n è eguale a uno
il concetto di scarto singolo non ha significato. Se n = 2 possiamo calcolare due scarti, ma essi sono eguali, cosı̀
possiamo dedurre che dei n scarti calcolabili uno di questi non è statisticamente indipendente.
In pratica la distinzione tra queste due formule non è importante. Infatti quando n è piccolo non si possono fare
valide considerazioni statistiche e perciò nessuna delle due formule ha gran significato. Quando n è grande l’errore
percentuale che si commette sostituendo n al n − 1 è piccolo. E’ da preferirsi la (12) perché oltre a essere conforme
alla teoria della statistica dà un valore un pò più grande allo scarto standard ed è perciò più conservativa.
E’ evidente che i calcoli dello scarto medio ξ sono più semplici di quelli dello scarto standard s; d’altra parte
quest’ultimo è più significativo dal punto di vista di una teoria più generale.

D. Elementi di statistica. Legge di Gauss.

Chiameremo popolazione l’insieme concettuale o ipotetico di tutti i possibili valori della grandezza fisica che in
linea di principio si potrebbero ottenere. Esso è caratterizzato da un certo valotre medio µ e una deviazione standard
σ.
Diversamente chiameremo campione il risultato di un insieme finito di misure della grandezza fisica in esame. Questo
è caratterizzato da un valore medio x e una deviazione standard s.
Chiaramente ogni campione costituisce un sottoinsieme più o meno ampio della popolazione. Tuttavia, anche se il
campione è un sottoinsieme finito della popolazione infinita, se è abbastanza ampio si possono usare i parametri che
descrivono il campione per stimare i parametri che, presumibilmente, governerebbero la popolazione. Parleremo in
tal caso di campione rappresentativo.

La popolazione è rappresentata da una funzione f (x) che prende ora il nome di funzione di distribuzione della
popolazione. Nel caso in questione, la popolazione che stiamo studiando è quella degli scarti (o dell’incertezza) delle
misure e pertanto chiameremo la f (x) funzione di distribuzione degli scarti o più impropriamente funzione di
distribuzione degli errori.

Il suo significato statistico è il seguente: la quantità f (x) dx rappresenta la probabilità che preso a caso un elemento
X del campione questo sia compreso in x < X < x + dx. Più interessante è il seguente enunciato:
5

Se f (x) è la funzione di distribuzione dei valori x all’interno di un dato campione statistico allora la probabilità di
pescare a caso un elemento del campione tale che a < x < b è data da
Zb
P r(a < x < b) = f (x) dx (13)
a

In generale, la funzione densità di probabilità f (x), che dipende dal campione in esame è sconosciuta e può solo
essere approssimata sperimentalmente aumentando sempre più il numero di misurazioni. Tuttavia, il Teorema del
limite centrale afferma che:

La somma di un gran numero di variabili casuali indipendenti e ugualmente distribuite è una grandezza
la cui distribuzione è approssimativamente normale (cioè segue una distribuzione Gaussiana) se le vari-
abili casuali hanno una varianza finita.

Cosı̀, quando c’è ragione di sospettare che la dispersione dei dati sia dovuta ad un gran numero di piccoli effetti
che agiscono in modo additivo ed indipendente, è ragionevole assumere che i valori osservati siano distribuiti secondo
una funzione di densità di probabilità Gaussiana. Difatti, questa è esattamente la situazione in cui ci si trova quando
vengono fatte molte misure dirette indipendenti.

Supponiamo di misurare n volte una data grandezza fisica x i cui valori variano in modo continuo all’interno di un
dato intervallo x ∈ (xmin , xmax ) (in alcuni casi l’intervallo può essere infinito).
Possiamo dividere questo intervallo in N sotto-intervalli (classi) di uguale ampiezza
xmax − xmin
∆x = (14)
N
Si noti che il numero di classi di equivalenza N deve essere minore del numero di valori disponibili n cosı̀ come
l’ampiezza delle classi non può essere più piccola della sensibilità dello strumento!!

In questo modo l’intervallo (xmin , xmax ) sarà scomposto nell’unione delle N classi
(xmin , xmax ) = (xmin , xmin + ∆x) ∪ (xmin + ∆x, xmin + 2 ∆x) ∪ . . . ∪ (xmin + (N − 1) ∆x, xmin + N ∆x ≡ xmax )
(15)
Sia nk il numero di valori misurati nella classe k-esima (xmin + (k − 1) ∆x, xmin + k ∆x), indichiamo con fk la
corrispondente frequenza relativa
N N
nk X X nk
fk = fk = =1 (normalizzazione) (16)
n n
k=1 k=1

Possiamo costruire un istogramma riportando la frequenza relativa di ogni classe in un diagramma a colonne. Ogni
colonna è un rettangolo di larghezza ∆x e altezza fk

Se si facessero altre n misure, in generale non si otterrebbe un istogramma esattamente uguale a questo. Questa
distribuzione è soggetta a “fluttuazioni statistiche” per le ragioni già dette. Tuttavia se si ripete il procedimento
molte più volte, aumentando il numero di misure n, si trova che le fluttuazioni relative sono via via minori. Allo stesso
modo, se si migliora la tecnica di misurazione per ottenere più cifre significative si può usare intervalli ∆x più piccoli,
aumentando N .

Se n è molto grande, gli intervalli sono altamente popolati anche se N è alto, cioè ∆x è molto piccolo. Se ∆x è piccolo,
possiamo confondere il punto medio di ogni classe con il valore medio di xk all’interno di questa classe, cosicchè
N N
X X fk
x= fk xk = xk ∆x (17)
∆x
k=1 k=1

e chiamiamo f (xk ) = fk /∆x la densità di frequenza della variabile x la quale è normalizzata


N N N
X X fk X
f (xk ) ∆x = ∆x = fk = 1 (18)
∆x
k=1 k=1 k=1
6

E. Distribuzione delle misure (e degli scarti).

Si osserva che aumentando il numero delle misure possiamo rimpicciolendo gli intervalli ∆x cosicchè, nel limite
n → ∞, ∆x → dx diventando infinitamente piccolo mentre la densità di frequenza f (xk ) → f (x) tende ad identificarsi
con una funzione continua, ovvero l’istogramma tende ad una curva continua del tipo “a campana” disegnata in figura,
sovrapposta all’istogramma.
7

Sempre nello stesso limite di infinite misure la sommatoria che compare nelle (17) e (18) diventa un integrale e le
formule per la media e la normalizzazione diventano, rispettivamente
N
X Z ∞
x= f (xk ) xk ∆x → µ = f (x) x dx (19)
k=1 −∞
N
X Z ∞
f (xk ) ∆x → f (x) dx = 1 (20)
k=1 −∞

Si può dimostrare, in accordo con il teorema del limite centrale, che la funzione limite coincide con la funzione di
distribuzione di Gauss, ed è data da
(x − x)2
 
1
f (ξ) = √ exp − (21)
2πs 2 s2
la quale rappresenta (per un opportuno valore di s, diverso da caso a caso) con estrema fedeltà, la distribuzione degli
scarti ottenuti sperimentalmente per una vastissima classe di misurazioni fisiche ed è riportata in figura per diversi
valori di h = 1/s detto indice di precisione.
A volte, può essere più conveniente considerare la distribuzione in funzione degli scarti ξ piuttosto che delle x. Siccome
ξ = x − x, questo equivale semplicemente a spostare l’origine degli assi da x = 0 a x = µ lasciando la forma del grafico
inalterata
ξ2
 
1
f (x) = √ exp − 2 (22)
2πs 2s

La funzione di Gauss gode delle seguenti importanti proprietà analitiche:


• La curva è simmetrica rispetto al valore x = x o ξ = 0
• Tende a zero asintoticamente sia per x → −∞ che per x → ∞

• Il suo massimo è f (µ) = 1/ 2 π s
• Ha due punti di flesso simmetrici a x = µ ± s ovvero ξ = ±s
• La deviazione standard s è una misura della larghezza della curva.
• La curva è correttamente normalizzata a 1, cioè
Z∞
f (x) dx = 1 (23)
−∞
8

• La media è definita attraverso l’usuale equazione


Z∞
x f (x) dx = x (24)
−∞

Si osservi:
a) La frequenza degli scarti compresi tra i valori ξ e ξ+dξ si ottiene dalla (21) moltiplicata per l’ampiezza dell’intervallo
dξ e pertanto essa è data dalla

ξ2
 
1
f (ξ) dξ = √ exp − 2 dξ (25)
2πs 2s

b) Tanto più piccolo è s tanto più acuto è il massimo che la curva degli scarti ha in corrispondenza a ξ = 0 e tanto più
rapidamente, al crescere di |ξ|, la frequenza relativa degli scarti diviene trascurabile. Per s grande, invece, il massimo
è meno accentuato e la frequenza degli scarti diventa trascurabile per un valore alquanto più elevato di |ξ|.
c) Quest’ultima osservazione permette di dare un significato quantitativo al concetto di precisione di una misura. Noi
diciamo che una misura è tanto più precisa quanto più gli scarti sono piccoli o meglio quanto più la loro distribuzione
è addensata intorno al valore zero. Cioè la curva degli scarti sarà per una misura molto precisa simile a quella che in
figura corrisponde ad un valore piccolo di s, per una misura poco precisa simile a quella che corrisponde ad un valore
grande di s. Per questo al parametro h = 1/s si dà il nome di indice di precisione.
d) Per ricavare il valore di s da associare ad una serie di numerose misure si calcola la media di esse, si associa a
ciascuna misura il rispettivo scarto dalla media, si costruisce il diagramma degli scarti e si cercherà infine qual’è il
valore di s per cui la (21) dà la curva che rappresenta meglio l’andamento degli scarti medesimi.
e) La frequenza relativa degli scarti compresi in un intervallo ξ1 e ξ2 (si badi che questo è il solo valore determinabile
sperimentalmente) si ottiene integrando la (25) su questo intervallo ed è perciò rappresentata dall’area tratteggiata
in figura.

f) Si osservi ora che per la legge empirica del caso al crescere del numero delle prove vi è una probabilità sempre
più prossima ad uno, che la frequenza con la quale si verificano gli scarti differisca di poco quanto si vuole dalla
corrispondente probabilità a priori. Ciò porta a concludere che la (25) rappresenta, anche per un opportuno valore
di s, la funzione di probabilità degli scarti. Essa cioè permette, prima di eseguire una misura, di valutare qual è
la probabilità di ottenere un determinato scarto. Si può anche dimostrare che la (25) rappresenta la funzione di
distribuzione delle probabilità degli errori, dove s è il valore del modulo di precisione dedotto sperimentalmente dalla
conoscenza della distribuzione degli scarti. L’area racchiusa fra la curva e l’asse delle ascisse da −∞ a +∞ ha quindi
il valore 1 (probabilità 1 è uguale alla certezza).
In particolare, si dimostra che

• Circa il 68.26% dei valori cadrà nella regione centrale blu scuro, ossia a una distanza minore di s dalla media x

• Circa il 95.44% dei valori cadrà entro due deviazioni standard dalla media (regioni più chiare + regione centrale
blu)
9

• Circa il 99.72% cadrà entro tre deviazioni standard dalla media (l’intera area colorata)

Riassumendo: nel caso di molte misure indirette il valore della grandezza misurata sarà espresso in

X = (x ± s) [X] (26)

dover x è il valore medio delle n misure (2), s la deviazione standard (11) o (12) e [X] rappresenta l’unità di misura
della grandezza X.

Si noti che:
Aumentare il numero di misurazioni di una data grandezza permette 1) di rendere l’istogramma del campione sempre
più somigliante alla distribuzione della popolazione; 2) di migliorare la stima dei parametri della popolazione (µ e
σ) usando la media del campione x e la deviazione standard del campione s; 3) invece non permette di ridurre la
larghezza della distribuzione! Infatti, la deviazione standard del campione non diminuisce se n aumenta, ma tende a σ.

Tuttavia, come verrà mostrato tra poco, esiste un metodo per ridurre effettivamente la larghezza della distribuzione
degli errori.

F. Misure indirette - Propagazione dell’incertezza.

A volte, la grandezza che vogliamo misurare non può essere direttamente comparata con uno standard o una
grandezza omogenea. Per esempio, non possiamo direttamente misurare l’accelerazione di gravità o un’area. In questi
casi, il valore della grandezza si ottiene attraverso una misurazione indiretta, cioè misurando altre grandezze che sono
legate ad essa attraverso relazioni note.

Se la grandezza z è data dalla funzione

z = f (x1 , x2 , x3 , . . . , xn ) (27)

e cioè dipende dalle misure x1 , x2 , . . . , xn direttamente ricavate a mezzo di operazioni sperimentali relative ad una
o più grandezze distinte, ci chiediamo quale sarà l’incertezza con cui noi conosciamo il valore di z in corrispondenza
dell’incertezza con cui conosciamo i valori misurati delle grandezze x1 , x2 , . . . , xn .
Si può dimostrare che l’incertezza insita nelle x1 , x2 , . . . si ripercuote sulla funzione (27) con una legge che è, con
buona approssimazione, ancora una legge di Gauss del tipo (21) dove però l’errore quadratico medio sz è dato dalla
v
u n  2
uX
2 ∂f
sz = t si (28)
i=1
∂xi

Qui le si rappresentano gli errori quadratici medi relativi alla misura delle singole grandezze xi e ∂f /∂xi rappresenta
la derivata parziale della f rispetto alla grandezza i-esima calcolata nel punto in cui tutte le xi assumono il loro valore
vero o, con buona approssimazione, il valore medio. E’ questa la legge della propagazione delle incertezze.
La (28) darà, nei casi di più frequente applicazione:
q
z = ax + by ⇒ sz = a2 s2x + b2 s2y (29)
10
q
ovvero per la somma di due grandezze sz = s2x + s2y < sx + sy cioè minore dalla somma degli errori assoluti ed anche
s
a b sz a2 2 b2 2
z =x ·y ⇒ = s + s (30)
z x2 x y 2 y
r  2
sz sx 2 sy sx sy

ovvero per il prodotto di due grandezze z = x + y < x + y cioè minore della somma degli errori relativi.

G. Incertezza standard sulla media e sua interpretazione probabilistica.

Fino ad ora tutte le deviazioni di cui abbiamo parlato erano riferite a singole misure; cioè abbiamo sviluppato
un metodo per analizzare i k valori misurati di una grandezza x e determinare l’errore commesso su una singola
misura. Ora ci chiediamo: quale errore dobbiamo assegnare alla media x dei valori misurati? Per rispondere a questa
fondamentale domanda dimostriamo che in generale vale un risultato molto semplice: la varianza σ 2 sulla media di
una serie di N misure è semplicemente la varianza delle misure individuali diviso per il numero delle misure
s2 s
σ2 = ⇒ σ=√ . (31)
N N
E’ questa deviazione standard σ (cioè la radice della varianza) che universalmente si assume per
descrivere la precisione della media della serie di misure.
Si può dimostrare applicando a questo caso la legge di propagazione dell’errore. Osserviamo infatti che la media x è
una funzione dei valori x1 , x2 , . . . , xn ; e precisamente una funzione del tipo
1
µ = lim = (x1 + x2 + . . . + xn ) (32)
N →∞ N
Se s è lo scarto quadratico medio delle misure mediate, la (30) quando si indichi con σ l’errore standard sul valore
medio (cioè l’errore quadratico medio della media) ci dà appunto
s r
X s2 s2 s
σ= 2
= 2
N=√ (33)
i
N N N

e si può anche scrivere


s
X ξi2
σ= (34)
i
N (N − 1)

Ripetiamo: mentre s fornisce - come si è già detto - attraverso la Gaussiana la probabilità che una singola misura
scarti dalla media di una quantità compresa fra ξ e ξ + dξ, la σ invece indica quale è la probabilità che la media di
una certa serie di misure scarti di una data quantità dal valore medio della media di molte serie di misure, il quale
ultimo valore noi riteniamo assai prossimo al valore vero (ignoto) della grandezza.
In conclusione, in base a quanto ora detto si scriverà il risultato di una misura nella forma:

X = (µ ± σ) [X] , (35)

cioè indicando il valor medio e il suo scarto quadratico medio (che non può mai essere nullo!).

Ora ci si può chiedere: quale è la differenza tra il valor medio µ trovato e il valor vero x∗ della grandezza?
A questa domanda non si può rispondere perché x∗ è incognito; si può però valutare la probabilità che la differenza
tra µ e x∗ sia (in valore assoluto) inferiore ad un dato valore. Questa probabilità si calcola ricordando il significato
della curva di Gauss, esistono delle tabelle in cui sono riassunti i risultati di tale calcolo. Si può cosi vedere che il
valore vero x∗ ha una probabilità di essere compreso fra µ − σ ed µ + σ pari al 68.26%, una probabilità pari al 95.44%
di essere compreso fra µ − 2 σ ed µ + 2 σ e del 99,72% di essere compreso tra µ − 3 σ ed µ + 3 σ.
E’ consuetudine di considerare praticamente nulla la probabilità che il valore medio di una misura scarti dal valore
vero più di tre volte l’errore σ; cioè si ritiene per sicuro che il valore vero x∗ sia compreso fra

µ − 3 σ < x∗ < µ + 3 σ (36)


11

Analogamente si assume che le singole misure non debbono scartare dalla media più di tre volte l’errore quadratico
medio; in accordo con ciò, una volta eseguita una serie di misure e controllato che la maggioranza di esse si distribuisca
Gaussianamente intorno alla media, si eliminano tutte quelle misure che scartino dalla media più di tre volte l’errore
quadratico medio. Ciò va fatto anche quando non sembri possibile individuare la causa di questi scarti eccezionali;
per scartare delle misure bisogna seguire questa regola (o altre da essa deducibili).

H. Rappresentazione dell’incertezza nei grafici

Supponiamo di misurare il periodo T di un pendolo semplice per varie lunghezze della fune (di massa trascurabile).
Il periodo sarà affetto da incertezza (per esempio, a causa della sensibilità del cronometro), ma anche la lunghezza
della fune è conosciuta solo con una incertezza che è, per esempio, legata alla sensibilità del metro usato.
Quando facciamo il grafico dei valori del periodo come una funzione della lunghezza L, dovremmo indicare queste
incertezze mediante barre di errore verticali ed orizzontali.

II. CIFRE SIGNIFICATIVE

In generale, il numero di cifre significative di una misura è sempre legato alla sensibilità dello strumento con cui
viene effettuata la misura. Non si possono considerare significative delle cifre che comporterebbero una precisione
maggiore, rispetto a quella prevista dallo strumento.

Se il risultato di una serie di misure è nella forma X = (µ ± σ) [X] allora si approssima σ ad una cifra significativa e
µ avrà come cifra meno significativa la corrispondente cifra decimale di σ. Per esempio, supponiamo di aver stimata
la grandezza X = (27.5359 ± 0.0064) m. Si approssima l’incertezza in σ = 0.006 ed il valore medio in µ = 27.536.
Se invece vogliamo indicare il solo valore senza l’incertezza, la cifra meno significativa del valore medio sarà quella
immediatamente superiore alla cifra più significativa dell’incertezza, ovvero X = 27.54 m.
Pertanto, in quest’ultimo caso, le cifre significative di una misura sono le cifre certe (eccetto gli zeri iniziali) e la prima
cifra incerta. Per esempio: 0.0023 ha 2 cifre significative; 27.1 ha tre cifre significative; 25.10 ha 4 cifre significative,
sottintendendo che l’incertezza è ±0.0001 nel primo esempio; ±0.1 nel secondo e ±0.01 nel terzo.
12

Gli zeri finali in un numero intero sono ambigui. L’ambiguità si risolve usando la notazione scientifica. Per esempio
se si scrive il numero 1200 in notazione scientifica, la forma 1.2 · 102 differisce dalla forma 1.200 · 102 . Nel primo caso
il numero di cifre significative è due e l’incertezza è dell’ordine delle centinaia. Nel secondo caso il numero di cifre
significative è quattro e l’incertezza è dell’ordine dell’unità.

Nelle relazioni algebriche le cifre significative sono valutate come segue:

- Moltiplicazione e divisione di una misura per un numero. Il risultato deve avere le stesse cifre significative della
misura: 20 m/5 = 4.0 m; 5.87 s · 4 = 23.48 s ≈ 23.5 s.

- Moltiplicazione e divisione di misure. Il risultato deve avere lo stesso numero di cifre significative della misura meno
precisa: 5.870 m · 2.5 m = 14.675 m2 ≈ 15 m2 ; 48.2 km/3.7524 h = 12.8451125 km/h ≈ 12.8 km/h.

- Addizione e sottrazione di misure. Prima si arrotondano le misure, in modo che abbiano come ultima cifra (prima
cifra incerta) quella della misura con l’incertezza più grande: 31.9 m + 23 m + 4.7354 m ≈ 32 m + 23 m + 5 m = 60 m;
6.87 kg + 0.218 kg + 3.54 kg ≈ 6.87 kg + 0.22 kg + 3.54 kg = 10.63 kg; 207.2 m − 3.16 m ≈ 207.2 m − 3.2 m = 204.0 m.

Potrebbero piacerti anche