Sei sulla pagina 1di 5

Trattamento delle osservazioni topografiche

1. Teoria degli errori


1.1 Distribuzione empirica delle misure
Si supponga di ripetere la misura di una grandezza per un numero molto elevato di volte N ,
avendo a disposizione uno strumento la cui sensibilit maggiore dellaccuratezza delloperazione
di misura. Per esempio, con il cannocchiale di un teodolite si collima un punto in condizioni di
visibilit non ottimali. Allora, in generale, le diverse misure eseguite danno risultati leggermente
diversi. Se si misura una grandezza unidimensionale a valori reali X , empiricamente si verifica in
molti casi che i risultati delle misure si distribuiscono in modo approssimativamente simmetrico
attorno ad un valore, e che, se si suddivide lintervallo dei valori misurati in piccoli intervalli di
uguale ampiezza, il numero dei valori che cadono in ciascun intervallo decresce man mano che ci si
allontana dal valore centrale. Quindi, se si costruisce un istogramma (figura) in cui si rappresentano
in ascissa i valori misurati e in ordinata il numero ni di valori corrispondenti a ciascun intervallo
della suddivisione, si ottiene un tipico andamento a campana.
Inoltre, se lesecuzione delle N misure viene ripetuta, si constata che i risultati ottenuti, pur non
essendo identici, si distribuiscono in maniera simile.
A partire dai valori misurati

xi , possibile calcolare la media empirica,

x=

1
N

, che

coincide approssimativamente con il centro di simmetria della campana, e la varianza empirica


s X2 =

1
N

(x

x ) 2 (la cui radice quadrata s X lo scarto quadratico medio empirico), che d una

misura di quanto la distribuzione dei valori xi concentrata intorno alla media. Si verifica infatti
immediatamente che s X piccolo se i valori xi sono in prevalenza molto prossimi a x , e cresce
quando se ne allontanano. I valori i = xi x sono detti scarti dalla media.
1.2 Distribuzione gaussiana
I risultati empirici descritti nel paragrafo precedente possono essere utilizzati per costruire un
modello probabilistico di previsione. Si definisce una funzione f X , detta densit di probabilit, il
cui grafico riflette landamento a campana dellistogramma visto sopra, tale che il suo integrale su
un intervallo I fornisce la probabilit che la misura x della grandezza X cada in I :

f X ( x)dx = prob{X I } . Naturalmente

( x)dx = 1 , che esprime la certezza che la grandezza

X assuma un valore reale. Inoltre deve essere f X 0 .


La grandezza X corredata dalla densit di probabilit f X detta variabile aleatoria continua.
NOTA: con questo modello prob{X I } tende a 0 quando lampiezza di I tende a 0. Esso non
quindi adatto a descrivere una probabilit concentrata su singoli valori, e descrive solo probabilit
distribuite su intervalli.
Data la funzione f X , si definiscono le seguenti quantit:

X =

xf

( x)dx

(valore atteso)

(1.1)

X2 = ( x X ) 2 f X ( x)dx

(varianza)

(1.2)

X = X2 detto scarto quadratico medio (sqm).


Naturalmente queste definizioni sono accettabili se gli integrali esistono finiti.
E ragionevole aspettarsi che, in un esperimento come quello descritto in 1.1, la media empirica
assuma un valore prossimo a X . Infatti, se la retta reale R viene suddivisa in piccoli intervalli
tutti di uguale ampiezza x e si indicano con x j i punti medi di questi intervalli, allora

xf

( x)dx x j f X ( x j )x .

Se il grafico di

f X riflette landamento dellistogramma descritto in 1.1, la quantit

f X ( x j )x ,

che approssimativamente uguale alla probabilit che X cada nel j-esimo intervallo della
suddivisione, deve anche essere circa uguale a j = n j / N , ossia alla frazione di tutte le misure
eseguite con risultati nel j-esimo intervallo della suddivisione (detta frequenza).
nj
1
Quindi x j f X ( x j )x x j
xi , dove nellultimo termine la somma su tutti i
N N
risultati delle misure, e lultima uguaglianza approssimata giustificata dal fatto che il valore x j
approssima tutti i valori xi contenuti nel j-esimo intervallo della suddivisione.
In maniera analoga ci si rende conto che la varianza empirica assume verosimilmente un valore
prossimo a X2 .
NOTA: In generale, data una funzione

della variabile aleatoria X , si usa la notazione

E{ ( X )} = ( x) f X ( x)dx . Quindi X = E{X } , X2 = E {( X X ) 2 }.

Landamento a campana dellistogramma descritto in 1.1 ben rappresentato dalla densit di


probabilit normale o gaussiana (figura), la cui espressione
1 x 2
1
,
f X ( x) =
(1.3)
exp
2
2

dove e sono due parametri. Si vede immediatamente che il grafico di f X simmetrico


rispetto a mentre un parametro di scala, che definisce lampiezza della campana: il grafico
di f X tanto pi allargato quanto pi grande . Pi precisamente, si pu verificare che, con
questa scelta di f X , si ottiene X = , X = .
NOTA: Nel caso di distribuzione gaussiana degli errori, la probabilit che lo scarto rientri in un
intervallo di semiampiezza uguale a 3 volte lo scarto quadratico medio circa 0.9975, ossia molto
vicina alla certezza. Per questa ragione per rappresentare lincertezza di una misura viene spesso
usata la quantit 3 .

1.3 Correlazioni
Si supponga ora che 2 quantit X (1) , X ( 2 ) vengano misurate contemporaneamente e che questa
operazione di misura venga ripetuta N volte. Ogni misura d luogo a una coppia xi(1) , xi( 2) ; come
in 1.1 si possono determinare medie empiriche

(s

2
X (1)

,s

2
X ( 2)

).

(x

(1)

,x

( 2)

) , scarti (

Inoltre, si pu prendere in considerazione la quantit s (X1, 2 ) =

1
N

(1)
i

(1) ( 2 )
i
i

( 2)
i

e varianze empiriche

. Si constata allora che si

possono verificare le seguenti circostanze:

non esiste alcuna relazione particolare fra i segni di i(1) e di i( 2) , che quindi sono circa
altrettante volte concordi e discordi. Di conseguenza, i segni dei loro prodotti sono circa
altrettante volte positivi e negativi, e quindi ci sono molte cancellazioni nella somma in
s X(1, 2) , che in questo modo risulta in generale molto piccola;
i segni di i(1) e di i( 2) sono prevalentemente concordi o prevalentemente discordi. In
questo caso i segni dei loro prodotti sono prevalentemente positivi o prevalentemente
negativi, e quindi la somma in s X(1, 2) non piccola in valore assoluto.

Nel primo caso si dice che X (1) e X ( 2) non sono correlate, nel secondo che sono correlate
(positivamente o negativamente). La quantit
rX = s (X1, 2 ) / s X (1) s X ( 2 ) , detta coefficiente di
correlazione empirico, d una misura della presenza o meno di correlazione. Si pu provare che
1 < rX < 1 .
1.4 Variabile aleatoria 2-dim.
Per costruire il modello probabilistico di previsione relativo alla coppia di grandezze (X (1) , X ( 2) ) ,
si introduce una funzione di 2 variabili f X ( x (1) , x ( 2) ) tale che, per un dominio D R 2 ,

{(

( x (1) , x ( 2 ) )dx (1) dx ( 2) = prob x (1) , x ( 2 ) D .

Di conseguenza

(1)
( 2)
(1)
( 2)
dx dx f X ( x , x ) = 1 .

Introdotta la notazione

dx dx

(i )

C ij( X )

{ }
= E {( X

= E X ( i ) , i = 1,2
(i )

X (i )

(1)

( 2)

( x (1) , x ( 2 ) ) f X ( x (1) , x ( 2) ) E { (X (1) , X ( 2 ) )} , si definiscono

(valore atteso)

)( X ( j ) X ( j ) ) , i = 1,2 , j = 1,2 (matrice di covarianza)

(1.4)
(1.5)

NOTA: C ii( X ) = X2 (i ) ; inoltre, con ragionamenti simili a quelli visti in 1.2, ci si pu rendere conto
che il coefficiente di correlazione empirico rX introdotto in 1.3 assume verosimilmente un valore
(X )
(coefficiente di correlazione). Come per rX , si pu
prossimo alla quantit X = C12( X ) / C11( X ) C 22
provare che 1 < X < 1 .

NOTA: in notazione matriciale si pu scrivere C ( X ) = E ( X X )( X X ) T , dove X X


un vettore a 2 componenti.
NOTA: la definizione della matrice C ( X ) pu essere ovviamente estesa al caso in cui X ha un
numero arbitrario n di componenti. In questo caso la dimensione di C ( X ) n n .
NOTA: La matrice C ( X ) definita positiva, ossia per ogni vettore non nullo v R n si ha

} { v v

v T C ( X ) v = vi v j E ( X (i ) X ( i ) )( X ( j ) X ( j ) ) = E

=E

{( v ( X
i

(i )

X (i) )

) }> 0 .

( X ( i ) X ( i ) )( X ( j ) X ( j ) ) =

NOTA: se la densit di probabilit congiunta pu essere scritta come prodotto di densit di


probabilit unidimensionali: f X ( x (1) , x ( 2 ) ) = f X (1) ( x (1) ) f X ( 2 ) ( x ( 2 ) ) , le due variabili X (1) , X ( 2 ) sono
dette indipendenti. In questo caso si verifica che C12( X ) = 0 , ossia le due variabili sono anche
incorrelate, e la matrice di covarianza diagonale. Analoghi risultati si ottengono in R n .
Si noti che si pu dare il caso di variabili incorrelate, ma non indipendenti.
La forma generale di una densit di probabilit gaussiana congiunta
f X ( x) = (2 ) n / 2 (det C )

1 / 2

exp ( x ) T C 1 ( x )
2

(1.6)

dove x e sono vettori (di dimensione n) e C una matrice quadrata. Si verifica che, con
questa scelta di f X , = X , C = C ( X ) .
Se C diagonale,
1
1 ( xi i ) 2
1

.
exp ( xi i ) T C ii1 ( xi i ) =
exp
2C
C
2
2

ii


ii

Quindi, nel caso di densit di probabilit gaussiana, se le variabili sono incorrelate sono anche
indipendenti.
f X ( x) = (2 ) n / 2 (det C )

1 / 2

1.5 Propagazione degli errori


Si considerino ora 2 variabili aleatorie vettoriali (anche di dimensione diversa) X , W legate fra di
loro da un modello di dipendenza lineare: W = MX + p , dove M una matrice numerica, p un
vettore numerico. Si verifica facilmente che loperatore E lineare, e quindi si ottiene
immediatamente W = M X + p .
Per quanto riguarda la matrice di covarianza, si ottiene:

} {

CW = E (W W )(W W ) T = E (M ( X X ) )(M ( X X ) )

= ME ( X X )( X X ) T M T = MC X M T .

} = E{M ( X

)( X X ) T M T =

(1.7)

Poich gli elementi diagonali delle matrici di covarianza sono le varianze delle componenti, la
regola (1.7) (propagazione della covarianza), consente di ricavare informazioni sulla dispersione
delle componenti di W (e quindi sui loro errori probabili) a partire dalla conoscenza della

dispersione delle componenti di X. In pratica questa formula pu essere utilizzata quando le


componenti di X sono misurate direttamente, e quindi la loro dispersione dipende essenzialmente
dalla precisione delle misure legata alla qualit degli strumenti e alle condizioni operative; in questo
caso in generale la matrice C X diagonale, dato che le operazioni di misura sono organizzate in
modo tale che le misure delle diverse componenti non si influenzano reciprocamente, e quindi non
si hanno correlazioni.
NOTA: La regola di propagazione della covarianza per trasformazioni lineari indipendente dal
tipo di distribuzione di probabilit degli errori.
Se invece la dipendenza di W da X non lineare, non esiste una regola semplice per la
propagazione dellerrore, che in generale dipende dal tipo di densit di probabilit.
Se per si assume che lo scarto quadratico medio sia piccolo, si pu approssimare con una
linearizzazione:
W = ( X ) W ( X ) + ( X )( X X ) W + ( X )( X X ) , dove
la matrice i cui elementi sono i / x j . Posto allora M = , si pu fare la propagazione
della covarianza secondo la regola (1.7).
Lapprossimazione ( X ) W a sua volta giustificata dal fatto che, se la variabile X molto
concentrata, nel piccolo intervallo in cui f X significativamente diversa da 0 si pu dare
unapprossimazione lineare di , e allora W = E{W } = E{ ( X )} (E{X }) = ( X ) .
ESEMPIO: Siano x1 ,L , x N N misure di quantit omogenee (ad esempio, tutti dislivelli), fra di
loro incorrelate e tutte con la stessa varianza 2 . Quindi la loro matrice di covarianza C = 2 I .
x1

1

x2
2
2
Sia y = xi = (1 1 L 1) . Allora y = (1 L 1) M = 2 N . Se ad esempio le xi
M
1


x
N
sono ottenute in una sequenza di battute di livellazione, lo scarto quadratico medio del dislivello
totale, che la somma dei dislivelli delle singole battute, dato dallo sqm della singola battuta
moltiplicato per la radice quadrata del numero di battute.
1
2
Analogamente, posto x = xi , si ottiene x2 =
. Quindi, se ad esempio si eseguono pi
N
N
misure di una stessa grandezza, lo sqm della loro media dato dallo sqm di una singola misura
diviso per la radice quadrata del numero delle misure. Proprio per questa ragione, per ottenere un
valore pi preciso di una certa grandezza, si ripetono le misure e si calcola la media dei valori
ottenuti.
Il risultato diverso se le quantit misurate sono correlate. Ad esempio, posto
1
1
, y = x1 + x 2 , si ottiene y2 = (1 1)C = 2 (2 + 2 ) (Si ricordi che
N = 2 , C = 2
1
1
1 < < 1 ). Quindi la varianza della somma pi grande che nel caso di quantit incorrelate se la
correlazione positiva, pi piccola se la correlazione negativa. Questo risultato intuibile: infatti,
se la correlazione positiva, gli errori sulle 2 misure hanno prevalentemente lo stesso segno e
tendono ad accumularsi, se negativa, gli errori hanno prevalentemente segno opposto e tendono ad
elidersi.

Potrebbero piacerti anche