Sei sulla pagina 1di 89

progetto

didattica in rete
p
r
o
g
e
t
t
o
d
i
d
a
t
t
i
c
a

i
n

r
e
t
e
Dipartimento di Georisorse e Territorio
Politecnico di Torino, dicembre 2000
Lezioni di Topografia
Parte II - Il trattamento statistico delle misure
A. Manzino
otto editore
DISPENSE DI TOPOGRAFIA

P

ARTE

II I

L



TRATTAMENTO



STATISTICO
DELLE



MISURE
A

.

MANZINO

Otto Editore P.zza Vittorio Veneto 14 10123 Torino
www.otto.to.it
i

INDICE

PARTE SECONDA IL TRATTAMENTO
STATISTICO DELLE MISURE

6. STATISTICA DI BASE...................................................................1

6.1 P

RIMI



TEOREMI



DELLE



DISTRIBUZIONI



DI



PROBABILIT

......................3
a. Teorema della probabilit totale ..........................................................3
b. Definizione di probabilit condizionata..............................................4
c. Definizione di indipendenza stocastica................................................4
6.2 V

ARIABILI



CASUALI

..................................................................................4
Esempio di variabile casuale continua.....................................................5
Funzione densit di probabilit...............................................................6
Dalla variabile casuale alla variabile statistica...........................................7
La costruzione di istogrammi ..................................................................8
La media...................................................................................................9
La varianza ............................................................................................ 10
6.3 T

EOREMA



DI

T

CHEBYCHEFF

............................................................... 11

Teorema

................................................................................................ 11
Il teorema nel caso di variabili statistiche.............................................. 12
6.4 L

A



VARIABILE



CASUALE



FUNZIONE



DI



UNA



VARIABILE



CASUALE

....... 13
Esempio 1 ............................................................................................. 15
Esempio 2 ............................................................................................ 16
6.5 T

EOREMA



DELLA



MEDIA

...................................................................... 16

Corollario 1

............................................................................................ 16
ii

Corollario 2

............................................................................................ 17
Esempio................................................................................................. 18
6.6 L

EGGE



DI



PROPAGAZIONE



DELLA



VARIANZA

...................................... 18
Osservazioni al teorema di propagazione della varianza....................... 18
Esempio di applicazione del teorema di propagazione della varianza.. 19
6.7 A

LCUNE



IMPORTANTI



VARIABILI



CASUALI

.......................................... 19
Distribuzione di Bernoulli o binomiale................................................ 19
Distribuzione normale o di Gauss........................................................ 21
La distribuzione


2 (chi quadro).......................................................... 22
Distribuzione

t

di Student .................................................................... 24
La distribuzione

F

di Fisher .................................................................. 25

7. LA VARIABILE CASUALE A

n

DIMENSIONI .......................27

Esempio 1 ............................................................................................. 28
Esempio 2 ............................................................................................. 29
7.1 D

ISTRIBUZIONI



MARGINALI

................................................................. 30
7.2 D

ISTRIBUZIONI



CONDIZIONATE

......................................................... 31
7.3

INDIPENDENZA



STOCASTICA

............................................................... 32
Leggi relative alle distribuzioni.............................................................. 32
7.4 V

ARIABILI



CASUALI



FUNZIONI



DI



ALTRE



VARIABILI



CASUALI

............. 33
Trasformazione di variabili ................................................................... 33
Esempio di applicazione della trasformazione ad un caso lineare........ 34
7.5 M

OMENTI



DI



VARIABILI



n

-

DIMENSIONALI

......................................... 36
Teorema della media per variabili casuali

n

-dimensionali .................. 37

Corollario 1

............................................................................................ 37

Corollario 2

............................................................................................ 37
Momenti di ordine di una variabile casuale

n

- di-
mensionale............................................................................... 37
La propagazione della varianza nel caso lineare ad

n

-dimensioni ....... 39
Esercizio 1 ............................................................................................ 40
Esercizio 2 ............................................................................................ 41
7.6 L

A



LEGGE



DI



PROPAGAZIONE



DELLA



VARIANZA



NEL



CASO



DI



FUNZIONI



NON



LINEARI

....................................................................................... 42
Esercizio 3 ............................................................................................ 43
La propagazione della varianza da

n

dimensioni ad una dimensione . 45
Esercizio 1 ............................................................................................ 45
Esercizio 2 ............................................................................................ 45
Esercizio 3 ............................................................................................ 46
Esercizio 4 ............................................................................................ 46
Esercizio 5 ............................................................................................ 46
7.7 I

NDICE



DI



CORRELAZIONE



LINEARE

.................................................. 47
n
1
n
2
n
k
, , , ( )
iii

7.8 P

ROPRIET



DELLE



VARIABILI



NORMALI



AD



n

-

DIMENSIONI

.............. 48
7.9 S

UCCESSIONI



DI



VARIABILI



CASUALI

................................................... 52
7.10 C

ONVERGENZA



IN

L

EGGE

............................................................... 53
7.11 T

EOREMA



CENTRALE



DELLA



STATISTICA

........................................... 53
Teorema ............................................................................................... 53
Prima osservazione al teorema centrale della statistica ........................ 53
Seconda osservazione al teorema centrale della statistica ..................... 54
7.12 L

E



STATISTICHE



CAMPIONARIE



E



I



CAMPIONI

B

ERNOULLIANI

........ 55
Osservazione ........................................................................................ 55
Definizione di

statistica campionaria

.................................................... 55
7.13 L

E



STATISTICHE



CAMPIONARIE



COME



STIME



DELLE



CORRISPONDENTI



QUANTIT



TEORICHE



DELLE



VARIABILI



CASUALI

56
Stima corretta o non deviata ................................................................ 56
Stima consistente ................................................................................. 56
Stima efficiente ..................................................................................... 56
Stima di massima verosimiglianza ....................................................... 56
7.14 F

UNZIONE



DI



VEROSIMIGLIANZA



E



PRINCIPIO



DI



MASSIMA



VEROSIMIGLIANZA

............................................................................... 58
7.15 L

A



MEDIA



PONDERATA

(

O



PESATA

)..................................................... 60

8. APPLICAZIONI DEL PRINCIPIO DEI MINIMI QUADRATI
AL TRATTAMENTO DELLE OSSERVAZIONI ...................62

8.1 I

MINIMI



QUADRATI



APPLICATI



AD



EQUAZIONI



DI



CONDIZIONE



CON



MODELLO



LINEARE

.............................................................................. 64
Esempio applicativo: anello di livellazione .......................................... 65
8.2 M

INIMI



QUADRATI, FORMULE RISOLUTIVE NEL CASO DELL'UTILIZZO
DI PARAMETRI AGGIUNTIVI ................................................................. 67
Esempio applicativo ............................................................................. 70
8.3 MINIMI QUADRATI : EQUAZIONI DI CONDIZIONE E PARAMETRI
AGGIUNTIVI ......................................................................................... 72
8.4 PROPRIET DELLE STIME ED , LORO DISPERSIONE ................... 74
Pure equazioni di condizione .............................................................. 75
Pure equazioni parametriche ............................................................... 75
8.5 IL PRINCIPIO DEI MINIMI QUADRATI IN CASI NON LINEARI.............. 76
8.6 ESERCIZIO............................................................................................. 78
Modello geometrico............................................................................. 79
Modello stocastico e soluzione ai minimi quadrati .............................. 80
y x
1

PARTE II IL TRATTAMENTO STATISTICO
DELLE MISURE

6. STATISTICA DI BASE

1

In questo capitolo ci doteremo di alcuni strumenti statistici per il trattamento delle
misure.
Vediamo come si inserisce la statistica nella tecnica di misura e, per iniziare, come
possiamo denire una misura. Conosciamo tre tipi di operazioni di misura:
Misure dirette: vengono eseguite contando il numero di unit campione conte-
nute in una quantit precostituita. Concettualmente funziona cos ad esempio
una bilancia a piatti, cos quando si misura col metro un oggetto ecc
Misure indirette: sono denite da un legame funzionale a misure dirette; ad
esempio la misura indiretta della supercie del triangolo noti due lati e
l'angolo compreso misurati direttamente. Il legame nell'esempio
.
Misure dirette condizionate: sono delle misure dirette, ma fra loro sono
legate da un legame funzionale interno. Ad esempio la misura diretta di tre
angoli di un triangolo piano deve vericare la legge:
Nel capitolo 6 tratteremo prevalentemente le misure dirette, nel capitolo 7 quelle
indirette (teorema della propagazione della varianza); inne le misure dirette condi-
zionate saranno maggiormente trattate al capitolo 8 (minimi quadrati).

1

Questa parte prende molti spunti, che liberamente interpreta, da Fernando Sans: Il trattamento
statistico delle misure. - Clup 1990. Da questo testo sono tratte inoltre dimostrazioni ed esempi.
S 1 2 ab sin =
+ + =
STATISTICA



DI



BASE
2

L'operazione di misura, diretta o meno, ha in comune il fatto, che sotto opportune
ipotesi, pu essere considerata un'estrazione da una variabile casuale: vediamo
infatti tre esempi che ci porteranno a giusticare questo paragone.
a. Dato un corpo rigido di lunghezza poco maggiore di 3 m ed un metro
campione suddiviso in mm, si desidera misurare il corpo con il metodo del
riporto (o delle alzate).
b. Il lancio di dadi non truccati.
c. Si misurano le coordinate

x, y

del punto ove cade un proiettile su un bersa-
glio rettangolare sparato da uno stesso tiratore.
Questi esperimenti hanno in comune il fatto che, a priori,

impossibile predire

in
modo deterministico il risultato dell'esperimento: se si ripete infatti, si otterranno
diversi risultati.
Nell'esempio a. il fatto che ripetendo l'operazione di misura si ottengano diversi
risultati, porta a dire che in questa operazione si commettono degli errori, negli
altri casi il diverso risultato dovuto alle variazioni non note dell'ambiente esterno
e dell'oggetto di misura (e di come questi interagiscono), o ad una sua scarsa cono-
scenza globale e puntuale del fenomeno.
Questi errori possono classicarsi in:


Errori grossolani

: sono i pi banali anche se spesso i pi difcili a indivi-
duare. Possono essere ad esempio il mancato conteggio di una alzata, la tra-
scrizione errata di una misura, la codica errata di un punto, ecc.
I rimedi per evitarli sono l'acquisizione e il trattamento automatici, il con-
trollo e la ripetizione delle misure possibilmente indipendenti ed ancora
automatici. Non sono questi gli errori a cui intendiamo riferirci
nellesempio a.


Errori sistematici

: sono dovuti ad esempio all'imperfetta taratura dello stru-
mento di misura o legati ad errori di modello (ad es. la misura indiretta di
un angolo di un triangolo piano quando questo sia in realt meglio
modellabile sulla supercie ellissoidica), hanno la caratteristica di conser-
vare valore e segno: nellesempio a. la misura con pi alzate tra due punti A
e B, sar sempre superiore alla reale, se i punti intermedi non sono esatta-
mente sull'allineamento AB.
Sono eliminabili con tarature, con opportune procedure operative, o ren-
dendoli di segno alterno (cio pseudo accidentali): si pu usare nel caso
della bilancia non retticata, ad esempio, il metodo della doppia pesata.
Anche questi errori non sono quelli che giusticano i diversi risultati
degli esperimenti a. b. e c.


Fluttuazioni accidentali

: sono a priori imprevedibili, sono di segno alterno e
dipendono in senso lato dall'ambiente.
La uttuazione accidentale della misura un fenomeno

aleatorio

(casuale,
probabilistico). Sono questi gli errori commessi negli esperimenti
descritti. La scienza che studia questi fenomeni la statistica matematica,
perci ne forniremo i concetti di base utili al trattamento delle misure geo-
STATISTICA



DI



BASE
3

detiche e topograche. Ora cerchiamo di capire meglio in che ambito si
cala la statistica nel trattamento delle misure. Potremmo denire la stati-
stica la scienza che tenta di descrivere con certezza l'incertezza.
Nell'esempio del metro, notiamo che, se avessimo preteso di stimare la lun-
ghezza del corpo al mm, avremmo ottenuto numeri apparentemente pi
variabili, mentre, chiedendo la misura al cm, il risultato sarebbe stato sem-
pre uguale. Ne segue che, per la misura di una grandezza, l'indetermina-
zione si presenta solo

con procedure di misura che spingono l'approssimazione ai
conni delle capacit di misura dell'apparato usato

.
Data per scontata questa indeterminazione, dobbiamo tuttavia dire che ci aspet-
tiamo un risultato poco disperso, o meglio una gamma di possibili valori ed un
ordine di priorit tra di essi.
Questa priorit, espressa come numero reale compreso tra zero e uno si chiama

probabi-
lit

. Ne diamo ora la pi usata denizione detta

assiomatica

che consiste nel denire la
distribuzione di probabilit in base alle propriet (assiomatiche) che deve soddisfare:

una distribuzione di probabilit

P



su un insieme



S

di valori argomentali, una
misura su una famiglia di sottoinsiemi di

S

(che include

S

stesso e l'insieme vuoto


) che, oltre agli assiomi della misura:
soddisfa alla:
6.4

Vediamo un esempio pratico: il lancio della moneta. S costituito da 2 valori argo-
mentali che possiamo rendere numerici associando ad esempio

x

= 0 a testa ed

x

= 1
a croce. S l'insieme dei valori argomentali {0,1} dei punti di coordinate

x

=0,

x

=1 sull'asse

x

.
I sottoinsiemi di S sono {


}, {0}, {1}, {0,1}.
Si ha P({


}) = 0; P({0}) = 1/2; P({1}) = 1/2; P({0,1}) = 1.
6.1 P

RIMI



TEOREMI



DELLE



DISTRIBUZIONI



DI



PROBABILIT

a. Teorema della probabilit totale

Dati due eventi

A

e

B

, sottoinsiemi disgiunti di

S

, la probabilit che si verichi

A

o

B

, cio :
6.5
Se

A

e

B

non sono disgiunti:
6.6
6.1
6.2
6.3
P A ( ) 0
P ( ) 0 =
P A B ( ) P A ( ) P B ( ) + =

'

P S ( ) 1 =
P A B ( )
P A B ( ) P A ( ) P B ( ) + = se A B =
P A B ( ) P A B ( ) P B ( ) + = P A ( ) P B ( ) P AB ( ) + =
STATISTICA



DI



BASE
4

b. Denizione di probabilit condizionata

Si presenta quando si desidera esaminare la distribuzione solo su di una parte dei
valori argomentali, restringendo

S

ad un sottoinsieme. Isolando una parte dei valori
argomentali si genera un'altra distribuzione di probabilit.
Ad esempio in una popolazione di 100 persone caratterizzata dai possibili valori
argomentali: capelli chiari o scuri, occhi chiari o scuri (vedi tabella 6.1), si desidera
conoscere qual la probabilit di estrarre una persona con occhi chiari fra quelle
con i capelli chiari. Questa probabilit condizionata si indica

P(A|B)

(probabilit
di

A

condizionata a

B)

e vale:
6.7
Nell'esempio

P(B)



=

50/100,

P(AB)



=

40/100,

P(A|B

)

=

0.8

c. Denizione di indipendenza stocastica

Diciamo

A

e

B

stocasticamente indipendenti se:
6.8
Per la 6.7 si ha:
cio:
6.9
Dunque due eventi

A

e

B

sono stocasticamente indipendenti se e solo se la proba-
bilit composta

P(AB)

si scinde nel prodotto delle singole probabilit. Questa
affermazione il

teorema della probabilit composta

.

6.2 V

ARIABILI



CASUALI

Denizione

:

una variabile casuale (vc) a una dimensione una distribuzione di probabi-
lit il cui insieme di valori argomentali

S

sia rappresentabile in , tale che sia denita la
probabilit per qualunque insieme (ordinabile con

x

0

) del tipo:

Tab. 6.1


C

APELLI

C S
Occhi C 40 10
S 10 40
P A|B ( )
P AB ( )
P B ( )
---------------- =
P A|B ( ) P A ( ) =
P A|B ( )
P AB ( )
P A ( )
---------------- P B ( ) = =
P AB ( ) P A ( )P B ( ) =
l R
STATISTICA



DI



BASE
5

6.10

In questo modo sar perci caratterizzata dalla funzione di

x

0

:

6.11

F prende il nome di funzione di distribuzione e gode delle propriet:

6.12
6.13
6.14

Una vc si dice

discreta

se l'insieme S formato da un numero discreto di punti sui
quali

concentrata

una probabilit; se viceversa la probabilit che

x

assuma un

sin-
golo

valore sempre uguale a zero allora la vc

continua

.
Nel primo caso avremo una funzione di distribuzione discontinua, nel secondo
continua. Ad esempio il lancio di una moneta rappresentato da una vc

discreta

:
i valori argomentali sono ; la variabile casuale

x

pu rappresentarsi
attraverso la tabella:

6.15

Per ; per e per e la sua
funzione di distribuzione disegnata in gura

6.1

.

Fig. 6.1

Esempio di variabile casuale continua

Consideriamo una distribuzione di probabilit denita in

6.16

Siamo nel caso di

distribuzione uniforme

, la sua funzione di distribuzione F, riportata
in gura

6.2

, sar:
I x
0
( ) x x
0
{ } S =
F x
0
( ) P x I x
0
( ) [ ] =
F x
0
( ) definita su x
0
l R
0 F x ( ) 1
F x ( )
x
0

lim 0; = F x ( )
x
0

lim 1 =
F x
2
( ) F x
1
( ) x
2
x
1

x
1
0 x
2
1 = ; =
x
1
0 = x
2
1 =
p 1 2 = p 1 2 =

)

x 0 F x ( ) 0 = 0 x < 1 F x ( ) 1 2 = x 1 F x ( ) 1 > >


P
X 0 1
0,5
1
S 0 1 , [ ] = l R
P a x b ( ) b a cost = =
STATISTICA DI BASE
6
Fig. 6.2
Funzione densit di probabilit
Una qualunque variabile casuale pu caratterizzarsi attraverso la sua funzione di
distribuzione F. Se la vc continua ci si chiede quale sar la probabilit P che x sia
compresa tra due valori . Si avr:
6.17
Se x piccolo ed F differenziabile:
dove f (x) vien detta densit di probabilit ed funzione di x, si ha:
6.18
che, per le caratteristiche di F, (monotona e crescente) sar:
La funzione di distribuzione si ottiene allora come funzione integrale della densit
di probabilit:
6.19
con l'ipotesi di normalizzazione (o standardizzazione, vedi 6.4):
6.20
F x ( ) 0 = x 0
F x ( ) x = 0 x 1
F x ( ) 1 = x 1 >

'

F
X 0 1
1
x
0
x
0
x + , [ ]
P x
0
x x
0
x + ( ) F x
0
x + ( ) =
P x
0
x x
0
x + ( ) dF x
0
( ) F' x
0
( )x f x
0
( )x = = =
f x
0
( ) F' x
0
( )
P x
0
x x
0
x + ( )
x
----------------------------------------------
x 0
lim = =
f x
0
( ) 0 x
F x ( ) f t ( ) t d

x

=
f t ( ) t d

1 =
STATISTICA DI BASE
7
Si noti che:
Si abbia ad esempio la variabile casuale x denita cos:
(vedi gura 6.2), la funzione densit di probabilit relativa uniforme e vale:
Fig. 6.3 Funzione di densit di probabilit costante e uniforme.
Dalla variabile casuale alla variabile statistica
Se, per mezzo della variabile casuale si vuole rappresentare l'insieme dei possibili
risultati di un esperimento non deterministico, si possono organizzare i dati in una
tabella a doppia entrata in base ai risultati delle ripetizioni dell'esperimento.
Ad esempio:
Deniamo variabile statistica (vs) ad una dimensione la tabella di due sequenze di
numeri che specica come un dato si distribuisce fra la popolazione N:
6.21
f x ( ) x d
a
b

F b ( ) F a ( ) P a x b ( ) = =
F
0 x 0
x 0 x 1
1 x 1 >

'

=
f x ( )
1 0 x 1
0 x 0 x 1 > ; <
'

=
0 1 X
f (x)
testa croce
con n
1
n
2
N = +
n
1
volte n
2
volte

'

x
1
x
2
x
n
F
1
F
2
F
n

'

ovvero
x
1
x
2
x
n
f
1
f
2
f
n

'

STATISTICA DI BASE
8
x
i
sono i valori argomentali, F
i
le frequenze assolute ed f
i
= F
i
/N le frequenze rela-
tive. Si ha:
6.22
Confrontando la 6.21 e la 6.22 si vede che la prima denisce una variabile casuale
con distribuzione di probabilit concentrata sui valori , sufciente porre:
6.23
Con ci, ogni denizione data e ogni propriet mostrata per le variabili casuali deve
valere anche per le variabili statistiche, poich formalmente identicabili con le
variabili casuali attraverso la 6.23.
La sostanziale differenza di contenuto: sulla variabile casuale i numeri p
i
associati
ai valori x
i
misurano un grado di possibilit che il risultato dell'esperimento abbia
valore p
ij
; nel caso della variabile statistica il numero f
i
registra a posteriori sola-
mente il fatto che su N ripetizioni si sono ottenuti F
i
risultati di valore x
i
.
La probabilit, legata alla variabile casuale, un ente aprioristico assiomatico, la fre-
quenza, legata alla variabile statistica un indice che misura a posteriori risultati
empirici.
Per mezzo di questa identit formale, la funzione di distribuzione F(x) delle varia-
bili casuali, prende il nome, per le variabili statistiche, di funzione cumulativa di fre-
quenza F(x) e rappresenta la percentuale di elementi della popolazione il cui valore
argomentale x
i
risulta minore o uguale a x.
6.24
La costruzione di istogrammi
Il concetto di densit di probabilit non applicabile ad una variabile discreta per-
ch la sua funzione di distribuzione in ogni punto discontinua o costante.
Questo implica, per l'analogia tra variabili casuali e variabili statistiche che non si
pu denire un concetto analogo alla densit di probabilit per la variabile stati-
stica.
tuttavia importante poter confrontare la variabile statistica con particolari varia-
bili casuali ben conosciute attraverso la funzione densit di probabilit, ci si fa
attraverso la costruzione di istogrammi.
Il confronto vien fatto tra probabilit (nella variabile casuale) e frequenza (della
variabile statistica) in questo modo: si ssa un intervallo e si esamina la percentuale
dei risultati che cadono nello stesso intervallo:
6.25
F
i
1
n
N ; = f
i
1
n
N =
x
1
x
n
P x x
i
= ( ) f
i
=
F x ( ) f
i
i

N
i

N
------------ = = x
i
x
F x
0
( )
N x
0
x , ( )
N
----------------------- =
STATISTICA DI BASE
9
dove il numeratore rappresenta il numero di elementi che cadono in detto inter-
vallo. Il confronto valido per N grande (ad esempio N>200).
Si abbiano ad esempio una serie di valori nell'intervallo I = (ba).
Si riporta sull'asse x l'intervallo (a, b) e si divide in n parti (con n< m valori dati),
non necessariamente uguali .
Per ogni intervallo si contano il numero di risultati che cadono in I
i
= N(I
i
) e si
sommano le frequenze relative a detto intervallo .
Si disegna sopra I
i
un rettangolo di altezza .
Abbiamo costruito cos una tabella:
6.26
dove x
i
sono le ascisse dei valori medi degli intervalli I
i
.
Si pu vericare inne che:
6.27
La media
La descrizione completa di una variabile casuale deriva dalla conoscenza della sua
funzione di distribuzione o della densit di probabilit od altro di equivalente. Per
molti usi pratici la vc ben localizzata, cio distribuita in una ristretta zona di valori
ammissibili. Ad esempio, nella misura con distanziometri elettronici di distanze,
una distanza di 1 km pu avere ripetizioni che al pi differiscono di 2-3 mm; per
tutte queste variabili le informazioni pi importanti da conoscere sono dove loca-
lizzata la distribuzione e quanto dispersa. Allo scopo, sono utili due indici: media
e varianza.
Denizione: si chiama media della vc x, quando esista, il numero:
6.28
Si noti l'analogia col momento statico di f(x).
Nel caso di una vc discreta:
6.29
e, per analogia per una variabile statistica, la media, che si indica con m vale:
6.30
I
1
I
2
, I ,
n
, ( )
f
K
f
i
=
f
K
I
i

x
1
x
2
x
n
f
1
f
2
f
n
'

f
i

f
K
I
i
---- I
i
K

i
1 = =
M x [ ] x f x ( ) dx

= =
M x [ ] x
i
p
i
=
m M x [ ] x x
i
= = = f
i
x
i
N
i
N
----------- =
STATISTICA DI BASE
10
Dove con si intende l'operazione matematica (l'operatore) che, da una
distribuzione, sia essa a priori vc o a posteriori vs, calcola un numero che la media
della distribuzione.
La 6.30 evidenzia in N
i
il numero di volte che il valore argomentale x
i
stato
estratto, presupponendo la costruzione di una tabella ordinata allo scopo, se invece
con x
j
indichiamo il singolo valore estratto si ha:
6.31
Si pu dimostrare che la media un operatore lineare cio gode delle propriet:
6.32
6.33
La varianza
un indice che misura il grado di dispersione di una vc x attorno alla media.
Per denizione, se esiste vale
6.34
Si denisce la variabile scarto
6.35
La varianza si ottiene cio applicando l'operatore media al quadrato della variabile
scarto, in altri termini il momento del secondo ordine della variabile scarto e si
indica con , o solo .
Per la variabile statistica, per analogia, la varianza si indica con , o solo
. La radice quadrata della varianza si chiama scarto quadratico medio e si indica
con sqm o con , tale valore pi usato della varianza, in quanto dimensional-
mente omogeneo a x. Si ha dunque:
6.36
e, per una vc discreta:
6.37
Con la solita analogia tra variabile casuale e variabile statistica, per quest'ultima si
ha:
6.38
M [ ]
m x
1
N
---- x
i
= = j 1 N , , =
M x y + [ ] M x [ ] M y [ ] + =
M kx [ ] k M x [ ] =

2
x [ ] M x
x
( )
2
[ ] =
x
x
( ) =

2
x [ ]
x
2

2
S
2
x ( ) S
x
2
S
2

x
2
X
x
( )
2
f X ( ) dx

x
2
X
i

x
( )
2
p
i
i
=
S
2
X
i
M
x
( )
2
N
i
N
-----
i

1
N
---- X
j
M
x
( )
2
j


j
2
j

N
-------------- = = =
STATISTICA DI BASE
11
Le ultime due espressioni valgono per una vc non ordinata: per questo si sostitu-
ito l'indice j all'indice i.
Dalla denizione di varianza, tenendo conto della linearit dell'operatore media e
sviluppando si ha:
6.39
che permette di calcolare senza passare dalla variabile scarto. Per una vs non
ordinata la 6.39 si trasforma:
6.40
Nella 6.39 rappresenta il momento del 2 ordine della vc che dato dalla somma
della varianza e del quadrato del valor medio.
6.3 TEOREMA DI TCHEBYCHEFF
Nell'analogia meccanica in cui la probabilit viene considerata come una distribu-
zione di massa concentrata o distribuita sull'asse x, la media esprime (a parte una
costante di standardizzazione), la posizione del baricentro (il momento statico) e la
varianza ha il senso di momento di inerzia rispetto al baricentro.
Pi le masse sono disperse e pi alto il momento di inerzia, cio la varianza. Que-
sta nozione qualitativa espressa in termini probabilistici quantitativi dal teorema
di Tchebycheff che vale per qualsiasi tipo di distribuzione.
Teorema
Preso , e variabile casuale x, vale la disuguaglianza:
6.41
Il teorema ci dice qual la dimensione dell'intervallo attorno alla media entro
cui, per qualunque distribuzione di x, siamo sicuri di racchiudere una probabilit
minima di (1 1/
2
).
Dimostrazione
Partiamo dalla denizione di , cio:
restringendo l'intervallo di integrazione sar sempre vero che:
6.42

x
2
M X
2
2X
2
+ [ ] M X
2
[ ] 2M X [ ]
2
+ M X
2
[ ]
2
= = =

2
S
2
X ( )
1
N
---- X
j
2
j
m
2
=
1 >
P x
x

x
( ) 1
1

2
-----

x
2

x
2

2
X
x
( )
2
f x ( ) dx

= =

2
x ( )
2
f x ( ) dx
x

STATISTICA DI BASE
12
Il primo termine all'interno dell'integrale varr, per lo meno nell'intervallo di inte-
grazione:
dunque l'espressione 6.42 varr a maggior ragione sostituendo a la
costante :
e, dividendo per :
cio:
c.v.d.
Il teorema nel caso di variabili statistiche
Consideriamo la variabile:
e facciamo lipotesi che sia stata ordinata nel senso crescente
per denizione:
Anche gli scarti
i
saranno allora crescenti. Possiamo dividere in tre parti la somma-
toria di cui sopra:

s
2
sar sempre maggiore od uguale alle prime due sommatorie, cio:
A maggior ragione, essendo nella sommatoria:
x ( )
2
( )
2

x ( )
2
( )
2

2
1

2
----- f x ( ) dx
x

2
----- P x
x
( )
x
1
x
n
f
1
f
n
'

x
1
x
2
< x
n
<
s
2
x
i
m ( )
2
f
i
1
n

=
s
2

i
2
f
i

j
2
f
j

k
2
f
k
k 1 =
s v s < <

+
j 1 =
v s

+
i 1 =
v s <

=
s
2

i j ,
2
f
i j ,
i j v , s
s
2

i j ,
2
f
i j ,
i j v , s

STATISTICA DI BASE
13
dividendo entrambi i membri per s
2
:
dividendo ancora per
2
e considerando che :
cio:
c.v.d.
6.4 LA VARIABILE CASUALE FUNZIONE DI UNA VARIABILE CASUALE
Seguiamo quest'esempio: sia x la vc che rappresenta il lancio di un dado non truc-
cato, si ha, chiamando (p,d) i possibili eventi (pari o dispari):
L'insieme S costituito dall'unione di:
con
prendiamo ora una vc y che rappresenta il lancio di una moneta non truccata e
leghiamola alla vc x con questa corrispondenza:
essendo i possibili valori ed associamo per y
i
valori numerici 0 e 1 a testa
e croce.
Con ci . Si ha:
Le due vc si esprimono allora:
s cio s < ,
s
2

2
s
2
f
i j ,
i j v , s

1
2
f
i j ,

f
k
1 f
i j ,
=
1

2
----- 1 f
k

f
k
1
1

2
-----
P x p ( )
1
2
---; = P x d ( )
1
2
--- =
xp { } xd { } S =
xp { } xd { } =
Y g X ( )
x
p
y testa
x
d
y croce

'

= =
1 x
i
6
0 y
i
1
g 2 ( ) g 4 ( ) g 6 ( ) testa 0 = = = =
g 1 ( ) g 3 ( ) g 5 ( ) croce 1 = = = =
STATISTICA DI BASE
14
Questo esempio stato fatto su variabili casuali discrete ma pu generalizzarsi al
caso di variabili continue in cui una funzione y = g(x) sia denita su tutto l'insieme
S
X
dei valori argomentali della x.
La g(x) trasforma lo spazio S
X
nello spazio dei valori argomentali S
Y
.
Cerchiamo ora invece una corrispondenza pi interna, pi puntuale: poniamo che
la funzione g(x) sia una funzione continua: quella tracciata ad esempio in gura 6.4.
Fig. 6.4 Variabile casuale funzione di variabile casuale.
dove il dominio dei valori argomentali : S
X
= (a, b ) S
Y
= (c, d ).
Sia A
Y
un sottoinsieme di S
Y
; a questo sottoinsieme corrisponder un insieme:
cio, per denizione:
6.43
Ed ora cerchiamo l'annunciata corrispondenza puntuale: scegliamo per A
Y
un
intervallo dy(y
0
) attorno a y
0
e, nell'ipotesi che g(x) sia continua e differenziabile, si
avr che A
X
sar formata da uno o pi intervalli attorno a x
i
anch'essi di ampiezza
dx
i
, per cui si avr la corrispondenza in termini probabilistici di:
6.44
(con il simbolo si intende qui l'operatore unione insiemistica ).
Si ha allora che:
X
1 6 1 6 1 6 1 6 1 6 1 6
1 2 3 4 5 6

'

=
Y
0 1
1 2 1 2

'

=
a
y
d
b
x
c
y=g(x)
dx
1
dx
2
dx
3
x
1
x
2
x
3
dy
y
0
A
X
S
X
g A
X
( ) A
Y
=
P y A
Y
( ) P x A
X
( ) =
A
Y
dy y
0
( ) A
X
dx
i
x
i
( )

= =

P y dy y
0
( ) ( ) P x dx
i
x
i
( ) ( )
1
m

=
STATISTICA DI BASE
15
cio
6.45
in quanto per un intervallo innitesimo il secondo membro uguale a ,
dove la densit di probabilit della vc x. Dividendo entrambi i membri
della 6.45 per si ottiene:
e, per denizione del primo membro:
6.46
che la formula di trasformazione di variabili casuali fra loro legate da una fun-
zione g.
Esempio 1
Il legame fra due vc x ed y sia:
si ha:
quel che serve tuttavia avere una funzione esplicita di f
y
in funzione di y cio f
y
(y):
Se nell'esempio scegliamo per f
x
la funzione denita normale standardizzata o Gaus-
siana:
6.47a
si avr:
6.47b
Si pu dimostrare che la media della vc y b ed il suo sqm a. Attraverso la tra-
sformazione lineare precedente si passa cio dalla variabile non standardizzata alla
variabile standardizzata di Gauss.
f y ( ) dy f x ( ) dx

=
f
X
x ( ) dx
f
X
x ( ) dx
dy
P y dy y
0
( ) ( )
dy
------------------------------------
P x dx
i
x
i
( ) ( )
dy
----------------------------------
f
X
x
i
( )
d
y
dx
------
-------------

=
f
y
y
0
( )
f
x
x
i
( )
g' x
i
( )
----------------
i

=
y ax b + =
g' x ( ) a ; = f
y
y ( )
f
x
x ( )
a
----------- =
f
y
y ( )
f
x
y b
a
----------
,
_
a
--------------------- =
f
x
x ( )
1
2
---------- e
x
2
2
-------
=
f
y
y ( )
1
2 a
----------------- e
1
2
---
y b
a
------------
,
_
2

=
STATISTICA DI BASE
16
Esempio 2
Il legame sia y = x
2
cio . Ad un unico valore di y corrispondono due
valori di x:
Se, come sopra, la 6.47a si avr:
6.48
Il quadrato di una variabile gaussiana 6.47 ha dunque funzione di distribuzione di
equazione 6.48 che vedremo essere la variabile ad una dimensione cio .
6.5 TEOREMA DELLA MEDIA
Siano x ed y due variabili casuali legate dalla relazione y = g(x); allora la media di
y, se esiste vale:
6.49
cio possibile fare il cambiamento di variabili nell'operatore media .
Dimostrazione
Poniamoci, solo per semplicit, nel caso che g(x) sia monotona e crescente
(g'(x)>0). Ricordando la denizione di media e la 6.46:
Seguono due importantissimi corollari del teorema.
Corollario 1
La media un operatore lineare, vale a dire se x ed y sono due vc ed
6.50
Infatti:
x y t =
x
1
y ; = x
2
y =
g' x
1
( ) 2x
1
2 y ; = = g' x
2
( ) 2x
2
2 y ; = =
f
y
y ( )
f
x
y ( )
2 y
---------------------
f
x
y ( )
2 y
--------------------- +

f
x
y ( ) f
x
y ( ) +
2 y
---------------------------------------------- = =
f
x
y ( )
f
y
y ( )
1
2 2 y
-------------------- e
1
2
--- y ( )
2

1
2 2 y
-------------------- e
1
2
--- y ( )
2

+
1
2 2 y
-------------------- e
y
2
---
= = per y 0 ( )

1
2

y
M
y
= y [ ] M
x
g x ( ) [ ] =
M [ ]
M
y
y [ ] y f
y
y ( ) dy

y
f
x
x ( )
g' x ( )
----------- dy

g x ( )
f
x
x ( )
g' x ( )
----------- g' x ( )dx

= = =
M
y
y [ ] g x ( ) f
x
x ( )dx

M
x
g x ( ) [ ] = = c.v.d.
y ax b + = M
y
y [ ] aM
x
x [ ] b + =
STATISTICA DI BASE
17
Corollario 2
Sia y = g(x); sotto opportune ipotesi della g rispetto alle distribuzioni di x ed y e
con una certa approssimazione vale:
6.51
Fig. 6.5 Dimostrazione del 2 corollario del Teorema della media.
Dimostrazione del 2 corollario
Sia x una vc abbastanza concentrata attorno a
x
(che abbia cio piccolo
x
), sup-
poniamo poi che g(x) abbia andamento molto regolare attorno a
x
, per lo meno in
un intorno [a,b].
Sviluppando g(x) si ha, al primo ordine:
Il secondo termine del secondo membro nullo in quanto rappresenta la media
della variabile scarto, risulta dunque provata la 6.51.
L'equazione 6.51 si trasforma nella 6.50 nel caso lineare, nel quale rigorosa.
M
y
y [ ] M
x
ax b + [ ] ax b + ( ) f
x
x ( ) dx

a x f
x
x ( ) dx b x f
x
x ( ) dx

= = =
M
y
y [ ] aM
x
x [ ] b + =

y
M
y
= y [ ] g
x
( ) =

x
y
x
a b
y=g(x)
g( )
g x ( ) g
x
( ) g'
x
( ) x
x
( ) +

y
M
y
y [ ] g x ( ) f
x
x ( )dx g
x
( ) g'
x
( ) x
x
( ) + [ ] f
x
x ( )dx

= =
g
x
( ) f
x
x ( ) dx g'
x
( ) x
x
( ) f
x
x ( )dx

STATISTICA DI BASE
18
Esempio
Di un anello si pi volte misurato direttamente il diametro, ottenendo il valore
medio di ; si desidera conoscere la supercie interna media in modo indiretto.
Applicando la 6.51 si ha:
6.6 LEGGE DI PROPAGAZIONE DELLA VARIANZA
Sotto le ipotesi del secondo corollario del teorema della media se la vc y una fun-
zione della vc x:
6.52
Dimostrazione
Poniamoci nel solito intervallo [a, b] che comprende quasi tutto l'insieme S
X
, nel
qua l e va l gono l a 6. 50 e l a 6. 51. Pe r f unz i oni monot one s i ha
, dunque:
e, sviluppando g(x):
cio a dire la 6.52.
Osservazioni al teorema di propagazione della varianza
La 6.52 una formula rigorosa nel caso che g(x) sia una funzione lineare; in tal caso
infatti:
x
y
x
2
4
-------- =
y g x ( ) =

2
g'
x
( )
2

x
2
=
f
x
x ( ) d x f
y
y ( ) d y =

y
2
g x ( )
x
( )
2
f
x
x ( )dx
a
b

y
2
g

x
/ ( ) g'
x
( ) x
x
( )
y
/ + [ ]
2
f
x
x ( )dx
a
b

y
2
g'
x
( )
2
x
x
( )
2
f
x
x ( )dx
a
b

g'
x
( )
2
x
x
( )
2
f
x
x ( )dx
a
b


y ax b + =
y
a
x
b + =

y
2
M
y
y
y
( )
2
[ ] M ax b a
x
b + ( )
2
[ ] a
2
M x
x
( )
2
[ ] = = =

y
2
a
2

x
2
= c.v.d.
STATISTICA DI BASE
19
Data una variabile casuale x qualunque sempre possibile con una trasformazione
lineare costruire da questa una variabile casuale z tale che:
6.53
detta variabile casuale standardizzata.
Grazie al teorema della media e della propagazione della varianza basta infatti
porre:
6.54
e si avr;
Esempio di applicazione del teorema di propagazione della varianza
Nel calcolo della supercie interna di un anello si misurato il diametro medio x = 5 cm
e stimato si desidera calcolare la supercie media e la relativa
varianza:
Quante cifre hanno senso in questo calcolo?
Ha senso denire dunque al massimo a due cifre dopo la virgola:
.
6.7 ALCUNE IMPORTANTI VARIABILI CASUALI
Distribuzione di Bernoulli o binomiale
Consideriamo un esperimento stocastico e siano S i suoi possibili risultati. Suppo-
niamo che S sia costituita da due insiemi disgiunti A e B di eventi incompatibili 0
ed 1 aventi rispettivamente probabilit p e q=(1p):
6.55

z
0 ; =
z
2
1 =
z
x
x

x
------------- =
M z [ ]
1

x
-----M x
x
[ ] 0 = =

2
z [ ]
1

x
-----
x
2
1 = =

x
0.01cm t =
y
x
2
4
---------19.63495 cm
2
=

y
2
2 x

4
---
,
_
2

x
2
; =
y
x
2
-------
x
=

y
0.0785 cm
2
t =
y
y 19.63 cm
2
0.078 cm
2
t =
P A ( ) p ; = P B ( ) q ; =
0 1
q p

'

:
STATISTICA DI BASE
20
con:
Da questa vc discreta ne costruiamo una seconda: consideriamo n ripetizioni indi-
pendenti di ed indichiamo con la vc discreta (intera) che descrive la probabilit
che, su n esperimenti , k abbiano un risultato in A e (n k) un risultato in B. Per
costruire la seconda riga della vc k:
abbiamo ora bisogno di conoscere il teorema delle probabilit totali che dice in
questo caso: la probabilit di k successi su n prove uguale alla somma delle proba-
bilit di (k1) successi su (n1) prove per la probabilit p di un nuovo successo, pi
la probabilit di k successi in (n1) prove per la probabilit q di un insuccesso.
possibile cio ricavare la formula ricorsiva:
6.56
Partiamo da una prova dell'esperimento: la probabilit di successo sar p e di insuc-
cesso q:
6.57
Si ha ad esempio, applicando la 6.56:
ed in genere P(n,0) = q
n
. Viceversa:
in genere P(n,n) = p e, per valori qualunque di (n,k) si dimostra che vale:
6.58
Dunque la vc discreta cos denita:
6.59
M x
i
p
i
p ; = =
2
1 p ( )
2
p 0 p ( )
2
q + p q = =

= 0 1 2 3 n


'

:
P nk ( ) p P n 1 k 1 , ( ) q P n 1 k , ( ) + =
P 1 1 , ( ) p ; = P 1 0 , ( ) q =
P 2 0 , ( ) p 0 q q + q
2
= =
P 2 1 , ( ) p P 1 0 , ( ) q P 1 1 , ( ) + P 2 1 , ( ) pq pq + 2pq = = = =
P 1 2 , ( ) p P 0 1 , ( ) q P 0 2 , ( ) + 0 = =
P 2 2 , ( ) p P 1 1 , ( ) q P 1 2 , ( ) + p
2
= =
P n k , ( )
n
k
,
_
p
k
q
n k
=

k =

0 1 2 n
q
n
n
2
,
_
p
2
q
n 1
p
n

'

:
STATISTICA DI BASE
21
Per ricavare media e varianza della 6.59 possiamo con maggior facilit applicare il
teorema della media e quello della propagazione della varianza. Essendo la vc
somma delle n variabili :
ed avendo ciascuna variabile media uguale a p e varianza uguale a pq:
6.60
6.61
La distribuzione binomiale ha la forma di gura 6.6 ( discreta e dunque costituita
da un insieme distinto di punti).
Fig. 6.6 Distribuzione binomiale o di Bernoulli.
Distribuzione normale o di Gauss
La funzione densit di probabilit data dalla:
6.62
dove si pu vericare che e
2
sono media e varianza della variabile casuale gi
vista nella 6.47. La gura 6.7 mostra due distribuzioni normali con stessa media, = 1
ma con =0.8 e =2 rispettivamente.
La standardizzazione della 6.62 conduce alla variabile z con distribuzione:
6.63
Se cerchiamo la funzione di distribuzione della 6.63 si ha:

1

2

n
+ + + =
M [ ] np =

2
[ ] npq =
P
1
i 0.0
0.1
0.2
0.3
0.4
0.5
0.6
0 2 4 6 8 10 12 14 16 18 20
n = 10
n = 50
f
x
x ( )
1
2
---------------- e
x
2
-----------
,
_
2

= x
f
z
z ( )
1
2
---------- e
z
2
2
------
=
STATISTICA DI BASE
22
Fig. 6.7 Distribuzione normale o di Gauss
6.64
Attraverso la (z) possiamo ricavare la probabilit che z od x appartengano a vari
intervalli attorno a : i valori pi comuni sono:
6.65
La distribuzione
2
(chi quadro)
Si pu dimostrare che se sono n variabili casuali indipendenti, aventi
una distribuzione normale e standardizzata la somma
2
dei loro quadrati pure una
variabile casuale:
6.66
la cui densit di probabilit (chiamando per non generare confusioni )
data da:
6.67
0
0.1
0.2
0.3
0.4
0.5
-5 -4 -3 -2 -1 0 1 2 3 4 5 6
0.8 =
+
-

2 =
+
-

=1
z ( ) def ( )erf z ( )
1
2
----------- e
z
2
2
------
z d

z

= =
P x
x
( ) < erf 1 ( ) erf 1 ( ) 0.683 = =
P x
x
( ) 2 < erf 2 ( ) erf 2 ( ) 0.954 = =
P x
x
( ) 3 < erf 3 ( ) erf 3 ( ) 0.997 = =

z
1
z
2
z
n
, , ,

2
z
1
2
z
2
2
z
n
2
+ + + =

2
h
f h ( ) h
n 2 1 ( )
e
n 2
2
n 2

n 2
[ ]
1
=
STATISTICA DI BASE
23
Come si vede
2
dipende anche dal parametro intero n, detto grado di libert. Nella
6.67 il termine entro la quadra una costante che fa si che la relativa funzione di
distribuzione valga .
Nelle 6.67, in parentesi, compare la funzione di Eulero, generalizzazione della
funzione fattoriale; per numeri reali si calcola attraverso:
6.68
Per valori di s semi-interi si usa la pi comoda formula ricorsiva
6.69
6.70
Si dimostra che:
Nella pratica occorre trovare la probabilit totale dei valori argomentali che supe-
rino (gura 6.8).
Fig. 6.8 Funzione densit di probabilit
2
.
6.71
F h ( )
h
lim 1 =
s ( ) x
s 1
e
x
x d
0

=
1 ( ) 1 ; =
3
2
---
,
_

2
-------- =
p 1 + ( ) p p ( ) =


2
( ) n =

2
( ) 2n =

0
2
f (x)
x
v=1
2
3
4
5
6
7
P

2

0
2
> ( ) f h ( ) h d

0
2

=
STATISTICA DI BASE
24
Questi valori sono in genere tabulati in funzione di e di n. Tale variabile si
indica spesso anche con per evidenziare il numero di gradi di libert.
Distribuzione t di Student
Sia z una normale standardizzata e z
i
altre variabili normali standardizzate i = 1n
e sia:
6.72
una seconda variabile casuale cos costruita ed indipendente da z.
Si denisce la variabile t come:
6.73
Si dimostra che la funzione densit di probabilit f(t ) vale:
6.74
La 6.74 simmetrica rispetto all'origine, dunque:
6.75
Si prova che:
6.76
Per grandi valori di n, t molto simile alla variabile z.
Per un certo valore del grado di libert n i valori della funzione di distribuzione di
questa variabile casuale si trovano tabulati in funzione delle probabilit ; ad
esempio per = 5% si trova tabulato:
6.77

0
2

n
2
y z
1
2
z
2
2
z
n
2
+ + +
n
2
= =
t t
n
z n

n
2
----------
z n
z
1
2
z
2
2
z
n
2
+ + +
-------------------------------------------- = = =
f t ( ) 1
t
2
n
---- +
,
_
n 1 +
2
------------

n 1 +
2
------------
,
_
n n 2 ( )
------------------------------ =
t ( ) 0 =

2
t ( )
n
n 2
------------ = per n 2 >
t
1
n
,
P t t

< ( ) 1 =
STATISTICA DI BASE
25
Fig. 6.9 Distribuzione t di Student.
La distribuzione F di Fisher
Siano date due vc
2
ad n ed m gradi di libert ed indipendenti tra loro; allora il
rapporto
6.78
una vc detta F di Fisher ad (n, m) gradi di libert.
Si pu dimostrare che:
6.79
e che:
6.80
6.81
-4 -3 -2 -1 0 1 2 3 4
0.08
0.16
0.24
0.32
0.40
Distribuzione di "Student"
(N=4 G. di lib.=3)
Distribuzione normale standard (G. di lib.= )
F

n
2
1
n
---

m
2
1
m
----
--------------- F
n m ,
= =
f F ( )
F
n 2 ( ) 2
nF m + ( )
n m + ( ) 2
---------------------------------------
n
n 2
m
m 2

n m +
2
-------------
,
_
n 2 ( ) m 2 ( )
------------------------------------------------ = per F 0
M F [ ]
n
n 2
------------ = n 2 > ( )

2
F ( )
2n
2
m n 2 + ( )
m n 2 ( )
2
n 4 ( )
----------------------------------------- =
STATISTICA DI BASE
26
Fig. 6.10 Variabile F di Fisher.
Anche qui le tabelle riportano per (n, m) gradi di libert.
Generalmente impiegata la variabile F detta di Fisher modicata che risulta essere
sempre maggiore di 1 essendo cos denita:
6.82
0 1 2 3 4
F
0
0,5
1,0
1 GL ; 5 GL
10 GL ; 10 GL
P F F
0
( )
F
F con F 1
1 F con F 1 <

'

=
27

7. LA VARIABILE CASUALE A

n

DIMENSIONI

Partiamo col denire una variabile casuale discreta a

n

dimensioni cio quella varia-
bile per cui ogni valore argomentale pu essere indicato come un vettore ,
cio un punto nello spazio :

7.1

L'insieme dei valori argomentali S sar dunque un insieme in cui denita
la nostra distribuzione di probabilit.
La vc si dice

discreta

se la distribuzione di probabilit concentrata solo su

k

punti

x

i

,

i =

1

, , k

con la condizione:

7.2

In caso opposto la vc si dice

continua

. Analogamente alla vc discreta ad una dimen-
sione si potr rappresentare una vc discreta ad

n

dimensioni con una tabella
n-dimensionale.
Nel caso di vc doppia ad esempio si pu costruire la tabella:
x l R
n

l R
n
x
x
1
x
2
.
.
.
x
n










=
S l R
n

P x x
i
= ( )
i 1 =
k

1 =
x x
1
1
x
1
2
x
1
k
x
2
1
x
2
2
x
2
h
p
1
1
p
1
2
p
1
k
p
2
1
p
2
2
p
2
k
p
h
1
p
h
2
p
h
k
P
ij
P x
1
x
1
i
= , x
2
x
2
i
= ( ) =
LA



VARIABILE



CASUALE



A



n



DIMENSIONI
28

La vc discreta sempre assimilabile alla variabile statistica, sostituendo alle

p

ij

le fre-
quenze relative

f

ij

:
Una distribuzione di probabilit viene chiamata variabile casuale quando denita
la probabilit

per ogni

insieme del tipo:
Anche in questo caso possiamo denire la funzione densit di probabilit della
variabile casuale

x

se esiste, attraverso il limite:

7.3

dove


(A) la misura dell'insieme A e


il suo diametro che tende a zero in
attorno al punto

x

.

La

7.3

pu essere riscritta con:

7.4

dove d

V

(

x

) un elemento di volume in



attorno a

x

. Dalla denizione prece-
dente si ha:

7.5

e la funzione di distribuzione

7.6

derivando la

7.6

si ricava:

7.7

Esempio 1

In un urna sono contenute due palline bianche (

b, B

) e due nere (

n, N

). La varia-
bile casuale discreta che descrive l'estrazione in blocco delle due palline e la relativa
probabilit sono

1

:

1

Si ricorda che gli esempi sono tratti dal gi citato testo di F. Sans.
f
ij
N
ij
N
------- =
x
1
x
01
; x
n
x
0n
< { }
P x
1
x
01
; x
n
x
0n
< ( ) F x
01
; x
02
; x
0n
( ) F x
0
( ) = =
f x ( )
P A ( )
A ( )
-------------
0
lim =
l R
n
f x ( )
dP x ( )
dV x ( )
--------------- =
l R
n
P x A ( ) f x ( ) dV x ( )
A

=
F x
01
, x
02
,, x
0n
( ) dx
1
f x ( )dx
n

=
f x ( )

n
F x ( )
x
1
x
n
---------------------- =
LA



VARIABILE



CASUALE



A



n



DIMENSIONI
29

Nell'ipotesi di due estrazioni successive con sostituzione (reintegrazione) invece la
vc sar:

Esempio 2

Osservando un gran numero di tiri al bersaglio possiamo dire quanto segue:
a. in ogni zona del bersaglio i colpi tendono a distribuirsi uniformemente a
parit di distanza dal centro
b. contando i punteggi si visto che, indicando con r la distanza dal centro

7.8

Fig. 7.1

Distribuzione bidimensionale.

La costante
2
un parametro di bravura del tiratore.
Si vuole trovare la distribuzione bidimensionale dei tiri (gura 7.1).
Notiamo che la 7.8 fornisce la probabilit che P[,] dC con dC elemento di
corona circolare attorno ad r
0
.
b B n N 1
A
ESTRAZIONE
b / bB bn bN

0 1/12 1/12 1/12


2
A

estrazione
Bn Bb / Bn BN 1/12 0 1/12 1/12
N nb nB / nN 1/12 1/12 0 1/12
/ Nb NB NB / 1/12 1/12 1/12 0
b B n N 1
A
ESTRAZIONE
b bb bB bn bN

1/16 1/16 1/16 1/16


2
A

estrazione
Bn Bb BB Bn BN 1/16 1/16 1/16 1/16
N nb nB nn nN 1/16 1/16 1/16 1/16
/ Nb NB NB NN 1/16 1/16 1/16 1/16
P r dr r
0
( ) [ ]
r
0

2
------ e

r
0
2
2
2
----------
dr =
dC
d

dr
ro 0
d
LA VARIABILE CASUALE A n DIMENSIONI
30
Siccome in dC la probabilit uniformemente distribuita, allora:
Per la denizione di densit di probabilit:
7.9
La 7.9 rappresenta l'equazione della distribuzione normale a due dimensioni.
7.1 DISTRIBUZIONI MARGINALI
Lo scopo dell'introduzione delle distribuzioni marginali e delle distribuzioni condi-
zionate , ai nostri ni, capire se e quando due variabili casuali sono fra loro indi-
pendenti.
Consideriamo l'evento A:
facile intuire che la classe di questi eventi dipende solo dalla variabile casuale x
1
e,
nel cercare la probabilit dell'evento A
i
, domandiamo qual la probabilit che x
1
stia in dx
1
qualunque valore assunto per x
2
x
n
. Da una distribuzione n-dimensio-
nale si genera cio una distribuzione mono-dimensionale ed una corrispondente vc x
1
tale che:
Questa vc detta marginale della x ed ha densit di probabilit:
ricordando la denizione di densit di probabilit 6.23 come derivata dalla fun-
zione F si ha:
7.10
Una vc n-dimensionale avr n marginali mono-dimensionali.
P , ( ) d [ ] P x dC [ ]
d
dC
-------- P x dC [ ]
d
2
-------
1

2
------ e

r
0
2
2
2
---------
r dr
d
2
------- = = =
f , ( )
P , ( ) d [ ]
d
------------------------------------
P , ( ) d [ ]
r dr d
------------------------------------ = =
f , ( )
1
2
2
-------------- e

r
2
2
2
---------
1
2
2
-------------- e

2
+
2
2
-----------------
= =
A x
1
dx
1
x
01
( ); x
2
; x
n
< < < < { } =
P x
1
dx
1
[ ] P x A [ ] dx
1
dx
2
dx
3
dx
n
f x
01
,x
2
,x
n
( )

= =
f
x
1
x
01
( )
P x A [ ]
dx
1
---------------------- dx
2
dx
3
dx
n
f x
01
,x
2
,x
n
( )

= =
f
x
1
x
01
( )

x
1
-------- F x
01
, , ,, + + + ( ) =
LA VARIABILE CASUALE A n DIMENSIONI
31
Oltre alle distribuzioni marginali ad una componente si possono anche introdurre
distribuzioni marginali di insiemi di componenti: (x
1
, x
2
), (x
1
, x
3
) ecc. Ad esempio:
che, integrata, fornisce la probabilit che un certo gruppo di componenti (x
1
, x
2
)
appartengano ad un certo elemento di volume dV
2
per qualunque valore assunto dalle
altre componenti.
7.2 DISTRIBUZIONI CONDIZIONATE
Ci si chiede qual la probabilit che m variabili, ad esempio (x
1
x
m
) stiano in un
elemento di volume dV
m
, mentre le altre (x
m+1
x
n
) sono certamente vincolate ad
un elemento di volume dV
m-n
.
I due eventi A e B sono:
Si desidera calcolare che vale secondo la 6.7:
Tale distribuzione di probabilit genera una densit di probabilit per le variabili
(x
1
x
m
) per qualunque valore delle rimanenti variabili (x
m+1
x
n
) che vale:
7.11
f
x
1
x
2
x
1
, x
2
( ) dx
3
dx
n
f x
01
,x
02
,x
n
( )

=
A x
1
x
m
( ) dV
m
{ }; B x
m 1 +
x
n
( ) dV
n m
{ }
P A B [ ]
P A B [ ]
P AB [ ]
P B [ ]
----------------
f
x
x ( ) dV
m
dV
n m
dV
n m
f
x
x
1
x
m
, x
m 1 +
x
n
( )dV
m
R
m

---------------------------------------------------------------------------------------- = =
P A B [ ]
f
x
x
1
x
m
, x
m 1 +
x
n
( )dx
1
dx
m
dx
1
dx
m
f
x
x
1
x
m
, x
m 1 +
x
n
( )

--------------------------------------------------------------------------------------------- =
f
x
1
x
m
x
m 1 +
x
n
x
1
x
m
x
m 1 +
x
n
( )
f
x
x
1
x
m
, x
m 1 +
x
n
( )
dx
1
dx
m
f
x
x
1
x
m
, x
m 1 +
x
n
( )

------------------------------------------------------------------------------------------- =
f
x
1
x
m
x
m 1 +
x
n
x
1
x
m
x
m 1 +
x
n
( )
f
x
x
1
x
m
, x
m 1 +
x
n
( )
f
x
m 1 +
x
n
x
m 1 +
x
n
( )
------------------------------------------------------- =
LA



VARIABILE



CASUALE



A



n



DIMENSIONI
32

7.3

INDIPENDENZA



STOCASTICA

Leggi relative alle distribuzioni

Ricordando le

6.8

due eventi si deniscono stocasticamente indipendenti se:

6.8

Se ci limitiamo ad esaminare un elemento di volume d

V

m

:
si ha allora che, nel caso di eventi indipendenti, la

7.11

deve essere uguale anche a
, cio a dire:

7.12

Se ci vericato le variabili casuali sono stocasticamente indipendenti
dalle rimanenti .
Se, al contrario, la densit di probabilit totale pu essere fattorizzata nel
prodotto:

7.13

le prime variabili sono indipendenti dalle seconde.
Si nota che i termini al secondo membro sono proporzionali alle marginali. Si
arriva cos al teorema:

Condizione necessaria e sufciente afnch



siano stocasticamente
indipendenti da



e viceversa, che la densit di probabilit con-
giunta si spacchi nel prodotto delle due marginali:

7.14

Ne segue un facile corollario:

Condizione necessaria e sufciente afnch le

n

componenti di una vc

n

-dimensio-
nale siano tutte tra loro indipendenti che la densit di probabilit congiunta si
spacchi nel prodotto delle

n

-marginali:
7.15

Si noti, a proposito, che la

7.9

che rappresenta la variabile di Gauss a due dimen-
sioni pu rappresentarsi anchessa dal prodotto:
P A B [ ] P A [ ] =
P A [ ] P x
1
x
m
( ) dV
m
[ ] f
x
1
x
m
x
1
x
m
( )dV
m
= =
f
x
1
x
m
x
1
x
m
( )
f x
1
x
m
x
m 1 +
x
n
( ) f
x
x ( ) f
x
1
x
m
x
1
x
m
( ) f
x
m 1 +
x
n
x
m 1 +
x
n
( ) = =
x
1
x
m
( )
x
m 1 +
x
n
( )
f
x
x ( )
f
x
x ( ) x
1
x
m
( ) x
m 1 +
x
n
( ) =
x
1
x
m
( )
x
m 1 +
x
n
( )
f
x
x ( ) f
x
1
x
m
x
1
x
m
( ) f
x
m 1 +
x
n
x
m 1 +
x
n
( ) =
f
x
x ( ) f
x
1
x
1
( ) f
x
2
x
2
( )f
x
n
x
n
( ) =
f ( ) f ( ) f ( )
1
2
------------------ e
1
2
---

-------
,
_
2
1
2
------------------ e
1
2
---

-------
,
_
2
= =
LA



VARIABILE



CASUALE



A



n



DIMENSIONI
33

7.4 V

ARIABILI



CASUALI



FUNZIONI



DI



ALTRE



VARIABILI



CASUALI

Trasformazione di variabili

Supponiamo che sia data una funzione g che trasformi variabili da



a

:

7.16

( g un vettore di funzioni).
Si pu dimostrare che, a partire da una distribuzione di probabilit in possiamo
costruirne una in cos fatta:

Sia d

V

m

(

Y

0

)

un'elemento di volume di in un intorno di

Y

0

,

e sia



A

(

Y

0

)

l'immagine inversa di

d

V

m

(

Y

0

),

vale a dire l'insieme di:
Si pone:

7.17

ammesso che il secondo termine sia misurabile.
Dunque da una variabile casuale (a destra dell'uguale) possiamo costruirne una
seconda (a sinistra dell'uguale).
Ci si chiede: conoscendo la distribuzione di come sar distribuita la variabile ?
I casi da prendere in considerazione sono tre:
Escludiamo subito il caso

m



>



n

,

infatti, se

g(

x

)

differenziabile l'insieme dei valori
argomental

i

un insieme in , ma avrebbe misura nulla: non
ci interessa per il trattamento delle misure analizzare distribuzioni singolari.
Nel caso in cui n=m, se lo jacobiano J della funzione non nullo, si ha una cosid-
detta trasformazione regolare:
ci ci permette di dire che esiste anche la relazione inversa che porta da a .
Sia allora dV
n
( y) un elemento di volume attorno ad e dV
n
( x) l'elemento di
volume corrispondente attorno ad .
Il primo intorno lo otteniamo applicando ad la trasformazione g, cio l'intorno:
l R
n
l R
n
y g x ( ) =
l R
n
l R
n
l R
n
x l R
n
g x ( ) dV
m
Y
0
( )
P Y dV
m
Y
0
( ) [ ] P x A Y
0
( ) ( ) =
x
x y
m n; <
m n; =
m n. >
Y g x ( ) x l R
n
= l R
n
J g ( )
g
x
------
det.
g
1
x
1
--------
g
1
x
n
-------

g
n
x
1
--------
g
n
x
n
---------
0 = = x l R
n

y x
y
x
x
LA VARIABILE CASUALE A n DIMENSIONI
34
7.18
Per la denizione della probabilit ad n-dimensioni si ha poi l'equazione:
7.19
e, per la denizione di densit di probabilit:
cio:
7.20
Ma la derivata al denominatore qualcosa di gi noto, infatti lo Jacobiano di ,
:
7.21
e allora la 7.20 si trasforma in:
7.22a
dove:
7.22b
Esempio di applicazione della trasformazione ad un caso lineare
Sia data una trasformazione lineare e regolare da a
1
7.23
con:
1
Qui di seguito indicheremo di tanto in tanto con doppia sottolineatura le matrici e con singola i
vettori. Questa notazione usata per rendere pi chiaro il discorso all'inizio di un problema ed
tralasciata se il senso della formula univoco, od in genere, per brevit, all'interno di una
dimostrazione gi avviata.
dV
n
y ( ) g dV
n
x ( ) ( ) =
P Y dV
n
y ( ) [ ] P X dV
n
x ( ) [ ] =
f
y
y ( ) dV
n
y ( ) f
x
x ( ) dV
n
x ( ) =
f
y
y ( )
f
x
x ( )
dV
n
y ( )
dV
n
x ( )
-------------------
------------------------ =
g
J g ( )
det.

g
x
------
g
x
-----
dV
n
y ( )
dV
n
x ( )
------------------ = =
f
y
y ( )
f
x
x ( )
g
x
-------
------------- =
x g
1
y ( ) =
l R
n
l R
m
y A x b + =
A det.A
g
x
-----
0 = =
LA VARIABILE CASUALE A n DIMENSIONI
35
Si ha:
7.24
7.25
Sia la funzione di distribuzione , ad esempio, il prodotto di n normali stan-
dardizzate, tali che:
7.26a
che pu essere anche scritta come:
7.26b
Dalla 7.24 ricaviamo:
Si ottiene inne dalla 7.25:
7.27
Esaminiamo l'esponente della 7.27.
Denita A
2
una matrice reale, simmetrica e positiva, si dimostra che sempre pos-
sibile scomporla nel prodotto:
7.28
di modo che la 7.27 diviene:
7.29
La 7.29 rappresenta la forma nella quale possibile scrivere la funzione densit di pro-
babilit di una qualsiasi variabile normale n-dimensionale non standardizzata e rappre-
senta anche, con la 7.23 e la 7.28 la via da seguire per la standardizzazione. Questi
concetti saranno ripresi ed estesi in seguito.
Esaminiamo inne il caso di una trasformazione da a con m < n, cio:
7.30
Ad un el emento di vol ume pu corri spondere un i nsi eme di
che non ha misura nita:
x A
1
y b ( ) =
f
y
y ( )
f
x
A
1
y b ( ) ( )
A
------------------------------------ =
f
x
x ( )
f
x
x ( )
1
2
-----------e
x
1
2
2

1
2
-----------e
x
n
2
2
1
2 ( )
n 2
------------------- e
x
1
2
2

= =
f
x
x ( )
1
2 ( )
n 2
-------------------e
x
T
x ( )
2
--------------
=
x
T
A
1
y b ( ) [ ]
T
y b ( )
T
A
1
( )
T
= =
f
y
y ( )
1
2 ( )
n 2
A
--------------------------e
1
2
--- y b ( )
T
A
1
( )
T
A
1
y
b
( )
=
A
2
A
T
A AA
T
= =
f
y
y ( )
1
2 ( )
n 2
A
-------------------------e
1
2
--- y b ( )
T
A
2
( )
1
y b ( )
=
l R
n
l R
m
y
1
g
1
x
1
x
n
( ) =
y
m
g
m
x
1
x
n
( ) =

'

dV
m
y ( )
x A
X
dV
m
( ) =
LA VARIABILE CASUALE A n DIMENSIONI
36
Ponendo:
si ha:
7.31
Oltre alla 7.31, se non intervengono ulteriori ipotesi, non si pu in questo caso dire altro.
7.5 MOMENTI DI VARIABILI n-DIMENSIONALI
Anche per le variabili casuali n-dimensionali possono generalizzarsi i concetti visti
ad una dimensione.
Se esiste la media della variabile casuale n-dimensionale questa per denizione
un vettore n-dimensionale
x
dato da:
7.32
dove il simbolo sta per prodotto scalare. La componente i-esima di
x
vale:
7.33
dalla 7.32 si nota che per calcolare basta conoscere la distribuzione marginale
di x
i
, infatti:
7.34
cio la componente i-esima della media di uguale alla media della compo-
nente i-esima.
Nel caso ad esempio di una variabile statistica doppia , rappresentata al
solito dalla tabella:
dV
m
y ( ) g A
X
dV
m
( ) [ ] =
P Y dV
m
Y
0
( ) [ ] P x A
X
0
[ ] =
f
Y
y ( )
1
dV
m
y ( )
------------------ f
x
x ( ) dV
n
x ( )
A
X
dV
m
( )

=
x

x
M x [ ] dV
n
x ( )f
x
x ( )
R
n

x = =

x
i
M x
i
[ ] dV
n
x ( )x
i
f
x
x ( )
R
n

= =

x
i

x
i
dx
i
dV
n 1
x
i
f
x
x ( )

dx
i
x
i
dx
1
dx
i 1
dx
i 1 +
dx
n
f
x
x ( )

= =

x
i
dx
i
x
i
f
x
i
x
i
( )

=
x
x y , [ ]
LA VARIABILE CASUALE A n DIMENSIONI
37
possiamo, sfruttando la solita analogia, ricavare:
Teorema della media per variabili casuali n-dimensionali
Sia una trasformazione da a , con variabile casuale e
variabile per denizione di media, se esiste, si ha:
7.35
In questo caso il teorema della media afferma che:
7.36
Corollario 1
Nel caso in cui la funzione vettoriale g sia lineare, nel caso cio in cui:
7.37
Corollario 2
se la variabile ben concentrata in una zona di attorno alla media
x
e,
nella stessa zona la funzione che lega le due variabili casuali: lenta-
mente variabile allora:
7.38
in analogia a quanto visto per vc ad una dimensione.
Momenti di ordine di una variabile casuale n-dimensionale
Si deniscono momenti di ordine di una variabile casuale n-dimen-
sionale gli scalari:
7.39
x x
1
, x
2
, x
r
, =
y y
1
, y
2
, y
s
, =

'

M x [ ] x
1
r
--- x
i
= =
M y [ ] y
1
s
--- y
j
= =
l R
n
l R
m
x x l R
n
y
y l R
n

M y [ ] M
y
g x ( ) [ ] g x ( )f
x
x ( ) x d
l R
n

= =
M
Y
y [ ] M
x
g x ( ) [ ] =
y A x b + =

y
A
x
b + =
x l R
n
y g x ( ) =

y
g
x
( ) =
n
1
n
2
n
k
, , , ( )
n
1
n
2
n
k
, , , ( )

i
1
, i
2
, , i
k
n
1
, n
2
, , n
k
M x
i
1
n
1
, x
i
2
n
2
, , x
i
k
n
k
[ ] =
LA VARIABILE CASUALE A n DIMENSIONI
38
Si deniscono momenti centrali i corrispondenti momenti della variabile scarto:
Molto spesso tuttavia i momenti pi usati sono quelli del secondo ordine che, per
denizione indichiamo con:
7.40
Notiamo che per i =k si ha:
7.41
cio i momenti centrali del secondo ordine per i =k sono le varianze della compo-
nente i-esima di .
I coefcienti per si indicano anche con e sono detti coefcienti di
covarianza delle componenti e .
Come evidente dalla 7.40 , la 7.40 e la 7.41 espresse in forma matriciale
divengono:
7.42
La detta per ovvi motivi matrice di varianza covarianza o matrice di dispersione
ed simmetrica.
Si pu dimostrare, analogamente al caso mono-dimensionale, che:
7.43
Cerchiamo ora un'altra espressione della 7.42 nel caso particolare in cui le compo-
nenti di x siano fra loro indipendenti.
In questo caso pu essere scritta come prodotto delle marginali 7.15:
e, osservando che ogni marginale normalizzata per suo conto, cio che:
si trova, per , ricordando la 7.40,
7.44
x
x
=
c
ik
M x
i

xi
( ) x
k

xk
( ) [ ] M
i

k
[ ] = =
c
ii

i
2
M x
i

xi
( )
2
[ ] = =
x
c
ik
i k
ik
x
i
x
k
c
ik
c
ki
=
C
xx
c
ik
[ ] M x
i

xi
( ) x
k

xk
( ) [ ] C
xx
M x
x
( ) x
x
( )
T
[ ] = = = =
C
xx
C
xx
M xx
T
[ ]
x

x
T
=
f x ( )
f x ( ) f
x
1
x
1
( )f
x
n
x
n
( ) =
f
x
j
x
j
( ) x
j
d

1 =
i k
M x
i
x
k
[ ] x
i
x
k
f
x
x ( ) x
1
d x
n
d

=
f
x
1
x
1
( ) x
1
d

,


_
f
x
2
x
2
( ) x
2
d

,


_
x
i
f
x
i
x
i
( ) x
i
d

,


_
x
k
f
x
k
x
k
( ) x
k
d

,


_
=
M x
i
x
k
[ ]
x
i

x
k
=
LA VARIABILE CASUALE A n DIMENSIONI
39
ma, ricordando la 7.43:
ne deriva che:
7.45
cio, per componenti di indipendenti, la matrice diagonale e assume la
forma:
7.46
Si pu vericare in molti casi che non vero viceversa, cio la forma diagonale di
non signica necessariamente che le n-componenti siano fra loro indipendenti.
La propagazione della varianza nel caso lineare ad n-dimensioni
Come nel caso mono-dimensionale ci domandiamo cosa vale la matrice di
varianza covarianza di una variabile casuale funzione di una seconda
variabile .
L'ipotesi che la relazione g sia lineare, cio e che .
Per il teorema della media:
dunque:
7.47
ma per denizione di :
sfruttando la linearit dell'operatore media, M[], si ha:
7.48
questa la legge di propagazione della varianza nel caso lineare.
c
ik
M x
i
x
k
[ ]
x
i

k
k
=
c
ik

ik
0 = = i k
x C
xx
C
xx

1
2
0
0
n
2
,

_
=
C
xx
y l R
m

x l R
n

y A x b + = m n

y
A
x
b + =
y
y
( ) A x
x
( ) =
C
yy
C
yy
M y
y
( ) y
y
( )
T
[ ] M A x
x
( ) x
x
( )
T
A
T
[ ] = =
C
yy
A M x
x
( ) x
x
( )
T
[ ]A
T
A C
xx
A
T
= =
LA VARIABILE CASUALE A n DIMENSIONI
40
Esercizio 1
Con un teodolite si misurano le direzioni che ipotizziamo estratte da
una vc a tre dimensioni con media , indipendenti fra di loro e con
varianze:
Si determini, valor medio, varianza e covarianza degli angoli azimutali
1
e
2
cos deniti:
Fig. 7.2
L'esercizio lasciato allo svolgimento del lettore con questo suggerimento: data la
matrice
si applichi il teorema della media e la propagazione della varianza da a .

1

2

3
, ,

1

2

3
, , ( )

3
10 10
4
gon t = = = =

1

1

2
=

2

2

3
=

'

O
P
C
B
A
P
2
1

1
C

2
0
0

0

2
0

0
0

2 ,


_
=
l R
3
l R
2
LA VARIABILE CASUALE A n DIMENSIONI
41
Esercizio 2
Si calcoli la covarianza fra x e y e le rispettive varianze per la seguente variabile
statistica doppia:
Si ricavano dapprima le frequenze p
i
e q
j
delle marginali; i valori medi sono ricavati
attraverso le frequenze marginali:
Per denizione:
Al secondo membro il secondo termine vale ed il terzo vale ,
inne il quarto vale essendo:
Si ha inne:
7.49
y =
x =
4 5 9 p
i

1 0.1 0.2 0.1 0.4


2 0.1 0.2 0 0.3
3 0 0.1 0.1 0.2
4 0 0 0.1 0.1
q
j
0.2 0.5 0.3 1
M
x
x
i
p
i
1
n 4 =

1 0.4 2 0.3 3 0.2 + + 4 0.1 + 2 = = =


M
y
y
j
q
j
1
m 3 =

4 0.2 5 0.5 9 0.3 + + 6 = = =

xy

i 1 =
n

x
i
M
x
( )
j 1 =
m

y
j
M
y
( )f
ij
=

xy

i 1 =
n

x
i
y
j
f
ij
j 1 =
m


i 1 =
n

x
i
M
y
f
ij
j 1 =
m


j 1 =
m

y
j
M
x
f
ij
i 1 =
n


i 1 =
n

M
x
M
y
f
ij
j 1 =
m

+ =
M
y
M
x
M
x
M
y

M
x
M
y
f
ij
j 1 =
m

i 1 =
n

1 =

xy

i 1 =
n

x
i
y
j
f
ij
j 1 =
m

M
x
M
y
=
LA VARIABILE CASUALE A n DIMENSIONI
42
che rappresenta l'estensione della 7.43. Sostituendo infatti x ad y o viceversa si
trova:
Applicando tutto ci ai dati dell'esercizio si ricava:
Si ha allora che:
7.6 LA LEGGE DI PROPAGAZIONE DELLA VARIANZA NEL CASO DI FUNZIONI NON
LINEARI
Poniamoci ancora nel caso (n, m) dimensionale in cui e sia:
7.50
una funzione non pi lineare della variabile casuale .
Nell'ipotesi che sia ben concentrato attorno alla sua media
x
ed sia poco
variabile attorno a si pu operare la linearizzazione:
7.51
ora possibile utilizzare le 7.47 e 7.48 ricavate per il caso lineare con le seguenti
sostituzioni:
7.52

x
2

i 1 =
n

x
i
2
i 1 =
n

M
x
2
=

x
2
x
i
2
p
i
i 1 =
4

M
x
2
1 0.4 4 0.3 9 0.2 16 0.1 + + + ( ) 4 1 = = =

y
2
y
j
2
q
j
j 1 =
3

M
y
2
16 0.2 25 0.5 81 0.3 + + ( ) 36 4 = = =

xy
x
i

1
4

y
j
f
ij
1
3

M
x
M
y
= =
1 4 0.1 5 0.2 9 0.1 + + ( ) 2 4 0.1 5 0.2 + ( )+ + =
3 5 0.1 9 0.1 + ( ) 4 9 0.1 ( ) 12 + +

xy
2.3 2.8 4.2 3.6 12 + + + 0.9 = =
C
xy
1 0.9
0.9 4
,
_
=
m n
y g x ( ) =
x
x y
g
x
( )
y g
x
( )
g
x
-----

x
x
( ) +
b g
x
( ) =
LA VARIABILE CASUALE A n DIMENSIONI
43
7.53
La matrice A detta matrice disegno. La 7.48 diviene allora:
7.54
Le matrici e sono sempre strettamente denite positive, cio (denizione):
7.55
Si ssi infatti e si consideri , con y variabile casuale mono-dimensio-
nale; si avr come logico e se x non ha distribuzioni singolari come
nell'ipotesi di trasformazioni regolari.
Se regolare (invertibile) e simmetrica, sempre poi possibile questa
scomposizione:
7.56
Con matrice diagonale degli autovalori di ed U matrice ortogonale
che contiene gli autovettori di . facile dopo questa ipo-
tesi dimostrare che:
7.57
La radice quadrata di una matrice diagonale la matrice i cui elementi val-
gono .
Esercizio 3
Di un punto P si sono misurate la distanza dall'origine r e l'anomalia , rappresen-
tate dalle variabili casuali e con media e sqm seguenti:
Calcolare media e covarianza delle coordinate (x, y) del punto P e media e varianza
dell'area A del rettangolo che ha OP per diagonale.
La trasformazione g permette di ricavare (x, y) in funzione delle misure
dirette .
(x, y) sono misurabili cio indirettamente.
A
g
x
----- =
C
yy
g
x
----- C
xx
g
x
-----
T
=
C
xx
C
yy
C
xx
0: a l R
n
> a
T
C
xx
a 0 >
a y a
T
x =

y
2
0
y
2
0 >
C
xx
C
xx
K
2
UU
T
= =
C
xx
U
T
U UU
T
I = = C
xx
K U
1 2
U
T
=

i
1 km =

1mm t = 10
6
mm = ( )
6 =

2 10
6
rad ( ) t =
, ( )

x
y
,
_
; =

,
_
; = C

2
0
0

2
,

_
1mm
2
0
0 4 10
12
,
_
= =
LA VARIABILE CASUALE A n DIMENSIONI
44
Fig. 7.3
Applicando il teorema della media si ricavano i valori medi:
Si ricava ora la matrice disegno, calcolandola nell'intorno dei valori medi:
Si verica poi se la trasformazione regolare.
Si applica inne il teorema di propagazione della varianza:
Per rispondere alle ultime due domande applichiamo ancora il teorema della media
alla misura indiretta supercie A funzione delle due misure dirette e :
Ed applicando il principio di propagazione della varianza si ricava:

A
Y
P
X 0

g ( )
cos
sin
,
_
= =

x
866.025 mm =

y
500.000 mm =
g

------
cos sin
sin cos
,
_
; =
g

------

3 2 10
6
2 m
1 2
10
6
3
2
--------------- m
=
det.
g

-----

cos
2
sin
2
+ ( ) 0 > = =
C

3 2
1 2

10
6
2
10
6
3
2
---------------
,


_
1
0

0
4 10
12

,
_
3 2
10
6
2

1 2
10
6
3
2
---------------
,


_
1.75
1.30

1.30
3.25
,
_
= =
A
2
cos sin = A 0.433 10
6
m
2
=

A
2

2
2
-------
sin
,
_
2

2
2 cos ( )
2

2
+ 10
12

3
4
--- 1
,
_
1 10
24
+
4
-------------------
1
4
--- 4 10
12
= =

A
1.323m
2
t =
LA VARIABILE CASUALE A n DIMENSIONI
45
Si lascia come esercizio ricavare quest'ultimo risultato a partire dalla relazione
A= xy, con ricavata come sopra.
La propagazione della varianza da n dimensioni ad una dimensione
L'esercizio precedente un caso particolare nel quale possibile ricavare una for-
mula semplicata rispetto alle 7.48 e 7.54.
Nel caso di trasformazione da n-dimensioni ad una dimensione, l'unica incognita la
varianza .
Partendo dalla relazione:
7.58
con matrice di varianza covarianza di . La 7.54 diviene:
7.59
A conclusione di questa prima parte del trattamento statistico delle misure si pro-
pongono questi esercizi.
Esercizio 1
Sia data una v.s. x
Calcolare: - l'istogramma
- la funzione di distribuzione
- la media, la mediana ( l'ascissa per cui P = 1/2)
- la varianza
- vericare il teorema di Tchebjcheff tra ( 10) e ( +10).
Esercizio 2
Sia di una v. casuale f (x) = k.
Calcolare:
- k
-
-
- vericare il Teorema di Tchebjcheff
Fig.7.4
C

y
2
y f x
1
,x
2
, x
n
, ( ) =
C
xx
x

y
2
f
x
1
--------
,
_
2

x
1
2
f
x
2
-------
,
_
2

x
2
2
2
f
x
1
-------
f
x
2
--------
,
_

12
2
f
x
i
------
f
x
k
--------
,
_

ik
+ + + + =
x
10 12 12 15 15 20 20 30 30 50
0.04 0.18 0.40 0.20 0.18

'

=
x

x
2
Y
0
a b x
f(x)=k
LA VARIABILE CASUALE A n DIMENSIONI
46
Esercizio 3
Sia di una v. casuale f (x) = kx.
Calcolare:
- k
-
-
- vericare il Teorema di Tchebjcheff
Fig.7.5
Esercizio 4
Trasformazioni di variabili casuali. Sia:
trovare:
- k
-
- e
- vericare il Teorema di Tchebjcheff
Fare lo stesso esercizio per: ; vericare se .
Esercizio 5
Di un triangolo si sono misurati direttamente a,b e langolo compreso .
Dati , calcolare la supercie media S ed il suo sigma.
Fig.7.6
x

x
2
Y
0
a b x
f(x)=k x
f
x
x ( ) cost =
y x
2
=

'

f
y
y ( )
M y [ ]
2
y ( )
y log x ( ) = M y [ ] g M x [ ] ( ) =

a

b

, ,
S
B
A
b
a
C

LA VARIABILE CASUALE A n DIMENSIONI


47
7.7 INDICE DI CORRELAZIONE LINEARE
Supponiamo che e siano variabili casuali ad n-dimensioni e che siano fra loro
indipendenti. Si avr allora:
7.60
Ipotizziamo ora invece che y sia funzionalmente dipendente da x, e che lo sia inol-
tre in modo lineare:
Ne deriva che, come gi visto:
Cerchiamo ora le covarianze tra x ed y:
cio:
7.61
Ora poniamoci nel caso di x ed y ad una componente; nell'ipotesi di indipendenza
della 7.59 si avr che , mentre nell'ipotesi che ha portato alla 7.61
; inoltre, siccome , applicando la propagazione della
varianza si ricava , cio .
Deniamo indice di correlazione lineare di x ed y lo scalare :
7.62
Nella seconda ipotesi di dipendenza lineare si ha:
Nella prima ipotesi 7.60 di indipendenza si pu facilmente vericare che:
Questo parametro varia dunque nell'intervallo 1 e vale zero per variabili casuali
fra loro indipendenti.
Si osservi che, viceversa, se le due variabili casuali si dicono incorrelate ma
non detto che siano indipendenti.
La gura 7.7 mostra un caso di distribuzione di densit di probabilit di variabili
dipendenti ma incorrelate.
un parametro molto utilizzato grazie a queste sue propriet:
x y

xy
M xy [ ]
x

y
0 = =
y A x b + =
y
y
( ) A x
x
( ) =
C
xy xy
M x
x
( )
T
y
y
( ) [ ] M x
x
( )
T
A x
x
( ) [ ] = =
C
xy xy
AC
xx
=

xy
0 =

xy
a
2

x
2
= y ax b + =

y
2
a
2

x
2
=
y
a
x
=

xy

xy
def. ( )

xy

y
----------- = =

xy
a
x
2

x
a
y
---------------- 1 t = =

xy
0

y
---------- 0 = =

xy
0 =

xy
LA VARIABILE CASUALE A n DIMENSIONI
48
invariante in modulo per trasformazioni lineari, cio non cambia se cam-
biano linearmente le unit di misura di x e y.
se x e y sono variabili indipendenti ; se al contrario sono linear-
mente dipendenti, assume valore ; +1 per a > 0, e 1 per a < 0, si
ha cio .
Fig. 7.7 Variabili incorrelate ma non indipendenti.
Si pu dimostrare che per una variabile doppia non ordinata vale:
7.63
7.8 PROPRIET DELLE VARIABILI NORMALI AD n-DIMENSIONI
Ricordiamo l'espressione 7.26b della variabile normale n-dimensionale con:
7.64
cio:
7.65
Supponiamo ancora di eseguire una trasformazione lineare del tipo 7.23: y = Ax + b
ma ora ipotizziamo che la matrice A possa essere scritta in questo modo:
7.66
con U matrice ortogonale e
1/2
matrice diagonale. Ricordando la 7.29 si ha:
7.67

xy
0 =

xy
1 t =

xy

x
t
y
=
Y
0 X

xy
=
0

xy
N x
i
y
i
x
i
y
i

N x
i
2

x
i
,
_
2
N y
i
2

y
i
,
_
2

--------------------------------------------------------------------------------------------------------- =
M x [ ] 0 =
C
x
i
x
i
diag
x
i
2
( ) 1 = =
C
x
i
x
k
0 =
C
xx
I =
A
1 2
U =
f
y
y ( )
1
2
n 2
U
--------------------------- e
1
2
---- y b ( )
T
UU
T
( )
1
y b ( )
=
LA VARIABILE CASUALE A n DIMENSIONI
49
Ora, ricordando la 7.56 che esprime la forma di una qualsiasi matrice regolare simme-
trica possiamo sfruttare il risultato a ritroso per standardizzare la variabile casuale y.
La trasformazione inversa sar dunque:
7.68
Questa operazione si chiama appunto standardizzazione della variabile casuale y, la
quale ha media e matrice di varianza covarianza
Per dichiarare che y appartiene ad una distribuzione normale con tali medie e
varianze si scrive:
Vediamo due propriet delle variabili casuali normali:
1. Il concetto di correlazione ed indipendenza stocastica si equivalgono.
2. Tutte le trasformazioni lineari trasformano variabili normali in variabili
normali; cio se:
e se:
allora, ammesso che e che il rango di A sia pieno, :
.
Si osserva che la variabile:
7.69
una variabile casuale a n gradi di libert; ci consente di trovare attorno al vet-
tore media una regione simmetrica nella quale sia contenuta una pressata
probabilit cio:
I valori pi usati sono p = 50 %, p = 90 %.
La regione:
7.70
risulta essere un iper-ellissoide. Per n = m = 2 ad esempio, si noti che:
e dunque:
x
1 2
U
T
y b ( ) C
yy
1 2
y b ( ) = =

y
b = C
yy
y N b,C
yy
[ ] =
x N
x
,C
xx
[ ] =
y Ax b + =
m n r A ( ) m =
y N A
x
b; AC
xx
A
T
+ [ ] =
x ( )
T
C
x x
1
x ( ) z
T
z z
i
2
i 1 =
n


n
2
= = =

n
2

x
l R
n

P p =
P x ( )
T
C
xx
1
x ( )
n
2
[ ] p =
x ( )
T
C
xx
1
x ( )

n
2

det C
xx
( )
x
2

y
2

xy

x
2

y
2

x
2

y
2

x
2

y
2
1
2
( ) = = =
LA VARIABILE CASUALE A n DIMENSIONI
50
essendo:
Fig. 7.8 Uso della variabile .
7.71
Si nota con facilit che la 7.71 un'ellisse, nel caso in cui = 0 e
xy
= 0 ed ha cen-
tro in .
Dalla 7.71 si nota pure che per una opportuna rotazione di assi l'ellisse ha equa-
zione del tipo:
in tal caso
xy
= 0. Cerchiamo dunque questa rotazione.
Sia (u, v) una variabile normale doppia con matrice di dispersione C
uv
= C:
Vogliamo trovare, se possibile, dopo una rotazione degli assi nel piano (u, v), una
nuova variabile normale doppia le cui componenti siano incorrelate (
xy
= 0).
La trasformazione sar in genere la rotazione del tipo:
C
xx
1
1
1
2

--------------
1

x
2
------

xy

x
2

y
2
-------------

xy

x
2

y
2
-------------
1

y
2
------
,




_
=

xy

x

y
=

f
0
p
f ( )
2

2
n

2
P
n
2

n
2
( ) p =
x
x
( )
2

x
2
--------------------
2 x
x
( ) y
y
( )
xy

x
2

y
2
------------------------------------------------
y
y
( )
2

y
2
--------------------- +

2
1
2
( ) =

x

y
, ( )
t ( )
2
a
2
-----------------
u ( )
2
b
2
------------------- +

2
2
=
C

u
2

uv

uv

v
2
,

_
=
x
y
,
_
cos sin
sin cos
,
_
u
v
,
_
; =
x
y
,
_
R
u
v
,
_
=
LA VARIABILE CASUALE A n DIMENSIONI
51
Si avr, applicando la legge della propagazione della varianza:
e, sviluppando i prodotti si ottiene:
7.72
7.73
imponendo
xy
= 0, e utilizzando le formule:
ricaviamo:
7.74
Ricavata la rotazione si sostituisce nelle 7.72 e 7.73 e si ricavano i valori
x
,
y
.
Si dimostra che questi valori sono rispettivamente i valori di massimo e di
minimo
2
, e si indicano perci rispettivamente con
I
,
II
.
Tali valori si chiamano semiassi principali dell'ellisse d'errore, o dell'ellissoide od iper-
ellissoide nel caso in cui fossimo nello spazio a pi di due dimensioni.
Estendendo il risultato ad n-dimensioni si pu infatti ancora dimostrare che pos-
sibile trovare una matrice di rotazione U tale che attraverso il cambiamento di
variabile dovuto alla matrice U:
Per ulteriori approfondimenti si veda lappendice A. Per una variabile bidimensio-
nale, nellipotesi semplicativa
x
=
y
=0 la 7.70 diviene:
Anche questa curva rappresenta unellisse. I semiassi principali sono rappresentati
dagli autovalori della matrice C
xx
(non di ) che ricaviamo da:
C
xy

x
2
0
0
y
2
,

_
RC
uv
R
T
= =

x
2

u
2
cos
2
2
uv
sin cos
v
2
sin
2
+ =

y
2

u
2
sin
2
2
uv
cos sin
v
2
cos
2
+ + =

xy

u
2

v
2
( ) sin cos
uv
cos
2
sin
2
( ) + =
sin cos
2 sin
2
-------------- =
2 cos cos
2
sin
2
( ) =
tg2
2
uv

v
2

u
2

------------------
,
_
=
y Ux =
C
yy
diag c
ii
( ) =
x y ( )

x
2

xy

xy

y
2
,

_ x
y
,
_
cost =
C
xx
1
C I 0 =
LA VARIABILE CASUALE A n DIMENSIONI
52
cio:
ricaviamo
1
e
2
(
I
e

II
):
7.75a
cio:
7.75b
In alternativa, ricavando in funzione di ricavato con la 7.74 si ottiene:
7.75c
Linclinazione data dagli autovettori che rappresentano i coseni direttori degli assi
principali. Basta sostituire i valori di e normalizzare:
7.9 SUCCESSIONI DI VARIABILI CASUALI
Sia una successione di variabili casuali. Si dice che tende stocastica-
mente a zero per se:
Ci signica che tende alla variabile casuale x concentrata nell'origine
(P(x = 0) = 1).
Usando il teorema di Tchebjcheff si pu cos dimostrare che:
Condizione sufciente afnch converga stocasticamente a zero che:
7.76
7.77

x
2

xy

xy

y
2

0 =

x
2
( )
y
2
( )
xy
2
0 =
x
2

y
2

2

x
2

y
2
+ ( )
xy
2
+ 0 =

I II ,

1 2 ,

x
2

y
2
+
2
------------------
1
2
---
x
2

y
2
+ ( )
2
4
x
2

y
2

xy
2
( ) t = =

I II ,

1 2 ,

x
2

y
2
+
2
------------------
1
2
---
x
2

y
2
( )
2
4
xy
2
+ t = =
2 sin tg2

I II ,

1 2 ,
1
2
---
x
2

y
2
+ ( )
xy
2 sin t = =
v

x
2

1
;
xy

xy
;
y
2

1 = =

xy
2

y
2

2
( )
2
+ [ ]
1 2
1 =
x
n
{ } x
n
{ }
n
P x
n
< ( )
n
lim 1 = 0 >
x
n
{ }
x
n
{ }
M x
n
[ ]
n
lim 0 =

2
x
n
[ ]
n
lim 0 =
LA VARIABILE CASUALE A n DIMENSIONI
53
Diremo poi che converge stocasticamente a se converge stocasti-
camente a zero.
7.10 CONVERGENZA IN LEGGE
Oltre alla convergenza stocastica della successione di vc ad si pu denire
una convergenza in legge:
Si dice che tende ad in legge se, essendo la successione
delle funzioni di distribuzione di ed la funzione di distribuzione di
si ha:
7.78
Questo tipo di convergenza serve per studiare il comportamento asintotico di
somme di variabili casuali del tipo:
7.79
Si pu dimostrare infatti che sotto opportune ipotesi sulla successione delle la
successione tende asintoticamente in legge ad una distribuzione normale.
7.11 TEOREMA CENTRALE DELLA STATISTICA
Teorema
Sia una successione di variabili casuali indipendenti, tutte con la stessa
distribuzione e con:
Allora la successione:
tende asintoticamente in legge (si indica con il simbolo ~) alla normale del tipo:
7.80
distribuzione delle .
Prima osservazione al teorema centrale della statistica
Il teorema interpreta un fatto riconosciuto sperimentalmente gli errori di misura
tendono a distribuirsi normalmente quando il procedimento di misura usato al
limite della sua precisione massima.
Gli errori di misura cio dipendono da una serie di fattori ambientali, strumentali e
x
n
{ } x x
n
{ }
x
n
{ } x
x
n
{ } x F
n
x ( ) { }
x
n
{ } F x ( )
x
F
n
x ( )
n
lim F x ( ) =
S
n
x
i
per n
i 1 =
n

=
x
i
{ }
S
n
{ }
x
i
{ }
M x
i
[ ] ; =
2
x
i
( )
2
=
S
n
x
i
i 1 =
n

=
S
n
N n , n
2
[ ]
x
i
{ }
LA VARIABILE CASUALE A n DIMENSIONI
54
soggettivi che hanno, ciascuno isolatamente, inuenza impercettibile sul procedi-
mento di misura ( ), ciascuno di questi fattori assume anche perci
l'aspetto di una vc indipendente dalle altre (umidit, pressione, temperatura,
luminosit ecc.).
Tutti questi fattori assieme producono tuttavia un effetto sensibile: l'errore di
misura, che sar descritto dalla vc somma di molte altre. Per il teorema centrale
l'errore di misura tende ad essere distribuito normalmente .
Seconda osservazione al teorema centrale della statistica
Il teorema meno teorico di quanto possa apparire perch permette di usare la nor-
male N come distribuzione approssimata di quantit importanti come il valore
medio m (media campionaria).
Sia x una vc comunque distribuita e sia la vc n-dimensionale gene-
rata pensando di ripetere n estrazioni dalla vc x. La descrive i cam-
pioni di numerosit n della x. La media campionaria vale:
Nell'ipotesi che, per ciascun x
i
:
sar dunque:
Se supponiamo che il campione sia numeroso (n grande) possiamo applicare ad m
il teorema centrale e dire che distribuzione iniziale di x, m tender asintotica-
mente in legge a:
7.81
Si noti che, se si volesse ricavare la distribuzione esatta di m cio di , si
dovrebbero calcolare n integrali di convoluzione seguenti (infatti le x
i
sono indi-
pendenti):
nel caso particolare, siccome si dovrebbero calcolare n
integrali di convoluzione di f (x) con se stessa.
0
2
, 0
N n n
2
, [ ]
x
1
x
2
x
n
, , , { }
x
1
x
2
x
n
, , , { }
m
1
n
--- x
i
i 1 =
n

x
i
n
---- con
x
i
n
--- v.c. indipendenti
i 1 =
n

= =
M x
i
[ ] ; =
2
x
i
( )
2
=
M
x
i
n
---

n
---; =
2
x
i
n
---
,
_

2
n
2
----- =
m N n

n
---, n

2
n
2
------ N ,

2
n
2
------- =
1
n
--- x
i
i 1 =
n

f m ( ) f
x
1
x
1
( ) f
x
2
x
2
( ) f
x
n
x
n
( ) x
1
d x
n
d

=
f
x
i
x
i
( ) f
x
j
x
j
( ) f x ( ) = =
LA VARIABILE CASUALE A n DIMENSIONI
55
anche matematicamente possibile dimostrare il teorema, infatti, presa una qualsi-
asi f (x) di partenza, l'integrale di convoluzione di f (x) con se stessa tende, per n
grande, alla funzione di Gauss.
Si noti che la 7.81 giustica il fatto che come valore rappresentativo della popola-
zione si scelga la media campionaria: rispetto ad una qualsiasi x
i
ha varianza n
volte minore.
7.12 LE STATISTICHE CAMPIONARIE E I CAMPIONI BERNOULLIANI
Deniamo campione Bernoulliano, tratto da una vc x (che descrive l'esperimento
stocastico ), l'insieme dei risultati ottenuti dalla ripetizione per n volte in maniera
indipendente dello stesso esperimento (esempio: l'estrazione da un'urna con sos-
tituzione).
Osservazione
Lo stesso campione Bernoulliano, per l'indipendenza, pu essere visto alternativa-
mente o come risultato di n estrazioni dalla vc x o come estrazione da una vc a n-
dimensioni (x
1
x
n
)

tutte indipendenti e tutte distribuite come x. (Esempio: il
lancio di una moneta n volte e il lancio di n monete una sola volta).
Se x ha densit di probabilit la ha densit:
7.82
per l'ipotesi di indipendenza.
Denizione di statistica campionaria
La statistica campionaria t un () operatore statistico applicato a una variabile
campionaria.
Ad esempio:
7.83
t pu essere la media campionaria, la varianza campionaria, il momento di ordine m cam-
pionario, la correlazione campionaria, ecc.
Tutto ci signica che t sar a sua volta una vc (a una dimensione) funzione della vc
n-dimensionale .
Ad esempio se t l'operatore media m:
t
0
rappresenta l'estrazione dalla statistica campionaria t .
f
x
x ( ) x
n
f
xn
f
xn
x
1
x
n
( ) f
x
x
1
( ) f
x
x
2
( )f
x
x
n
( ) = =
t t x
1
,x
2
, x
n
, ( ); =
x
n
m
1
n
--- x
i
i 1 =
n

t
0
= =
LA VARIABILE CASUALE A n DIMENSIONI
56
7.13 LE STATISTICHE CAMPIONARIE COME STIME DELLE CORRISPONDENTI
QUANTIT TEORICHE DELLE VARIABILI CASUALI
Qual il rapporto tra la vc statistica campionaria t, di cui disponiamo di una estra-
zione t
0
ed il valore teorico () del parametro corrispondente a t ? Ad esempio a m
x
corrisponde
x
, ad corrisponde ; quale rapporto esiste fra questi valori? Il
rapporto viene detto stima.
Ad esempio si dice che m stima di , od anche stima di se corretta e
consistente. Vediamo che signicano questi aggettivi.
Stima corretta o non deviata
Si dice che la stima corretta quando la variabile casuale t ammette come media
teorica :
7.84
Stima consistente
Si ha quando per la corrispondente successione di variabili casuali t
n
tende
stocasticamente a , cio:
7.85
Per il teorema centrale della statistica ci vericato se:
Stima efciente
In molti casi esiste pi di una stima corretta e consistente di , allora si cerca quella
stima t pi concentrata attorno a cio una stima efciente, denita come la stima
t di di minima varianza.
Stima di massima verosimiglianza
Vi inne la stima di massima verosimiglianza che consiste nel trovare quell'opera-
tore t che rende massima una funzione L detta di verosimiglianza.
Come esempio ed esercizio vediamo se la media campionaria m pu essere presa
come stima della quantit teorica .
La media campionaria m una stima corretta e consistente della media teorica
della vc , infatti soddisfa a:
correttezza
s
2

2
s
2

2
M t [ ] M t x
1
x
n
( ) [ ] = =
n
t
n
=
n
lim
7.86
7.87
M t
n
[ ] =
n
lim

2
t
n
[ ] 0 =
n
lim

'

x
M m [ ] M
1
n
--- x
i
1
n
--- M

x
i
[ ]
1
n
---n = = = = i 1n = ( )
LA VARIABILE CASUALE A n DIMENSIONI
57
consistenza: per quanto visto la 7.86 facilmente provata,
7.88
Per provare la 7.87 si pu scrivere:
Per la propagazione della varianza ricaviamo:
ed allora facile vedere che:
7.89
Si pu vericare che tutte le stime lineari tali che sono
stime corrette di ma m quella di minima varianza (cio efciente).
Cerchiamo infatti il minimo della quantit:
con la condizione:
Questo un problema di minimo condizionato che si risolve con i moltiplicatori di
Lagrange minimizzando la funzione:
Il differenziale totale di dovr annullarsi:
Dunque si sceglie come valore rappresentativo di tutta la popolazione di misure la
media campionaria non solo perch ha varianza n volte minore rispetto alla
varianza di ciascun campione, ma anche perch ha la minima varianza.
Come ulteriore esempio vediamo se la varianza campionaria una stima di :
dove m la media campionaria.
M m [ ] =
n
lim
m
x
i
n
---

2
m ( )
1
n
2
-----
2
x
i
( )

n
2
n
2
---------

2
n
------ = = =

2
m ( ) 0 =
n
lim C.V.D.
m'
i
x
i
=
i
1 =

2
m' ( )
i
2

i
1 =

i
2


i
( ) 1 ( ) k + min = =

i
-------- 0 = 2
2

i
k + 0 =
i
k
2
2
--------- =

i
nk
2
2
--------- 1 k
2
2
n
--------- = = =

i
1
n
--- = m' m = C.V.D.
s
2

2
s
2
1
n
--- x
i
m ( )
2

v
i
2

n
------------ = =
LA VARIABILE CASUALE A n DIMENSIONI
58
Verichiamo la correttezza, se cio:
scriviamo in questo modo:
7.90
Applichiamo alla 7.89 l'operatore media:
per denizione:
inoltre:
7.91
Cio la stima non corretta. Si dimostra che invece corretta la stima delloperatore
( ) denita da:
7.92
ed consistente; infatti facile vericare che:
7.14 FUNZIONE DI VEROSIMIGLIANZA E PRINCIPIO DI MASSIMA VEROSIMIGLIANZA
Partiamo al solito dalla vc n-dimensionale x descritta dalla funzione
secondo la forma 7.82 ma ora anche in funzione di operatori statistici , ad esem-
pio , cio esprimiamo la funzione f attraverso:
M s
2
[ ]
2
=
s
2
s
2
1
n
--- x
i
( ) m ( ) + [ ]
2

= =
1
n
--- x
i
( )
2

2
n
--- x
i
( )

m ( ) m ( )
2
[ ] = + + =
1
n
--- x
i
( )
2

2 m ( ) m ( ) m ( )
2
+ + =
s
2
1
n
--- x
i
( )
2

m ( )
2
=
M s
2
[ ]
1
n
--- M x
i
( )
2
[ ] M m ( )
2
[ ]

=
M x
i
( )
2
[ ]
2
=
M m ( )
2
[ ]
2
m ( )

2
n
----- = =
M s
2
[ ]
1
n
---
/
/
n
2

2
n
-----
n 1
n
------------
2

2
= =
s
2
M s
2
[ ]
2
=
s
2
x
i
m ( )
2

n 1 ( )
---------------------------- =

2
s
2
( )
n
n 1
------------
,
_
2

2
s
2
( ) =
n
lim 0 =
f
x
x
1
x
n
( )

2
, [ ]
T
=
f
x
x
i
, ( )
LA VARIABILE CASUALE A n DIMENSIONI
59
per le ipotesi di indipendenza delle n variabili x
i
, ricordando ancora la 7.82:
7.93
Il secondo uguale denisce la funzione L detta di verosimiglianza (likely hood).
evidente che nulla abbiamo detto sul generico ; un criterio di scelta prendere
un valore generico t e cercare di rendere massima L(x
i
,) vericando che sia mas-
sima per =t , cio cercare:
7.94
cio, per la 7.93:
7.95
Ad esempio per la variabile normale standardizzata z
n
:
7.96
si ha in questo caso:
Il valore massimo di L si ha cercando il minimo dell'esponente:
7.97
con , variabile scarto. In questo caso il principio di massima verosimiglianza porta
alla stima di minima varianza e cio alla ricerca di uno stimatore efciente.
Per variabili normali non standardizzate, ricordando la 7.67 e la 7.69 occorre ren-
dere minima la quantit:
7.98
La 7.98 spesso viene scritta utilizzando un'altra matrice denita matrice dei pesi P,
( una costante positiva):
7.99
questo il principio dei minimi quadrati che, nel caso in cui P sia una matrice diago-
nale, pu essere scritto nella forma:
7.100
f
x
x
i
, ( ) f
x
x
i
, ( )
i 1 =
n

L x
i
, ( ) = =
t / max L x
i
, ( )
t =
L

------- 0
L ( ) log

------------------ 0 = =
f x
i
, ( )

---------------------
i 1 =
n

0 =
L f
x
f
x
x
i
( )

1
2
2
( )
n 2
------------------------- e
x
i

i
( )
2

2
2
--------------------------------
= = =
,
2
[ ]
T
=

1
2
2
--------- + x
i

i
( )
2
i 1 =
n

1
2
2
--------- v
T
v min = =

n
2
x ( )
T
C
xx
1
x ( ) v
T
C
xx
1
v min = = =

0
2
P C
xx
1

0
2
=
p
i
v
i
2
i 1 =
n

min
0
2

n
2
= =
LA VARIABILE CASUALE A n DIMENSIONI
60
Dobbiamo tuttavia affermare che la stima di minima varianza, che coincide con
quella di massima verosimiglianza per variabili normali e che porta al principio dei
minimi quadrati, prescinde da ipotesi sulla distribuzione delle misure.
7.15 LA MEDIA PONDERATA (O PESATA)
Poniamo di eseguire n misure di una v.c x, fatte con diversa precisione ma indipen-
denti tra loro; ciascuna x
i
pu considerarsi come estrazione da popolazioni con
diverse varianze ma con la stessa media
x
. Ci si chiede quale la
stima pi attendibile del valore medio di x. Avevamo vericato per la media cam-
pionaria che tutte le stime del tipo:
7.101
sono corrette, d'altra parte non possiamo usare i valori perch il risul-
tato non sar stima di minima varianza; dovremmo, intuitivamente, pesare di pi le
x
i
con
i
minore.
Anche qui cerchiamo uno stimatore che sia stima efciente, e troviamo il
minimo condizionato attraverso i moltiplicatori di Lagrange:
7.102
e minimizziamo la funzione:
ricaviamo:
7.103
Come per la 7.99, presa una seconda costante positiva, , viene denito peso il
valore:
7.104
cosicch la 7.103 pu scriversi:
ma, imponendo la seconda delle 7.102, si ricava k:

2
x
i
( )
i
2
=
x
i
x
i
=

i
1 n =
x

2
x ( )
i
2

i
2

min = =

i
1 =

'


i
2

i
2

k
i
1 [ ] =

i
-------- 0 2
i

i
2
k 0 = =

i
k
2
---
1

i
2
------- =

0
2
p
i

0
2

i
2
------- =

i
k
2
---
p
i

0
2
------- =
k
2
0
2
p
i
----------- =
LA VARIABILE CASUALE A n DIMENSIONI
61
per cui la 7.103 pu essere riscritta:
7.105
dunque la 7.101 diviene:
7.106
Si nota pure che il minimo cercato nella stima di vale:
7.107
Se non si conoscono i valori ma si conoscono solo i pesi p
i
e (dalla 7.106), la
7.107 non direttamente utilizzabile. Dopo il calcolo di , si dimostra che:
7.108
7.109

0
2
p
i
-----------
p
i

0
2
------
p
i
p
i
----------- = =
x
p
i
x
i
p
i
---------------- =

2
x ( )

2
x ( ) min
i

i
2

p
i
2

i
2

p
i
( )
2
------------------ = = =

i
2
x
x

0
2
1
n 1
------------ p
i
x
i
x ( )
2

p
i
v
i
2

n 1
----------------- = =

2
x ( )
0
2

1
p
i
------------
p
i
v
i
2

n 1 ( ) p
i
----------------------------- = =
62

8. APPLICAZIONI DEL PRINCIPIO DEI MINIMI QUADRATI
AL TRATTAMENTO DELLE OSSERVAZIONI

Fig. 8.1

Prendiamo in esame la variabile casuale tridimensionale che rap-
presenta le misure che possono essere fatte su un esperimento E

del quale si conosca
gi un

modello sico

, lineare del tipo:

8.1

che rappresenta l'equazione di un piano nello spazio detto

piano delle misure ammis-
sibili

. Sia ad esempio E

l'esperimento la misura dei tre angoli di un triangolo piano:
la somma di questi deve essere uguale a


.
Facciamo poi l'ipotesi che le misure abbiano distribuzione normale (ipotesi non
indispensabile), media diversa da zero e varianza unitaria, vale a dire:

8.2

Queste ipotesi vengono denite

modello stocastico

.

Y
2
Y
3
Y
1
0
v
y
y
<
<
y
0
a
1
y
1
+

a y
2
+
2
a

y
3
= d
3
y y
1
y
2
y
3
, , ( ) =
a
1
y
1
a
2
y
2
a
3
y
3
d = + +
y
y N
y
, I [ ] =
APPLICAZIONE



DEL



PRINCIPIO



DEI



MINIMI



QUADRATI
63

Della variabile casuale si conosce una estrazione, la misura che, a causa della
dispersione di non detto soddis la

8.1

. A causa di errori accidentali infatti
fuori da questo piano ad una distanza . In genere cio si ha:

8.3

tuttavia, siccome estratto dalla stessa variabile casuale , il suo valore medio
sar identico al valore medio di

y

:

8.4

Ora noi cerchiamo una stima di (il simbolo sta per stima di massima
verosimiglianza) che sia la pi vicina possibile a ma che appartenga ancora ai
valori ammissibili del piano



; in questo caso intuitivo scegliere per la normale
a


condotta da , cio:

8.5

tale che renda minimo lo scalare distanza al quadrato:

8.6

Vedremo ora se questa equazione sufciente a risolvere il problema, si tratta cio
di ricavare e le caratteristiche della dispersione di a partire dalle ipotesi stoca-
stiche su

y



8.2

, dal modello geometrico

8.1

e dalle condizioni di stima

8.6

. Nel caso
in cui la

8.6

si modica nella gi nota equazione di minimi quadrati:

8.7

Il principio dei minimi quadrati, che coincide con il principio di massima verosi-
miglianza nel caso di distribuzione normale, conduce a trovare uno stimatore ef-
ciente di minima norma: la distanza al quadrato

8.7

si chiama infatti

norma
quadratica

del vettore . Il minimo di detta norma rimane tale, come dimostrato e
come ovvio, anche per trasformazioni lineari del sistema di riferimento. Che la

8.7

esprima poi una distanza evidente; partendo infatti da variabili casuali

x

con
, il minimo della distanza quadratica vale appunto:

8.8

scegliendo una qualsiasi matrice di rotazione per cui:
si arriva alla:

8.9

che appunto un altro modo di vedere la formula

8.7

.
y y
0
y y
0
v

a
1
y
01
a
2
y
02
a
3
y
03
d u 0 = + +
y
0
y
M y
0
[ ] y =
y

y y

y
0
y

y
0
y y
0
v

=
d
2
v

T
v

y
0
y ( )
T
y
0
y ( ) min = = =
y y
C
yy
I
d
2
y
0
y ( )
T
C
yy
1
y
0
y ( ) min = =
v

C
xx
I =
x
0
x ( )
T
x
0
x ( ) min =
y
0
y ( ) R
1
x
0
x ( ) =
d
2
min y
0
y ( )
T
R
T
R
1
y
0
y ( ) = =
APPLICAZIONE



DEL



PRINCIPIO



DEI



MINIMI



QUADRATI
64

8.1 I

MINIMI



QUADRATI



APPLICATI



AD



EQUAZIONI



DI



CONDIZIONE



CON



MODELLO



LINEARE

Vediamo se esiste una soluzione all'equazione

8.7

. Per le ipotesi di minimo la
soluzione cercata sar la stessa a meno di una costante moltiplicativa .
possibile allora cercare questo minimo anche partendo dalla conoscenza della
matrice P che, a meno di una costante moltiplicativa proporzionale a C

yy:

8.10

P denita matrice dei pesi. Si cerca ora il minimo della quantit scalare:

8.11

col modello stocastico denito da:

8.12

e le equazioni di condizione, generalizzazione delle

8.1:

1

8.13

Si desidera ricavare la stima delle quantit:
(Il simbolo indica: stima di). Per la ricerca del minimo condizionato si utiliz-
zano i moltiplicatori di Lagrange prendendo come funzione obiettivo la funzione


costruita con le

8.11

e 8.13:
8.14
con:
8.15
dove l il numero di condizioni ed m il numero di misure.
Imponendo la stazionariet della funzione si ha:
1
Ad esempio, nel caso della misura di angoli interni di un triangolo, si provi a risolvere come segue
il problema nell'ipotesi di avere le misure:
.
y
1
0
2

0
2
1

0
2
------C
yy
Q P
1
= = P
0
2
C
yy
1
=
y
0
y ( )P y
0
y ( ) min =
P Q
1

0
2
C
yy
1

0
2
diag
y i
2
( )
1
= = =
l m
Dy d =
y
0
1
60 gon y
0
2
; 70 gon y
0
3
70.003 gon con
y
2
; = ; cost 10
3
gon t = = = =
y y

0
2


0
2

C
y y
C
yy

'

1
2
--- y
0
y ( )
T
P y
0
y ( ) Dy d ( ) + =

1
,
2
, ,
l
( ) l m =
d 0 dy
T
P y
0
y ( ) dy
T
D
T
0 dy
T
= + = =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
65
cio:
8.16
8.17
che posta nella 8.13 permette di ricavare:
Se deniamo le matrici:
8.18
ed il vettore:
8.19
dove U sono deniti errori di chiusura, si ha:
Quest'ultima, posta nella 8.17 permette di ricavare :
8.20
Si dimostra poi che la stima di vale:
8.21
Esempio applicativo: anello di livellazione
Si sono misurati i tre dislivelli di un anello di tre lati, attraverso una
livellazione geometrica. Si sa che in questo caso:
dove una costante e D la distanza percorsa fra i punti espressa in km. Si sa che
i dislivelli debbono soddisfare all'equazione:
P y
0
y ( ) D
T
=
y y
0
P
1
D
T
=
D y
0
P
1
D ( ) d 0 =
Dy
0
DP
1
D
T
d 0 =
K DP
1
= D
T
U Dy
0
= d
K Dy
0
d ( ); K
1
Dy
0
d ( ) = =
y
y y
0
P
1
D
T
K
1
U =

0
2

0
2
U
T
K
1
U
l
--------------------- =

12
0
;
23
0
;
13
0
,


D t =

12

23

13
0 = +
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
66
Fig. 8.2 Anello di livellazione.
Applicando le formule risolutive ricavate nell'esempio proposto si ha:
Per semplicit, nel calcolo della matrice dei pesi, possiamo trascurare la costante
e porre:
Applicando la 8.18 si ha:
e cio in denitiva:
ed applicando la 8.20 si ha:
Si ricava inne la soluzione:

1 2
1 3
2 3
1
2
3
D 1 1 1 ( ) =
C
yy
1

0
2
diag
1
D
12
--------;
1
D
23
--------;
1
D
31
--------
,
_
=

0
2
Q P
1
diag D
12
; D
23
; D
31
( ) = =
K 1, 1, 1 ( )diag D
12
; D
23
; D
31
( ) 1, 1, 1 ( )
T
=
K D
ij
=
U Dy
0
d
12
0

23
0

13
0
+ ( ) = =
y
12

,
23

,
13

( )
T
diag D
12
, D
23
, D
31
( )
1
1
1
,


_
K
1

12

23

13

+ ( ) =
y
1

12


12

D
12
U
D
ij
-------------- = =
y
2

23


23

D
23
U
D
ij
-------------- = =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
67
Si ottiene dunque quanto intuitivamente si poteva gi capire: che cio l'errore di
chiusura U si ripartisce in tre parti, proporzionali secondo la formula della media
ponderata, con pesi , che sono le distanze fra i capisaldi altimetrici delle reti.
8.2 MINIMI QUADRATI, FORMULE RISOLUTIVE NEL CASO DELL'UTILIZZO DI
PARAMETRI AGGIUNTIVI
Sia dato un modello stocastico denito dai valori osservati (campione
m-dimensionale):
che ipotizziamo abbia media:
8.22a
e dispersione:
8.22b
con costante positiva incognita e Q (o P) matrice nota e denita positiva.
Per ipotesi il modello deterministico ancora lineare.
Per motivi sici o geometrici ipotizziamo che y sia ristretto a stare su un iperpiano
(variet lineare) a n-dimensioni con n<m, del tipo:
8.23
con r (A) = n, vale a dire risulta di rango n
1
pieno e invertibile.
Le dimensioni di ed , (che brevemente in seguito indicheremo senza sottoli-
neature) sono:
8.24
Le componenti di x sono dette parametri aggiuntivi, o pi spesso solo parametri.
In funzione delle misure y
0
estratte da y si vogliono trovare le stime e di
minima varianza:
y
3

13


13

D
13
U
D
ij
-------------- = =
D
ij
y
0
y
01

y
0m
,


_
tratto da y
y
1

y
m
,


_
= =
M y [ ] y =
C
yy

0
2
Q
0
2
P
1
= =

0
2
y A x a + =
A
T
A
x a
x
x
1

x
n
,


_
; a
a
1

a
m
,


_
= =
y
0
2

y y

0
2


0
2

'

APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI


68
e la relativa matrice di varianza covarianza . Occorre trovare, ricordando la 8.5:
8.25
con le (m- n) condizioni aggiuntive: , cio:
8.26
Come altrove si notato, la 8.25 rappresenta il minimo di una distanza generaliz-
zata secondo la metrica P, mentre la 8.26 esprime il fatto che alle variabili
casuali y sono legati n parametri aggiuntivi che dipendono nel modo lineare
8.26 dalle misure .
Anche qui il problema si risolve con i moltiplicatori di Lagrange, si cerca il minimo
condizionato della funzione :
8.27
con:
8.28
si ha:
Annullando i termini che moltiplicano i due differenziali si devono soddisfare le
equazioni:
8.29
8.30
Da quest'ultima si ottiene, essendo la matrice P denita positiva:
ma, ricordando anche la 8.26:
allora:
che, sostituita nella 8.29 permette di scrivere:
cio:
8.31a
e, dalla 8.26 si pu ricavare .
C
yy
min y
0
y ( )
T
P y
0
y ( ) min v
T
P v min

m-n
2
= =
y
y A x a + =
x
y
x y , ( )
x y , ( )
1
2
--- y
0
y ( )
T
P y
0
y ( ) y A x a ( ) min = + =

1

m
( )
T
; n m < =
d dy
T
P y
0
y ( ) d x
T
d x
T
A
T
0 = + =
A
T
0 =
P y
0
y ( ) 0 = +
y y
0
P
1
=
P
1
y
0
A x a =
P y
0
a ( ) PA x =
A
T
P y
0
a ( ) A
T
PA x 0 =
x A
T
PA ( )
1
A
T
P y
0
a ( ) =
y
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
69
Denito poi vettore dei termini noti l :
8.32
e denita matrice normale N:
8.33
si pu anche scrivere:
8.31b
Inne si pu dimostrare che la stima di vale:
8.34
dove il numero intero:
8.35
viene detta ridondanza globale o ridondanza.
Lo scalare , (a parte la costante r), rappresenta dunque la distanza quadratica del
vettore nella metrica P o, in alternativa, il valore della 8.25.
Dalla 8.32 e dalla denizione di ricaviamo:
8.36
Si dimostra che la matrice di varianza covarianza dei parametri compensati vale:
8.37
possibile ricavare inoltre la matrice di varianza covarianza degli scarti, dopo la
compensazione:
8.38
Inne si pu dimostrare che la matrice:
8.39
8.40
una matrice di dimensione mm detta di ridondanza, contenente dei numeri puri ed
indipendente dal sistema di riferimento scelto. La propriet di questa matrice indi-
care il contributo che ogni singola misura apporta alla ridondanza globale r = m-n. Si
pu dimostrare infatti che:
8.41
y
0
a ( ) l =
N A
T
PA =
x N
1
A
T
Pl =

0
2


0
2

0
2

y
0
y ( )
T
P y
0
y ( )
m n
--------------------------------------------
v

T
P v

m n
------------- = =
r m n =

0
2

v

2
v

l A x =
C
x x

0
2

N
1
; =
C
v v

0
2

P
1
AN
1
A
T
[ ] =
R
1

0
2

------PC
v

=
R I PAN
1
A
T
=
tr R ( ) r
jj
m n ( ) r = =
l
m

=
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
70
con chiamato ridondanza locale dell'osservazione j . Osservando la 8.41 si nota
che possibile ricavare R senza aver eseguito le misure y
0
.
Similmente possiamo notare che anche altre formule gi ricavate non dipendono
dalle misure eseguite.
Pi in generale, nel caso in cui il problema sia il progetto di una rete topograca, si
possono ricavare a priori le precisioni dei parametri, la precisione delle misure dopo
la compensazione, il contributo delle stesse alla rigidit della rete. cio possibile
gi in fase di progetto della rete prevedere le precisioni nali, togliere le misure poco
signicative, o che potrebbero nascondere errori che pi facilmente sfuggono ai test
di controllo, migliorare inne l'afdabilit della rete.
Esempio applicativo
Compensiamo secondo il metodo dei parametri aggiuntivi la rete di livellazione
precedentemente vista (g. 8.2). Si sono misurati i dislivelli:
Si possono identicare i vettori:
Dei dislivelli, che possono ritenersi misurati in modo indipendente, si conoscono i
valori misurati con livellazione geometrica. Si conosce anche:
ove D la distanza fra i punti espressa in km; per queste ipotesi si potr porre:
che in questo caso diviene:
I parametri incogniti sono le quote dei tre vertici.
Se effettivamente decidessimo di mantenere come parametri incogniti tutte queste
tre quote troveremmo tuttavia ben presto una decienza di rango nella matrice nor-
male N. A cosa dovuta? Nel passaggio dallo spazio delle misure allo spazio dei
parametri dobbiamo considerare in questo caso che le prime, essendo invarianti
per traslazione, sono denite a meno di una traslazione del sistema di riferimento.
Nel caso dell'utilizzo dei parametri aggiuntivi coordinate in un problema ai
r
jj

12
Q
2
Q
1
=

23
Q
3
Q
2
=

13
Q
3
Q
1
=


y

12

23

13


' ;


; x
Q
2
Q
3
' ;

; y

12

23

13



' ;


; y
0

12
0

23
0

13
0


' ;


= = = =

12
0

23
0

13
0
, ,

i j
1mm D t =
P Q
1
diag

12
2
,

23
2
,

13
2
( )
1
= =
P 1mm ( )
2
diag
1
D
12
---------,
1
D
23
---------,
1
D
31
---------
,
_
=
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
71
minimi quadrati, occorre allora denire (anche arbitrariamente) questo sistema di
riferimento, detto datum, dal quale non dipendono le misure ma dipendono invece
i parametri aggiuntivi. Nel caso in esame ci si fa, senza perdere di generalit, s-
sando ad esempio la quota del punto 1 (ad esempio Q
1
= 0 m). In tal modo riman-
gono incognite solo le quote dei punti 2 e 3.
Nell'esempio proposto si ha n = 2 (numero dei parametri incogniti) ed m = 3
(numero di misure) per cui r = 1. La relazione 8.26 si scrive:
Si ha poi:
La matrice normale vale:
Sviluppando i calcoli si ottiene:
ed il vettore b, formato da due valori, risulta:
Ora si pu risolvere il sistema od invertire la matrice N e ricavare:
y

12

23

13



' ;

1 0
1 1
0 1


' ;


Q

2
Q
3
,

_
Q
1

0
Q
1

,


_
A x a + = + = =
y
0
a ( ) l

12
0

13
0

23
0

Q
1
+

Q
1
+
,


_
= =
A
T
PA N
1
0

1
1

0
1
,
_
diag D
ij
( )
1
1
1
0

0
1
1
,


_
= =
n
1
1
1
D
12
--------
1
D
23
-------- + =
n
12
n
21
1
D
23
--------- = =
n
2
2
1
D
23
--------
1
D
13
--------- + =
A
T
Pl b =
b
1
1
1
D
12
--------
12
Q
1
+ ( )
1
D
23
--------
23
=
b
2
1
1
D
23
---------
23
1
D
13
---------
13
+ =
x N
1
b =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
72
Si verica inoltre, (numericamente in questo caso pi facile), che la stima delle
misure:
la stessa ricavata con il metodo delle sole equazioni di condizione, visto per lo stesso
esempio.
Si ricavano inne gli scarti:
che permettono di calcolare la 8.34:
che, ancora, deve risultare identico al valore calcolabile con la 8.21.
8.3 MINIMI QUADRATI: EQUAZIONI DI CONDIZIONE E PARAMETRI AGGIUNTIVI
questo il caso misto che comprende i due precedentemente trattati.
Premettiamo subito che difcile poter applicare i risultati che si otterranno in
questo caso al calcolo automatico, a causa della quasi impossibile generalizzazione
del problema per scopi topograci; in programmazione questi problemi si risol-
vono secondo l'analisi ed i metodi risolutivi visti nel caso delle equazioni ai
parametri in quanto pi facile invece ricondurre questo caso al precedente.
Daremo tuttavia, per completezza, uno sguardo alla soluzione teorica del problema.
Sia:
il vettore dei parametri, funzione (lineare) delle m quantit osservate y, (ad esempio
le quote sono funzioni lineari dei dislivelli).
Le osservabili y sono legate da relazioni lineari contenenti n parametri aggiun-
tivi x ( ) secondo il modello:
8.42
dove le dimensioni coinvolte sono:
Al solito le ipotesi stocastiche su y sono:
y A N
1
b ( ) a + =
v

y
0
y
ij
0

ij
= =

0
2
v

T
Pv

3 2
------------ min = =
x
x
1

x
n
,


_
=
l
n l < m
Dy Ax d + =
m
l
,
_
1
m
,
_
n
l
,
_
1
n
,
_

1
l
,
_
=
y N
y
,
0
2
Q [ ] con M y
0
[ ]
y
, = =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
73
Il problema ricavare le stime:
8.43
secondo il modello sico
2
:
8.44
e inne secondo la condizione di stima:
Introduciamo i moltiplicatori e minimizziamo la funzione:
8.45
ricaviamo il differenziale:
che permette ancora di scrivere:
8.46
ma, ricordando la si ha:
e ricordando la denizione 8.18 di K:
8.47
che inserita nella ottiene:
ed allora:
8.48a
2
Intendendo per r() il rango del contenuto ().
y y
x x

0
2

0
2

C
yy
C
yy

C
x x

'

Dy Ax d; r D ( ) l ; r A ( ) n = = + =
y
0
y ( )P y
0
y ( ) min =

1

n
( ) =
x ; y ( ) y
0
y ( )
T
P y
0
y ( ) Dy Ax d ( )
T
+ =
d 2dy
T
P y
0
y ( ) dy
T
D
T
dx
T
A
T
0 = + =
P y
0
y ( ) D
T
2 0 = +
A
T
0 =
'

y y
0
P
1
D
T
2 =
Dy
0
DP
1
D
T
2 Ax d + =
2K
1
Dy
0
d ( ) 2K
1
A x =
A
T
0 =
A
T
K
1
Dy
0
d ( ) A
T
K
1
Ax 0 =
x A
T
K
1
A ( )
1
A
T
K
1
Dy
0
d ( ) =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
74
simile alla 8.31a. Chiamando infatti:
8.48b
Ricavato poi dalla 8.47:
per denizione di U:
8.49
si ha, usando la 8.46:
8.50
8.4 PROPRIET DELLE STIME ED , LORO DISPERSIONE
Le stime ed sono stime corrette di x ed y. Vediamo dapprima la ; ricordiamo che:
Consideriamo il valore medio di U e ricordiamo la 8.49 e la 8.45:
ed allora si ha:
CVD
Per la correttezza di partiamo considerando la 8.50:
8.51
Non si dimostra qui la consistenza, si ricorda invece che l'efcienza l'ipotesi, con
la quale ricavammo dette stime e dunque gi vericata.
Cerchiamo ora le matrici di varianza-covarianza delle stime. Chiamiamo con u
il vettore:
8.52
la 8.48b assume la forma:
8.53
Propagando la varianza attraverso la 8.52 si ha:
N A
T
K
1
A =
x N
1
A
T
K
1
Dy
0
d ( ) =
2 K
1
Dy
0
d Ax ( ) 2 K
1
U = =
U Dy
0
Ax d =
y y
0
P
1
D
T
K
1
U =
y x
y x x
Dy Ax d + =
M U [ ] Dy d Ax 0 = =
M x [ ] A
T
K
1
A ( )
1
A
T
K
1
DM y
0
[ ] d ( ) A
T
K
1
A ( )
1
A
T
K
1
Ax 0 = = =
y
M y [ ] M y
0
[ ] P
1
DK
1
M U [ ] M y
0
[ ] y CVD = = =
u Dy
0
d =
x A
T
K
1
A ( )
1
A
T
K
1
u Su = =
C
uu
DC
y
0
y
0
D
T

0
2
DQD
T

0
2
K = = =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
75
ed ancora propagando, usando stavolta la 8.53:
che semplicata ottiene:
8.54
Per ottenere la matrice si propaga la varianza a partire dalla 8.50; non si svolge qui il
calcolo abbastanza laborioso che permette di ricavare:
8.55
con:
8.56
dove l il numero di condizioni o vincoli, n il numero di parametri incogniti ed
m il numero di misure.
Riassumiamo qui le formule utilizzate nel caso di pure equazioni di condizione e di
pure equazioni parametriche utilizzando il risultato generale appena ricavato.
Pure equazioni di condizione
Pure equazioni parametriche
C
x x
SC
uu
S
T
A
T
K
1
A ( )
1
A
T
K
1

0
2
K K
1
A A
T
K
1
A ( )
1
= =
C
x x

0
2
A
T
K
1
A ( )
1

0
2
N
1
= =
C
yy

0
2
Q QD
T
K
1
K AN
1
A
T
[ ] K
1
DQ { } =

0
2
U
T
K
1
U
l n
--------------------- =
D B; A 0; K BQB
T
; U By
0
b = = = =
y y
0
QB
T
BQB
T
( )
1
By
0
b ( ) =
C
u u

0
2
K

0
2
BQB
T
= =

0
2
By
0
b ( )
T
K
1
By
0
b ( )
1 n
-------------------------------------------------------- =
C
v v

0
2
QB
T
K
1
BQ =
C
yy

0
2
Q C
v v
[ ] =
D I; K Q P
1
; N A
T
PA = = = =
U y
0
y ( ) v

; = =
x A
T
PA ( )
1
A
T
P y
0
d ( ); = l y
0
d =
y Ax d + =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
76
Si noti che:
8.57
Inne la matrice di ridondanza vale:
8.58
chiamando:
i pesi degli scarti dopo la compensazione.
Se P diagonale si ha:
8.59
Attraverso la 8.58 e lespressione della si ha:
8.60
8.5 IL PRINCIPIO DEI MINIMI QUADRATI IN CASI NON LINEARI
Premettiamo che in casi non lineari il metodo perde le propriet di ottimalit
descritte in precedenza e pu anche ammettere pi soluzioni.
Siano date equazioni, funzioni delle osservabili y e dei parametri x:
8.61
v

l Ax =

0
2
v
T
P
v
m n
------------- =
C
x x

0
2
N
1
; =
C
uu
C
v v

0
2
P
1
AN
1
A
T
[ ] = =
C
yy

0
2
A N
1
A
T
=
C
v v
C
yy
C
yy
=
R
1

0
2
------PC
v v
=
p
i


v
i
2

0
2
------- =
r
i
i
p
i
p
i

i
----- =
C
v v
R I PAN
1
A
T
=
l
g x,y ( )
g
1
x,y ( )
g
2
x,y ( )
:
.
g
1
x,y ( )



' ;



0 = =
con y l R
m
ed x l R
n

APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
77
Si cercano le stime , tali che , sotto la condizione
.
Supponiamo di conoscere i valori approssimati , e che, nell'intorno di detti
valori, g sia ben linearizzabile, dimodoch:
8.62
Linearizzando attorno ai valori approssimati si ottiene:
8.63
Chiamiamo con:
8.64
la matrice disegno calcolata nei valori ; con:
8.65
ed inne con:
8.66
Si arriva perci al sistema linearizzato:
8.67
notiamo che essendo:
si ha:
8.68
Si noti poi che:
e, posto:
si ha da soddisfare:
8.69
sotto la condizione 8.67.
x y y
0
y ( )
T
P y
0
y ( ) min =
g x , y ( ) 0 =
x y
y y + =
x x

+ =
;

g x , y ( ) 0 = x

, y
( )
g x , y ( ) 0 g x, y ( )
g
x
-----
,
_

g
y
-----
,
_
+ + =

g
x
-----
g
i
x
j
------- A = =
x

, y
( )

g
y
-----
g
i
y
k
------- D = =
g x

, y
( ) d =
D A d + =
y y + =
C

C
yy

0
2
Q = =
y
0
y ( )
T
P y
0
y ( ) y
0
y

( )P y
0
y ( ) =

0
y
0
y =

0
( )
T
P
0
( ) min =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
78
Da questo punto in poi la soluzione quindi analoga al caso lineare gi visto.
Dopo aver ricavato la soluzione in ed in si calcola il vettore degli scarti:
8.70
Gli errori di chiusura valgono:
Ricordando la 8.63 che si scrive anche:
si ha:
8.71
Se gli scarti sono elevati si itera il procedimento, a partire dalle stime ed , uti-
lizzate ora come valori approssimati. Si prosegue nelle iterazioni sinch:
8.72
Una seconda alternativa nella scelta di fermare o proseguire le iterazioni consiste nel
vericare che le correzioni alle misure ed ai parametri sono trascurabili; scelto cos
un valore piccolo a piacere:
8.73
Inne si osservi che se le funzioni g(x,y) sono date in forma esplicita rispetto alle
osservabili, cio se sono del tipo:
8.74
non occorre linearizzare rispetto ad y; questo in realt il caso nel quale riusciamo
quasi sempre a ricondurre le equazioni nelle osservabili (equazioni generatrici).
Anche complicando un poco la funzione g, preferibile ricondurci a questo
approccio, perch pi semplice da programmare: ci si riduce infatti al caso di osser-
vazioni non lineari con soli parametri aggiuntivi.
Si noti ancora che, nel caso di equazioni lineari non occorre la conoscenza di
parametri approssimati, cosa invece indispensabile in caso contrario.
Nella ricerca della trasformazione 8.74 in forma esplicita, se possibile, occorre pri-
vilegiare la linearit della funzione a motivo delle propriet di ottimalit descritte.
8.6 ESERCIZIO
Si desidera esaminare e risolvere il problema della rototraslazione con doppia varia-
zione di scala (relativa cio ai due assi) di un sistema ortogonale su un sistema non
ortogonale (g. 8.3).


0
( ) =
U Dy
0
Ax d D
0
A

d = =
g x , y ( ) d A

D 0 = + =
U g x , y ( ) g x

,y + + ( ) = =
x y

i 1 + ( )
2
v

i 1 +
T
P v

i 1 +

i ( )
2
< =

i 1 +

i

1
oppure
i 1 +

i

2
< <
y g x ( ) =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
79
Trascuriamo per semplicit espositive per ora leffetto dovuto alla traslazione. Esa-
miniamo prima il modello geometrico, poniamo poi alcune semplici ipotesi su
quello stocastico e risolviamo inne il problema ai minimi quadrati secondo la tec-
nica dei parametri aggiuntivi.
Fig. 8.3 Trasformazione affine tra due sistemi di coordinate.
Modello geometrico
Consideriamo il punto P (g. 8.3) di coordinate (E, N) nel sistema cartesiano orto-
gonale e di coordinate (x, y) nel sistema di assi non ortogonali.
Sia l'angolo orario da x verso Est e l'angolo da y verso Nord; chiamiamo af-
nit l'angolo .
Si avr:
chiamando:
si pu scrivere il sistema lineare; si arriva alla stessa conclusione considerando
lespressione dei versori degli assi (x e y):
Ora avviene che, se si ipotizzano due fattori di scala per ciascun asse:
8.75
8.76

y
y
0 E F Est
x
x
H
P
Q N
Nord
N PH HE y x sin + cos = + =
E OF EF x y sin cos = =
a, c = sin = cos
sin b, d = cos =
E ax by + =
N cx dy + =
con le condizioni
a
2
c
2
1 = +
b
2
d
2
1 = +
x
x
X =
y
y
Y =
E a
x
x b
y
y def ( ) AX BY + = = + =
N c
x
x d
y
y def ( ) CX DY + = = + =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
80
mentre le condizioni di normalizzazione riportate sopra per A, B, C, D, divengono:
possibile vericare inoltre che:
Sfruttando queste relazioni e tenendo conto che:
si ricava:
Abbiamo sinora esaminato il modello sico-geometrico senza traslazioni di assi, che
ci ha portati nelle condizioni di risolvere un sistema di equazioni lineari 8.75 ed
8.76. Nel caso generale tuttavia rimane ancora da considerare una traslazione fra
due sistemi; la 8.75 e la 8.76 divengono allora:
8.77
8.78
Se, di un numero n di punti dei quali sono note le coordinate (X, Y), si sono misu-
rate anche le coordinate (E, N), le due equazioni possono essere scritte sintetica-
mente in forma matriciale:
8.79
Modello stocastico e soluzione ai minimi quadrati
facile riconoscere qui sopra le misure y nelle coordinate che ipotizziamo
incorrelate, tali che .
Riconosciamo poi i sei parametri incogniti nel vettore trasposto ed i coefcienti di
questi parametri come matrice A.
Perch il problema possa avere una soluzione occorrer avere a disposizione almeno
tre coppie di coordinate in entrambi i sistemi. Applicando la 8.23 a questo esempio
si nota che a=0.
Ipotizzando di scrivere dapprima tutte le equazioni nelle e poi tutte quelle
A
2
C
2

x
2
cos
2

x
2
sin
2

x
2
= + = +
B
2
D
2

y
2
sin
2

y
2
cos
2

y
2
= + = +
C
A
---
c
a
-- tg = =
B
D
-----
b
d
--- tg = =
tg tg ( )
sin cos cos sin
sin sin + cos cos
-------------------------------------------------- = =
tg
AB CD +
BC DA
---------------------- =
E AX BY E + + =
N CX DY N + + =
E
i
N
i
,

_
X
i
Y
i
0 0 1 0
0 0 X
i
Y
i
0 1 ,

_
A,B ,C,D, E , N ( )
T
=
E
i
N
i
,
C
EN

2
I =
E
i
N
i
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
81
possono costruirsi la matrice disegno ed il vettore dei termini noti che assumono
la forma:
8.80
Facciamo poi l'ipotesi semplicativa che:
La normalizzazione della 8.80
La costruzione della matrice normale 8.33 , porta ad ottenere una
matrice di dimensioni ed un vettore b di dimensione .
facile ottenere questo risultato per la matrice normale moltiplicando fra loro le
colonne di A e moltiplicando le colonne di A e di l per i termini noti normalizzati.
Occorre ora risolvere un sistema lineare di sei equazioni in sei incognite, ma pos-
sibile una ulteriore semplicazione. Si nota che, se con un articio, rendessimo
nulli alcuni termini: si semplicherebbe di
molto il problema: scomparirebbero cos le ultime righe e colonne di N. Ci pos-
sibile, se le coordinate nei due sistemi di partenza, che ora chiamiamo ed
sono tali che, calcolate le coordinate dei baricentri:
Si deniscano le coordinate X, Y, E, N in questo modo:
l y
0
E
i
,N
i
( )
T
= =
A
X
i

X
n
0

0

Y
i

Y
n
0

0

0

0
X
i

X
n

0

0
Y
i


Y
n
1

1
0

0

0

0
1

1





' ;





; = l
E
i

E
n
N
i

N
n





' ;





=

0
2

i
2
= 1; P I = =
N A
T
PA =
N
6
6
A
T
A = 6 b A
T
Pl =
N
X
i
2


simm




X
i
Y
i
Y
i
2






0
0
X
i
2





0
0
X
i
Y
i
Y
i
2




X
i
Y
i
0
0
n


0
0
X
i
Y
i
0
n
,








_
; b
X
i
E
i
Y
i
E
i
X
i
N
i
Y
i
N
i
E
i
N
i
,









_
= =
E
i
N
i
X
i
Y
i
0 = = = =
X ' Y ' , ( )
E' N' , ( )
X
G
X '

n
------------; =
E
G
E'

n
-----------; =
Y
G
Y '

n
------------ =
N
G
N '

n
------------- =
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
82
Cos si avr sempre che:
e similmente:
In questo modo il problema si riduce al calcolo di soli 4 parametri a due a due
incorrelati: (A, B) e (C, D):
8.81
che pu essere diviso nei due sistemi:
8.82
Si ottiene facilmente la stima di questi parametri: chiamando con il determinante
della matrice N:
Le formule:
risolvono il problema. Si ricava poi, ricordando le 8.5, 8.25 e 8.26:
X X ' X
G
; =
N N ' N
G
; =
Y Y ' Y
G
=
E E' E
G
=
X
i
X ' nX
G
0 =

Y
i
E
i
N
i
0 =

X
i
2


Simm


X
i
Y
i
Y
i
2




0
0
X
i
2



0
0
X
i
Y
i
Y
i
2

,




_
A
B
C
D ,




_
X
i
E
i
Y
i
E
i
X
i
N
i
Y
i
N
i
,





_
=

N



N

A, B ( )
T
C, D ( )
T
b
1
b
2
,
_
=

X
i
2
Y
i
2

X
i
Y
i
( )
2
=
A

Y
i
2
X
i
E
i
X
i
E
i
Y
i
E
i
( ) =
B

X
i
Y
i
X
i
E
i
X
i
2
Y
i
E
i
+ ( ) =
C

Y
i
2
X
i
N
i
X
i
Y
i
Y
i
N
i
( ) =
D

X
i
Y
i
X
i
N
i
X
i
2
Y
i
N
i
+ ( ) =
v

y
0
Ax

=
v

Ei
E
i
x
i
A

Y
i
B

=
v

Ni
N
i
X
i
C

Y
i
D

=
APPLICAZIONE DEL PRINCIPIO DEI MINIMI QUADRATI
83
Utilizzando poi la 8.45 si ha:
cio:
Ricavando poi:
si nota ancora che le varianze delle coordinate ricavabili da X e Y sono iden-
tiche e valgono:
mentre sono nulle le covarianze sempre ammessa l'ipotesi di partire da una
matrice dei pesi proporzionale alla matrice identit.

0
2
v
T
v
2n 4
--------------- =
C
x x

0
2
N
1
=

0
2
Y
i
2

C

2
=

0
2
X
i
Y
i

C

2
= =

0
2
X
i
2

2
= =
C
yy

0
2
A N
1
A
T
=
E

2
X
2

2
Y
2
2
A

XY + + = =

Potrebbero piacerti anche