Sei sulla pagina 1di 134

POLITECNICO DI TORINO

Repository ISTITUZIONALE

Appunti di topografia

Original
Appunti di topografia / C. Sena. - ELETTRONICO. - (2013).

Availability:
This version is available at: 11583/2518647 since:

Publisher:

Published
DOI:

Terms of use:
openAccess
This article is made available under terms and conditions as specified in the corresponding bibliographic description in
the repository

Publisher copyright

(Article begins on next page)

14 April 2022
3-Trattamento
Trattamento delle Misure
topografiche

Copyright : Licenza Creative Commons 3.0 by-nc-nd


1
Premessa
Tutto il nostro Trattamento era in passato chiamato “Teoria delle Misure” ed era basato sulla gestione
di quelli che si chiamavano “errori
errori accidentali”
accidentali (adesso “fluttuazioni accidentali”) e per essi
effettivamente serve. Serve anche per i cosi detti “errori
“ grossolani” ma meglio ricorrere per
questi al metodo delle reiterazioni dei pesi per eliminarli o ridurli o ad altri test e processi.
Serve poco o nulla per gli “errori sistematici”: ”: ma purtroppo anche questi intervengono quando si misura, così come
gli altri errori e sotto certi aspetti sono anche più pericolosi ( possono avere anche valori più elevati).
Occorrerebbe trovare un modo per tenere conto di tutto e non solamente di una parte. La Statistica quindi
sotto questo punto di vista non serve o serve a poco.
Si dovrebbe agire logicamente in questo modo:
1. Vedere se le misure possono essere affette da errori sistematici
2. Se sì, vedere come fare per eliminare la sistematicità nell’organo di misura (ma l’errore sistematico di
taratura di un campione non può essere eliminato; si deve ricorrere alla ripetizione con campioni diversi,
indipendenti)
3. Se no, applicare la teoria statistica che viene qui descritta per eliminare gli errori (fluttuazioni) accidentali.
Occorre fare anche attenzione a pensare che le distribuzioni di errore siano solamente quelle gaussiane e fare
attenzione ai casi di variabili tra loro dipendenti. Si vedrà nel dettaglio:
• Il concetto di grandezza e della sua misura diretta
• Si introducono i concetti di: variabile statistica ad una o più dimensioni e della rappresentazione
sintetica; di eventi aleatori o stocastici, di variabili casuali e di alcune distribuzioni importanti
• Si affronta il problema della stima dei parametri, o dell’inferenza
dell’i statistica, in una popolazione
composta da un numero limitato di estrazioni a caso, con il principio di massima verisimiglianza
che porta al principio dei minimi quadrati,, per ottenere media e varianza empiriche.
• Si esamina il concetto di media ponderata,, con un esempio
• Si passa quindi alle misure indirette,, distinguendo i tre casi classici (con l’importante caso
della sovrabbondanza, il 3 °)) , nei sottocasi lineari e non .
• Si approfondisce il calcolo della varianza dell’unità di peso e si fornisce la risoluzione, con il pratico
metodo reiterativo, di un piccolo sistema (3 equazioni in 3 incognite)
2
3 -INDICE TRATTAMENTO delle MISURE
1. Schemi introduttivi 4
2. Grandezze fisiche e geometriche 7
3. Misure e fluttuazioni accidentali 9
4. Fenomeni collettivi 10
5. Grafici 12
6. Variabile statistica ad una dimensione 1
16
7. Rappresentazione sintetica di variabile statistica 18
8. Valori centrali 23
9. Disuguaglianza di Tchebyceff 24
10. Funzione cumulativa di frequenza 26
11. Evento aleatorio o stocastico 27
12. Legge empirica del caso 28
13. Variabili casuali 29
14. Evento aleatorio composto da più variabili 33
15. Distribuzione binomialeiale o di Bernoulli 40
16. Distribuzione di Poisson 44
17. Distribuzione normale o di Gauss 46
18. Variabile statistica doppia 53
19. Problema della stima dei parametri di una distribuzione
distribuz 77
20. Principio di massima verosimiglianza 79
21. Principio dei minimi quadrati 81
22. Media e varianza empiriche 8
83
23. Esempio di calcolo 89
24. Media ponderata 9
94
25. Esempio di media ponderata 99
26. Misure indirette 103
27. 1° caso –sottocaso
sottocaso lineare 10
104
28. 1° caso –sottocaso non lineare 10
105
29. 2° caso –sottocaso
sottocaso lineare 1
108
30. 2° caso –sottocaso
so non lineare 11
111
31. 3° caso –sottocaso
sottocaso lineare 11
114
32. 3° caso –sottocaso non lineare 1
122
33. Valutazione di σo 128
34. Risoluzione di un piccolo
iccolo sistema (metodo reiterativo) 12
129
3
Introduzione

Individuare le LEGGI della NATURA

Analisi del FENOMENO REALE

Schematizzazione di
alcune sue caratteristiche

Nasce il FENOMENO ASTRATTO

Fare esempio dall’OTTICA:


definizione delle ABERRAZIONI

Affinità procedurale

4
LE GRANDEZZE

NON esiste un’unica misura vera


di una GRANDEZZA

Cos’è una GRANDEZZA


(secondo Euclide,
secondo Russell, ecc.)

Introduzione del concetto Classi di grandezza di DIVISIBILITA’


di QUANTITA’ Classi di grandezza di DISTANZA

Le grandezze si riuniscono Ad es. 1 km, 1 m, ecc. sono grandezze


in CLASSI della Classe delle Lunghezze

Possibilità di stabilire CONFRONTI


tra grandezze della stessa classe, ecc.

Corrispondenza tra rapporti di


grandezze e numeri reali positivi

5
Introduzione
MISURARE

Misurare una Grandezza = ottenere una CORRISPONDENZA con dei numeri

Operazione di MISURA estranea alla Grandezza. E’ un mezzo umano di rappresentare la grandezza

Come si fa una MISURA DIRETTA

Definire le unità campioni u.c. Si sommano le u.c., si confrontano con la grandezza


e si fa un’operazione di conteggio

Sperimentalmente le misure cambiano nel tempo

Distinguere tra ERRORI GROSSOLANI, SISTEMATICI, ACCIDENTALI

6
GRANDEZZE
• Euclide (V libro degli “Elementi”):
1. le grandezze vengono ripartite in CLASSI, formate ciascuna di ENTI;
2. si stabiliscono opportuni procedimenti di “confronto” tra due grandezze della stessa classe;
3. il rapporto tra due grandezze è sempre un numero reale positivo (misura
( );

4. il rapporto è 1 se le due grandezze sono uguali.


• Eudosso da Cnido (membro dell’Accademia platonica)
1. La grandezza non è concepita come un numero, ma come un’ entità geometrica che può
variare in modo continuo
2. Definisce il concetto di rapporto tra grandezze e quello di uguaglianza o proporzione tra
due rapporti di grandezze (sia razionali che irrazionali) .

• Russell (“I principi della matematica”):


1. le grandezze sono concetti astratti che comprendono una molteplicità di termini;
2. se una grandezza si “particolarizza”, diventa una QUANTITA’ di grandezza.
Le “quantità” non possono essere maggiori o minori (relazioni valide solo per grandezze
della stessa classe). Hanno solamente la proprietà dell’uguaglianza.

7
GRANDEZZE secondo Russell

CLASSI di GRANDEZZE di

DIVISIBILITA’: DISTANZA:
un Tutto (o un Insieme finito o limitato) sono quelle grandezze che devono avere un
si correla con il numero di parti semplici punto o un evento di riferimento (ad es. il
che lo compongono. tempo).
Ha significato la “somma”. Non ha significato l’operazione di “somma”.

8
COME SI FA UNA MISURA DIRETTA:
DIRETTA
1. Definire le unità campione (u.c.);
2. Si sommano le u.c. e si confrontano con la grandezza da misurare;
3. Si fa un operazione di conteggio delle u.c.

FLUTTUAZIONI ACCIDENTALI

Introduzione del concetto di


FLUTTUAZIONE ACCIDENTALE:
Tutte misure vere della stessa grandezza

Popolazioni di MISURE POSSIBILI

Estrarre un unico valore rappresentativo:


la MEDIA

Accoppiare la valutazione numerica


della variabilità dei dati:
la VARIANZA

9
Non è facile dare la definizione di scienza STATISTICA.
Ma così è anche per altre scienze.
Ogni scienza è in continuo progresso, quindi non la si può circoscrivere e quindi definire
perfettamente.
Senza dubbio la STATISTICA richiede “conteggi”.
Permette di dare un valore quantitativo (=misura) ai fenomeni collettivi.
FENOMENO COLLETTIVO:
• relativo ad una collettività di casi singoli (popolazione di individui)
• relativo ad un caso singolo, su cui si effettua una collettività di osservazioni

Quasi tutte le scienze fanno ricorso alla STATISTICA:


STATISTICA ad esempio
• scienze che hanno per oggetto una collettività di enti, della quale studiano un aspetto
• scienze sperimentali, ecc.

10
Occorre dire ancora qualcosa sulle “corrispondenze numeriche” o “tabelle”, in generale.
Esse possono essere relative a:
• distribuzioni
• non distribuzioni

Le distribuzioni possono essere:


• di frequenza
• di quantità

Le non distribuzioni si distinguono in:


• serie storiche
- di stato
- di movimento
• serie territoriali

Esempio di distribuzione di quantità:


quantità
La Banca XY ha conteggiato che nel 2005 si sono avuti:
• cambiali ordinarie € 3.284.500
• tratte € 5.242.825
• assegni bancari € 2.854.300

11
GRAFICI

GRAFICI

di DISTRIBUZIONI di DISTRIBUZIONI di NON


SEMPLICI DOPPIE DISTRIBUZIONI

12
GRAFICI

DISTRIBUZIONI SEMPLICI
• Secondo un carattere di qualsiasi tipo:
- diagrammi simbolici o pictogrammi
- grafici:
 a segmenti
 a nastri
 a colonne
- areogrammi

• Secondo un carattere ordinato:


- rettilineo → ISTOGRAMMi
- ciclico:
 grafico a raggi
 grafico a settori circolari di uguale ampiezza

• Secondo un carattere quantitativo rettilineo discreto

13
GRAFICI di

DISTRIBUZIONI DOPPIE
• A colonne suddivise
• A cerchi suddivisi
• Cartodiagrammi a rappresentazioni suddivise:
- lineare
- areale
• Stereogrammi

GRAFICI di

NON DISTRIBUZIONI
• Delle serie territoriali
• Cartogrammi:
- a tratteggio
- a colonne
- a cerchi
- misto (colonne e cerchi)
• Delle serie storiche

14
Vari tipi di diagrammi: alcuni esempi

1-a torta FIG.1 2-ad anello


05/01
/2002
40
09/01 20 06/01
/2002 /2002 Serie 1
0
Serie 2
08/01 07/01
/2002 /2002

3-a bolle 4-radar


15
VARIABILE STATISTICA AD UNA DIMENSIONE

Si prenda in esame un insieme ben determinato di individui


(popolazione),), caratterizzati da un attributo X che può assumere valori
argomentali x1 , x2 ,....., xn diversi.
Classificare la popolazione secondo l’attributo X vuole dire esaminare
tutti gli individui della popolazione e determinare,per ognuno di essi, il
valore argomentale xi ; quindi si procede ad un raggruppamento di
valori argomentali (e quindi di individui), definendo un intervallo di
raggruppamento ∆x: x: si assume che tutti i valori argomentali compresi
in questo intervallo, assumano il valore argomentale xi intermedio.
xi

∆x
16
Si potrà allora scrivere una corrispondenza numerica:
X { x 1 x 2 ..... x n
F 1 F 2 ..... F n
dove gli xi sono ordinati in senso crescente e gli Fi rappresentano il
numero di individui che hanno il valore argomentale xi (frequenza
(
assoluta).
). E’ evidente che (essendo N= numero totale individui):
n
∑ Fi = N
i =1 F
Si possono introdurre le frequenze relative: f =
i
i
N
{ x 1 x 2 ..... x n n
X ∑f =1
f 1 f 2 ..... f n i=1 i
Questa corrispondenza numerica si chiama variabile statistica ad 1
dimensione (ma si possono definire, in maniera analoga, anche se più
complessa, variabili a 2 o più dimensioni).
17
Rappresentazione grafica della v.s. ad 1 dimensione:
ISTOGRAMMA
y

Si divida l’asse x secondo l’intervallo di yi


raggruppamento ∆xi; la mezzeria di
ogni intervallo sia in corrispondenza
del valore xi della variabile. Per ogni
intervallo costruiamo un rettangolo di
altezza yi tale che:

yi * ∆x = fi
xi x
FIG.2 ∆x
L’area racchiusa da ogni rettangolo rappresenta la frequenza relativa fi , corrispondente al
valore argomentale xi.
L’istogramma dà una rappresentazione visiva di come i valori argomentali siano distribuiti tra gli
individui della popolazione.

18
x
Per un numero N di individui molto elevato, con valori i che si susseguono ad intervalli molto
ristretti, se non esistono discontinuità nelle frequenze di gruppi vicini, l’istogramma può essere
rappresentato con una curva continua y = ϕ (x ) chiamata curva di frequenza (sempre che non si
introducano elementi estranei o incongruenti con il tipo di variabile esaminato).

y=ϕ(x)
b

∫ϕ(x) ⋅ dx = 1
a

FIG.3
a b
x

19
RAPPRESENTAZIONE SINTETICA di una Variabile Statistica

Occorre introdurre il concetto di MOMENTO, che dà informazioni quantitative globali sulla


distribuzione.
mo
Si chiama momento del K grado della variabile:
n
Fi 1 N k
mk (x) = ∑ xi ⋅ f i = ∑ x ≅ ∑ xr
k
i
i =1 N N r =1
Per variabile continua:
b
m k (x ) = ∫ ⋅ ϕ (x )dx
x k

Esaminiamo alcuni momenti rappresentativi:


• Momento di 1°grado:
n
m1 ( x) = ∑ xi ⋅ fi
MEDIA
i =1

Indica genericamente quale è la posizione della variabile sull’asse delle x, perché i valori
argomentali x i si distribuiscono intorno al valore della media.

20
• Momento di 2°grado:
n
m2 ( x ) = ∑ xi2 ⋅ f i VALORE
QUADRATICO MEDIO
i =1

(questo valore ha, per noi, poco significato pratico).


• Si consideri una nuova variabile statistica, così definita:
vi = xi − M Variabile SCARTO
Questa variabile ha la stessa distribuzione della variabile X:

 v 1 v 2 .... v n n

v ∑ fi = 1
 f 1 f 2 .... f n i =1

n n
- momento di 1°grado: m1 (v ) = ∑ vi f i = ∑ ( xi − M ) f i = 0
i =1 i =1
n 2 n
m2(v) = ∑fi (xi −M) = ∑fivi2 VARIANZA
- momento di 2°grado:
i=1 i=1 σ2

21
La varianza indica come la variabile è distribuita intorno alla media: è, cioè, un indice di
dispersione.

Per quanto riguarda il calcolo della media:


n n N
M = m1 ( x ) = ∑ xi f i = ∑ i i =
xF 1
i =1 i =1 N N
∑x
r =1
r

Per quanto riguarda la varianza σ2:


m2 (v ) = σ
n n
(xi − M )2 Fi n
( )
∑ (xi − M ) ∑ i − ⋅ Fi = devianza della
⋅ fi = ∑
2 2
2 x M
i =1 i =1 N i =1 distribuzione

σ = ∑ ( xi − M ) ⋅ f i = ∑ (xi2 + M 2 − 2 xi M )⋅ f i =
n n
2 2

i =1 i =1 Devianza
n n n σ= standard o
= ∑ x fi + M
2
i
2
∑ f i − 2 M ∑ xi f i = m2 ( x ) − M 2 s.q.m.
i =1 i =1 i =1

22
VALORI CENTRALI
In statistica, oltre la media, si definiscono altri valori centrali nella distribuzione:
• MEDIANA: è quel valore dell’argomento in corrispondenza del quale
l’ordinata ha la caratteristica di dividere la curva di frequenza in due parti di aree
equivalenti;
• MODA o NORMA: è quel valore dell’argomento per il quale si ha il massimo
di frequenza (ordinata) fi.
Si possono avere più mode:
- unimodale
- bimodale
- trimodale
- ecc.

FIG.4

23
DISUGUAGLIANZA di TCHEBYCHEFF
(o teorema di BYENAYME’-TCHEBYCHEFF)
BYENAYME’
La varianza σ2 è un indice di dispersione abbastanza significativo: si può infatti dimostrare
che la maggior parte dei valori argomentali xi è contenuta entro i limiti M±3σ,
M qualunque sia
la distribuzione. Infatti, scriviamo:
n
σ = ∑ vi2 f i = v12 f1 + v22 f 2 + .... + vm2 f m + .... + vn2−1 f n−1 + vn2 f n
2

i =1

(le vi2 siano ordinate in ordine crescente).


Si prenda un valore intermedio vm2 e ad esso diamo il valore c2. Si azzerino tutti i valori vi2
minori di c2. Si pongano uguali a c2 tutti quelli maggiori. Sarà allora:

σ 2 ≥ c 2 ( f m + f m +1 + .... + f n )

Si pone m f + f m +1 + .... + f n = f *
da cui σ 2
≥ c 2
(1 − f* ) .
Si ricavi f* ( frequenza relativa degli scarti inferiori a c):
1
Imponendo c=λσ si ottiene: f* ≥ 1−
− 2
λ

24
La disuguaglianza di Tchebycheff:
1
f* ≥ 1 −
λ2
è significativa per λ>1. In particolare:
• per λ=2 1
f* ≥ 1 − = 0,75
4
1
• per λ=3 f* ≥ 1 − = 0,89
9
cioè: per qualsiasi variabile statistica, almeno il 75% degli scarti ha un valore inferiore o
uguale a ±2σ,, e almeno l’89% ha un valore inferiore o uguale a ±3σ.
Si può dire anche che la frequenza relativa dei termini che sono non interni ad un intorno
della media, non può superare un certo limite ( è un caso particolare del più generale
teorema di Markov).

25
FUNZIONE CUMULATIVA DI FREQUENZA

E’ la variabile originaria:
X { x1 x2 … xn

{
f1 f2 … fn
Si definisce funzione cumulativa di frequenza la seguente: x1 x2 … xn
Y
t t1 t2 … tn

con: t1 = f1
t2 = f1 + f2 FIG.5
tn = f1 + f2 + … + fn = Σfi = 1 x
Il valore ti rappresenta la frequenza relativa di tutti gli individui che hanno un valore
argomentale inferiore od uguale a xi.
Le curve cumulative di frequenza sono assai utili per trovare rapidamente il numero
di individui che hanno valori argomentali compresi in un intervallo qualsiasi.

26
EVENTO ALEATORIO O STOCASTICO

E’ un evento del quale non si può prevedere la modalità di uscita.


Ad esempio. pensare ad una moneta che viene lanciata: lanciata non è mai possibile prevedere se, a
lancio effettuato, si verificherà l’evento “testa” o l’evento “croce”.

ESTRAZIONE a CASO
Un particolare evento aleatorio è l’estrazione a caso.
caso Si pensi ad un’urna con un certo
numero N1 di palline, tutte uguali tra loro, ma con scritto un numero distintivo su ogni
pallina. All’atto dell’estrazione tutte le palline sono identiche e chi effettua l’estrazione
non deve poter scegliere e cioè non deve esserci ragione di estrazioni preferenziali.
Si estrae una pallina, si legge il numero sopra scritto e la si rigetta all’interno dell’urna.
Si continua in queste estrazioni un numero di volte N2, grande a piacere (N2>>N1). Si
ottiene la corrispondenza:

{
x1 x2 … xn
X
f’1 f’2 … f’n

che si chiama VARIABILE STATISTICA CAMPIONE.

27
LEGGE EMPIRICA del CASO

Se incrementiamo il numero N2 di estrazioni a caso, sino a valori molto grandi, ci si


accorge che:
• i valori argomentali xi della variabile campione assumeranno tutti i valori propri della
popolazione assoggettata alle estrazioni a caso;
caso
• le frequenze fi corrispondenti ad ogni valore argomentale tendono a stabilizzarsi ed a
convergere verso il valore proprio della frequenza di quell’argomento nella popolazione,
quale si sarebbe ottenuto facendo un’indagine di tipo statistico.

Da questa “legge” si possono trarre due conclusioni:


conclusioni
1) non si può mai prevedere l’estrazione di un determinato individuo o di un valore
argomentale. E’ prevedibile, invece, la distribuzione,
distribuzione e cioè: dopo un certo numero N2 di
estrazioni a caso, si può prevedere la distribuzione dei valori argomentali (ovvero le
frequenze) della variabile campione;
2) Esiste la possibilità di postulare l’esistenza di una popolazione. Cioè tutte le volte che
l’indagine su un fenomeno aleatorio mostra una “stabilità statistica”, si può essere
autorizzati ad immaginare una popolazione “ignota”, ma “determinata”, che fa da sfondo al
fenomeno aleatorio.

Questa popolazione si chiama POPOLAZIONE POSSIBILE.

28
VARIABILI CASUALI

Se si effettua una serie sempre crescente di estrazioni a caso da


popolazione di composizione nota, o da popolazione possibile, si ottiene
una specie di VARIABILE LIMITE, caratterizzata ancora da una serie di
valori argomentali, in corrispondenza dei quali si definiscono delle
“frequenze limite”: solo che, essendo il numero di estrazioni a caso infinito,
la variabile che così si definisce non ha il carattere di un’operazione già
eseguita e cristallizzata, ma di una VARIABILE TEORICA in divenire,
definibile cioè dopo un numero di estrazioni infinito. A questa variabile si da’
il nome di VARIABILE CASUALE ed alle frequenze limite, relative ai valori
argomentali, si da’ il nome di PROBABILITA’:
PROBABILITA’

{
x1 x2 … xn
Xc Σ pi = 1
p1 p2 … pn

29
PROBABILITÀ
• definizione a posteriori:: è il limite a cui tende la frequenza di un dato valore argomentale della
variabile campione, quando il numero di prove tende all’infinito
• definizione a priori : è il rapporto tra
= numero casi favorevoli al presentarsi dell’evento
numero di casi possibili
Noi scegliamo la “definizione a posteriori” che presuppone che siano effettivamente state fatte
delle prove e che da queste si giunga alla definizione della variabile casuale.
Per variabile casuale continua si definisce:
dp = f ( x ) ⋅ dx essendo f(x) = densità di probabilità
x
F ( x ) = ∫ f (x ) ⋅ dx essendo F(x) = funzione di distribuzione
0

b
mk (x) = ∫ xik f (x)dx
E per i MOMENTI :

30
Proprietà delle probabilità composte:
se un evento aleatorio A risulta dal concorso di due eventi aleatori indipendenti B e C di
probabilità pb e pc, la probabilità dell’evento A è data dal prodotto delle probabilità di B e C:
p a = pb ⋅ p c
Se l’ordine di uscita degli eventi C e B non ha importanza, si ha:
p'a = 2 ⋅ pb ⋅ pc
In generale:
p 'a = n!⋅ pb ⋅ pc ⋅ ...

essendo n! in numero delle disposizioni possibili degli n eventi attesi.

Proprietà delle probabilità totali:


se un evento aleatorio A può presentarsi con modalità diverse B e C ognuna delle quali ha
probabilità pb e pc, la probabilità di A è data dalla somma delle probabilità:

pa = pb + pc

31
Alcuni esempi
1°caso:: ci sono 4 palline colorate in modo diverso: come possono essere
sistemate in fila? La 1° posizione può essere occupata da una pallina
qualsiasi (4 diversi modi di occupare la 1°1 posizione); ci sono 3 modi di
occupare la 2° posizione, 2 modi di occupare la 3° 3 posizione, 1 modo di
occupare la 4 posizione. Quindi 4x3x2x1= 24
R.: Ci sono 24 modi di sistemare le palline.
2°caso:: si vogliono sistemare 7 persone attorno ad un tavolo rotondo
a) ognuno può sedere in un posto qualsiasi; la 1°1 persona può sedere in un
posto qualsiasi, le restanti 6 persone in 6! = 720 modi diversi
b) due persone non devono essere vicine: le 2 persone possono essere
sistemate in 2 ! modi diversi e le altre 5 in 5! modi diversi. Quindi 2! 5!
=240 modi diversi di sistemare le 7 persone, con due che siedono
vicini.
R.:si dovrà quindi fare 720-240
240 = 480 modi di sistemare le persone,
tenendo conto della restrizione imposta.
3°caso : scegliere tra un totale di 9 persone, un comitato composto da
sole 5 persone.
R.:
9 = 9!/5! =9x8x7x6x5/ 5! = 126 modi di scegliere il comitato
5
4° caso : inn un dado che probabilità ha l’uscita del 3 o del 5 ?
R.: 1/6 + 1/6 = 1/3 (probabilità più vantaggiosa, totale) .
5° caso : qual è la probabilità di uscita del 3 e del 5 ?
R.:
.: 1/6 x 1/6 = 1/ 36 ( probabilità composta).

32
EVENTO ALEATORIO COMPOSTO con 2 o più eventi
aleatori. OPERAZIONI con VARIABILI CASUALI

Se un fenomeno aleatorio risulta dalla concomitanza di due o più fenomeni aleatori, il problema è
quello di definire la variabile casuale relativa al fenomeno aleatorio composto.
Devono essere note:
• le variabili casuali componenti
• la modalità matematica con cui si ottiene il risultato
Si abbia la variabile casuale:  x 1 x 2 ... x n n
X  ∑ pj =1
 p 1 p 2 ... p n j=1

e la variabile casuale
 y 1 y 2 ... y m n
Y ∑ gk = 1
 g 1 g 2 ... g m k =1

Vogliamo ottenere la variabile casuale “somma” delle due: cioè, riconducendoci allo schema
dell’estrazione a caso, supponiamo di estrarre a caso un individuo della popolazione possibile
definito dalla variabile X e di estrarre a caso un individuo dalla variabile Y.

33
Nell’eseguire un numero molto grande di doppie estrazioni, tutti i valori xi si combineranno con i
valori yi e daranno luogo ad una serie di t valori della “somma” ( con modalità matematica
definita).
si = x j + y k

e quindi si avrà la variabile composta s1 s2 ... st n


S ∑f i =1
 f1 f 2 ... ft i =1

La deduzione della distribuzione della variabile composta può alle volte essere molto complessa
e spesso occorre ricorrere a soluzioni approssimate.

34
Cerchiamo le relazioni che permettono, noti i momenti di 1°
1 e 2° grado della X e della Y, di ricavare i
momenti di 1° e 2° grado della variabile casuale composta S:

∑ ∑ (x ± y k )f ∑ ∑ (x ± y k )p j g k =
t n m n m
m 1 (s ) = ∑
i =1
si fi =
j =1 k =1
j jk =
j =1 k =1
j

n
 m m
 n n m
= ∑
j =1
xjp

j ∑
k =1
gk ± p j ∑
k =1
yk g k  =

∑j =1
xjp j ± ∑ j =1
p j ∑
k =1
yk g k
Modalità
Si = xj + yk

REGOLA N.1: il valore medio di una variabile casuale somma (o differenza) di due variabili casuali
è pari alla somma (o differenza) dei valori medi delle variabili casuali componenti:

m1(s) = m( x) ±m( y)
2

∑ ∑ (x ) ∑ ∑ (x )
t n m n m
= ∑ fi = ± yk = ± yk =
2 2
m 2 (s ) s i j f jk j p jg k
i =1 j =1 k =1 j =1 k =1
n m n m n m
= ∑ ∑ j =1 k1
x 2j p j g k + ∑ ∑
j =1 k =1
y k2 p j g k + 2∑ ∑
j =1 k =1
x j yk p jg k

REGOLA N.2: il valore quadratico medio di una variabile somma (o differenza) di due variabili
casuali è la somma di valori quadratici medi delle variabili componenti aumentata (o diminuita) del
doppio prodotto delle due medie.
m2( s ) = m2( x ) + m2( y ) ± 2m1( x ) ⋅ m1( y )

35
σ (2s ) = m 2 (v ) = σ x2 + σ y2

REGOLA N.3: la VARIANZA di una variabile casuale somma (o differenza) di due variabili casuali è
la somma delle varianze casuali componenti.

In generale, data la funzione:

W = aX ±bY±cZ
si ha (REGOLA N.4):
m1(W ) = am1( X ) ± bm1(Y ) ± cm1( Z )
σ 2
(W ) =a σ2 2
(X ) +b σ 2 2
(Y ) +c σ
2 2
(Z )

36
Riepilogo

• Popolazioni di individui definibili con esattezza, essendo gli individui osservabili uno per uno:
tipico della variabile statistica: risultato di esperimenti ( concreta, finita, discreta ).

• Popolazioni definite e nelle quali si fanno estrazioni a caso molto numerose: variabile statistica
campione.

• Popolazione ben definita, ma non si possono osservare tutti gli individui per motivi economici, di
tempo, ecc : si crea una variabile campione.

• Caso delle “popolazioni possibili ”, definibili facendo un numero infinito di prove. Si costruisce
una variabile casuale,, che possa rappresentare questa popolazione, basata su certe ipotesi: sono
modelli interpretativi ( quindi astratti, illimitati, continui ).

• Postulazione di una identità formale tra VARIABILE STATISTICA e VARIABILE CASUALE, che
discende dalla loro completa (formale) indistinguibilità.

37
PRODOTTO di DUE VARIABILI CASUALI

Il valore medio del prodotto di due variabili casuali è il prodotto dei valori medi delle variabili casuali
componenti:
m1( P) = m1( X ) ⋅ m1(Y )

Il valore quadratico medio del prodotto di due variabili casuali è uguale al prodotto dei valori
quadratici medi delle variabili componenti:
m2( P ) = m2( X ) ⋅ m2(Y )

La varianza del prodotto di due variabili casuali vale:

σ (2P) = m2( P) − m12( P) = m2( X ) ⋅ m2(Y ) − m12( X ) ⋅ m12(Y ) = σ (2X ) ⋅σ (2Y ) + m12(Y ) ⋅σ (2X ) + m12( X ) ⋅σ (2Y )
essendo:
m 2 ( X ) = σ (2X ) ⋅ m12( X )
m 2 (Y ) = σ (2Y ) ⋅ m12(Y )

38
QUADRO SINOTTICO
(come variabili limiti-teoriche)
limiti

PROBABILITA’ = Limite cui tende la frequenza per N→∞

Analoga definizione dei momenti

Variabili casuali = combinazione di variabili statistiche

Operazioni sulle variabili casuali

1° regola: Ms

2° regola: qs

3° regola: σs2

4°regola

Probabilità

Totali: pt = pa + pb + pc

Composte: pt = pa x pb x pc

39
DISTRIBUZIONE BINOMIALE o di BERNOULLI
Pensiamo ad una popolazione di cui un attributo è caratterizzato da due soli valori argomentali. Si
ha allora una variabile casuale del tipo

x1 x2
X = q + p =1
q p
che si può scrivere

0 1
X = 
q p

La si combini n volte, sommando i valori argomentali:


argomentali
0 + 0 0 +1=1 1+1= 2
0 1 0 1 
X = X = X '=  1+ 0 =1
q p q p  2
q qp + qp p 2

si ottiene cioè
0 1 2
X '=  2 2
q 2qp p

40
Se si combina la nuova variabile X’ con la variabile originaria X si avrà:
 0 1 2 3
X ''=  3
 q 3 pq 2 3qp 2 p3
Se si continua per n combinazioni, la variabile Y così definita prende il nome di
DISTRIBUZIONE BINOMIALE:

 0 1 2 ... n −1 n

Y =
  n  2 n −2  n  n−1
qn npqn−1   p q ...   p q pn
  2  n − 1 
Note la media e la varianza della variabile X, si ottengono la media e la varianza della Y:

m1 = 0 ⋅ q +1⋅ p = p
 ( X )  m1( Y ) = n ⋅ p
X = m2( X ) = 02 ⋅ q +12 ⋅ p = p Y = 2
 2 σ ( Y ) = n ⋅ p ⋅ q
σ
 ( X ) = m2( X ) − m2
1( X ) = p − p 2
= p(1− p) = p ⋅ q

41
Si è visto che (distribuzione di Bernoulli) la probabilità i-esima
i è:
 n i n−i
P(i) =   p ⋅ q n molto grande
i 
Ponendo v = i-np e supponendo v molto piccolo, dopo parecchie manipolazioni, si
ricava: 2
v
1 −
P(v) = ⋅ e 2npq
2πnpq
e ponendo:
1 1
h= =
2npq 2 ⋅σ
si ottiene: h −h2v2
P(v) = ⋅e
π
espressione approssimata della probabilità associata al valore argomentale v

42
Rappresentazione grafica della distribuzione di Bernoulli:

Pi

n=4
0.7 n = 10 p = 0.1
n = 50
0.6 n = 100 q = 0.9
0.5
0.4
0.3
FIG.6
0.2
0.1
0
2 4 6 8 10 12 i

43
Cenni sulla DISTRIBUZIONE di POISSON
E’ detta anche “degli eventi rari”” e viene costruita sull’ipotesi che la probabilità p
dell’evento x2 non sia costante, ma vari al variare del numero n di combinazioni
che si effettuano (p=l/n).

n = numero delle combinazioni molto alto


p = probabilità dell’evento favorevole molto piccola
Pi q = 1-p, prossima ad 1

λ = 0.5 Λ= cost.positiva assegnata


0.6 I = valori argom. 0,1,2,..
λ=1
0.5 λ=2
0.4 λ=3
PROBABILITA’ DELL’EVENTO i:
0.3
λ=6
λi ⋅ e − λ
0.2 i!
0.1 FIG.7
0 Media = varianza = λ
2 4 6 8 10 12 i

44
In generale però le distribuzioni non sono simmetriche rispetto al loro massimo, ma
hanno una delle loro “code” più lunga dell’altra e cioè:

grande curtosi
σ² piccola

σ² grande

Asimmetrica a sin. Asimmetrica a dx

FIG.8

Il coefficiente di simmetria α3 =µ3 /σ³ permette di dire se la distribuzione è


simmetrica a destra (positiva) o a sinistra (negativa). Se α3=0 la distribuzione
è simmetrica. Il coefficiente di curtosi α4 = µ4 /σ4 misura il grado di ripidezza
della distribuzione.
Nella curva “normale” il coefficiente è pari a 3 ed il coefficiente di simmetria
è “zero”.

45
Verso la distribuzionale normale

46
DISTRIBUZIONE NORMALE o di GAUSS

Considerata continua la variabile casuale così determinata, definiamo la probabilità


infinitesima dp che lo scarto sia compreso tra v e (v+dv):
m
h  1
− h2 v 2 e = lim 1 +  = 2, 718281828459045...
dp = ⋅e dv m →∞
 m P ( x)
π
Una distribuzione di questo tipo si chiama NORMALE.
Sappiamo in generale che: vi = x i − M
dp
1
h =
2

2σ 2 h
−( xi −M )2 π
E quindi: 1
y(v) = e 2σ 2
FIG.9
2π ⋅σ
v
V
v + dv M
σ
(definizione di funzione NORMALE definita soltanto dai parametri M e )
2

47
Alcune proprietà:
+∞ +∞ h −h2v2
∫−∞
dp =∫
−∞
π
⋅e dv =1

+∞ +∞ h −h2v2

−∞
v ⋅ dp =m(v) = ∫ v
−∞
π
⋅e dv =0
Cioè la media della variabile scarto è nulla.
nulla

La curva delle fluttuazioni accidentali deve essere simmetrica, rispetto alla retta
x=a, essendo a l’ascissa del massimo.
massimo Si ipotizza inoltre che la curva abbia
come campo di definizione tutto l’asse reale e che questo sia un asintoto della
curva.
La curva normale y=f(x) deve avere equazione:
equazione
dy − y ( x − a)
= per y non negativa
dx b2

48
Calcoliamo l’integrale dell’equazione differenziale; per prima cosa si separano le
variabili: dy x − a
= 2 dx
y b
E quindi dy x − a ( x − a ) 2

∫ =− ∫dx o anche log y = − +c


y b2 b2
2b
2

Posto c = log y0 si ha log y = − ( x − a)2 + c


2
2b ( x − a )2
y −
Ossia log y − log y = − ( x − a)
2
e cioè =e 2b2
0
2b2 y0 y
(x−a) 2

O anche y = y0e 2b2

Si determina y0 =
1
con a = m b2 = σ 2
2π ⋅ b
E quindi − ( x − m )2
1
y= e 2σ 2 FIG.10 x
2π ⋅ σ m −σ m m +σ

49
Si sono già viste alcune proprietà:
1) +∞ +∞ h ( cioè l’ area compresa sotto la funzione vale 1)
− h2v2
∫−∞
dp = ∫
−∞
π
⋅e dv =1
+∞ +∞ h −h2v2
2) m=
∫−∞
v⋅ dp =m(v) = ∫ v
−∞
π
⋅e dv =0

(Cioè la media della variabile scarto è nulla).


+∞ h 1
3) varianza=
∫ v2
e−h2v2
dv = 2 = σ 2
−∞
π 2h
2h

h si chiama misura di precisione.


precisione

50
xi −M
Si introduce la VARIABILE SCARTO STANDARDIZZATA:
STANDARDIZZATA z=
σ
(il rapporto è un numero puro: ciò rende possibile fare confronti tra distribuzioni secondo caratteri o parametri
diversi). L’espressione della nuova funzione diventa: − z2
1
g (z) = e 2


Questa nuova variabile ha media nulla e varianza uguale a 1.
La distribuzione normale è interessante perché si trova tabulata e fornisce la probabilità che un valore argomentale
z generico sia compreso tra due limiti a e b. Dal valore di z si passa quindi al valore di x e di v. In particolare,
per il valore dello scarto v: per
λ = 1 si trova il valore di probabilità 0,683
λ = 2 si trova il valore di probabilità 0,954
λ = 3 si trova il valore di probabilità 0,997
Ciò vuol dire che nelle distribuzioni normali, la popolazione
di misure possibili ha:
il 68,3% degli scarti compresi tra ±σ
il 95,4% degli scarti compresi tra ±2σ FIG.11
il 99,7% degli scarti compresi tra ±3σ
Nel caso delle popolazioni di misure possibili,
a distribuzione normale, si pone lo scarto pari a ±3σ come −3σ −2σ −σ σ 2σ 3σ
68,27%
limite praticamente invalicabile (concetto di TOLLERANZA)
TOLLERANZA 95,45%

99,73%

51
Alcune distribuzioni teoriche continue
Si riportano alcune distribuzioni utili in
casi particolari : Distribuzione t di Student

Distribuzione Chi Quadro χ²


È la distribuzione della somma di n variabili casuali VC
normali indipendenti Il valore medio vale “zero”
La varianza vale n/(n-2) .Tende
χ² = N s²/ σ² =[ (x1-x)² + (x2-x)² +… (xn- X)² ] / σ² a una normale per n ∞
assume valori in [ 0 , + ∞]
Il valore medio della distribuzione vale il numero Distribuzione F di Fisher
vale il numero di gradi di libertà n
e la varianza vale 2n.
Per n ∞ la distribuzione
tende alla normale.

Per n ∞ la distribuzione
tende alla normale.

52
VARIABILE STATISTICA DOPPIA
(o a due dimensioni)
y
x X1 X2 X3 … … Xi … Xm
Y1 F11 F21 F31 … … Fi1 … Fm1 Q1
Y2 F12 F22 F32 … … Fi2 … Fm2 Q2
Y3 … … … … … … … … …
… … … … … … … … … …
Yj F1j F2j F3j … … Fjj … Fmj Qj
… … … … … … … … … …
F1n F2n F3n … … …
Yn Fin Fmn Qn
P1 P2 P3 … … Pi … Pm N
i =1÷ m j = 1÷ n Fij = F req u en ze asso lu te Essendo:
n m m n
Pi = ∑ 1
Fij Qj = ∑ 1
Fij ∑
i =1
Pi = ∑Q
j =1
j = N

F ij F ij
Per avere invece le frequenze relative occorre fare:
Pi Q j

53
• Si definiscono le VARIAZIONI STATICHE MARGINALI

 x1 x2 ........xm  y1 y2 ........ ym
X Y
 p1 p2 ........ pm Q1Q2 ........Qm

ed i rispettivi momenti (media e varianza)


m
P n Qj
M ( x) = ∑ xi i M (Y ) = ∑ y j
i =1 N j =1 N

σ = ∑ ( y j − M (Y ) ) ⋅
n Qj
σ x2 = ∑ (xi − M ( x ) )2 ⋅ i
m
P 2 2
Y
i =1 N j =1 N

Si possono ottenere altre VARIABILI STATISTICHE SEMPLICI, del tipo:

 y1 y2 ... y j ... yn
Yi  Per i = 1 ÷ m
 fi1 fi 2 ... fij ... fin

54
La scrittura precedente equivale a scrivere m variabili del tipo :

 y 1 y 2 ... y i  y 1 y 2 ... y i
Y1  di P1 individui
Y2  di P2 individui …
 f 1 1 f 1 2 ... f 1 n  f 2 1 f 2 2 ... f 2 n

 y 1 y 2 ... y i
fino a Ym Ym1  di Pm individui
 f m 1 f m 2 ... f m n
In base alle relazioni scritte prima, per ogni colonna sarà:
n f ij
• media parziale M [ y (i ) ] = M yi = ∑
j =1
yi ⋅
Pi

• varianza parziale σ [Y( ) ] = σ


2
i
2
Yi (
= ∑ yi − M yi ⋅ )
2 fij
Pi

55
Tabella a 4 colonne ed m righe

X Myi σ2yi Pi
X1 My1 σ2y1 P1 My1 ± 2σy1
X2 My2 σ2y2 P2 My2±2σy2
… … … … …
Xi Myi σ2yi Pi Myi±2σyi
… … … … …
Xm Mym σ2ym Pm Mym±2σym

56
Curva di regressione

Se si riportano i dati relativi alla media su un grafico, si può costruire la curva di regressione:

Myi Myi In caso di perfetta


indipendenza tra la varabile
xi e la yi
My2
My3
FIG.12
Mym
Xmi
Myi

My1

X1 X2 X3 Xi Xm Xmi

57
Curva di variabilità

Se si riportano i dati relativi alla varianza su un grafico, si può costruire la curva di variabilità:

σ2yi σ2yi
In caso di perfetta indipendenza tra
la variabile xi e le yi
σ2y3
si ha

σ2y1
Xmi
σ2y2
FIG.13

X1 X2 X3 Xmi

58
Myi
FASCIA DI REGRESSIONE In questa fascia è
compreso almeno
My2+2σy2 il 75% degli individui
My2 della popolazione
My2-2σy2
My3+2σy3
My3
My3-2σy3
My1+2σy1
My1
My1-2σy1

Xi
FIG.14

59
Si prenda un caso qualsiasi di fascia di regressione.
regressione Si possono presentare 3 casi:

a) R / F = 1
Perfetta dipendenza
Myi
b) Rapporto intermedio tra
0e1
c) R / F = 0
FF
perfetta indipendenza
R

FIG.15

Xi

60
VARIABILE STATISTICA DOPPIA
o a due dimensioni
Volendo tradurre in termini analitici le considerazioni svolte in precedenza, si consideri una nuova
variabile statistica doppia così costruita:
y* X X1 X2 … Xi … Xm

My1 P1 0 … 0 … 0 P1

My2 0 P2 … 0 … 0 P2

… … … … … … … …

Myi 0 0 … Pi … 0 Pi

… … … … … … … …

Mym 0 0 … 0 … Pm Pm

P1 P2 … Pi … Pm N

Si definisce varianza della tabella derivata della perfetta dipendenza:

( )
m
Pi
σ 2
y*
=∑ M yi − M y ⋅ = σ y2PD
i =1 N
61
σ y2
Il rapporto
PD
= η x2 si chiama INDICE di PEARSON,
PEARSON e sostituisce l’analogo rapporto R/F
σ 2
ym

F
R
FIG.16
Ricordando il significato di varianza si
può ancora scrivere:

∑ (M )
m
−My ⋅ Pi
2
σ 2 yi η x2 = 0 Si ha perfetta INDIPENDENZA
η x2 = = i =1
y PD

σ y2
∑ (y − M y ) ⋅Qj
n
2
m
j η x2 = 1 Si ha perfetta DIPENDENZA
j =1

L’indice di PEARSON non dà però informazioni circa la FORMA della CORRELAZIONE


tra X e Y.

62
Lo studio della forma della correlazione presenta diverse difficoltà. Se si fa l’ipotesi che questa forma sia
lineare, si può prendere in esame il coefficiente di correlazione lineare rxy, così definito:

∑ ( xi − M x ) ( y j − M y ) ⋅
m n fij m n fij

i =1
∑ vxi vx j ⋅
j =1 N

i =1 j =1 N
rxy = = =
σx σy σ xσ y
m n fij m n
Pi

i =1
∑ xi yi
j =1 N
− M xM y ∑
i =1
∑ xi M x
j =1 N
− M xM y
σ xy
= = =
σ xσ y σ xσ y σ xσ y

rxy = ±1 Caso di PERFETTA DIPENDENZA LINEARE

Caso di PERFETTA INDIPENDENZA (la correlazione è nulla o non facilmente


rxy = 0 interpretabile. In questo caso si studia il coefficiente η x2 )

TEOREMA di BONFERRONI : 0 ≤ rxy2 ≤1

63
È stato introdotto, implicitamente, il concetto di MOMENTO MISTO:

m n fij
mxy = ∑∑ xi y j
i =1 j =1 N
Il momento misto calcolato rispetto alle medie prende il nome di COVARIANZA:

σ xy = ∑∑ ( xi − M y ) ⋅ ( yi − M y ) ⋅
m n fij
= mxy − M x M y
i =1 j =1 N
Quindi la covarianza è uguale al momento misto diminuito del prodotto tra le medie delle variabili
statistiche marginali (abbr: v.s.m.)

64
L’espressione della funzione densità di probabilità, nel caso in cui le due variabili X e Y siano
indipendenti e distribuite con la legge normale è:
 2 2
−1 x−Mx   y−My  
2
−1 y−My 
2
−1 x−Mx      + 
1   1 1 2  σx   σ y  
f ( x, y) =
2  σx  2  σ y 
e ⋅ e = e  

2πσx 2
2πσ y 2 2πσxσ y

Se invece le due variabili X e Y sono correlate, l’espressione diventa:

 2
−  − 
2
−1  x−Mx
  x−Mx y M y M y 
−2ρ⋅
y
  ⋅ + 
1 ( )
2  σ
2⋅ 1−ρ  x  σx σ y  σ y  

f ( x, y) = e  

2πσ xσ y 1− ρ 2

ρ è il COEFFICIENTE di CORRELAZIONE e può assumere valori compresi tra -1 e 1.

65
Funzione DENSITA’di PROBABILITA’
Z

FIG. 17

X Y

Nel piano z=cost, la funzione densità di probabilità assume la seguente forma


1  x − M  2 x − Mx y − M y  y − M y 
2

 x
 − 2 ρ ⋅ ⋅ +  =K
2 (1 − ρ 2 )  σ x  σx σy  σ
  
 y

Questa curva è sempre un ellisse.
Ponendo K=1 si ottiene l’ellisse STANDARD.
Ponendo K=4 si ottiene l’ellisse di UGUALE CONCENTRAZIONE

66
ESEMPIO di VARIABILE STATISTICA DOPPIA

X1=1.70 X2=1.75 X3=1.80 X4=1.85 M(x)=1.78


Y1=65 2 0 1 0 Q1=3
Y2=70 1 1 1 0 Q2=3
Y3=75 2 2 2 1 Q3=7
Y4=80 0 3 3 2 Q4=8
Y5=85 0 0 1 3 Q5=4

M(y)=76.4 P1=5 P2=6 P3=8 P4=6 N=25

VARIABILI 1.70 1.75 1.80 1.85  65 70 75 80 85


STATISTICHE  
X 5 6 8 6 Y 3 3 7 8 4
MARGINALI  0.2 0.24 0.32 0.24 0.12 0.12 0.28 0.32 0.16
 

67
Sviluppando i calcoli per ricavare media e varianza rispetto a X si ottiene:

M(x) =1.70⋅0.2+1.75⋅0.24+1.80⋅0.32+1.85⋅0.24 =1.78


σ(2x) =(1.70−1.78)2 ⋅0.2+(1.75−1.78)2 ⋅0.24+(1.80−1.78)2 ⋅0.32
0.3 +(1.85−1.78)2 ⋅0.24
σ(2x) =0.0236
σ(2x) =±0.15
E rispetto a Y sarà:

M ( y ) = 76.4
σ (2x ) = 37.05
σ (2x ) = ±6.08

68
Si hanno le seguenti variabili statistiche semplici:

65 70 75 80 85
Yi =  i =1+4
 fi1 fi2 fi3 fi4 fi5

M ( y1) = 65 ⋅ 0, 4 + 70 ⋅ 0, 2 + 75 ⋅ 0, 4 = 70
 2
 σ ( y1) = (65 − 70) ⋅ 0, 4 + (75 − 70) ⋅ 0, 4 = 20
2 2

M ( y 2) = 70 ⋅ 0,16 + 75 ⋅ 0,333 + 80 ⋅ 0,5 = 76, 2


 2
 σ ( y 2) = (70 − 76, 2) ⋅ 0,16 + (75 − 76, 2) ⋅ 0,33 + (80 − 76, 2) ⋅ 0,5 = 13,86
2 2 2

M ( y 3) = 65 ⋅ 0,125 + 70 ⋅ 0,125 + 75 ⋅ 0, 25 + 80 ⋅ 0,375 + 85 ⋅ 0,125 = 76, 25


 2
 σ ( y 3) = (65 − 76, 25) ⋅ 0,125 + (70 − 76, 25) ⋅ 0,125 + (75 − 76, 25) ⋅ 0, 25
2 + (80 − 76, 25)2 ⋅ 0,375 + (85 − 76, 25)2 ⋅ 0.125 = 35,93
2 2 2

M ( y 4) = 75 ⋅ 0,16 + 80 ⋅ 0,33 + 85⋅,5 = 80,9


 2
 σ ( y 4) = (75 − 80,9) ⋅ 0,16 + (80 − 80,9) ⋅ 0,33 + (85 − 80,9) ⋅ 0,5 = 11,36
2 2 2

69
Si possono raccogliere i risultati in una tabella a 4 colonne e m righe:

X M(yi) s2(yi) Pi s(yi) 2ss(yi) 3ss(yi)

1,7 70 20 5 4,47 8,9 13,4

1,75 76,2 13,86 6 3,72 7,4 11,2

1,8 76,25 35,93 8 5,99 11,9 17,9

1,85 80,9 11,36 6 3,37 6,7 10,1

Vediamo ora la curva di regressione, la curva di variabilità e la fascia di regressione

70
Curva di Regressione Curva di Variabilità

80
40

30

75 20

10

0
70 1,70 1,75 1,80 1,85
1,70 1,75 1,80 1,85

FIG.18 FIG.19

71
80
Fascia di regressione
75
F R
70
R
0< <1
F

1.70 1.75 1.80 1.85


FIG.20

72
Si costruisce la tabella derivata della perfetta dipendenza:
dipendenza

X 1,7 1,75 1,8 1,85


Myi

70 5 0 0 0 5
76,2 0 6 0 0 6

76,25 0 0 8 0 8

80,9 0 0 0 6 6

Myi=76,1 5 6 8 6 25

M(y*) = Myi = 76,1

σy2* = (70 −76,1)2 ⋅ 0,2 + (76,2 −76,1)2 ⋅ 0,24 + (76,25−76,1)2 ⋅ 0,32 + (80,9 −76,1)2 ⋅ 0,24 =13,06 =σy2 pd

73
Da cui si può ricavare l’indice di Pearson:

σy2
13,06
η= 2=
2
=0,35
pd

σy 37,05
x

X 1,70 1,75 1,80 1,85 1,78


y Vy Vx -0,08 -0,03 0,02 0,07
65 -11,4 2\25 0,08 0 1\25 0,04 0 3\25 0,12

70 -6,4 1\25 0,04 1\25 0,04 1\25 0,04 0 3\25 0,12

75 -1,4 2\25 0,08 2\25 0,08 2\25 0,08 1\25 0,04 7\25 0,28

80 3,6 0 3\25 0,12 3\25 0,12 2\25 0,08 8\25 0,32

85 8,6 0 0 1\25 0,04 3\25 0,12 4\25 0,16

76,4 5\25 0,20 5\25 0,24 8\25 0,32 6\25 0,25

σ xy = 0, 283 Covarianza
σ xy
rxy = Coefficiente di correlazione lineare
σ x ⋅σ y

74
DIAGRAMMA a DISPERSIONE

Riportando i risultati dell’esempio precedente su un grafico, si avrà:


Y

85
80
75

70
65 FIG.21

1,70 1,75 1,80 1,85 X

Si hanno diversi tipi di curva interpolatrice:


?

Relazione Lineare Relazione non Lineare


y = a + bx y = a + bx + cx 2

75
Esiste più di una sola curva di un certo tipo che interpola l’insieme dei dati. Per evitare valutazioni
personali, è necessario definire quale può essere la “migliore curva interpolatrice”: se, ad
esempio, si utilizza il metodo dei minimi quadrati,
quadrati la migliore curva interpolatrice è quella che
ha la proprietà di rendere minima la quantità:

d + d + ... + d = min
1
2 2
2
2
n

Y (x,y)
n n

dn

(x,y)
1 1

d1 FIG.22
(x,y)
2 2

76
PROBLEMA delle STIME dei PARAMETRI di UNA
DISTRIBUZIONE
Un problema rilevante della statistica matematica è quello dell’”inferenza statistica” cioè il
problema di come si possono trovare informazioni sulla costituzione di una popolazione basandosi
su un numero limitato di estrazioni, costituenti dei campioni, estratti a caso dalla popolazione
stessa.
Il problema si può scindere in due:
• Stabilire come i parametri della popolazione si possono ricavare dal campione.
• Stabilire che precisione hanno questi parametri ( qui si tralascia questa trattazione )
Si abbia un fenomeno aleatorio X definito da una distribuzione avente densità di probabilità f(x), con
valori argomentali definiti in un intervallo a-b.
b. Da questa popolazione possibile, che ha media m e
varianza σ ² (valori teorici), sono stati estratti a caso n valori

x 1 x 2 . . . x n
dai quali si vogliono dedurre, nella migliore delle maniere, le stime dei parametri teorici m e σ ²-
Queste stime (o valori empirici) saranno una funzione degli n valori estratti ed in generale si potrà
porre :
m = h ( x 1 , x 2 , ..., x n )
σ 2
= g ( x 1 , x 2 , ..., x n )
77
dove h e g sono chiamate funzioni “estimatori”.
Vediamo quali criteri si possono usare per scelta degli estimatori:
1. Una stima è consistente se al tendere all’infinito del numero n di campioni estratti, essa tende
al valore teorico

2. Una stima è affetta da errore sistematico se la media della popolazione delle stime non
coincide con la media della distribuzione da cui è estratto il campione (BIASED)

3. Un stima è efficiente se fra tutte le stime confrontabili è quella che ha varianza minima

4. Una stima è più plausibile quando la si ottiene utilizzando il principio di massima


verisimiglianza

78
Principio della Massima Verisimiglianza

Ricordiamo che la funzione f(x) che rappresenta una distribuzione di probabilità,


dipende dai momenti della distribuzione.
distribuzione
Con riferimento al campione χ1 χ2 … χn estratto a caso, si può osservare che per
ogni valore dx è definita la probabilità infinitesima

dp = f ( x)dx
Si osserva inoltre che la probabilità composta dagli n valori indipendenti χ1 χ2 …χn
vale dP= dp1. dp2…….dpn e cioè:

dP = f ( x1 ) ⋅ f ( x2 ) ⋅ ... f ( xn ) ⋅ d ( x)n

79
Se in questa espressione potessimo mettere i valori teorici (incogniti) della
media e della varianza, otterremmo un certo valore per dP; se invece
introduciamo le stime ( che si considerano note) di questi valori, avremo
ovviamente dei valori diversi di dP !
Fra tutti i valori delle stime, sarà “plausibile” assumere quelli che rendono
massima dP.
Il massimo di dP si ottiene quando è massima la funzione:

V = f ( x1 ) ⋅ f ( x2 ) ⋅ ... f ( xn )

detta “funzione di VERISIMIGLIANZA”


E cioè basta fare
∂V ∂V
=0 =0
∂m ∂ (σ )
2

Queste equazioni consentono di ricavare m e σ2

80
Principio dei Minimi Quadrati

Data una grandezza X da misurare, giacchè non si può effettuare un numero troppo
grande di osservazioni, si estrae un campione limitato
x1 x2 ... xn
2
Si vuole vedere come da questo campione si possano dedurre le stime m e σ : si
ricorre al principio di MASSIMA VERISIMIGLIANZA.
VERISIMIGLIANZA
Per ogni x i si ha la seguente funzione densità di probabilità ( ipotesi di
distribuzione normale) : 2
− ( xi − m )
1
f ( xi ) = ⋅e 2σ 2

2πσ 2

81
mentre la funzione di VERISIMIGLIANZA è
n
−1
1 ∑ ( xi −m )2
V ( x1 , x2 ...xn , σ ) = ⋅ e 2σ
2
2 i =1
n
(2πσ ) 2 2

Questa funzione diventa massima quando è minimo l’esponente dell’esponenziale


e cioè

n n
1
2 ∑ ∑ i = min
( x − m) 2
= min v 2


i
i =1 ovvero
ovvero: i =1

Questo esprime il principio dei minimi quadrati: cioè nel caso di una
distribuzione gaussiana, hanno massima verisimiglianza quelle stime che
soddisfano alla condizione che la sommatoria dei quadrati degli scarti sia
minima.

82
MEDIA e VARIANZA EMPIRICHE
n
1) Dal principio dei minimi quadrati
derivando rispetto ad m si ha
∑ i = min
v2

=1
ii=

δ n 2
( )
n

 ∑ ( xi − m)  = −2∑ xi − m = 0
δ m i=1  i=1

ed uguagliando a zero si ottiene n

∑ x − nm = 0
i m=
∑x x +x +...+x
= i 1 2 n
i =1
n n
questa stima della media è consistente e non è affetta da errore sistematico, infatti
ha una media:
M  m  =
1
n
( M [ x1 ] + M [ x2 ] + ... + M [ xn ]) = n ⋅ = m
m
n

σ 2 σ 2 + σ 2 + ... +σ 2 nσ 2
ed ha come varianza:
( )
σ2 m =
n
=
n2
= 2
n

83
2) Per la stima della σ 2 consideriamo invece la V
n
−1
∑( xi −m)
2
1
V = f ( x1 ) ⋅ f ( x2 ) ⋅ ...... ⋅ f ( xn ) = ⋅ e 2σ
2
i =1
n

( 2Πσ ) 2 2

Operiamo una trasformazione con il seguente algoritmo per semplificare il calcolo


delle derivate
n n 1 n
ln V = − ln 2Π − ln σ − 2 ⋅ ∑ ( xi − m )
2 2

2 2 2σ i =1
Anche adesso avrà massima verisimiglianza per quel valore della stima
2
che σ
rende max lnV: ∂ ln V
=0
∂σ 2
∂lnlnV V = − n 2σˆ + 1 ⋅ 2 σˆ ⋅ n x − m
( )
n 2
( ) −nσˆ + ∑ xi − m = 0
2
2
=0 2 σˆ 2 2 σˆ 4 ∑ i = 0
∂σ 2 i =1 i =1

Da cui

( )
n
1 2 questa stima della varianza è però affetta
σˆ = ∑
2
xi − m ⋅ da errore sistematico
i =1 n

84
Infatti

1 n
( ( )) 1 n 1 n
( 2 n
) ( )
2
( xi − m ) + m − m = ∑ ( xi − m ) + ∑ m − m + ∑ ( xi − m ) ⋅ m − m
2

2

n i =1 n i =1 n i =1 n i =1
Prendiamo in esame il termine:

2 n
( ) ( ) ( )  n 
( )
n
2 2
( xi − m ) ⋅ m − m = m − m ( xi − m ) = m − m  ∑ x1 − nm  = −2 m − m
2

n i =1 n

i =1 n  i =1 
E quindi
1 n
( ) ( )
n
2 1
( xi − m) + ∑ m− m − 2 m− m =
2 2

n i=1 n i=1
1 n 2 1
(
( xi − m) + n m− m − 2 m− m = ) ( )
2 2

n i=1 n
1 n
σˆ = ∑( xi − m) − m− m ( )
2 2
2

n i=1

85
Calcoliamo la media della popolazione σˆ 2
1 n
σ 2
2 n −1
M σˆ  = M ∑ ( xi − m ) − M ( m − m ) = σ −
    =σ ⋅
2 2 2 2

n i =1     n n
Cioè la stima della σˆ 2 è affetta da errore sistematico (la media di σˆ 2 non coincide con σ 2 )
Invece non è affetta da errore sistematico la seguente stima:

n
σ =
2 1
∑ (xi − m )2

n − 1 i =1

86
Concludendo, per determinare la misura di una grandezza X si eseguono n misure X1 X2 ... Xn
Si assume come stima della media della popolazione delle misure possibili la
x 1 + x 2 + ... + x n
n
m =
n

Si calcola la varianza stimata:
v i2
σ 2
= i =1

n −1
E lo scarto quadratico medio (s.q.m.): n

∑ v i2
σ = i =1
n −1
n

Si calcola lo s.q.m. della popolazione delle medie aritmetiche:


σ ∑v 2
i
σm = = i =1

n n ⋅ ( n − 1)
E quindi si scrive

X = m ±σm

87
m
− 3σ m + 3σ m
FIG.23

Alle volte, si conosce la varianza della distribuzione delle misure possibili caratteristica dello
“strumento - metodo - ambiente” σ 2 (fornita dal costruttore)
s
Si può scrivere allora che:
σs
X =m±
n
σ
Si dovrebbe verificare (all’aumentare del numero di osservazioni) che s somigli a σ
: notare
σ
che l’uso di s non consente nessun controllo circa la precisione effettivamente ottenuta
nelle misure fatte.

88
ESEMPIO di CALCOLO della MEDIA e
VARIANZA, EMPIRICHE o STIMATE

La grandezza X, un angolo, è stato misurato 18


volte, con uguale precisione: calcolare la
media, l’errore medio di una osservazione e
l’errore medio delle media

89
Scarti Vi 2
Valori osservati xi
- +
48°21’ 18” +0”.5 0.25
48°21’ 15” -2”.5
2”.5 6.25
48°21’ 20” +2”.5 6.25
48°21’ 17” -0”.5
0”.5 0.25
48°21’ 18” +0”.5 0.25
48°21’ 21” +3”.5 12.25
48°21’ 17” -0”.5
0”.5 0.25
48°21’ 19” +1”.5 2.25
48°21’ 14” 3”.5
-3”.5 12.25
48°21’ 16” 1”.5 2.25

90
Scarti Vi 2
Valori osservati xi
- +
48°21’ 15” -2”.5
2”.5 6.25
48°21’ 19” +1”.5 2.25
48°21’ 16” -1”.5
1”.5 2.25
48°21’ 20” +2”.5 6.25
48°21’ 18” +0”.5 0.25
48°21’ 17” -0”.5
0”.5 0.25
48°21’ 19” +1”.5 2.25
48°21’ 16” -1”.5
1”.5 2.25
xi
xm = ∑ n
= 48 ° 21'17 ''.5 ∑v i ≅0 ∑v i
2
= 64, 50

91
S.q.m. di una singola osservazione:

∑v 2
i
64.50
σ =± =± = ± 3.794 = 1''.95
n −1 17

S.q.m. della media


σ 1''.95
σm = ± =± = 0''.46
n 18

Il valore attendibile dell’angolo X è:

X = xm ± σ m = 48°21'7 ''.5 ± 0''.46


0 ''.5

92
Grafico di σ e σ m .

σm

FIG.24

σ
− 6' ' − 1' '.5
m + 1' '.5 + 6' '

93
Media Ponderata

Una grandezza X viene misurata con strumenti, metodi, condizioni ambientali diverse:
m ±σ ...mn ± σ n
1 1 m2 ± σ 2

Si vuole determinare la media comune alle varie distribuzioni, utilizzando il principio di massima
verisimiglianza: −( mi − m)
2

( )
f mi =
1
⋅e 2σ i2
(funzione densità di probabilità dell’evento mi )
2πσ i2
σ 02
che si può scrivere introducendo il concetto di peso pi =
σ i2
− pi
2( i
m − m)
2

( )
f mi =
1
2πσ 02
⋅ pi ⋅ e 2σ 0

94
σ 02 = varianza dell’unità di peso. 1
( p1 , p2 ,..., pn )
n
−1
∑ ( )
2
pi mi − m
V = ( m1 , m2 ,..., mn , m, σ ) =
2
Quindi: 2 2σ 02i =1
n 0 e
Il massimo della V si ottiene quando ∑ p ( m − m)
n

i i
2
= min ( 0)
2πσ 2 2

i =1
n n
Da cui ∑ p m −m ∑ p
i =1
i i p
i =1
i =0

pi mi + p2 m2 + ... + pn mn
La Media ponderata vale
mp =
p1 + p2 + ... + pn

Si dimostra che la media ponderata è una buona stima ( si tralascia la dimostrazione );


a, così come visto in precedenza per σˆ 2 , che la stima è affetta
Invece per la varianza,
da errore sistematico ed anche qui conviene assumere :

∑ p (m )
2
− mp
σo 2
=
i i

n −1

95
Osservazioni

σ
La varianza dell’unità di peso o
2

A posteriori calcolata con:


A priori (arbitraria)

∑ p (m − m )
n 2

i i p
σ =
2 i =1
n −1
o

Il “peso” è adimensionale. E’ un fattore che permette in qualche modo di comparare


tra loro le misure fatte, assegnando a ciascuna un valore arbitrario,
arb che ne indica
l’affidabilità o il peso: valori di peso
o bassi fanno contare meno, mentre valori di
peso alti,permettono di fare contare di più le misure stimate migliori.

96
La varianza della media ponderata σ
2
mp

Ricavata dal σ 0 a priori =


2
Ricavata dal σ o a
2

teoricamente dipendente dalle posteriori = dà l’idea della


varianze congruenza nelle varie
σ 12 , σ 22 ,...., σ n2 determinazioni
m 1 , m 2 ,.... m n

97
Procedura di calcolo

• Si fissa a piacere σ o
2

σ o2
• Si calcolano i pesi pi = 2
σi
p1 m1 + p2 m2 + .... + pn mn
• Si calcola la media ponderata mp =
p1 + p2 + ... + pn

∑ ( )
n
2
pi m i − m p
• Si calcola σ o =
2 i =1
n −1
σ 02
• Si calcola σ =
2
mp
∑p i
X = m p ± σ mp

98
ESEMPIO DI MEDIA PONDERATA
Sia la grandezza X (ad esempio un angolo): si sono effettuate delle osservazioni
con strumentazioni diverse, ottenendo le tre seguenti serie o popolazioni:
popolazioni

m1 ± σ 1 m2 ± σ 2 m3 ± σ 3
48°24’10’’ ± 5’’ 48°24’25’’ ± 10’’ 48°24’20’’ ± 15’’
Calcolo i pesi:
σ 02 k σ 02 k σ 02 k
p1 = 2 = =9 p2 = 2 = = 2,25 p3 = 2 = =1
σ1 25 σ2 100 σ3 225

Ponendo k= σ 0 =225 (a priori)


2

99
mi pi mi ⋅ pi vi = mi − pi vi2 pi ⋅ vi2
10’’ 9 90 -3,6
3,6 12,96 117
25’’ 2,25 56,2 +11,4 112,9 276
20’’ 1 20 +6,4 40,9 41

∑p i = 12,2 ∑ mi ⋅ pi = 166,2 ∑ i i = 434


p ⋅ v 2

∑ p ⋅m i i
116,2
mp = i =1
= = 13' '.6
1. ∑p i 12,2
m p = 48°°24'13' '.6

100
2.A posteriori
p ( m − m ) 2
432
σ 0 = ∑i =1
n
2 i i p
= = 217
n −1 2
2
2 σ 217
σ = = = 17,8
0

∑ pi 12,2
mp
3.

4. σ m = ±4' '.2
p

In definitiva:
X = m p + σ m p = 48°24'13' '.6 ± 4' '.2

101
Alcune brevi considerazioni sul trattamento delle misure.
Le misure di grandezze a rigore non sono proprio delle estrazioni a caso da popolazioni
possibili.
Occorre precisare infatti che le estrazioni intanto non sono a caso (aleatorie) ma sono
operazioni fatte di solito con attenzione ed inoltre che la popolazione possibile da cui si
estrae deve essere pensata come una popolazione coesa, con individui molto simili. La si
potrebbe però pensare ( è una popolazione virtuale !) come si vuole, anche con individui
molto diversi tra loro: ma non è il caso che interessa le misure topografiche . Quindi la si
deve pensare come una popolazione possibile ma coesa. Ma coesa quanto? Dipende dalla
strumentazione di misura, dalle condizioni ambientali in cui si opera, dall’operatore e dalla
sua abilità e capacità nell’usare la strumentazione.
strumentazione Tutte informazioni che ci vengono fornite
dalle stesse misure fatte, con i valori significativi ricavati (utilizzando la statistica) della media
e della varianza. Alcuni studiosi rifiutano o sono molto critici su questo uso della
Statistica: rifiutano infatti il concetto di popolazione possibile accoppiato al concetto di
una grandezza: una grandezza ha per loro un unico valore di misura ( non è pensabile
che sia paragonata ad un qualcosa che pulsa e/o sia variabile). La fluttuazione
accidentale è una manifestazione dell’incapacità dell’uomo e delle sue strumentazioni, di
determinare quest’unico valore. Quindi non c’è una popolazione di individui della
grandezza ma una popolazione di individui che nascono dalla misura della grandezza,
fornita da strumentazioni incapaci di determinarne il vero valore. In definitiva, la
popolazione si sposta dalla grandezza alla misura della grandezza, ma si ha sempre a
che fare con una popolazione di individui (valori o singole osservazioni) che bisogna
sapere trattare. Né si può pensare che questa popolazione strumentale sia sempre la
stessa e quindi individuabile una volta per tutte perché cambierà per effetto degli altri
parametri (ambiente ed operatore). Si parla in effetti, e ne abbiamo accennato, di un σs
fornito dai costruttori degli strumenti, però non significativo per le operazioni di misura
praticamente effettuate. 102
MISURE INDIRETTE
Abbiamo finora trattato le MISURE DIRETTE di grandezze, anche con peso
diverso.Esiste però un ampio campo che è quello delle MISURE INDIRETTE di
grandezze.
Si possono verificare i seguenti tre casi:
1. la grandezza incognita X da misurare indirettamente
i è funzione di n grandezze
X 1 , X 2 ,..., X n misurate direttamente:
X = f ( X 1 , X 2 ,..., X n )
2. le grandezze incognite X 1 , X 2 ,..., X n sono tante quante le grandezze
Li , M i ,..., N i misurate direttamente:(caso dell’equilibrio)
f i ( X 1 , X 2 ,..., X m / Li , M i ,..., N i ) = 0 con i =1,2,…,m

3. le grandezze misurate direttamente Li , M i ,..., Ni sono in numero maggiore delle


grandezze incognite X 1 , X 2 ,..., X m :(caso della sovrabbondanza)

f i ( X 1 , X 2 ,..., X m / Li , M i ,..., N i ) = 0 con i =1,2,…,n n > m

103
1°CASO: sottocaso lineare

X = aX 1 + bX 2 + cX 3

Le grandezze X1, X2,X3 sono state misurate direttamente, cioè conosciamo la loro
media stimata e la loro varianza stimata.

Vogliamo determinare la popolazione di misure possibili che definisce la X, cioè


c
determinare media stimata e la varianza ( ipotesi di distribuzione normale ):
il sottocaso si risolve facilmente, con le regole viste nel caso di combinazioni di
variabili casuali:

X m = a X 1m + b X 2 m + c X 3 m

2 2 2
= a σ + b 2σ + c 2σ
2
σ
2
x x1 x2 x3
(Grandezze tra loro indipendenti )

104
1°CASO: sottocaso non lineare

X = f ( X 1 , X 2 ... X n )
Siano O1,O2…On delle stime delle medie teoriche X1m , X2m… Xnm.
Si può allora scrivere

O1 = X1m + ν1
O2 = X2m + ν2
……………..
On = Xnm + νn

essendo gli scarti νi sufficientemente piccoli.


 ∂f   ∂f   ∂f 
f (O1 , O 2 ...O n ) = f ( X 1m + ν 1 , X 2 m + ν 2 ,... X nm + ν n ) = f ( X 1m , X 2 m ... X nm ) +   ⋅ν 1 + 
  ∂x
 ⋅ ν 2 + ... + 
  ∂x
 ⋅ν n

 ∂x 1 m  2 m  n m
(sviluppo in serie di Taylor).

105
Si può, quindi, scrivere che:
 ∂f   ∂f   ∂f 
f (O1 , O2 ...On ) − f ( X 1m , X 2 m ... X nm ) =   ⋅ν 1 +   ⋅ν 2 + ... +   ⋅ν n
 ∂x1  m  ∂x 2 m  ∂x n m
cioè la differenza delle due funzioni è una combinazione lineare degli scarti νi .

Possiamo calcolarci la media della differenza delle due funzioni :


 ∂f   ∂f 
M [ f (O1 , O2 ...On ) − f ( X 1m , X 2 m ... X nm )] =   ⋅ M [ν 1 ] +   ⋅ M [ν 2 ] + ... = 0
 ∂x1  m  ∂x 2 m
e cioè

f (O1 , O 2 ...O n ) ≅ f ( X 1m , X 2 m ... X nm ) = X m

dal che si vede che la media teorica di X si otterrebbe introducendo le medie


teoriche delle Xi e che questa equivale anche ad introdurre le stime di Oi.

106
Quindi:
X m = f (O1 , O2 ...On ) ≅ f ( X 1 , X 2 ... X n )

Per la varianza si ha:


2 2 2
 ∂f   ∂f   ∂f 
σ x2 =   ⋅ σ 2 x1 +   ⋅ σ 2 x2 + ... +   ⋅ σ 2 xn
 ∂x1  m  ∂x2  m  ∂xn  m

e se si utilizzano le varianze stimate:


2 2 2
2  ∂f  2  ∂f  2  ∂f  2
σ = 
x  ⋅ σ x1 +   ⋅ σ x2 + ... +   ⋅ σ xn
 ∂x1  m  ∂x2  m  ∂xn  m

( legge della propagazione degli s.q.m. ) nel caso in cui le grandezze X1,
X2,…Xn siano indipendenti.

107
2°CASO: sottocaso lineare
m
 a1 X 1 + b1 X 2 + ...u1 X m = T1 
 a X + b X + ...u X = T 
 2 1 2 2 2 m 2 
 
m  .......... .......... .......... ....... 
 a m X 1 + bm X 2 + ...u m X m = Tm 

Si è supposto che nel sistema ogni equazione contenga una sola misura diretta
(Ti): ciò non lede la generalità della trattazione.
Si consideri la matrice dei coefficienti e la sua inversa
A ji
 a1 b1 ... u1   α 11 α 12 ... α 1m  Essendo α ij = ( − 1) i + j ⋅
    D
 2a b 2 ... u 2   a 21 α 22 ... α 2m  A ji = complemento algebrico del
C=  ..... ..... ..... ....  C-1 =  ..... ..... ..... ....  termine di posto ji
   
a  α ... α mm 
D=determinante della matrice C
 m b m ... u m  m1 α m 2

La matrice inversa è chiamata “soluzione


soluzione indeterminata” del sistema.

108
Le soluzioni del sistema sono, per la regola di Cramer:

 x1 = α 11 ⋅ t1 + α 12 ⋅ t 2 + .... + α 1m ⋅ t m 
 x = α ⋅ t + α ⋅ t + .... + α ⋅ t 
 2 21 1 22 2 2m m 
 
 .......... .......... .......... .......... ........ 
 xm = α m1 ⋅ t1 + α m 2 ⋅ t 2 + .... + α mm ⋅ t m 

E quindi per le medie stimate:

 x1m = α 11 ⋅ T1m + α 12 ⋅ T2 m + .... + α 1m ⋅ Tmm 


 
 2m
x = α 21 ⋅ T1m + α 22 ⋅ T2m + .... + α 2m ⋅ Tmm 
 
 .......... .......... .......... .......... ........ 
 
 xmm = α m1 ⋅ T1m + α m 2 ⋅ T2 m + .... + α mm ⋅ Tmm 

109
E per le varianze stimate

 σ x21 = α 112 ⋅ σ T21 + α 122 ⋅ σ T2 2 + .... + α 12m ⋅ σ Tm 2 


 2 
 σ x 2 = α 21 ⋅ σ T 1 + α 22 ⋅ σ T 2 + .... + α 2 m ⋅ σ Tm 
2 2 2 2 2 2

 
 .......... .......... .......... .......... .......... ........ 
σ 2 = α 2 ⋅ σ 2 + α 2 ⋅ σ 2 + .... + α 2 ⋅ σ 2 
 xm m1 T1 m2 T2 mm Tm 

Ed il primo sottocaso è così risolto.

110
2°CASO:
°CASO: sottocaso non lineare

f i ( X 1 , X 2 ... X m \ Li , M i ,..., N i ) = 0 i = 1,2,..m

Occorre effettuare la linearizzazione del sistema. Supponiamo noti dei valori


approssimati delle incognite
0
X 1m , X 20m ,...
Si può porre:

X 1m = X 10m + x1 X 2 m = X 20m + x 2 ……… X mm = X mm


0
+ xm

essendo le correzioni X incognite,ma piccole, tali che i quadrati e le potenze


i

superiori siano trascurabili. Si ha pertanto:

(
f i X 10m + x1 , X 20m + x 2 ,... X mm
0
)
+ x m / Li , M i ,..., N i = 0 i = 1, 2,...m

111
E sviluppando in serie con sviluppo arrestato ai termini lineari:

( 0
fi X , X
1m
0
2m ... X 0
mm / L i , M i ,..., N i )  ∂f i 
+  x  1  x
 
 ∂ 1 0
⋅ x +
 ∂f i
∂ 2

0
 ∂f
 ⋅ x 2 + ... +  i
 ∂x m

 ⋅ x m = 0
0

f X 0
,
e ponendo i 1m 2 mX(0
... X mm / L i , M i ,..., N i = Ti
0
)
 ∂f i   ∂f i   ∂f 
  = ai   = bi ..... i  = u i

 1x  ∂x2 0  ∂xm 0

Si ottiene:

 a1 x1 + b1 x2 + ... + u1 xm = T1
 a x + b x + ... + u x = T
 2 1 2 2 2 m 2

 .......... .......... .......... .......... ..
 a m x1 + bm x2 + ... + u m xm = Tm

112
Cioè si ha il sistema visto nel 1° sottocaso e già trattato.

In questo caso però le Ti non sono delle misure dirette, ma sono funzioni
funz di
misure dirette e quindi vale:
2 2 2
 ∂f   ∂f   ∂f 
σ Ti2 =  i  ⋅ σ Li2 +  i  ⋅ σ Mi
2
+ ... +  i  ⋅ σ Ni2
 ∂Li m  ∂M i   ∂N i 

Anche qui si ipotizza che Li, Mi, ….,Ni siano tra loro indipendenti
in e che tra loro
indipendenti siano anche i vari Ti.

113
3° caso : Osservazione indiretta di m grandezze mediante un
numero esuberante di misure dirette.
1° sottocaso lineare
m
 a1 X 1 + b1 X 2 + ... + u 1 X m = T1
 a X + b X + ... + u X = T
 2 1 2 2 2 m 2

.......... .......... .......... ..........
n
 a m X 1 + b m X 2 + ... + u m X m = T m
.......... .......... .......... ........
a n X 1 + b n X 2 + ... + u n X m = T n

Se introduciamo i valori stimati delle Ti , si ottiene un sistema incompatibile ed


occorre introdurre degli scarti vi incogniti:

a i X 1 m + b i X 2 m + ... u i X mm − T im = v i

114
Ma il sistema da incompatibile diventa indeterminato (m + n incognite in n
equazioni).
Osserviamo però che le medie Xim possono essere trovate applicando il criterio
di stima del “principio
principio di massima verosimiglianza”
verosimiglianza ( infatti il campione
disponibile dei Ti è esuberante, essendo essi funzioni dei valori delle Xim).

Ricordiamo che la funzione densità di probabilità del dato Tim è:

− (Tim − Tim ) 2

ϕ (Tim , X 1m , X 2 m ,... X mm , Tim ,σ )= 1 2σ Ti2


2
Ti ⋅e
2πσ 2
Ti

Ed introducendo il concetto di peso


1
− p i ( T im − T im ) 2
 pi  2

σ 02 ϕ =   ⋅ e
2
0
pi = 2
 2 πσ
2
σ Ti 0 

115
La funzione di verosimiglianza V vale:

∑ p i (Tim −Tim )
1 2

( ) ⋅ ( p p ..... p )
n 1 −
2 −2 2σ 02 i =1
V = 2πσ 0 1 2 n
2 ⋅e

Sarà verosimile assumere quei valori dei parametri X1m, X2m … che rendano
massima la V: questo massimo si ha quando

∑ pi (Tim − Tim ) = min


n

i =1
2
o anche ∑ i i = min
p ⋅
i =1
v 2

Il minimo si ha per quei particolari valori Tim*

116
(essendo T*im=ai X*1m+bi X*2m+…ui X*mm)

Che soddisfano il sistema


 ∂  n 
( )
2


∂ * 

∑ p i Tim − T im
*
=0

 1m  i =1
X
  n 

( )
2

m  ∂X *  ∑
 p i T im − T *
im =0
2 m  i =1 

 .......... .......... .......... .......... ....
 ∂  n 
( )
2

 ∂X * ∑ i im − =0
*
 p T T im
 mm  i = 1 
Queste m equazioni aggiunte alle n equazioni del sistema generato risolvono
completamente il problema.

117
Sviluppando il sistema prima scritto:
 ∂ T im*
( )
n 2

− 2 ∑ p i T im − T *
= 0

im *
 i =1 X 1m
 ∂ T im*
( )
n 2

m− 2 ∑ p i T im − T im *
= 0
i =1 ∂ X *


2m
.......... .......... .......... ........

∂ T im*
( )
n 2
− 2 ∑ p i T im − T im *
= 0
 i =1 ∂ X mm
*

∂T * ∂ T im* ∂Tim*
= b i .........
=ai
im
∂X 2m*
= ui
ed essendo ∂X *
1m ∂X mm
*

118
Si ottiene:

( ) ( )
 p1 T1m − T1*m ⋅ a1 + p 2 T2 m − T2*m ⋅ a 2 + ... + p n (Tnm − Tnm *
) ⋅ an = 0

( ) ( )
 p1 T1m − T1m ⋅ b1 + p 2 T2 m − T2 m ⋅ b2 + ... + p n (Tnm − Tnm ) ⋅ bn = 0
m
* * *

 .......... .......... .......... .......... .......... .......... .......... .......... .......... .......
( ) ( )
 p1 T1m − T1*m ⋅ u1 + p 2 T2 m − T2*m ⋅ u 2 + ... + p n (Tnm − Tnm *
) ⋅ un = 0

Prendiamo in esame ad esempio la prima equazione e sviluppiamola:


sviluppiamo

p1T1m a1 − p1T1*m a1 + p 2T2 m a 2 − p 2T2*m a 2 + ... + p nTnm a n − p nTnm


*
an = 0

(
− p1a1 a1 X 1*m + b1 X 2*m + ...u1 X mm
*
) (
− p2 a 2 a2 X 1*m + b2 X 2*m + ...u 2 X mm
*
+ ... )
(
... − p n an a n X 1*m + bn X 2*m + ...u n X mm
*
)
+ p1T1m a1 + p2T2 m a 2 + ... pnTnm a n = 0

119
Che può essere così scritta in forma sintetica:

[ pi ai ai ]X 1*m + [ pi aibi ]X 2*m + ... + [ pi ai ui ]X mm


*
= [ pi aiTim ]

E così per le altre equazioni: si ottiene in definitiva il SISTEMA NORMALE

 [ pi ai ai ]X 1*m + [ pi ai bi ]X 2*m + ... + [ pi ai ui ]X mm *


= [ pi aiTim ]
 [ pi bi ai ]X 1m + [ pi bi bi ]X 2 m + ... + [ pi bi ui ]X mm = [ pi biTim ]
 * * *
m
.......... .......... .......... .......... .......... .......... .......... .......... ......
 [ pi ui ai ]X 1*m + [ pi ui bi ]X 2*m + ... + [ pi ui u i ]X mm *
= [ pi uiTim ]

Questo sistema fornisce valori più plausibili delle X*im.

120
Introducendo i valori sopra ottenuti nel sistema delle equazioni generate,
genera si possono
calcolare gli scarti v*
i

ai X 1*m + bi X 2*m + ...ui X mm


*
− Tim = vi*

Che risultano quindi anche come: vi = Tim − Tim


* *

È facile constatare le seguenti tendenze

[a v ] = 0
*
i i [b v ] = 0
*
i i [u v ] = 0
*
i i (utili per il
i controllo dei calcoli)

In seguito verrà trattato il calcolo delle varianze.


varianze

121
3° Caso: sottocaso non lineare

f i ( X 1 , X 2 ,... X m / Li , M i ,... N i ) = 0 i = 1, 2,... n n>m


Si trovano i valori approssimati X 10m , X 20m ,... X mm
0
delle incognite e si pone:

X 1m = X 10m + xi X 2 m = X 20m + x 2 ... X mm = X mm


0
+ xm
(
f i X 10m + xi , X 20m + x2 ,... X mm
0
+ xm / Li , M i ,... N i = 0 )
si sviluppa in serie:
(
f i X 10m , X 20m ,... X mm
0
)  ∂f   ∂f   ∂f
/ L i , M i ,... N i +  i  ⋅ xi +  i  ⋅ x2 + ... +  i

 ⋅ xm = 0
 ∂ xi  0  ∂x 2  0  ∂xm 0
da cui
ai xi + bi x2 + ... + ui xm + Ti = 0
ovvero ai xi + bi x2 + ... + ui xm + T im = vi
essendo (
Tim = fi Xim
0
, X20m,...Xmm
0
/Li , Mi ,...,Ni )
cioè ci siamo così ridotti al caso lineare già esaminato.

122
Si deve calcolare la varianza del termine noto di ogni equazione

 ∂f   ∂f   ∂f i 
2 2 2
2 2 2 2
σ Ti =  i  ⋅σ Li +  i  ⋅σ Mi + ... +   ⋅ σ Ni
 ∂ L i m  ∂ M i m  ∂ N i m
-Vediamo
Vediamo la trattazione in NOTAZIONE MATRICIALE:

Sia A la matrice dei coefficienti e T il vettore termini noti


 ai bi ... ui  T 1m
 
 a2 b2 ... u2 
T=
T 2m
A=
... ... ... ...  M
 
a b ... un  T nm
 n n
Si calcola il peso del termine noto generico
σ02
pi = 2
σT i
Si moltiplica ogni riga della matrice A per il peso che compete al termine noto e si
esegue il prodotto di matrici.

123
 ai a2 ... an   pi ai pi bi ... p1ui 
   
 b1 b2 ... bn   p 2 a2 p 2b2 ... p 2u 2 
 ...  ⋅
... ... ... ... ... ... ... 
   
u u2 ... u n   p n an p n bn ... p n u n 
 i
Questo prodotto permette il calcolo dei coefficienti del sistema normale.
I termini noti invece si ottengono effettuando il prodotto

 ai a2 ... an   p1T 1m 
   
 b1 b2 ... bn   p2 T 2 m 
 ... ...  ⋅  =T ⋅N
... ... ........ 
  
u u ... un   pn T nm 
 i 2

Il sistema normale può sintetizzarsi in


AT ⋅ A ⋅ X * − T ⋅ N = 0
da cui

(
X = A ⋅ A ⋅ TN
* T
)
−1

124
Calcolo delle varianze delle *
X im

Si è visto che:
[ ] [ ] [
 x1* = α 11 pi ai T im + α 12 pi bi T im + ... + α 1m pi ui T im ]
 *
[ ] [ ] [
 x2 = α 21 pi ai T im + α 22 pi bi T im + ... + α 2 m pi ui T im ]

[ ] [ ] [
 xk* = α k 1 pi ai T im + α k 2 pi bi T im + ... + α km pi ui T im

]

[ ] [ ] [
 xm* = α m1 pi ai T im + α m 2 pi bi T im + ... + α mm pi ui T im

]
sviluppiamo la X kgenerica:
( ) ( )
xk* = α k 1 p1ai T 1m + p2 a2 T 2 m + ... + pn an T nm + α k 2 p1b1T 1m + p2b2 T 2 m + ... + pn bn T nm + ...
(
... + α km p1b1T 1m + p2b2 T 2 m + ... + pnbn T nm = )
= T 1m p1 (α k 1a1 + α k 2b1 + ... + α km u1 ) + T 2 m p2 (α k 1a2 + α k 2b2 + ... + α km u 2 ) + ...

... + T nm p1 (α k 1an + α k 2bn + ... + α km u n )

e quindi con le solite leggi:

125
σ X2 = σ T2 p12 (α k 1 a1 + α k 2 b1 + ... + α km u1 )2 + ...
k 1m

... + σ T22 m p 22 (α k 1 a 2 + α k 2 b2 + ... + α km u 2 ) + ...


2

... + σ T2nm p n2 (α k 1 a n + α k 2 bn + ... + α km u n ) =


2

ed essendo σ 02 = σT2 pi2im


= σ p1 (α k 1 a 1 + α k 2 b1 + ... + α km u 1 ) + ...
2 2
0
... + σ 02 p 1 (α k 1 a 2 + α k 2 b 2 + ... + α km u 2 ) + ...
2

... + σ 02 p n (α k 1 a n + α k 2 b n + ... + α km u n ) + ...


2

[
σ X2 = σ 02 p1 (α k 1ai + α k 2bi + ... + α km ui )2 ]
[p (α a +α b +...+α u ) ] =α
k

Ma si dimostra che 2
1 k1 i k2 i km i kk
e quindi
2
σ 2
X k
= α kk ⋅σ 0
essendo n


2
pi ⋅ v i
2
σ =
0
i =1
n−m
(calcolo a posteriori della varianza dell’unità di peso)

126
OSSERVAZIONI INDIRETTE
Scrivere SISTEMA EQUAZIONI
GENERATE LINEARIZZATO
Scrivere SOLUZIONI SISTEMA NORMALE

Esplicitare la 1°mettendo
mettendo in evidenza i termini noti

Considerare la formazione di una nuova variabile casuale


e calcolarne la σ 2

farne lo sviluppo nel caso di tre sole incognite

2
Si ottieneσ =αkk ⋅σ
2
Xk 0

127
VALUTAZIONE di σ 0
SISTEMA delle EQUAZIONI GENERATE
Considerare le medie teoriche sia
delle incognite che delle grandezze misurate
scrivere sistema equazioni generate linearizzate
contenente le correzioni per avere medie teoriche
Sottrarre questo sistema dal sistema equazione
generato di tipo tradizionale
Considerare il caso di
n=3 equazioni
m=2 incognite
Elevare al quadrato e sommare
Considerare la (Ii=If)
una nuova variabile casuale
Calcolarne il valore MEDIO
in generale
nσ 2
0 { }
= M v i2 + m σ 2
0

M {v }
2
e quindi
σ 2
= i
n − m
0
e per un valore stimato si pone

σ 0

128
RISOLUZIONE di UN PICCOLO SISTEMA
CON IL METODO REITERATIVO DELLE
ELIMINAZIONI SUCCESSIVE

Si abbia ad esempio il seguente


sistema di 3 equazioni in 3 incognite:

8 x1 − x2 + 2 x3 + 3 = 0

− x1 + 6 x2 − 2 x3 + 4 = 0
2 x − 2 x + 4 x + 1 = 0
 1 2 3

129
x1 x2 x3 T.N.

1°riga 8 -1 2 3

1 - 2 - 3
8 8 8
× + × + +
×
×
2°riga -1 × 6 -2 4
×
47 - 7 35
8 4 8

3°riga 2 + - -2 + 4 + 1

- -7 7 1
4 2 4

130
1. Si dividono i coefficienti di x 2 , x 3 e T.N.
per il coefficiente di x1 e si cambia di
segno (nella 1° equazione)

2. Si moltiplica il coefficiente di x della 2°


2
1
equazione per il coefficiente di x 2
modificato (1° equaz.) e si somma al
coeff. di x 2 della 2° equaz.
Si moltiplica ancora il coeff. di x1 della 2°
2
equazione per il coefficiente di x 3
modificato (1° equaz.) e si somma al
coeff. di x 3 della 2°° equaz e così di
seguito.

131
Quindi si moltiplica il coefficiente di x1 della 3°equazione
3
per il coefficiente di x 2 modificato (1°equazione)
(1 e si somma
al coefficiente di x della 3° equazione e così di seguito.
2

3. Si ottiene il sistema ridotto:

 47 7 35
 8 x 2 − 4 x 3 + 8 = 0

− 7 x + 7 x + 1 = 0
 4 2 2
3
4
che può essere facilmente risolto.

132
SISTEMA NORMALE

RISOLUZIONE

LINEARE NON LINEARE


procedimenti operativi per la ricerca di valori appross. delle incognite

Algoritmi esatti: Algoritmi iterativi


A. di Gauss Metodo del GRADIENTE CONIUGATO (CG)
A. di CHOLESKY Metodo di CHOLESKY incompleto gradiente coniugato (IGCG)
A. di HOUSEHOLDER,ecc

133

Potrebbero piacerti anche