Sei sulla pagina 1di 91

ELEMENTI DI STATISTICA PER

L’IDROLOGIA
CORSO DI COSTRUZIONI IDRAULICHE
2020-2021
h
Introduzione
Problema ingegneristico: determinare valori di grandezze a partire
da altre grandezze note (profilo del pelo libero al passaggio di una
data portata).

Il ricorso alle elaborazioni statistiche è fondamentale per la


valutazione della distribuzione dei possibili valori futuri di una
grandezza sulla base dei valori assunti in passato.
Tali grandezze sono definite come variabili casuali, in quanto i loro
valori dipendono da un numero rilevante di cause mal conosciute o
del tutto sconosciute.
Introduzione
Le variabili casuali possono essere:
discrete continue

Il punteggio ottenuto con il lancio dei dadi. Il peso di un pesce pescato.

limitate illimitate

Volume d’acqua di una diga. Altezza di pioggia.


Introduzione
La popolazione di una variabile casuale è l’insieme dei valori (non
tutti necessariamente diversi tra loro) che la variabile può assumere.

Le cause che producono il fenomeno devono mantenere


caratteristiche mediamente costanti nel tempo.
Definizione attendibile delle principali caratteristiche della
popolazione di una grandezza partendo dalla conoscenza di serie di
osservazioni sperimentali.
Probabilità
Si definisce probabilità di un evento E il rapporto tra il numero m
dei casi favorevoli a E ed il numero totale n dei casi possibili:
m
p
n

1
p  0.5
2

L’evento generico in esame può essere considerato sotto due diversi


punti di vista:

indipendente dipendente
Probabilità incondizionata Probabilità di E1 condizionata a E2

p  E1  p  E1 E2 
Probabilità
Due eventi E1 ed E2 si dicono mutuamente indipendenti quando il
fatto che uno dei due sia accaduto non influisce sulla probabilità
che accade l’altro.
Probabilità condizionata = Probabilità incondizionata

p  E1 E2   p  E1 

Due eventi E1 ed E2 si dicono mutuamente incompatibili quando si


escludono a vicenda.
Si definisce probabilità composta di due eventi E1 ed E2 la
probabilità che accadano entrambi.
p  E1  E2 

Si definisce probabilità totale di due eventi E1 ed E2 la probabilità


che accada almeno uno dei due.
p  E1  E2 
Probabilità
Il calcolo delle probabilità è basato sui seguenti assiomi
fondamentali:
casi favorevoli
0  p  1
casi possibili

evento impossibile evento certo

La probabilità totale di due eventi è uguale alla somma delle


probabilità di ciascuno dei due diminuita della loro probabilità
composta
p  E1  E2   p  E1   p  E2   p  E1  E2 

Se i due eventi sono mutuamente incompatibili la probabilità totale


è uguale unicamente alla somma delle loro probabilità
incondizionate:
p  E1  E2   p  E1   p  E2 
Probabilità
La probabilità composta di due eventi è uguale al prodotto della
probabilità incondizionata di uno dei due per la probabilità
condizionata dall’altro:
p  E1  E2   p  E1   p  E2 E1   p  E2   p  E1 E2 

Se i due eventi sono mutuamente indipendenti la probabilità


composta dei due risulta pari al prodotto delle loro probabilità
incondizionate:
p  E1  E2   p  E1   p  E2 

La probabilità che si verifichi l’evento E, p(E), in n situazioni


mutuamente indipendenti tra di loro, vale quindi:

pn  E   p  E 
n
Distribuzioni di probabilità
Nel caso di una variabile discreta è possibile associare a ciascun
valore della grandezza una probabilità.
La funzione p(x), che associa ad ogni valore della variabile
casuale x la probabilità corrispondente, si chiama funzione di
probabilità di x.

La somma delle probabilità di tutti i valori possibili deve essere


uguale a uno, perché è certo che il valore effettivamente assunto
dalla variabile deve risultare tra quelli possibili.
Distribuzioni di probabilità
Nel caso di una variabile continua si definisce invece la funzione
P(x), che definisce, per ogni valore di x, la probabilità che la
variabile assuma un valore non superiore ad x stesso (probabilità
di non superamento).

1-P(xa)

P(xa) P(xa)

xa

La probabilità di superamento di un assegnato valore x è uguale al


complemento ad uno della probabilità di non superamento P(x).

P  x  xa   1  P  xa 
Distribuzioni di probabilità
Nel caso di una variabile continua si definisce invece la funzione
P(x), che definisce, per ogni valore di x, la probabilità che la
variabile assuma un valore non superiore ad x stesso (probabilità
di non superamento).

P(xb) P(xb) - P(xa)

P(xa)

xa xb

La probabilità che un valore della variabile x ricada in un


intervallo prefissato è uguale alla differenza tra le probabilità di
non superamento dei due estremi.
P  xa  x  xb   P  xb   P  xa 
Distribuzioni di probabilità
Le stesse considerazioni sono valide anche per le distribuzioni di
variabili discrete.
Distribuzioni di probabilità
Nel caso di variabile continua si definisce densità di probabilità,
p(x), la derivata della funzione di probabilità P(x).
dP( x)
p ( x) 
dx

P(xa)

xa xa

xa

P  xa   P  x  xa   dp( x)  dx  P  x 
a

Distribuzioni di probabilità
Nel caso di variabile continua si definisce densità di probabilità,
p(x), la derivata della funzione di probabilità P(x).
dP( x)
p ( x) 
dx

 

 dP( x)  1

 dp( x)  dx  1

Grandezze delle distribuzioni
Data una variabile casuale discreta si definisce momento di r-esimo
ordine rispetto al valore x0 la grandezza:
N
  x     xi  x0   p  xi 
' r
r
i 1

xi –x0

x0 xi

Il momento di primo ordine rispetto all’origine prende il nome di


media aritmetica:
N
  x    xi  p  xi 
i 1
Grandezze delle distribuzioni
Per tutti i momenti di ordine superiore al primo il valore di x0 si
assume di norma coincidente con la media μ(x).
N
r  x     xi    x    p  xi 
r

i 1

In particolare il momento del secondo ordine rispetto alla media


prende il nome di varianza.
N
 x     xi    x   p  xi 
2
 2

i 1

Nel caso di una variabile continua le stesse grandezze vengono


ottenute sostituendo le sommatorie con degli integrali:
N 
  x    xi  p  xi  media   x   x  p  x   dx
i 1 

N 

 x     xi    x   p  xi   x    x    x    p  x   dx
2 2
 2
varianza  2

i 1 
Grandezze delle distribuzioni
Si definisce scarto quadratico medio (deviazione standard) della
variabile casuale x la radice quadrata σ(x) della sua varianza.
Lo scarto quadratico medio misura la dispersione dei valori
intorno alla media.
Si definisce coefficiente di variazione il rapporto tra lo scarto
quadratico medio e la media della variabile casuale x:
  x
CV  x  
  x

Il CV, in quanto adimensionale, permette di confrontare il grado di


dispersione delle popolazioni di variabili casuali diverse.
Una misura dell’asimmetria della funzione di densità di probabilità
può essere effettuata tramite il rapporto tra il momento del terzo
ordine ed il cubo dello scarto quadratico medio.
3  x 
  x 
 3  x
Grandezze delle distribuzioni
Si definisce mediana della distribuzione della variabile x il valore
xmed la cui probabilità P(xmed) è uguale a 0.50.

0.5

xmed

Si definisce moda della distribuzione di una variabile casuale x il


valore xmod a cui corrisponde il massimo della funzione p(x).

p(xmed)

xmod
Tempo di ritorno
Nella progettazione delle opere idrauliche non si fa riferimento alla
probabilità dell’evento più gravoso ma al suo tempo di ritorno
Si definisce tempo di ritorno corrispondente ad una data grandezza
x l’intervallo di tempo in cui tale valore viene uguagliato o
superato mediamente una sola volta.
1
T  x 
1 P  x

L’obiettivo dell’analisi statistica dei dati idrologici è quindi quello


di determinare il valore x dell’evento idrologico cui corrisponde un
assegnato tempo di ritorno T(x).
Distribuzione binomiale
La distribuzione binomiale è la più importante tra le distribuzioni
di probabilità di variabili discrete.
Sia E un evento casuale con probabilità di accadimento θ e
probabilità di non accadimento 1- θ.
Se con m si indica il numero di volte in cui l’evento E si presenta in
N osservazioni allora la probabilità corrispondente all’evento E
vale:
N
p  m      m  1   
N m

m
con
N N!
  
 m   N  m  !m !

I parametri caratteristici di questa distribuzione sono i seguenti:


media  n  

varianza  n    1   

scarto quadratico medio  n   1   


Distribuzione binomiale
θ 0.3 percentuale di palline bianche
m p(m)
1-θ 0.7 percentuale di palline nere
0
N 20 numero di estrazioni
1
2
Stimare la probabilità p(m) corrispondente all’estrazione 3
di un numero di palline bianche pari ad m. 4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
Distribuzione binomiale
θ 0.3 percentuale di palline bianche
m p(m)
1-θ 0.7 percentuale di palline nere
0 0.000798
N 20 numero di estrazioni
1 0.006839
2 0.027846
Stimare la probabilità p(m) corrispondente all’estrazione 3 0.071604
di un numero di palline bianche pari ad m. 4 0.130421
5 0.178863
0.25 6 0.191639
7 0.164262
0.2
8 0.114397

0.15 9 0.06537
10 0.030817
p(m)
0.1 11 0.012007
12 0.003859
0.05
13 0.001018

0 14 0.000218
0 5 10 15 20 25 15 3.74E-05
m
16 5.01E-06
17 5.05E-07

media 6 18 3.61E-08

varianza 4.2 19 1.63E-09

scarto 2.05 20 3.49E-11


Distribuzione normale
La densità di probabilità della distribuzione vale:
 1  x  x 2 
 
   
1   x 
p  x 
 2   
e
2    x 

dove
- μ(x) è la media della distribuzione;
- σ(x) è lo scarto quadratico medio della distribuzione.

a b c

p(x) p(x)

x x
Distribuzione normale
La funzione di densità di probabilità è una funzione simmetrica
rispetto alla media: quindi la mediana coincide con la media.
Inoltre presentando p(x) il punto di massimo per x uguale a μ(x),
anche la moda coincide con la media.
Al fine di svincolarsi dai due parametri della distribuzione, scarto e
valore medio, si introduce la variabile adimensionale u:
x   ( x)
u
 ( x)

funzione lineare crescente della variabile originaria x, che prende il


nome di variabile ridotta o standardizzata   (u )  0 ;  (u)  1.

P (u )  P ( x) Distribuzione normale in forma canonica

 u2 
dx  
p(u )  p( x)   p ( x)   ( x) p u  
1
e
 2 
 
du 2
Distribuzione normale
Per calcolare la probabilità P(x) e la densità di probabilità p(x)
relative ad un valore assegnato x si procede come segue:
• Stima della media μ(x) e dello scarto quadratico medio σ(x);
x   ( x)
• Stima dei corrispondenti valori di u per ogni x; u
 ( x)

P (u )  P ( x)
Distribuzione lognormale
La distribuzione lognormale a due parametri è caratterizzata dal
fatto che a seguire la legge normale non è la variabile originaria x,
ma il suo logaritmo y  ln x .
La densità di probabilità della distribuzione vale:
 1  ln x    y   2 
 
    
1     
y
p  x 
 2 
e
x  2    y 

La distribuzione della x risulta limitata inferiormente (limite pari a


zero) e illimitata superiormente.

La distribuzione della x non è simmetrica al contrario di quella


della y.
xmod  xmed   ( x)

xmod , xmed ,  ( x)  f  ( y ) 
Distribuzione lognormale
Poiché la variabile y è distribuita normalmente ci si può ricondurre
alla variabile ridotta u per mezzo della trasformazione
u  a  ln x  b  a  y  b

 (u )  a   ( y )  1 a  1  ( y)

 (u )  a   ( y )  b  0 b    ( y)  ( y)

La media e lo scarto quadratico medio della variabile y sono legati


alla media ed alla varianza della variabile originaria x tramite le
seguenti relazioni:
1   2 ( x) 
 ( y)  ln  ( x)  ln 1  2 
2   ( x) 

  2 ( x) 
 ( y)  ln 1  2 
2

  ( x) 
Distribuzione lognormale
Nel caso della legge lognormale a tre parametri ci si riconduce
alla variabile ridotta u per mezzo della trasformazione
u  a  ln  x  x0   b

I tre parametri x0, a e b possono essere espressi in funzione della


media μ(x), dello scarto quadratico medio σ(x) e del momento del
terzo ordine rispetto alla media μ3(x):
  ( x)  x0 
3
 4 ( x)

3 ( x)   3 ( x)  3   ( x)   2 ( x)  2 ( x)  3    ( x)  x0 

1
a
  2 ( x) 
ln 1  2
   ( x)  x0  

1
b  a  ln   ( x)  x0 
2a
Distribuzione di Gumbel
Nello studio statistico di certi eventi (piene, piogge intense…)
riveste molta importanza la conoscenza della legge di probabilità
seconda la quale è distribuito il valore massimo di una variabile x
in un campione di dimensione N assegnato.
Distribuzione di Gumbel
Ripetendo tale ragionamento per ciascuno degli N anni di
osservazione è possibile introdurre una nuova variabile:
x  max  zi 

La probabilità PN(x) che tale grandezza x non venga superata in N


eventi mutuamente indipendenti tra di loro vale
PN  x   P  x 
N

Per valori grandi di x, indicando con α l’intensità di funzione e con


ε l’estremo atteso, si può ritenere
1   x  
P( x)  1  e
N
e quindi
N
 1   x   
PN  x   P  x   1   e   
N

 N 

Tale funzione tende asintoticamente alla legge di Gumbel:


   x     x 
PN  x   e e pN  x     e
e   x  
Distribuzione di Gumbel
Per svincolarsi dai due parametri α ed ε basta introdurre la
variabile ridotta:
y    x   

Si ottengono così le seguenti espressioni:


y
P( x)  P( y )  e  e

y
p( y )  ee y

Per calcolare la probabilità P(x) e la densità di probabilità p(x)


relative ad un valore assegnato x si procede come segue:
• Stima della media μ(x) e dello scarto quadratico medio σ(x);
• Stima dei parametri α ed ε;
1.283

 ( x) y    x   
y
P( x)  P( y )  e  e

   ( x)  0.45   ( x)
Distribuzione di Gumbel
Il parametro α, che è inversamente proporzionale a σ(x), controlla
la forma del grafico della funzione densità di probabilità:
Il parametro ε controlla invece la posizione del grafico.

p(x)
b

p(x)
x c d

x
Frequenza di un campione
Il problema centrale delle applicazioni idrologiche della statistica
è quello di risalire alla funzione di probabilità di una data
grandezza in funzione del numero finito di misurazioni della stessa
grandezza a disposizione (problema di inferenza).

A partire dal campione non è naturalmente possibile individuare


con esattezza la funzione di probabilità secondo la quale la
variabile è distribuita.
Si possono impiegare tuttavia delle procedure che offrono certe
garanzie nel limitare il più possibile il probabile margine di errore.
Frequenza di un campione
Un campione, che è costituito da un numero finito N di osservazioni
distinte, è un’entità per sua natura discreta.
Nel caso di un campione è quindi naturale assumere che la
grandezza corrispondente alla probabilità di un dato valore sia il
rapporto tra il numero ni delle osservazioni del campione che
hanno un dato valore xi ed il numero totale delle osservazioni N.
ni
f ( xi )  f i  Frequenza relativa
N

f(xi)

La frequenza con cui un dato valore si presenta in un campione


approssima la probabilità che gli corrisponde nella popolazione
tanto meglio quanto più il campione è numeroso (Teorema di Bernoulli).
Frequenza di un campione
La distribuzione di frequenza dei valori di un campione si può
rappresentare con un diagramma simile a quelli impiegati per la
rappresentazione delle distribuzioni di probabilità delle variabili
discrete.

f(x) p(x)

x x
Frequenza di un campione
Quando la variabile è continua la ripetizione di un valore è invece
un fatto rarissimo, di conseguenza quasi tutti i valori osservati
presentano frequenza pari a 1/N.

f(x)

x
Frequenza di un campione
Anno h (mm)
1) Dimensione nel campione N: 20
1961 21.00
1962 32.00
1964 28.60 2) Ampiezza del campione:
1965 30.00 60.20 – 11.80 = 48.40 mm
1966 47.80
1967 53.22
3) Numero di classi: 6
1968 60.20
1970 25.40
1973 55.60 4) Estremi di classe:
1974 37.80
11.80 mm
1975 53.20
19.86 mm
1976 15.80
1977 15.40
27.93 mm
1978 29.00
36.00 mm
1979 17.40 44.06 mm
1980 11.80 52.13 mm
1981 25.00 60.20 mm
1982 22.00
1983 16.80
1985 12.80

Massime altezze di pioggia annuali


pioggia di durata un’ora per il
pluviografo di Castellana Grotte.
Frequenza di un campione
Estremi di classe Frequenza di classe Frequenza di Frequenza relativa
(mm) assoluta classe relativa cumulata
11.80 - 19.86 6
19.86 – 27.93 4
27.93 – 36.00 4
36.00 - 44.06 1
44.06 - 52.13 1
52.13 - 60.20 4
Frequenza di un campione
Estremi di classe Frequenza di classe Frequenza di Frequenza relativa
(mm) assoluta classe relativa cumulata
11.80 - 19.86 6 0.30
19.86 – 27.93 4 0.20
27.93 – 36.00 4 0.20
36.00 - 44.06 1 0.05
44.06 - 52.13 1 0.05
52.13 - 60.20 4 0.20

ni
f ( xi )  fi 
N
Frequenza di un campione
Estremi di classe Frequenza di classe Frequenza di Frequenza relativa
(mm) assoluta classe relativa cumulata
11.80 - 19.86 6 0.30 0.30
19.86 – 27.93 4 0.20 0.50
27.93 – 36.00 4 0.20 0.70
36.00 - 44.06 1 0.05 0.75
44.06 - 52.13 1 0.05 0.80
52.13 - 60.20 4 0.20 1.00

ni
F ( xi )  Fi    f i
N
Frequenza di un campione
Essendo le variabili idrologiche generalmente di tipo continuo, è
necessario introdurre un concetto analogo alla probabilità di non
superamento: la frequenza di non superamento o frequenza
cumulata relativa.
La frequenza di non superamento di un dato valore si definisce
come il rapporto tra il numero delle osservazioni con valore non
maggiore di quello assegnato ed il numero totale delle osservazioni.

ni
F ( xi )  Fi    f i
N

In questo modo risulta possibile far corrispondere un valore della


frequenza di non superamento a qualunque valore della variabile
(e non solo a quelli effettivamente assunti dalle N osservazioni del
campione).
Frequenza di un campione
1. Riordinare il campione dei dati in maniera crescente e assegnare il numero
d’ordine a ciascuna grandezza del campione.
Anno h (mm) i h (mm)
1961 21.00 1 11.80
1962 32.00 2 12.80
1964 28.60 3 15.40
1965 30.00 4 15.80
1966 47.80 5 16.80
1967 53.22 6 17.40
1968 60.20 7 21.00
1970 25.40 8 22.00
1973 55.60 9 25.00
1974 37.80 10 25.40
1975 53.20 11 28.60
1976 15.80 12 29.00
1977 15.40 13 30.00
1978 29.00 14 32.00
1979 17.40 15 37.80
1980 11.80 16 47.80
1981 25.00 17 53.20
1982 22.00 18 53.22
1983 16.80 19 55.60
1985 12.80 20 60.20
Frequenza di un campione
2. Stima della frequenza di non superamento corrispondente a ciascuna
grandezza del campione.
i
F ( xi ) 
N
Frequenza di un campione
2. Stima della frequenza di non superamento corrispondente a ciascuna
grandezza del campione.
Anno h (mm) i h (mm) F(h)
1961 21.00 1 11.80 0.05
1962 32.00 2 12.80 0.10
1964 28.60 3 15.40 0.15
1965 30.00 4 15.80 0.20
1966 47.80 5 16.80 0.25
1967 53.22 6 17.40 0.30
1968 60.20 7 21.00 0.35
1970 25.40 8 22.00 0.40
1973 55.60 9 25.00 0.45
1974 37.80 10 25.40 0.50
1975 53.20 11 28.60 0.55
1976 15.80 12 29.00 0.60
1977 15.40 13 30.00 0.65
1978 29.00 14 32.00 0.70
1979 17.40 15 37.80 0.75
1980 11.80 16 47.80 0.80
1981 25.00 17 53.20 0.85
1982 22.00 18 53.22 0.90
1983 16.80 19 55.60 0.95
1985 12.80 20 60.20 1.00
Frequenza di un campione
2. Stima della frequenza di non superamento corrispondente a ciascuna
grandezza del campione.
i
F ( xi )  Formula di Weibull
N 1
Frequenza di un campione
2. Stima della frequenza di non superamento corrispondente a ciascuna
grandezza del campione.
Anno h (mm) i h (mm) F(h) FW(h)
1961 21.00 1 11.80 0.05 0.05
1962 32.00 2 12.80 0.10 0.10
1964 28.60 3 15.40 0.15 0.14
1965 30.00 4 15.80 0.20 0.19
1966 47.80 5 16.80 0.25 0.24
1967 53.22 6 17.40 0.30 0.29
1968 60.20 7 21.00 0.35 0.33
1970 25.40 8 22.00 0.40 0.38
1973 55.60 9 25.00 0.45 0.43
1974 37.80 10 25.40 0.50 0.48
1975 53.20 11 28.60 0.55 0.52
1976 15.80 12 29.00 0.60 0.57
1977 15.40 13 30.00 0.65 0.62
1978 29.00 14 32.00 0.70 0.67
1979 17.40 15 37.80 0.75 0.71
1980 11.80 16 47.80 0.80 0.76
1981 25.00 17 53.20 0.85 0.81
1982 22.00 18 53.22 0.90 0.86
1983 16.80 19 55.60 0.95 0.90
1985 12.80 20 60.20 1.00 0.95
Frequenza di un campione
3. Rappresentazione grafica delle distribuzioni di frequenza.
Momenti di un campione
Analogamente al caso delle variabili casuali discrete, si definisce
momento di r-esimo ordine del campione la grandezza:
m
m  x     xi  x0   fi
' r
r
i 1
dove
- m rappresenta il numero di osservazioni che presentano valori
tra loro diversi all’interno del campione di dimensione N;
- fi è la frequenza corrispondente a ciascun valore del campione.
ni
fi 
N
N m
  x     xi  x0   p  xi  m  x     xi  x0   fi
' r ' r
r r
i 1 i 1

Se con xi si indicano tutti i valori del campione, alcuni dei quali


possono anche essere uguali tra di loro, risulta:
1 N
m  x      xi  x0 
' r
r
N i 1
Momenti di un campione
In modo analogo si procede alla definizione della media m(x) e
dello scarto quadratico s(x) del campione:
1 N
m  x     xi media
N i 1

1 N
mr  x      xi  m  x  
r momento di ordine r
N i 1 rispetto alla media

1 N
s  x      xi  m  x  
2 2
varianza
N i 1

1 N scarto quadratico
 x     xi  m  x  
2
s ( x)  s 2

N i 1 medio

Le formule fornite sono valide se N ≥ 30; se l’ampiezza è minore è


necessario impiegare dei coefficienti correttivi
N 1 N 1 N
s  x      xi  m  x       xi  m  x 
2 2 2

N  1 N i 1 N  1 i 1
Stima dei parametri
Individuare la distribuzione di una variabile casuale consiste nello
stabilire quale distribuzione di probabilità (normale, Gumbel…) fornisce
la migliore interpolazione dei punti rappresentanti la frequenza cumulata
relativa del campione.

F(x) F(x)
P(x)

x x

Per prima cosa occorre quindi determinare i valori dei parametri


caratteristici della legge probabilistica ipotizzata per studiare il campione
(μ e σ per la legge normale, ε e α per la legge di Gumbel).
Stima dei parametri
Si definisce stima di un parametro generico θ una grandezza
statistica t il cui valore numerico, calcolato sulla base delle
osservazioni che costituiscono il campione dato, si assume come
valore di θ.
Poiché è evidentemente desiderabile che l’incertezza si riduca
all’aumentare dell’informazione disponibile, la stima t deve essere
tanto migliore quanto più grande è la dimensione N del campione .
I procedimenti utilizzabili sono i seguenti:
- metodo della massima verosimiglianza (Fisher);
- metodo dei momenti (Pearson);
- metodo dei minimi quadrati.
Stima dei parametri
Metodo della massima verosimiglianza
Il campione è composto da N osservazioni indipendenti tra loro e
con densità di probabilità p(xi, ε1, ε2…εn), dove ε1, ε2…εn sono i
parametri della distribuzione. La probabilità che si verifichino tutte
le N variabili xi vale:

v  x1 , x2 ...xn , 1 ,  2 ... n   p  x1 , 1 ,  2 ... n   p  x2 , 1 ,  2 ... n   ...  p  xn , 1 ,  2 ... n 

I valori delle N osservazioni sono noti, per cui la densità di


probabilità v, nota come funzione di verosimiglianza, dipenderà
solo dai parametri ε1, ε2…εn.
d
v  x1 , x2 ...xn , 1 ,  2 ... n   0
d 1
.
.
d
v  x1 , x2 ...xn , 1 ,  2 ... n   0
d n
Stima dei parametri
Metodo della massima verosimiglianza
Il campione è composto da N osservazioni indipendenti tra loro e
con densità di probabilità p(xi, ε1, ε2…εn), dove ε1, ε2…εn sono i
parametri della distribuzione. La probabilità che si verifichino tutte
le N variabili xi vale:

v  x1 , x2 ...xn , 1 ,  2 ... n   p  x1 , 1 ,  2 ... n   p  x2 , 1 ,  2 ... n   ...  p  xn , 1 ,  2 ... n 

I valori delle N osservazioni sono noti, per cui la densità di


probabilità v, nota come funzione di verosimiglianza, dipenderà
solo dai parametri ε1, ε2…εn.
d
v  x1 , x2 ...xn , 1 ,  2 ... n   0
d 1 Ad esempio, per la legge normale, si può
. dimostrare come le stime μ(x) e σ(x)
. coincidano con la media e la varianza
del campione delle N osservazioni.
d
v  x1 , x2 ...xn , 1 ,  2 ... n   0
d n
Stima dei parametri
Metodo dei momenti
Il metodo consiste nell’attribuire a ciascun momento della
popolazione il valore del corrispondente momento del campione
estratto da quella popolazione:
  x m  x media

 2  x s2  x  varianza

Per ovviare a possibili stime indistorte si procede all’adozione di


opportuni coefficienti correttivi:
coef .correttivo  1 m  x media

N s2  x 
coef .correttivo  varianza
N 1

N2 m3  x 
coef .correttivo  momento del terzo
 N  1   N  2  ordine
Stima dei parametri
Metodo dei minimi quadrati
Supponiamo di avere a disposizione un campione costituito da n
coppie di valori (x1, y1), (x2, y2)…(xn,yn), assunti in n occasioni
diverse ed indipendenti da due variabili x e y:
y

Se la dispersione dei punti non è casuale si può ipotizzare una


dipendenza stocastica tra y ed x o tra x ed y.
Stima dei parametri
Metodo dei minimi quadrati
Supponiamo di avere a disposizione un campione costituito da n
coppie di valori (x1, y1), (x2, y2)…(xn,yn), assunti in n occasioni
diverse ed indipendenti da due variabili x e y:
y

y = g(x)
y’i
yi

xi x

Il metodo punta ad individuare la curva che minimizza la somma


dei quadrati degli scarti.
N 2

 y  y 
i 1
i
'
i  min
Stima dei parametri
Metodo dei minimi quadrati
Si proceda, ad esempio, alla stima dei parametri a e b delle legge
lognormale a due parametri:
Indicando con ui i valori osservati e ui’ i valori calcolati con
l’equazione:
ui'  a  ln xi  b

N 2

 u
i 1
'
i  ui   min

 N '
2


 a i 1
 u i  ui  0

 N '
2


 b i 1
 u i  ui  0
Stima dei parametri
Metodo dei minimi quadrati
Si proceda, ad esempio, alla stima dei parametri a e b delle legge
lognormale a due parametri:
Indicando con ui i valori osservati e ui’ i valori calcolati con
l’equazione:
ui'  a  ln xi  b

N 2

 u
i 1
'
i  ui   min

a   ln  x   b   ln  x    u  ln  x 
2

a   ln  x   b  n   u
Curva di probabilità
Una volta calcolati i parametri della legge di probabilità scelta, è possibile
valutare il valore di probabilità corrispondente a ciascuna grandezza del
campione.
i h (mm) F(h) PN(h) PL(h) PG(h)
1 11.80 0.05 0.11 0.05 0.07

Normale 2 12.80 0.10 0.13 0.07 0.09


3 15.40 0.14 0.16 0.14 0.14
μ(x) 36.07
4 15.80 0.19 0.17 0.15 0.15
σ(x) 15.27
5 16.80 0.24 0.19 0.18 0.17
6 17.40 0.29 0.20 0.19 0.19
Lognormale 7 21.00 0.33 0.27 0.31 0.29

μ(y) 3.49 8 22.00 0.38 0.29 0.34 0.32

σ(y) 0.45 9 25.00 0.43 0.36 0.44 0.41


10 25.40 0.48 0.37 0.45 0.42
11 28.60 0.52 0.45 0.54 0.52
Gumbel
12 29.00 0.57 0.46 0.56 0.53
α 0.08 13 30.00 0.62 0.49 0.58 0.56
ε 29.20 14 32.00 0.67 0.54 0.63 0.61
15 37.80 0.71 0.68 0.74 0.73
16 47.80 0.76 0.87 0.87 0.87
17 53.20 0.81 0.93 0.91 0.92
18 53.22 0.86 0.93 0.91 0.92
19 55.60 0.90 0.95 0.92 0.93
20 60.20 0.95 0.97 0.94 0.95
Curva di probabilità

Tale metodo, per quanto semplice, ha lo svantaggio di essere privo


di oggettività: tutte le distribuzioni risultano infatti caratterizzate
da curve simili dal tipico andamento a S.
Curva di probabilità
Risulta quindi più opportuno effettuare tale confronto su
cartogrammi probabilistici, cioè carte speciali nelle quali tutte le
curve di probabilità di un certo tipo risultano rappresentate da
rette.
u P(u)

Carta probabilistica della distribuzione lognormale


Curva di probabilità
Risulta quindi più opportuno effettuare tale confronto su
cartogrammi probabilistici, cioè carte speciali nelle quali tutte le
curve di probabilità di un certo tipo risultano rappresentate da
rette.

Carta probabilistica della distribuzione di Gumbel


Curva di probabilità
Tali diagrammi risultano così caratterizzati:.
- su uno dei due assi delle ordinate sono riportati i valori della
variabile ridotta della generica distribuzione di probabilità;
- sull’altro asse delle ordinate sono riportati i valori di probabilità
di non superamento e le frequenze cumulate;
- sull’asse delle ascisse sono riportati i valori della variabile x.
P(u)

Carta probabilistica della distribuzione normale


Curva di probabilità
Per ciascuna delle distribuzioni di probabilità studiate sono state
introdotte delle variabili ridotte le quali risultano legate
linearmente alla variabile originaria x:

x   ( x) u  a  ln x  b  a  y  b y    x   
u
 ( x)
Legge normale Legge lognormale Legge Gumbel

y
P( y )  e e

x
Curva di probabilità
Per ciascuna delle distribuzioni di probabilità studiate sono state
introdotte delle variabili ridotte le quali risultano legate
linearmente alla variabile originaria x:

x   ( x) u  a  ln x  b  a  y  b y    x   
u
 ( x)
Legge normale Legge lognormale Legge Gumbel

P(y) y

y
P( y )  e e

P( y )  P( x)

x
Curva di probabilità
Per ciascuna delle distribuzioni di probabilità studiate sono state
introdotte delle variabili ridotte le quali risultano legate
linearmente alla variabile originaria x:

x   ( x) u  a  ln x  b  a  y  b y    x   
u
 ( x)
Legge normale Legge lognormale Legge Gumbel

P(x)

y
P( y )  e e

P( y )  P( x)

x
Curva di probabilità
Per ciascuna delle distribuzioni di probabilità studiate sono state
introdotte delle variabili ridotte le quali risultano legate
linearmente alla variabile originaria x:

x   ( x) u  a  ln x  b  a  y  b y    x   
u
 ( x)
Legge normale Legge lognormale Legge Gumbel

P(x) T

1
T  x 
1 P  x

x
Curva di probabilità
Elaborazioni su carta probabilistica normale
i h (mm) F(h) PN(h) uF,N(h) uP,N(h)
1 11.80 0.05 0.11 -1.67 -1.21
2 12.80 0.10 0.13 -1.31 -1.14
3 15.40 0.14 0.16 -1.07 -0.97
4 15.80 0.19 0.17 -0.88 -0.95
5 16.80 0.24 0.19 -0.71 -0.88
6 17.40 0.29 0.20 -0.57 -0.85
7 21.00 0.33 0.27 -0.43 -0.61
8 22.00 0.38 0.29 -0.30 -0.55
9 25.00 0.43 0.36 -0.18 -0.36
10 25.40 0.48 0.37 -0.06 -0.33
11 28.60 0.52 0.45 0.06 -0.12
12 29.00 0.57 0.46 0.18 -0.10
13 30.00 0.62 0.49 0.30 -0.03
14 32.00 0.67 0.54 0.43 0.09
15 37.80 0.71 0.68 0.57 0.47
16 47.80 0.76 0.87 0.71 1.11
17 53.20 0.81 0.93 0.88 1.46
18 53.22 0.86 0.93 1.07 1.46
19 55.60 0.90 0.95 1.31 1.61
20 60.20 0.95 0.97 1.67 1.91
Curva di probabilità
Rappresentazione su carta probabilistica normale
Curva di probabilità
Elaborazioni su carta probabilistica lognormale
i h (mm) F(h) PL(h) uF,L(h) uP,L(h)
1 11.80 0.05 0.05 -1.87 -1.62
2 12.80 0.10 0.07 -1.47 -1.46
3 15.40 0.14 0.14 -1.20 -1.10
4 15.80 0.19 0.15 -0.98 -1.05
5 16.80 0.24 0.18 -0.80 -0.93
6 17.40 0.29 0.19 -0.64 -0.86
7 21.00 0.33 0.31 -0.48 -0.49
8 22.00 0.38 0.34 -0.34 -0.40
9 25.00 0.43 0.44 -0.20 -0.15
10 25.40 0.48 0.45 -0.07 -0.12
11 28.60 0.52 0.54 0.07 0.11
12 29.00 0.57 0.56 0.20 0.14
13 30.00 0.62 0.58 0.34 0.21
14 32.00 0.67 0.63 0.48 0.33
15 37.80 0.71 0.74 0.64 0.66
16 47.80 0.76 0.87 0.80 1.12
17 53.20 0.81 0.91 0.98 1.33
18 53.22 0.86 0.91 1.20 1.33
19 55.60 0.90 0.92 1.47 1.41
20 60.20 0.95 0.94 1.87 1.57
Curva di probabilità
Rappresentazione su carta probabilistica lognormale
Curva di probabilità
Elaborazioni su carta probabilistica di Gumbel
i h (mm) F(h) PG(h) yF,G(h) yP,G(h)
1 11.80 0.05 0.07 -1.11 -0.97
2 12.80 0.10 0.09 -0.86 -0.89
3 15.40 0.14 0.14 -0.67 -0.67
4 15.80 0.19 0.15 -0.51 -0.64
5 16.80 0.24 0.17 -0.36 -0.56
6 17.40 0.29 0.19 -0.23 -0.51
7 21.00 0.33 0.29 -0.09 -0.21
8 22.00 0.38 0.32 0.04 -0.13
9 25.00 0.43 0.41 0.17 0.12
10 25.40 0.48 0.42 0.30 0.15
11 28.60 0.52 0.52 0.44 0.42
12 29.00 0.57 0.53 0.58 0.45
13 30.00 0.62 0.56 0.73 0.53
14 32.00 0.67 0.61 0.90 0.70
15 37.80 0.71 0.73 1.09 1.18
16 47.80 0.76 0.87 1.30 2.00
17 53.20 0.81 0.92 1.55 2.45
18 53.22 0.86 0.92 1.87 2.45
19 55.60 0.90 0.93 2.30 2.65
20 60.20 0.95 0.95 3.02 3.03
Curva di probabilità
Rappresentazione su carta probabilistica di Gumbel
Test statistici
L’adattamento di una distribuzione di probabilità ad un campione
deve essere successivamente provato utilizzando dei test statistici,
tra i quali il test del λ2 di Pearson.
Il campione viene diviso in k classi equi-probabili.
P(x)

Tale valore di probabilità, definita in seguito come p*, viene scelta


secondo la seguente formula empirica:
Np5 N  25
Test statistici
L’adattamento di una distribuzione di probabilità ad un campione
deve essere successivamente provato utilizzando dei test statistici,
tra i quali il test del λ2 di Pearson.
Il campione viene diviso in k classi equi-probabili.
P(x)

È possibile quindi valutare il numero di dati , Ni, ricadenti nei k


intervalli di estremi xi – xi+1 in cui è stato suddiviso l’asse della
variabile x.
Test statistici
Definito con N·p il numero di valori della stessa grandezza scaturiti
dall’ipotesi probabilistica scelta, è possibile quindi stimare il λ2:
 Ni  N  p 
2
k
2  
i 1 Np

Il λ2 esprime l’entità del disaccordo tra l’osservazione e la teoria.


Il valore di λ2 deve essere confrontato con uno di riferimento, λ2crit ;
in particolare affinché la distribuzione di probabilità si adatti al
campione deve risultare: 2
  crit
2

Il valore di λ2crit è quello per cui la probabilità cumulata di non


superamento relativa alla distribuzione del λ2 è pari a 0.95.
Tale distribuzione è stata studiata da Pearson e dipende dal
parametro:
  k  s 1

con s numero dei parametri della legge di probabilità che si vuole


adattare al campione.
Test statistici
1. Valutare la probabilità p
rispettando la condizione:

Np5
2. Stima delle grandezze Ni per le k
classi di suddivisione;
3. Stima del λ2:

 Ni  N  p 
2
k
 
2

i 1 Np
4. Stima del parametro ν:

  k  s 1

5. Stabilito il livello di
significatività (usualmente 0.95)
stima del valore del λ2crit;

6. Verifica della condizione:


 2  crit
2
Fascia fiduciaria
Si definisce fascia fiduciaria corrispondente ad una distribuzione
ipotizzata l’intervallo all’interno del quale ci si deve attendere
ricadano le frequenze cumulate relative uF.

Fascia fiduciaria

u’’
Curve di controllo

u’

L’ampiezza dell’intervallo fiduciario costituisce quindi una misura


dell’indeterminatezza con cui è possibile conoscere uF.
Fascia fiduciaria
Assegnato un valore α positivo minore di 1 è possibile valutare un
numero k > 0 tale per cui:

k P(u )  1  P(u )
uF'  u  
p(u ) N

k P(u )  1  P(u )
uF''  u  
p(u ) N
dove
- u è la variabile ridotta corrispondente ad una data x;
- p(u) è la densità di probabilità associata ad u;
- P(u) è il valore di probabilità associato ad u;
- N è la dimensione del campione di dati a disposizione.
In particolare per α = 0.05 e 1 – α = 0.95 (livello di significatività
del 95%) risulta k = 1.96.
Fascia fiduciaria
Elaborazioni su carta probabilistica normale
i h (mm) F(h) PN(h) uF,N(h) uP,N(h) pN(h) u'P,N(h) u''P,N(h)
1 11.80 0.05 0.11 -1.67 -1.21 0.19 -1.93 -0.48
2 12.80 0.10 0.13 -1.31 -1.14 0.21 -1.84 -0.44
3 15.40 0.14 0.16 -1.07 -0.97 0.25 -1.63 -0.32
4 15.80 0.19 0.17 -0.88 -0.95 0.25 -1.60 -0.30
5 16.80 0.24 0.19 -0.71 -0.88 0.27 -1.52 -0.25
6 17.40 0.29 0.20 -0.57 -0.85 0.28 -1.47 -0.22
7 21.00 0.33 0.27 -0.43 -0.61 0.33 -1.20 -0.03
8 22.00 0.38 0.29 -0.30 -0.55 0.34 -1.13 0.03
9 25.00 0.43 0.36 -0.18 -0.36 0.37 -0.92 0.21
10 25.40 0.48 0.37 -0.06 -0.33 0.38 -0.89 0.23
11 28.60 0.52 0.45 0.06 -0.12 0.40 -0.68 0.43
12 29.00 0.57 0.46 0.18 -0.10 0.40 -0.65 0.45
13 30.00 0.62 0.49 0.30 -0.03 0.40 -0.58 0.51
14 32.00 0.67 0.54 0.43 0.09 0.40 -0.46 0.64
15 37.80 0.71 0.68 0.57 0.47 0.36 -0.10 1.04
16 47.80 0.76 0.87 0.71 1.11 0.22 0.42 1.80
17 53.20 0.81 0.93 0.88 1.46 0.14 0.63 2.28
18 53.22 0.86 0.93 1.07 1.46 0.14 0.63 2.28
19 55.60 0.90 0.95 1.31 1.61 0.11 0.71 2.52
20 60.20 0.95 0.97 1.67 1.91 0.06 0.79 3.03
Fascia fiduciaria
Rappresentazione su carta probabilistica normale
Fascia fiduciaria
Elaborazioni su carta probabilistica lognormale
i h (mm) F(h) PL(h) uF,L(h) uP,L(h) pL(h) u‘P,L(h) u'‘P,L(h)
1 11.80 0.05 0.05 -1.87 -1.62 0.11 -2.54 -0.71
2 12.80 0.10 0.07 -1.47 -1.46 0.14 -2.29 -0.64
3 15.40 0.14 0.14 -1.20 -1.10 0.22 -1.79 -0.41
4 15.80 0.19 0.15 -0.98 -1.05 0.23 -1.73 -0.38
5 16.80 0.24 0.18 -0.80 -0.93 0.26 -1.58 -0.29
6 17.40 0.29 0.19 -0.64 -0.86 0.28 -1.49 -0.23
7 21.00 0.33 0.31 -0.48 -0.49 0.35 -1.07 0.08
8 22.00 0.38 0.34 -0.34 -0.40 0.37 -0.97 0.16
9 25.00 0.43 0.44 -0.20 -0.15 0.39 -0.70 0.40
10 25.40 0.48 0.45 -0.07 -0.12 0.40 -0.67 0.43
11 28.60 0.52 0.54 0.07 0.11 0.40 -0.44 0.66
12 29.00 0.57 0.56 0.20 0.14 0.40 -0.41 0.69
13 30.00 0.62 0.58 0.34 0.21 0.39 -0.35 0.76
14 32.00 0.67 0.63 0.48 0.33 0.38 -0.23 0.89
15 37.80 0.71 0.74 0.64 0.66 0.32 0.06 1.25
16 47.80 0.76 0.87 0.80 1.12 0.21 0.42 1.81
17 53.20 0.81 0.91 0.98 1.33 0.17 0.56 2.09
18 53.22 0.86 0.91 1.20 1.33 0.17 0.56 2.10
19 55.60 0.90 0.92 1.47 1.41 0.15 0.61 2.22
20 60.20 0.95 0.94 1.87 1.57 0.12 0.69 2.45
Fascia fiduciaria
Rappresentazione su carta probabilistica lognormale
Fascia fiduciaria
Elaborazioni su carta probabilistica di Gumbel
i h (mm) F(h) PG(h) yF,G(h) yP,G(h) pG(h) y'P,G(h) y''P,G(h)
1 11.80 0.05 0.07 -1.11 -0.97 0.02 -8.22 6.28
2 12.80 0.10 0.09 -0.86 -0.89 0.02 -7.92 6.14
3 15.40 0.14 0.14 -0.67 -0.67 0.02 -7.36 6.02
4 15.80 0.19 0.15 -0.51 -0.64 0.02 -7.30 6.02
5 16.80 0.24 0.17 -0.36 -0.56 0.03 -7.17 6.06
6 17.40 0.29 0.19 -0.23 -0.51 0.03 -7.11 6.09
7 21.00 0.33 0.29 -0.09 -0.21 0.03 -6.92 6.50
8 22.00 0.38 0.32 0.04 -0.13 0.03 -6.92 6.67
9 25.00 0.43 0.41 0.17 0.12 0.03 -7.03 7.27
10 25.40 0.48 0.42 0.30 0.15 0.03 -7.06 7.36
11 28.60 0.52 0.52 0.44 0.42 0.03 -7.36 8.20
12 29.00 0.57 0.53 0.58 0.45 0.03 -7.41 8.31
13 30.00 0.62 0.56 0.73 0.53 0.03 -7.55 8.62
14 32.00 0.67 0.61 0.90 0.70 0.02 -7.87 9.26
15 37.80 0.71 0.73 1.09 1.18 0.02 -9.17 11.52
16 47.80 0.76 0.87 1.30 2.00 0.01 -12.95 16.95
17 53.20 0.81 0.92 1.55 2.45 0.01 -16.00 20.90
18 53.22 0.86 0.92 1.87 2.45 0.01 -16.02 20.92
19 55.60 0.90 0.93 2.30 2.65 0.01 -17.65 22.94
20 60.20 0.95 0.95 3.02 3.03 0.00 -21.37 27.42
Fascia fiduciaria
Rappresentazione su carta probabilistica di Gumbel
Correlazione e regressione
Alcune grandezze naturali a volte possono non essere indipendenti,
cioè presentano dei legami non rigidi detti correlazioni.
x y
34 37
37 37
36 34
32 34
32 33
36 40
35 39
34 37
29 36
35 35
28 30
30 34
32 30
41 37
Il grafico fornisce un’idea del campo di variazione delle due
38 40
grandezze, inoltre permette di verificare se vi sia una zona nel
36 42
piano dove tendono ad addensarsi i punti empirici.
37 40
33 36
32 31
33 31
Correlazione e regressione
Le interrelazioni tra le due variabili possono essere descritte da
una quantità detta coefficiente di correlazione ρ:
 xy

 x  y
dove
- σx è lo scarto quadratico medio della variabile x;
- σy è lo scarto quadratico medio della variabile y;
- σxy è la covarianza definita come:
1 N
 
 xy    xi  x  yi  y
N i 1

Se ρ = 0 e σxy = 0 allora le variabili x ed y sono indipendenti;
Se ρ = ± 1 si ha una relazione funzionale lineare tra x ed y;
Se – 1 < ρ < 0 si ha correlazione negativa;
Se 0 < ρ < + 1 si ha correlazione positiva.
Correlazione e regressione
Come la varianza misura l’ampiezza delle fluttuazioni attorno al
valore medio, la correlazione misura il collegamento tra
fluttuazioni di x e fluttuazioni di y.
Un caso particolare di correlazione è l’autocorrelazione, che
consiste nell’associare il valore yi di una serie con un valore yi+k
della stessa serie, cioè a paragonare termine a termine la serie
iniziale con la stessa sfalsata di k unità rispetto al tempo.

1 nk
  
  yi  y  yi  k  yi  k
N i 1

k  y , y k 
 y  yk nk nk

  
yi  y   yi  k  yi  k 
2 2

i 1 i 1
N 1
dove
- yi+k è il valore di yi sfalsato di k unità;
- yi+k è il valore medio della grandezza yi+k.
Correlazione e regressione
L’andamento dei dati sperimentali o un modello teorico possono
suggerire che le variabili x e y siano legate da una relazione nota
del tipo:
y  f  x, A, B...N 

dove gli A, B, …, N sono parametri in generale non noti.


Il problema consiste nel determinare l’insieme dei valori dei
parametri per cui la curva y = f(x) “passi il più vicino possibile” ai
punti (xi, yi). Tale curva prende il nome di curva di regressione dei
minimi quadrati.
Effettuare una regressione di y
y su x significa prendere in
y = g(x) considerazione le differenze tra
ordinate di punto e curva e
y’i
minimizzare la somma delle
yi deviazioni al quadrato
(applicazione del principio dei
minimi quadrati)
N 2

xi x  y  y 
i 1
i
'
i  min
Correlazione e regressione
L’andamento dei dati sperimentali o un modello teorico possono
suggerire che le variabili x e y siano legate da una relazione nota
del tipo:
y  f  x, A, B...N 

dove gli A, B, …, N sono parametri in generale non noti.


Il problema consiste nel determinare l’insieme dei valori dei
parametri per cui la curva y = f(x) “passi il più vicino possibile” ai
punti (xi, yi). Tale curva prende il nome di curva di regressione dei
minimi quadrati.
y Viceversa, definita la funzione
inversa x = g-1(y), effettuare una
y = g(x) regressione di x su y significa
y’i prendere in considerazione le
differenze tra ascisse di punto e
yi
curva e minimizzare la somma delle
deviazioni al quadrato
N 2

 x  x 
i 1
i
'
i  min
xi x
Correlazione e regressione
L’andamento dei dati sperimentali o un modello teorico possono
suggerire che le variabili x e y siano legate da una relazione nota
del tipo:
y  f  x, A, B...N 

dove gli A, B, …, N sono parametri in generale non noti.


Il problema consiste nel determinare l’insieme dei valori dei
parametri per cui la curva y = f(x) “passi il più vicino possibile” ai
punti (xi, yi). Tale curva prende il nome di curva di regressione dei
minimi quadrati.
y Il caso più importante nella pratica
è quello in cui la relazione attesa
y = g(x) tra le variabili x e y è di tipo lineare
y’i
y  A x  B
yi
e si minimizzano solo le deviazioni
delle ordinate. In questo caso si
parla di regressione lineare.

xi x

Potrebbero piacerti anche