Sei sulla pagina 1di 62

Regressione

Obiettivo: analizzare la dipendenza statistica di una variabile quantitativa Y


da p variabili quantitative X1, X2, …, Xp e da una costante

 y1 1 x11 . . . x1 p z1 w 1 . . .
 
 y2 1 x21 . . . x2 p z2 w 2 . . .
 . . . . . . . . . . . .
 
 . . . . . . . . . . . .
y 1 x . . . xnp zn wn . . . 
 n n1

con:
• Y è la variabile che si vuole spiegare (variabile dipendente o variabile risposta)
• la costante 1 e X1, X2, …, Xp sono i predittori quantitativi (variabili indipendenti
o variabili esplicative)
• Z, W, … altre variabili presenti nalla base dati che non interessano per
la regressione

12/4/2013 Regressione 1
Modello rappresentazione di un fenomeno casuale o di un esperimento
Modello:
derivato da osservazioni o risultati sperimentali

Il modello
! semplifica la realtà
! emula gli aspetti principali della realtà (ma non è la realtà! La approssima)
! è di importanza fondamentale perché semplificando la realtà permette di
analizzare, prevedere il comportamento di fenomeni molto anche complessi

Y = f (X1 , X2 ,..., Xk ) : Y è il fenomeno (quantitativo o qualitativo) che si


intende spiegare, X1, X2, …, Xk sono le variabili prescelte per spiegare Y,
mediante la funzione f

12/4/2013 Regressione 2
Regressione (2)

Y = f (X1 , X2 ,..., Xk ) Y = variabile risposta


(o dipendente)
X1, X2, …, Xk = variabili indipendenti

Y = β0 + β1X1 + β2X2 + ... + βk Xk la relazione più


semplice

Ma... Y = β0 + β1X1 + β2X2 + ... + βk Xk + ε errore


casuale

E poi magari ... Y = β0 + β1x1 + β2x2 + ... + β p x p + ε con p < k

12/4/2013 Regressione 3
Teoria Dati
• Formulazione di ipotesi • Individuazione della tipologia
• Relazione causa-effetto tra più variabili • Trasformazioni preliminari
• Individuazione delle variabili esplicative

Specificazione del modello

Stima dei parametri

Verifica del modello

Uso del modello


• descrizione
• interpretazione
• previsione
• controllo
• simulazione …..
12/4/2013 Regressione 4
Tipologie di modelli

" Modelli semplici: una sola variabile Y è spiegabile mediante una sola
variabile X; modelli multipli: le variabili Xi che spiegano Y sono più di una;
modelli multivariati se le variabili da spiegare sono più di una così come
quelle utilizzate per la piegazione di ciascuna di esse è più di una

" Modelli lineari: la variabile Y è esprimibile mediante una combinazione


lineare delle variabili (X1, X2, …, Xp) e dei parametri β1, β 2, …, β p ; modelli
linearizzabili se originariamente non sono lineari, ma diventano lineari con
una trasformazione opportuna della varibile dipendente e/o delle variabili
indipendenti; modelli (intrinsecamente) non lineari se non esiste alcuna
trasformazione tale da renderli lineari

" Modelli a componenti matematiche: le variabili utilizzate per spiegare Y


sono funzioni matematiche; modelli a variabili fisse (o deterministiche
o condizionate): le variabili utilizzate per spiegare Y sono osservate
senza errore; modelli a componenti stocastiche se tutte le variabili
coinvolte sono delle variabili casuali

12/4/2013 Regressione 5
Pulse 1 Pulse 2 Run Smokes Sex Height Weight Activity

64 88 1 2 1 66.00 140 2
58 70 1 2 1 72.00 145 2
62 76 1 1 1 73.50 160 3
66 78 1 1 1 73.00 190 1
64 80 1 2 1 69.00 155 2
74 84 1 2 1 73.00 165 1
84 84 1 2 1 72.00 150 3
68 72 1 2 1 74.00 190 2
62 75 1 2 1 72.00 195 2
76 118 1 2 1 71.00 138 2
90 94 1 1 1 74.00 160 1
80 96 1 2 1 72.00 155 2
92 84 1 1 1 70.00 153 3
68 76 1 2 1 67.00 145 2
60 76 1 2 1 71.00 170 3
62 58 1 2 1 72.00 175 3
66 82 1 1 1 69.00 175 2
.. .. .. .. .. .. .. ..
.. .. .. .. .. .. .. ..
PULSE.MTW
© All Rights Reserved. 2000 Minitab, Inc.
12/4/2013 Regressione 6
Dal File Pulse.mtw ….

140
130
120
110
100
Pulsse2

90
80
70
60
50

50 60 70 80 90 100
Pulse1

12/4/2013 Regressione 7
Dal File Pulse.mtw ….

200
eight
We

150

100

60 65 70 75
Height

12/4/2013 Regressione 8
Caso p = 1:

Modello: Y = β0 +β1x + ε

Cosa prevede: E[Y] = β0 +β1x

Dati n punti sperimentali (xi, yi), si vuole determinare una stima


ŷ = b0 + b1x della retta di regressione Y = β0 +β1x + ε, minimiz-
zando la somma dei quadrati degli errori casuali εi = Yi − Ŷi tra
i valori della variabile casuale Y e i valori previsti con la retta
in corrispondenza del valore della variabile indipendente xi.

12/4/2013 Regressione 9
∑( ) = ∑ (Y − β
n n 2 n
S2(β0,β1) = ∑
i =1
εi2 =
i =1
Yi − ˆYi
i =1
i 0 − β1 xi )2

Paraboloide convesso
n
 ∂S2

∂β
 0

= −2 (Yi − β0 − β1 xi )
i =1
 2 n
 ∂S = −2 x (Y − β − β x )
 ∂β
 1

i =1
i i 0 1 i

B0 = Y − B1 x
 n n
Stimatori ai 

∑ (xi − x )(Yi − Y) con: Y =
1
∑Y i

minimi quadratiB1 = i =1 n n i =1

 ∑
i =1
(xi − x )2

12/4/2013 Regressione 10
b0 = y − b1 x n
 1

 ∑
n
(xi − x )(yi − y ) con y =
n ∑y
i =1
i

b1 =
i =1
n

 ∑
i =1
(xi − x )2

o in forma equivalente ma più adatta al calcolo:

b0 = y − b1 x
 n



∑ xi yi − n x y
b1 = n
i =1


 ∑i =1
xi 2 − n x
2

12/4/2013 Regressione 11
ˆY = B + B x
i 0 1 i
y = Y + B1 (xi − x )

arctan b1
y

b0

x x

12/4/2013 Regressione 12
Row x y

1 10 8.04
2 8 6.95
3 13 7.58
4 9 8.81
5 11 8.33
6 14 9.96
7 6 7.24
8 4 4.26
9 12 10.84
10 7 4.82
11 5 5.68

12/4/2013 Regressione 13
Estimated Line of Regression: ŷ = 3 + 0.5 x

11

10

8
y
7

4 9 14
x

12/4/2013 Regressione 14
ŷ = b0 + b1x

(xi,yi)
yi yi
I
III
ŷi ŷi II
y y

x x
i

12/4/2013 Regressione 15
Residui: yi − ŷi

∑ (y
i =1
i − ŷi ) = 0

yi − ŷi = (yi − y ) − (ŷi − y )

n n

∑ (yi − ŷi ) ∑ [(y − y ) − (ŷi − y )]


2 2
= i
i =1 i =1

n n n

∑ (y −y) = ∑ (ŷ −y) + ∑ (y − ŷi )


2 2 2
i i i
i =1 i =1 i =1

12/4/2013 Regressione 16
n n n
2 (* )
∑ (yi −y) ∑ (ŷi −y) ∑ (yi − ŷi )
2 2
= +
i =1 i =1 i =1

Variabilità Totale Variabilità dovuta Variabilità residua


(corretta) alla regressione

n n

∑ (ŷ −y) ∑ (y −y)


2 2 2
R = i i R2 = SSRegr./SSTC
i =1 i =1

n n
(* )
∑ (ŷi −y) ≡
2
(
∑ i
ŷ − ŷ )2

i =1 i =1
12/4/2013 Regressione 17
R2, detto indice di determinazione multipla, con 0 ≤ R2 ≤ 1, misura quanta parte
della variabilità complessiva osservata per la variabile risposta Y, che si vuole
spiegare mediante la variabile indipendente x, può essere ascrivibile al legame
lineare stimato mediante la retta di regressione

# R2 = 0: la variabilità dovuta alla retta di regressione è nulla, la retta è parallela


all’asse delle x e la retta di regressione non ha alcuna capacità interpretativa

# R2 = 1: la variabilità dovuta alla retta di regressione coincide con la variabilità


totale osservata, la variabilità residua è nulla, tutti i punti stimati (e quindi
anche osservati) sono collocati sulla retta di regressione e quindi sono tutti
allineati

# Potrebbe accadere sul piano teorico che R2 = 0/0, cioè l’indice di


determinazione è indeterminato; in questo caso tutti i punti osservati sono
allineati parallelamente all’asse x e la retta di regressione è: y ≡ ŷi = y
con i = 1, 2, …, n

12/4/2013 Regressione 18
Proprietà degli stimatori B0 , B1 e ˆY di β0, β1 e E[Yi ]

Yi = β0 +β1xi + εi per x = xi

! E[εi ] = 0 e var[εi ] = σ2
! cov[εi, εj ] = 0 per ogni i ≠ j

$ E[Yi ] = E[β0 +β1xi + εi ] = β0 +β1xi per ogni i = 1, 2, ..., n


$ var[Yi ] = var[β0 +β1xi + εi ] = σ2 per ogni i = 1, 2, ..., n
$ le Yi sono non correlate, cioè cov[Yi,Yj] = 0 per ogni i ≠ j
$ la variabile x è nota senza errore ed è osservata per almeno
due valori distinti
+ Normalità

12/4/2013 Regressione 19
Relazione lineare tra x e Y

12/4/2013 Regressione 20
Relazione funzionale lineare tra x e y, quando gli errori su ambedue
le variabili x e y sono di natura casuale e di entità non trascurabile

12/4/2013 Regressione 21
Schema di distribuzione di probabilità bivariata

12/4/2013 Regressione 22
∑ (Yi − Y) =∑ ( ) ∑ (Y − ˆY )
n n 2 n 2
2 ˆY − Y +
i i i
i =1 i =1 i =1

Devianza Devianza Devianza


totale spiegata residua

σ2χn2−1 σ2χ12 σ2χn2 −2

Sotto l’ipotesi nulla


H0:β1 = 0, stime corrette
di σ2
12/4/2013 Regressione 23
∑ (ˆY − Y)
n 2
i σ2χ12 1
i =1
2
1 = 2 12 σ ∼ F1,n −2
∑ (Y − ˆY )
n 2 σ χn −2 1
i i
i =1 n − 2 σ2
n −2

F1,n − 2

Accetto Rifiuto
f1,n −2,1−α

12/4/2013 Regressione 24
Origine della Gradi di Somme dei Quadrati medi
variazione libertà quadrati
2
Regressione 1 SS(b0) = n y MS(b0)=
(b0) SS(b0)/1
SS(b1⏐b0) =
Regressione 1 MSRegr. =
 n 
(b1⏐b0) ∑
b1  xi yi − n x y 
 i =1 
SSRegr./1

Residui n−2 SSRes. = SST - SSRes./(n − 2)


(Errore SS(b0) - SS(b1⏐b0)
sperimentale)
n
Totale n SST = ∑y
i =1
2
i

12/4/2013 Regressione 25
β0
ŷ = b0 + b1x

b0 Y = β0 + β1x

ŷ = b0 + b1x
Y = β0 + β1x

β0
b0

12/4/2013 Regressione 27
∑( ) = ∑ (β
n n 2 n
ˆS2 =

i =1
εi2 =
i =1
Yi − ˆYi
i =1
0 + β1 xi + εi − (B0 + B1 xi ))2 =

n
= ∑ (ε
i =1
i − (B0 − β0 ) − (B1 − β1 ) xi )2 =

E[ˆS2 ] = (n − 2)σ2

∑( )
n
2 1 2
ˆσ = Y − Ŷ
n − 2 i =1 i i

12/4/2013 Regressione 28
Gli stimatori di β0 e di β1 ai minimi quadrati, oltre ad essere
corretti e consistenti
consistenti, sono, nella “classe degli stimatori lineari
corretti”, quelli a varianza uniformemente minima
(vedi teorema di Gauss-Markov).

E quelli ottenuti con la max verosimiglianza???

12/4/2013 Regressione 29
 
 2 
21 x 
E[B0 ] = β0 var [B0 ] = σ + n
n 



i =1
(xi − x )2 


σ2
E[B1] = β1 var [B1 ] = n

∑ (x
i =1
i −x)
2

σ2 x
cov [B0 , B1 ] = − n

∑ (x
i =1
i −x)
2

12/4/2013 Regressione 26
Intervallo
B0 − β0 B0 − β0 di fiducia
= ∼ N (0,1)
var [B0 ] 1 x
2
σ +
n n Test di
∑ (xi
i =1
−x)
2
ipotesi

Intervallo
B1 − β1 B1 − β1 di fiducia
= ∼ N (0,1)
var [B1 ] 1
σ n
Test di
∑ (xi
i =1
−x)
2

ipotesi

n
1
2
σ ???
2
ˆσ = s = 2
(yi − ŷi )2

n − 2 i =1

12/4/2013 Regressione 30
$ Intervallo di fiducia per β0 al livello 1 − α
 
 2 2

 1 x 1 x 
(li, ls) =  b0 − tn −2,1−α 2s + n , b0 + tn −2,1−α 2s + n 
n n




i =1
(xi − x )2

i =1

(xi − x ) 
2 

$ Intervallo di fiducia per β1 al livello 1 − α:

 
 
 1 1 
(li, ls) =  b1 − tn −2,1−α 2s n , b1 + tn −2,1−α 2s n 



∑ (x
i =1
i −x)
2

i =1
(xi − x ) 
2 

12/4/2013 Regressione 31
$ Test di ipotesi per β0 al livello di fiducia 1 − α

Ipotesi nulla: H0: β0 = β∗0


Ipotesi alternativa: HA: β0 ≠ β∗0

b0 − β∗0
tcalc = 2
1 x
s + n
0.4
n
∑ (x
i =1
i −x)
2
0.3
tn−2

0.2

0.1 α/2 α/2


Non rifiuto
0.0

-4− tn−2,1−α/2
-3 -2 -1 0 1 2t 3 4
n−2,1−α/2

12/4/2013 Regressione 32
$ Test di ipotesi per β1 al livello di fiducia 1 − α

Ipotesi nulla: H0: β1 = β∗1


Ipotesi alternativa: HA: β1 ≠ β∗1

b1 − β∗
tχαλχ = 1
1
0.4
s n

∑ (x
i =1
i −x)
2
0.3
tn−2

0.2

0.1 α/2 α/2


Non rifiuto
0.0

-4− tn−2,1−α/2
-3 -2 -1 0 1 2t 3 4
n−2,1−α/2

12/4/2013 Regressione 33
Regione di fiducia congiunta a livello 1 − α sul piano (β0,β1)

n n

∑x
i =1
2
i (β1 − b1 )
2
∑ x (β
+2
i =1
i 1 − b1 )(β0 − b0 ) + n (β0 − b0 )2 = 2s 2F1−α , 2, n −2

12/4/2013 Regressione 34
Inferenza sulla risposta media β0+β1xk

ˆ =B +B x
Yk 0 1 k Stimatore puntuale della risposta media per un xk fissato

E[ˆYk ] = β0 + β1xk

 
 
1
var [ˆYk ] = σ2  +
(xk − x )2 
n n 




i =1
(xi − x ) 
2

+ Normalità

12/4/2013 Regressione 35
Intervallo
ˆY − (β + β x ) ˆY − (βo + β x ) di fiducia
k 0 1 k k 1 k
= ∼ N ( 0,1)
var [ˆY ] (x − x ) 2
k 1 k
σ + n Test di
n ∑ (xi −x)
2
ipotesi
i =1

12/4/2013 Regressione 36
$ Intervallo di fiducia per β0 + β1 xk al livello 1 − α

li = (b0 + b1xk ) − t
1 (xk −x)
2

αs + n
n −2,1− n
2
∑ (x
i =1
i −x)
2

ls = (b0 + b1xk ) + t
1 (xk −x)
2

αs + n
n −2,1− n
2
∑ (x
i =1
i −x)
2

12/4/2013 Regressione 37
Intervallo di predizione di una risposta futura β0+β1xk

 
 
 1
var [ˆYk ] = σ2  1 + +
(xk − x )2 
n  per i valori singoli
n




i =1
(xi − x ) 
2

$ Intervallo di fiducia per una risposta futura β0 + β1 xk


(intervallo di previsione) al livello 1 − α

li = (b0 + b1xk ) − t
1 (xk −x)
2

αs 1+ + n
n −2,1− n
2
∑ (x
i =1
i −x)
2

ls = (b0 + b1xk ) + t
1 (xk −x)
2

αs 1+ + n
n −2,1− n
2
∑ (x
i =1
i −x)
2

12/4/2013 Regressione 38
Retta di regressione Pulse2 vs Pulse1
Pulse2 = 10.2784 + 0.956799 Pulse1
S = 13.5375 R-Sq = 38.0 % R-Sq(adj) = 37.3 %
140

90
e2
Pulse

Regression
40 95% CI
95% PI

50 60 70 80 90 100
Pulse1

12/4/2013 Regressione 39
ROW X Y1 Y2 Y3 X4 Y4

1 10 8.04 9.14 7.46 8 6.58


2 8 6.95 8.14 6.77 8 5.76
3 13 7.58 8.74 12.70 8 7.71
4 9 8.81 8.77 7.11 8 8.84
5 11 8.33 9.26 7.81 8 8.47
6 14 9.96 8.10 8.84 8 7.04
7 6 7.24 6.13 6.08 8 5.25
8 4 4.26 3.10 5.39 19 12.50
9 12 10.84 9.13 8.15 8 5.56
10 7 4.82 7.26 6.42 8 7.91
11 5 5.68 4.74 5.73 8 6.89

Anscombe (1973)

ŷ = 3.0 + 0.50x

12/4/2013 Regressione 40
11
9
10
8
9
7
8
Y1

Y2
6
7

6 5

5 4

4 3
4 9 14 4 9 14
X X

13 13
12 12
11 11
10 10
Y3

Y4
9 9
8 8
7 7
6 6
5 5
4 9 14 10 15 20
X X4

12/4/2013 Regressione 41
Analisi dei residui

I residui devono soddisfare tutte le assunzioni fatte


sugli errori, e cioè:
• indipendenza
• media uguale a zero
• varianza costante
• distribuzione normale

12/4/2013 Regressione 42
Regression Analysis: Pulse2 versus Pulse1

The regression equation is


Pulse2 = 10.3 + 0.957 Pulse1
Predictor Coef SE Coef T P
Constant 10.278 9.499 1.08 0.282
Pulse1 0.9568 0.1289 7.42 0.000
S = 13.54 R-Sq = 38.0% R-Sq(adj) = 37.3%
Analysis of Variance
Source DF SS MS F P
Regression 1 10096 10096 55.09 0.000
Residual Error 90 16494 183
Lack of Fit 23 4180 182 0.99 0.491
Pure Error 67 12314 184
Total 91 26590
Predicted Values for New Observations
New Obs Fit SE Fit 95.0% CI 95.0% PI
1 70.56 1.90 ( 66.78; 74.33) ( 43.40; 97.72)
Values of Predictors for New Observations
New Obs Pulse1
1 63.0
Normplot of Residuals for Pulse2
Residuals vs Fits for Pulse2
Residuals vs Order for Pulse2

12/4/2013 Regressione 43
Residuals Versus the Order of the Data (response is Pulse2)

40

30

20
Residual

10

-10

-20

10 20 30 40 50 60 70 80 90
Observation Order

Potrebbero mettere in luce:


• Varianza non costante
• Errori computazionali
• Modello inadeguato: necessità di termini di ordine superiore o una
trasformazione della y

12/4/2013 Regressione 44
Residuals Versus the Fitted Values (response is Pulse2)

40

30

20
Residual

10

-10

-20

55 65 75 85 95 105
Fitted Value

Potrebbero mettere in luce:


• Varianza non costante
• Scostamenti sistematici dal modello previsto (residui negativi per
bassi valori degli yi previsti e positivi per i valori grandi)
• Modello inadeguato

12/4/2013 Regressione 45
Normal Probability Plot of the Residuals (response is Pulse2)

1
Normal Score

0
N

-1

-2

-3

-20 -10 0 10 20 30 40
Residual

o un overall plot: istogramma, dot plot, ...

12/4/2013 Regressione 46
Analisi dei residui
Normal Plot of Residuals I Chart of Residuals
50
40 1 1
1
40 1 1
30 30 11 1 1
Residual

UCL=23.45

Residual
20 20 55 2
2
66
10 10
0 0 Mean=2.09E-14
22 2
2
-10 22222 22222 22
22
-10 222 2 2 66
-20 2
6 LCL=-23.45
-20
-30
-3 -2 -1 0 1 2 3 0 10 20 30 40 50 60 70 80 90 100
Normal Score Observation Number

Histogram of Residuals Residuals vs. Fits


30 40
30
Frequency

20 Residual 20
10
10 0
-10
0 -20
-20 -10 0 10 20 30 40 55 65 75 85 95 105
Residual Fit

12/4/2013 Regressione 47
Forma soddisfacente dei plot dei residui

12/4/2013 Regressione 48
Forme insoddisfacenti dei plot dei residui
12/4/2013 Regressione 49
Analisi del modello

Yi − Ŷi = {(Yi − Ŷi ) − E[ Yi − Ŷi ]} + E[ Yi −Ŷi ]

Ri di=errore
sistematico

… però ci vogliono delle replicazioni...

12/4/2013 Regressione 50
n1
y 11 y 12 . . . y 1n (n 1 osservazioni in x 1) ⇒
1
∑ (y
j =1
1j −y1 )
2
n 1− 1 gradi di
libertà
con
n1
1
y1 =
n1 ∑y
j =1
1j

n2
y 21 y 22 . . . y 2n (n 2 osservazioni in x 2 ) ⇒
2
∑ (y
j =1
2j −y2 )
2
n 2 −1 gradi di
libertà
con
n2
1
y2 =
n2 ∑y
j =1
2j

. . . . . . .
. . . . . . .
nk
yk1 yk2 . . . y kn (n k osservazioni in x k) ⇒
k
∑ (y
j =1
kj −yk )
2
n k − 1 gradi di
libertà
con
nk
1
yk =
nk ∑yj =1
kj

k ni k
Totale ∑ ∑ (y
i =1 j =1
ij − yi )
2
∑ (n
i=1
i − 1) = n − k

12/4/2013 Regressione 51
n k ni
SSlack of fit = ∑ (y i− ŷi )
2
− ∑∑ (y
i =1 j =1
ij − yi )
2

i =14
1 4244 3 1 44 42444 3
SSresidui SSp.e.

G.d.L.lack of fit = (n − 2) − (n − k) = k − 2

SSlack of fit SSp.e.


Se ˆσ2 = >> = ˆσ2 , allora ….
k −2 n −k

12/4/2013 Regressione 52
Dati:
xi 1 2 3 4 5
yi 10 10 7 14 12 10 65 64 69 72 74 70 90 90 96

Retta: ŷ = −17.6 + 22.6x


3
10 10 7 (3 osserv. in x = 1) ⇒ ∑ (y
j =1
1j − y1 )
2
=6 2 g.d.l.

con y 1 = 9
3

∑ (y ) 2
14 12 10 (3 osserv. in x = 2) ⇒ 2j −y2 =8 2 g.d.l.
j =1

con y 2 = 12
. . . . . .
. . .
3
90 90 96 (3 osserv. in x = 5) ⇒ ∑ (y
j =1
5, j −y5 )
2
= 24 2 g.d.l.

con y 5 = 92

Totale 60 10
12/4/2013 Regressione 53
Analisi della varianza, cioè analisi statistica …..

Origine della Gradi di libertà Somme dei quadrati Quadrati medi Fcalc
variazione
Regress.(b0) 1 SS(b0) = 37800 MS(b0) = 37800 303
Regress.(b1⏐b0) 1 SS(b1⏐b0) = 15323 MSRegr. = 15323 123
10 per l' errore puro SSRes. = MSRes. =124.9
13 SSp.e. = 60
Residui 3 per il L.O.F. MSp.e. = 6 86.89
1624 = 
SSL.O.F. = 1564 MSL.O.F. = 521.3
Totale 15 SST = 54747

… ma anche analisi grafica dei residui!!

12/4/2013 Regressione 54
Strategia per la scelta del piano sperimentale

% Qual è il range dei valori delle variabili esplicative (o predittori)?

! Il range deve essere abbastanza ampio in modo da fare utili inferenze, ma


abbastanza limitato in modo da permettere una rappresentazione con un
modello sufficientemente semplice.

! Ogni intervallo sperimentale puè essere codificato in [−1, +1]:

Variabile originale - Punto centrale dell'intervallo originale


x =
Semiampiezza del range originale

12/4/2013 Regressione 55
& Che tipo di relazione (del I ordine, del II ordine o altro) utilizzare
nel range prescelto?

' Se la relazione tentativamente impostata in & si dimostra errata,


quale altra relazione alternativa scegliere?

( Qual è la variabilità della risposta var [Y] =σ2?

) Di quante prove sperimentali si può disporre (denaro, tempo,


sperimentatori, possibilità di esecuzione, …)?

* Quanti valori diversi per la variabile esplicativa scegliere?

12/4/2013 Regressione 56
G.d.L. σb1

l.o.f. p.e. σe k

12 0 0.43 14
-1 1

5 7 0.40 7
-1 0 1

5 7 0.33 5
-1 0 1

2 10 0.31 4
-1 1
12/4/2013 Regressione 57
G.d.L. σb
1

l.o.f. p.e. σe k

1 11 0.32 3
-1 0 1

1 11 0.29 3
-1 0 1

0 12 0.27 2
-1 1
12/4/2013 Regressione 58