Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
• Sino ad ora si sono considerati casi con modelli lineari nei parametri:
Y = β0 + β1 x1 + β2 x2 + ... + βk xk
• Tale scrittura risulta più generica di quanto sembri dato che la singola variabile
regressore può essere una funzione non lineare generica delle condizioni sperimentali.
• Esempi:
x1 = x2 z, x2 = log(z)
2 /61
MADS
Lezione 8
2009
Regressione non lineare - Introduzione
• Ci possono essere dei casi in cui i modelli lineari non sono adeguati, e il valore
osservato Y NON È funzione lineare dei parametri θ.
y = exp(θ1 + θ2 x2 )
– Il modello può essere “linearizzato”, ma tale procedura porta comunque a delle stime dei
parametri non ottimali
3 /61
MADS
Lezione 8
2009
Modelli non lineari
• Flusso di Scorrimento:
– Un flusso è uno scorrimento se è possibile individuare una famiglia di superfici materiali
(cioè fatte di particelle di fluido) le quali si mantengono inalterate durante il moto.
– Le superfici sono in moto relativo l’una rispetto all’altra. Il moto di ciascuna di esse è però
rigido (traslatorio e/o rotatorio)
4 /61
MADS
Lezione 8
2009
Reometria
• Per effetto dello scorrimento si genera nel liquido uno sforzo tangenziale.
– Se il liquido è Newtoniano allora:
– Se il liquido è non Newtoniano:
• f è una funzione non lineare
– Nel caso non-Newtoniano possono generarsi anche sforzi normali (ma qui questo aspetto
non ci interessa).
• In generale dipende dal punto e dal tempo. Se esso non cambia nel tempo il flusso di
scorrimento si dice viscometrico.
• Uno strumento capace di generare un flusso viscometrico uniforme può essere usato
per caratterizzare la
5 /61
MADS
Lezione 8
2009
Viscosimetri piatto e cono
• Campi di applicazione
– E’ una delle apparecchiature più utilizzate
– shear rate da 10-6 a 1000 s-1.
Parametri geometrici:
R, α
• Modello del processo
– angolo del cono piccolo: sinα≈tanα≈α
– Legame tra coppia M e velocità angolare Ω:
– Lo sforzo tangenziale:
6 /61
MADS
Lezione 8
2009
Equazione costitutiva reologica
• Modello dell’esperimento:
– Variabile indipendente: velocità angolare ⇒ (reometro a deformazione imposta)
– Variabile dipendente misurata: Coppia ⇒ τ.
• Materiale: Polipropilene a 200°C
o
an
ni
to
w
Ne
to
en
am
rt
po
m
Co
7 /61
MADS
Lezione 8
2009
Equazione costitutiva reologica
Plateau Newtoniano
Zo
na
a
le
gg
e
di
po
te
nz
a
8 /61
MADS
Lezione 8
2009
Equazione costitutiva reologica
• Una dipendenza della viscosità dalla shear rate di questo tipo è ben descritta dal
modello di Carreau-Yasuda:
– Parametri:
• Valore di viscosità del plateau Newtoniano η0;
• Tempo caratteristico del materiale λ;
• Pendenza della legge di potenza n−1;
• Ampiezza della zona di transizione tra i due comportamenti a.
• Obiettivo: Stimare il valore dei parametri sulla base dei dati sperimentali ottenuti.
– Eventualmente suggerire lo svolgimento di nuovi esperimenti.
9 /61
MADS
Lezione 8
2009
Modelli non lineari nei parametri
• La stima che abbiamo imparato ad eseguire era basata sullo stimatore della MV e si
limitava al caso di un modello del processo lineare nei parametri.
• IPOTESI
θ
N
! N
! 1 1 (yi − g(xi , θ))2
fY = fYi = √ exp[− ]
i=1 i=1
2πσ 2 σ 2
10 /61
MADS
Lezione 8
2009
STIMA PUNTUALE DI PARAMETRI
ESEMPIO CINETICA NON ISOTERMA
• Il modello non lineare potrebbe essere linearizzabile con trasformazioni non lineari
• Consideriamo la reazione chimica A+B→C in fase liquida con cinetica che dipende
dalla sola T (r=k0e-E/RT).
n
! E
φ(θ) = (ri − k0 e − RT 2
)
i=1
• C’è però da notare che in questo caso la nonlinearità è linearizzabile con una
trasformazione nonlineare.
11 /61
MADS
Lezione 8
2009
STIMA PUNTUALE DI PARAMETRI
ESEMPIO CINETICA NON ISOTERMA
• Se infatti facciamo il logaritmo della velocità di reazione otteniamo un modello di
processo lineare nei parametri.
12 /61
MADS
Lezione 8
2009
STIMA PUNTUALE DI PARAMETRI
ESEMPIO CINETICA NON ISOTERMA
• La MV si complica notevolmente data la maggiore complicazione della congiunta.
Possiamo procedere con i MQ ma sappiamo che le incertezze sulla stima cresceranno
13 /61
MADS
Lezione 8
2009
STIMA PUNTUALE DI PARAMETRI
ESEMPIO CINETICA NON ISOTERMA
• I termini affetti da minor errore devono pesare di più nella minimizzazione:
• In questo caso è facile scegliere i pesi, basta usare l’inverso della derivata della
trasformazione. Dato che i pesi non possono essere grandezze negative si eleva al
quadrato l’inverso:
14 /61
MADS
Lezione 8
2009
Regressione non lineare - Introduzione
• Nel seguito saranno introdotti alcuni concetti elementari sulla regressione non lineare
• Saranno infine dati dei cenni teorici sugli algoritmi matematici sfruttati nella
regressione non lineare
15 /61
MADS
Lezione 8
2009
Regressione linearizzata - Esempio
µS
r=
K +S
• I parametri da stimare
nel modello sono μ e K
• È chiaramente un
modello non lineare nei
parametri
16 /61
MADS
Lezione 8
2009
Regressione linearizzata - Esempio
z = β0 + β1 f
dove
17 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
18 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
19 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
Attenzione:
Si riporta anche il grafico dei
residui
20 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
• D a i c o e f fi c i e n t i d e l l a
regressione è possibile
valutare i parametri del
modello:
21 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
0
-0,00125
-0,00250
-0,00375
-0,00500
0 12,5 25,0 37,5 50,0
Variabile X 1
• Ricordiamo che:
22 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
1/r
Le incertezze a bassi
valori di r sono
amplificate
Sono invece
attenuate ad alti
valori di r
23 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
24 /61
MADS
Lezione 8
2009
Regressione linearizzata con Excel
250
La linearizzazione
200
fallisce in maniera
150 evidente la
100
predizione del
comportamento ad
50
alti valori di s
0
0 0.2 0.4 0.6 0.8 1 1.2
25 /61
MADS
Lezione 8
2009
Regressione non lineare
• Per avere una stima più affidabile dei parametri del modello si dovrebbe rinunciare alla
linearizzazione e affrontare la regressione non lineare
• Dal punto di vista matematico il problema è analogo al caso lineare:
– È necessario determinare i valori dei parametri che rendano minima la distanza tra
osservazioni e predizioni del modello
– Nel caso della regressione lineare la ricerca del minimo della funzione obiettivo nei
parametri ammette soluzione analitica e dipende linearmente dalle osservazioni
• Nel caso di un modello non lineare (nei parametri) la procedura è assolutamente
analoga: si può definire la funzione somma quadratica degli errori
! n
• Nel caso in esame φ(θ) = (yi − f (xi , θ))2
i=1
! n
µSi 2
φ(θ) = (ri − )
i=1
K + S i
26 /61
MADS
Lezione 8
2009
Modelli non lineari nei parametri
• In generale con applicando il procedimento appena visto si ottiene una stima di primo
tentativo.
• Ciò che dovrà cambiare è la tecnica con cui si perviene alla stima in quanto non è più
possibile operare analiticamente la minimizzazione.
27 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
• Il tipo di funzione da studiare è dettato dalla funzione obiettivo ridotta (quella che
contiene solo i parametri del modello del processo) ed in genere è del tipo somma di
scarti quadratici.
• Metodi Numerici:
– Metodi diretti (è necessaria solo la conoscenza di Φ)
– Metodi del gradiente (serve la conoscenza di Φ e del suo gradiente)
– Metodi che richiedono la conoscenza del gradiente e dell’Hessiano della funzione obiettivo.
28 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
• Per tale scopo è necessario usare un altro strumento di Excel:il menu Risolutore
• Di seguito saranno riportati i passi per eseguire una regressione non lineare con Excel
come ricerca del minimo della funzione obiettivo
29 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
30 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
• Attenzione:
• La formula è meno banale da
implementare dei casi precedenti: i
termini B15:B16 devono rimanere
costanti e l’indice di A deve variare
lungo la colonna.
• Non si può usare un semplice copia ed
incolla B15
B16
31 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
32 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
5. Inserire una cella (per esempio la cella E15) in cui sommare tutti gli elementi della
colonna E
Tale cella rappresenta la nostra funzione obiettivo
33 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
34 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
Da notare che i
valori dei parametri
sono cambiati
rispetto al caso
linearizzato
35 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
• Qualche riflessione
1. Se abbiamo la pazienza di confrontare i risultati della regressione con i dati
sperimentali possiamo osservare che i nuovi parametri si adeguano molto meglio ai
punti sperimentali rispetto alla linearizzazione
250
200
150
100
50
0
0 0.2 0.4 0.6 0.8 1 1.2
36 /61
MADS
Lezione 8
2009
Regressione non lineare con Excel
• Provare a vedere cosa succede se si assegna come valore di primo tentativo i valori µ
= -100 e L = 200.
• I risultati che ottengo dal risolutore sono plausibili oppure no?
• Nei prossimi lucidi cercheremo di introdurre qualche concetto di teoria che può
aiutare a farci capire i risultati che si sono ottenuti
37 /61
MADS
Lezione 8
2009
Algoritmi di ottimizzazione
• Si è già visto come la stima dei parametri per il modello non lineare consista nella
ricerca del minimo della funzione obiettivo
• Non abbiamo più la possibilità di una soluzione analitica: il diagramma della funzione
Φ(θ) non sarà più un paraboloide come nel caso della regressione lineare.
• Per esempio, in un caso scalare (θ Є R) si può avere:
• Si possono avere casi più complicati con la presenza di più minimi nella funzione
obiettivo:
Minimo relativo
Minimo Assoluto
39 /61
MADS
Lezione 8
2009
Algoritmi di ottimizzazione
40 /61
MADS
Lezione 8
2009
Algoritmi di ottimizzazione – Metodi diretti
41 /61
MADS
Lezione 8
2009
Algoritmi di ottimizzazione – Metodi diretti
• Vantaggi
– È necessaria la conoscenza della sola funzione obiettivo.
– Risulta molto semplice da implementare
• Svantaggi
– Può rivelarsi molto oneroso dal punto di vista computazionale: per ogni iterazione è
necessaria la valutazione della funzione in (3n-1) punti, dove n è la dimensione dello spazio
delle variabili di stato (nel caso in esame n =2).
42 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
RIPETIZIONE DI ANALISI
• Che cosa è il gradiente di una funzione?
• Il gradiente g di una funzione f indica la direzione lungo la quale la funzione cresce più
rapidamente. Perciò –g è la direzione lungo cui la funzione diminuisce più
velocemente.
43 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
RIPETIZIONE DI ANALISI
• Che cosa è l’Hessiano di una funzione?
44 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
RIPETIZIONE DI ANALISI
• Condizioni necessaria e sufficiente affinché θ* sia un minimo:
45 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
Problemi storici:
– Scelta della direzione: il gradiente.
– In vicinanza del minimo si usa la curvatura della funzione (Hessiano) per accelerare la
convergenza
– Problemi di occupazione di memoria.
– MOLTI METODI NON CONVERGEVANO (i problemi nascono quando si è lontani dalla
soluzione)
46 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
• Un buon programma deve sfruttare più metodi selezionati tra quelli adatti a risolvere
un particolare problema.
47 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
METODI
48 /61
MADS
Lezione 8
2009
Algoritmi di ottimizzazione – Metodi del gradiente
θi+1 = θi + ci
dove
Lungo la direzione
ci = λi v i fissata il problema
diventa di natura
scalare
49 /61
MADS
Lezione 8
2009
Algoritmi di ottimizzazione – Metodi del gradiente
50 /61
MADS
Lezione 8
2009
Algoritmi di ottimizzazione – Metodi del gradiente
• Il vettore v ha un ruolo più importante di λ. Infatti, una volta scelto v si può scegliere
λ con grandissima precisione
51 /61
MADS
Lezione 8
2009
Metodi del Gradiente – Metodo Massima Pendenza
∂φ
θi+1 = θi − λ |θi
∂θ
• Vantaggi:
– Molto semplice da implementare.
• Svantaggi:
– E' estremamente lento nella convergenza ed instabile.
52 /61
MADS
Lezione 8
2009
Metodi del Gradiente – Metodo di Newton-Raphson
• Il metodo della massima pendenza può essere migliorato con una opportuna scelta
della matrice R.
∂φ 1 ∂2φ
φ(θ) ≈ Q(θ) = φ(θi ) + |θi (θ − θi ) + |θ (θ − θ )2
∂θ 2 ∂θ2 i i
53 /61
MADS
Lezione 8
2009
Metodi del Gradiente – Metodo di Newton-Raphson
• Dal punto di vista grafico, si approssima la funzione con una curva quadratica passante
per θi:
La curva Q(θ) è la
quadratica che approssima
meglio la funzione in θ0
54 /61
MADS
Lezione 8
2009
Metodi del Gradiente – Metodo di Newton-Raphson
∂Q ∂φ ∂2φ
= |θi + 2 |θi (θ − θi ) = 0
∂θ ∂θ ∂θ
1 ∂φ
θi+1 = θi − ∂2φ
· |θi
∂θ
∂θ 2 |θi
55 /61
MADS
Lezione 8
2009
Metodi del Gradiente – Metodo di Newton-Raphson
56 /61
MADS
Lezione 8
2009
ALGORITMI DI MINIMIZZAZIONE
Metodo di Newton
• Vantaggi del metodo di Newton
– Quando converge lo fa molto rapidamente
– Se l’Hessiano è positivo definito la funzione diminuisce ad ogni iterazione.
57 /61
MADS
Lezione 8
2009
• Varianti del metodo di Newton vettoriale
• Metodi di Newton modificato:
– L’Hessiano viene calcolato (numericamente o analiticamente) ad ogni iterazione
– Viene risolto un sistema lineare ad ogni iterazione
– L’Hessiano viene modificato in modo da evitare i problemi
58 /61
MADS
Lezione 8
2009
Metodi del Gradiente – Metodo LM
Q = H + kI R = Q−1
• Metodo di Marquardt (1963)
Q = H + kD R = Q−1
– dove D è una matrice diagonale
59 /61
MADS
Lezione 8
2009
Riferimenti bibliografici di interesse
• L’implementazione della regressione non lineare con Excel è ispirata dal libro
– Introduction to Chemical Engineering Computing, B. Finlayson,
Wiley & Sons, New Jersey, 2006
60 /61
MADS
Lezione 8
2009
Sommario
61 /61
MADS
Lezione 8
2009