Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Salvatore Monaco
2000-2001
3
Teoria, θ²ωρια, delegazione, lunga fila di teori ( θ²ωρως, da θ²ωρ²ω: ”esaminare, osservare”)
inviati alle grandi celebrazioni religiose, a consultare gli oracoli. Cosı̀ come l’insieme delle acquisizioni
dei teori veniva accettato per interpretare e comprendere i fenomeni, una teoria nell’accezione corrente
consiste in una formulazione logicamente coerente (in termini di concetti ed enti più o meno astratti)
di un insieme di definizioni, principi e leggi generali che consentono di descrivere, interpretare, clas-
sificare, spiegare, a vari livelli di generalità, aspetti della realtà naturale e sociale, e delle varie forme
di attività umana.
Sistema da σισθηµα: ”riunione, complesso”. In ambito scientifico, qualsiasi oggetto di studio
che, pur essendo costituito da diversi elementi reciprocamente interconnessi e interagenti tra loro o
con l’ambiente esterno, reagisce o evolve come un tutt’uno con proprie leggi generali.
La Teoria dei Sistemi consta di un corpo di metodologie per l’analisi dei Sistemi.
Dopo un primo capitolo in cui vengono introdotte le definizioni fondamentali, il vocabolario ed i
primi elementi di rappresentazione e classificazione, saranno presentati nei capitoli successivi i diversi
metodi di analisi. Lo studio viene sviluppato per la classe dei sistemi lineari stazionari a dimensione
finita e si conclude con alcuni elementi di analisi per sistemi non lineari.
1. Sistemi dinamici e Rappresentazioni con lo
Stato
la conoscenza del fenomeno (secondo livello), sino al riconoscere la generalità del modello adatto
a rappresentare fenomeni diversi di differenti settori disciplinari (terzo livello), per arrivare ad una
classificazione per tipologie di modelli ed allo sviluppo di metodologie di analisi per classi (quarto
livello).
Si parte dalla formalizzazione del concetto di sistema verso i metodi di studio seguendo la for-
mulazione matematica.
Una prima formalizzazione conduce naturalmente a pensare ad un sistema come ad un insieme
di grandezze (elementi) assieme ad un insieme di relazioni tra esse. Le grandezze costituiscono una
rappresentazione astratta degli elementi e le relazioni specificano le interconnessioni, le interazioni,
tra gli elementi stessi e con l’esterno, ciò che serve anche a precisare il punto di vista dello studio.
La formalizzazione ci impone di astrarre dal contesto e pensare ad un sistema come ad un’entità
che stabilisce precisi legami funzionali tra insiemi di variabili. Si giunge in tal modo alla seguente
definizione formale di sistema astratto.
Definizione 1. Sistema astratto è una coppia Σ: = {V, R} ove V rappresenta l’insieme delle variabili
ed R rappresenta l’insieme delle relazioni tra le variabili. Gli elementi di R sono le regole che in modo
formale, mediante relazioni matematiche o a parole, specificano gli elementi del sistema: i possibili
comportamenti.
Questa definizione conferisce al concetto di sistema astratto una vasta generalità. Esso, in prima
istanza, corrisponde alla descrizione formale associata ad un dato fenomeno e trova applicazione nei
settori più diversi.
Esempio 1.1. Un qualsiasi componente o dispositivo che stabilisce un legame tra grandezze fisiche.
Ad esempio un componente elettrico resistivo: V è l’insieme delle coppie di variabili, tensione e
corrente, simbolicamente denotate v e i, V : = {v, i}, mentre R è costituito dall’eguaglianza v = ri.
Esempio 1.2. Un principio o una legge della fisica. Ad esempio la dinamica nel sistema gravitazionale
terrestre: V è l’insieme di funzioni del tempo che assumono valori nello spazio, R è rappresentato
dalle leggi di Keplero.
Esempio 1.3. Un processo di crescita di una popolazione governato da fenomeni di sviluppo noti.
Ad esempio la dinamica della crescita cellulare: V è l’insieme di funzioni del tempo che assumono
valori nei reali positivi, R è rappresentato dalle leggi di interazione e sviluppo.
Una prima specializzazione è necessaria per precisare la classe di sistemi a cui ci rivolgeremo: i
sistemi dinamici. In essi i possibili comportamenti sono funzioni del tempo: la variabile indipendente.
6 1. Sistemi dinamici e Rappresentazioni con lo Stato
Dobbiamo dunque pensare ad insiemi di variabili che evolvono nel tempo secondo definite regole e
relazioni tra esse. Per giungere ad una definizione formale di sistema dinamico astratto è necessario
introdurre alcune notazioni.
Sia T un sottoinsieme ordinato di R, insieme dei reali, o Z, insieme degli interi; T è detto insieme
dei tempi. Sia inoltre T (t0 ) l’insieme dei tempi maggiori o uguali ad un tempo t0
T (t0 ) = {t ∈ T : t ≥ t0 }
Se indichiamo con W T (t0 ) l’insieme delle funzioni definite su T (t0 ) che assumono valori in W
può essere impiegato per precisare quelli che indicheremo come i possibili comportamenti a t0 . Pos-
siamo, infatti, in modo del tutto generale definire un sistema astratto come un insieme di possibili
comportamenti nei diversi istanti di tempo. Questi insiemi dovranno soddisfare ad una proprietà
elementare come l’intuizione suggerisce. Se, infatti, pensiamo ai possibili comportamenti ad un dato
tempo come evoluzioni del sistema, risultato di esperimenti a tale istante di tempo, dovrà essere vero
che i risultati di esperimenti ad un fissato istante t0 , se visti dal generico t1 ≥ t0 , sono compresi tra i
risultati di esperimenti a t1 . Da un punto di vista formale dovrà essere verificata la seguente proprietà,
detta di chiusura rispetto al troncamento (CRT ): per ogni fissata coppia (t0 , t1 ), con t1 ≥ t0 , se w0
appartiene a Σ(t0 ) allora il suo troncamento su T (t1 ), w0 |T (t1 ) , cioè tale funzione considerata da t1 in
poi, deve appartenere a Σ(t1 ).
Siamo dunque pervenuti alla seguente definizione di sistema dinamico
S: = {T, W, Σ}
dove: ¯
¯
Σ: = {Σ(t0 ), t0 ∈ T : ∀t1 ∈ T (t0 ), w0 ∈ Σ(t0 ) ⇒ w0 ¯ ∈ Σ(t1 )}.
T (t1 )
Esempio 1.5. Dinamica nel sistema gravitazionale terrestre: T = R, W = R3 , Σ(t0 ) insieme delle
traiettorie, definite da t0 in poi, che soddisfano le leggi di Keplero.
1.1. Sistema astratto 7
X
n
xi (t) ≥ aij xj (t + 1) (D)
j=1
per ogni t0 e t̄ in T .
La precedente definizione esprime formalmente che traslando Σ(t0 ) a destra di t̄ (se t̄ è positivo) si
ottengono le coppie al tempo (t0 + t̄), Σ(t0 + t̄). E, tornando a quanto detto in precedenza, Σ(t1 ) è
ottenuto da Σ(t0 ) per effetto di una traslazione di t1 − t0 .
Per i sistemi a tempo discreto introducendo l’operatore di traslazione unitaria, che sarà indicato
con σ, la proprietà di stazionarietà si esprime
σΣ(t) = Σ(t + 1)
.
In conclusione, poiché i comportamenti di un sistema stazionario al generico istante t0 possono
essere ottenuti per traslazione a partire da quelli ad un fissato istante assunto zero per convenzione
(Σ(t0 ) = ∆t0 Σ(0)), un sistema stazionario rimane definito da una terna {T, W, Σ(0)}.
Un’ulteriore particolarizzazione è quella che conduce alla definizione di sistema lineare.
Definizione 5. Sistema dinamico lineare. S = {T, W, Σ} è detto lineare se W è uno spazio lineare
sui reali e se, per ogni t0 , Σ(t0 ) è un sottospazio lineare di W T (t0 ) . Ciò equivale a richiedere che
comunque fissati w1 , w2 ∈ Σ(t0 ) e α, β ∈ R
La definizione data di sistema dinamico in termini dei possibili comportamenti corrisponde ad una
descrizione esplicita, enumerativa, di un dato oggetto o fenomeno.
Molto spesso la caratterizzazione dei comportamenti possibili può essere fatta utilizzando equazioni
che costituiscono un modello matematico del sistema; si ha in questo caso una descrizione implicita,
sintetica, del sistema. Nella gran parte dei casi la descrizione implicita è ottenuta mediante equazioni
alle differenze, per i sistemi a tempo discreto (T = Z), o equazioni differenziali, nel caso dei sistemi
a tempo continuo. Inoltre, nella costruzione del modello è spesso necessario impiegare un insieme
aggiuntivo di variabili. Questi due aspetti sono nel seguito chiariti con semplici esemi.
E’ spesso la rappresentazione implicita il punto di partenza nello studio dei fenomeni.
Esempio 1.7. Un semplice modello di microeconomia: dinamica del prezzo in condizioni di equilibrio
tra domanda e offerta. Si supponga di voler descrivere la variazione del prezzo di un prefissaato bene
assumendo, in una forrmulazione elementare, che nel mercato non siano presenti beni concorrenti. Se
si indica con p il prezzo unitario, con d la domanda e con o l’offerta non è difficile rendersi conto che
valgono relazioni del tipo
d(p) = d0 − ap
.
s(p) = o0 + bp, a, b > 0
1.1. Sistema astratto 9
L’impiego di variabili ausiliarie è spesso necessario nella costruzione di un modello. Questo aspetto
è illustrato nel seguente esempio.
Esempio 1.8. Dinamica della popolazione di una nazione. Si immagini di voler formulare un modello
matematico per descrivere come varia nel tempo il numero di persone in età compresa tra 60 e 70 anni
in una assegnata regione. Come l’intuizione immediatamente suggerisce, la progressione temporale
nel passaggio da un’età ad un’altra rende necessario fare riferimento ad una suddivisione in classi di
età e descrivere l’evoluzione nel tempo di esse. Se si decide di voler descrivere l’evoluzione con una
cadenza annuale e si assume pari ad un anno l’ ampiezza delle classi di età, il numero di persone in
ciascuna classe di età fornisce, per il problema in esame, un insieme completo di variabili ausiliarie.
La loro evoluzione nel tempo consente infatti di ottenere gli andamenti temporali desiderati.
Indicato con xi (t) il numero di persone di età i al tempo t, si ha:
xi+1 (t + 1) = βi xi (t), i = 0, . . . , n − 1
con αi coefficienti di fertilità, con i compreso tra i limiti del periodo di fertilità mf ed Mf, e βi
coefficienti di sopravvivenza qui assunti costanti per semplicità. La somma, ad ogni istante, delle
variabili con indice compreso tra 60 e 70 fornisce la descrizione cercata. E’ dunque necessario, per
descrivere la dinamica voluta, rappresentare anche la variazione delle classi di età precedenti a quelle
interessate. Si tratta di un insieme di variabili ausiliarie.
10 1. Sistemi dinamici e Rappresentazioni con lo Stato
Esempio 1.9. Dinamica di una popolazione animale Se si suppone di voler descrivere la dinamica
di una popolazione animale di predatori è necessario descrivere anche l’andamento di altre variabili,
della preda ad esempio, che costituisce la risorsa per la crescita. Se supponiamo che siano presenti solo
due specie, il seguente modello matematico (Volterra 1906) esprime l’interazione tra le due variabili
x1 (t) e x2 (t) che rappresentano la densità della preda e quella del predatore, rispettivamente.
I precedenti semplici esempi mostrano che può essere utile, talvolta necessario, fare riferimento
ad un insieme di variabili ausiliarie rispetto a quelle, terminali, che assumono valori in W e che
caratterizzano i possibili comportamenti.
Definizione 6. Un sistema dinamico con variabili ausiliarie è una quadrupla Sa = {T, W, A, Σa } con
- A insieme dei valori delle variabili ausiliarie;
- Σa = {Σa (t0 ) ⊆ (W × A)T (t0 ) : sia soddisfatta CRT}.
Sa è la rapprentazione con variabili ausiliarie di S: = {T, W, Σ} se per ogni t0
Definizione 7. Stato. Un sistema dinamico con variabili di stato è un sistema dinamico con variabili
ausiliarie Sx := {T, W, X, Σx }, in cui Σx soddisfa l’assioma di stato
{(w01 , x10 ), (w02 , x20 ) ∈ Σx (t0 ), t ≥ t0 e x10 (t) = x20 (t)} ⇒ {(w0 , x0 ) ∈ Σx (t0 )}
L’assioma dello stato richiede che ogni traiettoria che arriva in un fissato stato possa essere
concatenata con ogni traiettoria che parte da quello stato. In queste condizioni, una volta noto lo
stato ad un fissato istante, i comportamenti futuri sono fissati e nessuna ulteriore informazione è
contenuta nei comportamenti passati. In altre parole lo stato all’istante t è sufficiente a caratterizzare
tutti i possibili comportamenti da t in poi; lo stato a t contiene le informazioni necessarie sul passato.
In breve, lo stato rappresenta la memoria del passato.
Come puntualizzato nella definizione 7, Sx = {T, W, X, Σx } è la rappresentazione con lo stato di
un sistema dinamico S = {T, W, Σ} in cui Σ(t0 ) = {w0 /∃x0 tale che (w0 , x0 ) ∈ Σx (t0 )}.
L’introduzione della definizione di stato e di rappresentazione con lo stato suggerisce immediata-
mente la domanda: Esiste sempre la rappresentazione con lo stato di un assegnato sistema ? Se no,
sotto quali condizioni ?
Il problema della rappresentazione con lo stato di un dato sistema dinamico è molto studiato
nella teoria dei sistemi e sarà approfondito nel seguito con riferimento alla classe dei sistemi dinamici
orientati e causali. I problemi coinvolti riguardano l’esistenza, l’unicità e la minimalità dell’insieme
degli stati.
Quanto sinora esposto è a fondamento di un punto di vista di ampia generalità che potremmo
pensare collegato ad un approccio interpretarivo, conoscitivo, in cui ha interesse la descrizione di
legami tra variabili, ciò che è tipico, ad esempio, della formulazione di leggi fisiche. Il punto di vista
delle scienze dell’ingegneria conduce a distinguere le variabili in cause ed effetti, ingressi e uscite,
collegate da relazioni di dipendenza causale rispetto al tempo.
Per comprendere questo aspetto è necessario ricordare che in tale ambito disciplinare la model-
lazione di un dato processo o fenomeno rappresenta la prima fase di un procedimento di progetto
che spesso ha per fine il soddisfacimento di prefissate specifiche su un fissato insieme di variabili.
L’individuazione delle variabili esterne su cui intervenire conduce naturalmente ad un processo di
modellistica orientata causa - effetto, ingresso - uscita. Inoltre, sempre in considerazione della finalità
di intervento, si limita lo studio alla classe di processi e fenomeni in cui il legame tra gli ingressi e
le uscite, intese come funzioni del tempo, è causale; si assume cioè che l’uscita al tempo t dipenda
dall’ingresso passato e presente, ma non possa dipendere dall’ingresso dopo tale istante di tempo.
Questo punto di vista è in particolare quello dell’ingegnere dei sistemi di controllo che maggiormente
ha promosso lo sviluppo della Teoria dei Sistemi.
Il seguente esempio illustra questo aspetto.
nazione (uscita) al variare delle spese del governo (ingresso) può essere calcolata a partire dalle
seguenti relazioni. La prima di esse esprime una semplice relazione di bilancio
Inoltre, dagli studi di modellistica economica, una ben nota ipotesi delle teorie classiche ipotizza che si
possano assumere i consumi al tempo t proporzionali al prodotto nazionale allo stesso istante, secondo
un coefficiente, m, che rappresenta la propensione marginale al consumo
Ancora dalle teorie classiche, l’incremento del prodotto nazionale può essere assunto proporzionale
all’investimento secondo un fattore r, detto fattore di crescita,
P (t + 1) − P (t) = rI(t)
che esprime il legame cercato tra la variazione le spese del governo e il prodotto nazionale lordo. Si
tratta di un legame orientato, da G(t) verso P (t) e di tipo causale rispetto al tempo: P (t) dipende,
in base alla precedente relazione, da quanto vale P ad un certo istante iniziale, t0 , e dalle spese per il
governo da t0 a t.
Un secondo modello, si tratta ancora di una rappresentazione dello stesso tipo, può essere assunto
a rappresentare lo stesso fenomeno in un economia di mercato fondato sulle leggi dell’economista
Samuelson. Samuelson, in alternativa alla assunzioni della teoria classica, ipotizza per i consumi e
gli investimenti delle relazioni diverse dalle precedenti. Per quanto riguarda i primi li assume ancora
proporzionali al prodotto nazionale lordo, ma, ciò che è più verosimile, al valore del prodotto nell’anno
precedente. Si ha quindi:
Inoltre ipotizza gli investimenti in un dato periodo proporzionali all’incremento di consumo, e quindi
solo indirettamente al prodotto lordo, secondo la relazione
Con semplici passaggi si ottiene il seguente sistema di equazioni alle differenze prime
descrive, secondo un diverso punto di vista, l’evoluzione del prodotto lordo in funzione della spesa. Si
tratta ancora di una descrizione causale, in cui P (t) è calcolato a partire da C(t0 ), I(t0 ) e G(·) da t0
a t.
Definizione 8. . Sistema astratto dinamico orientato Un sistema dinamico astratto orientato è una
terna {T, U × Y, Σ} ove
Σ = {Σ(t0 ) ⊂ U T (t0 ) × Y T (t0 ) : t0 ∈ T / CRT sia soddisfatta}
e CRT esprime la chiusura rispetto al troncamento, che per i sistemi orientati si esprime: ∀t0 ∈ T ,
∀t1 ≥ t0
¯ ¯
(u0 , y0 ) ∈ Σ(t0 ) ⇒ (u0 ¯T (t1 ) , y0 ¯T (t1 ) ) ∈ Σ(t1 ).
1.2.a. Causalità
Nel contesto dei sistemi orientati, in cui un possibile comportamento a t0 è pensato come il
risultato di un esperimento che corrisponde alla sollecitazione esterna u0 (·) definita da t0 in poi, il
concetto di variabile di stato, introdotto nella definizione 7. conduce naturalmente ad individuare
una proprietà specifica dello stato. Infatti l’insieme degli stati a t0 costituisce una parametrizzazione
dell’insieme Σ(t0 ), cioè delle possibili coppie ingresso-uscita. Fissare u0 non è sufficiente ad individuare
y0 perchè Σ(t0 ) è una relazione; x0 è ciò che bisogna specificare perchè ad un dato ingresso u0 , da t0
in poi, corrisponda una fissata uscita y0 . Questa proprietà dello stato viene messa in luce in modo
autonomo e preliminare in quanto segue, ove viene introdotto il concetto di parametrizzazione di una
relazione.
In base alla definizione 8. un sistema dinamico astratto orientato è un insieme di relazioni,
sottoinsiemi di {U T (t0 ) × Y T (t0 ) }. Il soddisfacimento del requisito dello stato di consentire assieme
ad u0 di individuare un corrispondente comportamento in uscita poggia sul seguente risultato di
algebra che sancisce la possibilità di effettuare una partizione in classi di equivalenza di una relazione,
sottoinsieme nello spazio prodotto, mediante i grafi di una funzione che dipende da un parametro al
variare del parametro stesso.
Siano A e B insiemi non vuoti, sia R ⊂ A × B e siano D(R) ⊂ A ed R(R) ⊂ B il dominio ed il
codominio della relazione R.
14 1. Sistemi dinamici e Rappresentazioni con lo Stato
Proposizione 1. ([1]). E’ possibile definire un insieme P ed una funzione π: P × D(R) → R(R) tali
che:
(a, b) ∈ R ⇒ ∃p : b = π(p, a)
p ∈ P, a ∈ D(R) ⇒ (a, π(p, a)) ∈ R
π è detta rappresentazione parametrica di R; (P, π), sua parametrizzazione.
È quindi possibile associare ad ogni Σ(t0 ) una parametrizzazione, cioè un insieme di parametri
Xt0 ed una funzione
πt0 : Xt0 × D(Σ(t0 )) → R(Σ(t0 )).
Inserire la dimostrazione.
Si noti che in base alla definizione data fissato un ingresso a t0 , sia u0 , una stessa uscita y0 può
corrispondere a diversi valori del parametro a t0 .
È ora possibile introdurre formalmente un’altra proprietà fondamentale: la causalità. Tale pro-
prietà, con riferimento ad un funzionale nella variabile indipendente t, cioè una funzione che a sua
volta dipende da una funzione del tempo t, sia u(t), esprime la coincidenza dei valori assunti dal
funzionale fino a quando i valori assunti dalla funzione indipendente u sono coincidenti.
In formule, indicato con T \T (t) l’insieme dei tempi privato di T (t), f è strettamente causale se:
¯ ¯
¯ ¯
∀t ∈ T, u¯ = u0 ¯ ⇒ [f (u)](t) = [f (u0 )](t)
T \T (t) T \T (t)
Se per mantenere l’uguaglianza dei valori assunti è anche necessario che sia u(t) = u0 (t) allora f è
causale.
Definizione 10. S è causale se esiste almeno una rappresentazione parametrica causale, cioè tale
che:
∀t0 ∈ T, ∀x0 ∈ Xt0 , ∀t ∈ T (t0 )
u[t0 ,t] = u0[t0 ,t] ⇒ [πt0 (x0 , u)](t) = [πt0 (x0 , u0 )](t)
Si noti che la precedente condizione sull’intervalo aperto a destra [t0 , t) esprimerebbe la stretta
causalità.
1.2. Sistema astratto orientato e rappresentazioni con lo stato 15
Per comprendere con l’intuizione come sia possibile introdurre il concetto di stato a partire da
una parametrizzazione causale valgono le seguenti considerazioni.
La definizione stessa di sistema dinamico orientato richiede che i parametri x0 , ai diversi istanti,
siano collegati: se a t0 alla coppia (x0 , u0 ) ∈ Xt0 × D(Σ(t0 )) corrisponde y0 ∈ R(Σ(t0 )) al generico
¯
istante t1 ≥ t0 la coppia (u0 , y0 )¯T (t1 ) appartiene a Σ(t1 ) e quindi sarà corrispondente ad uno o a più
valori del parametro in Xt1 . Se si ammette che {Xt0 , t0 ∈ T } siano sottoinsiemi di un unico X e si ha
presente il significato che si vuole attribuire allo stato: “contenere tutte le informazioni sul passato
necessarie a caratterizzare, assieme agli ingressi, il futuro”, sembra naturale assumere che tra i valori
¯
a t1 , cui corrisponde (u0 , y0 )¯T (t1 ) , ce ne sia uno legato ad x0 ed u0 da un legame funzionale del tipo:
x1 = x(t1 ) = ϕ(t1 , t0 , x0 , u0 )
Inoltre tale legame funzionale è assunto causale, più precisamente strettamente causale; quindi solo
la restrizione di u0 sull’intervallo [t0 , t1 ) risulta significativa.
Le precedenti considerazioni lasciano intendere l’opportunità di definire una evoluzione nello
spazio X per collegare i valori dei parametri nei diversi istanti di tempo.
Siano X spazio dei parametri, U insieme dei valori di u, U ⊂ U T spazio delle funzioni d’ingresso,
(T × T )∗ = {(t, t0 ) : t ≥ t0 , t, t0 ∈ T }
ϕ : (T × T )∗ × X × U → X
x(t) := ϕ(t, t0 , x0 , u)
P2 (causalità)
¯ ¯
¯ ¯
∀(t, t0 ), ∀x0 ∈ X u¯ = u0 ¯ ⇒ ϕ(t, t0 , x0 , u) = ϕ(t, t0 , x0 , u0 )
[t0 ,t) [t0 ,t)
P3 (separazione)
∀(t, t0 ), ∀x0 ∈ X, ∀u ∈ U
P1 e P2 sono ovvie; P3 esprime il fatto essenziale che lo stato a t può essere calcolato da x0 e u[t0 ,t) , ma
anche a partire dallo stato raggiunto a t1 , e con x0 e u[t0 ,t1 ) , con u[t1 ,t) proprio perchè x(t1 ) riassume
la storia passata.
16 1. Sistemi dinamici e Rappresentazioni con lo Stato
Le considerazioni fatte hanno lasciato intendere come sia possibile rendere consistente la scelta
delle parametrizzazioni ai diversi istanti di tempo. Ciò posto, è naturale chiedersi come i parametri
intervengano nel calcolo dell’uscita. A tale proposito dalla definizione 9
che mette in evidenza come l’uscita al tempo t dipenda dai valori dell’ingresso e dello stato in quello
stesso istante.
In conclusione rimane definita una funzione η, trasformazione di uscita
η: T × X × U → Y
y(t): = η(t, x(t), u(t))
Inoltre, in virtù della proprietà P3, è soddisfatta la chiusura rispetto al troncamento (CRT)
e 0 ).
sull’insieme delle relazioni Σ(t
Ciò consente di comprendere che le funzioni ϕ ed η definiscono, in modo alternativo, un sistema
dinamico astratto orientato causale. Tale definizione può essere assunta come punto di partenza nello
sviluppo della teoria.
Vedremo tra breve, infatti, che sotto ipotesi sufficientemente generali è possibile associare ad un
dato sistema astratto orientato una rappresentazione con lo stato, cioè una terna (X, ϕ, η), X spazio
di stato, ϕ funzione di transizione dello stato, η trasformazione di uscita. Nel paragrafo seguente
vengono formalizzati tali aspetti e chiarite le condizioni di esistenza di rappresentazioni con lo stato
di un assegnato sistema dinamico astratto orientato.
Definizione 11. Assegnato un sistema S e detto U ⊂ U T l’insieme delle funzioni di ingresso, una
terna (X, ϕ, η) con ϕ ed η funzioni definite in precedenza, è una rappresentazione con lo stato di S se
e 0 ), le coppie ingresso uscita generate
sono soddisfatte le proprietà P1, P2 e P3 e ad ogni istante t0 Σ(t
da (X, ϕ, η), coincidono con Σ(t0 ), l’insieme delle coppie ingresso-uscita del sistema S; in formule
e 0 ) data nel paragrafo precedente:
ricordando la definizione di Σ(t
∀t0 e 0 ) = Σ(t0 )
Σ(t
.
Dato il sistema S il problema di individuare una rappresentazione con lo stato, cioè una terna
(X, ϕ, η) secondo la definizione 11. è noto come problema della associazione dello stato.
Le considerazioni precedenti hanno voluto mettere in evidenza, senza pretesa di rigore matem-
atico, quali sono gli aspetti salienti che vengono affrontati in un tale problema. In effetti il passaggio
da una rappresentazione parametrica causale ad una sua rappresentazione con lo stato è possibile
sotto alcune ipotesi circa la ricchezza dell’insieme delle funzioni di ingresso. Più precisamente
Ciò premesso vale un risultato fondamentale che risolve il problema dell’associazione dello stato.
Si può infatti dimostrare che un assegnato sistema dinamico astratto orientato S, definito su uno
spazio delle funzioni di ingresso U completo, ammette rappresentazioni con lo spazio di stato se e solo
se è causale.
La prova della necessità del risultato enunciato è semplice e consiste nel verificare che a partire
da una rappresentazione con lo stato, che è causale per definizione stessa, si può costruire una rapp-
resentazione parametrica causale (ciò che corrisponde alla causalità di S). La prova della sufficienza
è costruttiva e segue le linee delle considerazioni intuitive svolte. Il lettore interessato può consultare
il testo Teoria dei Sistemi di A. Ruberti e A. Isidori, edizioni Boringhieri, 1977, dove è riportata
un’ampia trattazione del problema.
Ovviamente ad un assegnato sistema possono essere associate diverse rappresentazioni con lo
stato; tra due qualsiasi di queste (X, ϕ, η) ed (X 0 , ϕ0 , η 0 ) dovrà risultare che
∀t0 , ∀x0 , ∀u, ∃x00 : ∀t ∈ T (t0 )
(e viceversa ∀t0 , ∀x00 , ∀u, ∃x0 ∈ X : ∀t ∈ T (t0 ))
η(t, ϕ(t, t0 , x0 , u), u(t)) = η 0 (t, ϕ0 (t, t0 , x0 0 , u), u(t))
Spesso ha interesse che tra due rappresentazioni sussista una relazione più forte del tipo seguente.
18 1. Sistemi dinamici e Rappresentazioni con lo Stato
Definizione 13. Due rappresentazioni con lo stato (X, ϕ, η) e (X 0 , ϕ0 , η 0 ) sono dette equivalenti se
Tra le rappresentazioni di un sistema ha interesse caratterizzare quelle che hanno uno spazio di
stato ridotto. A questo proposito
Definizione 15. (X, ϕ, η) associata al sistema S si dice ridotta all’istante t0 se non esistono stati
indistinguibili a t0 .
Si noti che in molti casi applicativi di interesse il verificarsi della proprietà della definizione 15 a
t0 , implica il suo soddisfacimento per t 6= t0 . Nel caso generale ciò non avviene, ma è usuale definire
non ridondante una rappresentazione se è ridotta ad un istante t0 .
Una proprietà generale delle rappresentazioni a tempo discreto è rappresentata dalla possibilità
di ottenere senza alcuna ipotesi supplementare una rappresentazione cosidetta “implicita” a partire
da (X, ϕ, η). Infatti da
x(t) = ϕ(t, t0 , x0 , u)
posto t = t + 1, t0 = t, si ha
x(t + 1) = f (t, x(t), u(t))
che consente di caratterizzare “passo, passo” l’evoluzione di x(t) a partire dai valori dello stato e
dell’ingresso. La rappresentazione (X, f, η) è detta implicita ed f è detta funzione generatrice.
Come si è visto, nel caso tempo-discreto è sempre possibile ottenere una rappresentazione im-
plicita particolarizzando le equazioni che definiscono la rappresentazione esplicita su un intervallo di
tempo unitario. L’esistenza di rappresentazioni implicite nel caso tempo-continuo è condizionato da
opportune ipotesi dette di regolarità.
Come suggerisce l’intuizione una rappresentazione implicita del sistema a tempo continuo dovrà
fornire una descrizione del comportamento del sistema ”in tempo reale”, e quindi, secondo relazioni
causali e differenziali; le ipotesi di esistenza non potranno allora prescindere dalla derivabilità delle
funzioni di transizione nello stato. Se ammettiamo che ϕ(t, t0 , x0 , u) sia soluzione di
∂ϕ
= f (t, ϕ, u(t))
∂t
otteniamo immediatamente una rappresentazione differenziale del tipo
Proprietà più deboli di quella di linearità sulla funzione generatrice ci consentiranno, nell’ultimo
capitolo, di introdurre ulteriori classi di sistemi.
Lo studio delle rappresentazioni a stati finiti e a dimensione infinita sono oggetto di corsi special-
istici per le connessioni con i metodi e i risultati di settori disciplinari affini. La teoria degli automi e
dei linguaggi per i primi, i metodi caratteristici dello studio delle equazioni differenziali alle derivate
parziali e dell’analisi funzionale per i secondi.
2. Rappresentazioni con lo stato lineari, a dimensione
finita, stazionarie
Definizione 1. Rappresentazione lineare Siano X, U , Y spazi lineari sullo stesso corpo. (X, ϕ, η)
è una rappresentazione lineare se: ϕ è lineare ∀(t, t0 ) sull’insieme X × U e η è lineare ∀t sull’insieme
X × U.
cioé la nota scomposizione della evoluzione nello stato in risposta libera e risposta forzata.
Nell’ulteriore ipotesi che X, U, Y siano spazi a dimensione finita e pari a n, p e q rispettiva-
mente, la risposta libera e quella forzata assumono forme particolari come viene mostrato nel seguito
distinguendo il caso di sistemi a tempo discreto da quello dei sistemi a tempo continuo.
22 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
Alla luce dello studio sinora condotto la seguente domanda si pone spontanea: assegnato un
sistema dinamico lineare secondo la definizione 1, con U ed Y spazi lineari a dimensione finita, quali
sono le condizioni sotto le quali esistono rappresentazioni con lo stato di S lineari a dimensione finita
?
E’ ovvio che una rappresentazione lineare a dimensione finita “genera” un sistema lineare a
dimensione finita, causale; il viceversa però non è sempre vero. Si pensi a quanto osservato a proposito
delle rapresentazioni equivalenti. Se si suppongono assegnate una rappresentazione lineare, (X, ϕ, η),
ed una funzione non lineare, f : X → X 0 , si può definire la rappresentazione (X 0 , ϕ0 , η 0 )
Per ottenere una rappresentazione lineare a partire da un sistema lineare è necessario assicurarsi
che la parametrizzazione causale soddisfi ad una precisa proprietà. Tale proprietà, di cui si coglierà
immediatamente il significato, è la proprietà di consistenza nello stato zero. Più precisamente una
parametrizzazione π, di S, è detta consistente rispetto allo stato zero se
¯
∀(t, t0 ), ∀u ∈ U πt0 (0, 0[t0 ,t1 ) ∗ u[t1 ,t) )¯T (t = πt1 (0, u[t1 ,t) ).
1)
Ciò premesso, nella linea della tecnica dimostrativa proposta in [1], a cui si rinvia per la prova,
si dimostra che un sistema S, definito su U completo, ammette almeno una rappresentazione con lo
stato lineare a dimensione finita se e solo se esiste una parametrizzazione causale, lineare, a dimensione
finita, consistente rispetto allo zero.
ϕ(t, t0 , 0,u[t0 ,t−1] ) = ϕ(t, t0 , 0, [u(t0 ), u(t0 + 1), u(t0 + 2), . . . , u(t − 1)])
=ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + . . . ϕ(t, t0 , 0, [0, . . . , 0, u(τ ), 0 . . . 0]) + . . .
. . . + ϕ(t, t0 , 0, [0 . . . 0, u(t − 1)])
=ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + ϕ(t, τ, 0, [u(τ ), 0 . . . 0]) + . . .
. . . + ϕ(t, t − 1, 0, [u(t − 1)])
=H(t, t0 )u(t0 ) + . . . + H(t, τ )u(τ ) + . . . + H(t, t − 1)u(t − 1)
X
t−1
= H(t, τ )u(τ )
τ =t0
H(t, τ ) matrice (n×p) di funzioni definite su (Z×Z)∗∗ := {(t, τ ) : t > τ }, è detta matrice delle risposte
impulsive nello stato. Infatti se si assume un ingresso u[t0 ,t) sempre nullo per t 6= t1 , t1 ∈ [t0 , t), e
diverso da zero in t = t1 solo per la presenza di un “1” nella posizione i-ma (i-mo canale d’ingresso),
si ottiene come risposta la i-ma colonna di H(t, t1 ), hi (t, t1 ),
0
..
.
0
u = 1 δ(t − t1 ) ⇒ ϕf = hi (t − t1 )
0
.
..
0
In altri termini le colonne di H sono interpretabili come risposte ad ingressi di tipo impulsivo.
Alcune proprietà delle matrici Φ ed H sono immediata consequenza della proprietà di separazione
P3. Si ha, infatti
X
t−1
ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 + H(t, τ )u(τ ) =
τ =t0
" #
1 −1
tX
ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 + H(t1 , τ )u(τ ) +
τ =t0
X
t−1
H(t, τ )u(τ )
τ =t1
Poichè questa uguaglianza deve essere verificata per ogni u ed ogni x0 , ponendo u(·) = 0 si deduce a
proprietà di semigruppo della matrice di transizione
ponendo x0 = 0 si deduce la proprietà di separazione della matrice delle risposte impulsive nello stato
ove C(t) e D(t sono matrici di funzioni del tempo di dimensioni (q × n) e (q × p) rispettivamente, e
quindi
X
t−1
y(t) = C(t)(φ(t, t0 )x0 + H(t, τ )u(τ )) + D(t)u(t)
τ =t0
X
t−1
x(t) = ϕ(t, t0 , x0 , u) = φ(t, t0 )x0 + H(t, τ )u(τ )
τ =t0
X
t
y(t) = ψ(t, t0 )x0 + W (t, τ )u(τ ))
τ =t0
dove
Le precedenti relazioni definiscono una rappresentazione esplicita con lo stato di un sistema lineare a
dimensione finita a tempo discreto.
Sia T = R e x0 ∈ X ∼
= Rn . La linearità di ϕ` rispetto a x0 comporta
φ(t, t0 ) matrice (n × n) di funzioni su (R × R)∗ . Anche in questo caso P1. implica φ(t, t) = I.
Per quanto riguarda la risposta forzata ϕf , nell’ipotesi che questa sia un funzionale continuo di
u[t0 ,t) , si ha, per un noto teorema di rappresentazione di un funzionale lineare,
Z t
ϕ(t, t0 , 0, u[t0 ,t) ) = Ht,t0 (τ )u(τ )dτ
t0
Se si nota che, per la linearità di ϕf , la transizione da t0 per effetto di un forzamento nullo fino a t1
è equivalente alla transizione da t1 :
¯
¯
ϕ(t, t0 , 0, 0[t0 ,t1 ) ∗ u[t1 ,t) )¯ = ϕ(t, t1 , 0, u[t1 ,t) )
T (t1 )
risulta quindi Z Z
t t
Ht,t0 (τ )u(τ )dτ = Ht,t1 (τ )u(τ )dτ
t1 t1
2.1. Struttura e proprietà delle rappresentazioni lineari 25
da cui Z t
ϕ(t, t0 , 0, u) = H(t, τ )u(τ )dτ.
t0
La matrice H(t, τ ) è detta matrice delle risposte impulsive nello stato in quanto, con considerazioni
analoghe a quelle svolte per i sistemi a tempo discreto, le sue colonne rappresentano le risposte nello
stato a particolari ingressi: gli ingressi impulsivi. E necessario precisare che tale risultato è ottenuto
nel contesto dei sistemi a tempo continuo, sulla base di un risultato generale di approssimazione,
andando a valutare le risposte nello stato che si ottengono in corrispondenza di una successione di
ingressi che tende all’impulso unitario (distribuzione δ di Dirac). Il limite, sulle risposte a successioni
che selezionano un solo ingresso, l’i-mo, converge alla i–ma colonna di H.
Come per i sistemi a tempo discreto alcune proprietà di φ ed H sono ottenute applicando la
proprietà P3. Si ha
Z t
ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 + H(t, τ )u(τ )dτ
t0
· Z t1 ¸
ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 + H(t1 , τ )u(τ )dτ +
t0
Z t
H(t, τ )u(τ )dτ
t1
valida per ogni u e x0 . Ponendo u(·) = 0 e x0 = 0 si ottengono anche in questo caso le proprietà di
semigruppo di φ ed H
φ(t, t0 ) = φ(t, t1 )φ(t1 , t0 ) ∀t ≥ t1 ≥ t0
e sotto l’ipotesi che le funzioni di ingresso siano continue e η(t, φ(t, t0 , 0, u[t0 ,t) ), u) sia un funzionale
continuo, ponendo
W (t, τ ): = C(t)H(t, τ ) + D(t)δ(τ − t)
ove ψ(t, t0 ) := C(t)φ(t, t0 ) e W (t, τ ) è una matrice (q × p) di distribuzioni detta matrice delle risposte
impulsive in uscita. Il motivo di ciò è fondato sulle stesse considerazioni già fatte per H(t, τ ).
Si noti che la matrice delle risposte impulsive W da sola rappresenta il comportamento forzato
(cioè il comportamento ingresso-uscita a partire dallo stato zero). In questo senso si usa dire che la
matrice delle risposte impulsive di un sistema lineare è un “modello” del comportamento forzato (la
sua conoscenza e quella dell’ingresso consentono di calcolare l’uscita). Si noti anche come, a seguito
della sua interpretazione come risposta ad ingressi impulsivi, si possa rilevare la presenza di una classe
di ingressi, quelli impulsivi, che svolgono un ruolo particolare nello studio dei sistemi lineari (per tale
motivo tali ingressi sono tra quelli cosidetti canonici), infatti la risposta ad un dato ingresso u(t)
è ottenuta mediante la convoluzione dell’ingresso con le uscite corrispondenti agli ingressi impulsivi
che caratterizzano W . Si noti che mentre (φ, H, ψ, W ) caratterizzano la rappresentazione data, cioè
tutte le evoluzioni, W da sola caratterizza il comportamento forzato (da x0 = 0). Una questione
interessante, che sarà esaminata nelle ipotesi di stazionarietà, riguarda la possibilità di ricostruire a
partire da W le evoluzioni del sistema nel complesso. Problema delle relazioni tra modello forzato e
modello complessivo.
Per concludere le considerazioni circa le rappresentazioni lineari si sottolinea che la loro impor-
tanza è legata non solo alla ricchezza di risultati disponibili, ma anche al ruolo, spesso significativo,
che lo studio delle rappresentazioni lineari approssimanti assegnate dinamiche non lineari svolge nello
studio di diversi problemi di analisi e sintesi di sistemi. A tale proposito è interessante osservare come,
assegnata una rappresentazione non lineare e una condizione di equilibrio, la rappresentazione lineare
approssimante ottenuta a partire da una rappresentazione esplicita e quella ottenuta dalla rappresen-
tazione implicita siano consistenti. In altre parole le soluzioni del sistema differenziale (alle differenze)
lineare approssimante coincidono con la linearizzazione delle soluzioni del sistema differenziale (alle
differenze) non lineare. La dimostrazione di tale risultato sarà affrontato nel prossimo capitolo con
riferimento ai sistemi stazionari.
Come si è già osservato, l’evoluzione ad un passo dello stato per un sistema a tempo discreto è
descritta da un’equazione della forma
f è detta funzione generatrice. La precedente equazione già mette in luce quanto asserito che, cioé,
l’evoluzione è il risultato di un processo iterativo che a partire dallo stato e l’ingresso al tempo t,
genera lo stato al tempo t + 1.
Nelle ipotesi di linearità della funzione f sullo spazio X × U per ogni t e finita dimensione di
X = Rn ed U ∼
∼ = Rp , si ha
x(t + 1) = A(t)x(t) + B(t)u(t)
ove A(t) e B(t) sono matrici di funzioni del tempo di dimensioni (n × n) e (n × p) definite da
Le precedenti equazioni definiscono una rappresentazione implicita con lo stato di un sistema lineare
a dimensione finita a tempo discreto.
Sistemi di equazioni alle differenze di tale tipo danno una rappresentazione ricorsiva della gen-
erazione del legame funzionale ingresso-stato-uscita caratteristico di un sistema dinamico. Per tale
motivo sono interessanti dal punto di vista ingegneristico: esse consentono, eventualmente mediante
simulazione, di costruire un dispositivo che simula in tempo reale il comportamento dinamico del
sistema. Il seguente schema, detto di realizzazione o simulazione, rende conto di tale aspetto.
D
u( t ) x (t+1) x( t ) +
−1
B + z C + y (t )
+
A
Figura 2.1
∂ϕ
= ẋ(t) = f (t, ϕ, u(t))
∂t
Si mostrerà ora che se la rappresentazione esplicita è lineare anche la funzione generatrice lo è sullo
spazio prodotto, X × U . Si può infatti dimostrare il seguente risultato. Esiste una rappresentazione
implicita, o differenziale, del tipo
con A(t) matrice (n × n) di funzioni continue, B(t) matrice (n × p) di funzioni continue, se e solo se la
matrice di transizione dello stato φ e la matrice delle risposte implusive nello stato H sono funzioni
continue su (R×R)∗ ed inoltre φ è derivabile rispetto al primo argomento e la sua derivata è continua.
Sotto tali ipotesi risulta, infatti,
∂φ
ove la continuità di φ e ∂t implicano quella di A. Inoltre
∂ ∂
H(t, τ ) = φ(t, t1 )H(t1 , τ )
∂t ∂t
= A(t)φ(t, t1 )H(t1 , τ ) = A(t)H(t, τ )
ẋ(t) = A(t)x(t)
risulta
X(t)X −1 (τ ) = φ(t, τ )
2.3. Le Rappresentazioni Lineari Stazionarie 29
che esprime il sussistere di una proprietà di gruppo sulla matrice di transizione dello stato.
Per completezza giova ricordare che una matrice fondamentale X(t) è soluzione di Ẋ = A(t)X
con X(t0 ) = I la cui soluzione ammette la seguente espansione in serie di Newman
Z t Z t Z τ1
φ(t, t0 ) = I + A(τ1 )dτ1 + A(τ1 ) A(τ2 )dτ2 dτ1 +
t0 t0 t0
Z t Z τi−1
... + A(τ1 ) . . . A(τi )dτi . . . dτ1 + . . .
t0 t0
In conclusione sotto le ipotesi di linearità, finita dimensione e regolarità si ottiene una rappre-
sentazione differenziale (implicita) del tipo
Tale rappresentazione è una realizzazione differenziale del legame funzionale che caratterizza il com-
portamento dinamico del sistema. É interessante osservare che la caratteristica peculiare di un tale
tipo di descrizione è che essa può essere utilizzata per generare “in tempo reale” le evoluzioni nello
stato ed in uscita al variare di t. Questa caratteristica è evidente se si osserva lo schema di realiz-
zazione o simulazione, riportato in figura, che corrisponde ad una possibile realizzazione, sia fisica che
numerica, mediante dispositivi in grado di effettuare integrali, moltiplicazioni e somme.
D
.
u( t ) x( t ) Z x( t ) +
B + C + y (t )
+
A
Figura 2.2
Una ulteriore specializzazione della classe di sistemi si ottiene assumendo la stazionarietà, con-
dizione soddisfatta, con buona approssimazione, da molti sistemi fisici. Tale proprietà esprime
l’invarianza rispetto al tempo del comportamento del sistema.
30 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
∆δ η(t, x, u) = η(t + δ, x, u)
ove ∆δ indica l’operatore di traslazione a destra definito come
∆δ (f (t)) = f (t − δ)
come risulta immediatamente dal calcolo mediante la serie di Newman con A(t) = A oppure come
si verifica immediatamente per derivazione e sostituzione nell’equazione differenziale matriciale Ẋ =
AX. In definitiva, il passaggio dalla rappresentazione impicita a quella esplicita comporta il calcolo
delle seguenti matrici
φ(t) = eAt
H(t) = eAt B
ψ(t) = CeAt
W (t) = CeAt B + Dδ(t)
Il passaggio inverso, dalla rappresentazione esplicita a quella implicita, si ha ponendo
d
A= φ(t)
dt t=0
B = H(0)
C = ψ(0)
Z t+²
D= (W (t − τ ) − CH(t − τ ))dτ
t−²
32 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie
Il concetto di equivalenza tra rappresentazioni con lo stato è collegato alla non unicità nella scelta
dello stato per descrivere un dato sistema dinamico già trattata nel paragrafo 1.3.
Nel caso generale, assegnato il sistema
z = T (x) x = T −1 (z)
il calcolo diretto della derivata rispetto al tempo fornisce la rappresentazione equivalente rispetto alle
variabili z
∂T (x)
ż = | −1 f (T −1 (z(t)), u(t))
dx x=T (z(t))
y(t) = h(T −1 (z(t)), u(t))
Per un’assegnata rappresentazione con lo stato lineare, tra le diverse scelte di variabili di stato quelle
che sono legate da una trasformazione di coordinate lineare mantengono la struttuta, lineare, della
rappresentazzione.
Infatti, assegnato il sistema
z = Tx |T | =
6 0
si ottiene la rappresentazione
Da un punto di vista operativo giova osservare ccome procedere per effettuare una trasformazione di
coordinate. Se x è una n–pla che rappresenta un vettore, sia v, rispetto ad una base di riferimento,
ei , i = 1, ..n, cioè
0
1 0
1
0 ...
x = Σxi ei = 0
... x1 + . x2 + ... + 0 xn
..
0 1
0
poichè
x = T −1 z
(T −1 )i , l’iesima colonna di (T −1 )
0
..
.
0
(T −1 )i = T −1 · 1 i − ma
0
..
.
0
è la rappresentazione dell’ iesimo vettore della nuova base (quella in cui il vettore è rappresentato da
z) rispetto alla vecchia base (quella in cui il vettore è rappresentato da x).
Questo vuol dire che effettuare una trasformazione lineare di variabile di stato del tipo z =
T x significa, da un punto di vista operativo, scegliere una nuova base dello spazio di stato che è
∼ ∼
rappresentata dalle colonne di T −1 , e 1 , ..., e n nelle coordinate di x. Si ha cioè
∼ ∼
T −1 = ( e 1 , ..., e n )
A titolo di esempio non si troverà difficoltà nel calcolare la trasformazione di coordinate che inverte
l’ordine delle variabili di stato.
Un’ osservazione conclusiva verte a chiarire, con un semplice esempio, che esistono rappresentazioni
non lineari di sistemi lineari. Assegnato, a tal fine, il seguente sistema lineare scalare, i seguenti
calcoli sono immediati:
ẋ(t) = ax(t) + bu(t) z = ex x = lnz
e chiariscono quanto affermato che, cioè esistono rappresentazioni non lineari di sistemi lineari.
Più in generale si ha, rispetto a una trasformazione di coordinate non lineare z = T (x) (x =
−1
T (z))
∂T (x) ∂T (x)
ż = AT −1 (z) + Bu
dx x=T (z)
−1 dx x=T −1 (z)
y = CT −1 (z) + Du
che è una rappresentazione non lineare del sistema lineare dato.
Le rappresentazioni lineari sono importanti anche perchè possono essere impiegate per descrivere
il comportamento di un sistema dinamico generale intorno a prefissati comportamenti di riferimento.
L’approssimazione lineare di un sistema dinamico è la generalizzazione del semplice concetto di
approssimazione di una curva nell’intorno di un fissato punto mediante la tangente in quel punto.
Con riferimento alla generica funzione non lineare f (x) intorno ad un valore fissato f (xe ) lo sviluppo
in serie arrestato al primo ordine fornisce
¯
df ¯¯
y = f (x) = f (xe ) + (x − xe ) + ....
dx ¯xe
ya = mxa
∆x(t) = ϕ(t, x(0), u(·)) − ϕ(t, xR (0), uR (·)) = ϕl (t, ∆x(0), ∆u(·)) + O2 (∆x(0), ∆u(·))
2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari 35
¡ ¢ ¡ ¢ ¡ ¢
∆y(t) = η x(t), u(t) − η xR (t), uR (t) = ηl ∆x(t), ∆u(t) + O2 (∆x(t), ∆u(·))
ẋ = f (x, u) y = h(x, u)
¯ ¯
∂f ¯¯ ∂f ¯¯
ẋa (t) = xa (t) + ∆u(t) = A(t)xa + B(t)∆u
∂x ¯xR (t)uR (t) ∂u ¯xR (t)uR (t)
¯ ¯
∂h ¯¯ ∂h ¯¯
ya (t) = xa (t) + ∆u = C(t)xa + D(t)∆u
∂x ¯xR (t),uR (t) ∂u ¯xR (t),uR (t)
Se xR (·) = cost allora anche uR (·) = cost e f (xR , uR ) = 0. In tal caso il sistema approssimante è
stazionario.
Mostreremo ore che intorno ad una coppia di equilibrio, (xe , ue ): f (xe , ue ) = 0, l’approssimazione
lineare della soluzione ammette, come funzione generatrice, l’approssimazione lineare della funzione
generatrice del sistema dato. Si ricordino, innanzituto le notazioni:
ẋ = f (x, u)
x(t) = ϕ(t, x, u) e
µ ¶
∂ϕ(t, x, u)
= f ϕ(t, x, u), u
∂t
Posto ¯
∂ϕ ¯¯
Φ(t) =
∂x ¯xe ,ue
la proprietà di separazione implica le proprietà di semigruppo sulle funzioni Φ e ϕl , cioè
cioè:
dΦ(t)
= |t=0 (x(t) − xe ) + ϕl (0)(u(t) − ue ) + . . .
dt
Rimane cosı̀ individuata l’approssimazione sulla soluzione che, per l’unicità delle soluzioni di un’equazione
differenziale, comporta che
¯ ¯
∂f ¯¯ dΦ(t) ∂f ¯¯
¯ = |t=0 = ϕl (0)
∂x xe ,ue dt ∂u ¯xe ,ue
ẋ = f (x, u) f (xe , ue ) = 0
y = h(x, u) h(xe , ue ) = he
si ha l’approssimazione lineare
ẋa = Axa + Bv
ya = Cxa + Dv
ove si è posto xa = x − xe , v = u − ue , ya = y − ye
¯ ¯
∂f ¯¯ ∂f ¯¯
A= B=
∂x ¯xe ,ue ∂u ¯xe ,ue
¯ ¯
∂h ¯¯ ∂h ¯¯
C= D=
∂x ¯xe ,ue ∂u ¯xe ,ue
Pendolo
Dove u rappresenta una forza esterna agente, e k è un coefficiente di attrito dinamico. Posto x1 (t) =
θ(t) e x2 (t) = θ̇(t) si ottiene:
2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari 37
Il calcolo delle coppie di equilibrio corrispondenti ad ingresso nullo, ue = 0, fornisce xe2 = 0, xe1 =
(2h + 1)π oppure xe1 = 2hπ cioè tutti gli stati di equilibrio con la massa nelle posizioni verticali sopra
e sotto il punto di attacco. Intorno agli stati di equilibrio sopra il punto di attacco si ha il modello
linearizzato:
Il seguente modello che descrive la dinamica di due specie interagenti, preda e predatore, è stato
introdotto nel 1926 dal matematico italiano Vito Volterra e prende il suo nome. Tale modello riesce
ad interpretare l’aspetto più saliente di tale fenomeno: si tratta della presenza di situazioni di equilibrio
che, se perturbate, vedono insorgere fenomeni di oscillazione (alternanza di sviluppo tra le specie).
Si assume, nella formulazione del modello, che:
- la preda cresce, in assenza di predazione, secondo la cosiddetta equazione logistica
(si tratta di un equazione differenziale che mette bene in evidenza sia un andamento esponenziale
della crescita nella fase iniziale dell’evoluzione e per modesti valori di densità, sia una tendenza
asintotica ad un valore limite, ka (capacità portante) , che tiene conto di fattori limitanti quali, ad
esempio, la limitatezza delle risorse);
- il predatore ha come unico sostentamento la preda ed in assenza di questa diminuisce secondo
un andamento esponenziale governato dalla seguente equazione differenziale
Con queste assunzioni le equazioni che descrivono l’evoluzione delle specie possono essere facilmente
dedotte dalle precedenti equazioni. Si ottiene:
Si ha quindi ancora una volta un modello nonlineare dello stesso tipo del precedente. Come è facile
verificare si hanno in questo caso due punti di equilibrio: uno banale, corrispondente all’assenza di
specie, l’altro
c
x2 (−c + dx1 ) = 0 → x1e =
d
ad − kc
x1 (a − kx1 − bx2 ) = 0 → x2e =
bd
Intorno a tale punto di equilibrio l’evoluzione è approssimata da un sistema lineare in evoluzione
libera con
µ ¶
− kc
d − bc
d
A= ad−kc
b 0
Le rappresentazioni a tempo discreto possono essere impiegate per descrivere o approssimare sistemi
a tempo continuo come viene precisato nel seguito.
Assegnato un sistema a tempo continuo in cui gli ingressi sono costanti a tratti su intervalli di ampiezza
fissa, se si è interessati a calcolare le evoluzioni negli istanti, detti di campionamento, corrispondenti
alla variazione dell’ingresso è possibile ricondursi ad un sistema a tempo discreto equivalente. La
situazione è rappresentata nella figura 9.2; il calcolo del modello discreto equivalente è noto come
problema della discretizzazione. Tale problema trova applicazione nello studio di sistemi reali
collegati a dispositivi digitali; in tali circostanze l’ingresso è costante a tratti e le grandezze sono tutte
ricondotte ad una scala temporale discreta multipla del ciclo di calcolo elementare.
Una diversa circostanza che conduce a riferirsi al problema della discretizzazione è quando gli ingressi
continui vengono campionati; in tal caso il modello discreto descrive in modo approssimato il compor-
tamento campionato del sistema a tempo continuo alimentato da ingresso non sottoposti al processo
di campionamento e tenuta. Questa procedura è quella alla quale ci si riferisce quando si compiono
simulazioni numeriche sul modello di un assegnato sistema.
5.5. La risposta a regime permanente per i sistemi a tempo discreto 109
Parallelo perfetto quindi con i sistemi a tempo continuo in cui il guadagno è W (0) e ritroviamo la
corrispondenza più volte citata tra lo 0 in s e 1 in z..
b 0 + b 1 z + . . . + bm z m
W (z) = n≥m
a0 + a1 z + . . . + z n
il valore in zero può essere calcolato impiegando il teorema del valore iniziale (in appendice)
da cui risulta che il valore in zero della risposta al gradino unitario è 6= 0 se e solo se m = n, altrimenti
il primo valore 6= 0 si ha al tempo t = n − m e la sua ampiezza è pari a bm . Infatti ricordando il
teorema della traslazione si calcola con facilità
yf (0) = yf (1) = . . . yf (n − m − 1) = 0 yf (n − m) = bm
In sintesi da un’analisi qualitativa di W (z) risulta che il ritardo nella risposta indiciale è pari ad n−m,
l’eccesso poli - zeri; l’ampiezza del primo campione non nullo nella risposta indiciale è pari a bm ; al
crescere del tempo la risposta indiciale tende ad assumere un valore costante e pari a W (1).
rivedere
Come è stato messo bene in luce con riferimento ai sistemi a tempo continuo, un altro modo di
procedere al calcolo della W (s) è quello di fare esperimenti sul comportamento a regime permanente
nei confronti ad esempio di ingressi di tipo periodico caratterizzando modulo e fase della W (s) stessa.
Analoghe considerazioni possono essere fatte per sistemi a tempo discreto alla luce del significato che
assume la risposta a regime permanente ad ingressi periodici. Tale argomento viene sinteticamente
esposto nel seguito.
110 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso
u(t) = senθt
yr (t) = M (θ)sen(θt + φ(θ))
M (θ) = |W (ejθ )|
φ(θ) = W (ejθ )
Noi sappiamo che la risposta a regime permanente è quell’andamento intorno al quale tende ad
assestarsi il comportamento del sistema, andamento che vogliamo non dipenda dallo stato iniziale.
Imporre l’indipendenza dallo stato iniziale corrisponde, analogamente a quanto visto per i sistemi a
tempo continuo:
CAt−t0 x0 → 0 ∀x0 ⇒ |λi | < 1
In altre parole la condizione di indipendenza dallo stato iniziale si riduce a richiedere che i modi
osservabili siano associati ad autovalori a parte reale negativa. Anche in questo caso c’è da osservare
che l’esistenza del regime permanente non può prescindere da un’ulteriore proprietà che rende pos-
sibile il corretto funzionamento del sistema stesso: si tratta della limitatezza di tutte le evoluzioni
interne. Affinchè questo accada, come si può comprendere alla luce dello studio condotto sui modi
naturalli e come avremo occasione di precisare nelle fasi successive del nostro studio, è necessario
che gli autovalori a molteplicità geometrica unitaria abbiano modulo minore o uguale a uno e quelli
a molteplicità geometrica maggiore di uno abbiano modulo strettamente inferiore ad uno. In al-
tre parole è necessaria quella proprietà che è nota come stabilità interna del sistema. Assumeremo,
dunque, la stabilità interna ed in aggiunta, per garantire la citata indipendenza dallo stato iniziale
assumeremo che gli autovalori associati ai modi osservabili abbiano modulo strettamente inferiore ad
uno indipendentemente dalla loro molteplicità.
Assunta tale condizione sugli autovalori del sistema e passando al limite per t0 → −∞, si ottiene
l’espressione della risposta a regime permanente
X
t
yr (t) = W (t − τ )u(τ )
τ =−∞
che esiste per definite classi di funzioni di ingresso. Consideriamo classi di ingressi particolari
ejθt − e−jθt
u(t) = senθt =
2j
si ottiene
X
t
yr (t) = W (t − τ )ejθτ
τ =−∞
e posto
t−τ =ξ
5.5. La risposta a regime permanente per i sistemi a tempo discreto 111
∞
X ∞
X
yr (t) = W (ξ)ejθ(t−ξ) = ejθt W (ξ)e−jθξ
ξ=0 ξ=0
∞
X
W (ξ)(ejθ )−ξ = W (z)|ejθ
ξ=0
Si noti che la W (z) per z = ejθ è definita; infatti si potrebbe dimostrare che il raggio di convergenza
della W (z) coincide con il massimo dei moduli degli autovalori. Essendo questi per ipotesi tutti minori
di 1, sulla circonferenza di raggio unitario la funzione di trasferimento è ben definita.
Dal precedente calcolo, adottando la rappresentazione polare per la W
W (ejθ ) W (e−jθ )
⇓ ⇓
M (θ)ejφ(θ) M (−θ)ejφ(−θ)
si ottiene
ejθt · W (ejθ ) − e−jθt · W (e−jθ ) M (θ)(ejθt · ejφ(θ) − e−jθt · e−jφ(θ) )
=
2j 2j
cioè
yr (t) = M (θ)sen(θt + φ(θ))
In conclusione la risposta a regime permanente ad un ingresso periodico puro è dello stesso tipo
dell’ingresso ed ha la stessa pulsazione; risulta modificata in modulo e ampiezza di quantità che sono
pari al modulo e alla fase della W calcolata in z = ejθ . Per questo motivo si usa dire che il modulo e
la fase di W (z) per z = ejθ al variare di θ tra 0 e π caratterizzano il comportamento in frequenza.
112 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso
t(k)
u(t) =
k!
X
t
yr (t) = lim W (t − r)u(r)
t0 →−∞
r=t0
X
t
r(k)
= lim W (t − r) t−r =θ
t0 →−∞ k!
r=t0
X∞
(t − θ)(k)
= W (θ)
k!
θ=0
Poichè per il polinomio fattoriale di ordine (k) di un binomio vale lo sviluppo seguente
k µ ¶
X k
(t − θ)(k) = (−1)i t(k−i) (θ + i − 1)(i)
i
i=0
si ha
Xk µ ¶ ∞
X
1 k
yr (t) = i (k−i)
(−1) t W (θ)(θ + i − 1)(i)
k! i
i=0 θ=0
X
k
(−1)i t(k−i)
= Mi
i=0
i! (k − i)!
in cui si è posto
di W (z)
Mi = (−1)i |z=1
dz i
infatti
∞ ∞
di W (z) di X W (t) X W (t)
= i = (−1)i
(t + i − 1)(i) t+1
dz i dz t=0 z t t=0
z
si deduce che
Mi = (−1)i i!ci
5.5. La risposta a regime permanente per i sistemi a tempo discreto 113
X
k
t(k−1)
yr (t) = ci
i=0
(k − 1)
che presenta una stretta analogia formale con quella ottenuta per i sistemi a tempo continuo.
La risposta a regime permanente può anche essere calcolata come la parte persistente della
risposta forzata. In questo caso giova fare riferimento al dominio delle trasformate.
Un primo aspetto riguarda il calcolo della trasformata dell’ingresso canonico fattoriale
t[k] t(k − 1) . . . (t − k + 1)
=
k! k!
risulta · ¸
t[k] z
Z =
k! (z − 1)k+1
Per verificare quanto asserito è necessario premettere una proprietà della trasformata zeta. Più
precisamente
¡ ¢ d
Z tf (t) = −z F (z)
dz
infatti à ! à !
d f (1) f (2) f (1) 2f (2) 3f (3)
f (0) + + 2 + ... = − + 2 + + =
dz z z z z3 z4
e moltiplicando per −z
d f (1) 2f (2) ¡ ¢
−z F (z) = + + . . . = Z t · f (t)
dz z z2
Possiamo ora calcolare la Z trasformata di t.
d z z
Z[t] = −z =
dz z − 1 (z − 1)2
t[k] = t(t − 1) . . . (t − k + 1)
d 1 2z
Z[t[2] ] = Z[t · (t − 1)] = −z =
dz (z − 1)2 (z − 1)3
" # " #
t[2] t · (t − 1) d 1 z
Z =Z = −z · =
2! 2 dz (z − 1) 2 2 (z − 1)3
" #
t(t − 1)(t − 2) z
Z =
3! (z − 1)4
114 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso
e, in generale:
" #
t[k] z
Z =
k! (z − 1)k+1
La risposta a regime permanente ad un tale ingresso può essere calcolata facilmente; si ha infatti
e, sviluppando i calcoli
yf (z) c0 c1 ck X ri n
= + + ... + +
z (z − 1)k+1 (z − 1)k (z − 1) i=1 z − pi
t(k) t(k−1) Xn
yf (t) = c0 + c1 + . . . + ck + ri pti
k! (k − 1)! i=1
e, infine
t(k) t(k−1)
yr (t) = c0 + c1 + . . . + ck
k! (k − 1)!
con
¯
W (z) ¯
k+1 ¯
c0 = K = (z − 1) ¯ = W (1)
(z − 1)k+1
z=1
.....
¯
1 di ¯
ci = W (z)¯
i! dz i ¯
z=1
Anche nel caso del sistema a tempo discreto possiamo ripetere le stesse considerazioni fatte in prece-
denza; i coefficienti non sono altro che i coefficienti dello sviluppo in serie di Taylor, della W (z) intorno
al punto z = 1.
5.7. Discretizzazione della funzione di trasferimento di un sistema continuo 115
Possiamo qui ripetere le stesse considerazioni già fatte nel caso a tempo continuo
φ(z) X X ir m
Rik
=
z i=1
(z − λi )k
k=1
à !
XX z
φ(t) = Rik Z −1
i
(z − λi )k
k
infatti
λ λ2
Z[λt f (t)] = f (0) + f (1) + f (z) 2 + . . .
z z
da cui
" #
t(k−1)
t z/λ z zλ(k−1)
Z λ = = =
(k − 1)! (z/λ − 1)k λ
λk
(z − λ)k (z − λ)k
Ancora, si ha
" #
k−1
t zλk−1
Z λ−k+1 λt = · λ−k+1
(k − 1)! (z − λ)k
cioè
" #
t−k+1 t(k−1) z
Z λ =
(k − 1)! (z − λ)k
e
X
r X
mi
t(k−1) t−k+1
φ(t) = Rik λ
i=1 k=1
(k − 1)! i
Queste sono le leggi di moto che compaiono; perciò non più solo leggi di moto del tipo (λt ), ma anche
leggi di moto con coefficienti che sono dei polinomi in (t). Ciò corrisponde ai termini che caratterizzano
la potenza di una matrice A quando questa non è regolare (non esiste la forma diagonale). Valgono le
stesse considerazioni fatte a proposito dei sistemi a tempo continuo, ricordando che in questo caso la
diversità di comportamento al crescere del tempo si riscontra nel caso di autovalori a modulo unitario.
116 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso
Supponiamo che il sistema a tempo continuo sia descritto dalla funzione di trasferimento
Stc = W (s)
Il sistema che otteniamo è un sistema a tempo discreto lineare quindi il legame forzato sarà caratter-
izzato da una W (z). Si mostrerà ora come calcolare direttamente la W (z) a partire dalla W (s).
Per comprendere tale espressione si noti che essendo il sistema a tempo discreto lineare, è sufficiente
per calcolare la W (z) esprimere il rapporto tra un’uscita forzata e il corrispondente ingresso; inoltre, la
risposta al gradino a tempo discreto coincide con il campionamento della risposta al gradino unitario
del sistema a tempo continuo (ciò perchè la tenuta di un gradino discreto, dà un gradino continuo);
quindi la risposta indiciale continua campionata:
à !¯
¯
W (s) ¯
L−1 ¯
s ¯
kT
coincide con la risposta indiciale del sistema a tempo discreto. Facendone la Z - trasformata
" Ã !¯ #
¯
−1 W (s) ¯
Z L ¯
s ¯
kT
e dividendo per la Z trasformata del gradino a tempo discreto si ottiene, per quanto osservato, la
funzione di trasferimento cercata
" Ã !¯ #
z−1 ¯
yf (z) W (s) ¯
W (z) = = Z L−1 ¯
uf (z) z s ¯
kT
Esempio:
1
W (s) =
s2
µ ¶ µ ¶
ẋ = 0 1 x + 0 u
0 0 1
y = (1 0)x
ziD ∼
= ezi T i = 1, . . . , m
è importante notare che per (n − m) > 2 gli zeri del discretizzato di sn−m1
sono instabili (|ziD | > 1).
In altre parole per T piccolo (come usualmente accade) la funzione di trasferimento, del discretizzato
di un processo continuo con eccesso poli-zeri > 2, presenta zeri instabili, anche se il processo non li ha.
λT = eT · mT 0<m<1
W (s) emT s a
= e−lT s
s s(s + a)
↓
" Ã !¯ #
z−1 1 −1 e
mT s
emT s ¯¯
W (z) = z L − ¯
z zl s s+a ¯
t=KT
à !
z−1
= l+1 z δ−1 (kT + mT ) − e−a(kT +mT )
z
à !
z−1 z e−amT z
W (z) = l+1 −
z z − 1 z − e−aT
Si ottiene quindi una W (z) che è un rapporto di polinomi, in realtà si ottiene che il grado a denomi-
natore è pari a (λ + 1). Perciò si ha una funzione di trasferimento che è rapporto di polinomi e quindi
una rappresentazione con lo stato che è a dimensione finita, cosa che in realtà non si avrebbe in questo
caso per il sistema a tempo continuo.
5.8. Appendice 119
5.8. Appendice
5.8.a. La Trasformata Z
La trasformata Z, che associa ad una funzione del tempo discreto definita per t ≥ 0, f (t), una
funzione di variabile complessa, F (z) = Z[f (t)], è uno strumento di grande utilità nello studio dei
sistemi lineari stazionari a tempo discreto. Lo studio del sistema nel dominio complesso non solo
consente alcune semplificazioni computazionali, come avremo occasione di verificare, ma importanti
spunti interpretativi sul comportamento fisico del sistema.
Questa lezione è dedicata ad introdurre questo strumento matematico, le sue principali proprietà
ed alcune trasformazioni elementari.
La trasformata Z, associata ad una funzione f (t) definita per t ≥ 0, è
∞
X f (1) f (2)
Z[f (t)] = f (t)z −t = f (0) + + 2 + . . . = F (z)
t=0
z z
è cioè una funzione della variabile complessa z che risulta definita per |z| > ρf (ρf raggio di conver-
genza). La classe di funzioni per le quali tale operazione di trasformazione è definita è estremamente
ampia, è infatti intuitivo comprendere che per valori di z in modulo sufficientemente ampi la serie è
convergente essendo i campioni della funzione sono moltiplicati per z1t .
E’ evidente l’analogia con la trasformata di Laplace.
Z ∞
L[f (t)] = f (t)e−st dt = F (s)
0
Molto spesso per indicare che la funzione di cui si fa la trasformata è definita per t ≥ 0 si usa la
convenzione di rappresentare la funzione con f (t)δ−1 (t) essendo δ−1 il gradino unitario, la funzione
pari ad uno per t ≥ 0. Un primo aspetto che consideriamo è il calcolo per funzioni elementari. Tra
queste consideriamo le espressioni temporali dei modi naturali che, come sappiamo, caratterizzano la
descrizione esplicita del sistema. La legge di moto di un modo aperiodico o alternante è del tipo λt e
si ha
λ λ2 1 z
Z[λt δ−1 (t)] = Z[λt ] = 1 + + 2 + . . . = =
z z 1− z
λ z−λ
ed è definita per ¯ ¯
¯λ¯
¯ ¯< 1 ⇔ |z| > |λ|
¯z¯
120 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso
La verifica è semplice se si osserva che la funzione in questione è la somma di una serie geometrica di
ragione λz e che per una serie geometrica di ragione a
S = 1 + a + a2 + a3 + . . . (serie geometrica)
posto
Sn = 1 + a + a2 + a3 + . . . + an
si ha
1 − an+1
Sn =
1−a
e quindi
1 − an+1 1
S = S∞ = lim Sn = lim = |a| < 1
n⇒∞ n⇒∞ 1−a 1−a
ejθt − e−jθt
senθt =
2j
zsenθ
Z[senθt] = |z| > 1
z2 − 2zcos θ + 1
dove si è fatto uso della proprietà di linearità.
ρf = max{ρf1 , ρf2 }
Ulteriori proprietà della trasformata Z che saranno ore messe in luce sono le seguenti
- Traslazione (a destra e a sinistra)
- Convoluzione
- Valore iniziale e finale (nel tempo)
5.8. Appendice 121
Traslazione a destra
1
Z[f (t − 1)] = F (z)
z
Infatti, dalla definizione:
∞
X f (0) f (1)
Z[f (t − 1)] = f (t − 1)z −t = + 2 + ...
t=0
z z
si può calcolare à !
f (0) f (1)
zZ[f (t − 1)] = z + 2 + . . . = F (z)
z z
e quindi
1
Z[f (t − 1)] = F (z)
z
1
cioè traslare a destra di un passo nel tempo equivale a moltiplicare per z nel dominio della variabile
complessa z.
Traslazione a sinistra
Z[f (t + 1)] = zF (z) − zf (0)
Convoluzione ·X ¸
t
Z f (τ )g(t − τ ) = F (z) · G(z)
τ =0
che si esprime dicendo che la convoluzione nel dominio del tempo corrisponde al prodotto nel dominio
delle trasformate. Infatti à t ¶
X
Z f (τ )g(t − τ ) =
τ =0
µ ¶ µ ¶
1 1
= f (0) · g(0) + f (0) · g(1) + f (1) · g(0) + 2 f (0)g(2) + f (1)g(1) + f (2)g(0) + . . .
z z
µ ¶ µ ¶
g(1) g(2) f (1) g(1) g(2)
= f (0) g(0) + + 2 + ... + g(0) + + 2 + ...
z z z z z
122 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso
µ ¶
f (2) g(1)
+ 2 g(0) + + ...
z z
f (1) f (2)
= f (0)G(z) + G(z) + 2 G(z) . . .
z z
µ ¶
f (1) f (2)
= f (0) + + 2 + . . . G(z) = F (z) · G(z)
z z
Si osservi che tale proprietà comporta una semplificazione nel calcolo della risposta, infatti la risposta
forzata nello stato.
X
t−1
H(t − τ )u(τ )
τ =0
è pari alla convoluzione nel dominio del tempo e si traduce nel prodotto tra trasformate z.
Infatti
f (1) f (2)
F (z) = f (0) + + 2 + ...
z z
e
lim F (z) = f (0)
|z|→∞
e quindi
¡ ¢ X
N
¡ ¢
lim zF (z) − zf (0) − F (z) = lim lim f (t + 1) − f (z) z −t
z→1 z→1 N →∞
t=0
cioè
N µ
X ¶
lim (z − 1)F (z) − f (0) = lim f (t + 1) − f (t) = f (∞) − f (0)
z→1 N →∞
t=0
In conclusione:
lim (z − 1)F (z) − f (0) = f (∞) − f (0)
z→1
Per concludere calcoliamo la trasformata Z di At . Il calcolo ricalca i passaggi svolti nel caso scalare
A A2 A3
Z[At ] = I + + 2 + 3 + ...
z z z
5.8. Appendice 123
e posto µ ¶
A An
Sn = I + + ... + n
z z
risulta µ ¶ µ ¶µ ¶
A A A An An+1
I− Sn = I − I + + . . . + n = I − n+1
z z z z z
cioè µ ¶−1 µ ¶
A An+1
Sn = I− I − n+1
z z
e, in conclusione
µ ¶−1 µ ¶−1
A zI − A
t
Z[A ] = limn⇒∞ Sn = I− = = z(zI − A)−1
z z
(sI − A)aT
(sI − A)−1 =
|sI − A|
E0 + . . . + En−1 sn−1
=
a0 + . . . + an−1 sn−1 + sn
in cui E0 , · · · En−1 sono matrici reali nxn. Dalla precedente relazione risulta che l’inversa di (λI − A)
è una matrice (nxn) i cui elementi sono rapporti di polinomi in λ con coefficienti reali, in cui il grado
del polinomio a numeratore è, al massimo, n − 1 e quello del polinomio a denominatore è n.
Vale per il calcolo di E0 , · · · En−1 e per il calcolo dei coefficienti del polinomio caratteristico
a0 , · · · , an−1 la procedura illustrata nel seguito e nota come algoritmo di Soriau.
En−1 = I
..
.
E0 = AE1 + a1 I
0 = AE0 + a0 I
l’ultima relazione è ridondante e può essere impiegata per fare una verifica.
Le relazioni trovate definiscono un algoritmo particolarmente utile se si tiene presente che
an−1 = −tr(AEn−1 )
1
an−2 = − tr(AEn−2 )
2
..
.
1
ai = − tr(AEi )
n−i
ove tr indica la traccia di una matrice, cioè la somma degli autovalori o, ciò che è lo stesso, la somma
degli elementi sulla diagonale. Per la verifica delle precedenti uguaglianze si deve ricordare che detta
si la somma delle potenze i − me degli zeri di un polinomio, valgono le relazioni di Newton
an−1 = −s1
...
Inoltre, poichè gli autovalori della potenza i−ma di una matrice sono gli autovalori stessi alla potenza
i − ma, e la somma degli autovalori è pari alla traccia della matrice, si ha che
si = tr(Ai )
Ne segue che l’i − mo elemento delle relazioni di Newton si può esprimere nel modo seguente
1
ai = − tr(AEi )
n−i
5.8. Appendice 125
i=n−1
Ei = I
Ci = AEi
⇓
1
ai = tr(AEi )
n−1
⇓
Ei−1 = Ci + ai I
ST AM P A(i, Ei , ai )
i=0 ⇒ AE0 + a0 I ∼
=0 Stop
i=i−1 ⇒ IT ERA
In questo capitolo vengono introdotte e studiate le proprietà geometriche dello spazio di stato. Il
concetto fondamentale è quello di sottospazio invariante associato ad un operatore lineare già messo
in luce nei precedenti capitoli per il ruolo che esso ha nella individuazione delle forme semplici di una
data matrice. Come avremo occasione di mostrare, tale concetto acquisisce un significato particolare
nella caratterizazione del comportamento dinamico; si tratta di un aspetto che supera il contesto
lineare e sarà infatti poi ripreso nello studio dei sistemi dinamici non lineari.
L’invarianza è il punto di partenza per lo studio di due prroprietà fondamentali nello studio dei
sistemi dinamici.
La prima riguarda il legame stato-uscita e si riferisce all’esistenza di stati ai quali corrispondono
uscite coincidenti. Come avremo occasione di approfondire, da un punto di vista esterno ciò costituisce
un impedimento alla ricostruzione delle evoluzioni interne a partire dalle osservazioni (inosservabilità
del sistema) e rappresenta una ridondanza della rappresentazione con lo stato (si ricordi quanto già
osservato nel capitolo 1.3.).
La seconda riguarda il comportamento ingresso stato e più in particolare la possibilità di in-
tervenire sugli ingressi per raggiungere prefissati stati. Da un punto di vista esterno ciò esprime
la possibilità di modificare il comportamento dinamico di parte del sistema e l’eventuale presenza
di stati non raggiungibili manifesta la presenza di una ridondanza dello stato nella descrizione del
comportamento ingresso uscita forzato.
Come è noto, ed è stato ricordato nel capitolo terzo a proposito del calcolo della matrice di
transizione, il concetto di sottospazio invariante svolge un ruolo importante nella teoria degli opera-
tori lineari. Ciò in virtù delle semplificazioni che assume la struttura della matrice che rappresenta
l’operatore al variare della base. Dal un punto di vista del comportamento dinamico questa proprietà
ne induce un’altra che è più significativa e che ora si cercherà di mettere in luce.
6.1. Il concetto di invarianza 127
AV ⊂ V
ciò che implica, in una eventuale nuova base, una struttura a blocchi particolare della matrice che
rappresenta l’operatore. Più precisamente se T indica una trasformazione di coordinate in cui i primi
m vettori della nuova base sono una base di V (questo di ha ad esempio fissando una T −1 le cui prime
m colonne sono date dalla matrice V ) allora, nelle nuove coordinate,
µ ¶
−1 A11 A12
T AT =
0 A22
dove A11 è una matrice (m × m). La verifica di quanto asserito è immediata se si pensa che nella
nuova base il generico vettore, v, in V è rappresentato da una ennupla di numeri reali in cui i primi m
sono qualsiasi ed i restanti n − m sono nulli. Poiché per l’invarianza Av ∈ V , se ne deduce la presenza
del blocco di zeri in basso a sinistra nella rappresentazione dell’operatore.
Dunque da un punto di vista delle trasformazioni che induce, un sottospazio invariante è un autospazio.
Ogni sottospazio invariante è infatti necessariamente generato da un sottoinsieme degli autospazi della
matrice. Questo fatto lascia intendere che da un punto di vista dinamico, cioè per quanto riguarda
le evoluzioni libere del sistema ad esso associato, le evoluzioni che partono da uno stato iniziale in V
restano in V . Infatti il sistema è descritto dalle equazioni
Ma non è questo l’aspetto più interessante. La questione più significativa, per quanto riguarda le
evoluzioni del sistema è che a partire da due generiche condizioni iniziali la cui differenza appartiene
a V le evoluzioni, istante per istante, mantengono la proprietà degli stati iniziali. Ciò significa che
a partire da stati che appartengono alla stessa varietà affine ottenuta per traslazione del sottospazio
V le evoluzioni si mantengono in varietà affini della stessa classe. In termini sintetici varietà traslate
di V evolvono in varietà traslate o, equivalentemente la struttura indotta per traslazione da V , la
foliazione, è invariante rispetto alla dinamica.
In figura, con riferimento ad uno spazio bidimensionale, sono schematicamente raffigurati V , la foli-
azione indotta ed il concetto di invarianza sotto la dinamica.
128 6. Le proprietà geometriche dello spazio di stato
Un’ulteriore situazione di interesse dal punto di vista del comportamento dinamico si presenta
se il sottospazio invariante V è contenuto nel kernel della matrice C. Si comprende immediatamente
che in tale circostanza nelle coordinate z il sistema è descritto dalle equazioni
Infatti il venerico vettore di V , rappresentato da una ennupla di numeri reali in cui i primi m sono
qualsiasi ed i restanti n − m sono nulli, dovrà essere annullato mediante l’applicazione di C e questo
è possibile solo se la matrice C ha le prime m colonne nulle.
Le equazioni mettono bene il luce il fatto che un’evoluzione che parte da uno stato iniziale in V ,
z2 (0) = 0, dà uscita identicamente nulla. Ma, come prima, non è questo l’aspetto più significativo dal
punto di vista della dinamica. Ciò che interessa è che poichè le evoluzioni che muovono da stati che
appartengono alla stessa foglia, una varietà traslata di V , appartengono istante per istante ad una
stessa foglia
eAt (z(0) − z 0 (0)) ∈ V
ne segue che
CeAt z(0) = CeAt z 0 (0)
cioè alle evoluzioni che muovono da una stessa foglia è associata la stessa funzione di uscita.
Si tratta di una situazione di interesse che studieremo nel prossimo paragrafo e che rappresenta
geometricamente e da un punto di vista dinamico l’impossibilità di distinguere, dall’uscita, stati che
appartengono ad una stessa foglia (si veda la figura).
di ingressi non nulli e diversi. Infatti per azione dell’ingresso non possono essere modificate le ultime
n − m componenti dello stato che descrivono il comportamento all’esterno di V (si veda la figura).
Anche in questo caso si tratta di una situazione di interesse che studieremo tra breve. Essa mette
in luce che le potenzialità di intervento sono limitate alla foliazione indotta da V .
6.2. Inosservabilità
Definizione 6.1 Due stati xa e xb sono detti indistinguibili (equivalenti) a t0 se ∀t ≥ t0 , ∀u[t0 ,∞)
ed è soddisfatta se e solo se
CeA(t−t0 ) (xa − xb ) = 0
Quindi in una rappresentazione lineare due stati sono indistinguibili se e solo se la loro differenza dà
risposta nulla in evoluzione libera.
Si definisca ora inosservabile uno stato x0 per il quale risulti
CeA(t−t0 ) x0 = 0 ∀t,
cioè sia indistinguibile dallo stato zero. Poiché la presenza di stati inosservabili è equivalente all’esistenza
di stati indistinguibili (sono indistinguibili tutti e soli quegli stati la cui differenza coincide con uno
stato inosservabile), si procederà alla caratterizzazione dell’insieme degli stati inosservabili.
Se indichiamo con I tale insieme
I: = {x ∈ Rn : CeAt x = 0, ∀t}
esso è un sottospazio lineare di Rn ; infatti una qualsiasi combinazione lineare di stati inosservabili
risulta inosservabile.
Teorema 1.
C
© ª CA
I: = x : CeAt x = 0, ∀t = Ker
.. = Ker(O)
.
CAn−1
Infatti se
C
CA
x ∈ Ker
..
.
CAn−1
allora per il teorema di Cailey Hamilton
CAk x = 0, ∀k ⇒ CeAt x = 0, ∀t
Vale la pena di osservare che l’indistinguibilità definisce una relazione di equivalenza e di con-
seguenza induce una partizione dello spazio di stato in classi di equivalenza. Non è difficile verificare
che tali classi coincidono con le varietà lineari ottenute per traslazione dal sottospazio degli inosserv-
abili. Tale relazione induce una partizione dello spazio in cui le classi di equivalenza sono insiemi di
stati indistinguibili tra loro. Le considerazioni fatte lasciano intendere che poichè gli stati che ap-
partengono ad una classe di equivalenza sono indistinguibili, e quindi equivalenti per quanto riguarda
il comportamento ingresso - uscita, basterà assumere un solo rappresentante per ogni classe e costruire
una nuova rappresentazione, di dimensione inferiore, del sistema allo studio. Qualche accorgimento
deve essere preso perchè il sistema ridotto risultante sia lineare. Come l’intuizione suggerisce tale
accorgimento corrisponde a scegliere i rappresentanti delle classi di equivalenza in modo che essi
definiscano un sottospazio.
Alla base della procedura di riduzione alla quale si è ora accennato si trova il concetto di invarianza
introdotto nel precedente paragrafo. Infatti non si avrà difficoltà a verificare che l’insieme degli stati
inosservabili è invariante rispetto alla matrice dinamica ed è contenuto nella nullità della matrice C. In
opportune coordinate il sistema assumerà quindi la rappresentazione (6.1). Una tale rappresentazione
mette bene in luce che solo le coordinate z2 sono significative e a ciascun valore di esse è associata
una foglia della struttura invariante genarata dal sottospazio degli inosservabili (coordinate z1 ). Il
sistema è dunque dal punto di vista ingresso uscita ben rappresentato dalle sole variabili z2 .
La formalizzazione della proprietà messa in luce conduce alla seguente caratterizzazione dell’insieme
degli inosservabili
6.2. Inosservabilità 131
Alla luce della caratterizzazione geometrica di I non è difficile rendersi conto del fatto che esiste
una scelta delle coordinate in Rn rispetto alle quali il sistema (A, B, C) assume una rappresentazione
che mette in evidenza la struttura interna del sistema.
Teorema 2. Si assuma la rappresentazione (A, B, C) non osservabile con ρ(O) = m < n. Allora
esiste T non singolare rispetto alla quale (T AT −1 , T B, CT −1 ) manifesta la seguente struttura
µ ¶ µ ¶
−1 A11 A12 B1
T AT = , TB = , CT −1 = ( 0 C2 )
0 A22 B2
S
z 1
S 1
u
z 2
S 2 y
z
z 20
Figura 6.1
Ψ(t) = ( 0 C2 eA22 t )
6.2.b. La ricostruibilità
La proprietà di osservabilità può essere interpretata come quella proprietà in base alla quale è
possibile calcolare lo stato iniziale a partire dalle uscite ”future”. Si pensi infatti ad un sistema con
6.2. Inosservabilità 133
una sola uscita in evoluzione libera; il rango pieno della matrice di osservabilità esprime l’indipendenza
dell’uscita e delle sue (n − 1) derivate e la conseguente possibilità di poter calcolare lo stato iniziale
x0 a partire dall’andamento della risposta in uscita. Limitandoci per semplicità al caso dei sistemi
lineari stazionari definiremo per analogia alla precedente la ricostruibilità come quella proprietà che
consente di osservare lo stato al tempo t0 a partire dalla conoscenza delle uscite ”passate”. Percé
ciò accada non devono esistere due stati iniziali che assunti al tempo (t0 − T ) diano vita a t0 alla
stessa uscita. Non è difficile verificare che tale proprietà sussiste per il sistema se e solo se la mappa
x → Ce−At x è iniettiva. Ciò che equivale a richiedere che il rango della matrice di osservabilità sia
pieno. Se ne deduce, perlomeno per i sistemi lineari, stazionari a tempo continuo, l’equivalenza delle
due proprietà.
La struttura del sistema nelle nuove coordinate suggerisce l’esistenza di un legame con la proprietà
di osservabilità dei modi naturali a suo tempo introdotta. L’esistenza di un legame in tal senso è
suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è equivalente a quella
nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati nei sottosistemi
S1 ed S2 . Ovviamente solo quelli in S2 non saranno osservabili, quelli in S1 potrebbero esserlo.
Per un esame più preciso della situazione è necessario introdurre alcuni preliminari. Innanzitutto
si osservi che poiché l’insieme degli inossedrvabili è il più grande sottospazio invariante rispetto ad A
che è contenuto nella nullità di C
µ ¶
C
ρ =n
(sI − A)
La precedente condizione è nota come condizione di osservabilità di Popov- Belevitch-Hautus
(PBH).
Per quanto riguarda la dimostrazione della necessità basta osservare che se la condizione non è soddis-
fatta e la matrice di PBH è singolare, ciò che può accadere per s = λi , allora esisterebbe un sottospazio
invariante rispetto alla dinamica contenuto nella nullità di C. La sufficienza segue dal fatto che se
il sistema non è tutto osservabile, e quindi esiste un sottospazio invariante contenuto nella nullità di
C, esiste un autospazio contenuto nella nullità di C e la condizione di Popov-Belevitch-Hautus non è
soddisfatta per s coincidente con il corrispondente autovalore.
134 6. Le proprietà geometriche dello spazio di stato
Teorema 4. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica).
S è osservabile se e solo se tutti i modi naturali di ordine massimo sono osservabili.
Proposizione 3. Se S è osservabile allora tutti i modi naturali di ordine massimo sono osservabili.
Si pensi sempre al test precedente con A in forma di Jordan. Ciò che non è limitativo.
E’ importante osservare che se ci si riferisce ad una condizione di osservabilità più forte, quella
indicata nel capitolo quarto come condizione geometrica di osservabilità, non è difficile rendersi conto
che le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è os-
servabile se e solo se tutti i modi naturali soddisfano la condizione geometrica di osservabilità; il
sottosistema osservabile è caratterizzato da tutti e soli i modi che soddisfano alla condizione geomet-
rica di osservabilità.
6.3. Raggiungibilità
Si tratta della proprietà duale, caratteristica del comportamento ingresso-stato. è relativa alla
possibilità di raggiungere uno stato, ad un certo istante, a partire da uno stato assegnato.
Definizione 6.2 xR è detto raggiungibile a T da x0 se ∃t0 < T , u su [t0 , T ):
xR = ϕ(T, t0 , x0 , u)
Nel caso di una rappresentazione lineare stazionaria è usuale riferirsi allo stato x(t0 ) = 0. Lo
stato zero è, infatti, sempre mantenuto in assenza di ingresso (stato di equilibrio).
Se notiamo con R(T ) l’insieme dei raggiungibili a T si ha
( Z )
T
R(T ) = x:x= eA(T −τ ) Bu(τ )dτ, per qualche t0 , u[t0 ,T )
t0
Dalle precedenti espressioni risulta chiaro che combinazioni lineari di stati raggiungibili sono raggiun-
gibili, e quindi che R(T ) è un sottospazio di Rn .
Per arrivare ad una descrizione dell’insieme degli stati raggiungibili che ne consenta il calcolo è nec-
essario fare riferimento ad un noto risultato della teoria degli operatori lineari.
R(L) = Ker(L∗ )⊥
cioè la sua immagine coincide con il complemento ortogonale del kernel dell’operatore aggiunto L∗ .
dove < ·, · > indica l’operazione di prodotto interno. Ciò premesso quanto asserito nel lemma, essendo
R(L) e Ker(L∗ )⊥ sottospazi, è equivalente a
R(L)⊥ = Ker(L∗ )
è l’operatore aggiunto di
Z T
eA(T −τ ) Bu(τ )dτ,
−∞
è immediato verificare che
Teorema 5. ÃZ !
T ³ ∗
´⊥
A(T −τ )
R(T ) = R e B(·)dτ = Ker B ∗ eA (T −τ ) (·) =
−∞
⊥
B∗
B ∗ A∗
= Ker
.. = R(B
AB · · · An−1 B )
.
B ∗ A∗
n−1
(B AB · · · An−1 B ) = m < n,
mostreremo ora che rispetto a coordinate in cui i primi m vettori della base generano l’insieme degli
stati raggiungibili, la rappresentazione assume una scomposizione che mette bene in evidenza la
struttura interna.
Teorema 6. Se una rappresentazione non è tutta raggiungibile esiste una matrice T , non singolare
tale che
µ ¶ µ ¶
−1 A11 A12 B1
T AT = , TB = , CT −1 = ( C1 C2 )
0 A22 0
z 10
S
u z 1
S 1
+
y
+
z 2
S 2
z
z 20
Figura 6.2
6.3.b. La controllabilità
Una proprietà analoga alla raggiungibilità è la controllabilità degli stati. Uno stato, xC , è controllabile
a T se esiste un ingresso che lo porta a zero al tempo T . Per le rappresentazioni lineari e stazionarie
si può mostrare che sono controllabili tutti e soli gli stati raggiungibili.
Se infatti uno stato, xT , è raggiungibile a T , essendo l’insieme degli stati raggiungibili un sot-
tospazio dello spazio di stato invariante rispetto ad A, anche lo stato −eAT xT è raggiungibile; quindi
esiste un ingresso,uT (·) tale che
Z T
eAT
xT + eA(T −τ ) BuT (τ )d(τ ) = 0
0
La scomposizione rispetto alla raggiungibilità lascia intuire che ci debba essere un legame molto
forte con l’eccitabilità dei modi naturali. Come già osservato in precedenza, l’esistenza di un legame
6.3. Raggiungibilità 139
in tal senso è suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è
equivalente a quella nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati
nei sottosistemi S1 ed S2 . Ovviamente quelli in S2 non sono certamente eccitabili, quelli in S1
potrebbero esserlo.
Anche in questo caso, per un esame più preciso della situazione è necessario introdurre alcuni
preliminari. Innanzitutto si osservi che poiché l’insieme degli inossedrvabili è il più piccolo sottospazio
invariante rispetto ad A che è contiene l’immagine di B
ρ(B (sI − A) ) = n
Teorema 8. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica).
S è raggiungibile se e solo se tutti i modi naturali sono eccitabili.
E’ importante osservare che se ci si riferisce ad una condizione di eccitabilità più forte, quella in-
dicata nel capitolo quarto come condizione geometrica di eccitabilità, non è difficile rendersi conto che
le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è raggiungibile
140 6. Le proprietà geometriche dello spazio di stato
Per concludere lo studio della proprietà di raggiungibilità alcune considerazioni sul significato fisico.
Anche qui faremo riferimento a due diverse situazioni. La non completa raggiungibilità del sistema
corrisponde, dal punto di vista dell’introduzione della rappresentazione con lo stato per descrivere un
assegnato sistema dinamico, ad una ridondanza dello stato per avere, ad esempio, descritto legami
equivalenti con relazioni diverse. Dal punto di vista operativo e della teoria del controllo, ammesso
di non essere incorsi in errori di modellistica del processo o fenomeno dato, la raggiungibilità esprime
le potenzialità di intervento attraverso i canali di ingresso disponibili.
Con una trasformazione di coordinate che ordini opportunamente i nuovi vettori di base collegan-
doli ai quattro sottospazi che possono essere definiti a partire da I e R, si mette bene in evidenza la
struttura interna di una rappresentazione lineare stazionaria a dimensione finita. Il risultato dovuto
allo studioso R.E. Kalman si enuncia
A11 A12 A13 A14 B1
0 A22 0 A24 B
, ( 0 C2 0 C4 ) , 2
0 0 A33 A34 0
0 0 0 A44 0
La dimostrazione è costruttiva e riposa sulla proprietà geometriche messe in evidenza nelle propo-
sizioni precedenti.
Siano χ1 , χ2 , χ3 e χ4 i quattro sottospazi definiti dalle seguenti relazioni
χ1 : χ1 : = R ∩ I
χ2 : χ1 ⊕ χ2 = R
χ3 : χ1 ⊕ χ3 = I
χ4 : χ1 ⊕ χ2 ⊕ χ3 ⊕ χ4 = Rn
sia dimχi = ni , i = 1, . . . , 4. Sia T una trasformazione che assume nell’ordine i nuovi vettori di base
come: n1 generatori di χ1 , n2 generatori di χ2 , n3 generatori di χ3 , n4 generatori di χ4 .
6.4. La struttura interna di un sistema lineare a dimensione finita 141
3
X = IR
X
X
X
Figura 6.3
Usando argomentazioni analoghe a quelle impiegate per trovare la struttura delle scomposizioni
precedenti, argomentazioni fondate sulle proprietà geometriche degli insiemi di stati cosı̀ trovati, non
è difficile verificare la struttura delle matrici nelle nuove coordinate.
Alle strutture delle matrici corrisponde la struttura interna messa in evidenza nella seguente
figura.
142 6. Le proprietà geometriche dello spazio di stato
u z S
1
S
1
z S
2
2
+
z S
3
y
3
z S
4
4
z
Figura 6.4
La scomposizione individuata chiarisce la struttura interna, inoltre in base allo studio effettuato in
precedenza rimane dimostrato che
Teorema 10. Il sottosistema S2 è caratterizzato da tutte e sole le leggi temporali dei modi simul-
taneamente eccitabili ed osservabili. S2 descrive quindi una rappresentazione di dimensione minima
tra quelle possibili.
La trattazione sinora condotta può essere ripetuta per i sistemi a tempo discreto con la sola
avvertenza di sostituire At al posto di eAt ; i risultati non cambiano.
Le sole differenze riguardano la dipendenza dal tempo della raggiungibilità di uno stato e della
corrispondente osservabilità dello stato iniziale cosı̀ come i legami tra osservabilità e ricostruibilità e
tra controllabilità e raggiungibilità.
Per quanto riguarda la raggiungibilità è molto facile comprendere per la struttura ricorsiva
delle equazioni che l’insieme degli stati raggiungibili in un intervallo di tempo fissato, sia T , è
R ( B · · · AT −1 B ), quindi uno stato raggiungibile può essere “ottenuto” (da x0 = 0 a t0 = 0)
6.6. Sugli zeri della funzione di trasferimento 143
in al più n istanti di tempo. Analoghe considerazioni possono essere fatte in merito allosservabilità di
uno stato iniziale a partire dalle osservazioni dell’uscita.
Per quanto riguarda i legami tra osservabilità e ricostruibilità. Non è difficile verificare che un
sistema può essere ricostruibile senza essere osservabile, ma non viceversa. Come esempio si consideri
la coppia di matrici
µ ¶
1 1
A= , C = (1 1)
1 1
che caratterizzano un sistema certamente non osservabile, ma costruibile. Infatti da y(−1) = x1 (−1)+
x2 (−1) risulta x1 (0) = y(−1) e x2 (0) = y(−1). Le due proprietà sono equivalenti se A è non singolare.
Infine per quanto riguarda i legami tra controllabilità e raggiungibilità valgono considerazioni
analoghe alle precedenti.
Come già messo in luce nel capitolo quinto gli zeri di trasmissione di un sistema dinamico sono
quei valori complessi, s∗, in corrispondenza dei quali si non ha rango massimo la cosiddetta matrice
di sistema à !
s ∗ I − A −B
ρ 6= n + (p, q)∗
C 0
dove con (p, q)∗ si è indicato il più piccolo tra p e q ed n indica la dimensione della matrice A.
Se si assume che s∗ non coincida con alcun autovalore di A, l’annullarsi del determinante della
matrice di sistema comporta l’esistenza di una coppia (x 6= 0, u 6= 0) tale che
(s ∗ I − A)x − Bu = 0 Cx = 0
cioè
C(s ∗ I − A)−1 Bu = 0
Quindi s∗ annulla tutti i determinanti dei minori di W (s) di dimensione (p, q)∗ ed è quindi uno zero
secondo la definizione data nel capitolo quinto.
Se s∗ coincide con un autovalore di A allora, necessariamente il sistema non è raggiungibile e/o
osservabile. Non è, infatti, difficile verificare impiegando i criteri PBH che il sistema è raggiungibile
144 6. Le proprietà geometriche dello spazio di stato
Lo studio sinora condotto ha avuto per oggetto lo studio delle rappresentazione con lo stato lin-
eari a dimensione finita. In questo capitolo viene affrontato il problema della costruzione di una
rappresentazione con lo stato a partire da un modello ingresso uscita lineare. Dopo una premessa
che si riferisce ai sistemi non stazionari il problema viene studiato in dettaglio per i sistemi lineari
stazionari.
Studieremo in questo capitolo il problema del passaggio da un modello ingresso uscita ad una
rappresentazione con lo stato. Riprendendo il formalismo del primo capitolo il problema da un punto
di vista generale consiste nell’ associazione di una rappresentazione implicita con lo stato ad un sistema
definito mediante un legame funzionale ingresso uscita. Il contesto in cui ci muoveremo è quello dei
sistemi e delle rappresentazioni lineari e faremo riferimento a due sottoproblemi che rappresentano
due livelli di generalità: il problema dell’associazione di una rappresentazione ad un sistema connesso
ed il problema della realizzazione.
Per formulare il problema dell’ associazione di una rappresentazione con lo stato ad un sistema
lineare connesso è necessario premettere che, nel contesto del formalismo del primo capitolo, un
sistema connesso è un sistema uniforme in cui la relazione Su n coincide con il grafo di una funzione
definita su tutto l’asse dei tempi. In concreto, e con riferimento al problema allo studio, supponiamo
che sia assegnato il seguente funzionale lineare definito su tutto l’asse dei tempi
Z t
K(t, τ )u(τ )dτ
−∞
con K(t, τ ) una matrice di funzioni. Un funzionale di questo tipo descrive un sistema connesso
lineare; infatti al generico istante t0 rimane definito un insieme di relazioni ingresso uscita: si tratta
dell’ insieme delle funzioni di ingresso da t0 in poi e delle corrispondenti uscite ciascuna collegata ai
possibili andamenti da meno infinito a t0 .
Il problema dell’associazione dello stato a tale sistema consiste nell’individuare una rappresen-
tazione con lo stato che sia caratterizzata da una discrizione ingresso-uscita equivalente. Deve, cioè
146 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
essere verificato che: per ogni fissato t0 ed u da meno infinito a t0 esista un x0 , viceversa per ogni
fissato t0 e x0 esista un u da meno infinito a t0 , in corrispondenza del quale le uscite del sistema e
della rappresentazione corrispondenti ad ogni fissato ingresso coincidano da t0 in poi.
Lo studio di questo problema sarà condotto con riferimento al caso stazionario nel prossimo
paragrafo.
In questo contesto un problema particolare è quello cosiddetto della realizzazione e consiste nel
calcolare una rappresentazione con lo stato che riproduca a t0 come risposte forzate le coppie ingresso
uscita generate dal funzionale lineare
Z t
K(t, τ )u(τ )dτ
t0
Si tratta, in questo caso, di calcolare una rappresentazione la cui risposta impulsiva coincida
con il nucleo dato. Non è difficile verificare in base alle proprietà di φ ed H che l’esistenza di una
fattorizzazione di K
K(t, τ ) = Q(t, t)P (t, τ )∀t ≥ τ
Si consideri un sistema lineare stazionario connesso caratterizzato dal nucleo K(t) e descritto, su
tutto l’insieme dei tempi, dal funzionale lineare
Z t
K(t − τ )u(τ )dτ
−∞
Il problema dell’associazione di una rappresentazione con lo stato a tale sistema consiste nel
calcolare una rappresentazione lineare stazionaria, equivalentemente una quadrupla (n, A, B, C), ove
n intero positivo definisce la dimensione della rappresentazione, in modo che: per ogni fissato t0 ed
u da meno infinito a t0 esista un x0 , viceversa per ogni fissato t0 e x0 esista un u da meno infinito
a t0 , le uscite y0 (·) del sistema e della rappresentazione corrispondenti ad ogni fissato ingresso u0 (·)
coincidano da t0 in poi. Si osservi che si è assunto, nella formulazione del problema, che il legame
ingresso - uscita sia di tipo strettamente causale. Ciò, a priori, esclude la presenza di un legame
diretto.
Vale il seguente risultato:
Teorema 1. (n, A, B, C) è la rappresentazione con lo stato del sistema connesso associato al nucleo
K(t) se e solo se
K(t) = CeAt B ∀t ≥ 0
R + I = Rn
R + I = Rn
Z t0 Z t Z t
K(t − τ )u(τ )dτ + K(t − τ )u(τ )dτ = CeA(t−t0 ) x0 + CeA(t−τ ) u(τ )dτ ∀t
−∞ t0 t0
Poiché l’uguaglianza scritta deve essere verificata per ogni u(−∞ , t0 ) e per ogni x0 assumendoli
nulli si ottiene l’uguaglianza tra i secondi addendi che è verificata per ogni u da t0 in poi se e solo se
vale la prima delle condizioni enunciate.
148 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
e quest’ultima uguaglianza è verificata se e solo se il generico stato x0 può essere espresso come somma
di uno stato raggiungibile ed uno inosservabile. Ciò conclude la dimostrazione del teorema.
Se si ricorda quanto detto nel primo capitolo a proposito della minimalità di una rappresentazione
(assenza di stati indistinguibili o equivalenti) e si ricorda quanto osservato nel capitolo precedente circa
l’esistenza di stati equivalenti e inosservabili, si comprende che una rappresentazione con lo stato di
un sistema connesso stazionario si dice ridotta se è tutta osservabile, cioé I = 0.
E’ importante osservare che alla luce di quanto studiato nel precedente capitolo a proposito delle
scomposizioni rispetto alle proprietà degli stati, una volta calcolata una rappresentazione con lo stato
la cui risposta impulsiva coincida con il nucleo assegnato (la prima delle proprietà del precedente
teorema), è sempre possibile costruirne un’altra che soddisfi anche la seconda. E’ sufficiente oper-
are una scomposizione rispetto alla raggiungibilità, estrarre il sottosistema tutto raggiungibile che,
coincidendo l’insieme degli stati raggiungibili con lo spazio di stato, soddisfa anche la seconda delle
condizioni del teorema e definisce la rappresentazione cercata.
Quanto osservato costituisce la prova del seguente risultato di esistenza
Teorema 2. Una rappresentazione con lo stato di un sistema connesso associato al nucleo K(t) esiste
se e solo se
Come vedremo nel prossimo paragrafo tale condizione è anche condizione necessaria e sufficiente
per l’esistenza di una realizzazione dell’assegnato nucleo. Possiamo quindi affermare che esiste una
rappresentazione con lo stato di un assegnato nucleo se e solo se esiste una realizzazione; inoltre una
rappresentazione può essere calcolata mediante la tecnica di riduzione rispetto alla raggiungibilità.
Un ulteriore collegamento con lo studio condotto nel capitolo precedente è qui stabilito. Quanto
sinora osservato consente infatti di asserire che una assegnata rappresentazione con lo stato descrive
un sistema connesso se e solo se nella scomposizione di Kalman χ4 = {0}.
7.2. Il problema della realizzazione 149
Tale problema consiste nel calcolare una rappresentazione con lo stato il cui comportamento
forzato coincida con quello associato ad un assegnato nucleo, ad una assegnata matrice di funzioni
di variabile complessa, al comportamento corrispondente a condizioni iniziali nulle di un assegnato
sistema di equazioni differenziali (alle differenze) tra ingressi e uscite.
Esamineremo ciascuno dei casi citati.
Interessa in questa sede risolvere i problemi dell’esistenza di una tale realizzazione e del calcolo.
Ricordiamo che l’interesse nel passaggio da un modello del comportamento forzato in forma esplicita
ad un modello in forma implicita nel dominio del tempo è collegato alla corrispondenza tra modello
e schema di simulazione o realizzazione. Da qui il nome al problema allo studio. La definizione di
un modello implicito, infatti, consente la realizzazione di un simulatore (eventualmente numerico) del
sistema dato.
stato
Analogamente a quanto fatto nel contesto non stazionario esamineremo il problema di associare
al legame ingresso uscita al tempo t0
Z t
y(t) = K(t − τ )u(τ )dτ
t0
una rappresentazione con lo stato caratterizzata dallo stesso legame forzato al tempo t0 .
Assumeremo, senza perdita di generalità, che K(t) sia una matrice (q × p) di funzioni, il che
corrisponde ad assumere che D = 0. Se si ricorda che quando D = 0 si usa dire che il sistema
dinamico è strettamente causale in quanto y(t) dipende da u tra t0 e t, ma non da u(t), si comprende
perchè il problema allo studio sia detto della realizzazione strettamente causale. Esso consiste nella
individuazione delle condizioni di esistenza, e poi nel calcolo, di un intero n e tre matrici (A, B, C)
tali che
K(t) = CeAt B ∀t ≥ 0 (RC1)
per i sistemi tempo continuo, e
K(t) = CAt−1 B ∀t > 0 (RD1)
per i sistemi tempo discreto.
Condizioni equivalenti possono essere stabilite e sono di interesse e utilità nelle applicazioni. Si
ha
K(t − τ ) = Q(t)P (τ ) ∀t ≥ τ (RC2)
per opportuni s, Q(t) (q × s) e P (τ ) (s × p) ed analogamente
Ed ancora
ρ(Hi ) < ∞ i = c, d (RC3) ÷ (RD3)
150 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
ove Hi indica la matrice di Hankel associata alla matrice di funzioni K(t) nel caso tempo continuo,
Hc , e tempo discreto, Hd . Tali matrici infinite sono definite
S0 S1 S2 S3 . . .
S1 S2 S3 . . . . . .
H :=
S2 S3 ... ... ...
.. ..
. . ... ... ...
ove
di K(t) ¯¯
Si = ¯
dti t=0
per i sistemi tempo continuo,
Si = K(i + 1)
La dimostrazione dell’equivalenza delle condizioni enunciate può essere svolta senza difficoltà
mostrando che R1 → R2 → R3 → R1. A tale proposito e con riferimento, a titolo esemplificativo, al
caso tempo discreto si ha
RD1 → RD2:
K(t − τ ) = CAt−τ −1 B = CAt A−τ −1 B = Q(t)P (τ ) t ≥ 0 > τ
e quindi
Q(0)P (−1) Q(0)P (−2) Q(0)P (−3) . . .
Q(1)P (−1) Q(1)P (−2) ... ...
H=
Q(2)P (−1) Q(2)P (−2) ... ...
.. ..
. . ... ...
Q(0)
Q(1)
=
Q(2) · ( P (−1) P (−2) P (−3) . . . )
..
.
il che prova l’implicazione.
RD3 → RD1: infatti RD3 implica che ρ(HD ) è finito, sia ρH , e quindi ∃m, m0 :
K(1) K(2) ... K(m0 )
K(2) K(3) ... K(m0 + 1)
Hm,m0 :=
.. .. ..
. .
... .
K(m) K(m + 1) . . . K(m + m0 − 1)
ove
K(2) K(3) ... K(m0 + 1)
K(3) K(4) ... K(m0 + 2)
H m,m0 :=
.. .. ..
. .
... .
K(m + 1) K(m + 2) . . . K(m + m0 )
e Q0 Q, P P 0 sono invertibili per costruzione.
La prova che RD3 → RD1 si conclude mostrando, con alcuni passaggi tecnici, che la terna
(A, B, C) definita soddisfa RD1. Inoltre non è difficile rendersi conto del fatto che ρH , il rango di Hd ,
caratterizza la dimensione minima di A; cioè quella costruita è una realizzazione minima. A tal fine
basta osservare che la matrice di Hankel associata ad una realizzazione con dimensione dello stato n
ha rango inferiore o eguale a n; infatti per una assegnata rappresentazione, sia a tempo continuo che
discreto, si ha
CB CAB CA2 B ... C
CAB CA2 B CA3 B . . . CA
Hi =
CA2 B CA3 B ...
. . . = CA2 · ( B AB A2 B ...)
.. .. .. ..
. . ... . .
e quindi ρHi ≤ dim(A) = n. Si noti che una realizzazione minima è la generica realizzazione del
sottosistema raggiungibile e osservabile associata ad una data realizzazione.
con lo stato
Affronteremo ora lo stesso problema, ma nel dominio della variabile complessa. E’ questo il contesto
in cui usualmente il problema viene affrontato e risolto in quanto un modello forzato ingresso uscita
è generalmente assegnato per il tramite di una funzione di variabile complessa eventualmente rilevata
mediante esperimenti di comportamento in frequenza (si ricordi quanto studiato a tale proposito).
Nel dominio complesso, inoltre, il problema è facilmente risolvibile.
Assegnato K(s) (q × p) trovare (n, A, B, C, D) tali che
Un’osservazione preliminare che viene qui svolta, ma che riguarda il problema della realizzazione in
generale e non lo studio nel dominio complesso, riguarda l’unicità della soluzione e le dimensioni delle
realizzazioni. Il problema posto ammette molte soluzioni, anche di dimensioni diverse.
E’ chiaro, infatti, che le rappresentazioni equivalenti, pur diverse tra loro, (A, B, C) 6= (T AT −1 , T B, CT −1 )
hanno le stesse risposta impulsiva e funzione di trasferimento
−1
CT −1 eT AT t
T B = CeAt B ⇒ CT −1 (sI − T AT −1 )−1 T B = C(sI − A)−1 B
La prova è costruttiva, cioè si mostrerà come a partire da una matrice di funzioni razionali proprie,
si possa costruire, per ispezione sui coefficienti delle matrici che la descrivono, una sua realizzazione.
Si assuma, senza perdita di generalità che K(s) sia una matrice di funzioni razionali strettamente
proprie, sono tali le funzioni razionali quando il grado del numeratore è più basso del grado del
denominatore. Si è detto senza perdita di generalità perché si può sempre passare da una forma
propria ad una strettamente propria, infatti, una matrice razionale propria si può sempre scrivere
come
K(s) = K0 + K(s)
con K0 matrice costante e K(s) matrice razionale strettamente propria. Posto D = K0 , il problema
della realizzazione si riduce al calcolo di n, A, B, C per una matrice razionale strettamente propria del
tipo
B0 + B1 s + . . . + Bn−1 sn−1
K(s) =
a0 + a1 s + . . . + an−1 sn−1 + sn
ove le Bi sono matrici (q × p) di costanti.
Un esempio di tale espressione è il seguente
µ ¶ ÃD! Ã K(s) !
1 1
s+1 0 s+1
K(s) = s+1 = + 1
s 1 s
7.2. Il problema della realizzazione 153
Due diverse realizzazioni possono essere ottenute direttamente per ispezione dei coefficienti della K(s)
nella forma data.
Una prima realizzazione cosiddetta in forma canonica raggiungibile, di dimensione np, ove p indica
la seconda dimensione di K e n il grado del minimo comune multiplo dei polinomi a denominatore.
0 I 0 ··· 0 0
.. .. .. ..
. . I . . ..
.
.. .. ..
AR =
. . . 0
BR = ...
0 ··· ··· 0 I 0
−a0 I ··· −an−1 I I
ove le matrici identità, I, sono matrici che hanno dimensione (p × p). e, di conseguenza, le matrici
AR , BR e CR hanno dimensione (np × np), (np × p) e (q × np),rispettivamente.
Esempio: ¶ µ ¶ µ ¶ µ
s 0 1
µ 1 ¶ + s
s + 1 1 1
K(s) = s+1
1 = =
s s2 + s s2 + s
µ ¶ µ ¶ µ ¶
0 1 0 0 1
AR = BR = CR =
0 −1 1 1 1
infatti è facile verificare che
CR (sI − AR )−1 BR = K(s)
Altro esempio: µ ¶ µ ¶
1 0 1 0
+ s
−1 1 1 2
K(s) =
1 + 3s + s2
in cui
p=2 n=2
e la realizzazione, di dimensione 4, è
0 0 1 0
µ ¶
0 I 0 0 0 1
AR = =
−a0 I −a1 I −1 0 −3 0
0 −1 0 −3
0 0 µ ¶
0 0 1 0 1 0
BR = CR =
1 0 −1 1 1 2
0 1
154 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
La dimostrazione della correttezza della procedura seguita per calcolare la realizzazione consiste nel
verificare che la matrice delle funzioni di trasferimento associata a tale rappresentazione coincide con
la K(s) assegnata.
A questo proposito bisogna calcolare
T
−1 (sI − AR )a
CR (sI − AR ) BR = CR BR
det(sI − AR )
−1
s −1 0 ··· 0
0
.. .. ..
0 . . .
.. .
= ( B0 ... Bn−1 ) .. ..
. . 0
0
0 −1
a0 ··· · · · an−2 s + an−1 1
ove si è fatto riferimento al caso p = q = 1 per semplicità di notazioni: Si osservi, innanzitutto che il
calcolo del determinante di sI − AR dá
a0 + a1 s + . . . + sn
ciò che è sempre vero per una matrice A che abbia la struttura di AR : gli elementi dell’ultima riga
sono proprio i coefficienti del polinomio caratteristico
Il calcolo della funzione di trasferimento è notevolmente semplificato dalla struttura di BR che ha
tutti zeri ed un 1 nell’ultima posizione. Basterà quindi calcolare solo l’ultima colonna dell’aggiunta -
trasposta; sviluppando i calcoli
∗ ∗ 1 0
∗ ∗ s ..
.. .
(B0 . . . Bn−1 ) .
∗ ∗ . .. =
a0 + a1 s + . . . + sn
..
∗ ∗ . 0
∗ ∗ s n−1
1
0
à ! ..
B0 + B1 s + . . . + Bn−1 sn−1 .
.
∗ ∗ .. =
a0 + a1 s + . . . + sn
0
1
e quindi
B0 + B1 s + . . . + Bn−1 sn−1
K(s) =
a0 + a1 s + . . . + sn
Lo schema di realizzazione/simulazione associato a questa rappresentazione con lo stato comporta
operazioni di integrazione, moltiplicazione per costante e somma come messo in evidenza nella figura
seguente in cui si è assunto per semplicità n = 2.
µ ¶ µ ¶
0 1 0
AR = BR = CR = ( b0 . . . b1 )
−a0 −a1 1
7.2. Il problema della realizzazione 155
ẋ = x2
1
ẋ2 = −a0 x1 − a1 x2 + u
y = b0 x1 + b1 x2
b1
u
.
x2 Z x2 = x1 Z
.
x1 + y
+ -
b0
+
-
a1
a2
Figura 7.1
Si noti che la realizzazione individuata secondo questa tecnica ha dimensione (np × np); quindi tutte
le volte che il numero di ingressi è uno, indipendentemente dal numero di uscite, la dimensione di
questa realizzazione è n.
Una seconda realizzazione che considereremo, di dimensione nq, è quella cosiddetta in forma canonica
osservabile, Ao , Bo , Co .
0 ··· ··· 0 −a0 I
.. B0
I . ..
Ao .. Bo .
= .. = .
(nq × nq)
0 . .
. .. .. (nq × p) ..
.. . .
Bn−1
0 ··· 0 I −an−1 I
Co
= (0 ··· ··· 0 I)
(q × nq)
|sI − Ao | = a0 + a1 s + . . . + sn
156 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
aT
s 0 ··· 0 +a0
.. .. .. B0
−1 s . . .
(0 ··· 0 1) .. ..
0 .. .. .
. . 0 . .
a0 + · · · + sn . .. .. .. .. ..
.. . . . .
Bn−1
0 ··· 0 −1 s + an−1
in virtù della struttura della matrice Co , l’unica cosa che vogliamo calcolare è l’ultima riga, in quanto
le precedenti vengono moltiplicate per degli zeri.
B0
∗ ∗ ∗ ..
(0 ··· 0 1) ∗ .
∗ ∗ .
a0 + . . . + sn ..
1 · · · sn−1
Bn−1
ẋ = −a0 x2 + b0 u
1
ẋ2 = x1 − a1 x2 + b1 u
y = x2
7.2. Il problema della realizzazione 157
b0 b1
+
. Z . Z
x1 x1 + x2 x2 y
- -
a0 a1
Figura 7.2
stato
ove P (d) e Q(d) sono matrici, (q×q) e (q×p) rispettivamente, i cui elementi sono polinomi a coefficienti
costanti nella indeterminata formale d, che rappresenta l’operazione di derivazione (anticipo), trovare
un intero n e una terna (A, B, C) di matrici (n × n), (n × p) e (q × n) in modo che al variare di x0 la
rappresentazione individuata descriva tutti i possibili legami u - y.
Il problema formulato è risolvibile se e solo se la matrice P (d) è invertibile e la matrice P (d)−1 Q(d)
è razionale strettamente propria in d. Rinviando a [1] per la dimostrazione si sottolinea solo che, come
suggerisce l’intuizione, la prima condizione esprime l’indipendenza del sistema di equazioni assegnato
mentre la seconda esprime la stretta causalità dei legami tra le variabili di ingresso, u, e di uscita, y.
Una procedura di calcolo della rappresentazione con lo stato a partire dall’equazione alle differenze è
illustrata nel seguito. Tale procedura può essere estesa ai sistemi a tempo continuo ed alla rappresen-
tazioni a più ingressi ed uscite. Assegnata l’equazione alle differenze
xn = y(k)
La dimostrazione di quanto asserito consiste nel calcolo delle differenze prime associate a tali variabili;
si ottiene, infatti, come è facile verificare
Una procedura alternativa per il calcolo del modello implicito ingresso-stato-uscita che realizza
l’assegnato legame implicito ingresso-uscita consiste nel calcolo della funzione di variabile complessa
K(s/z) = P (s/z)−1 Q(s/z) e nella sua successiva realizzazione secondo una delle tecniche proposte
nel presente capitolo. Il calcolo della funzione di trasferimento rappresenta di per sé un problema
importante per il significato che essa ha in termini di comportamento in frequenza. La funzione di
trasferimento può anche essere calcolata facendo la trasformata delle relazioni che legano ingressi ed
uscite assumendo le funzioni e le loro derivate (anticipi) nulle in zero. Si consideri a titolo di esempio
il semplice legame
|T |n×n 6= 0 ⇒ (T AT −1 , T B, CT −1 )
Ma di realizzazioni ne esistono anche di dimensioni diverse, infatti sappiamo che la matrice delle
risposte impulsive contiene informazioni circa le leggi di moto dei modi che sono simultaneamente
eccitabili ed osservabili, quindi la W (s) non mantiene le informazioni su tutti gli autovalori di A. Si
consideri ad esempio,
µ ¶ µ ¶
1 0 1
A= B= C = (1 0)
−1 −2 −1
la funzione di trasferimento è:
1
W (s) =
s−1
e, la costruzione di una sua realizzazione secondo una delle due tecniche già viste dá
Ā = 1 B̄ = 1 C̄ = 1
si ha, quindi, una diversa realizzazione Ā, B̄, C̄ di dimensione 1 che non è equivalente a quella prece-
dente di dimensione 2.
Poiché le dimensioni possono essere diverse si pone naturalmente l’esigenza di disporre di tecniche che
forniscono realizzazioni con la dimensione dello stato più piccola possibile. Alla riduzione della di-
mensione corrisponde, infatti una minore complessità in termini di procedure di calcolo, un’economia
di dispositivi in termini di realizzazione fisica. É, quindi importante andare a costruire realizzazioni
minime cioè che abbiano dimensione dello stato N la più piccola possibile.
Una prima osservazione riguarda le tecniche proposte che, come già sottolineato forniscono re-
alizzazioni di dimensione n in condizioni particolari. In questo caso tali realizzazioni sono anche
minime.
Se infatti con n indichiamo il grado del polinomio a denominatore nella K(s), è semplice comprendere
che realizzazioni di dimensione N inferiore ad n non esistono. Basta ricordare che il polinomio a
160 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
denominatore di una funzione di trasferimento ha dimensione minore o uguale a quella della matrice;
ciò comporta che una matrice dinamica A di dimensione inferiore ad n non esiste; poiché quella
calcolata ha questa dimensione, essa è minima.
q = 1 ⇒ (Ao , Bo , Co ) minima
p = 1 ⇒ (AR , BR , CR ) minima
Quindi già disponiamo di una tecnica di realizzazione minima per nuclei, K, che sono vettori riga o
colonna. Nel caso generale questo non è vero. Ad esempio il sistema a due ingressi e due uscite:
µ 2 ¶ µ ¶ µ ¶ µ ¶
s + 2s 0 0 0 2 0 1 0
µ 1 ¶ + s+ s2
s+1 0 2s + 2 s2 + 1 2 1 2 0 0 1
K(s) = 2 1 = =
s(s+2) s+2 s3 + 3s2 + 2s 2s + 3s2 + s3
(
p=q=2
→N =6
n=3
ammette, secondo le tecniche proposte, realizzazioni di dimensione 6.
É possibile mettere a punto delle tecniche di realizzazione che consentano nel caso generale di
individuare delle realizzazioni in forma minima? Ciò è possibile.
Preliminarmente e con riferimento all’esempio, si metterà in luce come sia possibile, già con le infor-
mazioni che abbiamo, individuare una realizzazione di dimensione inferiore a 6.
Da un primo punto di vista la matrice data definisce due legami ingresso - uscita mediante vettori
riga a due elementi, Ki , tra ciascun uscita e i due ingressi
1 0 µ ¶
s+1 K1 (s)
K(s) = 2 1 =
K2 (s)
s(s + 2) s+2
Si hanno quindi due legami
(1 0)
K1 (s) =
s+1
realizzabile mediante le matrici
(2 0)(0 1)s
K2 (s) =
s2 + 2s
realizzabile mediante le matrici
µ ¶ µ ¶
2 0 0 2 0
Ao = Bo2 = Co2 = ( 0 1 )
1 −2 0 1
A partire dalle realizzazioni di K1 e K2 , realizzazioni delle righe, possiamo calcolare una realizzazione
di dimensione 3 del nucleo dato mediante le seguenti matrici
µ 1 ¶ µ 1¶ µ 1 ¶
Ao 0 Bo Co 0
A= B= C=
0 A2o Bo2 0 Co2
7.4. Realizzazioni minime 161
ove si è tenuto conto del fatto che il sistema risulta dalla connessione di due sottosistemi che hanno gli
stessi ingressi e ciascuno definisce un’uscita. Una tecnica alternativa consiste nel realizzare ciascuna
colonna. In questo caso
1 ..
0 .
s+1 ..
K(s) = = K 1 (s) . K 2 (s)
2 1
s(s + 2) s + 2 .
..
ove si è tenuto conto del fatto che il sistema risulta dalla connessione di due sottosistemi che hanno
le stesse uscite e ciascuno un solo ingresso.
Con riferimento all’esempio a più ingressi e uscite in esame la tecnica di realizzazione per righe
risulta essere più conveniente di quella per colonne.
In conclusione con le informazioni a noi note siamo in grado di costruire delle realizzazioni di dimen-
sione inferiore a quella che risulterebbe essere la dimensione della realizzazione costruita direttamente
sulla K(s).
La seguente tecnica di realizzazione nota come metodo di Gilbert, dal nome dello studioso che l’ha
proposta, consente di costruire nel caso di sistemi a più ingressi ed uscite una terna minima. Tale
tecnica è particolarmente semplice nel caso qui esposto in cui la molteplicità degli zeri del minimo
comune multiplo dei polinomi a denominatore nella matrice di funzioni di trasferimento è pari ad uno.
Pm
Il metodo di Gilbert consente, in tal caso, di costruire una realizzazione di dimensione ( i=1 ri )
se m è il numero dei poli ed ri il rango del i − mo residuo nella espansione in frazioni parziali. La
minimalità di tale realizzazione può essere facilmente compresa se si ricorda che il rango del residuo
che corrisponde ad un autovalore di ordine uno coincide con la dimensione del relativo autospazio e
questo a sua volta coincide con la molteplicità algebrica.
X
m
Ri
W (s) =
1
s − λi
162 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
X
m
Ri X 2Rka (s − αk ) − 2Rkb ωk
µ
W (s) = +
s − λi (s − αk )2 + ωk2
λi 0
Λi = \
0 λi
µ ¶
αk ωk
0
−ωk αk
C
Λk = . ..
µ ¶
αk ωk
0
−ωk αk
ρ(Λi ) = ri = ρ(Ri )
µ ¶
C
ρ(Λk ) = 2rk = 2 max{ρ(Rka ), ρ(Rkb )}
Λ1 0
..
.
Λm
A=
ΛC1
..
.
0 ΛC
µ
B1
..
.
B
B= m
B1C
.
.
.
BµC
7.5. Il modello di un sistema interconnesso 163
Bi , Ci i = 1, . . . , m : Ri = Ci Bi
C C
BK , CK k = 1, . . . , µ :
µ ¶
C C C b1
2Rka = CK BK BK =
b2
µ ¶
−b2
−2Rkb = C C
CK B̃K C
B̃K =
b1
C C
CK B̃K fattorizzazione di dimensione 2rk
.
1. ρ(A − λi I ..B) = n, i = 1, . . . , m
.
2. ρ(AT − λi I ..C T ) = n, i = 1, . . ., m.
La dimostrazione che le precedenti condizioni sono equivalenti a quelle di rango individuate nei teoremi
precedenti può essere condotta ricordando l’equivalenza con la completa eccitabilità ed osservabilità
dei modi.
Si consideri ad esempio la condizione 2.; è facile verificare che se essa non fosse soddisfatta
esisterebbe un autovettore ui che soddisfa la condizione Cui = 0 ciò che comporta la non completa
osservabilità; il viceversa è altrettanto immediato. Analoghe considerazioni possono essere impiegate
per la condizione 1..
Un’ultima considerazione può essere utile; si pensi assegnata una terna (A, B, C) (cioè una rap-
presentazione LSF) e calcolata la W (t). Rispetto a questa W (t) si può risolvere un problema di
realizzazione causale, come impostato al paragrafo precedente. La terna (A, e B,
e C)
e che risolve il prob-
lema e che è caratterizzata da uno spazio di stato di dimensione minima sull’insieme delle realizzazioni,
ha dimensione n e ≤ n, l’eguaglianza avendosi solo se tutti i modi di (A, B, C) sono eccitabili ed osserv-
e = T AT −1 , B
abili; inoltre in tal caso si ottengono due rappresentazioni equivalenti (i.e. ∃T : A e = T B,
Ce = CT −1 ).
164 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato
Saranno studiati i metodi per il calcolo del modello matematico di un sistema interconnesso in termini
di funzione di trasferimento (formula di Mason) e della rappresentazione ingresso - stato - uscita
Per il calcolo della funzione di trasferimento del sistema complessivo se si indica con Si la
trasferenza di ramo, può essere impiegata la seguente formula
P
i ∆ i Pi
S=
∆
in cui
Pi ⇒ trasferenza dell0 i − mo cammino u → y
X X X
∆=1− Pj + Pjk − Pjkl · · ·
j j,k j,k,l
S4
u 1 S1 S2 S3 1 y
S5
S6
Figura 7.3
∆ = 1 − S2 S5 − S1 S2 S3 S6
in questo caso ci si deve fermare, perchè gli anelli si toccano, hanno un ramo in comune, ma basta
anche un solo nodo in comune per non poter più considerare il prodotto delle coppie, che quindi
diventa nullo, cosı̀ come tutti quelli che seguono.
∆i = ∆− tutti quanti quei prodotti di funzioni di trasferimento che coinvolgono una qualche funzione
di trasferimento che sta già in Pi
(
∆1 = 1
∆ 2 = 1 − S 2 S5
P1 ∆1 + P2 ∆2 S 1 S 2 S 3 + S 3 S 4 − S 2 S3 S 4 S 5
S= =
∆ 1 − S1 S 2 S 5 − S 2 S 3 S6
S6 S8
u 1 S1 S2 S3 S4 S5 1 y
S7
S9
Figura 7.4
∆ = 1 − S 2 S 3 S 7 − S3 S 4 S 8
P1 = S 6 S 3 S 4 S 5
∆1 =
P2 = S1 S2 S3 S4 S5
∆2 =
P3 = S9
∆3 =
(
ẋi = Ai xi + Bi ui
Si :
yi = Ci xi
il calcolo si riduce ad imporre i vincoli topologici stabiliti dai collegamenti tra i diversi sottosistemi.
Come già visto nel caso della connessione in cascata si ha
ẋ = A1 x1 + B1 u
1
ẋ2 = A2 x2 + B2 C1 x1
y = C2 x2
in cui lo stato è l’aggregato degli stati dei sottosistemi. La procedura euristica che consiste nell’imporre
il rispetto dei vincoli è semplice nei casi elementari, ma quando si considerano collegamenti con
più sottosistemi, con connessioni in controreazione, è necessario fare riferimento ad una procedura
sistematica fondata sull’analisi del diagramma di flusso del sistema interconnesso.
Si consideri il grafo di flusso e si separino alcuni nodi in modo che nel grafo risultante non ci siano
più cicli. La separazione però deve essere fatta in modo da lasciare tutti quanti i rami entranti da
una parte e i rami uscenti dall’altra. Per un grafo di questo tipo, senza cicli, la rappresentazione con
lo stato è immediatamente calcolata, a partire da quella dei sottosistemi.
Infatti il vettore di stato x è l’aggregato dello stato dei singoli sottosistemi e la rappresentazione può
essere semplicemente scritta per ispezione sul grafo di flusso se questo è aciclico. Ciò sarà messo in
evidenza facendo riferimento all’esempio di Figura 37.4
S4
u 1 S1 S2 S3 1 y
S5
S6
Figura 7.5
ẋ1 = A1 x1 + B1 u
ẋ2 = A2 x2 + B2 S
ẋ3 = A3 x3 + B3 C2 x2 + B3 C4 x4
ẋ4 = A4 x4 + B4 u
ẋ5 = A5 x5 + B5 C2 x2 + B5 C4 x4
ẋ6 = A6 x6 + B6 C3 x3
y = C3 x3 P = C1 x1 + C5 x5 + C6 x6
Da cui si ottiene
ẋ1 = A1 x1
B1 0
ẋ2 = A2 x2
0 B2 µ ¶
ẋ3 = A3 x3 + B3 C2 x2 + B3 C4 x4
0 0 u
+
ẋ4 = A4 x4 B4 0 S
0 0
ẋ5 = A5 x5 + B5 C2 x2 + B5 C4 x4
0 0
ẋ6 = C3 x3
y = (0 0 C3 0 0 0)x
P = ( C1 0 0 0 C5 C6 ) x
ora ritornando al grafo iniziale si verifica che S coincide con P , e quindi se si riporta a far coincidere
S con P si ottiene la rappresentazione con lo stato del sistema complessivo.
In conclusione la rappresentazione complessiva è ottenuta: separando alcuni nodi del grafo, calcolando
la rappresentazione associata, imponendo il vincolo di coincidenza dei nodi separati
Quindi due metodi: uno per il calcolo della funzione di trasferimento, l’altro per il calcolo della
rappresentazione con lo stato, mettono, tral’altro, in evidenza che lo stato del sistema complessivo è
l’aggregato degli stati dei sottosistemi.
A tale proposito vale la pena di osservare che a seguito della connessione puó prodursi perdita di pro-
prietà di raggiungibilità e/o osservabilità. Si considerino ad esempio i sottosistemi S1 , S2 caratterizzati
dalle rispettive funzioni di trasferimento:
µ ¶ µ ¶
s+1 1
s−1 s+1
1
W (s) =
s−1
Si è ottenuto un sistema di dimensione uno mentre la dimensione del sistema complessivo, intercon-
nessione di due sottosistemi di dimensione uno, è due. Questo fatto puó essere spiegato in termini di
perdita di raggiungibilità o di osservabilità del sistema, perchè la funzione di trasferimento del sistema
complessivo è influenzata solo dal sottosistema, o tutto raggiungibile o tutto osservabile.
In realtà il caso preso in considerazione corrisponde ad una perdita di raggiungibilità del sistema.
Ció si puó verificare realizzando i due sottosistemi, trovando le rappresentazioni con lo stato, la
rappresentazione complessiva ed infine verificando che il sistema non è tutto raggiungibile.
Ad una cancellazione opposta corrisponderà una perdita di osservabilità.
La teoria della stabilità riveste un ruolo particolarmente importante nello studio dei sistemi
dinamici. Essa costituisce un importante complesso di metodi di analisi qualitativa; si tratta di quei
metodi che consentono di studiare le proprietà delle soluzioni di sistemi dinamici senza procedere al
calcolo delle soluzioni stesse.
Cosa accade a seguito di una modifica delle condizioni in cui opera un fissato sistema ? L’effetto
è della stessa entità della perturbazione ? Vengono mantanute le principali caratteristiche di compor-
tamento ? Sono queste le circostanze che sono assunte a specificare la modalità di un comportamento
stabile.
Stabilità, dunque, come quella proprietà delle evoluzioni di modificare di poco l’andamento a
seguito di perturbazioni: tanto più piccole le perturbazioni tanto più piccoli gli scostamenti delle
evoluzioni perturbate da quelle non perturbate. E’ necessario precisare cosa si intende per pertur-
bazioni, variazioni delle condizioni operative. Se si osserva che un dato sistema è caratterizzato da
relazioni matematiche e da fissati valori dei parametri e che un’evoluzione è fissata una volta fissato
uno stato iniziale ed una funzione d’ingresso, si comprende che una perturbazione può concretizzarsi
in variazioni dei parametri rispetto a valori che sono usualmente definiti ”nominali”, in variazioni
dello stato iniziale oppure in variazioni dell’ingresso. In questo ampio contesto viene qui affrontato lo
studio della stabilità rispetto a perturbazioni sullo stato iniziale: la stabilità degli stati di equilibrio
(stabilità interna), nonchè il collegamento con la proprietà di stabilità ingresso-uscita, una proprietà
relativa alla limitatezza delle evoluzioni in uscita a seguito di perturbazioni in presenza di ingressi
limitati (stabilità esterna).
Lo studio della stabilità degli stati di equilibrio fa riferimento alla teoria di Lyapunov, matematico
ed ingegnere russo che all’inizio del secolo ha gettato le fondamenta della teoria che porta il suo
nome. Uno stato di equilibrio è stabile se le evoluzioni che hanno origine nelle vicinanze restano
nelle vicinanze; instabile altrimenti. Asintoticamente stabile se le evoluzioni non solo restano nelle
vicinanze, ma ritornano sullo stato di equilibrio al crescere del tempo.
Non viene qui affrontato il caso di perturbazioni sui parametri; la cosiddetta stabilità strutturale.
L’assenza di stabilità strutturale rappresenta una ’patologia’ interessante; è intatti possibile che un
170 8. Elementi di teoria della stabilità
dato modello matematico a seguito di piccole perturbazioni di uno o più parametri manifesti com-
portamenti molto diversi rispetto alla situazone nominale. Si usa dire in tal caso che il modello non
è strutturalmente stabile. Questo studio ha risvolti applicativi molto importanti in quanto fornisce
il quadro formale per interpretare fenomeni reali complessi che a seguito di insignificanti modifiche
ambientali subiscono modifiche catastrofiche o danno vita a comportamenti caotici. La teoria delle
catastrofi e lo studio del caos, che hanno negli ultimi anni suscitato interesse ed acquisito credito nella
interpretazione di fenomeni fisici di diversa natura, sono fondati su tali aspetti.
La trattazione che segue prende le mosse dalle definizioni principali per arrivare all’enunciazione
delle condizioni che ne garantiscono il soddisfacimento fino alla presentazione dei criteri di verifica. A
partire dal metodo generale di Lyapunov, si passa allo studio dei sistemi lineari ed all’indagine sulla
collocazione degli autovalori, per ritornare allo studio della stabilità dei sistemi nonlineari mediante
l’esame del modello lineare tangente (approssimazione lineare). La trattazione è diffusa per i sistemi
a tempo continuo e succinta per il tempo discreto. Lo studio della stabilità dei sistemi interconnessi
lineari conclude il capitolo.
8.1. Definizioni
Si consideri il seguente sistema di equazioni differenziali, che descrive l’evoluzione nello stato di un
sistema regolare a dimensione finita
¡ ¢
ẋ(t) = f t, x(t), u(t) (8.1)
e si supponga che in ogni punto di una fissata regione Ω la soluzione di (8.1) sia una funzione continua
di (x0 , t0 ).
Una coppia stato - ingresso (costante), (xe , ue ), è detta di equilibrio se l’evoluzione ad essa
associata rimane confinata in xe ; in formule
f (t, xe , ue ) = 0 (8.2)
Poiché siamo interessati a studiare l’effetto di perturbazioni sullo stato iniziale, nel seguito sup-
porremo, senza perdita di generalità, che ue = 0. Ciò significa che faremo riferimento al sistema
¡ ¢
ẋ(t) = f t, x(t) f (t, xe ) = 0 (8.3)
Inoltre indicheremo con S(xe , R) ed C(xe , R) la regione sferica aperta dello spazio di stato di centro
xe e raggio R ed il suo contorno sferico, rispettivamente. Assumeremo che in Ω = S(xe , A), le
componenti di f , fi (t, x), siano derivabili rispetto ad x con derivate continue. Indicheremo con gx0
la traiettoria per x0 , con g + quella per tempi positivi e con g − quella per tempi negativi. x(t), come
usuale, rappresenterà lo stato at tempo t a partire da x0 al tempo t0 . Un cambiamento di variabile
nello stato che porta l’origine dello spazio in xe , z = x − xe , consente di definire un nuovo sistema
che ha un equilibrio all’origine. E’ dunque possibile senza perdita di generalità supporre che in (8.3)
sia xe = 0.
Si osservi che in generale un assegnato sistema può avere più stati di equilibrio e che la proprietà
di stabilità può sussistere per alcuni e non per altri.
A titolo di esempio si consideri il pendolo rigido di lunghezza l e massa m studiato nel terzo
capitolo. Si assuma in questo primo caso che non vi sia attrito dinamico (k = 0). Per tale sistema
nelle variabili di stato (angolo, velocità angolare) vi sono infiniti stati di equilibrio corrispondenti alla
posizione verticale verso il basso, (2kπ, 0), k ≥ 0, ed alla posizione verticale verso l’alto (kπ, 0), k ≥ 1,
come l’intuizione suggerisce e risulta dal calcolo a partire dal modello matematico
Allo studio della stabilità dell’equilibrio si riconduce lo studio di una proprietà più generale: la
stabilità di un moto. Un moto a partire da una condizione iniziale x0 = x(t0 ), ed un ingresso, u0 (·),
è definito come l’insieme
¡ ¢
M = { t, x(t) ∈ T × X | t ≥ t0 , x(t) = ϕ(t, t0 , x0 , u)}.
E’ facile rendersi conto del significato della seguente definizione di stabilità di un moto.
Definizione 2. Un moto M è stabile se ∀ε, esiste un δε,t0 tale che se kxp0 (t) − x0 k < δε,t0 , allora
kxp (t) − x(t)k < ε, ove xp (t) indica la traiettoria del moto perturbato con stato iniziale xp0 . Il moto
è stabile asintoticamente se è stabile ed inoltre lim kxp (t) − x(t)k = 0.
t→∞
Lo studio della stabilità di un moto può essere condotto indicando con x(t) e xp (t) le evoluzioni
corrispondenti a stato iniziale x0 e xp0 e ponendo
ove ξ(t) indica l’evoluzione perturbata . Tale variabile è soluzione della seguente equazione differenziale
¡ ¢ ¡ ¢ ¡ ¢
˙ = ẋp (t) − ẋ(t) = f t, xp (t) + ξ(t), u0 (t) −f t, x(t), u0 (t) = g t, ξ(t)
ξ(t)
che ammette ξ = 0 come stato di equilibrio. La stabilità di tale equilibrio equivale alla stabilità del
moto del sistema originario, come è immediato verificare dalla definizione stessa. In conclusione lo
studio della stabilità di un moto può essere ricondotto allo studio della stabilità dell’origine dello
spazio di stato del sistema che descrive la dinamica perturbata. Si osservi che quest’ultimo sistema è
caratterizzato da una funzione generatrice g dipendente dal particolare ingresso fissato.
Ancora con riferimento ad unsistema definito sul piano con lo stato zero di equilibrio la stabilità
asintotica impone anche che ogni traiettoria gx+0 che parte da S(δ0 ) per un qualche δ0 > 0 tenda
all’origine al crescere del tempo (figura (8.2);
A titolo di esempio si consideri ancora la dinamica di un pendolo assumendo in questo caso che
sia presente un attrito dinamico (k 6= 0); ciò che rende il sistema dissipativo. Le equazioni diventano
g k
ẋ2 (t) = − senx1 (t) − x2 (t)
l m
e si hanno gli stessi stati di equilibrio. Come l’intuizione ci suggerisce gli stati di equilibrio (2kπ, 0),
k ≥ 0, corrispondenti alla posizione verticale verso il basso sono asintoticamente stabili, in quanto le
evoluzioni nello spazio di stato sono periodiche e smorzate, mentre (kπ, 0), k ≥ 1, corrispondenti alla
posizione verticale verso l’alto, rimangono instabili.
Si osservi che ha senso indagare sulla stabilità asintotica di uno stato di equilibrio solo se esso
è isolato, cioé non è punto di accumulazione di altri stati di equilibrio. Ser ciò non fosse, infatti,
comunque fissato un suo intorno esisterebbe in esso almeno un altro stato di equilibrio che, assunto
come perturbazione, darebbe vita ad un evoluzione costante che non tende allo stato di equilibrio
originario.
A questo proposito è importante osservare che una condizione sufficiente affinché uno stato di equilibrio
sia isolato è che la matrice iacobiana del sistema calcolata nello stato di equilibrio sia non singolare (la
dimostrazione di questo risultato può facilmente essere ottenuta utilizzando al teorema della funzione
implicita sulla funzione y − f (x)). Si tratta di una condizione sufficiente come si può verificare
riferendosi alla semplice situazione di un sistema scalare con funzione generatrice f (x) = x3 . In
questo caso lo stato x = 0 è di equilibrio, è isolato ed anche unico, ma la condizione citata non è
soddisfatta. Ciò accade in quanto lo zero è soluzione isolata, ma non unica (ha molteplicità pari a
tre) e la condizione citata viene meno in tale circostanza.
In altre parole x(t) tende ad xe secondo una legge che ammette una maggiorante esponenziale.
Non è difficile mostrare che la stabilità esponenziale implica quella asintotica uniforme, ma non
vale il viceversa.
Le proprietà di cui si è parlato hanno una validità locale; sono cioè proprietà che riguardano il
comportamento per piccole perturbazioni.
174 8. Elementi di teoria della stabilità
Poiché xẋ + y ẏ = 0, le traiettorie sono le circonferenze che passano per la condizione iniziale e xe = 0,
unico stato di equilibrio, è globalmente stabile.
Inoltre è facile verificare che si ha la stabilità asintotica globale dell’origine per per il sistema planare
Introdotte le definizioni si tratta ora di comprendere come verificare il sussistere delle proprietà.
L’approccio impiegato nei semplici esempi trattati è fondato sull’esame delle caratteristiche delle
soluzioni e fa riferimento alle definizioni stesse. La generalizzazione di un tale approccio richiede il
calcolo delle soluzioni di (8.3), ciò che è in molti casi impossibile.
Le semplici argomentazioni impiegate per studiare la stabilità del pendolo possono essere rifor-
mulate in termini di concetti energetici e rappresentano il punto di partenza dell’approccio generale
proposto da Lyapunov per lo studio della stabilità dell’equilibrio.
Consideriamo l’energia associata al moto del pendolo data dalla somma dell’energia cinetica e
dell’energia potenziale
g 1
E(x) = (1 − cosx1 ) + x2 2
l 2
ove il riferimento è fissato in modo che nell’equilibrio verso il basso sia E(0) = 0. In assenza di attrito
(k = 0) il sistema è conservativo, dunque E = c, costante, lungo il moto, ciò che corrisponde a dire che
dE
dt = 0 lungo le traiettorie. Dunque le evoluzioni mantengono l’energia costante ed avvengono sulle
curve di livello della funzione E(x) = c; queste ultime sono curve chiuse intorno ad x = 0, possiamo
quindi concludere che l’equilibrio è stabile. In presenza di attrito (k > 0) il sistema è dissipativo, ciò
che corrisponde a dE dt ≤ 0 lungo le evoluzioni. Dunque E non può restare costante indefinitamente,
decresce fino a raggiungere il valore nullo ciò che corrisponde a dire che l’evoluzione tende all’equilibrio
(x = 0) per t → ∞.
8.2. La stabilità secondo Lyapunov 175
La formalizzazione di queste considerazioni induce a fondare la verifica della stabilità degli stati di
equilibrio di un sistema fisico sullo studio della funzione energia intorno all’equilibrio; se, in particolare,
essa è non crescente si ha stabilità, se è decrescente si ha stabilità asintotica.
Alla fine del secolo scorso, Lyapunov ha generalizzato questo concetto dimostrando che altre
funzioni possono essere impiegate al posto della funzione energia per verificare la stabilità.
Faremo riferimento, in quanto segue, ad una rappresentazione nonlineare stazionaria con stato
di equilibrio xe
ẋ(t) = f (x(t)) f (xe ) = 0
Definizione 6. Una funzione scalare V (x) è definita positiva in S(xe , R) se si annulla in xe ed è posi-
tiva in ogni altro punto dell’intorno. Si dice semidefinita positiva se si annulla in xe ed è non negativa
in ogni altro punto dell’intorno. Infine V (x) si dice definita negativa ovvero semidefinita negativa
in un intorno se la funzione −V (x) è definita positiva ovvero semidefinita positiva in quell’intorno.
Indicheremo con V (x) > 0 una funzione definita positiva, con V (x) < 0 una funzione definita negativa
e con V (x) ≥ 0, e V (x) ≤ 0, funzioni semidefinite, positive e negative, rispetivamente
Un esempio elementare di funzione definita positiva in tutto Rn rispetto ad xe è dato dalla seguente
funzione
xe1
. Xn
xe = .. stato di equilibrio V (x) = (xi − xei )2 .
xen i=1
X
n
V (x) = ei (xi − xei )2 ei > 0
i=1
V (x) = (x − xe )T P (x − xe ), (8.8)
dove P senza perdita di generalità è assunta simmetrica. E’ infatti evidente che se cosı̀ non fosse si
potrebbe considerare la forma quadratica:
h i
V (x) = (x − xe )T P (x − xe ) + (x − xe )T P T (x − xe ) =
P + PT
= (x − xe )T (x − xe ),
2
176 8. Elementi di teoria della stabilità
T
e dunque sostituire P con la matrice simmetrica P + P .
2
Se la forma quadratica cosı̀ definita è positiva si usa dire che la matrice è positiva, P > 0, e viceversa.
E’ possibile stabilire con un criterio algebrico se P > 0 e quindi se la forma quadratica associata è
definita positiva. La condizione, nota come condizione di Sylvester, afferma che una matrice simmet-
rica P è definita positiva se e solo se i suoi n minori principali sono positivi:
¯ ¯
¯ ¯ ¯ p11 p12 p13 ¯¯
¯ p11 p12 ¯¯ ¯
p11 > 0, ¯ > 0, ¯ p12 p22 p23 ¯¯ > 0, ···, det P > 0.
¯ p12 p22 ¯ ¯
¯ p13 p23 p33 ¯
Come si è gia detto il criterio di Lyapunov si ispira a considerazioni energetiche; una funzione
definita positiva viene assunta a rappresentare ’virtualmente’ il ruolo di energia intorno all’equilibrio
ed è necessario calcolare una tale funzione lungo le evoluzioni del sistema. In particolare, se ricordiamo
le considerazioni precedenti, è necessario calcolare le variazioni di tale funzione lungo le evoluzioni del
sistema. E’ dunque necessario calcolare la derivata lungo il moto di una data funzione V (x). Questa
si calcola mediante la seguente espressione
à ! ẋ1
d ∂V dx ∂V ∂V . Xn
∂V ∂V
V (x(t)) = · = ... · .. = fi (x) = f (x)
dt ∂x dt ∂x1 ∂xn i=1
∂xi ∂x
ẋn
.
Ciò premesso, se si immagina di associare ad ogni stato intorno all’equilibrio un livello di energia
positivo, la stabilità risulta dalla diminuzione del livello di energia lungo le evoluzioni del sistema. Se,
quindi, si immagina di associare allo stato xe un livello energetico nullo ed inoltre di associare agli
stati intorno ad xe un livello energetico superiore (V (x) > 0), alle evoluzioni libere che partono dagli
stati intorno ad xe dovrà corrispondere una diminuzione dell’energia. Questa considerazione giustifica
la seguente definizione
Definizione 7. funzione di Lyapunov. Una funzione V (x) > 0, continua assieme alle sue derivate
parziali prime in una fissata regione S(xe , R), è detta una funzione di Lyapunov (una funzione asin-
totica di Lyapunov) per il sistema se la sua derivata lungo il moto è semidefinita (definita) negativa
nello stesso intorno.
Siamo ora in grado di formulare il risultato fondamentale noto come criterio di Lyapunov.
8.2. La stabilità secondo Lyapunov 177
Teorema 1. Se in un intorno S(xe , R) è definita una funzione di Lyapunov (una funzione di Lyapunov
asintotica) per il sistema allora xe è localmente stabile (asintoticamente stabile).
Mostreremo ora che se V (x) è una funzione asintotica di Lyapunov, comunque fissato a esiste T
tale che kx(t)k < a, ∀t > T , cioé x(t) → 0 quando t → ∞. Infatti con gli stessi argomenti di prima
esiste b > 0 tale che Ωb ⊂ S(a), basta quindi mostrare che V (x(t)) → 0 quando t → ∞. Ma poichè
V (x(t)) è monotona decrescente ed inferiormente limitata da zero, V (x(t)) → c ≥ 0 quando t → ∞;
inoltre c = 0, perché se cosı̀ non fosse per la continuità di V (x) esisterebbe d > 0 con S(d) ⊂ Ωc .
V (x(t)) → c implicherebbe che la traiettoria x(t) rimane esterna alla sfera S(d) per ogni t ≥ 0. Posto
−γ = maxd≤kxk≤r V̇ (x) si avrebbe
Z t
V (x(t)) = V (x(0)) + Ẋ(x(τ ))dτ ≤ V (x(0)) − γt
0
che contraddice l’assunto c > 0, potendo la quantità a secondo membro diventare positiva.
−g
ẋ2 (t) = senx1 (t)
l
e si consideri la funzione energia
g 1
E(x) = (1 − cosx1 ) + x2 2
l 2
che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a
g g g
Ė(x) = ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = 0
l l l
E(x) è una funzione di Lyapunov e prova la stabilità dell’equilibrio verticale inferiore.
E’ opportuno precisare che esistono diversi risultati che esprimono i cosiddetti teoremi inversi.
Tali risultati sanciscono che sotto condizioni generali se lo stato di equilibrio di un assegnato sistema è
stabile allora esiste una funzione di Lyapunov. Ne risulta che l’esistenza di una funzione di Lyapunov è
condizione necessaria e sufficiente per la stabilità. Tuttavia, poichè è possibile provare l’esistenza di tali
178 8. Elementi di teoria della stabilità
funzioni senza fornire alcuna procedura costruttiva, questi risultati non sono di utilità nell’applicazione
del metodo che viene quindi espresso nella sua formulazione sufficiente. A questo proposito è usuale
affermare che il metodo di Lyapunov fornisce un criterio sufficiente di verifica della stabilità in quanto il
venire meno di una verifica a partire da un’assegnata funzione definita positiva non consente di trarre
alcuna conclusione. Esiste una vasta letteratura che affronta il problema di sviluppare strumenti
di ausilio nella costruzione di funzioni di Lyapunov per assegnate classi di sistemi. Un metodo di
interesse nelle applicazioni è quello cosiddetto del gradiente variabile. Tale metodo pesentato nel
testo di esercizi e complementi consiste nel consiste nel fissare la struttura, ma non i parametri, di
una funzione riservandosi di fissare i parametri in modo da renderla una funzione di Lyapunov per il
sistema. Si rinvia ad una letteratuta specialistica per un approfondimento di questi aspetti.
La dimostrazione precedente mette in luce che individuata una funzione asintotica di Lyapunov
in S(R), se Ωc = x ∈ Rn : V (x) ≤ c è limitato e contenuto in S(R) (Ωc ⊂ S(r)) allora ogni traiettoria
che parte da Ωc resta in Ωc e viene attratta dall’origine. Quindi Ωc individua una regione dello spazio
contenuta nella cosiddetta regione di attrazione associata all’equilibrio stabile. Ωc fornisce dunque una
prima stima della regione di attarzione. Quanto questa stima è conservativa ? Sotto quali condizioni
la regione di attarzione coincide con tutto lo spazio Rn ? Rinviando a testi specialistici per le risposte
alla prima domanda, limitiamoci a considerare la seconda che ci riconduce allo studio delle condizioni
sotto le quali si ha stabilità globale. Ritornando alla dimostrazione precedente è chiaro che si ha
stabilità asintotica globale se ogni punto in Rn può essere incluso in un insieme limitato Ωc , e questo
richiede che V (x) sia una fnzione di Lyapunov definita su tutto Rn . Ma questo in realtà non basta.
Infatti potrebbe accadere che per c grandi l’insieme Ωc non sia limitato. Ciò ad esempio accade con
la funzione
x1 2
V (x) = + x22
1 + x21
Una condizione aggiuntiva che garantisce che Ωc sia limitato per ogni c > 0 è la cosiddetta ”non
limitatezza radiale”.
Teorema 2. Se V (x) è una funzione di Lyapunov (una funzione di Lyapunov asintotica) radialmente
illimitata, cioé
lim V (x) = ∞
kxk→∞
µ ¶
0
= xe stato di equilibrio
0
Si ottiene una funzione semidefinita positiva, possiamo dunque concludere che l’origine dello spazio di
stato è uno stato di equilibrio stabile. La funzione data è di Lyapunov in tutto lo spazio, è radialmente
illimitata, si ha dunque stabilità globale.
Come ulteriore esempio si consideri la dinamica dell’assetto di un corpo rigido in assenza di gravità.
Questo modello è assunto a descrivere la variazione dell’orientamento di un satellite rispetto ad un
riferimento inerziale. Se chiamiamo ω1 la velocità angolare attorno all’asse x, ω2 quella attorno
all’asse y, e ω3 quella attorno all’asse z e se si immagina che l’orientazione del satellite possa mutare a
seguito di coppie, τ1 , τ2 , τ3 , che vengono generate attorno agli assi principali di inerzia che supporremo
coincidenti con gli assi del sistema di riferimento, l’equazione della dinamica può essere scritta
τi = −ki ωi i = 1, 2, 3
si ha stabilità asintotica globale dello zero dello spazio di stato, unico equilibrio per il sistema as-
segnato; il corpo, dunque tende ad arrestarsi indipendentemente dal valore iniziale della velocità
angolare (lo stato iniziale) al tempo t0 . A tal fine si consideri la seguente funzione definita positiva e
radialmente illimitata.
1 1 1
V (x) = J1 ω12 + J2 ω22 + J3 ω32
2 2 2
Derivando si verifica facilmente che tale funzione è definita negativa in tutto lo spazio. In conclusione
V (x) è una funzione di Lyapunov che soddisfa la condizione del Teorema 2 e lo stato ω = 0 è uno
stato asintoticamente, globalmente stabile, ciò che corrisponde alla tendenza all’arresto del corpo.
180 8. Elementi di teoria della stabilità
• Il teorema di La Salle
Un importante complemento di indagine è fornito dal teorema di La Salle. Tale risultato consente
di decidere della eventuale stabilità asintotica avendo a disposizione una funzione di Lyapunov non
asintotica. Ciò che, per l’esistenza del teorema inverso, equivale a chiedersi, sotto quali condizioni
l’esistenza di una funzione di Lyapunov assicuri l’esistenza du un’altra che è anche asintotica.
Per meglio comprendere l’interesse di un tale risultato si consideri ancora l’esempio del pendolo
in presenza di attrito
ẋ1 (t) = x2 (t)
−g k
ẋ2 (t) = senx1 (t) − x2
l m
e si consideri ancora la funzione energia
g 1
E(x) = (1 − cosx1 ) + x2 2
l 2
che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a
g g g k
Ė(x) = ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = − x22
l l l m
Ė(x) è essendo semidefinita negativa, è una funzione di Lyapunov e prova la stabilità dell’equilibrio
verticale inferiore, ma non la stabilità asintotica, che appare evidente debba sussistere in questo caso.
Siamo dunque nella condizione di avere una funzione di Lyapunov e ci domandiamo se per una
qualche strana circostanza non possiamo dedurre la stabilità asintotica. Situazioni di questo tipo si
presentano spesso nelle applicazioni.
A questo proposito è necessario premettere che un insieme invariante rispetto alla dinamica del
sistema, Ω, è un insieme di stati in cui rimangono confinate l’evoluzione che muovono da ciascuno di
essi.
Teorema 3. (La Salle) Se il più grande insieme invariante rispetto alla dinamica che è contenuto
nell’insieme di punti in cui si annulla la V̇ (t) coincide con xe allora xe è asintoticamente stabile.
La dimostrazione si riconduce alla verifica che le evoluzioni convergono sugli insiemi invarianti.
• Il criterio di Krasovskii
Teorema 4. Se per ogni x gli autovalori della matrice J(x) + J T (x) hanno parte reale strettamente
negativa, allora lo stato di equilibrio xe = 0 è stabile asintoticamente globalmente.
ẋ1 = −x1 + x3 u1 u2
ẋ2 = −x2 − x32 + k1 x3 + u1
ẋ3 = k2 x2 − x3 − x33 .
¯
Lo stato zero è uno stato d’equilibrio isolato, poiché lo jacobiano J(x)¯x=0 è non singolare, inoltre
esso è anche l’unico stato di equilibrio. Per il sistema in esame si ha:
−1 0 0
J(x) = 0 −3x22 − 1 k1
0 k2 −3x3 − 1
2
e dunque
−2 0 0
J(x) + J T (x) = 0 −6x22 − 2 k1 + k2
0 k1 + k2 −6x23 − 2
ha un autovalore indipendente da x e pari a λ1 = −2, mentre gli altri, per k1 = −k2 , risultano essere
λ2 = −6x22 − 2, λ3 = −6x23 − 2, i quali hanno parte reale inferiore a −α = 2 > 0.Per il teorema
enunciato si ha dunque la stabilità asintotica globale dello stato zero.
• Il teorema di Cetaev
Teorema 5. Se V (x) si annulla in xe , ha derivate parziali prime continue in Ω(xe ), assume valori
positivi in un insieme che ha xe come punto di accumulazione, la sua derivata lungo il moto è definita
positiva, allora lo stato di equilibrio è instabile.
ẋ1 = x1 + g1 (x)
Poiché le condizioni precedenti implicano gi (0) = 0, l’origine è uno stato di equilibrio. Si consideri,
dunque la funzione
1
V (x) = (x21 − x22 )
2
182 8. Elementi di teoria della stabilità
Poiché
|x1 g1 (x) − x2 g2 (x)| ≤ Σ21 |xi ||gi (x)| ≤ 2kkxk3
si ha
V̇ (x) ≥ kx|2 − 2kkxk3 = kx|2 (1 − 2kkxk)
1
e per r < 2k in S(r) le condizioni del teorema di Cetaev sono soddisfatte e si ha instabilità dello stato
di equilibrio.
∂V ∂V
V̇ (x, t) =+ ·f
∂t ∂x
Funzione di Lyapunov è una funzione definita positiva in Ω con derivata lungo il moto semidefinita
negativa in Ω.
I risultati si enunciano allo stesso modo.
0 = A(t)xe
e quindi (xe = 0), cioè l’origine dello spazio di stato, è sempre uno stato di equilibrio. Esso è unico
se e solo se la matrice dinamica è invertibile, cioè se il determinante di A(t) è diverso da zero. Se il
determinante è nullo in ogni istante di tempo gli stati di equilibrio sono un sottospazio dello spazio
di stato.
Nel caso dei sistemi lineari sussistono le seguenti proprietà:
1. l’insieme degli stati di equilibrio è un sottospazio dello spazio di stato ed in particolare l’origine
è sempre uno stato di equilibrio;
8.3. La stabilità dei sistemi lineari 183
2. le proprietà di stabilità di uno stato di equilibrio sono equivalenti a quelle di ogni altro (da cui la
possibilità di limitare lo studio allo stato zero); come conseguenza si parlerà di stabilità interna
come di una proprietà del sistema, non di un particolare stato di equilibrio;
3. la definizione di stabilità può essere indebolita, nel senso che è necessario e sufficiente che esista
una coppia di valori δ, ε che soddisfano la (8.4);
4. le proprietà di stabilità locale implicano quelle globali;
5. il sistema è stabile esponenzialmente se e solo se è uniformemente asintoticamente stabile.
La prima delle proprietà indicate è gia stata commentata. Per quanto riguarda la seconda,
l’equivalenza delle proprietà di stabilità degli stati di equilibrio, si noti che la linearità rispetto allo
stato dell’evoluzione libera consente di ricondurre l’ evoluzione perturbata rispetto ad un generico
stato di equilibrio ad un’evoluzione libera dello stesso sistema. Infatti,
posto z = x − xe , equivale a
Per quanto riguarda la terza delle proprietà citate basta osservare che se esiste una coppia di
valori δ, ε tali che
Le generalità insita nello studio della stabilità degli stati di equilibrio già messa in luce nel caso
generale è ancora maggiore nel caso dei sistemi lineari. Per tale classe di sistemi, infatti, la stabilità
dell’origine dello spazio di stato del sistema dato assicura la stabilità di ogni moto.
Il calcolo del sistema differenziale che esprime la dinamica della parturbazione rispetto ad un assegnato
moto, si riduce al seguente
184 8. Elementi di teoria della stabilità
e, quindi
˙ = A(t)ξ(t)
ξ(t)
Dunque si ottiene una dinamica che coincide con la dinamica del sistyema assegnato e non dipende
dall’ingresso. La stabilità dello stato zero di tale sistema equivale alla stabilità di un qualsiasi moto.
Poichè, come già osservato, nei sistemi lineari le proprietà locali si trasformano in globali e la
stabilità è invariante rispetto allo stato di equilibrio, per tale classe di sistemi si usa parlare di stabilità
interna del sistema riferendosi allo studio dello stato zero e restando inteso che tale proprietà ha una
valenza globale e riguarda tutti i comportamenti del sistema, sia stati di equilibrio che moti, rispetto
a perturbazioni dello stato iniziale.
La condizione necessaria e sufficiente di stabilità si esprime in termini di limitatezza della norma della
matrice di transizione dello stato. Infatti
kφ(t − t0 )k ≤ k
implica
kx(t)k ≤ kφ(t − t0 )k · kx(t0 )k ≤ kkx(t0 )k
da cui
² ²
kx(t0 )k < ⇒ kx(t)k ≤ k
k k
Quindi se la matrice φ è limitata allora l’evoluzione libera è limitata; inoltre, se kφ(t − t0 )k non fosse
limitata ci sarebbe almeno un elemento della matrice non limitato al variare di t, sia quello di posto
(i, j), al quale corrisponderebbe la componente i − ma dell’evoluzione libera illimitata a partire da
una condizione iniziale non nulla
xi (t) = φij (t − t0 )xj (t0 )
Con gli stessi argomenti è facile verificare che condizione necessaria e sufficiente di stabilità asintotica
è che
lim kφ(t − t0 )k = 0
t→∞
dettaglio ricordando che le componenti dell’esponenziale di matrice sono combinazioni lineari delle
leggi di moto dei modi naturali, la condizione kφ(t)k ≤ k, equivale a che gli autovalori a molteplicità
geometrica unitaria abbiano parte reale minore o uguale a zero, quelli a molteplicità geometrica
maggiore di uno, abbiano parte reale strettamente minore di zero. Se si richiede anche che:
lim kφ(t − t0 )k = 0
t→∞
gli autovalori devono avere parte reale strettamente negativa. L’asse immaginario è la frontiera
che divide gli autovalori della matrice A in due categorie, quelli che danno luogo a modi naturali
convergenti e quelli che danno luogo a modi naturali divergenti.
In conclusione la condizione di stabilità si può esprimere come segue
In formule:
stabilità semplice (
Re(λ1i ) ≤ 0
Re(λ>1
i )<0
stabilità asintotica
Re(λi ) < 0
Con le precedenti premesse sulle forme quadratiche possiamo enunciare il criterio di Lyapunov per i
sistemi lineari stazionari che fornisce una condizione necessaria e sufficiente.
Teorema 7. Un sistema lineare stazionario è asintoticamente stabile se comunque fissata una matrice
P , simmetrica e definita positiva, esiste ed è unica la soluzione nell’incognita Q, simmetrica e definita
positiva, della seguente equazione matriciale
A0 Q + QA = −P
forte che non nel contesto non lineare in cui l’impossibilità di concludere a partire da una funzione
definita positiva non consente di dichiarare l’assenza della proprietà.
Dimostrazione La dimostrazione della sufficienza della condizione è costruttiva, se infatti per una
fissata P , esiste Q soluzione definita positiva, si assuma
V (x) = x0 Qx >
risulta
V̇ (x) = ẋ0 Qx + x0 Qẋ = x0 A0 Qx + x0 QAx = x0 (A0 Q + QA)x = −x0 P x < 0
Quindi V̇ (x) è una funzione definita negativa, e lo è in tutto lo spazio. Inoltre V è radialmente
illimitata quindi lo stato zero è stabile asintoticamente globalmente.
Per la necessità invece si suppone che gli autovalori di A abbiano parte reale negativa. Sotto questa
ipotesi, Re(λi ) < 0, è ben definita la matrice
Z ∞
0
Q= eA t P eAt dt
0
dove l’ultima uguaglianza segue dalla stabilità asintotica della matrice A. Inoltre Q è simmetrica,
perchè coincide con la sua trasposta, ed è anche positiva perchè se si considera la forma quadratica
associata:
Z ∞ Z ∞ Z ∞
0 0
x0 Qx = x0 (eA t P eAt )dtx = x0 (eA T P eAT )xdt = z 0 (t)P z(t)dt > 0 con z(t) = eAt x
0 0 0
Per quanto riguarda l’unicità della soluzione si supponga che esista un’altra soluzione Q̃ 6= Q; risulterà,
in tal caso
A0 (Q − Q̃) + (Q − Q̃)A = O
0
Premoltiplicando per eA t e postmoltiplicando per eAt si ottiene
0 ¡ ¢ d 0
eA t A0 (Q − Q̃) + (Q − Q̃)A eAt = eA t (Q − Q̃)eAt
dt
Dunque
0
eA t (Q − Q̃)eAt = c∀t
Il criterio fornisce una condizione necessaria e sufficiente fondata sulla risoluzione di un sistema
n(n+1)
di 2 equazioni µ ¶
0 1
A= A0 Q + QA = −P
−5 −6
8.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 187
µ ¶µ ¶ µ ¶µ ¶ µ ¶
0 −5 Q11 Q12 Q11 Q12 0 1 −1 0
+ =
1 −6 Q12 Q22 Q12 Q22 −5 −6 0 −1
Per risolvere questo sistema si devono scrivere le equazioni che corrispondono ad uguagliare i coeffi-
cienti delle matrici
−1 = −5q12 − 5q12
essendo le matrici simmetriche basta eguagliare gli elementi della diagonale, quelli che si trovano da
una parte con tutti quelli corrispondenti a secondo membro. Gli elementi sono n(n+1) 2 . Questo in
definitiva è il numero di equazioni che bisogna risolvere per applicare il criterio.
Il criterio di Routh consente di stabilire quanti sono gli zeri che hanno parte reale positiva di un dato
polinomio di grado n generico.
an λn + an−1 λn−1 + . . . + a0 = 0
Una considerazione preliminare deve essere fatta circa i coefficienti di un dato polinomio: si verifica
con facilità che se questi non hanno tutti lo stesso segno sicuramente ci sono degli zeri a parte reale
positiva. I coefficienti tutti dello stesso segno è quindi una condizione necessaria, ma ovviamente non
sufficiente, per garantire che tutti gli zeri abbiano parte reale negativa. Il soddisfacimento di questa
condizione deve quindi essere preliminarmente verificato, ed eventualmente imposto nella soluzione di
un problema in presenza di parametri, quando si vuole risolvere un problema di stabilità.
Se ad esempio il polinomio caratteristico di un sistema lineare del secondo ordine è
λ2 + (1 − k)λ + 2 = 0
la condizione k < 1 è necessaria (e nel caso in questione anche sufficiente) per la stabilità asintotica.
Il criterio di Routh si applica ad un polinomio qualsiasi e ci dice anche quanti zeri hanno parte
reale positiva. Esso consiste nella costruzione di una tabella e poi nella verifica del segno dei coefficienti
di una parte di questa tabella. Il criterio in esame estende la regola di Cartesio sulla corrispondenza
di soluzioni a parte reale positiva e negativa a variazioni e permanenze valutate sui coefficienti dei un
polinomio di secondo grado
ax2 + bx + c = 0
Nel caso specifico dell’equazione di secondo grado la regola di Cartesio si enuncia dicendo che ad ogni
variazione corrisponde una soluzione a parte reale positiva, ad ogni permanenza una a perte reale
negativa.
si ottiene
5 1 2 2
4 3 −2 4
8 2
3 3 3 0
2 − 11
4 4
75
1 11
0 16
Nella costruzione della tabella gli elementi di una stessa riga possono essere moltiplicati per uno
stesso numero positivo senza che ciò alteri il risultato.
Conclusa la costruzione della tabella il criterio si riduce a contare il numero di variazioni di segno
che si riscontrano nel passaggio da un coefficiente all’altro della prima colonna.
• Il numero di variazioni è pari al numero degli zeri a parte reale positiva del polinomio dato.
Nel caso allo studio, il polinomio di grado 5 ha due zeri a parte reale positiva, gli altri tre hanno parte
reale negativa.
E’ importante osservare che si può incorrere in impedimenti nella costruzione della tabella.
Annullamento del primo elemento di una riga
Quando il primo elemento di una riga si annulla non è possibile procedere al calcolo della riga
successiva. L’impedimento può essere superato in diversi modi come spiegato nel seguito.
Indicato con j il numero dei primi elementi nulli della riga, una primo modo di operare consiste
nel sostituire la riga data con la stringa di numeri ottenuti sommando ad essa la stringa ottenuta
traslando di j posti a sinistra la riga in questione dopo averla moltiplicata per (−1)j .
8.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 189
1 2 3
2 4
−3 3
6
3
il calcolo delle variazioni di segno tra gli elementi della prima colonne permette di concludere che vi
sono due zeri a parte reale positiva.
Come ulteriore esempio si consideri il polinomio
λ5 + 5λ3 + 10λ + 4
Seguendo la procedura indicata si perviene alla seguente tabella
1 5 10
4 0 4
4 9
−5 4
32
61/5
Un secondo modo di procedere consiste nel sostituire allo zero il simbolo ² per rappresentare un
numero positivo e ’piccolo’. La tabella del primo esempio considerato diventa in tal caso
1 2 3
2 4
² 3
−4²−6
²
3
Il computo delle variazioni di segno, ricordando che ε rappresenta un numero positivo ’piccolo’, con-
sente di affermare, anche in questo caso, che vi sono due zeri a parte reale positiva.
Un terzo modo di procedere di fronte all’impedimento indicato consiste nel modificare il polinomio
dato moltiplicandolo per un binomio con zero negativo;
d1 (λ) = d(λ)(λ + 1)
si ottiene un nuovo polinomio di grado n + 1 con nuovi coefficienti a cui applicare il criterio di Routh.
Si consideri, ad esempio, il polinomio
λ4 + 2λ3 + 3λ2 + 6λ + 4
190 8. Elementi di teoria della stabilità
1 3 4
2 6
0 4
da cui
(λ + 1)(λ4 + 2λ3 + 3λ2 + 6λ + 4) =
1 5 10
3 9 4
6 26
−1 1
32
1
6 1 3 1 1
5 2 4 1
4 x x x
3 x x
2 x x
1 x
0 x
Si supponga ora che si abbia una riga nulla. Ad esempio la situazione sia quella qui esemplificata
5 1 3 1
4 1 3 1
3 0 0
In questa circostanza si può concludere che il polinomio considerato, d(λ), è il prodotto di due polinomi
il primo, d1 , con zeri che hanno parte reale caratterizzata dalle variazioni di segno degli elementi della
prima colonna della tabella sinora costruita (gli zeri di d1 a parte reale positiva sono tanti quante le
variazioni di segno che sono apparse nella prima colonna della tabella costruita fino a quel momento);
8.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 191
Il secondo, d2 , con potenze pari della variabile e di grado uguale all’indice della riga che precede la
riga che si è annullata. I coefficienti, a partire da quello di grado massimo, sono quelli che compaiono
nella riga precedente quella nulla. Nel caso in esame, d1 ha grado uno e zero negativo, d2 ha grado 4
ed è pari a
d2 (λ) = λ4 + 3λ2 + 1
Per quanto riguarda lo studio della parte reale degli zeri di questo nuovo polinomio si procede alla
costruzione della tabella di Routh a partire dal polinomio ottenuto derivano rispetto a λ d2 stesso.
Nel caso in esame
d 4
(λ + 3λ2 + 1) = 4λ3 + 6λ
dλ
La sostituzione di tali coefficienti a quelli della riga nulla consente di continuare la costruzione della
tabella.
5 1 3 1
4 1 3 1
3 2 3
2 3 2
5
1 3
0 2
Le variazioni di segno sulla prima colonna esprimono il numero di zeri a parte reale positiva del
polinomio dato.
Una particolarità importante in questa fase dello studio è che se non ci sono variazioni di segno si
potrà desumere al più la stabilità semplice, e non quella asintotica (che avremmo avuto se non avessimo
incontrato impedimenti nella costruzione della tabella). Infatti, come si potrebbe verificare andando
a calcolare gli zeri nel caso in esame, o più in generale come risulta dallo studio matematico degli
zeri di un polinomio con termini di ordine solo pari, gli zeri di d2 (λ), hanno una doppia simmetria
(simmetria quadrantale, cioè una simmetria rispetto a ciascun asse del piano complesso). Ciò che
impone, nella migliore delle ipotesi l’appartenenza degli zeri all’asse immaginario. In conclusione,
dunque, se non si hanno variazioni di segno è necessaria la verifica della molteplicità geometrica degli
zeri sull’asse immaginario per concludere sulla stabilità semplice del sistema.
Osservazioni
Si può stabilire non soltanto quanti sono gli zeri di un certo polinomio che sono a sinistra dell’asse
immaginario, ma anche quanti sono gli zeri che sono a sinistra di un asse prefissato che abbia coordinate
sull’asse reale pari ad α. A tal fine è sufficiente effettuare una traslazione di assi in α ed esprimere il
polinomio d(λ) secondo le nuove coordinate ⇒ d(λ + α) Assegnata ad esempio, la matrice
µ ¶
0 1
A=
−20 −9
192 8. Elementi di teoria della stabilità
λ2 + 9λ + 20 = 0
il criterio di Routh (Cartesio) assicura che sono a parte reale negativa. L’ulteriore verifica che gli
autovalori abbiano parte reale minore di −3, può essere fatta sul polinomio
(λ − 3)2 + 9(λ − 3) + 20 = 0
che si riduce a
λ2 + 3λ + 2 = 0
ed ha, quindi, zeri a parte reale negativa. In conclusione, gli zeri del polinomio dato hanno parte reale
inferiore a −3
Considerazioni analoghe consentono di comprendere che il criterio di Routh può essere utilizzato
per verificare se gli zeri appartengono ad un settore conico del piano complesso. Una tale circostanza,
se si ricorda il significato dei parametri fisici associati agli autovalori complessi, garantisce la presenza
di evoluzioni temporali con smorzamento superiore ad un valore prefissato e coincidente con il sin θ,
essendo θ l’angolo del settore conico. A tal fine si consideri la trasformazione di variabile
1
λ ← λejθ
L’applicazione del criterio di Routh a tale polinomio consente di calcolare il doppio degli zeri del
polinomio d(λ) che sono esterni al cono di centro (0, 0 ed angolo 2θ. Si tratta degli zeri che sono al di
sopra dell’asse immaginario ruotato di θ e al di sotto dell’asse immaginario ruotato di −θ.
da sviluppare
Sia n ≥ 1, e siano ak e ak , k = 0, 1, .., n − 1, gli estremi di variabilità dei coefficienti del polinomio
caratteristico di un’assegnata matrice.
Infine sia N l’insieme dei polinomi omologhi al polinomio caratteristico i cui coefficienti soddisfano
ai ≤ ai ≤ ai i = 1, · · · , n − 1
g1 (λ) = a0 + a2 λ2 + a4 λ4 + · · ·
g2 (λ) = a0 + a2 λ2 + a4 λ4 + · · ·
h1 (λ) = a1 + a3 λ3 + a5 λ5 + · · ·
h2 (λ) = a1 + a3 λ3 + a5 λ5 + · · ·
an = an = 1
Il matematico russo Karitonov ha dimostrato che ogni polinomio in N è stabile (ha zeri a parte
reale negativa) se e solo se lo sono K11 , K12 , K21 , K22 .
Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare
applicando il criterio di Lyapunov? Un metodo di indagine per un certo aspetto complementare a
quello di Lyapunov è quello fondato sullo studio della stabilità del sistema lineare approssimante il
sistema dato intorno allo stato di equilibrio di cui si vuole studiare la tabilità.
posto
ξ(t) = x(t) − xe
Come vedremo, la stabilità asintotica dell’approssimazione lineare implica la stabilità asintotica locale
dello stato xe rispetto alla dinamica non lineare.
Poiché lo studio riguarda la stabilità asintotica, è opportuno assicurarsi xe sia uno stato di
equilibrio isolato. Come è noto, una condizione sufficiente, ma non necessaria, è che
|J(xe )| =
6 0
194 8. Elementi di teoria della stabilità
La dimostrazione della prima condizione consiste nel verificare che una funzione per l’approssimazione
lineare è una funzione di Lyapunov locale per il sistema non lineare. Si consideri, a tale proposito, la
funzione
V (ξ) = ξ 0 Qξ
con Q soluzione di A0 Q + QA = −P , ciò che assicura che essa sia una funzione di Lyapunov per il
lineare. La stessa funzione
V (x) = (x − xe )0 Q(x − xe )
funzione è una funzione di Lyapunov locale per il sistema nonlineare; infatti è definita positiva intorno
ad xe e la sua derivata lungo il moto è definita negativa in un opportuno intorno di xe .
da sviluppare
Il teorema precedente fornisce condizioni sufficienti di stabilità ed instabilità. Nelle circostanze in cui la
matrice dinamica abbia autovalori a parte reale negativa e nulla, indipendentemente dalla molteplicità
e quindi anche in presenza di instabilità del linearizzato, non è possibile inferire nulla circa la stabilità
o meno del sistema non lineare. Un esempio elementare a tale proposito è rappresentato dalla seguente
dinamica scalare
ẋ = −x3
che, come è facile verificare impiegando il criterio di Lyapunov, ha in x = 0 un equilibrio asintotica-
mente globalmente stabile. Mentre l’applicazione del criterio fondato sullo studio dell’approssimazione
lineare non consente di concludere alcunché.
Per quanto riguarda l’instabilità è possibile dimostrare che se l’approssimazione lineare è instabile per
la presenza di almeno un autovalore a parte reale positiva lo stato di equilibrio xe , del sistema non
lineare dato, è instabile. Altrimenti nulla può essere deciso sulla stabilità del sistema nonlineare.
A titolo esemplificativo, ad un’approssimazione lineare
µ ¶
−1 0
J(xe ) =
1 −3
corrisponderebbe la stabilità di xe nel nonlineare, a
µ ¶
−1 0
J(xe ) = A =
1 3
l’instabilità, a µ ¶ µ ¶
−1 0 0 0
A= A=
1 0 1 0
situazioni indecidibili.
8.7. Esempi di applicazione 195
ẋ1 = x2
k g
ẋ2 = − x2 − sin x1
m l
e gli stati di equilibrio
µ ¶ µ ¶
2hπ (2h + 1)π
= x1e = x2e h = 0, 1, ..
0 0
che come è noto corrispondono al pendolo nelle posizioni verticale verso il basso, e verticale verso
l’alto con velocità iniziale nulla.
Come abbiamo già verificato tali stati di equilibrio, hanno proprietà diverse: quello verticale se per-
turbato tende ad essere abbandonato, l’altro viceversa se perturbato tende ad essere mantenuto. Il
metodo dell’approssimazione lineare restituisce, come è ovvio, lo stesso risultato. L’approssimazione
lineare in corrispondenza di ciascuno di questi stati di equilibrio può essere calcolata a partire dalla
matrice jacobiana µ ¶
0 1
J(x) = −g −k
l cos x1 m | xe
Con la matrice dinamica di tale forma, lo studio della stabilità è immediato in quanto gli elementi
dell’ultima riga rappresentano proprio i coefficienti del polinomio caratteristico cambiati di segno. Si
ha quindi nel primo caso
µ ¶
0 1 k g
Ā = g −k → |λI − A| = λ2 + λ − polinomio caratteristico
l m m l
quindi una variazione nei coefficienti cioè uno zero a parte reale positiva (autovalore a parte reale
positiva), il che implica l’instabilità dello stato di equilibrio rispetto alla dinamica non lineare. Nel
secondo µ ¶
0 1 k g
A = −g −k → |λI − A| = λ2 + λ +
l m m l
e due zeri a parte reale negativa, cioè stabilità asintotica dell’approssimazione lineare, quindi stabilità
asintotica locale della posizione di equilibrio, corrispondente al pendolo verso il basso.
196 8. Elementi di teoria della stabilità
Equazione logistica
La seguente equazione differenziale non lineare
viene assunta a rappresentare la crescita di una popolazione in assenza di limitazione sulle risorse.
Infatti la soluzione di un’equazione di questo tipo bene rappresenta la crescita di una popolazione
nelle citate condizioni. In tale equazione ci sono due valori di equilibrio:
x(a − kx) = 0
xe1 = 0
a
xe2 =
k
Si può utilizzare il metodo dello studio della stabilità mediante linearizzazione per studiare la stabilità
di questi due stati di equilibrio. La matrice jacobiana in questo caso è lo scalare:
J(xe ) = (a − 2kx)xe
e
per xe2 si ha J(xe2 ) = −a
Il risultato è ora evidente: essendo a una costante positiva il primo stato di equilibrio è instabile,
mentre lo stato di equilibrio ka è stabile asintoticamente.
Modello preda-predatore
Come già visto il modello adatto a rappresentare l’interazione tra due specie è del tipo
(
ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
dove x1 e x2 rappresentano la densità delle due popolazioni e si è assunto che la popolazione preda (x1 )
cresce secondo un andamento eponenziale, in assenza di limitazioni di risorse mentre la popolazione
predatrice (x2 ) decresce in assenza di interazione con la preda, in quanto il suo unico nutrimento è
la preda stessa, secondo un andamento esponenziale caratterizzato dal coefficiente −c. I coefficienti
a, b, c, d sono tutti positivi. (
x1 (a − bx2 ) = 0
x2 (−c + dx1 ) = 0
8.8. La stabilità esterna nei sistemi lineari 197
a c
x1e = x2e =
b d
L’applicazione del metodo della linearizzazione non consente di concludere, come si può verificare
facilmente in quanto gli autovalori dell’approssimazione lineare hanno parte reale nulla. Si è quindi
in una condizione in cui non si può inferire nulla circa la stabilità dello stato di equilibrio del sistema
non lineare.
Una situazione diversa risulta se si descrive la crescita della preda impiegando l’equazione logis-
tica. Si ha in tal caso
(
ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t) − kx21 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
con stati di equilibrio soluzioni del sistema
(
x1 (a − bx2 − kx1 ) = 0
x2 (−c + dx1 ) = 0
(a − bx2 − kx1 ) = 0
c
(−c + dx1 ) = 0 → x1 =
d
µ ¶
c
a − bx2 − k =0
d
a kc
x2 = −
b db
µ c
¶
d = xe
a
b − bdkc
appare, quindi, un nuovo stato di equilibrio che è positivo quando ad − kc > 0 o, ciò che è lo stesso,
a c
k > d . Tale condizione si esprime dicendo che la capacità portante della specie preda deve essere
sufficientemente elevata per poter reagire alla capacità di preda del predatore. Tale stato di equilibrio
è positivo ed ha un significato fisico, nel contesto che si sta esaminando.
L’applicazione del metodo rispetto a tale stato di equilibrio consente di verificare la sua stabilità asin-
totica locale. I passaggi sono lasciati per esercizio. Il risultato matematico spiega bene un fenomeno
che in presenza di condizioni di competizione tra due specie preda - predatore, si verifica nella re-
altà. A seguito di una perturbazione rispetto a una data condizione di equilibrio insorge un fenomeno
oscillatorio che converge verso lo stato di equilibrio.
198 8. Elementi di teoria della stabilità
1. kψ(t)k < k1 ∀t ≥ 0
Z t
2. kW (r)kdr < k2 ∀t ≥ 0
0
La condizione 1. è equivalente a ( ¶
Re(λ0,1
i )≤0
Re(λ0>1
i )<0
cioè: gli autovalori associati a modi naturali osservabili devono avere parte reale non positiva se sono
semplici e parte reale negativa se sono multipli. La condizione 2. è equivalente a
Re(λ0,e
i )<0
cioè: gli autovalori associati a modi naturali eccitabili ed osservabili devono avere parte reale negativa.
La 2. è condizione necessaria e sufficiente di stabilità esterna nello stato zero; la 1. e la 2.
simultaneamente sono condizioni necessarie e sufficienti per la stabilità esterna in qualsiasi stato.
non limitato nell’integrale in W (t)) scegliendo x0 e/o u = cost è allora possibile mostrare che g non
è limitata.
Premesso che le definizioni rimangono invariate, lo studio sinora condotto consente di comprendere
che la condizione di stabilità asintotica dei sistemi lineari a tempo discreto è che gli autovalori abbiano
modulo minore di uno. La verifica può essere condotta impiegando diversi criteri; tra questi quelli
qui di seguito esposti.
Una primo criterio è rappresentato dal criterio di Routh stesso.
Con riferimento al polinomio
la sostituzione di variabile
s+1
z←
s−1
corrisponde ad effettuare una trasformazione del cerchio unitario al semipiano negativo del piano
complesso. Sul polinomio in s è ora possibile applicare il criterio di Routh ed ottenere le informazioni
sulla stabilità; infatti gli zeri in z con modulo > 1 corrispondono a zeri in s a parte reale maggiore di
zero.
Un secondo criterio è il cosiddetto criterio di Jury che consiste, al pari di quello di Routh, nel verificare
che tra i coefficienti di una tabella costruita ad hoc siano verificate precise condizioni.
200 8. Elementi di teoria della stabilità
Teorema 9. Un sistema lineare stazionario a tempo discreto è asintoticamente stabile se e solo se,
costruita la tabella di Jury le seguenti condizioni sono soddisfatte
d(1) > 0,
(−1)n d(−1) > 0,
|an | > |a0 |, |b0 | > |bn−1 |, · · · |t0 | > |t2 |.
1 1 0, 5
Come per i sistemi a tempo continuo un ulteriore criterio di indagine sulla stabilità è rappresentato
dal criterio di Lyapunov. Si tratta di un criterio di grande generalità e potenzialità di impiego non
limitato al contesto lineare.
lo stato di equilibrio xe è localmente stabile, asintoticamente stabile, se esiste una funzione V (x)
definita positiva in un certo intorno dello stato di equilibrio, Ixe , e la sua differenza prima:
¡ ¢
∆V (x) = V f (x(t)) −V (x(t))
¡ ¢ x22 x21
V f (x(t)) = + =
(1 + x22 )2 (1 + x22 )2
x21 + x22 V (x)
= 2 =
(1 + x2 ) 2 (1 + x22 )2
V (x)
∆V (x) = − V (x)
(1 + x22 )2
à !
1
∆V (x) = − 1 V (x) ≤ 0
(1 + x22 )2
Questa ultima quantità è semidefinita negativa e quindi lo stato di equilibrio è uno stato stabile, in
realtà è uno stato di equilibrio globalmente stabile per le note condizioni di illimitatezza della V e di
validità delle condizioni su tutto lo spazio.
Anche con riferimento ai sistemi a tempo discreto nel caso lineare il criterio si particolarizza
dando vita a condizioni necessarie e sufficienti di facile verifica.
Condizione necessaria e sufficiente per la stabilità asintotica del sistema dato, è che la seguente
equazione
A0 QA − Q = −P
ammetta soluzione unica in Q simmetrica e definita positiva, per ogni P fissata, anche essa simmetrica
e definita positiva.
202 8. Elementi di teoria della stabilità
Quindi la formulazione è identica al caso precedente, ciò che cambia è la struttura dell’equazione.
Anche in questo caso in genere si fissa P = I; se questa equazione non ammette una soluzione, se la
soluzione non è unica, se non è definita positiva, si può concludere che il sistema non è asintoticamente
stabile.
Per la dimostrazione si procede come nel caso dei sistemi a tempo continuo. Per la sufficienza, si fissi
V (x) = x0 Qx
ma P è definita positiva e quindi −x0 P x è globalmente definita negativa. Ciò dimostra la stabilità
asintotica globale del sistema.
Per la necessità si procede in modo formalmente analogo a quanto visto nel caso a tempo continuo
mostrando che
∞
X
Q= A0k P Ak
0
è soluzione dell’equazione unica simmetrica e definita positiva. Anche in questo caso il criterio si
riconduce alla risoluzione di n(n+1)
2 equazioni lineari.
Interessante è il confronto tra il criterio di Routh e quello di Lyapunov in merito alla complessità
dei calcoli in termini di numeri di operazioni. Ovviamente tutto dipende dalla struttura della matrice
dinamica; in presenza di un numero elevato di elementi nulli nella matrice A può risultare conveniente
applicare il criterio di Routh in quanto non si deve dimenticare che per applicare il criterio di Routh
è necessario preliminarmente calcolare il polinomio caratteristico.
Dunque nel contesto lineare, anche per i sistemi a tempo discreto, il criterio di Lyapunov si
particolarizza dando vita a condizioni necessarie - sufficienti. Ciò non accade nel contesto non lineare
ove la possibilità di pervenire ad una verifica positiva della stabilità è collegata al calcolo di una
funzione che soddisfi alle condizioni note. Questo aspetto rende di difficile applicazione il metodo nei
casi in cui la verifica non abbia avuto esito positivo impiegando le funzioni definite positive quadratiche
elementari.
Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare
applicando il criterio di Lyapunov ? Anche nel contesto discreto un ruolo complementare è svolto dal
metodo fondato sullo studio della stabilità sulla base dell’approssimazione lineare.
8.9. Condizioni e criteri per i sistemi lineari a tempo discreto 203
Il metodo è relativo all’impiego dell’approssimazione lineare intorno ad uno stato di equilibrio per
studiare la stabilità di uno stato di equilibrio di un sistema non lineare.
è di equilibrio, come è immediato verificare. La verifica della stabilità di tale stato di equilibrio
equivale alla verifica della convergenza dell’algoritmo per il calcolo della radice quadrata. Se si ha
√
stabilità intorno a a, ciò assicura che l’implementazione dell’algoritmo, consente di convergere verso
√
la soluzione: a.
L’applicazione del metodo di analisi fondato sulla linearizzazione consente di verificare, che per op-
portuni valori del parametro a, l’algoritmo in questione converge. Si ottiene, infatti,
√
J(xe ) = (1 − 2 a)
⇓
√
0 < a < 1 ⇔ |1 − 2 a| < 1
√
Da questa analisi si ricava che per 0 < a < 1 la soluzione xe = a può essere senz’altro calcolata con
l’algoritmo dato.
Il risultato ottenuto ha una validità locale e rimane non definito il massimo scostamento ammesso
dalla condizione iniziale rispetto al valore vero (quello di equilibrio). Un’informazione più precisa circa
l’eventuale scostamento, la regione di stabilità, può essere ottenuto utilizzando il criterio di Lyapunov
con
V (x) = |a − x2 |
Il calcolo della V (x(t + 1)) e ∆(V (x)) consentono di verificare senza difficoltà se si assume 0 < a < 1
che
0≤x≤1
In presenza di due beni concorrenti, la domanda e l’offerta possono con buona approssimazione
rappresentate dalle seguenti equazioni
(
d(t + 1) = Ap(t + 1) + d0
o(t + 1) = Ep(t) + o0
Per comprendere la generalità del criterio si deve fare riferimento al calcolo della rappresentazione
con lo stato di un sistema S a partire dalle rappresentazioni dei sottosistemi. Quindi a partire da un
sistema S definiti l’ingresso e l’uscita, aperti alcuni nodi per rendere il grafo di flusso aciclico, avendo
indicato con S = sorgenti e P = pozzi alcune parti della separazione dei nodi, si è praticamente
associata una rappresentazione con lo stato al sistema con i nodi aggiuntivi, nodi ingresso e nodi di
uscita, una rappresentazione del tipo:
ẋ = Ax + Bu + Bs S
y = Cx
p = Cp x
A partire dalle matrici dinamiche dei sottosistemi Si che caratterizzano il sistema complessivo cioè a
partire dalle (Ai , Bi , Ci ) viene prima individuata la matrice A che caratterizza il sottosistema S poi
a partire da questa viene individuata la matrice (A + Bs Cp ) che è la matrice dinamica del sistema
complessivo, ora si potrebbe verificare facilmente che in un sistema interconnesso caratterizzato dal
fatto che il grafo di flusso non ha cicli, la proprietà di stabilità è mantenuta, cioè è equivalente alla
proprietà di stabilità dei sottosistemi; il sistema complessivo è stabile se e soltanto se sono stabili i
sottosistemi.
In realtà la cosa si complica per la presenza di alcuni cicli, i quali possono comportare delle modifiche
per quanto riguarda la proprietà di stabilità, infatti la matrice dinamica cambia e da A diventa
(A + Bs Cp ).
In sostanza queste considerazioni suggeriscono il seguente fatto: dal punto di vista della stabilità
questo sistema interconnesso è equivalente ad un sistema del tipo:
(
ẋ = Ax + Bs u
y = −Cp x
u=v−y
Ciò significa che in realtà lo studio della stabilità di un sistema a controreazione unitaria è uno studio
abbastanza generale, perchè la matrice dinamica che si ottiene per rappresentare sistema interconnesso
generico, quando viene adottata la suddetta procedura, è una matrice che ha formalmente la struttura
analoga a quella che si ottiene quando si considera un sistema a controreazione unitaria.
Quindi per studiare la stabilità del sistema complessivo, ci si può ricondurre allo studio della stabilità
di un sistema a controreazione unitaria, di un opportuno sistema a controreazione unitaria dove le
matrici degli ingressi e delle uscite sono definite dalle interconnessioni secondo il criterio visto.
Lo studio della stabilità è quindi ricondotto allo studio di un sistema a controreazione unitaria.
L’analisi sarà condotta a partire da un sistema S modificato mediante una controreazione unitaria;
si assume di conoscere le proprietà di stabilità del sistema S. Tale conoscenza si esprime in concreto
nelle del segno della parte reale degli autovalori.
Il risultato che viene nel seguito esposto riguarda lo studio della stabilità a partire dall’indagine del
comportamento in frequenza. Il metodo prende il nome dallo studioso che l’ha proposto.Si tratta del
criterio di Nyquist.
Il sistema complessivo risulterà stabile se il secondo polinomio ha autovalori a parte reale negativa.
Alcuni risultati preliminari devono essere messi in luce. Il primo è rappresentato dalla seguente
uguaglianza
dCH (s)
= |I + F (s)| = |I + C(sI − A)−1 B|
dAP (s)
Infatti
|sI − A + BC| = |sI − A| × |I + (sI − A)−1 BC|
inoltre
vertI + (sI − A)−1 BC| = |sI − A||I + C(sI − A)−1 B|
|Im×m + P Q| = |In×n + QP |
per una generica coppia di matrici P , (m × n), e Q, (n × m). Dalle precedenti uguaglianze si ottiene
cioè
dCH (s)
= |I + C(sI − A)−1 B|
dAP (s)
Un ulteriore risultato preliminare riguarda la variazione di fase che subisce un polinomio P (s) di
variabile complessa, calcolato in jω, quindi P (jω), quando ω nel piano complesso varia da −∞ a
+∞.
P (jω) = k(jω − p1 ) · · · (jω − pn )
Qual’è la variazione di fase che subisce questo numero complesso quando ω varia da −∞ a +∞?
Si asssume, in una prima fase che non vi siano zeri a parte reale nulla. Si devono distinguere due
situazioni: il caso di uno zero positivo dal caso di uno zero negativo.
Il vettore (jω − pi ) generalmente permette di comprendere come varia la fase di ciascuno dei termini
(jω − pi ), la variazione di fase per ogni pi positivo è −π. Per quanto riguarda invece gli zeri con parte
reale negativa pj̇, stesse considerazioni con variazioni di fase +π in senso orario.
Siccome questi sono fattori, la variazione di fase complessiva sarà uguale alla somma delle variazioni
di fase dei singoli fattori, che sono appunto −π per ciascuno zero a parte reale positiva e +π per
ciascuno zero a parte reale negativa. Se il polinomio è di grado n:
∆ϕ (p) = (n − np )π − np π
8.10. Sistemi interconnessi: la stabilità 207
dCH (s)
∆ϕ ( ) = ∆ϕ (1 + F )
dAP (s)
e
∆ϕ (1 + F ) = ∆ϕ + (dCH ) − ∆ϕ(dAP ) =
= (n − zp )π − zp π − (n − pp )π + pp π =
= (−zp + pp )2π
ove si è indicato con zp il numero di autovalori Re > 0 nel sistema a ciclo chiuso Se con pp il numero
di autovalori con parte reale positiva nel sistema S
∆ϕ (1 + F ) = pp · 2π
N = pp
Si ha stabilità asintotica del sistema a controreazione se e soltanto se N , il numero di giri attorno allo
zero che competono alla variazione di fase di 1 + F (jω) quando ω varia da −∞ a +∞, è uguale a pp ,
il numero di autovalori a parte reale positiva del sistema in catena diretta
Se si tiene conto che il vettore (1 + F ) in 0 è uguale al vettore F in (−1, j0); una formulazione
equivalente è: si ha stabilità asintotica del sistema a controreazione se e soltanto se N , il numero di
giri attorno al punto (−1, j0) che competono alla variazione di fase di F (jω) quando ω varia da −∞
a +∞, è uguale a pp , il numero di autovalori a parte reale positiva del sistema in catena diretta
Nel caso particolare in cui nel sistema in catena diretta si abbia pp = 0, si ha il criterio nella sua
forma cosiddetta ridotta
N = 0.
Ricordando le considerazioni svolte a proposito dello studio della stabilità non si troverà difficoltà
nel verificare che con riferimento ad un sistema interconnesso che presenta più sottosistemi in un
unico ciclo a controreazione, lo studio della stabilità si riduce a quello su un sistema a controreazione
unitaria in cui in catena diretta si assume sia presente l’interconnessione in cascata dei sottosistemi
presenti nel ciclo.
Alcuni semplici esempi e l’estensione del criterio al caso in cui in S vi siano autovalori a parte
reale nulla Si consideri il sistema descritto dalla seguente funzione di trasferimento con guadagno, k,
e costanti di tempo, τi , positivi.
k
F (s) =
(1 + τ1 s)(1 + τ2 s)(1 + τ3 s)
208 8. Elementi di teoria della stabilità
L’esame della rappresentazione polare di F (jω) riportata nella figura seguente lascia comprendere
che il sistema a controreazione unitaria è stabile se il punto (1 , j0) è esterno alla curva, in quando
si avrebbe N = 0 = pp , instabile altrimenti, in quanto si avrebbe N = −2 6= pp = 0. Si noti che il
circondamento o meno del punto (−1, j0) da parte della curva dipende, per fissati valori delle costanti
di tempo, dal valore del guadagno k. In particolare al suo crescere il modulo aumenta, ciò che rende
possibile l’attraversamento. E’ usuale nell’impiego del metodo fare riferimento ad un diagramma
tracciato e valutare la stabilità al variare del guadagno modificando di un fattore inverso la scala sugli
assi, ciò che corrisponde a spostare il punto (−1, j0).
(-1,j 0) +∞ 0
-∞
Figura 8.1
In molte situazioni reali si ha a che fare con funzioni di trasferimento che hanno delle singolarità
sull’asse immaginario (equivalenti alla presenza di autovalori a parte reale nulla nella matrice dinam-
ica). In questo caso il diagramma polare non può essere chiuso, e se il diagramma non è chiuso non
si possono calcolare il numero di giri attorno il punto (−1; j0)? Si consideri ad esempio il sistema:
k k>0
= F (s) τ >0
(1 + τ s)s
-
0
(-1,j 0) -∞
+∞
+
0
Figura 8.2
8.10. Sistemi interconnessi: la stabilità 209
Quindi il diagramma va chiuso e il risultato è diverso secondo il verso in cui si chiude il diagramma.
Per superare questa ambiguità si deve proseguire come segue:
non si considera più il diagramma polare, ma il diagramma di Nyquist, cioè il diagramma in cui si va a
costruire l’immagine secondo la funzione F non più dell’asse immaginario, ma del cosiddetto percorso
di Nyquist: un percorso uncinato che coincide con l’asse immaginario in quasi tutti i punti, ma che
intorno ai punti singolari, i poli della F che si trovano sull’asse immaginario, lascia degli uncini cioè
li evita, e per convenzione si stabilisce che questo percorso uncinato lasci i poli che hanno parte reale
nulla a sinistra, cioè li ”consideri” a parte reale negativa. Con questa convenzione anche gli autovalori
a parte reale nulla di S saranno considerati nel semipiano complesso negativo. Si noti che, inoltre,
con tale convenzione, pp = 0 non corrisponde ad un sistema in catena diretta necessariamente stabile
e neppure al limite di stabilità.
Ora si consideri questo percorso uncinato, a questo corrisponde un’immagine secondo la funzione F ,
che è una curva chiusa in quanto il punto di singolarità è stato escluso. Come è fatta la chiusura della
curva?
Si deve fare riferimento allo studio delle funzioni analitiche e al fatto che la funzione F (s) è un rapporto
tra polinomi; quindi una funzione analitica che induce trasformazioni conformi,cioè che mantengono
gli angoli e i versi di percorrenza. Quindi se nel dominio per andare dal punto A al punto B, si per-
corre un uncino e ad un uncino corrisponde una variazione di fase di π, anche nell’immagine accadrà
la stessa cosa e quindi si deve fare una rotazione di π, inoltre si mantengono i versi di percorrenza,
che in questo caso lasciano a sinistra il punto singolare e quindi anche il punto corrispondente, cioè
il punto immagine deve essere lasciato a sinistra. Il punto immagine è il punto improprio che sta
all’infinito, ciò significa che la chiusura del diagramma di Nyquist si deve fare lasciando a sinistra il
punto improprio che è l’immagine del punto singolare.
Torniamo all’esempio; in questo caso effettuata la chiusura si vede che il punto (−1; j0) rimane
esterno, indipendentemente dal valore del guadagno.
N = pp = 0
(s + 1)
F (s) = −
10s(1 − s)(1 + s
10 )
Si tratta di tre termini binomi con pulsazioni di rottura pari a 1 e 10. L’andamento del modulo è
sempre decrescente come si verifica facilmente. Per quanto riguarda la fase sono presenti due contributi
tra zero e π2 con pulsazione di rottura ω = 1; uno tra zero e −π2 con pulsazione di rottura ω = 10 ed
un contributo di fase costante e pari a 2 . Questo basta per comprendere che la fase varia tra −3π
−3π
2
e −π e che, per la collocazione del polo in +1 e dello zero in −1, una decade prima del secondo polo,
la fase raggiunge valori maggiori di −π. Dall’andamento riportato in figura
210 8. Elementi di teoria della stabilità
+
0
(-1,j 0) -∞
+∞
-
0
Figura 8.3
Ricordando le considerazioni svolte a proposito dello studio al variare del guadagno, si comprende
che per quanto riguarda la stabilità il sistema a controreazione unitaria sarà instabile per valori del
guadagno inferiori ad un valore critico, k ∗ , stabile per valori superiori.
Come valutare k ∗ ?
A tale proposito si potrà utilizzare il criterio di Routh al polinomio caratteristico a ciclo chiuso:
k(s + 1)
F (s) =
s(s − 1)(s + 10)
F (s)
W (s) =
1 + F (s)
k(s + 1)
W (s) =
s3 + 9s2 + (k − 10)s + k
Si nota preliminarmente che k > 10 è necessario. Il valore critico potrà essere 10 o altro eventuale
valore maggiore corrispondente alla variazione di segno di qualche coefficiente della prima colonna
della tabella. Si ha:
1 k − 10
9 k
8k−90
9
k
s+1
F (s) = sistema instabile in catena diretta pp = 0
s2
s+1
F (s) =
s2 + 1
Applicato il criterio di Nyquist, si verificherà che per ogni valore di k positivo, entrambi i sistemi a
controreazione unitaria sono asintoticamente stabili.
Le seguenti considerazioni sono utili per decidere della stabilità nel caso in cui vi siano autovalori a
parte reale nulla in dAP e/o in dCH . Sia jω0 un punto dell’assse immaginario e si indichi con mAP ed
mCH la molteplicità con cui tale punto è eventuale zero dei suddetti pilinomi. Si supponga, inoltre,
noto mAP . Se 1 + F (jω0 ) = c 6= 0, mCH = mAP e si avrà stabilità semplice se mAP = 1, instabilità
se mAP > 1. Se F (jω0 ) = −1, mCH > mAP ciò che comporta instabilità se mAP > 0 e stabilità
semplice se mAP = 0 ed mCH = 1; quest’ultima condizione sussiste se la fase di F (jω0 ) vale π. Se,
infine, F (jω) = ∞, mAP > mCH e si ha stabilità se la chiusura comporta una rotazione di mAP π.
Fino ad ora si è visto come decidere della stabilità partendo dal diagramma di Nyquist, però
questo diagramma è stato dedotto da quello di Bode, quindi alcune informazioni sulla stabilità del
sistema a controreazione sono già contenute nel diagramma di Bode del sistema in catena diretta. E’
infatti possibile valutare, in alcuni casi importanti, le condizioni di stabilità sui diagrammi di Bode.
Questo lo faremo con riferimento ad un sistema in catena diretta privo di poli a parte reale positiva.
Con riferimento al caso in cui il sistema a controreazione sia stabile, e quindi che il punto (−1; j0) sia
a sinistra dell’attraversamento; si possono introdurre due parametri che rendono conto della stabilità
del sistema.
Uno di essi è il modulo della F quando la fase è −π; se è minore di uno, negativo in dB, il sistema
sarà stabile. Tanto è minore di uno tanto maggiore sarà la stabilità. Si usa dare a tale parametro, il
valore del guadagno quando la fase è −π, il nome di margine di guadagno in quanto ci dice di quanto
si può modificare il guadagno del sistema per arrivare ad una situazione che sia limite di stabilità.
L’altro parametro a cui è forse più comune fare riferimento è il cosiddetto margine di fase e
corrisponde alla variazione di fase necessaria a condurre al limite di stabilità.
mϕ = π − faseF|F |=1
Con l’introduzione di questi ultimi aspetti lo studio della stabilità di un sistema a controreazione
viene ricondotto, siapure in un caso particolare, ad un’indagine sui diagrammi di Bode della funzione
di trasferimento in catena diretta, quindi dei diagrammi che caratterizzano il comportamento in
frequenza dei sistemi in catena diretta. Inoltre i due parametri introdotti misurano, se si è in presenza
di stabilità, un margine che rappresenta anche una specifica di robustezza al variare dei parametri
rispetto alla proprietà di stabilità stessa.
In conclusione il margine di guadagno mg esprime quantitativamente il mantenimento della stabilità
al variare del guadagno k, della funzione di trasferimento dell’anello; il margine di fase mϕ esprime
quantitativamente il mantenimento della stabilità al variare della fase del ciclo aperto. Questo col-
legamento con il comportamento in frequenza è molto importante dal punto di vista ingegneristico
come si avrà occasione di verificare nello studio dei sistemi di controllo.
—–
9. Struttura interna, intervento e osservazione
Lo studio sinora condotto ci ha fatto ben comprendere che le principali caratteristiche di com-
portamento di un sistema dinamico dipendono dalla collocazione degli autovalori nel piano complesso.
Inoltre come messo in evidenza nello studio dei sistemi interconnessi la collocazione degli autovalori
risulta alterata da connessioni a controreazione. La più semplice delle interconnessioni a controre-
azione può essere intesa come un intervento sul sistema impiegando misure, osservazioni, del suo
comportamento.
Si vuole mostrare nelle pagine seguenti che le proprietà di raggiungibilità e osservabilità degli stati
hanno un rilievo particolare dal punto di vista dell’intervento e dell’osservazione, rispettivamente. Da
un punto di vista complessivo, inoltre, mostreremo che esse esprimono in modo preciso le potenzialità
di modifica del comportamento dinamico mediante una interconnessione del tipo citato.
Lo studio prende le mosse dallo schema di figura. Per quanto riguarda l’intervento, mostreremo
che la raggiungibilità esprime proprio la possibilità di modificare gli autovalori agendo sul sistema
tramite i canali di ingresso: più precisamente sono modificabili tutti e soli gli autovalori associati
al sottosistema raggiungibile. Inoltre, per quanto riguarda le misure, mentre la presenza di stati
inosservabili rispetto ad esse comporta impedimenti alla ricostruzione di differenti evoluzioni nello
stato, in condizioni di completa osservabilità non solo è possibile ricostruire il comportamento interno,
ma è possibile farlo fissando ad arbitrio la rapidità di convergenza. Più precisamente mostreremo che
la velocità di ricostruzione è limitata dalle proprietà degli autovalori del sottosistema non osservabile.
v(t)
S
u(t)
C
y(t)
m(t)
Figura 9.1
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 213
Con riferimento all schema di figura in cui S descrive il sistema dinamico assegnato
(
ẋ = Ax + Bu
S: x(0) ∈ Rn
y = Cx
S: ẋ = Ax + Bu
C: u = F x + Gv |G| =
6 0
SF : ẋ = (A + BF )x + BGv
Ciò premesso possiamo domandarci come variano, al variare della matrice F gli autovalori della
matrice (A + BF ) e, più in particolare formulare il seguente problema.
Problema dell’assegnabilità degli autovalori: Sotto quali condizioni in corrispondenza di un’arbitraria
assegnata n-pla di numeri complessi esiste una F tale che (A + BF ) ha autovalori coincidenti con la
fissata n-pla ?. Inoltre, come calcolare la matrice di guadagni in controreazione, F , associata a tale
collocazione.
Alcune osservazioni preliminari:
Osservazione 1. Sia x̃ = T x, |T | =6 0. Se F è la matrice di guadagni che assegna gli autovalori da x,
F̃ = F · T −1 assegna gli autovalori da x̃. Infatti
x = T −1 x̃ ⇒ u = F x = F T −1 x̃ = F̃ x̃
e le matrici dinamiche delle due rappresentazioni hanno gli stessi autovalori perchè matrici simili
Osservazione 2. E’ possibile modificare gli autovalori del solo sottosistema raggiungibile. Supponi-
amo,infatti, che il sistema non sia tutto raggiungibile, cioè
Sappiamo allora che in una nuova base dello spazio di stato in cui le prime l coordinate definiscono
una base nell’insieme degli stati raggiungibili, cioè x̃ = T x con
µ ¶
−1 ∀base ∀
T =
∈ R(B − An−1 B : |T −1 | =
6 0
La struttura delle matrici à e B̃ consente di verificare facilmente che non è possibile modificare gli
autovalori del sottosistema non raggiungibile. Posto, infatti
F̃ = ( F̃1 F̃2 )
risulta µ ¶
A11 + B1 F̃1 A12 + B1 F̃2
à + B̃ F̃ =
0 A22
e, la struttura triangolare consente di affermare che gli autovalori del sottosistema non raggiungibile
caratterizzato da x̃˙ = A22 x̃ rimangono invariati. Inoltre poichè la scelta di F̃2 non influenza gli
autovalori si usa assumere F̃2 = 0.
Le osservazioni precedenti mostrano anche che la matrice F può essere scelta senza perdita di
generalità della forma
F = ( F̃1 0)T
con T una qualsiasi trasformante che manifesti la scomposizione rispetto alla raggiungibilità.
Alla luce di quanto messo in evidenza, nel seguito si supporrà (A, B) raggiungibile. Al variare di
F infatti, potranno variare solo gli autovalori che competono al sottosistema raggiungibile. Rimane
infatti dimostrato che la raggiungibilità è condizione necessaria per la risoluzione del problema dell’
assegnabilità degli autovalori.
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 215
Un caso particolare
Una situazione particolarmente semplice è quella in cui la rappresentazione è nella cosiddetta
forma canonica raggiungibile
0
0 1 ···
· ··
ẋ = Ac x + bc u Ac = 1 bc =
0
−a0 · · · −an
1
che prende il nome dalla manifesta raggiungibilità della coppia (Ac , bc ).
Fissati ad arbitrio n numeri complessi e calcolato il polinomio di grado n a coefficiente di grado
massimo unitario di cui i dati numeri sono zeri
A tale proposito basta ricordare che la struttura della matrice dinamica è quella canonica che presenta
i coefficienti del polinomio caratteristico sull’ultima riga.
Il caso generale
Assegnato
ẋ = Ax + bu (A, b) raggiungibile
si mostrerà che esiste Tc tale che
Tc ATc−1 = Ac T c b = bc
In base a quanto osservato calcolata una tale Tc ed Fc sulla forma canonica per una arbitraria
scelta degli autovalori, F = Fc · Tc corrisponderà alla coppia (A, b).
Per quanto riguarda il calcolo di Tc , si procede nel modo seguente: Sia R = (b . . . An−1 b) e indicato
con γ l’ultima riga di R−1 si scelga
γ
·
Tc =
γA
γAn−1
che è invertibile in quanto lo sono le matrici Tc R ed R
0 01
−
Tc R = ⇒
0
1 − −
216 9. Struttura interna, intervento e osservazione
⇒ |Tc | =
6 0 poichè |R| =
6 0
dove p∗ indica il polinomio caratteristico che si desidera assegnare e p∗ (A) la matrice che si ottiene
sostituendo in esso la matrice A al posto della variabile λ
Rimane quindi verificato che se (A, b) è raggiungibile per una opportuna controreazione dallo stato
F 0 ed una trasformazione di coordinate Tc si ottiene
0
0 1
|
Tc (A + bF 0 )Tc−1 = 1 = AB Tc b = = bB
0
0 ... 0
1
k2 K g
α=− β= J = Jm + ml Ω2 = J
JR JR l + ml
µ ¶ µ ¶
0 1 0
A= b=
Ω2 −α β
µ ¶
0 β
R= γ = ( 1b 0 )
β −αβ
se p∗ (λ) = α0 + α1 λ + λ2
¡ −α0 ¢ ¡ −α1 ¢ ¡ Ω2 ¢
F = −γp∗ (A) = −γ(α0 + α1 A + A2 ) = β 0 + 0 β + β
−α
β
¡ Ω2 −α ¢
= β
0
− α+α
β
1
Tale scelta corrisponde ad una collocazione nel piano complesso negativo con modulo costante e
fase tale da dividere l’angolo con centro nell’origine rispetto all’asse immaginario in 2k + 1 angoli
uguali.
Un caso particolare
Si assume che il sistema sia in forma canonica raggiungibile e, per semplicità di scrittura, che
abbia m = 2 ingressi
ẋ = Ac + Bc u
0 1 0 0
1 · ·
1 0 0
Ac = −a10 . . . . . . −a1n1 −a1n1 +1 . . . −a1n1 +n2 Bc = 1 0
0 0 0 1 0 0
· · 1 · ·
−a20 . . . . . . −a2n1 −a2n1 +1 . . . −a2n1 +n2 0 1
218 9. Struttura interna, intervento e osservazione
n1 + n 2 + . . . + nm = n
Una tale coppia (Ac , Bc ) è raggiungibile e scelti ad arbitrio n autovalori, che immagineremo rag-
gruppati in modo consistente con la partizione di Ac , possiamo calcolare i polinomi caratteristici
corrispondenti
λ∗1 , . . . , λ∗n ⇒ λ1∗ 1∗ 2∗ 2∗ m∗ m∗
1 . . . λn1 , λ1 . . . λn2 . . . λ1 . . . λnm
Il caso generale
Assegnato il sistema ẋ = Ax + Bu, con (A, B) raggiungibile si mostrerà che esistono matrici
(Tc definisce una trasformata di coordinate in x, Qc , una trasformazione di coordinate sugli ingressi)
tali che
à = Tc ATc−1 = Ac B̃ = Tc BQc = Bc
Osservazione 5. Si assumerà nel seguito che rango (B) = m (numero degli ingressi). Se cosı̀ non
fosse (rango (B) = m1 < n esisterebbe Q1 tale che BQ1 = ( B1 0 ) con rango (B1 ) = m1 e la
seguente procedura può essere applicata a B1 .
b1 . . . . . . bm2 . . . . . . bm1 . . . . . . bm
Ab1 . . . . . . . . . . . . . . . Abm1
A2 b1 . . . . . . . . . A2 bm2
An1 −1 b1 . . . An1 −1 bmn1 −1
che definisce una base dello spazio di stato che soddisfa, a seguito di un eventuale riordinamento
degli ingressi, alle condizioni m ≥ m1 . . . ≥ mn1 −1 . Ovviamente, poichè (A, B) è raggiungibile
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 219
Con le scelte fatte per Tc e Qc si calcolerà nel seguito à = Tc ATc−1 e B̃ = Tc BQc . Si ottiene
γ1 γ1
| |
γ1 An1 −1 γ1 An1 −1
| A = Ã |
γ m γ m
| |
γm Anm −1 γm Anm −1
à = Ac
0
0 0
γ1 B |
| |
| 0
0
γ1 An1 −1 B γ1 A n1 −1
B
0
.. .. 1 0
B̃ = Tc BQc =
.
Qc =
.
Qc = = Bc
0 |
γm B 0
| 0
| |
0
γm Anm −1 B 0 0 1
nm −1
γm A B
La matrice F che assegna gli autovalori ad (A, B) è quindi data da:
γ1
..
.
a1n−1
γ1 An1 −1
..
F = Qc Fc Tc = −Qc ... .
an1 γ m
..
.
γm Anm −1
α01 ... αn1 1 −1 0 0 γ1
..
−Qc ... .
0 0 α0m ... γm Anm −1
αnmm −1
γ1 An1 " γ1 p∗1 (A) #
γ1 An1
.. .
= −Qc . + Qc | − .. =
n
γm A nm γm A m ∗
γm pm (A)
γ1 p∗1 (A)
..
= −Qc .
γm p∗m (A)
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 221
Osservazione 6. Non è difficile verificare che con la controreazione −Qc F 0 = F il sistema comp-
lessivo SF è equivalente ad m cascate di n1 , . . . , nm integratori; più precisamente posto x̃ = Tc x si
ha:
x̃˙ 11 = x̃12 x̃˙ 1n1 −1 = x̃1n−1 x̃˙ 1n1 = v 1
1
x̃
.
˙x̃m1 = x̃2
m ˙ m
x̃nm = v m
x̃ = ..
x̃m
In altre parole se (A, B) è raggiungibile esiste una trasformazione degli ingressi (Qc ), una controre-
azione dallo stato (F 0 ) ed una trasformazione di coordinate (Tc ) tali che:
Tc (A + BQc F 0 )Tc−1 = AB Tc Qc B = BB
Un esempio.
1 0 0 0 0, 5 1 0
0 0 0 1 0 0 1
A = 0 1 0 0 2 B = 2 1
0 0 1 0 2 0 0
0 0 0 2 1 0 0
1 0 1
0 0 2
Ab1 = 0 Ab2 = 1 A 2 b1 = 0
2 1 0
0 0 4
1 1 1 0 0
n1 = 3 0 0 2 1 0
R = 2 0 0 1 1
n2 = 2
0 2 0 0 1
0 0 4 0 0
γ1 = ( 0 0 0 0 0, 25 )
γ2 = ( −1 −0, 5 0, 5 0, 5 0, 5 )
222 9. Struttura interna, intervento e osservazione
µ ¶−1 µ ¶−1 µ ¶
γ1 A2 B 1 0, 5 1 −0, 5
Qc = = =
γ2 AB 0 1 0 1
µ ¶
γ1 p∗1 (A)
F = −Qc
γ2 p∗2 (A)
Se, ad esempio,
p∗1 (λ) = (1 + λ)3 = λ3 + 3λ2 + 3λ + 1 → p∗1 (A)
p∗2 (λ) = λ2 + 2λ + 1 → p∗2 (A)
..
.
0 1 0
µ ¶ 0 0 1 0
γ1 A3
F0 = − 3 Tc (A + BQc F 0 )Tc−1 = 0 0 0
γ2 A2
0 1
0 0 0
0 0
0 0
Tc BQc = 1 0
0 0
0 1
Dato il sistema S un sistema dinamico lineare θ avente per ingressi gli ingressi e le uscite di S
e per uscite n variabili, z1 , . . . , zn (in numero pari alle variabili di stato di S), è detto ricostruttore
asintotico dello stato se il vettore z(t) tende asintoticamente a x(t).
( )
ẇ = F w + Gu + Ky
θ:
z = Hw + Ly
z = C ] y = C ] Cx = x
In questo modo non è però possibile modificare la velocità di convergenza, comunque esponenziale,
con la quale w tende ad x. Tale velocità dipenderà dagli autovalori di A.
u(t) y(t)
S
+
-
y(t)
CS
Figura 9.2
dove CS rappresenta una copia di S modificata nella dinamica mediante un intervento proporzionale
allo scostamento tra y e ỹ. Si ottiene in tal modo:
ẇ = Aw + Bu + K(y − ỹ)
= (A − KC)w + Bu + Ky
In queste condizioni è facile rendersi conto del fatto che è possibile fare in modo che w tenda ad x
con velocità comunque assegnabile (problema dell’osservatore) se e solo se la matrice (A − KC) ha
autovalori comunque assegnabili al variare di K. Infatti:
L’analogia con il problema studiato nella sezione precedente è completamente compresa se si osserva
che la collocazione degli autovalori di (A − KC) al variare di K è riconducibile a quello studiato.
Basta osservare che una matrice e la sua trasposta hanno gli stessi autovalori
e quindi si perviene ad un problema di assegnazione del tipo studiato in cui (AT , −C T ) prende il
posto della coppia (A, B).
Mostreremo ora che la proprietà di osservabilità svolge in questo problema il ruolo della proprietà
di raggiungibilità. Se, infatti il sistema è tutto osservabile, cioè
C
ρ | =n
n−1
CA
la dinamica del ricostruttore può essere fissata ad arbitro e indicato con p∗ (λ) il polinomio caratter-
istico che si vuole assegnare alla matrice (A − KC) si ha
K T = −η T p∗ (AT )
ove si è indicato con η T l’ultima riga dell’inversa della matrice di raggiungibilità costruita con AT e
−C T . E’ semplice verificare che a meno del segno η coincide con l’ultima colonna dell’inversa della
matrice di osservabilità e, passando ai trasposti, si ottiene
K = p∗ (A)η
Nel caso generale di rappresentazione non osservabile il calcolo di un ricostruttore più rapido di
−αt
e , α > 0 assegnato, si riconduce ad una assegnazione parziale di autovalori e per questo problema
valgono le stesse considerazioni svolte nell’osservazione 2. che vengono qui ripetute nel caso specifico
à T !
C
− | =m≤n
n−1
CA
µ ¶
A11 A12
∃T : T AT −1 = CT −1 = ( C1 0 )
0 A22
se, e solo se σ(A22 ) ∈ C −α il problema ha soluzione. Per calcolare il ricostruttore, si calcola K̃1 tale
che σ(A11 − K1 C1 ) ∈ C −α , e si ottiene
µ ¶
−1 K̃1
K=T
0
In sintesi, condizione necessaria e sufficiente affinchè dato α esista un ricostruttore ”più rapido” di
e−αt è che gli autovalori di A associati a modi naturali non osservabili appartengono a C −α .
Come già detto un caso particolare, equivalente al problema della stabilizzazione, corrisponde alla
scelta α = 0, esistenza di un ricostruttore. Condizione necessaria e sufficiente per la sua risoluzione è
che il sottosistema non osservabile sia stabile.
Infine condizione necessaria e sufficiente affinchè ∀α esista un osservatore ”più rapido” di e−αt (
problema dell’osservatore), è che (A, C) sia osservabile.
226 9. Struttura interna, intervento e osservazione
In quanto segue senza ambiguità ed in linea con la terminologia adottata nella letteratura, si
userà indistintamente il termine osservatore e ricostruttore per indicare un dispositivo che ricostruisce
asintoticamente lo stato.
Una domanda si pone naturalmente: γ, la dimensione della dinamica di un dispositivo che ri-
costruisce l’evoluzione dello stato, deve essere necessariamente pari ad n o può essere inferiore ? In
effetti se ρ(C) = q1 ≤ q sono già disponibili q1 relazioni indipendenti tra le variabili di stato, la
ricostruzione asintotica di (n − q1 ) variabili di stato deve poter consentire la ricostruzione asintotica
di tutto lo stato.
Su questa base nel seguito viene mostrato come costruire un osservatore in cui γ = n − q1 ; un tale
osservatore viene detto ridotto in quanto la dimensione dello stato è minima.
Assegnato S, supponiamo che ρ(C) = q, se cosı̀ non è, ρ(C) = q1 < q, possiamo calcolare Q tale che
µ ¶
C1
QC =
0
Assumiamo quindi che ci siamo q uscite indipendenti e sia P ∈ Rq × Rq , non singolare, tale che
PC = (I C2 ) I(q × q) identità
v = P y = x1 + C2 x2
Poichè si richiede che z2 → x̃2 i seguenti passaggi conducono a successive scelte che consentano alla
dinamica di ξ = z2 − x̃2 di convergere verso lo zero.
⇒ H̃ = I G̃ = B̃2 − L̃B̃1
ż2 − x̃˙ 2 = F̃ z2 − F̃ L̃v + K̃v + L̃Ã11 v + L̃Ã12 x̃2 − Ã21 v − Ã22 x̃2
F̃ = Ã22 − L̃Ã12
ξ(t) = eF̃ t ξ0
tali scelte riducono il problema a quello di assegnare gli autovalori ad (Ã22 − L̃Ã12 )
Non è difficile verificare che gli autovalori di F̃ possono essere assegnati ad arbitrio se e solo se la
coppia (A, C) è osservabile. Per verificare questo si considerino i seguenti sistemi S1 ed S2
( µ ¶µ ¶ (
ẋ1 A11 A12 x1 ϑ̇ = A22 ϑ
S1 = S2 =
ẋ2 A21 A22 x2 η = A12 ϑ
y = x1
⇓
µ ¶ µ ¶
x10 0
=
x20 ϑ0
y
A11
+
∫ X1
A2 1
+
X2
∫ A12
+
A22
Figura 9.3
u = Fz + v
z(t)
F Oss.
Figura 9.4
ẋ = Ax + BF z + Bv
=
ż = (A − KC)z + KCx + BF z + Bv
µ ¶µ ¶ µ ¶
A BF x B
= + v
KC A − KC + BF z B
µ ¶
x
+Ā + B̄v
z
Posto µ ¶
I −I
T =
0 I
La struttura triangolare della matrice a secondo membro mette in luce che gli autovalori del sistema
complessivo risultano essere quelli delle matrici (A + BF ) e (A − KC).
Con riferimento allo schema di controllo con reazione dall’uscita ora esaminato, le ultime con-
siderazioni al di là del problema dell’assegnabilità degli autovalori, che richiede la completa raggiun-
gibilità e osservabilità, consentono di comprendere che il problema dell’assegnazione degli autovalori
ha soluzione se e solo se gli autovalori dei sottosistemi non raggiungibili e non osservabili non devono
essere spostati.
Un problema particolare è quello della stabilizzazione mediante reazione dall’uscita. Tale prob-
lema ammette soluzione utilizzando lo schema indicato se e solo se i sottosistemi non osservabile e
non raggiungibile sono stabili.
Come già detto per la procedura di realizzazione del compensatore si seguono separatamente le
procedure di assegnazione su (A + BF ) e (A − KC).
Con riferimento allo schema di controllo con reazione dall’uscita ora esaminato, le ultime con-
siderazioni al di là del problema dell’assegnabilità degli autovalori, che richiede la completa raggiun-
gibilità e osservabilità, consentono di comprendere che il problema dell’assegnazione degli autovalori
ha soluzione se e solo se gli autovalori dei sottosistemi non raggiungibili e non osservabili non devono
essere spostati.
Un problema particolare è quello della stabilizzazione mediante reazione dall’uscita. Tale prob-
lema ammette soluzione utilizzando lo schema indicato se e solo se i sottosistemi non osservabile e
non raggiungibile sono stabili.
Come già detto per la procedura di realizzazione del compensatore si seguono separatamente le
procedure di assegnazione su (A + BF ) e (A − KC).
Un’ultima considerazione riguarda la collocazione degli zeri della funzione di trasferimento del
sistema complessivo. Il calcolo può essere effettuato senza difficoltà nelle nuove coordinate in cui
µ ¶ µ ¶
−1 A − KC 0 −1 0
T AT = CT = (C C) TB =
KC A + BF B
Sviluppando il calcolo in virtù della presenza dei blocchi di zeri nella matrice dinamica e nella matrice
degli ingressi si ottiene
W (t) = Ce(A+BF )t B
Il sistema complessivo ha dunque poli coincidenti con gli autovalori assegnati mediante F e zeri
coincidenti con gli zeri del processo. I rimanenti autovalori assegnati mediante la matrice K, che
sappiamo essere autovalori del sistema complessivo non compaiono nella funzione di trasferimento.
Questo fatto non può che essere conseguente ad una cancellazione con altrettanti zeri. Gli zeri del
sistema complessivo sono dunque coincidenti con gli autovalori della matrice (A − KC).
9.4. Assegnazione della dinamica con reazione dall’uscita 231
Il problema della collocazione degli zeri con riferimento ad uno schema di assegnazione dall’uscita
più generale di quello trattato, viene affrontato nel prossimo paragrafo.
Faremo riferimento, in quanto segue, ad uno schema più generale di quello adottato nella sezione
precedente, ispirato allo schema generale proposto all’inizio del capitolo in cui L = A − KC + BF e
M = K. ( (
ẋ = Ax + Bu ż = (A − KC + BF )z + KCx + N v
S: C:
y = Cx u = F z + Gv
Per il principio di separazione il sistema di controllo ha 2n autovalori coincidenti con quelli di (A+BF )
ed (A − KC).
Diverse scelte di N ed G non influenzano gli autovalori, ma gli zeri del sistema di controllo. Tali matrici
possono quindi essere scelte in modo da consentire il soddisfacimento di specifiche che dipendono da
essi; tra queste il comportamento al transitorio.
N ed G prendono il nome di matrici di guadagni in avanti.
N = BG
ciò equivale a:
+ u(t) y(t)
S
v(t)
N
+
z(t)
F Oss.
Figura 9.5
232 9. Struttura interna, intervento e osservazione
2. Scelta che consente di controllare dall’esterno il sistema mediante il segnale (v − y) (è necessario
in alcuni casi pratici; radar, controllo termico...)
N = −K G=0
si ottiene
ż = (A − KC + BF )z − K(v − y)
ciò equivale a:
u(t) y(t)
S
-
z(t) v(t)
F Oss. +
Figura 9.6
si comprende che gli zeri coincidono con quelli del sistema assegnato ciò che permette di concludere
che gli zeri non cambiano sotto controreazione istantanea dallo stato.
⇓
µ ¶
sI − A + KC + N
GF − BF −N
det =0
0 1
cioè i nuovi zeri sono quelli di:
¡ N ¢
det sI − A − BF + KC + F = γ(s) (0 )
G
Posto
A + BF − KC = Ã
e fissate F e K, gli zeri del compensatore coincidono con gli autovalori di à − LF al variare di L = N
G
γ(s) = det(sI − Ã + LF )
det(sI − A + KC)
cioè gli zeri aggiunti sono coincidenti con i poli dell’ ”osservatore”(ciò corrisponde alla non con-
trollabilità dell’osservatore in tale schema).
2. N = K µ ¶
sI − A + KC − BF −K
det =0
F 0
⇓
µ ¶
sI − A − BF −K
det =0
F 0
⇓
µ ¶
sI − A −K
det =0
F 0
cioè gli zeri aggiunti sono quelli del sistema
(
ξ˙ = Aξ + Kω
r = Fξ
In sintesi, e con riferimento allo schema di compensazione introdotto, mediante reazione dall’uscita si
ottiene una funzione di trasferimento a ciclo chiuso
γ(s)N (s)
W (s) = K
DC (s)α(s)
234 9. Struttura interna, intervento e osservazione
γ(s) può essere fissato per soddisfare ad altre specifiche di progetto. Si noti che
1. γ(s) = α(s) ⇔ N = BG
2. γ(s) numeratore di F (sI − A)−1 K ⇔ N = K
Si noti che comunque gli zeri del sistema rimangono tra gli zeri del sistema di controllo (a meno che
non vengano cancellati da alcuni zeri di DC (s))
G può essere scelto in modo da fissare il guadagno del sistema complessivo. Se ad esempio, come
spesso accade, si vuole tale guadagno pari a 1, posto N̄ = N
G si ha:
µ ¶ µ ¶µ ¶ µ ¶
ẋ A + BF BF x B
= + GV
ż 0 A − KC z B − N̄
⇓
Á µ ¶
−1 −1
G = 1 C(A + BF ) B 1 − F (A − KC) (B − N̄ )
Assumeremo senza perdita di generalità che X, U e Y siano spazi vettoriali di dimensione finita,
rispettivamente n, p e q. La generica rappresentazione implicita di un sistema strettamente causale a
dimensione finita, stazionario é del tipo
y(t) = h(x(t))
Nella precedente espressione ∆ rappresenta la derivazione o l’anticipo unitario, nel caso a tempo
continuo o a tempo discreto, rispettivamente.
Con riferimento alla struttura della funzione generatrice f (x, u) e della trasformazione in uscita,
h(x), è usuale assumere la seguente classificazione.
1. Rappresentazione lineare
f è lineare su X × U ed h è lineare su X
(
f (x, u) = Ax + Bu
h(x) = Cx
2. Rappresentazione bilineare
Posto
f (x, u) = f1 (x, u) + f2 (x, u)
236 10. Introduzione alle rappresentazioni non lineari
A0 (·) e A1 (·) analitiche, C é (q × n). E’ frequente il caso in cui gli elementi di A0 (·) e A1 (·) sono
polinomi in u1 , u2 ,. . . up .
Posto
f (x, u) = f1 (x) + f2 (x, u)
Z t
x(t) = γ0 (t)x0 + γ1 (t, τ )u(τ )dτ
0
Z t
At
= e x0 + e(t−τ )A Bu(τ )dτ
0
Z t
y(t) = w0 (t)x0 + w1 (t, τ )u(τ )dτ
0
Z t
= Ce(t) Ax0 + Ce(t−τ )A Bu(τ )dτ
0
dγ0 (t)
A= |t=0
dt
B = γ1 (0)
C = w0 (0)
γ0 (t)x0 = eAt x0
∂γ0 (t − τ )x ¯¯
γ1 (t − τ ) = e(t−τ )A B = x0
·B
∂x
∂w0 (t − τ )x ¯¯
w1 (t − τ ) = Ce(t−τ )A B = x0
B
∂x
In sistesi possiamo enunciare le seguenti proprietà:
w1 (t − τ ) = Q(t)P (τ ) t ≥ τ
ẋ(t) = P (t)u(t)
y(t) = Q(t)x(t)
Si consideri la seguente rappresentazione implicita che descrive, per semplicità di notazioni, un sistema
ad ingresso e uscita scalari (
ẋ(t) = f (x(t)) + g(x(t))u(t)
(II.1)
y(t) = h(x(t))
x(t) ∈ Rn ; f , g: Rn → Rn e h : Rn → R sono funzioni analitiche.
XZ tZ τ1 Z τk
x(t) = γ0 (t; x0 ) + ... γk (t, τ1 , . . . , τk , x0 )u(τ1 ) . . . u(τk )dτ1 . . . dτk (II.2)
k≥0 0 0 0
XZ tZ τ1 Z τk
y(t) = w0 (t; x0 ) + ... wk (t, τ1 , . . . , τk , x0 )u(τ1 ) . . . u(τk )dτ1 . . . dτk (II.3)
k≥0 0 0 0
con γ0 (·; x0 ) : [0, t] → R , w0 (·; x0 ) : [0, t] → R; γk (·; x0 ) : [0, T ]k+1 → Rn , wk (·; x0 ) : [0, T ]k+1 → R (
n
t ≥ t ≥ τ1 ≥ . . . ≥ τk ≥ 0).
Le espressioni in serie (II.2) e (II.3) prendono il nome di serie di Volterra, il matematico italiano
che agli inizi del secolo ha per primo impiegato rappresentazioni in serie con integrali multipli per
rappresentare funzionali nonlineari. Nel caso in esame esse rappresentano i legami funzionali ingresso-
stato e ingresso-uscita associati al sistema (II.1) a partire dallo stato iniziale x0 ,e sono caratterizzati
dai nuclei γk (·; x0 ) e wk (·; x0 ), rispettivamente. Nel caso lineare, come già ricordato, sono diversi da
zero solo i nuclei di ordine zero ed uno che, infatti, caratterizzano la parte lineare del legame.
Si mostrerà nel seguito che i nuclei wk (·; x0 ) ammettono una rappresentazione in serie. La stessa
procedura applicata alla funzione h(x) = x dà l’espressione dei γk (·; x0 ). A questo proposito è
necessario richiamare il formalismo delle serie di Lie.
La serie di Lie
Data una funzione analitica
f : Rn → Rn
si definisce l’operatore formale ”derivata direzionale” o ”derivata di Lie”, e si scrive Lf , l’operatore
differenziale del primo ordine
Xn
∂
Lf = fi
i=1
∂xi
dove fi : Rn → |R indica l’i - esima componente della funzione f .
Se h : Rn → R è una funzione derivabile l’operatore Lf agisce sulla funzione h nel modo seguente:
¯ " ¯ ¯ # " f1 (x) # ¯
Xn
∂h ¯¯ ∂h ¯¯ ∂h ¯¯ . ∂h ¯¯
Lf (h)|x = ·fi (x) = ,..., · .. = ·f (x) (III.4)
i=1
∂xi ¯x ∂xi ¯x ∂xn ¯x ∂x ¯x
fn (x)
10.1. Sistemi a tempo continuo 239
Lf (Id)|x = f (x)
esempio:
n = 2, f (x) : R2 → R2 , h(x) : R2 → R
Si ha:
∂ ∂
Lf = 2x1 + (x1 + x2 )
∂x1 ∂x2
∂ ∂
Lf (h)|x0 = 2x1 (x1 x2 )|x0 + (x1 + x2 ) (x1 x2 )|x0
∂x1 ∂x2
= 2x1 x2 |x0 + (x1 + x2 )x1 |x0
se x0 = (1, 2) ⇒ Lf (h)|x0 = 1 + 6 = 7
• Lf é un operatore lineare
Siano h1 e h2 due funzioni derivabili e α1 e α2 ∈ R, si ha:
∂
Lg oLf (h)|x = (Lf (h))|x · g(x)
∂x à n ¯ !
X X ∂ X ∂h ¯¯
n n
∂Lf (h)
= gi (x) = ¯ fj (x) gi (x)
∂x i ∂x i ∂xj ¯
i=1 i=1 j=1 x
¯ ¯ ¯
X ∂ h ¯
n 2 ¯ X ∂h ¯ ∂fj (x) ¯¯
n ¯
= ¯ fj (x)gi (x) + ¯ ¯ ·gi (x)
i,j=1
∂xi ∂xj ¯ i,j=1
∂xj ¯ ∂xi ¯
x x x
• Prodotto di Lie
Si definisce l’operatore prodotto di Lie di due operatori Lf ed Lg , e lo si indica con,
In base alla definizione [Lf , Lg ] opera sulle funzioni come la derivata di Lie rispetto alla funzione
[f, g], L[f,g] . [f, g] è definito come
∂g ∂f
[f, g] = f− g
∂x ∂x
240 10. Introduzione alle rappresentazioni non lineari
Xn
∂h ∂gi Xn
∂h ∂fi
Lf Lg (h) − Lg Lf (h) = · · · = fj − gj = L[f,g] (h)
i,j=1
∂xi ∂xj i,j=1
∂xi ∂xj
• Composizione iterata di Lf
¯
¯
∂L f (h)| x ¯
L2f (h)|x := Lf · Lf (h)|x = ¯ ·f (x)
∂x ¯
x
¯
∂Lhf (h)|x ¯¯
Lf (h)|x := Lf · Lf (h)|x =
k+1 k
¯ ·f (x) k≥0
∂x ¯
x
• esempio
f (x) : (x1 , x2 ) 7→ (2x1 , x1 + x2 ) h(x) : (x1 , x2 ) 7→ x1 x2
Osservazione
f (x) = Ax h(x) = Cx
⇓
∂
Lf = Ax
∂x
¯ ¯
∂Cx ¯¯ ∂CAx ¯
¯
Lf (h)|x = ¯ ·Ax = CAx = L2f (h)|x = ¯ ·Ax = CA2 x, . . . , Lkf (h)|x = CAk x
∂x ¯ ∂x ¯
x x
10.1. Sistemi a tempo continuo 241
da cui
X CAk x
eLf (h)|x = = CeA x
k!
h≥0
se h = Id, si ha:
eLf (Id)|x = eA x
Per il calcolo dei nuclei si impiegherà una procedura iterativa di integrazione dell’equazione (II.1)
con condizione iniziale x0 a t0 = 0.
ed integrando
Z t
y(t) = y(0) + (Lf + u(τ1 )Lg )(h)|x(τ1 ) dτ1
0
posto
∂h
Λ1 (x(t), u(t)) := (Lf + u(t)Lg )(h)|x(t) = |x(t) ẋ(t)
∂x
si ha
Z ¯
τ1
∂Λ1 (·, u(τ1 )) ¯¯
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + ¯ ẋ(τ2 )dτ2
0 ∂x ¯
x(τ2 )
⇓
Z τ1
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + (Lf + u(τ2 )Lg )(Λ1 (·, u(τ1 )))|x(τ2 ) dτ2
0
⇓
Z t Z tZ τ1
y(t) = y(0) + Λ1 (x0 , u(τ1 ))dτ1 + Λ2 (x(τ2 ), u(τ1 ), u(τ2 ))dτ2 dτ1
0 0 0
con
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) := (Lf + u(τ2 )Lg ) · (Lf + u(τ1 )Lg )(h)|x(τ2 )
Di nuovo si ottiene:
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) =
Z τ2
= Λ2 (x0 , u(τ1 ), u(τ2 )) + (Lf + u(τ3 )Lg )(Λ2 (·, u(τ1 ), u(τ2 ))|x(τ3 ) dτ3
0
242 10. Introduzione alle rappresentazioni non lineari
+... (II.6)
Z tZ τ1 Z τp−1
+ ... (Lf + u(τp )Lg ) . . . (Lf + u(τ1 )Lg )(h)|x0 dτp . . . dτ1
0 0 0
+...
per t ≥ τ1 ≥ . . . ≥ τp ≥ 0
Le espressioni dei nuclei possono ora essere ottenute per identificazione dei ’coefficienti’ dei termini
in u(τ1 ) (lineare in u), u(τ1 )u(τ2 ) (quadratico in u), ..
Per il primo nucleo si ha
¯ t2 ¯ ¯
w0 (t; x0 ) = h(x0 ) + tLf h¯x + L2f h¯x + . . . := etLf h¯x
0 2 0 0
X ¯ τ i1 (t − τ1 )i2
w1 (t, τ1 ; x0 ) = Lif1 Lg Lif2 ¯x0 1
i1 !i2 !
i1 ,i2 ≥0
¯
= eτ1 Lf Lg e(t−τ1 )Lf h¯x0 , t ≥ τ1
R
che per α = u(τ )dτ e β = t dà l’uguaglianza
Z tZ τ1 Z t Z t Z t
u(τ2 )dτ2 dτ1 = u(τ1 )(t − τ1 )dτ1 = t u(τ1 )dτ1 − τ1 u(τ1 )dτ1
0 0 0 0 0
t ≥ τ1 ≥ τ2 .
10.1. Sistemi a tempo continuo 243
In generale
¯
wk (t, τ1 , . . . , τk ; x0 ) = · · · = eτk Lf Lg · · · e(t−τ1 )Lf h¯x0
Con gli stessi argomenti può essere reso esplicito il legame ingresso-stato che assume forma analoga
alla precedente in cui i nuclei γk assumono la forma
¯
γk (t, τ1 , . . . , τk ; x0 ) = eτk Lf Lg · · · Lg e(t−τ1 )Lf Id¯x0
Il teorema di scambio
Poichè dai calcoli fatti, risulta
¯ ³ ¯ ´
y` (t) = w0 (t, x0 ) = etLf h¯x0 = h(x` (t)) = h etLf Id¯x0
ove il pedice ` indica che u ≡ 0, rimane dimostrato un noto teorema della teoria delle serie di
Lie (il Teorema di scambio). L’applicazione di etLf ad h coincide con il calcolo di h al risultato
dell’applicazione della serie differenziale esponenziale alla funzione identità.
In conclusione con un raggruppamento adeguato dei termini nella (II.6) permette di dedurre le
espressioni dei nuclei nella (II.3). Si ha:
X ti
w0 (t; x0 ) = ψ0 (t; x0 ) = etLf (h)|x0 = Lif (h)|x0 (II.7)
i!
i≥0
t ≥ τ1 ≥ τ2 ≥ 0
...
Si deducono le espressioni dei nuclei γk (·; x0 ) nella (II.2) ponendo h(x) = x, si ha:
γ1 (0, 0; x) = g(x)
w0 (0; x) = h(x)
¯ t2 ¯
w0 (t; x0 ) = etLAx Cx¯x = (Cx + tCAx + CA2 x + . . .)¯x = CeAt x0
0 2 0
¯
w1 (t, τ1 ; x0 ) = eτ1 LAx LB e(t−τ1 )LAx Cx¯x0 =
¯
= eτ1 LAx LB CeA(t−τ1 ) x¯x = eτ1 LAx CeA(t−τ1 ) B
0
= CeA(t−τ1 ) B
¯
w2 (t, τ1 , τ2 ; x0 ) = eτ2 LAx LB e(τ1 −τ2 )LAx Cx¯x0 =
= eτ2 LAx LB Ce(t−τ1 )A B ≡ 0
wk = 0, k ≥ 2.
Si dimostra che il calcolo dei nuclei successivi si può fare in modo ricorsivo a partire da γ0 (t; x),
w0 (t; x) e g(x).
ek
Una proprietà importante è la separabilità dei nuclei: posto γ
e quindi tutti i nuclei possono essere calcolati da γ0 (t, x) e g(x). Si hanno forme ricorrenti per il
calcolo.
Le stesse considerazioni possono essere ripetute per wk . Si ottiene:
che: ¯
ek−1 (t, τ1 , . . . , τk−1 ; γ0 (τk−1 − τk ; x)) ¯¯
∂w
ek (t, τ1 , . . . , τk ; x) =
w ¯ ·g(x) (II.14)
∂x ¯
x
Sulla base della proprietà messa in evidenza è facile mostrare un semplice ed elegante risultato
relativo alla realizzazione causale.
Teorema 2. Una famiglia di nuclei vk , k ≥ 0, ammette una realizzazione causale se e solo se esistono
un intero n, e due funzioni
P :R × Rn → Rn Q :R × Rn → Rn
(t, x) → P (t, x) (t, x) → Q(t, x)
ed un x0 ∈ Rn tale che
v0 (t) = Q(t, x0 )
¯
vk (t, τ1 , . . . , τk ) = LP (τk ,·) · · · LP (τ1 ,·) Q(t, ·)¯x
0
dimostrazione
Necessità: Le formule precedentemente richiamate mostrano l’esistenza delle funzioni Pt e Qt , si
ha:
Qt (x) = etLf (h)|x
X τk
Pτ1 (x) = eτ1 Lf · Lg · e−τ1 Lf (Id)|x = 1
adkf g(x)
k!
k≥0
con
ad0f (g) = g, adf (g) = [Lf , Lg ](Id), . . . , adkf g = [Lf , adk−1
f g](Id)
con:
∂ ∂
Lf = , Lg = Pξ (x)
∂ξ ∂x
si ottiene
γ0 (t; z) = (x, ξ + t), w0 (t; z) = Qξ+t (x)
⇓
Z t Z t
x(t) = x0 + ẋ(τ1 )dτ1 = x0 + Lpτ1 (x(τ1 ))u(τ1 )dτ1
0 0
con Z τ1
x(τ1 ) = x0 + Lpτ2 (x(τ2 ))u(τ2 )dτ2
0
⇓
Z t Z t Z τp−1
x(t) = x0 + Lpτ1 (x0 )u(τ1 )dτ1 + . . . + ... Lpτp · . . . · Lpτ1 (x0 )u(τ1 )u(τp )dτp . . . dτ1
0 0 0
10.1. Sistemi a tempo continuo 247
La realizzazione bilineare
Esaminiamo quali condizioni supplementari sono necessarie per ottenere una realizzazione bilin-
eare.
Q(t)P (τ1 ) · P (τi )X(s) = Q(t − s)P (τ1 − s) . . . P (τi − s), ∀t, τ1 , . . . , τi , s
dimostrazione:
Necessità: le funzioni Pt e Qt di una realizzazione bilineare soddisfano queste condizioni, infatti:
Qt (τ ) = CetA x = Q(t)x
ẋ = P (ς)xu
ς˙ = 1
y = Q(ς)x
248 10. Introduzione alle rappresentazioni non lineari
Per passare ad una rappresentazione indipendente dal tempo bisogna utilizzare la seconda proprietà.
ẋ = P (ς)x(ς)xu = P (0)xu
ς˙ = 1
y = Q(ς)x(ς)x = Q(0)x
Una situazione ricorrente nella pratica riguarda il caso in cui lo stato x0 sia di equilibrio.
In tal caso con considerazioni analoghe a quelle accennate nel verificare la proprietà di separazione si
può mostrare che
w1 (t, τ1 ; x0 ) = w11 (t − τ1 )
w2 (t, τ1 , τ2 ; x0 ) = w21 (t − τ1 )w22 (τ1 − τ2 )
..
.
wk (t, τ1 , . . . , τk ; x0 ) = wk1 (t − τ1 ) · · · wkk (τk−1 − τk )
e di conseguenza
wkj (τj−1 − τj ) = Ckj eAkj (τj−1 −τj ) Bkj
dimostrazione:
ek (t, τ1 , . . . , τk ; x0 ) = wk (t, τ1 , . . . , τk ; x0 )
w
e cosı̀ via.
Gli argomenti sviluppati costituiscono la prova del successivo Teorema 5 relativo alla realizzazione
di un numero finito di nuclei. Una soluzione può, infatti, essere ottenuta immediatamente impiegando
rappresentazioni bilineari (ciò mostra anche le generalità di tale classe di sistemi).
Teorema 5. Esiste una rappresentazione bilineare di un numero finito di nuclei associati al legame
ingresso uscita di un’assegnata rappresentazione affine rispetto all’igresso a partire da uno stato di
equilibrio x0 .
esempio
• k=1
w1 (t, τ1 , x0 ) = Q11 (t)P11 (τ ) = C11 eA11 (t−τ ) B11
ż = A11 z + B11 u
y1 = C11 z, z0 = 0
• k=2
w2 (t, τ1 , τ2 ; x0 ) = w21 (t − τ1 )w22 (τ1 − τ2 )
= C21 eA21 (t−τ1 ) B21 C22 eA22 (τ1 −τ2 ) B22
µ ¶ µ ¶ µ ¶
A21 0 0 B21 C22 0
ż2 = z2 + z2 u + u
0 A22 0 0 B22
y2 = ( C21 0 ) z2 , z2 (0) = 0
è una realizzazione di w2 solo, infatti
µ ¶
A21 0
(t−τ1 ) µ ¶
0 A 22 0 B21 C22
w2 = ( C21 0 ) e z2 u
0 0
µ ¶
µ ¶ A21 0
(τ1 −τ2 ) µ ¶
0 0
+ e 0 A22
B12 B22
1 2 1
eLf = I + Lf + Lf + . . . + Lkf + . . .
2! k!
1 k
eLf (h)|x = h|x + Lf (h)|x + . . . + L (h)|x + . . .
k! f
Se f ed h sono lineari, f (x) = Ax h(x) = Cx
X CAk x
eLf (h)|x = = CeA x
k!
k≥0
Z t
y(t) = y(0) + (Lf + u(τ1 )Lg )(h)|x(τ1 ) dτ1
0
si pone
Λ1 (x(τ1 ), u(τ1 )) := (Lf + u(τ1 )Lg )(h)|x(τ1 )
↓
Z ¯
τ1
∂Λ1 (·, u(τ1 )) ¯¯
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + ¯ ẋ(τ2 )dτ2
0 ∂x ¯
x(τ2 )
Z τ1
= (Lf + u(τ1 )Lg )(h)|x0 + (Lf + u(τ2 )Lg )(Lf + u(τ1 )Lg )(h)|x(τ2 ) dτ2
0
⇓
Z t
y(t) = y(0) + (Lf + u(τ1 )Lg )(h)|x0 dτ1 +
0
Z tZ τ1
(Lf + u(τ2 )Lg )(Lf + u(τ1 )Lg )(h)|x(τ2 ) dτ2 dτ1
0 0
si pone
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) := (Lf + u(τ2 )Lg ) · (Lf + u(τ1 )Lg )(h)|x(τ2 )
⇓
Z t
y(t) = h(x0 ) + (Lf + u(τ1 )Lg )(h)|x0 dτ1
0
Z tZ τ1
+ (Lf + u(τ2 )Lg ) · (Lf + u(τ1 )Lg )(h)|x0 dτ2 dτ1
0 0
Z tZ τ1 Z τp−1
+ ... (Lf + u(τp )Lg ) . . . (Lf + u(τ1 )Lg )(h)|x0 dτp . . . dτ1
0 0 0
+...
t ≥ τ1 ≥ . . . ≥ τ p ≥ 0
⇓
252 10. Introduzione alle rappresentazioni non lineari
Z t
y(t) = h(x0 ) + tLf (h)|x0 + Lg (h)|x0 u(τ1 )dτ1
0
Z t Z t Z τ1
t2 2
+ Lf (h)|x0 + tLf Lg (h)|x0 u(τ1 )dτ1 + Lg Lf (h)|x0 u(τ2 )dτ2 dτ1
2! 0 0 0
Z t Z τ1
+L2g (h)|x0 u(τ2 )u(τ1 )dτ2 dτ1 + . . .
0 0
¯
γ0 (t; x0 ) = etLf Id¯x
0
¯ ¯
etLf h¯x0 = h(etLf Id¯x0 )
teorema di scambio
↓
Z tZ τ1 Z t Z t Z t
u(τ2 )dτ2 dτ1 = t u(τ1 )dτ1 − τ1 u(τ1 )dτ1 = u(τ1 )(t − τ1 )dτ1
0 0 0 0 0
⇓
X ¯ τ i1 (t − τ1 )i2 ¯
w1 (t, τ1 ; x0 ) = Lif1 Lg Lif2 h¯x0 1 = eτ1 Lf Lg e(t−τ1 )Lf h¯x0 , t ≥ τ1
i1 !i2 !
i1 ,i2 ≥0
10.1. Sistemi a tempo continuo 253
¯
γ1 (t, τ1 ; x0 ) = eτ1 Lf Lg e(t−τ1 )Lf Id¯x , t ≥ τ1
0
¯
γ2 (t1 , τ1 , τ2 ; x0 ) = eτ2 Lf Lg e(τ1 −τ2 )Lf Lg et−τ1 )Lf Id¯x t ≥ τ1 ≥ τ2
0
In generale
¯
wk (t, τ1 , . . . , τk ; x0 ) = · · · = eτk Lf Lg e(τk−1 −τk )Lf Lg · · · Lg e(τ1 −τ2 )Lf Lg e(t−τ1 )Lf h¯x
0
¯
γk (t, τ1 , . . . , τk ; x0 ) = eτk Lf Lg e(τk−1 −τk )Lf Lg · · · Lg e(τ1 −τ2 )Lf Lg e(t−τ1 )Lf Id¯x
0
X ti
w0 (t; x0 ) = ψ0 (t; x0 ) = etLf (h)|x0 = Lif (h)|x0
i!
i≥0
X τ1i1 (t − τ1 )i2
= Lif1 · Lg · Lif2 (h)|x0
i2 !i1 !
i1 ,i2 ≥0
t ≥ τ1 ≥ τ2 ≥ 0
...
t ≥ τ 1 ≥ . . . ≥ τk ≥ 0
254 10. Introduzione alle rappresentazioni non lineari
γ1 (0, 0; x) = g(x)
w0 (0; x) = h(x)
• rappresentazioni lineari
f (x) = Ax, g(x) = B, h(x) = Cx
¯ t2 ¯
w0 (t; x0 ) = etLAx Cx¯x0 = (Cx + tCAx + CA2 x + . . .)¯x0 = CeAt x0
2
¯
w1 (t, τ1 ; x0 ) = eτ1 LAx LB e(t−τ1 )LAx Cx¯x0 =
¯
= eτ1 LAx LB CeA(t−τ1 ) x¯x = eτ1 LAx CeA(t−τ1 ) B
0
A(t−τ1 )
= Ce B
¯
w2 (t, τ1 , τ2 ; x0 ) = eτ2 LAx LB e(τ1 −τ2 )LAx Cx¯x0 =
= eτ2 LAx LB Ce(t−τ1 )A B ≡ 0
wk = 0, k ≥ 2.
• rappresentazioni bilineari
f (x) = Ax, g(x) = N x + B, h(x) = Cx
¯
w0 (t; x0 ) = etLAx Cx¯x0 = CeAt x0
¯
w1 (t, τ1 ; x0 ) =eτ1 LAx LN x+B e(t−τ1 )LAx Cx¯x =
³ ´0 ¯
=eτ1 LAx
CeA(t−τ1 )
(N x + B) ¯x
0
³ ´¡ ¢
wk (t, τ1 , . . . , τk ; x0 ) = CeA(t−τ1 ) N · · · N eA(τk−1 −τk ) B + N eAτk x0
↓
¯
ek (t; τ1 , . . . , τk ; x0 ) = Lg e(τk−1 −τk )Lf · · · Lg e(t−τ1 )Lf Id¯x
γ
¯ ∂γ0 (t − τ1 , x)
e1 (t, τ1 ; x0 ) = Lg e(t−τ1 )Lf Id¯x =
γ · g(x)
∂x
⇓
∂γ0 (t − τ1 , x) ¯¯
γ1 (t, τ1 ; x0 ) = γ0 (τ1 ,x0 )
· g(γ0 (τ1 , x0 ))
∂x
...
γk−1 (t, τ1 , . . . , τk−1 , γ0 (τk−1 − τk ; x))
∂e
ek (t, τ1 , . . . , τk , x) =
γ · g(x)
∂x
⇓
γk−1 (t, τ1 , . . . , τk−1 , γ0 (τk−1 − τk ; x0 )) ¯¯
∂e
γk (t, τ1 , . . . , τk , x) = γ0 (τk ,x)
· g(γ0 (τk , x))
∂x
↓
¯
ek−1 (t, τ1 , . . . , τk−1 ; γ0 (τk−1 − τk ; x)) ¯¯
∂w
ek (t, τ1 , . . . , τk ; x) =
w ¯ ·g(x)
∂x ¯
x
⇓
ek−1 (t, τ1 , . . . , τk−1 , γ0 (τk−1 − τk ; x0 )) ¯¯
∂w
wk (t, τ1 , . . . , τk , x) = γ0 (τk ,x)
· g(γ0 (τk , x))
∂x
v0 (t) = Q(t, x0 )
¯
vk (t, τ1 , . . . , τk ) = LP (τk ,·) · · · LP (τ1 ,·) Q(t, ·)¯x0
Q(t)P (τ1 ) · P (τi )X(s) = Q(t − s)P (τ1 − s) . . . P (τi − s), ∀t, τ1 , . . . , τi , s
w1 (t, τ1 ; x0 ) = w11 (t − τ1 )
w2 (t, τ1 , τ2 ; x0 ) = w21 (t − τ1 )w22 (τ1 − τ2 )
..
.
wk (t, τ1 , . . . , τk ; x0 ) = wk1 (t − τ1 ) · · · wkk (τk−1 − τk )
dimostrazione
γ0 (t; x0 ) = x0 , ∀t ∈ R
⇓
10.1. Sistemi a tempo continuo 257
ek (t, τ1 , . . . , τk ; x0 ) = wk (t, τ1 , . . . , τk ; x0 )
w
⇓
¯
∂w0 (t − τ1 ; x) ¯¯
w1 (t, τ1 ; x0 ) = ¯ ·g(x0 ) = W11 (t − τ1 )
∂x ¯
¯ x0 ¯
∂h0 γ0 (t; x) ¯¯ ∂γ0 (−τ1 ; x) ¯¯
= ¯ · ¯ ·g(x0 ) = Q11 (t)P11 (τ1 )
∂x ¯ ∂x ¯
x0 x0
• Esiste una rappresentazione bilineare di un numero finito di nuclei associati al legame ingresso us-
cita di un’assegnata rappresentazione affine rispetto all’igresso a partire da uno stato di equilibrio
x0 .
esempio
k=1
ż = A11 z + B11 u
y1 = C11 z, z0 = 0
k=2
X
k−1
x(k) = γ0 (k)x0 + γ1 (k − τ )u(τ )
τ =0
X
k−1
k
= A x0 + Ak−1−τ Bu(τ )
τ =0
X
k−1
y(k) = w0 (k)x0 + w1 (k − τ )u(τ )
τ =0
X
k−1
= CA x0 +k
CAk−τ −1 Bu(τ )
τ =0
dove γ0 (k)x e w0 (k)x rappresentano le evoluzioni libere (corrispondenti a ingressi nulli) nello stato e
nell’uscita. γ1 (k) e w1 (k) sono i nuclei degli integrali di convoluzione che caratterizzano il contributo
del forzamento sullo stato x(k) e rispettivamente l’uscita y(k).
A = γ0 (1)
C = w0 (0)
B = γ1 (1)
¯
∂w0 (k − τ − 1)x ¯¯ ∂ ¯
w1 (k − τ ) = ¯ ·B = (CAk−τ −1 x)¯x B
∂x x0 ∂x 0
Se ne deduce che il calcolo dei nuclei γ1 (k) e w1 (k) si può fare a partire dalle risposte libere γ0 (k)x e
w0 (k)x rispettivamente e dalla matrice B. Queste considerazioni saranno estese al caso non lineare.
X
k−1
y(k) = w1 (k − τ )u(τ )
τ =0
w1 (k − τ ) = Q(k)P (τ )
infatti
y(k) = Q(k)P (k − 1)u(k − 1) + Q(k)x(k − 1)
= w1 (1)u(k − 1) + Q(k)P (k − 2)u(k − 2) + Q(k)x(k − 2)
= w1 (1)u(k − 1) + w1 (2)u(k − 2) + Q(k)x(k − 2)
= ...
X
k−1
= w1 (k − τ )u(τ )
τ =0
f, g : Rn → Rn e h : Rn → R
sono funzioni analitiche. L’assumere che la deriva abbia la forma x + f (x) non modifica la generalità
del problema, essa é fatta con il solo scopo di semplificare le notazioni. x(k) ∈ Rn , x0 stato iniziale.
Risposta nell’uscita
y(0) = h(x0 )
¡ ¢
y(1) = h · I + f + u(0)g (x0 )
¡ ¢¡ ¢
y(2) = h · I + f + u(1)g · I + f + u(0)g (x0 )
...
¡ ¢ ¡ ¢
y(k) = h · I + f + u(h − 1)g · . . . · I + f + u(0)g (x0 ) (III.3)
Nel caso di sistemi lineari e bilineari, in virtù della linearità rispetto ad x, le composizioni di funzioni
si riconducono a prodotti di matrici ciò permette il calcolo dei coefficienti degli sviluppi in potenze
degli ingressi u(0), . . . , u(k + 1) delle espressioni (III.2) e (III.3). Nel caso lineare più in generale n é
cosı̀; per calcolare questi coefficienti vale a dire i nuclei di Volterra bisogna introdurre uno strumento
adatto a rappresentare la composizione di funzioni.
10.2. Sistemi a Tempo Discreto 261
Esponenziale tensoriale
Siano f e g:|Rn → |Rn ; si definisce il prodotto ⊗ dei due operatori Lf e Lg cpme
X
m
∂2
Lf ⊗ Lg = fi1 gi2
i1 ,i2 =1
∂xi1 ∂xi2
si ha: ¯
X
m
∂ 2 h ¯¯
Lf ⊗ Lg (h)|x = fi (x)gi2 (x)
i1 ,i2 =1
∂xi1 ∂xi2 ¯x 1
L⊗k ⊗k−1
f = Lf ⊗ Lf L⊗0
f =I
1 ⊗k
exp⊗ Lf = ∆f = I + Lf + . . . + L + ...
k! f
La prova consiste nel calcolo dello sviluppo in serie di Taylor di h(x + f (x)) in potenze di f (x).
¯
X n
∂h ¯¯
h · (x + f (x)) = h(x) + ·fi (x)
i =1
∂xi1 ¯x 1
1
¯
1 X ∂ 2 h ¯¯
n
+ ·fi (x)fi2 (x)
2! i ,i =1 ∂xi1 ∂xi2 ¯x 1
1 2
+ ...
¯
1 X ¯
n
∂ph ¯ ·fi (x) . . . fip (x)
+
p! i ...,i =1 ∂xi1 . . . ∂xip ¯x 1
1 p
1 ⊗2 1
= h(x) + Lf (h)|x + Lf (h)|x + . . . + L⊗p (h)|x + . . .
2! p! f
= ∆f (h)|x
Qualche proprietà
262 10. Introduzione alle rappresentazioni non lineari
- Siano f 1 , . . . , f k funzioni analitiche |Rn → |Rn si verifica facilmente che vale, per la composizione,
- ∆f è un operatore lineare; infatti comunque fissate due funzioni λ1 e lambda2 , ed una coppia di
numeri reali α1 ed α2
∆f (α1 Λ1 + α2 h2 ) = α1 ∆f (Λ1 ) + α2 ∆f (h2 )
- ∆f +g = ∆f ⊗ ∆g
- se α è un numero reale
αh ⊗h
∆αf = I + αLf + . . . + L + ...
h! f
Se ne deduce che:
¡ X uh ¢ X uk
∆f +ug = ∆f ⊗ ∆ug = ∆f ⊗ I + L⊗h
g = ∆f + ∆f ⊗ L⊗k
g (III.6)
h! k!
h≥1 k≥1
∆f ⊗ L⊗k
g agisce su una funzione h come segue
con: · ¸⊗2
∂ ⊗2 h ∂h ∂h
= ,...,
∂x⊗2 ∂x1 ∂xu
· ¸T
⊗2 ⊗2
g (x) = [g1 (x), . . . , gu (x)]
in generale, ¯
∂ ⊗k h ¯¯
∆f ⊗ L⊗k
g (h)|x = ·g ⊗k (x)
∂x⊗k ¯x+f (x)
es:
f : |R2 → |R2 , g : |R2 → |R2 , h : |R2 → |R
(x1 , x2 ) 7→ (x21 , x1 + x2 ), (x1 , x2 ) 7→ (x1 , x22 ), (x1 , x2 ) 7→ x1 x2
∆f (h)|x = h(x + f (x)) = (x1 + x21 ) − (x2 + x1 + x2 )
= 2x1 x2 + x21 + 2x2 + x21 + x31
¯ ¯
∂h ¯¯ ∂h ¯¯
∆f ⊗ Lg (h)|x = ·g1 (x) + ·g2 (x)
∂x1 ¯x+f (x) ∂x2 ¯x+f (x)
= (2x2 + x1 )x1 + (x1 + x21 )x22
= 2x1 x2 + x21 + x1 x22 + x21 x22
10.2. Sistemi a Tempo Discreto 263
1
∆f (h)|x = h|x + Lf (h)|x + Lf (h)|x
¯ 2 ¯ ¯
∂h ¯¯ ∂h ¯¯ ∂h ¯¯
= x1 x2 + f1 (x) + f2 (x) + f1 (x)f2 (x)
∂x1 ¯x ∂x2 ¯x ∂x1 ∂x2 ¯x
= x1 x2 + x2 x21 + x21 + x1 x2 + x31 + x21 x2
= 2x1 x2 + 2x21 x2 + x21 + x31
Con il formalismo introdotto, le espressioni (III.2) e (III.3) possono essere scritte nella forma:
X
k−1
= w0 (k; x0 ) + w1 (k, τ1 ; x0 )u(τ1 )
τ1 =0
X
k−1
+ w2 (k, τ1 , τ2 ; x0 )u(τ1 )u(τ2 )
τ1 ≥τ2 =0
+ ...
X
+ wp (k, τ1 , . . . , τp ; x0 )u(τ1 ) . . . u(τp )
τ1 ≥...≥τp
+ ... (III.10)
Lo sviluppo (III.10) é la serie di Volterra associata al sistema (III.1). Dallo sviluppo (III.9) si deduce
l’espressione dei nuclei wp (·; x0 ).
Si ottiene:
w0 (k; x0 ) = ∆kf (h)|x0
1 −1
w1 (k, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f (h)|x0 (III.11)
Per i nuclei di ordine superiore al primo, bisogna distinguere i nuclei corrispondenti ai prodotti degli
ingressi per tempi strettamente crescenti da quelli corrispondenti a prodotti di ingressi allo stesso
istante.
Per l’ordine 2 si ha:
se τ1 > τ2
u(τ1 )u(τ2 )
w2 (k, τ1 , τ2 ; x0 ) = ∆τf2 · ∆f ⊗ Lg ∆τf1 −τ2 −1 ∆f ⊗ Lg ∆k−τ
f
1 −1
(h)|x0 (III.12)
264 10. Introduzione alle rappresentazioni non lineari
se τ1 = τ2
u(τ1 )2
1 τ1 k−τ1 −1
w2 (k, τ1 , τ1 ; x0 ) = ∆ ∆f ⊗ L⊗2
g ∆f (h)|x0 (III.13)
2 f
Per l’ordine 3:
se τ1 > τ2 > τ3
u(τ1 )u(τ2 )u(τ3 )
se τ1 > τ2 = τ3
u(τ1 )u(τ2 )2
1 τ2 τ1 −τ2 −1 1 −1
w3 (k, τ1 , τ2 , τ2 ; x0 ) = ∆ ∆f ⊗ L⊗2
g ∆f ∆f ⊗ Lg ∆k−τ (h)|x0 (III.15)
2 f f
se τ1 = τ2 > τ3
u(τ2 )2 u(τ3 )
1 τ3
w3 (k, τ2 , τ2 , τ3 ; x0 ) = ∆f ∆f ⊗ Lg ∆τf3 −τ2 −1 ∆f ⊗ L⊗2 k−τ2 −1
g ∆f (h)|x0 (III.16)
2
se τ1 = τ2 = τ3
u(τ1 )3
1 τ1 k−τ1 −1
w3 (k, τ1 , τ1 , τ1 ; x0 ) = ∆f ∆f ⊗ L⊗3
g ∆f (h)|x0 (III.17)
3!
e cosı̀ via per wp (k, . . . , x0 ), p > 3
La stessa cosa succede per i nuclei γp (·; x0 ) associati alla risposta nello stato (7), é sufficiente in questo
caso porre
h(x) = x
Si ottiene
γ0 (k; x0 ) = ∆kf (Id)|x0
1 −1
γ1 (k, τ1 ; x0 ) = ∆τf1 ∆f ⊗ Lg ∆k−τ
f (Id)|x0
...
x + f (x) = γ0 (1; x)
|
g(x) = γ1 (1, 0; x) = ∆f ⊗ Lg (Id)|x (III.18)
h(x) = w0 (0, x)
10.2. Sistemi a Tempo Discreto 265
x + f (x) = x + Ax
y(x) = N x
h(x) = Cx
si ha:
1 ⊗h
∆f (h)|x = h|x + Lf (h)|x + . . . + L (h)|x + . . .
k! f
con h(x) = Cx ¯
∂h ¯¯
Lf (h)|x = ·f (x) = CAx
∂x ¯x
L⊗2
f (h)|x = 0
Analogamente si verifica:
∆kf (I)|x = (I + A)k x
¯
∂h ¯¯
∆f ⊗ Lg (h)|x = ·g(x)
∂x ¯x+f (x)
= CN x
∆f ⊗ L⊗p
g (h)|x = 0
se p > 1
da cui:
w1 (k + 1, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f
1
(h)|x0
= C(I + A)k−τ1 N (I + A)τ1 x0
se ne deduce un calcolo iterato dei nuclei successivi a partire dall’evoluzione libera e da g(x).
Per i primi nuclei si ha:
γ0 (k; x) = ∆kf (I)|x , w0 (k; x) = ∆kf (h)|x
con:
1 −1
e1 (k, τ1 ; x) = ∆f ⊗ Lg ∆k−τ
w f (h)|x
¯
∂w0 (k − τ1 − 1; x) ¯¯
= ¯ ·g(x) (III.19)
∂x x+f (x)
se τ1 = τ2
1 k−τ1 −1
e2 (k, τ1 = τ2 ; x) =
w ∆f ⊗ L⊗2 g · ∆f (h)|x
2 ¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
= ¯ ·g ⊗2 (x) (III.21)
2 ∂x⊗2 x+f (x)
Proprietà dei nuclei associati alla risposta del sistema (III.1) da uno stato iniziale di equilibrio
ep (k, τ1 , . . . , τp ; x0 ) = wp (k, τ1 , . . . , τp ; x0 )
w
e la (III.19) diventa:
¯
∂w0 (k − τ1 − 1; x) ¯¯
w1 (k, τ1 ; x0 ) =
∂x ¯ ·g(x0 )
x0
∆f ⊗ Lg ∆k−τ
f
1
(h)|x
= w11 (k − τ1 − 1) (III.22)
la (III.20) diventa:
¯ ¯
∂w1 (k, τ1 , ς) ¯¯ ∂∆τf1 −τ2 −1 (x) ¯
w2 (k, τ1 , τ2 ; x0 ) = · ¯ ·g(x0 )
∂ς ¯ ∂x ¯
ς=x0 x=x0
1
= w21 (k − τ1 − 1)w22
1
(τ1 − τ2 − 1) (III.23)
la (III.21) diventa:
¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
w2 (k, τ1 , τ1 ; x0 ) = ¯ ·g ⊗2 (x0 )
2 ∂x⊗2 x=x0
2
= w21 (k − τ1 − 1) (III.24)
sia x0 di equilibrio. I primi p nuclei ammettono una realizzazione a stato affine; il comportamento
ingresso/uscita é di tale modello è caratterizzato da questi p nuclei e unicamente da essi.
Con l’ipotesi di invertibilità della funzione (I + f ) : |Rn → |Rn si deducono dalle (III.23) e (III.24) le
ulteriori seguenti decomposizioni
¯ ¯ ¯
∂w0 (k − τ1 − 1, x) ¯¯ ∂w0 (k − 1, ς) ¯¯ ∂γ0 (τ1 , x) ¯¯
¯ g(x0 ) = ¯ · ¯ ·g(x0 )
∂x x0 ∂ς ς=x0 ∂x x=x0
= P11 (k − 1)Q11 (τ1 ) = C11 (A11 )k−τ1 −1 B11
Analogamente:
1
w2 (k, τ1 > τ2 ; x0 ) = P21 (k − 1)Q121 (τ1 )P22
1
(τ1 − 1)Q122 (τ2 )
1
= C21 (A121 )k−τ1 −1 B21
1 1
C22 (A122 )τ1 −τ2 −1 B22
1
2
w2 (k, τ1 , τ1 ; x0 ) = P21 (k − 1)Q221 (τ1 ) = C21
2
(A221 )k−1−τ1 B21
2
si ha:
X
k−1
1 −1
y1 (k) = C11 Ak−τ
11 B11 u(τ1 )
τ1 =0
Il nucleo w2 (k, τ1 , τ2 ; x0 ) é realizzato dal seguente sistema bilineare, di punto iniziale z20 = 0
· 1 ¸ · ¸ · ¸
z2 (k + 1) = A21 0 0 B211 1
C22 0
z (k) + z2 (k)u(k) + u(k)
0 A122 2 0 0 1
B22
2y (k) = [ C 1 0 ]z (k)
21 2
Si ha:
X
k−1
y2 (k) = 1
C21 (A121 )k−τ1 −1 B21
1 1
C21 (A122 )τ1 −τ2 −1 B22
1
u(τ1 )u(τ2 )
τ1 >τ2 =0
Il nucleo w2 (k, τ1 = τ2 ; x0 ) é realizzato dal sistema a stato affine, di punto iniziale z30 = 0
z (k + 1) = A2 z (k) + 1 B 2 u2 (k)
2 21 3
2 21
2
y3 (k) = C21 z3 (k)
Un’analisi più approfondita consente di limitare il numero di sistemi a stato affine. Nel caso precedente
chiamando
A11 = A221 , C11 = C21 2
⇓
2
z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21? u2 (k)
y4 (k) = C11 z4 (k)
con
y4 (k) = y1 (k) + y3 (k)
f, g : Rn → Rn e h : Rn → R
funzioni analitiche
Risposta nello stato
¡ ¢
x(1) = I + f + u(0)g (x0 )
...
¡ ¢ ¡ ¢
x(k) = I + f + u(k − 1)g · . . . · I + f + u(0)g (x0 )
Risposta in uscita
y(0) = h(x0 )
¡ ¢
y(1) = h · I + f + u(0)g (x0 )
...
¡ ¢ ¡ ¢
y(k) = h · I + f + u(k − 1)g · . . . · I + f + u(0)g (x0 )
• Esponenziale tensoriale
Si definisca il prodotto ⊗ dei due operatori Lf e Lg come
X
m
∂2
Lf ⊗ Lg = fi1 gi2
i1 ,i2 =1
∂xi1 ∂xi2
- ⊗ è commutativo
Lf ⊗ Lg = Lg ⊗ Lf
10.2. Sistemi a Tempo Discreto 269
L⊗k ⊗k−1
f := Lf ⊗ Lf L⊗0
f =I
1 ⊗k
exp⊗ Lf := ∆f = I + Lf + . . . + L + ...
k! f
Proposizione
∆f (h)|x = h ◦ ·(I + f )(x) = h(x + f (x))
¯
X n
∂h ¯¯
h · (x + f (x)) = h(x) + ·fi (x)
i1 =1
∂xi1 ¯x 1
¯
1 X ∂ 2 h ¯¯
n
+ ·fi (x)fi2 (x)
2! i ,i =1 ∂xi1 ∂xi2 ¯x 1
1 2
+ ...
¯
1 X ¯
n
∂ph ¯ ·fi (x) . . . fip (x)
+
p! i ...,i =1 ∂xi1 . . . ∂xip ¯x 1
1 p
1 ⊗2 1
= h(x) + Lf (h)|x + Lf (h)|x + . . . + L⊗p (h)|x + . . .
2! p! f
= ∆f (h)|x
Qualche proprietà
k
- h ◦ (I + fk ) ◦ . . . ◦ (I + f1 )(x) = ∆f1 · . . . · ∆fk (h)|x = (∆f ) h|x
- ∆f +g = ∆f ⊗ ∆g
αh ⊗h
- ∆αf = I + αLf + . . . + h! Lf + ...
⇓
¡ X uk ¢ X uk
∆f +ug = ∆f ⊗ ∆ug = ∆f ⊗ I + L⊗k
g = ∆f + ∆f ⊗ L⊗k
g
k! k!
h≥1 k≥1
X ¯
∂ 2 h ¯¯
n
∆f ⊗ L⊗2
g (h)|x = ·gi (x)gi2 (x)
i1 ,i2 =1
∂xi1 ∂xi2 ¯x+f (x) 1
¯
∂ ⊗2 ¯¯
= ·g ⊗2 (x)
∂x⊗2 ¯x+f (x)
· ¸⊗2
∂ ⊗2 h ∂h ∂h
= ,...,
∂x⊗2 ∂x1 ∂xn
· ¸T
⊗2 ⊗2
g (x) = [g1 (x), . . . , gn (x)]
···
¯
∂ ⊗k h ¯¯
∆f ⊗ L⊗k
g (h)|x = ·g ⊗k (x)
∂x⊗k ¯x+f (x)
• esempio
⇓
µ X ui0 (0) ¶ µ X uik−1 (k − 1) ¶
y(k) = ∆f + ∆f ⊗ L⊗i
g
0
· . . . · ∆f + ⊗ik−1
∆f ⊗ Lg (h)|x0
i0 ! ik−1 !
i0 ≥1 ik−1 ≥1
10.2. Sistemi a Tempo Discreto 271
X
k−1 X
k−1
= w0 (k; x0 ) + w1 (k, τ1 ; x0 )u(τ1 ) + w2 (k, τ1 , τ2 ; x0 )u(τ1 )u(τ2 )
τ1 =0 τ1 ≥τ2 =0
X
+... + wp (k, τ1 , . . . , τp ; x0 )u(τ1 ) . . . u(τp ) + . . .
τ1 ≥...≥τp
1 −1
w1 (k, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f (h)|x0
se τ1 = τ2
u(τ1 )2
1 τ1 k−τ1 −1
w2 (k, τ1 , τ1 ; x0 ) = ∆ · ∆f ⊗ L⊗2
g · ∆f (h)|x0
2 f
1 τ2 τ1 −τ2 −1 1 −1
w3 (k, τ1 , τ2 , τ2 ; x0 ) = ∆ · ∆f ⊗ L⊗2
g · ∆f · ∆f ⊗ Lg · ∆k−τ (h)|x0
2 f f
1 τ3
w3 (k, τ2 , τ2 , τ3 ; x0 ) = ∆ · ∆f ⊗ Lg · ∆τf3 −τ2 −1 · ∆f ⊗ L⊗2 k−τ2 −1
g · ∆f (h)|x0 s
2 f
se τ1 = τ2 = τ3 , u(τ1 )3 ,
1 τ1 k−τ1 −1
w3 (k, τ1 , τ1 , τ1 ; x0 ) = ∆ · ∆f ⊗ L⊗3
g · ∆f (h)|x0
3! f
272 10. Introduzione alle rappresentazioni non lineari
1 −1
γ1 (k, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f (Id)|x0
...
x + f (x) = γ0 (1; x)
g(x) = γ1 (1, 0; x) = ∆f ⊗ Lg (Id)|x
h(x) = w0 (0, x)
x + f (x) = x + Ax
g(x) = N x
h(x) = Cx
si ha:
1 ⊗h
∆f (h)|x = h|x + Lf (h)|x + . . . + L (h)|x + . . .
k! f
con h(x) = Cx ¯
∂h ¯¯
Lf (h)|x = ·f (x) = CAx
∂x ¯x
L⊗2
f (h)|x = 0
Analogamente si verifica:
∆kf (I)|x = (I + A)k x
¯
∂h ¯¯
∆f ⊗ Lg (h)|x = ·g(x)
∂x ¯x+f (x)
= CN x
∆f ⊗ L⊗p
g (h)|x = 0 p>1
⇓
10.2. Sistemi a Tempo Discreto 273
w1 (k + 1, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f
1
(h)|x0
= C(I + A)k−τ1 N (I + A)τ1 x0
con: ¯
1 −1
∂w0 (k − τ1 − 1; x) ¯¯
e1 (k, τ1 ; x) = ∆f ⊗
w Lg ∆k−τ
f (h)|x = ¯ ·g(x)
∂x x+f (x)
1 k−τ1 −1
e2 (k, τ1 = τ2 ; x) =
w ∆f ⊗ L⊗2 g · ∆f (h)|x
2 ¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
= ¯ ·g ⊗2 (x)
2 ∂x⊗2 x+f (x)
⇓
¯ ¯
∂h(I + f + ug)−1 ¯¯ ∂h ∂(I + f + ug)−1 ¯¯
G(u, 0)(h) = ¯ ·g(x) == ¯ ·g(x) = LG(u,0) h
∂x x+f (x) ∂x ∂x x+f (x)
X ui
G(u, 0) = Gi (0)
i!
i≥1
Gi (0) = ∆f τ Gi (0)∆f −τ
•
k µ
X ¶
k−1
Pk (τ ) = LGi (τ ) Pk−i (τ )
i−1
i=1
274 10. Introduzione alle rappresentazioni non lineari
↓
P1 = G 1 P2 = G2 + LG1 G1 ...
⇓
...
ep (k, τ1 , . . . , τp ; x0 ) = wp (k, τ1 , . . . , τp ; x0 )
w
⇓
¯
∂w0 (k − τ1 − 1; x) ¯¯
¯ ·g(x0 ) = ∆f ⊗ Lg ∆f (h)|x = w11 (k − τ1 − 1)
k−τ1
w1 (k, τ1 ; x0 ) =
∂x x0
¯ ¯
∂w1 (k, τ1 , ς) ¯¯ ∂∆τf1 −τ2 −1 (x) ¯
w2 (k, τ1 , τ2 ; x0 ) = · ¯ ·g(x0 )
∂ς ¯ ∂x ¯
ς=x0 x=x0
1
= w21 (k − τ1 − 1)w22
1
(τ1 − τ2 − 1)
⇓
¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
w2 (k, τ1 , τ1 ; x0 ) = ¯ ·g ⊗2 (x0 )
2 ∂x⊗2 x=x0
2
= w21 (k − τ1 − 1)
10.2. Sistemi a Tempo Discreto 275
Proposizione 1: Sia ssegnata una rappresentazione a tempo discreto affine rispetto all’igresso; sia
(I + f ) invertibile e sia x0 di equilibrio. I primi p nuclei ammettono una realizzazione affine rispetto
allo stato.
Con l’ipotesi di invertibilità della funzione (I + f ) si deducono le ulteriori seguenti decomposizioni
¯ ¯ ¯
∂w0 (k − τ1 − 1, x) ¯¯ ∂w0 (k − 1, ς) ¯¯ ∂γ0 (τ1 , x) ¯¯
¯ g(x0 ) = ¯ · ¯ ·g(x0 )
∂x x0 ∂ς ς=x0 ∂x x=x0
k−τ1 −1
= P11 (k − 1)Q11 (τ1 ) = C11 (A11 ) B11
Analogamente:
1
w2 (k, τ1 > τ2 ; x0 ) = P21 (k − 1)Q121 (τ1 )P22
1
(τ1 − 1)Q122 (τ2 )
1
= C21 (A121 )k−τ1 −1 B21
1 1
C22 (A122 )τ1 −τ2 −1 B22
1
2
w2 (k, τ1 , τ1 ; x0 ) = P21 (k − 1)Q221 (τ1 ) = C21
2
(A221 )k−1−τ1 B21
2
si ha:
X
k−1
y2 (k) = 1
C21 (A121 )k−τ1 −1 B21
1 1
C21 (A122 )τ1 −τ2 −1 B22
1
u(τ1 )u(τ2 )
τ1 >τ2 =0
Un’analisi più approfondita consente di limitare il numero di sistemi a stato affine. Nel caso precedente
con
A11 = A221 , C11 = C21 2
⇓
2 2
z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21 u (k)
y4 (k) = C11 z4 (k)
con
y4 (k) = y1 (k) + y3 (k)
11. La geometria dei sistemi di equazioni differenziali
11.1. Il punto di vista della geometria nello studio dei sistemi di equazioni
differenziali
x ∈ Rn ⇒ Ax ∈ Rn
Le evoluzioni libere che muovono da stati che appartengono alla stessa varietà affine ottenuta
per traslazione del sottospazio V si mantengono in varietà affini della stessa classe. In termini sin-
tetici varietà traslate di V evolvono in varietà traslate o, equivalentemente la struttura indotta per
traslazione da V , la foliazione, è invariante rispetto alla dinamica.
• L’immagine di B è in V
278 11. La geometria dei sistemi di equazioni differenziali
• l’invarianza del sottospazio implica che le evoluzioni, sia libere che forzate, da uno stato iniziale
in V restano in V
• l’invarianza della struttura implica l’invarianza della struttura (foglie in foglie) anche sotto forza-
mento .
• l’invarianza del sottospazio implica che l’evoluzione in uscita da uno stato iniziale in V è identi-
camente nulla
• l’invarianza della struttura implica che alle evoluzioni che muovono da stati che appartengono
alla stessa foglia è associata la stessa uscita.
x∈M f (x) ∈ Tx M
∂λi
c0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − 1} ⇒ f = 0 i = 1, . . . , n − 1
∂x
11.2. Sistemi a tempo continuo: invarianza e scomposizioni locali 279
• sottospazio ⇒ distribuzione
distribuzione
∆ : x 7→ ∆(x) ⊂ Tx M
∂λi
s0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − k} ⇒ f = 0 i = 1, . . . , n − k
∂x
Definizione 1. ∆ è involutiva se
τ1 , τ2 ∈ ∆ ⇒ [τ1 , τ2 ] ∈ ∆
• Teorema di FROBENIUS
∆, di dimensione costante, è integrabile se e solo se è involutiva
Un esempio di come sia possibile estendere, localmente, alla classe dei sistemi affini alcuni risultati
della teoria lineare può essere facilmente messo in evidenza facendo riferimento alle proprietà di
invarianza e alle scomposizioni rispetto ad esse. Le tecniche della geometria differenziale sono utili a
tal fine; tra gli strumenti di base quello di distribuzione viene qui impiegato.
Si ricorda che una distribuzione è una legge che associa ad ogni punto di una varietà differenziabile
un sottospazio dello stato tangente in quel punto x → ∆(x) ⊂ T × M con M = Rn .
Con riferimento ad una rappresentazione differenziale affine, la seguente assunzione di regolarità
è centrale per le considerazioni che seguono. ∆(x) viene assunta essere una distribuzione nonsingolare
(cioè a dimensione costante), involutiva (e quindi integrabile) in Ix0 un intorno di x0 .
Ciò premesso è facile ritrovare il concetto di invarianza che nella teoria lineare si esprime come
AV ⊂ V ed ha implicazioni sulla struttura del sistema:
µ ¶
−1 A11 A12
∃T : T AT = , in z = T x.
0 A22
Si noti che tale definizione estende il concetto di invarianza come sottoinsieme a quello di invarianza
come foliazione (sotto l’applicazione di f foglie si trasformano in foglie). Nel caso lineare, come notato
in precedenza, i due concetti si confondono in quanto l’invarianza in senso geometrico qui impiegata
è implicata della invarianza di insieme.
Lf Lr ϕi − Lr Lf ϕi = 0 ⇒ Lr Lf ϕi = 0 i = d + 1, . . . , n
11.2. Sistemi a tempo continuo: invarianza e scomposizioni locali 281
cioè fe2 è costante sulle varietà integrali di ∆, quindi è funzione di ϕd+1 , . . . , ϕn (zd+1 , . . . , zn ).
Con considerazioni analoghe assumendo che ∆ sia invariante rispetto ad f e g i.e.
[f, ∆] ⊂ ∆, e [g, ∆] ⊂ ∆
La struttura delle equazioni mette in evidenza che gli stati del sottosistema S2 sono non “raggiungi-
bili”.
Si ricordi che nel caso lineare la scomposizione rispetto alla proprietà di raggiungibilità conduce
a
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
formalmente analoga a quella ottenuta nel contesto non lineare.
Ricordando anche che, per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo
sottospazio invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la
raggiungibilità di S1 , una scomposizione locale per il sistema affine può essere ottenuta facendo rifer-
imento alla più piccola distribuzione invariante rispetto ad f e g contenente g. Tale distribuzione può
essere costruita iterativamente
∆0 = g
∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ]
∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ]
..
.
∆n−1 è la distribuzione cercata, corrispondente non lineare di R(B . . . An−1 B).
Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati
raggiungibili al tempo t da x0 a t = 0 è dato da
ove
Y∆n−1 (γ0 (t, x0 ))
rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x − 0).
Analoghe considerazioni possono essere fatte rispetto alla proprietà di osservabilità facendo rifer-
imento ad una ∆ contenuta nella distribuzione Kerdh e possibilmente la più grande. La struttura
geometrica locale è topologicamente analoga al lineare nelle ipotesi di regolarità di ∆.
282 11. La geometria dei sistemi di equazioni differenziali
Le considerazioni sintetiche svolte vogliono fare intendere come, con gli strumenti della geometria
differenziale sia possibile generalizzare, localmente e sotto adeguate ipotesi di regolarità, alcuni aspetti
della teoria lineare. Il rilascio delle ipotesi di regolarità e lo studio del comportamento attorno ai
punti singolari costituisce l’oggetto di attività di ricerca avanzata.I risultati di tali studi sono alla
base di risultati importanti dal punto di vista delle applicazioni della teoria del controllo. Il lettore
ha certamente colto il forte collegamento dell’approccio qui messo in luce con i problemi di analisi
qualitativa dei sistemi dinamici. La differenza saliente, che caratterizza e condiziona la formulazione
stessa dei problemi affrontati nonché i metodi della teoria dei sistemi, essendo collegata alla presenza
della variabili di controllo, gli ingressi.
Uno studio parallelo a quello succintamente esposto può essere fatto per i sistemi a tempo dis-
creto. La mancanza di una struttura differenziale nelle equazioni alle differenze non consente di
trarre giovamento da una struttura affine rispetto all’ingresso. Interessanti risultati sono presenti in
letteratura.
• estende il concetto di invarianza come sottoinsieme a quello di invarianza come foliazione (sotto
l’applicazione di f foglie si trasformano in foglie). Nel caso lineare i due concetti si confondono
in quanto l’invarianza in senso geometrico qui impiegata è implicata della invarianza di insieme.
• µ ¶ µ ¶
e ∂Φ ¯
¯ fe1 (z1 , z2 )
∃z = Φ(x) : f (z) = · f Φ−1 (z) =
∂x fe2 (z2 )
• nelle nuove coordinate fe2 è costante sulle varietà integrali di ∆, i.e. è funzione di (ϕd+1 , . . . , ϕn ) =
(zd+1 , . . . , zn ).
• se ∆ è invariante rispetto ad f e g, cioè
[f, ∆] ⊂ ∆ e [g, ∆] ⊂ ∆
Ricordando che per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo sottospazio
invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la raggiungibilità
del primo sottosistema, una scomposizione locale per il sistema affine può essere ottenuta facendo
riferimento alla più piccola distribuzione invariante rispetto ad f e g contenente g.
• algoritmo
∆0 = g
∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ]
∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ]
..
.
• ∆n−1 è la versione non lineare della distribuzione piatta di raggiungibilità R(B . . . An−1 B).
• Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati
raggiungibili al tempo t da x0 a t = 0 è dato da
I∆n−1 (γ0 (t, x0 )) rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x0 ).
284 11. La geometria dei sistemi di equazioni differenziali
• alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa
uscita.
• versione non lineare di
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
y = C2 z2
Covettore, ω, è una legge che associa ad ogni x un vettore riga (ω1 (x), · · · , ωn (x)), codistribuzione,
Ω, una legge che associa ad ogni x un sottospazio dello spazio duale di Tx M .
∂ω T ∂f
Lf ω = [ f] + ω
∂x ∂x
Ω è invariante rispetto ad f se Lf Ω ⊂ Ω.
Ricordando che per un sistema lineare l’insieme degli stati inosservabili è il più grande sottospazio
invariante rispetto ad A che è contenuto nel kernel di C, una scomposizione locale di interesse per il
sistema affine può essere ottenuta facendo riferimento alla più grande distribuzione invariante rispetto
ad f e g contenuta in Kerdh.
• algoritmo
Ω0 = dh
Ω1 = Ω0 + Lf Ω0 + Lg , Ω0
Ω2 = Ω1 + Lf Ω1 + Lg , Ω1
..
.
• Ωn−1 è la più piccola codistribuzione invariante rispetto al f e g che contiene dh. Ωn−1 ⊥ è la più
grande distribuzione invariante rispetto ad f e g che è contenuta in kerdh.
• Versione nonlineare della distribuzione piatta di indistinguibilità.
Un esempio di applicazione
11.3. Sistemi a tempo discreto: invarianza e scomposizioni locali 285
p ∈ ∆ ⊂ Kerdh
F := I + f + ug e F0 := I + f
∂Φ2|F (x, u) ∂F ∂ −1
· |x · Φ (z) = 0
∂x ∂x ∂z1
essendo l’ultima uguaglianza verificata per la proprietà di invarianza e la scelta delle coordinate.
∂F
⊂ ∆(F (x, u))
∂u
implica che nelle coordinate z il sistema è descritto dalle equazioni
∆ ⊂ kerdH
infatti e
∂H
= 0 poichè ∆ = span ∂z∂ 1 . Nelle coordinate z si ha dunque
∂z1
Un esempio di applicazione
11.3. Sistemi a tempo discreto: invarianza e scomposizioni locali 287
∂F
⊂ ∆(F (·, u, w))
∂w
∆ ⊂ KerdH
⇓
z1 (k + 1) = Fe1 (z1 (k), z2 (k), u(k), w(k))
z2 (k + 1) = Fe2 (z2 (k), u(k))
e 2 (k))
y(k) = H(z
• versione nonlineare di
C
CA
P ⊂ R(P . . . An−1 P ) ⊂ V ⊂ N ⊂ N (C)
...
CAn−1
∂ ∂
H ◦ F 0 r−1 ◦ F (x, u) 6= 0 H ◦ F 0 k ◦ F (x, u) = 0 k = 0, . . . , r − 2
∂u ∂u
⇓
dH
dH · F0
rango =r⇒r≤n
|
dH · F 0 r−1
z1 (k + 1) = z2 (k)
|=|
zr (k + 1) = S(z(k), η, u(k))
η(k + 1) = Q(z(k), η, u(k))
y(k) = (z1 (k)
288 11. La geometria dei sistemi di equazioni differenziali
e v)
u = (γz, η, v) : S(z, η, γ(z, η, v)) = S(z,
∂
rende ∆ = span ∂η invariante.
e 0) = 0, si ottiene la dinamica
• Se H(x0 ) = 0, Φ1 (x0 ) = 0 e la controreazione , γ ∗ , è tale che S(0,
zero
• problemi di stabilità.
• Se esiste una funzione ϕ tale che rvarphi = n si ottiene la completa linearizzazione mediante
controreazione.
Indice
11.1 Il punto di vista della geometria nello studio dei sistemi di equazioni
differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
11.2 Sistemi a tempo continuo: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . 279
11.3 Sistemi a tempo discreto: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . . 285