Sei sulla pagina 1di 294

2

Salvatore Monaco

Teoria dei Sistemi

Appunti delle lezioni

2000-2001
3

Teoria dei Sistemi

Teoria, θ²ωρια, delegazione, lunga fila di teori ( θ²ωρως, da θ²ωρ²ω: ”esaminare, osservare”)
inviati alle grandi celebrazioni religiose, a consultare gli oracoli. Cosı̀ come l’insieme delle acquisizioni
dei teori veniva accettato per interpretare e comprendere i fenomeni, una teoria nell’accezione corrente
consiste in una formulazione logicamente coerente (in termini di concetti ed enti più o meno astratti)
di un insieme di definizioni, principi e leggi generali che consentono di descrivere, interpretare, clas-
sificare, spiegare, a vari livelli di generalità, aspetti della realtà naturale e sociale, e delle varie forme
di attività umana.
Sistema da σισθηµα: ”riunione, complesso”. In ambito scientifico, qualsiasi oggetto di studio
che, pur essendo costituito da diversi elementi reciprocamente interconnessi e interagenti tra loro o
con l’ambiente esterno, reagisce o evolve come un tutt’uno con proprie leggi generali.
La Teoria dei Sistemi consta di un corpo di metodologie per l’analisi dei Sistemi.
Dopo un primo capitolo in cui vengono introdotte le definizioni fondamentali, il vocabolario ed i
primi elementi di rappresentazione e classificazione, saranno presentati nei capitoli successivi i diversi
metodi di analisi. Lo studio viene sviluppato per la classe dei sistemi lineari stazionari a dimensione
finita e si conclude con alcuni elementi di analisi per sistemi non lineari.
1. Sistemi dinamici e Rappresentazioni con lo
Stato

Dalla definizione di Sistema alle Rappresentazioni con lo Stato.


Viene mostrato come, a partire da una definizione del tutto generale di sistema astratto, l’introduzione
dei concetti di parametrizzazione e di causalità consentano di giungere alla rappresentazione con lo
stato di un sistema dinamico. Vengono, quindi introdotti elementi di classificazione.

1.1. Sistema astratto

Nell’accezione comune sistema, σισθηµα: ”riunione, complesso”, è un attributo impiegato per


indicare un complesso che presenta caratteristiche comuni da un qualche punto di vista; le caratteris-
tiche comuni possono riferirsi alla similitudine dei componenti, è questo il caso di un sistema montuoso
o di un sistema monetario, o alla complementarietà da un punto di vista funzionale, sistema muscolare
o sistema esperto.
In ambito scientifico si dà privilegio a questo secondo aspetto. Un sistema è, dunque, un qual-
siasi oggetto di studio che, pur essendo costituito da diversi elementi reciprocamente interconnessi
e interagenti tra loro o con l’ambiente esterno, reagisce o evolve come un tutt’uno con proprie leggi
generali.
Teoria generale dei sistemi, Scienza dei sistemi, Teoria dei sistemi. Un escursus ed alcune pre-
cisazioni.
La Teoria generale dei sistemi ispirata dalla individuazione di leggi comuni in comparti disciplinari
distinti, si pone l’obiettivo di giungere ad un’unificazione su base modellistica. La Scienza dei sistemi
ispirata dall’esigenza di gestire la complessità, si pone l’obiettivo di proporre un approccio progettuale
comune per classi di problemi e modelli. In questo contesto la Teoria dei sistemi si pone l’obiettivo
di giungere ad una formalizzazione dei concetti ed alla costruzione di un quadro di metodologie per
lo studio sistematico per classi di modelli.
Risultato di più livelli di astrazione: a partire da una formulazione astratta del comportamento
dinamico dell’oggetto allo studio (primo livello), verso l’impiego del modello al fine di migliorare
1.1. Sistema astratto 5

la conoscenza del fenomeno (secondo livello), sino al riconoscere la generalità del modello adatto
a rappresentare fenomeni diversi di differenti settori disciplinari (terzo livello), per arrivare ad una
classificazione per tipologie di modelli ed allo sviluppo di metodologie di analisi per classi (quarto
livello).
Si parte dalla formalizzazione del concetto di sistema verso i metodi di studio seguendo la for-
mulazione matematica.
Una prima formalizzazione conduce naturalmente a pensare ad un sistema come ad un insieme
di grandezze (elementi) assieme ad un insieme di relazioni tra esse. Le grandezze costituiscono una
rappresentazione astratta degli elementi e le relazioni specificano le interconnessioni, le interazioni,
tra gli elementi stessi e con l’esterno, ciò che serve anche a precisare il punto di vista dello studio.
La formalizzazione ci impone di astrarre dal contesto e pensare ad un sistema come ad un’entità
che stabilisce precisi legami funzionali tra insiemi di variabili. Si giunge in tal modo alla seguente
definizione formale di sistema astratto.

Definizione 1. Sistema astratto è una coppia Σ: = {V, R} ove V rappresenta l’insieme delle variabili
ed R rappresenta l’insieme delle relazioni tra le variabili. Gli elementi di R sono le regole che in modo
formale, mediante relazioni matematiche o a parole, specificano gli elementi del sistema: i possibili
comportamenti.

Questa definizione conferisce al concetto di sistema astratto una vasta generalità. Esso, in prima
istanza, corrisponde alla descrizione formale associata ad un dato fenomeno e trova applicazione nei
settori più diversi.

Esempio 1.1. Un qualsiasi componente o dispositivo che stabilisce un legame tra grandezze fisiche.
Ad esempio un componente elettrico resistivo: V è l’insieme delle coppie di variabili, tensione e
corrente, simbolicamente denotate v e i, V : = {v, i}, mentre R è costituito dall’eguaglianza v = ri.

Esempio 1.2. Un principio o una legge della fisica. Ad esempio la dinamica nel sistema gravitazionale
terrestre: V è l’insieme di funzioni del tempo che assumono valori nello spazio, R è rappresentato
dalle leggi di Keplero.

Esempio 1.3. Un processo di crescita di una popolazione governato da fenomeni di sviluppo noti.
Ad esempio la dinamica della crescita cellulare: V è l’insieme di funzioni del tempo che assumono
valori nei reali positivi, R è rappresentato dalle leggi di interazione e sviluppo.

Esempio 1.4. Un sistema di relazioni matematiche. Ad esempio le disequazioni Ax ≤ 0 in cui x è la


generica variabile ed assume valori in un assegnato insieme mentre la diseguaglianza stessa definisce
R.

Una prima specializzazione è necessaria per precisare la classe di sistemi a cui ci rivolgeremo: i
sistemi dinamici. In essi i possibili comportamenti sono funzioni del tempo: la variabile indipendente.
6 1. Sistemi dinamici e Rappresentazioni con lo Stato

Dobbiamo dunque pensare ad insiemi di variabili che evolvono nel tempo secondo definite regole e
relazioni tra esse. Per giungere ad una definizione formale di sistema dinamico astratto è necessario
introdurre alcune notazioni.
Sia T un sottoinsieme ordinato di R, insieme dei reali, o Z, insieme degli interi; T è detto insieme
dei tempi. Sia inoltre T (t0 ) l’insieme dei tempi maggiori o uguali ad un tempo t0

T (t0 ) = {t ∈ T : t ≥ t0 }

Se indichiamo con W T (t0 ) l’insieme delle funzioni definite su T (t0 ) che assumono valori in W

W T (t0 ) = {w0 (·) : ∀t ≥ t0 , t → w0 (t) ∈ W },

un fissato sottoinsieme di W T (t0 )


Σ(t0 ) ⊂ W T (t0 )

può essere impiegato per precisare quelli che indicheremo come i possibili comportamenti a t0 . Pos-
siamo, infatti, in modo del tutto generale definire un sistema astratto come un insieme di possibili
comportamenti nei diversi istanti di tempo. Questi insiemi dovranno soddisfare ad una proprietà
elementare come l’intuizione suggerisce. Se, infatti, pensiamo ai possibili comportamenti ad un dato
tempo come evoluzioni del sistema, risultato di esperimenti a tale istante di tempo, dovrà essere vero
che i risultati di esperimenti ad un fissato istante t0 , se visti dal generico t1 ≥ t0 , sono compresi tra i
risultati di esperimenti a t1 . Da un punto di vista formale dovrà essere verificata la seguente proprietà,
detta di chiusura rispetto al troncamento (CRT ): per ogni fissata coppia (t0 , t1 ), con t1 ≥ t0 , se w0
appartiene a Σ(t0 ) allora il suo troncamento su T (t1 ), w0 |T (t1 ) , cioè tale funzione considerata da t1 in
poi, deve appartenere a Σ(t1 ).
Siamo dunque pervenuti alla seguente definizione di sistema dinamico

Definizione 2. Sistema dinamico è una terna

S: = {T, W, Σ}

dove: ¯
¯
Σ: = {Σ(t0 ), t0 ∈ T : ∀t1 ∈ T (t0 ), w0 ∈ Σ(t0 ) ⇒ w0 ¯ ∈ Σ(t1 )}.
T (t1 )

Un sistema dinamico è dunque un insieme di comportamenti definiti ad ogni istante di tempo.


Essi soddisfano alla proprietà di chiusura rispetto al troncamento.
Se T ⊂ R il sistema è a tempo continuo; se T ⊂ Z il sistema è a tempo discreto.

Esempio 1.5. Dinamica nel sistema gravitazionale terrestre: T = R, W = R3 , Σ(t0 ) insieme delle
traiettorie, definite da t0 in poi, che soddisfano le leggi di Keplero.
1.1. Sistema astratto 7

Esempio 1.6. Modello economico di Leontief. Indicate con


- xi : quantità di prodotto i-mo al tempo t;
- aij : quantità di prodotto i-mo per produrre una unità di prodotto j-mo
la seguente diseguaglianza esprime un evidente vincolo di bilancio

X
n
xi (t) ≥ aij xj (t + 1) (D)
j=1

con T = Z+ e W = Rn+ . I possibili comportamenti a t0 sono definiti come

Σ(t0 ) = {w0 : T (t0 ) → Rn+ : ∀t ≥ t0 (D) vale}

La definizione data di sistema dinamico trova un riscontro nella “descrizione (rappresentazione)


enumerativa” dei comportamenti delle variabili che caratterizzano un dato oggetto, processo o fenomeno.
Si noti che uno stesso sistema astratto può essere associato a fenomeni diversi: si pensi a diversi
fenomeni rappresentati da uno stesso modello matematico.
Proprietà sui possibili comportamenti specificano la struttura di Σ.
Una prima particolarizzazione si ottiene richiedendo che i possibili comportamenti al generico
istante di tempo possano essere ottenuti per troncamento di possibili comportamenti ad istanti prece-
denti. Se la proprietà di CRT richiede che i troncamenti al tempo t1 ≥ t0 siano possibili comportamenti
a t1 , ora i troncamenti a t1 definiscono tutti e soli i possibili comportamenti a tale istante di tempo.
La formalizzazione di questo aspetto conduce alla seguente definizione.

Definizione 3. Sistema dinamico uniforme: S = {T, W, Σ} si dice uniforme se esiste un unico


sottoinsieme di W T , sia Σun , che genera tutti i possibili comportamenti Σ(t0 ) al variare di t0 , cioè:
¯
¯
∀t0 , w ∈ Σun ⇒ w¯ ∈ Σ(t0 )
T (t0 )
¯
¯
w0 ∈ Σ(t0 ) ⇒ ∃w ∈ Σun : w¯ = w0 .
T (t0 )

Una ulteriore particolarizzazione consiste nell’introdurre i sistemi stazionari. Si tratta, come


l’intuizione suggerisce, di sistemi in cui i possibili comportamenti non dipendono dal tempo; in altre
parole il risultato di esperimenti sul sistema non dipende dall’istante in cui l’esperimento inizia. I
comportamenti sono dunque invarianti rispetto alla traslazione temporale. Questo, da un punto di
vista formale, implica che per quanto riguarda il calcolo delle funzioni associate ai comportamenti,
quelle al generico istante t0 sono sufficienti a definire il sistema: infatti quelle a t1 sono ottenute per
traslazione da quelle a t0 . Più precisamente se si indica con ∆t̄ l’operatore di traslazione:

(∆t̄ f )(t0 ): = f (t0 − t̄).


8 1. Sistemi dinamici e Rappresentazioni con lo Stato

Definizione 4. Sistema dinamico stazionario: S = {T, W, Σ} è detto stazionario se

∆t̄ Σ(t0 ) = Σ(t0 + t̄)

per ogni t0 e t̄ in T .

La precedente definizione esprime formalmente che traslando Σ(t0 ) a destra di t̄ (se t̄ è positivo) si
ottengono le coppie al tempo (t0 + t̄), Σ(t0 + t̄). E, tornando a quanto detto in precedenza, Σ(t1 ) è
ottenuto da Σ(t0 ) per effetto di una traslazione di t1 − t0 .
Per i sistemi a tempo discreto introducendo l’operatore di traslazione unitaria, che sarà indicato
con σ, la proprietà di stazionarietà si esprime

σΣ(t) = Σ(t + 1)
.
In conclusione, poiché i comportamenti di un sistema stazionario al generico istante t0 possono
essere ottenuti per traslazione a partire da quelli ad un fissato istante assunto zero per convenzione
(Σ(t0 ) = ∆t0 Σ(0)), un sistema stazionario rimane definito da una terna {T, W, Σ(0)}.
Un’ulteriore particolarizzazione è quella che conduce alla definizione di sistema lineare.

Definizione 5. Sistema dinamico lineare. S = {T, W, Σ} è detto lineare se W è uno spazio lineare
sui reali e se, per ogni t0 , Σ(t0 ) è un sottospazio lineare di W T (t0 ) . Ciò equivale a richiedere che
comunque fissati w1 , w2 ∈ Σ(t0 ) e α, β ∈ R

αw1 + βw2 ∈ Σ(t0 ).

La definizione data di sistema dinamico in termini dei possibili comportamenti corrisponde ad una
descrizione esplicita, enumerativa, di un dato oggetto o fenomeno.
Molto spesso la caratterizzazione dei comportamenti possibili può essere fatta utilizzando equazioni
che costituiscono un modello matematico del sistema; si ha in questo caso una descrizione implicita,
sintetica, del sistema. Nella gran parte dei casi la descrizione implicita è ottenuta mediante equazioni
alle differenze, per i sistemi a tempo discreto (T = Z), o equazioni differenziali, nel caso dei sistemi
a tempo continuo. Inoltre, nella costruzione del modello è spesso necessario impiegare un insieme
aggiuntivo di variabili. Questi due aspetti sono nel seguito chiariti con semplici esemi.
E’ spesso la rappresentazione implicita il punto di partenza nello studio dei fenomeni.

Esempio 1.7. Un semplice modello di microeconomia: dinamica del prezzo in condizioni di equilibrio
tra domanda e offerta. Si supponga di voler descrivere la variazione del prezzo di un prefissaato bene
assumendo, in una forrmulazione elementare, che nel mercato non siano presenti beni concorrenti. Se
si indica con p il prezzo unitario, con d la domanda e con o l’offerta non è difficile rendersi conto che
valgono relazioni del tipo
d(p) = d0 − ap
.
s(p) = o0 + bp, a, b > 0
1.1. Sistema astratto 9

Infatti, soddisfatta un’esigenza fondamentale, d0 , la domanda diminuisce all’aumentare del prezzo


secondo un andamento che si può assumere in prima approssimazione di tipo proporzionale, inoltre,
a meno di una soglia di produzione legata alla capacità industriale, o0 , l’offerta aumenta con il prezzo
con un andameento in prima approssimazione anch’esso proporzionale al prezzo.
Se ora si tiene conto del fatto che mentre l’adeguamento della domaanda al ”prezzo” è istan-
taneo, l’adeguamento della produzione richiede che sia perlomeno trascorso il tempo necessario alla
produzione, assunto tale intervallo di tempo unitario, la domanda e l’offerta variano nel tempo secondo
le seguenti uguaglianze
d(t + 1) = d0 − ap(t + 1)
.
o(t + 1) = o0 + bp(t)
Il precedente modello elementare può essere utimlizzato per descrivere come varia il prezzo del
prodotto. Se infatti si assume che il mercato sia in equilibrio, la produzione uguaglia la domanda,
o(t + 1) = d(t + 1), si ottiene
b d0 − o0
p(t + 1) = − p(t) + .
a a
La precedente equazione alle differenze descrive, sotto le ipotesi semplificative sottolineate, una rapp-
resentazione intrinsecamente implicita, cioè del tipo citato, della dinamica dell’evoluzione del prezzo
di un prodotto a partire da una perturbazione rispetto alla condizione di equilibrio.

L’impiego di variabili ausiliarie è spesso necessario nella costruzione di un modello. Questo aspetto
è illustrato nel seguente esempio.

Esempio 1.8. Dinamica della popolazione di una nazione. Si immagini di voler formulare un modello
matematico per descrivere come varia nel tempo il numero di persone in età compresa tra 60 e 70 anni
in una assegnata regione. Come l’intuizione immediatamente suggerisce, la progressione temporale
nel passaggio da un’età ad un’altra rende necessario fare riferimento ad una suddivisione in classi di
età e descrivere l’evoluzione nel tempo di esse. Se si decide di voler descrivere l’evoluzione con una
cadenza annuale e si assume pari ad un anno l’ ampiezza delle classi di età, il numero di persone in
ciascuna classe di età fornisce, per il problema in esame, un insieme completo di variabili ausiliarie.
La loro evoluzione nel tempo consente infatti di ottenere gli andamenti temporali desiderati.
Indicato con xi (t) il numero di persone di età i al tempo t, si ha:

xi+1 (t + 1) = βi xi (t), i = 0, . . . , n − 1

x0 (t + 1) = αmf xmf (t) + . . . + αM f xM f (t)

con αi coefficienti di fertilità, con i compreso tra i limiti del periodo di fertilità mf ed Mf, e βi
coefficienti di sopravvivenza qui assunti costanti per semplicità. La somma, ad ogni istante, delle
variabili con indice compreso tra 60 e 70 fornisce la descrizione cercata. E’ dunque necessario, per
descrivere la dinamica voluta, rappresentare anche la variazione delle classi di età precedenti a quelle
interessate. Si tratta di un insieme di variabili ausiliarie.
10 1. Sistemi dinamici e Rappresentazioni con lo Stato

Esempio 1.9. Dinamica di una popolazione animale Se si suppone di voler descrivere la dinamica
di una popolazione animale di predatori è necessario descrivere anche l’andamento di altre variabili,
della preda ad esempio, che costituisce la risorsa per la crescita. Se supponiamo che siano presenti solo
due specie, il seguente modello matematico (Volterra 1906) esprime l’interazione tra le due variabili
x1 (t) e x2 (t) che rappresentano la densità della preda e quella del predatore, rispettivamente.

ẋ1 (t) = ax1 (t) − kx1 2 − bx1 (t)x2 (t)


ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
Più precisamente la prima equazione esprime il tasso di crescita proporzionale, secondo a, alla
densità della specie, mentre il termine −kx1 2 rappresenta un fattore limitante che tiene conto della
limitatezza delle risorse e −bx1 (t)x2 (t) rappresenta la limitazione imposta dalla presenza del predatore:
l’impedimento alla crescita è assunto proporzionale alla probabilità di incontro e tale probabilità è
assunta proporzionale al prodotto delle densità delle specie. La seconda equazione infine esprime
l’estinzione con decadimento esponenziale della specie predatore in assenza di preda, assenza di risorse,
e la crescita proporzionale al prodotto delle densità delle specie.

I precedenti semplici esempi mostrano che può essere utile, talvolta necessario, fare riferimento
ad un insieme di variabili ausiliarie rispetto a quelle, terminali, che assumono valori in W e che
caratterizzano i possibili comportamenti.

Definizione 6. Un sistema dinamico con variabili ausiliarie è una quadrupla Sa = {T, W, A, Σa } con
- A insieme dei valori delle variabili ausiliarie;
- Σa = {Σa (t0 ) ⊆ (W × A)T (t0 ) : sia soddisfatta CRT}.
Sa è la rapprentazione con variabili ausiliarie di S: = {T, W, Σ} se per ogni t0

Σ(t0 ) = {w0 : ∃a0 ∈ AT (t0 ) t.c.(w0 , a0 ) ∈ Σa (t0 )}.

Una classe particolare di variabili ausiliarie è quella delle variabili di stato.


L’interesse di introdurre le variabili di stato può essere collegato all’esigenza di sintetizzare nel
valore di un insieme di variabili al tempo t, appunto delle variabili di stato, quelle informazioni sul
passato necessarie a caratterizzare i comportamenti futuri.

Definizione 7. Stato. Un sistema dinamico con variabili di stato è un sistema dinamico con variabili
ausiliarie Sx := {T, W, X, Σx }, in cui Σx soddisfa l’assioma di stato

{(w01 , x10 ), (w02 , x20 ) ∈ Σx (t0 ), t ≥ t0 e x10 (t) = x20 (t)} ⇒ {(w0 , x0 ) ∈ Σx (t0 )}

dove (w0 , x0 ) è definito ( )


0 0
(w01 (t0 ), x10 (t0 )) t0 < t
(w0 (t ), x0 (t )) =
(w02 (t0 ), x20 (t0 )) t0 ≥ t
1.2. Sistema astratto orientato e rappresentazioni con lo stato 11

L’assioma dello stato richiede che ogni traiettoria che arriva in un fissato stato possa essere
concatenata con ogni traiettoria che parte da quello stato. In queste condizioni, una volta noto lo
stato ad un fissato istante, i comportamenti futuri sono fissati e nessuna ulteriore informazione è
contenuta nei comportamenti passati. In altre parole lo stato all’istante t è sufficiente a caratterizzare
tutti i possibili comportamenti da t in poi; lo stato a t contiene le informazioni necessarie sul passato.
In breve, lo stato rappresenta la memoria del passato.
Come puntualizzato nella definizione 7, Sx = {T, W, X, Σx } è la rappresentazione con lo stato di
un sistema dinamico S = {T, W, Σ} in cui Σ(t0 ) = {w0 /∃x0 tale che (w0 , x0 ) ∈ Σx (t0 )}.
L’introduzione della definizione di stato e di rappresentazione con lo stato suggerisce immediata-
mente la domanda: Esiste sempre la rappresentazione con lo stato di un assegnato sistema ? Se no,
sotto quali condizioni ?
Il problema della rappresentazione con lo stato di un dato sistema dinamico è molto studiato
nella teoria dei sistemi e sarà approfondito nel seguito con riferimento alla classe dei sistemi dinamici
orientati e causali. I problemi coinvolti riguardano l’esistenza, l’unicità e la minimalità dell’insieme
degli stati.

1.2. Sistema astratto orientato e rappresentazioni con lo stato

Quanto sinora esposto è a fondamento di un punto di vista di ampia generalità che potremmo
pensare collegato ad un approccio interpretarivo, conoscitivo, in cui ha interesse la descrizione di
legami tra variabili, ciò che è tipico, ad esempio, della formulazione di leggi fisiche. Il punto di vista
delle scienze dell’ingegneria conduce a distinguere le variabili in cause ed effetti, ingressi e uscite,
collegate da relazioni di dipendenza causale rispetto al tempo.
Per comprendere questo aspetto è necessario ricordare che in tale ambito disciplinare la model-
lazione di un dato processo o fenomeno rappresenta la prima fase di un procedimento di progetto
che spesso ha per fine il soddisfacimento di prefissate specifiche su un fissato insieme di variabili.
L’individuazione delle variabili esterne su cui intervenire conduce naturalmente ad un processo di
modellistica orientata causa - effetto, ingresso - uscita. Inoltre, sempre in considerazione della finalità
di intervento, si limita lo studio alla classe di processi e fenomeni in cui il legame tra gli ingressi e
le uscite, intese come funzioni del tempo, è causale; si assume cioè che l’uscita al tempo t dipenda
dall’ingresso passato e presente, ma non possa dipendere dall’ingresso dopo tale istante di tempo.
Questo punto di vista è in particolare quello dell’ingegnere dei sistemi di controllo che maggiormente
ha promosso lo sviluppo della Teoria dei Sistemi.
Il seguente esempio illustra questo aspetto.

Esempio 1.10. Dinamica del prodotto nazionale lordo.


Siano: P (t) il prodotto nazionale, C(t) i consumi, I(t) gli investimenti e G(t) le spese per il
governo. Ad un primo livello di approssimazione la dinamica del prodotto nazionale lordo di una
12 1. Sistemi dinamici e Rappresentazioni con lo Stato

nazione (uscita) al variare delle spese del governo (ingresso) può essere calcolata a partire dalle
seguenti relazioni. La prima di esse esprime una semplice relazione di bilancio

P (t) = C(t) + I(t) + G(t)

Inoltre, dagli studi di modellistica economica, una ben nota ipotesi delle teorie classiche ipotizza che si
possano assumere i consumi al tempo t proporzionali al prodotto nazionale allo stesso istante, secondo
un coefficiente, m, che rappresenta la propensione marginale al consumo

C(t) = mP (t), 0<m<1

Ancora dalle teorie classiche, l’incremento del prodotto nazionale può essere assunto proporzionale
all’investimento secondo un fattore r, detto fattore di crescita,

P (t + 1) − P (t) = rI(t)

Con ovvie sostituzioni si ottiene l’uguaglianza


£ ¤
P (t + 1) = 1 + r(1 − m) P (t) − rG(t)

che esprime il legame cercato tra la variazione le spese del governo e il prodotto nazionale lordo. Si
tratta di un legame orientato, da G(t) verso P (t) e di tipo causale rispetto al tempo: P (t) dipende,
in base alla precedente relazione, da quanto vale P ad un certo istante iniziale, t0 , e dalle spese per il
governo da t0 a t.
Un secondo modello, si tratta ancora di una rappresentazione dello stesso tipo, può essere assunto
a rappresentare lo stesso fenomeno in un economia di mercato fondato sulle leggi dell’economista
Samuelson. Samuelson, in alternativa alla assunzioni della teoria classica, ipotizza per i consumi e
gli investimenti delle relazioni diverse dalle precedenti. Per quanto riguarda i primi li assume ancora
proporzionali al prodotto nazionale lordo, ma, ciò che è più verosimile, al valore del prodotto nell’anno
precedente. Si ha quindi:

C(t + 1) = mP (t), 0<m<1

Inoltre ipotizza gli investimenti in un dato periodo proporzionali all’incremento di consumo, e quindi
solo indirettamente al prodotto lordo, secondo la relazione

I(t + 1) = µ(C(t + 1) − C(t))

Con semplici passaggi si ottiene il seguente sistema di equazioni alle differenze prime

C(t + 1) = mC(t) + mI(t) + mG(t)

I(t + 1) = µ(m − 1)C(t) + µmI(t) + µmG(t)

che assieme all’equazione


P (t) = C(t) + I(t) + G(t)
1.2. Sistema astratto orientato e rappresentazioni con lo stato 13

descrive, secondo un diverso punto di vista, l’evoluzione del prodotto lordo in funzione della spesa. Si
tratta ancora di una descrizione causale, in cui P (t) è calcolato a partire da C(t0 ), I(t0 ) e G(·) da t0
a t.

Qualche ulteriore precisazione è necessaria prima di formalizzare la definizione di sistema as-


tratto orientato. Si supponga che l’insieme dei valori delle variabili sia un prodotto cartesiano
W = U × Y ove U indica l’insieme dei valori delle grandezze di ingresso ed Y l’insieme dei valori delle
grandezze in uscita. L’orientamento in un sistema astratto corrisponde alla suddivisione delle variabili
in causa ed effetti e naturalmente suggerisce l’immagine di un sistema dinamico come una scatola nera
che rappresenta le modalità secondo le quali le variabili di uscita sono influenzate da quelle di ingresso.
I possibili comportamenti in questo caso sono immaginati corrispondenti a esperimenti condotti in
diversi istanti t0 .
Con queste precisazioni:

Definizione 8. . Sistema astratto dinamico orientato Un sistema dinamico astratto orientato è una
terna {T, U × Y, Σ} ove
Σ = {Σ(t0 ) ⊂ U T (t0 ) × Y T (t0 ) : t0 ∈ T / CRT sia soddisfatta}
e CRT esprime la chiusura rispetto al troncamento, che per i sistemi orientati si esprime: ∀t0 ∈ T ,
∀t1 ≥ t0
¯ ¯
(u0 , y0 ) ∈ Σ(t0 ) ⇒ (u0 ¯T (t1 ) , y0 ¯T (t1 ) ) ∈ Σ(t1 ).

1.2.a. Causalità

Nel contesto dei sistemi orientati, in cui un possibile comportamento a t0 è pensato come il
risultato di un esperimento che corrisponde alla sollecitazione esterna u0 (·) definita da t0 in poi, il
concetto di variabile di stato, introdotto nella definizione 7. conduce naturalmente ad individuare
una proprietà specifica dello stato. Infatti l’insieme degli stati a t0 costituisce una parametrizzazione
dell’insieme Σ(t0 ), cioè delle possibili coppie ingresso-uscita. Fissare u0 non è sufficiente ad individuare
y0 perchè Σ(t0 ) è una relazione; x0 è ciò che bisogna specificare perchè ad un dato ingresso u0 , da t0
in poi, corrisponda una fissata uscita y0 . Questa proprietà dello stato viene messa in luce in modo
autonomo e preliminare in quanto segue, ove viene introdotto il concetto di parametrizzazione di una
relazione.
In base alla definizione 8. un sistema dinamico astratto orientato è un insieme di relazioni,
sottoinsiemi di {U T (t0 ) × Y T (t0 ) }. Il soddisfacimento del requisito dello stato di consentire assieme
ad u0 di individuare un corrispondente comportamento in uscita poggia sul seguente risultato di
algebra che sancisce la possibilità di effettuare una partizione in classi di equivalenza di una relazione,
sottoinsieme nello spazio prodotto, mediante i grafi di una funzione che dipende da un parametro al
variare del parametro stesso.
Siano A e B insiemi non vuoti, sia R ⊂ A × B e siano D(R) ⊂ A ed R(R) ⊂ B il dominio ed il
codominio della relazione R.
14 1. Sistemi dinamici e Rappresentazioni con lo Stato

Proposizione 1. ([1]). E’ possibile definire un insieme P ed una funzione π: P × D(R) → R(R) tali
che:
(a, b) ∈ R ⇒ ∃p : b = π(p, a)
p ∈ P, a ∈ D(R) ⇒ (a, π(p, a)) ∈ R
π è detta rappresentazione parametrica di R; (P, π), sua parametrizzazione.

È quindi possibile associare ad ogni Σ(t0 ) una parametrizzazione, cioè un insieme di parametri
Xt0 ed una funzione
πt0 : Xt0 × D(Σ(t0 )) → R(Σ(t0 )).
Inserire la dimostrazione.

Definizione 9. Rappresentazione parametrica di S è un insieme di funzioni

π = {πt0 : Xt0 × D(Σ(t0 )) → R(Σ(t0 ))/t0 ∈ T }

che soddisfano le seguenti proprietà:

(u0 , y0 ) ∈ Σ(t0 ) ⇒ ∃x0 : y0 = πt0 (x0 , u0 )


x0 ∈ Xt0 , u0 ∈ D(Σ(t0 )) ⇒ (u0 , πt0 (x0 , u0 )) ∈ Σ(t0 )

Si noti che in base alla definizione data fissato un ingresso a t0 , sia u0 , una stessa uscita y0 può
corrispondere a diversi valori del parametro a t0 .
È ora possibile introdurre formalmente un’altra proprietà fondamentale: la causalità. Tale pro-
prietà, con riferimento ad un funzionale nella variabile indipendente t, cioè una funzione che a sua
volta dipende da una funzione del tempo t, sia u(t), esprime la coincidenza dei valori assunti dal
funzionale fino a quando i valori assunti dalla funzione indipendente u sono coincidenti.
In formule, indicato con T \T (t) l’insieme dei tempi privato di T (t), f è strettamente causale se:
¯ ¯
¯ ¯
∀t ∈ T, u¯ = u0 ¯ ⇒ [f (u)](t) = [f (u0 )](t)
T \T (t) T \T (t)

Se per mantenere l’uguaglianza dei valori assunti è anche necessario che sia u(t) = u0 (t) allora f è
causale.

Definizione 10. S è causale se esiste almeno una rappresentazione parametrica causale, cioè tale
che:
∀t0 ∈ T, ∀x0 ∈ Xt0 , ∀t ∈ T (t0 )
u[t0 ,t] = u0[t0 ,t] ⇒ [πt0 (x0 , u)](t) = [πt0 (x0 , u0 )](t)

Si noti che la precedente condizione sull’intervalo aperto a destra [t0 , t) esprimerebbe la stretta
causalità.
1.2. Sistema astratto orientato e rappresentazioni con lo stato 15

1.2.b. Rappresentazione con lo stato

Per comprendere con l’intuizione come sia possibile introdurre il concetto di stato a partire da
una parametrizzazione causale valgono le seguenti considerazioni.
La definizione stessa di sistema dinamico orientato richiede che i parametri x0 , ai diversi istanti,
siano collegati: se a t0 alla coppia (x0 , u0 ) ∈ Xt0 × D(Σ(t0 )) corrisponde y0 ∈ R(Σ(t0 )) al generico
¯
istante t1 ≥ t0 la coppia (u0 , y0 )¯T (t1 ) appartiene a Σ(t1 ) e quindi sarà corrispondente ad uno o a più
valori del parametro in Xt1 . Se si ammette che {Xt0 , t0 ∈ T } siano sottoinsiemi di un unico X e si ha
presente il significato che si vuole attribuire allo stato: “contenere tutte le informazioni sul passato
necessarie a caratterizzare, assieme agli ingressi, il futuro”, sembra naturale assumere che tra i valori
¯
a t1 , cui corrisponde (u0 , y0 )¯T (t1 ) , ce ne sia uno legato ad x0 ed u0 da un legame funzionale del tipo:

x1 = x(t1 ) = ϕ(t1 , t0 , x0 , u0 )

Inoltre tale legame funzionale è assunto causale, più precisamente strettamente causale; quindi solo
la restrizione di u0 sull’intervallo [t0 , t1 ) risulta significativa.
Le precedenti considerazioni lasciano intendere l’opportunità di definire una evoluzione nello
spazio X per collegare i valori dei parametri nei diversi istanti di tempo.
Siano X spazio dei parametri, U insieme dei valori di u, U ⊂ U T spazio delle funzioni d’ingresso,

(T × T )∗ = {(t, t0 ) : t ≥ t0 , t, t0 ∈ T }

la funzione ϕ, di transizione dello stato, è definita nel seguente modo:

ϕ : (T × T )∗ × X × U → X

x(t) := ϕ(t, t0 , x0 , u)

e soddisfa le seguenti proprietà di consistenza, causalità e separazione.


P1 (consistenza)
∀t ∈ T, ∀u ∈ U ϕ(t, t, x, u) = x

P2 (causalità)
¯ ¯
¯ ¯
∀(t, t0 ), ∀x0 ∈ X u¯ = u0 ¯ ⇒ ϕ(t, t0 , x0 , u) = ϕ(t, t0 , x0 , u0 )
[t0 ,t) [t0 ,t)

P3 (separazione)
∀(t, t0 ), ∀x0 ∈ X, ∀u ∈ U

t > t1 > t0 ⇒ ϕ(t, t0 , x0 , u) = ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u)

P1 e P2 sono ovvie; P3 esprime il fatto essenziale che lo stato a t può essere calcolato da x0 e u[t0 ,t) , ma
anche a partire dallo stato raggiunto a t1 , e con x0 e u[t0 ,t1 ) , con u[t1 ,t) proprio perchè x(t1 ) riassume
la storia passata.
16 1. Sistemi dinamici e Rappresentazioni con lo Stato

Le considerazioni fatte hanno lasciato intendere come sia possibile rendere consistente la scelta
delle parametrizzazioni ai diversi istanti di tempo. Ciò posto, è naturale chiedersi come i parametri
intervengano nel calcolo dell’uscita. A tale proposito dalla definizione 9

∀t0 y0 (t) = [πt0 (x0 , u0 )](t) t ≥ t0

ove solo la restrizione di u0 su [t0 , t] è significativa per l’ipotesi di causalità. Assunto t0 = t si ha

y(t) = [πt (x(t), u0 )](t) := η(t, x(t), u0 (t))

che mette in evidenza come l’uscita al tempo t dipenda dai valori dell’ingresso e dello stato in quello
stesso istante.
In conclusione rimane definita una funzione η, trasformazione di uscita

η: T × X × U → Y
y(t): = η(t, x(t), u(t))

Per concludere è utile mettere in risalto come assegnati U , Y , U ⊂ U T , X, le funzioni ϕ, con le


proprietà P1-P3, ed η consentano di generare, un sistema Σ. e Infatti per ogni fissato t0 rimane definita
e 0)
una relazione Σ(t
e 0 ) = {(u0 , y0 ) ∈ U T (t0 ) × Y T (t0 )
Σ(t
¯
¯
u0 = u¯ , y0 : y0 (t) = η(t, ϕ(t, t0 , x0 , u), u(t)) con u ∈ U, x0 ∈ X}
T (t0 )

Inoltre, in virtù della proprietà P3, è soddisfatta la chiusura rispetto al troncamento (CRT)
e 0 ).
sull’insieme delle relazioni Σ(t
Ciò consente di comprendere che le funzioni ϕ ed η definiscono, in modo alternativo, un sistema
dinamico astratto orientato causale. Tale definizione può essere assunta come punto di partenza nello
sviluppo della teoria.

Vedremo tra breve, infatti, che sotto ipotesi sufficientemente generali è possibile associare ad un
dato sistema astratto orientato una rappresentazione con lo stato, cioè una terna (X, ϕ, η), X spazio
di stato, ϕ funzione di transizione dello stato, η trasformazione di uscita. Nel paragrafo seguente
vengono formalizzati tali aspetti e chiarite le condizioni di esistenza di rappresentazioni con lo stato
di un assegnato sistema dinamico astratto orientato.

1.3. Esistenza e unicità delle rappresentazioni con lo stato


1.3. Esistenza e unicità delle rappresentazioni con lo stato 17

Definizione 11. Assegnato un sistema S e detto U ⊂ U T l’insieme delle funzioni di ingresso, una
terna (X, ϕ, η) con ϕ ed η funzioni definite in precedenza, è una rappresentazione con lo stato di S se
e 0 ), le coppie ingresso uscita generate
sono soddisfatte le proprietà P1, P2 e P3 e ad ogni istante t0 Σ(t
da (X, ϕ, η), coincidono con Σ(t0 ), l’insieme delle coppie ingresso-uscita del sistema S; in formule
e 0 ) data nel paragrafo precedente:
ricordando la definizione di Σ(t
∀t0 e 0 ) = Σ(t0 )
Σ(t
.

Dato il sistema S il problema di individuare una rappresentazione con lo stato, cioè una terna
(X, ϕ, η) secondo la definizione 11. è noto come problema della associazione dello stato.
Le considerazioni precedenti hanno voluto mettere in evidenza, senza pretesa di rigore matem-
atico, quali sono gli aspetti salienti che vengono affrontati in un tale problema. In effetti il passaggio
da una rappresentazione parametrica causale ad una sua rappresentazione con lo stato è possibile
sotto alcune ipotesi circa la ricchezza dell’insieme delle funzioni di ingresso. Più precisamente

Definizione 12. U ⊂ U T è uno spazio di funzioni di ingresso per S se


¯
∀t0 D(Σ(t0 )) = {u0 = u¯T (t ) ∈ U T (t0 ) , u ∈ U}
0

- U è chiuso rispetto alla concatenazione se


( )
uT \T (t)
∀u, v ∈ U, ∀t ∈ T, w := ∈U
vT (t)
- U è completo se è chiuso rispetto alla concatenazione ed inoltre
∀t ∈ T U = {u(t) ∈ U, u ∈ U}

Ciò premesso vale un risultato fondamentale che risolve il problema dell’associazione dello stato.
Si può infatti dimostrare che un assegnato sistema dinamico astratto orientato S, definito su uno
spazio delle funzioni di ingresso U completo, ammette rappresentazioni con lo spazio di stato se e solo
se è causale.
La prova della necessità del risultato enunciato è semplice e consiste nel verificare che a partire
da una rappresentazione con lo stato, che è causale per definizione stessa, si può costruire una rapp-
resentazione parametrica causale (ciò che corrisponde alla causalità di S). La prova della sufficienza
è costruttiva e segue le linee delle considerazioni intuitive svolte. Il lettore interessato può consultare
il testo Teoria dei Sistemi di A. Ruberti e A. Isidori, edizioni Boringhieri, 1977, dove è riportata
un’ampia trattazione del problema.
Ovviamente ad un assegnato sistema possono essere associate diverse rappresentazioni con lo
stato; tra due qualsiasi di queste (X, ϕ, η) ed (X 0 , ϕ0 , η 0 ) dovrà risultare che
∀t0 , ∀x0 , ∀u, ∃x00 : ∀t ∈ T (t0 )
(e viceversa ∀t0 , ∀x00 , ∀u, ∃x0 ∈ X : ∀t ∈ T (t0 ))
η(t, ϕ(t, t0 , x0 , u), u(t)) = η 0 (t, ϕ0 (t, t0 , x0 0 , u), u(t))
Spesso ha interesse che tra due rappresentazioni sussista una relazione più forte del tipo seguente.
18 1. Sistemi dinamici e Rappresentazioni con lo Stato

Definizione 13. Due rappresentazioni con lo stato (X, ϕ, η) e (X 0 , ϕ0 , η 0 ) sono dette equivalenti se

∀t0 , ∀x0 , ∃x00 : ∀u, ∀t ∈ T (t0 )


(e viceversa ∀t0 , ∀x00 , ∃x0 : ∀u, ∀t ∈ T (t0 ))

η(t, ϕ(t, t0 , x0 , u), u(t)) = η 0 (t, ϕ0 (t, t0 , x00 , u), u(t))

Esempio 1.11. Data (X, ϕ, η) e f : X → X 0 , f invertibile, si può definire la rappresentazione


(X 0 , ϕ0 , η 0 ) equivalente a (X, ϕ, η) nel modo seguente

ϕ0 (t, t0 , x00 , u) = f ◦ ϕ(t, t0 , f −1 (x00 ), u)


η 0 (t, x0 (t), u(t)) = η(t, f −1 (x0 (t)), u(t))

come è immediato verificare.

Tra le rappresentazioni di un sistema ha interesse caratterizzare quelle che hanno uno spazio di
stato ridotto. A questo proposito

Definizione 14. xa , xb ∈ X sono equivalenti a t0 se ∀u, ∀t ∈ T (t0 )

η(t, ϕ(t, t0 , xa , u), u(t)) = η(t, ϕ(t, t0 , xb , u), u(t))

Applicando la proprietà di separazione è immediato verificare che se xa ed xb sono equivalenti a


t0 lo sono per ogni t1 > t0 .

Definizione 15. (X, ϕ, η) associata al sistema S si dice ridotta all’istante t0 se non esistono stati
indistinguibili a t0 .

Si noti che in molti casi applicativi di interesse il verificarsi della proprietà della definizione 15 a
t0 , implica il suo soddisfacimento per t 6= t0 . Nel caso generale ciò non avviene, ma è usuale definire
non ridondante una rappresentazione se è ridotta ad un istante t0 .

1.4. Dalle rappresentazioni esplicite alle rappresentazioni implicite


1.5. Elementi di classificazione 19

1.4.a. Sistemi a tempo discreto

Una proprietà generale delle rappresentazioni a tempo discreto è rappresentata dalla possibilità
di ottenere senza alcuna ipotesi supplementare una rappresentazione cosidetta “implicita” a partire
da (X, ϕ, η). Infatti da
x(t) = ϕ(t, t0 , x0 , u)

posto t = t + 1, t0 = t, si ha
x(t + 1) = f (t, x(t), u(t))

che consente di caratterizzare “passo, passo” l’evoluzione di x(t) a partire dai valori dello stato e
dell’ingresso. La rappresentazione (X, f, η) è detta implicita ed f è detta funzione generatrice.

1.4.b. Sistemi a tempo continuo

Come si è visto, nel caso tempo-discreto è sempre possibile ottenere una rappresentazione im-
plicita particolarizzando le equazioni che definiscono la rappresentazione esplicita su un intervallo di
tempo unitario. L’esistenza di rappresentazioni implicite nel caso tempo-continuo è condizionato da
opportune ipotesi dette di regolarità.
Come suggerisce l’intuizione una rappresentazione implicita del sistema a tempo continuo dovrà
fornire una descrizione del comportamento del sistema ”in tempo reale”, e quindi, secondo relazioni
causali e differenziali; le ipotesi di esistenza non potranno allora prescindere dalla derivabilità delle
funzioni di transizione nello stato. Se ammettiamo che ϕ(t, t0 , x0 , u) sia soluzione di

∂ϕ
= f (t, ϕ, u(t))
∂t
otteniamo immediatamente una rappresentazione differenziale del tipo

ẋ(t) = f (t, x(t), u(t))

1.5. Elementi di classificazione

Rispetto alle caratteristiche dell’insieme dei tempi la classificazione è in rappresentazioni a tempo


continuo, se T = R, a tempo discreto se T = Z.
Rispetto alle proprietà dello spazio di stato X, si hanno: rappresentazioni a stati finiti, se X è
un insieme a cardinalità finita. A dimensione finita o infinita a seconda della dimensione di X, spazio
lineare.
Rispetto alla struttura della rappresentazione con lo stato, nella sua forma esplicita o implicita,
si possono riformulare le proprietà di linearità e stazionarietà della funzione di transizione nello
stato ϕ, o della sua funzione generatrice f , e della funzione di trasformazione in uscita η, ciò che
garantisce il soddisfacimento delle corrispondenti proprietà sulle relazioni ingresso - uscita, ma non il
viceversa. Questi aspetti, in particolare, saranno approfonditi nei prossimi capitoli.
20 1. Sistemi dinamici e Rappresentazioni con lo Stato

Proprietà più deboli di quella di linearità sulla funzione generatrice ci consentiranno, nell’ultimo
capitolo, di introdurre ulteriori classi di sistemi.
Lo studio delle rappresentazioni a stati finiti e a dimensione infinita sono oggetto di corsi special-
istici per le connessioni con i metodi e i risultati di settori disciplinari affini. La teoria degli automi e
dei linguaggi per i primi, i metodi caratteristici dello studio delle equazioni differenziali alle derivate
parziali e dell’analisi funzionale per i secondi.
2. Rappresentazioni con lo stato lineari, a dimensione
finita, stazionarie

Vengono introdotte e discusse le ipotesi di linearità di una rappresentazione e di finita dimensione


dello spazio di stato. La scomposizione in risposta libera e forzata delle evoluzioni nello stato e in
uscita, nonché la struttura particolare di ciascuna di esse sono le conseguenze più importanti. Vengono
precisati i legami tra le descrizioni esplicite a quelle implicite. L’ipotesi di stazionarietà si traduce nella
costanza dei parametri. Le rappresentazioni lineari come approssimazione di modelli non lineari e le
rappresentazioni a tempo discreto per descrivere o approssimare modelli a tempo continuo concludono
il capitolo.

2.1. Struttura e proprietà delle rappresentazioni lineari

Definizione 1. Rappresentazione lineare Siano X, U , Y spazi lineari sullo stesso corpo. (X, ϕ, η)
è una rappresentazione lineare se: ϕ è lineare ∀(t, t0 ) sull’insieme X × U e η è lineare ∀t sull’insieme
X × U.

Conseguenza immediata della linearità: ∀k1 , k2 , ∀x01 , x02 ∈ X, ∀u1 , u2 ∈ U

ϕ(t, t0 , k1 x01 + k2 x02 , k1 u1 + k2 u2 ) = k1 ϕ(t, t0 , x01 , u1 ) + k2 ϕ(t, t0 , x02 , u2 )

Posto k1 = k2 = 1, u1 = 0, u2 = u, x01 = x0 , x02 = 0 si ha

ϕ(t, t0 , x0 , u) = ϕ(t, t0 , x0 , 0) + ϕ(t, t0 , 0, u) = ϕ` + ϕf

cioé la nota scomposizione della evoluzione nello stato in risposta libera e risposta forzata.
Nell’ulteriore ipotesi che X, U, Y siano spazi a dimensione finita e pari a n, p e q rispettiva-
mente, la risposta libera e quella forzata assumono forme particolari come viene mostrato nel seguito
distinguendo il caso di sistemi a tempo discreto da quello dei sistemi a tempo continuo.
22 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

Alla luce dello studio sinora condotto la seguente domanda si pone spontanea: assegnato un
sistema dinamico lineare secondo la definizione 1, con U ed Y spazi lineari a dimensione finita, quali
sono le condizioni sotto le quali esistono rappresentazioni con lo stato di S lineari a dimensione finita
?
E’ ovvio che una rappresentazione lineare a dimensione finita “genera” un sistema lineare a
dimensione finita, causale; il viceversa però non è sempre vero. Si pensi a quanto osservato a proposito
delle rapresentazioni equivalenti. Se si suppongono assegnate una rappresentazione lineare, (X, ϕ, η),
ed una funzione non lineare, f : X → X 0 , si può definire la rappresentazione (X 0 , ϕ0 , η 0 )

ϕ0 (t, t0 , x00 , u) = f ◦ ϕ(t, t0 , f −1 (x00 ), u)


η 0 (t, x0 (t), u(t)) = η(t, f −1 (x0 (t)), u(t))

che è una reppresentazione non lineare equivalente a (X, ϕ, η).

Per ottenere una rappresentazione lineare a partire da un sistema lineare è necessario assicurarsi
che la parametrizzazione causale soddisfi ad una precisa proprietà. Tale proprietà, di cui si coglierà
immediatamente il significato, è la proprietà di consistenza nello stato zero. Più precisamente una
parametrizzazione π, di S, è detta consistente rispetto allo stato zero se

¯
∀(t, t0 ), ∀u ∈ U πt0 (0, 0[t0 ,t1 ) ∗ u[t1 ,t) )¯T (t = πt1 (0, u[t1 ,t) ).
1)

Ciò premesso, nella linea della tecnica dimostrativa proposta in [1], a cui si rinvia per la prova,
si dimostra che un sistema S, definito su U completo, ammette almeno una rappresentazione con lo
stato lineare a dimensione finita se e solo se esiste una parametrizzazione causale, lineare, a dimensione
finita, consistente rispetto allo zero.

2.1.a. Sistemi a tempo discreto

Sia T = Z l’insieme dei numeri relativi, e sia x0 ∈ X ∼


= Rn Per la linearità di ϕ` rispetto a x0 si
ha:
ϕ(t, t0 , x0 , 0) = φ(t, t0 )x0

φ(t, t0 ) matrice (n × n) di funzioni definite su (Z × Z)∗ , cioè (t, t0 ) : t ≥ t0 .


Inoltre per la proprietà P1
φ(t, t) = I

Per quanto riguarda la risposta forzata, posto

u[t0 ,t−1] = [u(t0 ), u(t0 + 1), u(t0 + 2), . . . , u(t − 1)]


2.1. Struttura e proprietà delle rappresentazioni lineari 23

la linearità di ϕf rispetto a u(·) comporta:

ϕ(t, t0 , 0,u[t0 ,t−1] ) = ϕ(t, t0 , 0, [u(t0 ), u(t0 + 1), u(t0 + 2), . . . , u(t − 1)])
=ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + . . . ϕ(t, t0 , 0, [0, . . . , 0, u(τ ), 0 . . . 0]) + . . .
. . . + ϕ(t, t0 , 0, [0 . . . 0, u(t − 1)])
=ϕ(t, t0 , 0, [u(t0 ), 0 . . . 0]) + ϕ(t, τ, 0, [u(τ ), 0 . . . 0]) + . . .
. . . + ϕ(t, t − 1, 0, [u(t − 1)])
=H(t, t0 )u(t0 ) + . . . + H(t, τ )u(τ ) + . . . + H(t, t − 1)u(t − 1)
X
t−1
= H(t, τ )u(τ )
τ =t0

H(t, τ ) matrice (n×p) di funzioni definite su (Z×Z)∗∗ := {(t, τ ) : t > τ }, è detta matrice delle risposte
impulsive nello stato. Infatti se si assume un ingresso u[t0 ,t) sempre nullo per t 6= t1 , t1 ∈ [t0 , t), e
diverso da zero in t = t1 solo per la presenza di un “1” nella posizione i-ma (i-mo canale d’ingresso),
si ottiene come risposta la i-ma colonna di H(t, t1 ), hi (t, t1 ),
 
0
 .. 
.
 
0
 
u =  1  δ(t − t1 ) ⇒ ϕf = hi (t − t1 )
 
0
.
 .. 
0

In altri termini le colonne di H sono interpretabili come risposte ad ingressi di tipo impulsivo.
Alcune proprietà delle matrici Φ ed H sono immediata consequenza della proprietà di separazione
P3. Si ha, infatti

X
t−1
ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 + H(t, τ )u(τ ) =
τ =t0
" #
1 −1
tX
ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 + H(t1 , τ )u(τ ) +
τ =t0

X
t−1
H(t, τ )u(τ )
τ =t1

Poichè questa uguaglianza deve essere verificata per ogni u ed ogni x0 , ponendo u(·) = 0 si deduce a
proprietà di semigruppo della matrice di transizione

φ(t, t0 ) = φ(t, t1 )φ(t1 , t0 ) ∀t ≥ t1 ≥ t0

ponendo x0 = 0 si deduce la proprietà di separazione della matrice delle risposte impulsive nello stato

H(t, τ ) = φ(t, t1 )H(t1 , τ ) ∀t ≥ t1 > τ


24 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

Infine la linearità di η su U × Y per ogno t e la dimensione finita di U ∼


= Rp e Y ∼
= Rq danno

y(t) = C(t)x(t) + D(t)u(t)

ove C(t) e D(t sono matrici di funzioni del tempo di dimensioni (q × n) e (q × p) rispettivamente, e
quindi
X
t−1
y(t) = C(t)(φ(t, t0 )x0 + H(t, τ )u(τ )) + D(t)u(t)
τ =t0

Si ottengono dunque le seguenti espressioni per l’evoluzione dello stato e dell’uscita:

X
t−1
x(t) = ϕ(t, t0 , x0 , u) = φ(t, t0 )x0 + H(t, τ )u(τ )
τ =t0

X
t
y(t) = ψ(t, t0 )x0 + W (t, τ )u(τ ))
τ =t0

dove

ψ(t, t0 ) = C(t)φ(t, t0 )x0 W (t) = C(t)H(t, τ ) t0 ≤ τ < t, W (t) = D(t) τ = t

Le precedenti relazioni definiscono una rappresentazione esplicita con lo stato di un sistema lineare a
dimensione finita a tempo discreto.

2.1.b. Sistemi a tempo continuo

Sia T = R e x0 ∈ X ∼
= Rn . La linearità di ϕ` rispetto a x0 comporta

ϕ(t, t0 , x0 , 0) = φ(t, t0 )x0

φ(t, t0 ) matrice (n × n) di funzioni su (R × R)∗ . Anche in questo caso P1. implica φ(t, t) = I.
Per quanto riguarda la risposta forzata ϕf , nell’ipotesi che questa sia un funzionale continuo di
u[t0 ,t) , si ha, per un noto teorema di rappresentazione di un funzionale lineare,
Z t
ϕ(t, t0 , 0, u[t0 ,t) ) = Ht,t0 (τ )u(τ )dτ
t0

Se si nota che, per la linearità di ϕf , la transizione da t0 per effetto di un forzamento nullo fino a t1
è equivalente alla transizione da t1 :
¯
¯
ϕ(t, t0 , 0, 0[t0 ,t1 ) ∗ u[t1 ,t) )¯ = ϕ(t, t1 , 0, u[t1 ,t) )
T (t1 )

risulta quindi Z Z
t t
Ht,t0 (τ )u(τ )dτ = Ht,t1 (τ )u(τ )dτ
t1 t1
2.1. Struttura e proprietà delle rappresentazioni lineari 25

e, per l’arbitrarietà di t0 e t1 è possibile definire

Ht,t1 (τ ) = Ht,t0 (τ ) = H(t, τ )

da cui Z t
ϕ(t, t0 , 0, u) = H(t, τ )u(τ )dτ.
t0

La matrice H(t, τ ) è detta matrice delle risposte impulsive nello stato in quanto, con considerazioni
analoghe a quelle svolte per i sistemi a tempo discreto, le sue colonne rappresentano le risposte nello
stato a particolari ingressi: gli ingressi impulsivi. E necessario precisare che tale risultato è ottenuto
nel contesto dei sistemi a tempo continuo, sulla base di un risultato generale di approssimazione,
andando a valutare le risposte nello stato che si ottengono in corrispondenza di una successione di
ingressi che tende all’impulso unitario (distribuzione δ di Dirac). Il limite, sulle risposte a successioni
che selezionano un solo ingresso, l’i-mo, converge alla i–ma colonna di H.
Come per i sistemi a tempo discreto alcune proprietà di φ ed H sono ottenute applicando la
proprietà P3. Si ha
Z t
ϕ(t, t0 , x0 , u) =φ(t, t0 )x0 + H(t, τ )u(τ )dτ
t0
· Z t1 ¸
ϕ(t, t1 , ϕ(t1 , t0 , x0 , u), u) =φ(t, t1 ) φ(t1 , t0 )x0 + H(t1 , τ )u(τ )dτ +
t0
Z t
H(t, τ )u(τ )dτ
t1

valida per ogni u e x0 . Ponendo u(·) = 0 e x0 = 0 si ottengono anche in questo caso le proprietà di
semigruppo di φ ed H
φ(t, t0 ) = φ(t, t1 )φ(t1 , t0 ) ∀t ≥ t1 ≥ t0

H(t, τ ) = φ(t, t1 )H(t1 , τ ) ∀t ≥ t1 ≥ τ

Senza alcuna differenza rispetto al caso tempo-discreto

y(t) = η(t, x(t), u(t)) = C(t)x(t) + D(t)u(t)

con C(t) e D(t) matrici (q × n) e (q × p) di funzioni del tempo.


Si ha quindi Z t
y(t) = C(t)φ(t, t0 )x0 + C(t)H(t, τ )u(τ )dτ + D(t)u(t)
t0

e sotto l’ipotesi che le funzioni di ingresso siano continue e η(t, φ(t, t0 , 0, u[t0 ,t) ), u) sia un funzionale
continuo, ponendo
W (t, τ ): = C(t)H(t, τ ) + D(t)δ(τ − t)

in cui δ(t), la distribuzione di Dirac, è definita dalla seguente proprietà


Z t+²
u(t) = u(τ )δ(τ − t)dτ ∀²
t−²
26 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

si perviene alla seguente rappresentazione esplicita


Z t
x(t) = φ(t, t0 )x0 + H(t, τ )u(τ )dτ
t0
Z t
y(t) = ψ(t, t0 )x0 + W (t, τ )u(τ )dτ
t0

ove ψ(t, t0 ) := C(t)φ(t, t0 ) e W (t, τ ) è una matrice (q × p) di distribuzioni detta matrice delle risposte
impulsive in uscita. Il motivo di ciò è fondato sulle stesse considerazioni già fatte per H(t, τ ).
Si noti che la matrice delle risposte impulsive W da sola rappresenta il comportamento forzato
(cioè il comportamento ingresso-uscita a partire dallo stato zero). In questo senso si usa dire che la
matrice delle risposte impulsive di un sistema lineare è un “modello” del comportamento forzato (la
sua conoscenza e quella dell’ingresso consentono di calcolare l’uscita). Si noti anche come, a seguito
della sua interpretazione come risposta ad ingressi impulsivi, si possa rilevare la presenza di una classe
di ingressi, quelli impulsivi, che svolgono un ruolo particolare nello studio dei sistemi lineari (per tale
motivo tali ingressi sono tra quelli cosidetti canonici), infatti la risposta ad un dato ingresso u(t)
è ottenuta mediante la convoluzione dell’ingresso con le uscite corrispondenti agli ingressi impulsivi
che caratterizzano W . Si noti che mentre (φ, H, ψ, W ) caratterizzano la rappresentazione data, cioè
tutte le evoluzioni, W da sola caratterizza il comportamento forzato (da x0 = 0). Una questione
interessante, che sarà esaminata nelle ipotesi di stazionarietà, riguarda la possibilità di ricostruire a
partire da W le evoluzioni del sistema nel complesso. Problema delle relazioni tra modello forzato e
modello complessivo.

Per concludere le considerazioni circa le rappresentazioni lineari si sottolinea che la loro impor-
tanza è legata non solo alla ricchezza di risultati disponibili, ma anche al ruolo, spesso significativo,
che lo studio delle rappresentazioni lineari approssimanti assegnate dinamiche non lineari svolge nello
studio di diversi problemi di analisi e sintesi di sistemi. A tale proposito è interessante osservare come,
assegnata una rappresentazione non lineare e una condizione di equilibrio, la rappresentazione lineare
approssimante ottenuta a partire da una rappresentazione esplicita e quella ottenuta dalla rappresen-
tazione implicita siano consistenti. In altre parole le soluzioni del sistema differenziale (alle differenze)
lineare approssimante coincidono con la linearizzazione delle soluzioni del sistema differenziale (alle
differenze) non lineare. La dimostrazione di tale risultato sarà affrontato nel prossimo capitolo con
riferimento ai sistemi stazionari.

2.2. Le rappresentazioni implicite

In questo paragrafo vengono introdotte le rappresentazioni implicite, descrizioni matematiche in


termini di equazioni alle differenze e differenziali, che mettono in evidenza come i comportamenti di
un sistema dinamico siano il risultato di un processo di evoluzione iterativo, per i sistemi a tempo
discreto, di funzionamento ”in tempo reale” descritto da equazioni differenziali, per i sistemi a tempo
continuo.
2.2. Le rappresentazioni implicite 27

Sistemi a tempo discreto

Come si è già osservato, l’evoluzione ad un passo dello stato per un sistema a tempo discreto è
descritta da un’equazione della forma

x(t + 1) = f (t, x(t), u(t))

f è detta funzione generatrice. La precedente equazione già mette in luce quanto asserito che, cioé,
l’evoluzione è il risultato di un processo iterativo che a partire dallo stato e l’ingresso al tempo t,
genera lo stato al tempo t + 1.
Nelle ipotesi di linearità della funzione f sullo spazio X × U per ogni t e finita dimensione di
X = Rn ed U ∼
∼ = Rp , si ha
x(t + 1) = A(t)x(t) + B(t)u(t)

ove A(t) e B(t) sono matrici di funzioni del tempo di dimensioni (n × n) e (n × p) definite da

A(t): = φ(t + 1, t), B(t): = H(t + 1, t)

Inoltre come già ricordato la linearità di η su X × U per ogni t e la dimensione finita di Y ∼


= Rq danno

y(t) = C(t)x(t) + D(t)u(t)

Le precedenti equazioni definiscono una rappresentazione implicita con lo stato di un sistema lineare
a dimensione finita a tempo discreto.
Sistemi di equazioni alle differenze di tale tipo danno una rappresentazione ricorsiva della gen-
erazione del legame funzionale ingresso-stato-uscita caratteristico di un sistema dinamico. Per tale
motivo sono interessanti dal punto di vista ingegneristico: esse consentono, eventualmente mediante
simulazione, di costruire un dispositivo che simula in tempo reale il comportamento dinamico del
sistema. Il seguente schema, detto di realizzazione o simulazione, rende conto di tale aspetto.

D
u( t ) x (t+1) x( t ) +
−1
B + z C + y (t )
+

A
Figura 2.1

Sistemi a tempo continuo

L’esistenza di rappresentazioni implicite nel caso tempo-continuo è subordinato al sussistere


dell’ipotesi di regolarità. Essa consiste nell’assumere che ϕ(t, t0 , x0 , u) sia soluzione di un’equazione
differenziale
28 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

∂ϕ
= ẋ(t) = f (t, ϕ, u(t))
∂t
Si mostrerà ora che se la rappresentazione esplicita è lineare anche la funzione generatrice lo è sullo
spazio prodotto, X × U . Si può infatti dimostrare il seguente risultato. Esiste una rappresentazione
implicita, o differenziale, del tipo

ẋ(t) = A(t)x(t) + B(t)u(t)

con A(t) matrice (n × n) di funzioni continue, B(t) matrice (n × p) di funzioni continue, se e solo se la
matrice di transizione dello stato φ e la matrice delle risposte implusive nello stato H sono funzioni
continue su (R×R)∗ ed inoltre φ è derivabile rispetto al primo argomento e la sua derivata è continua.
Sotto tali ipotesi risulta, infatti,

∂φ(t, τ ) φ(t + ², τ ) − φ(t, τ )


= lim
∂t ²→0
µ ² ¶
φ(t + ², t) − φ(t, t)
= lim φ(t, τ )
²→0 ²
= A(t).φ(t, τ )

∂φ
ove la continuità di φ e ∂t implicano quella di A. Inoltre

∂ ∂
H(t, τ ) = φ(t, t1 )H(t1 , τ )
∂t ∂t
= A(t)φ(t, t1 )H(t1 , τ ) = A(t)H(t, τ )

Ciò posto, derivando la x(t) nella sua forma esplicita, si ha


µ Z t ¶

ẋ(t) = φ(t, t0 )x0 + H(t, τ )u(τ )dτ
∂t t0
Z t
= A(t)φ(t, t0 )x0 + A(t)H(t, τ )u(τ )dτ + H(t, t)u(t)
t0
= A(t)x(t) + B(t)u(t)

in cui B(t): = H(t, t) è continua per l’ipotesi.


La necessità delle citate condizioni, assunta l’esistenza di una funzione generatrice lineare su
X × U , con A(t) e B(t) continue, segue immediatamente dalla teoria delle equazioni differenziali
lineari.
A tale proposito è importante osservare che se si indica con X(.) una matrice fondamentale di
soluzioni dell’equazione differenziale matriciale

ẋ(t) = A(t)x(t)

risulta
X(t)X −1 (τ ) = φ(t, τ )
2.3. Le Rappresentazioni Lineari Stazionarie 29

con φ(t, τ ) definita su (R × R); ne consegue che

φ(t, τ )φ(τ, t) = φ(t, t) = I ⇒ φ(t, τ ) = φ(τ, t)−1

che esprime il sussistere di una proprietà di gruppo sulla matrice di transizione dello stato.
Per completezza giova ricordare che una matrice fondamentale X(t) è soluzione di Ẋ = A(t)X
con X(t0 ) = I la cui soluzione ammette la seguente espansione in serie di Newman
Z t Z t Z τ1
φ(t, t0 ) = I + A(τ1 )dτ1 + A(τ1 ) A(τ2 )dτ2 dτ1 +
t0 t0 t0
Z t Z τi−1
... + A(τ1 ) . . . A(τi )dτi . . . dτ1 + . . .
t0 t0

In conclusione sotto le ipotesi di linearità, finita dimensione e regolarità si ottiene una rappre-
sentazione differenziale (implicita) del tipo

ẋ(t) = A(t)x(t) + B(t)u(t)


y(t) = C(t)x(t) + D(t)u(t)
x(t0 ) = x0

Tale rappresentazione è una realizzazione differenziale del legame funzionale che caratterizza il com-
portamento dinamico del sistema. É interessante osservare che la caratteristica peculiare di un tale
tipo di descrizione è che essa può essere utilizzata per generare “in tempo reale” le evoluzioni nello
stato ed in uscita al variare di t. Questa caratteristica è evidente se si osserva lo schema di realiz-
zazione o simulazione, riportato in figura, che corrisponde ad una possibile realizzazione, sia fisica che
numerica, mediante dispositivi in grado di effettuare integrali, moltiplicazioni e somme.

D
.
u( t ) x( t ) Z x( t ) +
B + C + y (t )
+

A
Figura 2.2

2.3. Le Rappresentazioni Lineari Stazionarie

Una ulteriore specializzazione della classe di sistemi si ottiene assumendo la stazionarietà, con-
dizione soddisfatta, con buona approssimazione, da molti sistemi fisici. Tale proprietà esprime
l’invarianza rispetto al tempo del comportamento del sistema.
30 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

Definizione 2. Una rappresentazione (X, ϕ, η) si dice stazionaria se ∀(t, t0 ), ∀x0 , ∀u:


¯
∆δ ϕ(t, t0 , x0 , u) = ϕ(t + δ, t0 + δ, x0 , (∆δ u)¯ )
[t0 +δ,t+δ)

∆δ η(t, x, u) = η(t + δ, x, u)
ove ∆δ indica l’operatore di traslazione a destra definito come
∆δ (f (t)) = f (t − δ)

2.3.a. Rappresentazioni a tempo discreto

Per una rappresentazione stazionaria a tempo discreto si ottiene dunque


x(t) = ϕ(t − t0 , 0, x0 , u)
y(t) = η(0, x(t), u(t))
che assieme a dimensione finita e linearità forniscono la seguente rappresentazione esplicita
X
t−1
x(t) = φ(t − t0 )x0 + H(t − τ )u(τ )
τ =t0

y(t) = Cx(t) + Du(t)


ed ancora
X
t
y(t) = ψ(t − t0 )x0 + W (t − τ )u(τ )
τ =t0
ove
ψ(t − t0 ) = Cφ(t − t0 )
( )
CH(t − τ ), t > τ
W (t − τ ) =
D, t = τ
Se si esprime la transizione dello stato su un intervallo di tempo (t + 1 → t e t → t0 ), si ottiene la
seguente rappresentazione implicita
x(t + 1) = Ax(t) + Bu(t), x(t0 ) = x0
y(t) = Cx(t) + Du(t)
ove si è posto
A = φ(1) B = H(1)
Il calcolo della rappresentazione esplicita a partire da quest’ultmia dà
φ(t − t0 ) = At−t0 H(t − τ ) = At−τ −1 B
ψ(t − t0 ) = CAt−t0 W (t − τ ) = CAt−τ −1 B W (0) = D
viceversa, dalla rappresentazione esplicita a quella implicita, si passa ponendo
A = φ(1), B = H(1),
D = ψ(0), C = W (0)
2.4. Rappresentazioni implicite equivalenti 31

2.3.b. Rappresentazioni a tempo continuo

Analoghe considerazioni nel contesto tempo-continuo consentono di definire una rappresentazione


lineare stazionaria a dimensione finita. Si ottiene la rappresentazione esplicita
Z t
x(t) = φ(t − t0 )x0 + H(t − τ )u(τ )
t0
y(t) = Cx(t) + Du(t)
ed ancora Z t
y(t) = ψ(t − t0 )x0 + W (t − τ )u(τ )dτ
t0
ove
ψ(t − t0 ) = Cφ(t − t0 ), W (t − τ ) = CH(t − τ ) + Dδ(t − τ )
Per tale rappresentazione possono essere ripetute le considerazioni svolte nel caso non stazionario.
(φ, H, ψ, W ) soddisfano le condizioni già esaminate nel caso tempo variante che si particolarizzano
senza difficoltà. Sotto l’ulteriore ipotesi di regolarità (continuità di φ e H e derivabilità di φ) è facile
ottenere la rappresentazione differenziale (o implicita)
ẋ(t) = Ax(t) + Bu(t), x(0) = x0
y(t) = Cx(t) + Du(t)
in cui si assume, senza perdita di generalità che t0 = 0.
Per quanto riguarda il passaggio alla descrizione esplicita si ha
X tk
φ(t) = eAt : = Ak
k!
k≥0

come risulta immediatamente dal calcolo mediante la serie di Newman con A(t) = A oppure come
si verifica immediatamente per derivazione e sostituzione nell’equazione differenziale matriciale Ẋ =
AX. In definitiva, il passaggio dalla rappresentazione impicita a quella esplicita comporta il calcolo
delle seguenti matrici
φ(t) = eAt
H(t) = eAt B
ψ(t) = CeAt
W (t) = CeAt B + Dδ(t)
Il passaggio inverso, dalla rappresentazione esplicita a quella implicita, si ha ponendo
d
A= φ(t)
dt t=0
B = H(0)
C = ψ(0)
Z t+²
D= (W (t − τ ) − CH(t − τ ))dτ
t−²
32 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

2.4. Rappresentazioni implicite equivalenti

Il concetto di equivalenza tra rappresentazioni con lo stato è collegato alla non unicità nella scelta
dello stato per descrivere un dato sistema dinamico già trattata nel paragrafo 1.3.
Nel caso generale, assegnato il sistema

ẋ(t) = f (x(t), u(t))


y(t) = h(x(t), u(t))
e la trasformazione di variabili di stato invertibile

z = T (x) x = T −1 (z)
il calcolo diretto della derivata rispetto al tempo fornisce la rappresentazione equivalente rispetto alle
variabili z

∂T (x)
ż = | −1 f (T −1 (z(t)), u(t))
dx x=T (z(t))
y(t) = h(T −1 (z(t)), u(t))

2.4.a. Rappresentazioni lineari equivalenti

Per un’assegnata rappresentazione con lo stato lineare, tra le diverse scelte di variabili di stato quelle
che sono legate da una trasformazione di coordinate lineare mantengono la struttuta, lineare, della
rappresentazzione.
Infatti, assegnato il sistema

ẋ(t) = Ax(t) + Bu(t)


y(t) = Cx(t) + Du(t)
ed una trasformazione lineare di variabili di stato, con T matrice (n × n) costante nonsingolare

z = Tx |T | =
6 0

si ottiene la rappresentazione

ż(t) = T ẋ(t) = T Ax(t) + T Bu(t) = T AT −1 z(t) + T Bu(t)


y(t) = CT −1 z(t) + Du(t)
che è ancora dello stesso tipo con matrice dinamica T AT −1 (matrice simile ad A), matrice degli
ingressi T B, e matrice delle uscite CT −1 . Con analoghi passaggi si perviene alle stesse espressioni nel
caso di sistemi a tempo discreto.
I precedenticalcoli mostrano, tra l’altro, che la dinamica in evoluzione libera nello stato è descritta
da un operatore lineare che assume in una fissata base una rappresentazione matriciale. Trasformazioni
lineari della base inducono modifiche secondo una trasformazione di similitudine.
2.4. Rappresentazioni implicite equivalenti 33

Da un punto di vista operativo giova osservare ccome procedere per effettuare una trasformazione di
coordinate. Se x è una n–pla che rappresenta un vettore, sia v, rispetto ad una base di riferimento,
ei , i = 1, ..n, cioè

 
  0  
1 0
1
0    ... 
x = Σxi ei =   0  
 ...  x1 +  .  x2 + ... +  0  xn
 .. 
0 1
0
poichè

x = T −1 z

(T −1 )i , l’iesima colonna di (T −1 )
 
0
 .. 
 .
 
 0
 
(T −1 )i = T −1 ·  1  i − ma
 
 0
 .. 
 .
0

è la rappresentazione dell’ iesimo vettore della nuova base (quella in cui il vettore è rappresentato da
z) rispetto alla vecchia base (quella in cui il vettore è rappresentato da x).
Questo vuol dire che effettuare una trasformazione lineare di variabile di stato del tipo z =
T x significa, da un punto di vista operativo, scegliere una nuova base dello spazio di stato che è
∼ ∼
rappresentata dalle colonne di T −1 , e 1 , ..., e n nelle coordinate di x. Si ha cioè

∼ ∼
T −1 = ( e 1 , ..., e n )

A titolo di esempio non si troverà difficoltà nel calcolare la trasformazione di coordinate che inverte
l’ordine delle variabili di stato.

2.4.b. Rappresentazioni non lineari di sistemi lineari

Un’ osservazione conclusiva verte a chiarire, con un semplice esempio, che esistono rappresentazioni
non lineari di sistemi lineari. Assegnato, a tal fine, il seguente sistema lineare scalare, i seguenti
calcoli sono immediati:
ẋ(t) = ax(t) + bu(t) z = ex x = lnz

ż(t) = ex (ax(t) + bu(t)) = az(t)lnz(t) + bz(t)u(t)


34 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

e chiariscono quanto affermato che, cioè esistono rappresentazioni non lineari di sistemi lineari.
Più in generale si ha, rispetto a una trasformazione di coordinate non lineare z = T (x) (x =
−1
T (z))
∂T (x) ∂T (x)
ż = AT −1 (z) + Bu
dx x=T (z)
−1 dx x=T −1 (z)
y = CT −1 (z) + Du
che è una rappresentazione non lineare del sistema lineare dato.

2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari

Le rappresentazioni lineari sono importanti anche perchè possono essere impiegate per descrivere
il comportamento di un sistema dinamico generale intorno a prefissati comportamenti di riferimento.
L’approssimazione lineare di un sistema dinamico è la generalizzazione del semplice concetto di
approssimazione di una curva nell’intorno di un fissato punto mediante la tangente in quel punto.
Con riferimento alla generica funzione non lineare f (x) intorno ad un valore fissato f (xe ) lo sviluppo
in serie arrestato al primo ordine fornisce
¯
df ¯¯
y = f (x) = f (xe ) + (x − xe ) + ....
dx ¯xe

e posto xa = x − xe , ya = y − f (xe ), m = dx |xe


df
si ottiene la relazione lineare seguente che approssima
la curva intorno ad xe

ya = mxa

La stessa ‘procedura’ può essere applicata ad un assegnato sistema non lineare


A tale proposito è interessante osservare come, sempre nel caso t-discreto e sotto le ipotesi di
regolarità nel caso t-continuo, la rappresentazione lineare approssimante ottenuta a partire da una
rappresentazione esplicita e quella ottenuta dalla rappresentazione implicita siano consistenti. In altre
parole e con riferimento al caso t-continuo, le soluzioni del sistema differenziale lineare approssimante
coincidono con la linearizzazione delle soluzioni del sistema differenziale non lineare. La dimostrazione
di questo risultato nel caso generale riposa su risultati di base sulla teoria dell’approssimazione di fun-
zionali non lineari e viene qui proposta con riferimento alla situazione più ricorrente nelle applicazioni,
quella in cui si voglia approssimare il comportamento intorno ad una condizione di equilibrio.
Si assuma t0 = 0 e siano xR (0), uR (·) e xR (·) uno stato iniziale, una funzione d’ingresso e la
corrispondente evoluzione nello stato, assunte di riferimento per un assegnato sistema stazionario.
Se si indica con ∆x(·) e ∆y(·) gli scostamenti delle evoluzioni nello stato ed in uscita corrispon-
denti a variazioni dello stato iniziale ∆x(0) = x(0) − xR (0) e dell’ingresso ∆u(·) = u(·) − uR (·) esse
ammettono la rappresentazione esplicita

∆x(t) = ϕ(t, x(0), u(·)) − ϕ(t, xR (0), uR (·)) = ϕl (t, ∆x(0), ∆u(·)) + O2 (∆x(0), ∆u(·))
2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari 35

¡ ¢ ¡ ¢ ¡ ¢
∆y(t) = η x(t), u(t) − η xR (t), uR (t) = ηl ∆x(t), ∆u(t) + O2 (∆x(t), ∆u(·))

la cui approssimazione lineare è


¯
∂ϕ ¯¯
xa (t) = ϕl (t, xa (0), ∆u(·)) = ∆x(t) + ϕl (t, 0, ∆u(·))
∂x ¯xR (0)uR (·)
¯ ¯
¡ ¢ ∂η ¯ ∂η ¯
ya (t) = ηl ∆x(t), ∆u(t) = ¯ ∆x(t) + ¯ ∆u(t)
¯
∂x xR (t)uR (t) ∂u ¯xR (t)uR (t)

Per la rappresentazione implicita

ẋ = f (x, u) y = h(x, u)

con calcoli analoghi ai precedenti:

¯ ¯
∂f ¯¯ ∂f ¯¯
ẋa (t) = xa (t) + ∆u(t) = A(t)xa + B(t)∆u
∂x ¯xR (t)uR (t) ∂u ¯xR (t)uR (t)
¯ ¯
∂h ¯¯ ∂h ¯¯
ya (t) = xa (t) + ∆u = C(t)xa + D(t)∆u
∂x ¯xR (t),uR (t) ∂u ¯xR (t),uR (t)

Se xR (·) = cost allora anche uR (·) = cost e f (xR , uR ) = 0. In tal caso il sistema approssimante è
stazionario.

Mostreremo ore che intorno ad una coppia di equilibrio, (xe , ue ): f (xe , ue ) = 0, l’approssimazione
lineare della soluzione ammette, come funzione generatrice, l’approssimazione lineare della funzione
generatrice del sistema dato. Si ricordino, innanzituto le notazioni:

ẋ = f (x, u)
x(t) = ϕ(t, x, u) e
µ ¶
∂ϕ(t, x, u)
= f ϕ(t, x, u), u
∂t

Si proceda, quindi, al calcolo dell’approssimazione lineare della soluzione. Si ottiene


¯ Z t
∂ϕ ¯¯
ϕ(t, x, u) = ϕ(t, xe , ue ) + (x − xe ) + ϕl (t − τ )(u(τ ) − ue )dτ + . . .
∂x ¯xe ,ue 0

Posto ¯
∂ϕ ¯¯
Φ(t) =
∂x ¯xe ,ue
la proprietà di separazione implica le proprietà di semigruppo sulle funzioni Φ e ϕl , cioè

Φ(t − τ ) = Φ(t − t1 )Φ(T1 − τ ), ϕl (t − τ ) = Φ(t − t1 )ϕl (t1 − τ ) t ≥ t1 ≥ τ


36 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

Derivando rispetto al tempo la precedente identità, si ottiene:


Z
dΦ(t) ¡ t ¢
f (x(t), u(t)) = 0 + |t=0 Φ(t)(x0 − xe ) + ϕl (t − τ )(u(τ ) − ue )dτ + ϕl (0)(u(t) − ue ) + . . .
dt 0

cioè:
dΦ(t)
= |t=0 (x(t) − xe ) + ϕl (0)(u(t) − ue ) + . . .
dt
Rimane cosı̀ individuata l’approssimazione sulla soluzione che, per l’unicità delle soluzioni di un’equazione
differenziale, comporta che
¯ ¯
∂f ¯¯ dΦ(t) ∂f ¯¯
¯ = |t=0 = ϕl (0)
∂x xe ,ue dt ∂u ¯xe ,ue

In sintesi con riferimento ad un’assegnata rappresentazione differenziale intorno ad una coppia


di equilibrio,

ẋ = f (x, u) f (xe , ue ) = 0

y = h(x, u) h(xe , ue ) = he

si ha l’approssimazione lineare

ẋa = Axa + Bv

ya = Cxa + Dv

ove si è posto xa = x − xe , v = u − ue , ya = y − ye
¯ ¯
∂f ¯¯ ∂f ¯¯
A= B=
∂x ¯xe ,ue ∂u ¯xe ,ue
¯ ¯
∂h ¯¯ ∂h ¯¯
C= D=
∂x ¯xe ,ue ∂u ¯xe ,ue

Due semplici esempi di applicazione sono introdotti nel seguito:

Pendolo

Le equazioni che descrivono la dinamica di un pendolo di massa m, sospeso ad un’asta rigida di


peso trascurabile di lunghezza l, possono essere facilmente ottenute dall’equilibrio delle forze lungo la
tangente al moto. Si ha

mlθ̈(t) + mgsenθ(t) + klθ̇(t) = u(t)

Dove u rappresenta una forza esterna agente, e k è un coefficiente di attrito dinamico. Posto x1 (t) =
θ(t) e x2 (t) = θ̇(t) si ottiene:
2.5. Rappresentazioni lineari come approssimazioni di sistemi non lineari 37

ẋ1 (t) = x2 (t)


−g k 1
ẋ2 (t) = senx1 (t) − x2 (t) + u(t)
l m ml

cioè una rappresentazione con lo stato non lineare del tipo


µ ¶
0
ẋ(t) = f (x(t)) + 1 u(t)
ml

Il calcolo delle coppie di equilibrio corrispondenti ad ingresso nullo, ue = 0, fornisce xe2 = 0, xe1 =
(2h + 1)π oppure xe1 = 2hπ cioè tutti gli stati di equilibrio con la massa nelle posizioni verticali sopra
e sotto il punto di attacco. Intorno agli stati di equilibrio sopra il punto di attacco si ha il modello
linearizzato:

ẋ1 (t) = x2 (t)


g −k 1
ẋ2 (t) = x1 (t) + x2 (t) + u(t)
l m ml
per gli altri:

ẋ1 (t) = x2 (t)


−g −k 1
ẋ2 (t) = x1 (t) + x2 (t) + u(t)
l m ml

Dinamica di due specie interagenti

Il seguente modello che descrive la dinamica di due specie interagenti, preda e predatore, è stato
introdotto nel 1926 dal matematico italiano Vito Volterra e prende il suo nome. Tale modello riesce
ad interpretare l’aspetto più saliente di tale fenomeno: si tratta della presenza di situazioni di equilibrio
che, se perturbate, vedono insorgere fenomeni di oscillazione (alternanza di sviluppo tra le specie).
Si assume, nella formulazione del modello, che:
- la preda cresce, in assenza di predazione, secondo la cosiddetta equazione logistica

ẋ1 (t) = ax1 (t) − kx21 (t)

(si tratta di un equazione differenziale che mette bene in evidenza sia un andamento esponenziale
della crescita nella fase iniziale dell’evoluzione e per modesti valori di densità, sia una tendenza
asintotica ad un valore limite, ka (capacità portante) , che tiene conto di fattori limitanti quali, ad
esempio, la limitatezza delle risorse);
- il predatore ha come unico sostentamento la preda ed in assenza di questa diminuisce secondo
un andamento esponenziale governato dalla seguente equazione differenziale

ẋ2 (t) = −cx2 (t)

- il tasso di predazione è proporzionale al prodotto degli individui delle due specie


38 2. Rappresentazioni con lo stato lineari, a dimensione finita, stazionarie

Con queste assunzioni le equazioni che descrivono l’evoluzione delle specie possono essere facilmente
dedotte dalle precedenti equazioni. Si ottiene:

ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t)

ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)

y1 (t) = x1 (t) y2 (t) = x2 (t)

Si ha quindi ancora una volta un modello nonlineare dello stesso tipo del precedente. Come è facile
verificare si hanno in questo caso due punti di equilibrio: uno banale, corrispondente all’assenza di
specie, l’altro
c
x2 (−c + dx1 ) = 0 → x1e =
d

ad − kc
x1 (a − kx1 − bx2 ) = 0 → x2e =
bd
Intorno a tale punto di equilibrio l’evoluzione è approssimata da un sistema lineare in evoluzione
libera con

µ ¶
− kc
d − bc
d
A= ad−kc
b 0

2.6. Rappresentazioni a tempo discreto di sistemi a tempo continuo

Le rappresentazioni a tempo discreto possono essere impiegate per descrivere o approssimare sistemi
a tempo continuo come viene precisato nel seguito.
Assegnato un sistema a tempo continuo in cui gli ingressi sono costanti a tratti su intervalli di ampiezza
fissa, se si è interessati a calcolare le evoluzioni negli istanti, detti di campionamento, corrispondenti
alla variazione dell’ingresso è possibile ricondursi ad un sistema a tempo discreto equivalente. La
situazione è rappresentata nella figura 9.2; il calcolo del modello discreto equivalente è noto come
problema della discretizzazione. Tale problema trova applicazione nello studio di sistemi reali
collegati a dispositivi digitali; in tali circostanze l’ingresso è costante a tratti e le grandezze sono tutte
ricondotte ad una scala temporale discreta multipla del ciclo di calcolo elementare.

Una diversa circostanza che conduce a riferirsi al problema della discretizzazione è quando gli ingressi
continui vengono campionati; in tal caso il modello discreto descrive in modo approssimato il compor-
tamento campionato del sistema a tempo continuo alimentato da ingresso non sottoposti al processo
di campionamento e tenuta. Questa procedura è quella alla quale ci si riferisce quando si compiono
simulazioni numeriche sul modello di un assegnato sistema.
5.5. La risposta a regime permanente per i sistemi a tempo discreto 109

Parallelo perfetto quindi con i sistemi a tempo continuo in cui il guadagno è W (0) e ritroviamo la
corrispondenza più volte citata tra lo 0 in s e 1 in z..

Procediamo nella nostra analisi osservando che assegnata

b 0 + b 1 z + . . . + bm z m
W (z) = n≥m
a0 + a1 z + . . . + z n

il valore in zero può essere calcolato impiegando il teorema del valore iniziale (in appendice)

f (0) = lim F (z)


|z|→∞

Per la risposta indiciale, otteniamo


(
W (z) =0 n>m
yf (z) = = yf (0) = W (∞)
(z − 1) = bm m=n

da cui risulta che il valore in zero della risposta al gradino unitario è 6= 0 se e solo se m = n, altrimenti
il primo valore 6= 0 si ha al tempo t = n − m e la sua ampiezza è pari a bm . Infatti ricordando il
teorema della traslazione si calcola con facilità

yf (0) = yf (1) = . . . yf (n − m − 1) = 0 yf (n − m) = bm

In sintesi da un’analisi qualitativa di W (z) risulta che il ritardo nella risposta indiciale è pari ad n−m,
l’eccesso poli - zeri; l’ampiezza del primo campione non nullo nella risposta indiciale è pari a bm ; al
crescere del tempo la risposta indiciale tende ad assumere un valore costante e pari a W (1).

5.5. La risposta a regime permanente per i sistemi a tempo discreto

rivedere
Come è stato messo bene in luce con riferimento ai sistemi a tempo continuo, un altro modo di
procedere al calcolo della W (s) è quello di fare esperimenti sul comportamento a regime permanente
nei confronti ad esempio di ingressi di tipo periodico caratterizzando modulo e fase della W (s) stessa.
Analoghe considerazioni possono essere fatte per sistemi a tempo discreto alla luce del significato che
assume la risposta a regime permanente ad ingressi periodici. Tale argomento viene sinteticamente
esposto nel seguito.
110 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

5.5.a. La risposta a regime ad ingressi periodici

Assegnato l’ingresso u(t) = senθt

u(t) = senθt
yr (t) = M (θ)sen(θt + φ(θ))
M (θ) = |W (ejθ )|
φ(θ) = W (ejθ )

Noi sappiamo che la risposta a regime permanente è quell’andamento intorno al quale tende ad
assestarsi il comportamento del sistema, andamento che vogliamo non dipenda dallo stato iniziale.
Imporre l’indipendenza dallo stato iniziale corrisponde, analogamente a quanto visto per i sistemi a
tempo continuo:
CAt−t0 x0 → 0 ∀x0 ⇒ |λi | < 1

In altre parole la condizione di indipendenza dallo stato iniziale si riduce a richiedere che i modi
osservabili siano associati ad autovalori a parte reale negativa. Anche in questo caso c’è da osservare
che l’esistenza del regime permanente non può prescindere da un’ulteriore proprietà che rende pos-
sibile il corretto funzionamento del sistema stesso: si tratta della limitatezza di tutte le evoluzioni
interne. Affinchè questo accada, come si può comprendere alla luce dello studio condotto sui modi
naturalli e come avremo occasione di precisare nelle fasi successive del nostro studio, è necessario
che gli autovalori a molteplicità geometrica unitaria abbiano modulo minore o uguale a uno e quelli
a molteplicità geometrica maggiore di uno abbiano modulo strettamente inferiore ad uno. In al-
tre parole è necessaria quella proprietà che è nota come stabilità interna del sistema. Assumeremo,
dunque, la stabilità interna ed in aggiunta, per garantire la citata indipendenza dallo stato iniziale
assumeremo che gli autovalori associati ai modi osservabili abbiano modulo strettamente inferiore ad
uno indipendentemente dalla loro molteplicità.
Assunta tale condizione sugli autovalori del sistema e passando al limite per t0 → −∞, si ottiene
l’espressione della risposta a regime permanente

X
t
yr (t) = W (t − τ )u(τ )
τ =−∞

che esiste per definite classi di funzioni di ingresso. Consideriamo classi di ingressi particolari

ejθt − e−jθt
u(t) = senθt =
2j

si ottiene
X
t
yr (t) = W (t − τ )ejθτ
τ =−∞

e posto
t−τ =ξ
5.5. La risposta a regime permanente per i sistemi a tempo discreto 111


X ∞
X
yr (t) = W (ξ)ejθ(t−ξ) = ejθt W (ξ)e−jθξ
ξ=0 ξ=0


X
W (ξ)(ejθ )−ξ = W (z)|ejθ
ξ=0

Quindi la risposta a regime permanente a questo ingresso è :

yr (t) = ejθt · W (ejθ )

Gli stessi calcoli per e−jθt danno:


e−jθt W (ejθ )

Si noti che la W (z) per z = ejθ è definita; infatti si potrebbe dimostrare che il raggio di convergenza
della W (z) coincide con il massimo dei moduli degli autovalori. Essendo questi per ipotesi tutti minori
di 1, sulla circonferenza di raggio unitario la funzione di trasferimento è ben definita.
Dal precedente calcolo, adottando la rappresentazione polare per la W

W (ejθ ) W (e−jθ )

⇓ ⇓

M (θ)ejφ(θ) M (−θ)ejφ(−θ)

ed osservando che M e φ sono funzioni, rispettivamente pari e dispari di θ

φ(θ) = −φ(−θ) M (θ) = M (−θ)

si ottiene
ejθt · W (ejθ ) − e−jθt · W (e−jθ ) M (θ)(ejθt · ejφ(θ) − e−jθt · e−jφ(θ) )
=
2j 2j

cioè
yr (t) = M (θ)sen(θt + φ(θ))

In conclusione la risposta a regime permanente ad un ingresso periodico puro è dello stesso tipo
dell’ingresso ed ha la stessa pulsazione; risulta modificata in modulo e ampiezza di quantità che sono
pari al modulo e alla fase della W calcolata in z = ejθ . Per questo motivo si usa dire che il modulo e
la fase di W (z) per z = ejθ al variare di θ tra 0 e π caratterizzano il comportamento in frequenza.
112 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

5.5.b. La risposta a regime ad ingressi canonici

Sia t(k) un polinomio fattoriale di ordine (k)

t(k) = t(t − 1)(t − 2) · · · (t − k + 1)

e si consideri l’ingresso canonico di ordine (k) per i sistemi a tempo discreto

t(k)
u(t) =
k!

X
t
yr (t) = lim W (t − r)u(r)
t0 →−∞
r=t0

X
t
r(k)
= lim W (t − r) t−r =θ
t0 →−∞ k!
r=t0
X∞
(t − θ)(k)
= W (θ)
k!
θ=0

Poichè per il polinomio fattoriale di ordine (k) di un binomio vale lo sviluppo seguente
k µ ¶
X k
(t − θ)(k) = (−1)i t(k−i) (θ + i − 1)(i)
i
i=0

si ha
Xk µ ¶ ∞
X
1 k
yr (t) = i (k−i)
(−1) t W (θ)(θ + i − 1)(i)
k! i
i=0 θ=0
X
k
(−1)i t(k−i)
= Mi
i=0
i! (k − i)!

in cui si è posto

di W (z)
Mi = (−1)i |z=1
dz i
infatti
∞ ∞
di W (z) di X W (t) X W (t)
= i = (−1)i
(t + i − 1)(i) t+1
dz i dz t=0 z t t=0
z

Se inoltre si considera lo sviluppo in serie di potenze di W (z) intorno a z = 1,


X 1 di W
W (z) = |z=1 (z − 1)i
i! dz i
i≥0

si deduce che
Mi = (−1)i i!ci
5.5. La risposta a regime permanente per i sistemi a tempo discreto 113

ed in conclusione per la risposta a regime permanente si ottiene l’espressione

X
k
t(k−1)
yr (t) = ci
i=0
(k − 1)

che presenta una stretta analogia formale con quella ottenuta per i sistemi a tempo continuo.

La risposta a regime permanente può anche essere calcolata come la parte persistente della
risposta forzata. In questo caso giova fare riferimento al dominio delle trasformate.
Un primo aspetto riguarda il calcolo della trasformata dell’ingresso canonico fattoriale

t[k] t(k − 1) . . . (t − k + 1)
=
k! k!
risulta · ¸
t[k] z
Z =
k! (z − 1)k+1
Per verificare quanto asserito è necessario premettere una proprietà della trasformata zeta. Più
precisamente
¡ ¢ d
Z tf (t) = −z F (z)
dz
infatti à ! à !
d f (1) f (2) f (1) 2f (2) 3f (3)
f (0) + + 2 + ... = − + 2 + + =
dz z z z z3 z4

e moltiplicando per −z

d f (1) 2f (2) ¡ ¢
−z F (z) = + + . . . = Z t · f (t)
dz z z2
Possiamo ora calcolare la Z trasformata di t.
d z z
Z[t] = −z =
dz z − 1 (z − 1)2

e poi la trasformata Z del polinomio fattoriale

t[k] = t(t − 1) . . . (t − k + 1)

d 1 2z
Z[t[2] ] = Z[t · (t − 1)] = −z =
dz (z − 1)2 (z − 1)3
" # " #
t[2] t · (t − 1) d 1 z
Z =Z = −z · =
2! 2 dz (z − 1) 2 2 (z − 1)3
" #
t(t − 1)(t − 2) z
Z =
3! (z − 1)4
114 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

e, in generale:
" #
t[k] z
Z =
k! (z − 1)k+1

La risposta a regime permanente ad un tale ingresso può essere calcolata facilmente; si ha infatti

yf (z) W (z) N (z)


= =
z (z − 1)k+1 D(z)(z − 1)k+1

e, sviluppando i calcoli

yf (z) c0 c1 ck X ri n
= + + ... + +
z (z − 1)k+1 (z − 1)k (z − 1) i=1 z − pi

t(k) t(k−1) Xn
yf (t) = c0 + c1 + . . . + ck + ri pti
k! (k − 1)! i=1

e, infine
t(k) t(k−1)
yr (t) = c0 + c1 + . . . + ck
k! (k − 1)!
con
¯
W (z) ¯
k+1 ¯
c0 = K = (z − 1) ¯ = W (1)
(z − 1)k+1
z=1

guadagno del sistema discreto


à !¯
d W (z) ¯
k+1 ¯
c1 = (z − 1) ¯
dz (z − 1)k+1
z=1

.....

¯
1 di ¯
ci = W (z)¯
i! dz i ¯
z=1

Anche nel caso del sistema a tempo discreto possiamo ripetere le stesse considerazioni fatte in prece-
denza; i coefficienti non sono altro che i coefficienti dello sviluppo in serie di Taylor, della W (z) intorno
al punto z = 1.
5.7. Discretizzazione della funzione di trasferimento di un sistema continuo 115

5.6. Le leggi di moto nell’evoluzione libera e forzata nel caso di autovalori


multipli - sistemi a tempo discreto

Possiamo qui ripetere le stesse considerazioni già fatte nel caso a tempo continuo

φ(z) X X ir m
Rik
=
z i=1
(z − λi )k
k=1

à !
XX z
φ(t) = Rik Z −1
i
(z − λi )k
k

Per antitrasformare è necessario osservare una proprietà della trasformata zeta:

Z[λt f (t)] = F (λ−1 z)

infatti
λ λ2
Z[λt f (t)] = f (0) + f (1) + f (z) 2 + . . .
z z
da cui
" #
t(k−1)
t z/λ z zλ(k−1)
Z λ = = =
(k − 1)! (z/λ − 1)k λ
λk
(z − λ)k (z − λ)k

Ancora, si ha
" #
k−1
t zλk−1
Z λ−k+1 λt = · λ−k+1
(k − 1)! (z − λ)k

cioè
" #
t−k+1 t(k−1) z
Z λ =
(k − 1)! (z − λ)k

e
X
r X
mi
t(k−1) t−k+1
φ(t) = Rik λ
i=1 k=1
(k − 1)! i

Queste sono le leggi di moto che compaiono; perciò non più solo leggi di moto del tipo (λt ), ma anche
leggi di moto con coefficienti che sono dei polinomi in (t). Ciò corrisponde ai termini che caratterizzano
la potenza di una matrice A quando questa non è regolare (non esiste la forma diagonale). Valgono le
stesse considerazioni fatte a proposito dei sistemi a tempo continuo, ricordando che in questo caso la
diversità di comportamento al crescere del tempo si riscontra nel caso di autovalori a modulo unitario.
116 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

5.7. Discretizzazione della funzione di trasferimento di un sistema continuo

Supponiamo che il sistema a tempo continuo sia descritto dalla funzione di trasferimento

Stc = W (s)

Il sistema che otteniamo è un sistema a tempo discreto lineare quindi il legame forzato sarà caratter-
izzato da una W (z). Si mostrerà ora come calcolare direttamente la W (z) a partire dalla W (s).

Real. ↓ ↑ CD (zI − AD )−1 BD


−→
(A, B, C) (AD , BD , CD )
D
La soluzione è la seguente:
" Ã !¯ #
z−1 ¯
−1 W (s) ¯
W (z) = Z L ¯
z s ¯
t=KT

Per comprendere tale espressione si noti che essendo il sistema a tempo discreto lineare, è sufficiente
per calcolare la W (z) esprimere il rapporto tra un’uscita forzata e il corrispondente ingresso; inoltre, la
risposta al gradino a tempo discreto coincide con il campionamento della risposta al gradino unitario
del sistema a tempo continuo (ciò perchè la tenuta di un gradino discreto, dà un gradino continuo);
quindi la risposta indiciale continua campionata:
à !¯
¯
W (s) ¯
L−1 ¯
s ¯
kT

coincide con la risposta indiciale del sistema a tempo discreto. Facendone la Z - trasformata
" Ã !¯ #
¯
−1 W (s) ¯
Z L ¯
s ¯
kT

e dividendo per la Z trasformata del gradino a tempo discreto si ottiene, per quanto osservato, la
funzione di trasferimento cercata
" Ã !¯ #
z−1 ¯
yf (z) W (s) ¯
W (z) = = Z L−1 ¯
uf (z) z s ¯
kT

Esempio:
1
W (s) =
s2
 µ ¶ µ ¶

 ẋ = 0 1 x + 0 u
0 0 1

y = (1 0)x

realizzazione del modello W (s) = s12 .


Questo è un modello molto usuale, modello su cui si fondano molte considerazioni sia di analisi che
5.7. Discretizzazione della funzione di trasferimento di un sistema continuo 117

di sintesi, di intervento e di strategie di controllo.


Calcolo:
W (s) 1
= 3
s s
à !
W (s) t2
L−1
s 2
à !¯
¯ k2 T 2
−1 W (s) ¯
L ¯
s ¯ 2
t=kT
" Ã !¯ #
¯ T2
W (s) ¯
Z L−1 ¯ = z(k 2 )
s ¯ 2
t=kT
z
z(k) =
(z − 1)2
d z
z(k · k) = −z
dz (z − 1)2
" Ã !¯ #
¯ T 2 z(z + 1)
W (s) ¯
Z L−1 ¯ =
s ¯ 2 (z − 1)3
t=kT
" Ã !¯ #
z−1 ¯ T 2 z(z + 1) z − 1
−1 W (s) ¯
Z L ¯ =
z s ¯ 2 (z − 1)3 z
t=kT
" Ã !¯ #
z−1 ¯ T 2 (z + 1)
W (s) ¯
Z L−1 ¯ = = W (z)
z s ¯ 2 (z − 1)2
t=kT

Nella soluzione c’è un polo doppio in uno:


(z − 1)2 , proprio come nella W (s) = s12 dove c’è un polo doppio in zero.

Zeri di W (s) sotto discretizzazione:


Mentre gli autovalori, e quindi anche i poli della funzione di trasferimento, si trasformano secondo
la corrispondenza z = esT , la situazione si presenta complessa per quanto riguarda gli zeri. Un primo
aspetto riguarda il loro numero; è genericamente (n − 1) indipendentemente da quanti siano gli zeri
di P (s). Quindi sotto discretizzazione appaiono nuovi zeri; più precisamente se W (s) ha m zeri, W (z)
ha (n − m − 1) zeri in più. Si potrebbe dimostrare che per T sufficientemente piccolo

ziD ∼
= ezi T i = 1, . . . , m

i = m + 1, . . . , n − 1 ziD ⇒ zeri del discretizzato di 1


sn−m

è importante notare che per (n − m) > 2 gli zeri del discretizzato di sn−m1
sono instabili (|ziD | > 1).
In altre parole per T piccolo (come usualmente accade) la funzione di trasferimento, del discretizzato
di un processo continuo con eccesso poli-zeri > 2, presenta zeri instabili, anche se il processo non li ha.

Discretizzazione di sistemi con ritardo


118 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

L’ultima considerazione riguarda la discretizzazione di sistemi con ritardo.

W (s) = e−λs H(s)

λT = eT · mT 0<m<1
W (s) emT s a
= e−lT s
s s(s + a)

" Ã !¯ #
z−1 1 −1 e
mT s
emT s ¯¯
W (z) = z L − ¯
z zl s s+a ¯
t=KT
à !
z−1
= l+1 z δ−1 (kT + mT ) − e−a(kT +mT )
z
à !
z−1 z e−amT z
W (z) = l+1 −
z z − 1 z − e−aT

Si ottiene quindi una W (z) che è un rapporto di polinomi, in realtà si ottiene che il grado a denomi-
natore è pari a (λ + 1). Perciò si ha una funzione di trasferimento che è rapporto di polinomi e quindi
una rappresentazione con lo stato che è a dimensione finita, cosa che in realtà non si avrebbe in questo
caso per il sistema a tempo continuo.
5.8. Appendice 119

5.8. Appendice

5.8.a. La Trasformata Z

La trasformata Z, che associa ad una funzione del tempo discreto definita per t ≥ 0, f (t), una
funzione di variabile complessa, F (z) = Z[f (t)], è uno strumento di grande utilità nello studio dei
sistemi lineari stazionari a tempo discreto. Lo studio del sistema nel dominio complesso non solo
consente alcune semplificazioni computazionali, come avremo occasione di verificare, ma importanti
spunti interpretativi sul comportamento fisico del sistema.
Questa lezione è dedicata ad introdurre questo strumento matematico, le sue principali proprietà
ed alcune trasformazioni elementari.
La trasformata Z, associata ad una funzione f (t) definita per t ≥ 0, è

X f (1) f (2)
Z[f (t)] = f (t)z −t = f (0) + + 2 + . . . = F (z)
t=0
z z

è cioè una funzione della variabile complessa z che risulta definita per |z| > ρf (ρf raggio di conver-
genza). La classe di funzioni per le quali tale operazione di trasformazione è definita è estremamente
ampia, è infatti intuitivo comprendere che per valori di z in modulo sufficientemente ampi la serie è
convergente essendo i campioni della funzione sono moltiplicati per z1t .
E’ evidente l’analogia con la trasformata di Laplace.
Z ∞
L[f (t)] = f (t)e−st dt = F (s)
0

che è definita per Re(s) > αf (αf ascissa di convergenza)


Nella trasformata Z i valori della funzione sono moltiplicati per la potenza di z1 , nella trasformata
di Laplace i valori della funzione sono moltiplicati per l’esponenziale di −s. Si tratta di una corrispon-
denza già riscontrata nello studio dei modi naturali e nelle considerazioni circa la convergenza delle
leggi di moto.

Molto spesso per indicare che la funzione di cui si fa la trasformata è definita per t ≥ 0 si usa la
convenzione di rappresentare la funzione con f (t)δ−1 (t) essendo δ−1 il gradino unitario, la funzione
pari ad uno per t ≥ 0. Un primo aspetto che consideriamo è il calcolo per funzioni elementari. Tra
queste consideriamo le espressioni temporali dei modi naturali che, come sappiamo, caratterizzano la
descrizione esplicita del sistema. La legge di moto di un modo aperiodico o alternante è del tipo λt e
si ha
λ λ2 1 z
Z[λt δ−1 (t)] = Z[λt ] = 1 + + 2 + . . . = =
z z 1− z
λ z−λ
ed è definita per ¯ ¯
¯λ¯
¯ ¯< 1 ⇔ |z| > |λ|
¯z¯
120 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

La verifica è semplice se si osserva che la funzione in questione è la somma di una serie geometrica di
ragione λz e che per una serie geometrica di ragione a

S = 1 + a + a2 + a3 + . . . (serie geometrica)

posto
Sn = 1 + a + a2 + a3 + . . . + an

si ha
1 − an+1
Sn =
1−a
e quindi
1 − an+1 1
S = S∞ = lim Sn = lim = |a| < 1
n⇒∞ n⇒∞ 1−a 1−a

Un caso particolare è rappresentato dal gradino unitario. Risulta ovviamente


z
z[δ−1 (t)] = |z| > 1
z−1

Come secondo esempio si consideri una legge temporale periodica

ejθt − e−jθt
senθt =
2j

Con semplici passaggi si ottiene


· ¸
ejθt − e−jθt 1
Z[senθt] = Z = Z[ejθt ] − Z[e−jθt ] =
2j 2j
à !
1 z z 1 z 2 − ze−jθ − z 2 + zejθ
= − = =
2j z − ejθ z − e−jθ 2j z 2 − z(ejθ + e−jθ ) + 1

zsenθ
Z[senθt] = |z| > 1
z2 − 2zcos θ + 1
dove si è fatto uso della proprietà di linearità.

E’ questa una proprietà fondamentale della trasformata Z che formalmente si esprime

Z[k1 f1 (t) + k2 f2 (t)] = k1 F1 (z) + k2 F2 (z) ∀k1 , k2

ρf = max{ρf1 , ρf2 }

Ulteriori proprietà della trasformata Z che saranno ore messe in luce sono le seguenti
- Traslazione (a destra e a sinistra)
- Convoluzione
- Valore iniziale e finale (nel tempo)
5.8. Appendice 121

Traslazione a destra
1
Z[f (t − 1)] = F (z)
z
Infatti, dalla definizione:

X f (0) f (1)
Z[f (t − 1)] = f (t − 1)z −t = + 2 + ...
t=0
z z

si può calcolare à !
f (0) f (1)
zZ[f (t − 1)] = z + 2 + . . . = F (z)
z z

e quindi
1
Z[f (t − 1)] = F (z)
z
1
cioè traslare a destra di un passo nel tempo equivale a moltiplicare per z nel dominio della variabile
complessa z.

Traslazione a sinistra
Z[f (t + 1)] = zF (z) − zf (0)

Infatti dalla definizione


f (2) f (3)
Z[f (t + 1)] = f (1) + + 2 + ...
z z
si può calcolare
1 f (1) f (2) f (3)
Z[f (t + 1)] = −f (0) + f (0) + + 2 + 3 + ...
z z z z
e quindi
Z[f (t + 1)] = zF (z) − zf (0)

Si noti l’analogia col teorema della derivazione nel dominio di Laplace


µ ¶
L f˙(t) = sF (s) − f (0)

Convoluzione ·X ¸
t
Z f (τ )g(t − τ ) = F (z) · G(z)
τ =0

che si esprime dicendo che la convoluzione nel dominio del tempo corrisponde al prodotto nel dominio
delle trasformate. Infatti à t ¶
X
Z f (τ )g(t − τ ) =
τ =0
µ ¶ µ ¶
1 1
= f (0) · g(0) + f (0) · g(1) + f (1) · g(0) + 2 f (0)g(2) + f (1)g(1) + f (2)g(0) + . . .
z z
µ ¶ µ ¶
g(1) g(2) f (1) g(1) g(2)
= f (0) g(0) + + 2 + ... + g(0) + + 2 + ...
z z z z z
122 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

µ ¶
f (2) g(1)
+ 2 g(0) + + ...
z z
f (1) f (2)
= f (0)G(z) + G(z) + 2 G(z) . . .
z z
µ ¶
f (1) f (2)
= f (0) + + 2 + . . . G(z) = F (z) · G(z)
z z

Si osservi che tale proprietà comporta una semplificazione nel calcolo della risposta, infatti la risposta
forzata nello stato.
X
t−1
H(t − τ )u(τ )
τ =0

è pari alla convoluzione nel dominio del tempo e si traduce nel prodotto tra trasformate z.

Teorema del valore iniziale


f (0) = lim F (z)
|z|→∞

Infatti
f (1) f (2)
F (z) = f (0) + + 2 + ...
z z
e
lim F (z) = f (0)
|z|→∞

teorema del valore finale


f (∞) = lim (z − 1)F (z)
z→1

Tale risultato può essere dimostrato con i seguenti calcoli


µ ¶ X
N
¡ ¢
Z f (t + 1) − f (t) = zF (z) − zf (0) − F (z) = lim f (t + 1) − f (t) z −t
N →∞
t=0

e quindi
¡ ¢ X
N
¡ ¢
lim zF (z) − zf (0) − F (z) = lim lim f (t + 1) − f (z) z −t
z→1 z→1 N →∞
t=0

cioè
N µ
X ¶
lim (z − 1)F (z) − f (0) = lim f (t + 1) − f (t) = f (∞) − f (0)
z→1 N →∞
t=0

In conclusione:
lim (z − 1)F (z) − f (0) = f (∞) − f (0)
z→1

Per concludere calcoliamo la trasformata Z di At . Il calcolo ricalca i passaggi svolti nel caso scalare

A A2 A3
Z[At ] = I + + 2 + 3 + ...
z z z
5.8. Appendice 123

e posto µ ¶
A An
Sn = I + + ... + n
z z
risulta µ ¶ µ ¶µ ¶
A A A An An+1
I− Sn = I − I + + . . . + n = I − n+1
z z z z z
cioè µ ¶−1 µ ¶
A An+1
Sn = I− I − n+1
z z
e, in conclusione
µ ¶−1 µ ¶−1
A zI − A
t
Z[A ] = limn⇒∞ Sn = I− = = z(zI − A)−1
z z

che converge per


° °
°A°
° °< 1 ⇒ |z| > kAk
°z°

Polinomi fattoriali e formule trasformazione..

5.8.b. Sul calcolo della matrice di transizione

Indifferentemente per un sistema a tempo continuo o discreto si ha:

(sI − A)aT
(sI − A)−1 =
|sI − A|

E0 + . . . + En−1 sn−1
=
a0 + . . . + an−1 sn−1 + sn
in cui E0 , · · · En−1 sono matrici reali nxn. Dalla precedente relazione risulta che l’inversa di (λI − A)
è una matrice (nxn) i cui elementi sono rapporti di polinomi in λ con coefficienti reali, in cui il grado
del polinomio a numeratore è, al massimo, n − 1 e quello del polinomio a denominatore è n.
Vale per il calcolo di E0 , · · · En−1 e per il calcolo dei coefficienti del polinomio caratteristico
a0 , · · · , an−1 la procedura illustrata nel seguito e nota come algoritmo di Soriau.

|sI − A|I = (a0 + . . . + sn )I = (sI − A)(E0 + . . . + En−1 sn−1 )

e per identificazione dei coefficienti si ottiene:

En−1 = I

En−2 = AEn−1 + an−1 I

En−3 = AEn−2 + an−2 I


124 5. Le rappresentazioni Lineari Stazionarie nel dominio complesso

..
.

E0 = AE1 + a1 I

0 = AE0 + a0 I

l’ultima relazione è ridondante e può essere impiegata per fare una verifica.
Le relazioni trovate definiscono un algoritmo particolarmente utile se si tiene presente che

an−1 = −tr(AEn−1 )

1
an−2 = − tr(AEn−2 )
2
..
.
1
ai = − tr(AEi )
n−i
ove tr indica la traccia di una matrice, cioè la somma degli autovalori o, ciò che è lo stesso, la somma
degli elementi sulla diagonale. Per la verifica delle precedenti uguaglianze si deve ricordare che detta
si la somma delle potenze i − me degli zeri di un polinomio, valgono le relazioni di Newton

an−1 = −s1

2an−2 = −(s2 + an − 1s1 )

3an−3 = −(s3 + an − 1s2 + an − 2s1 )

...

na0 = −(sn + an − 1sn−1 + · · · + a1 s1 )

Inoltre, poichè gli autovalori della potenza i−ma di una matrice sono gli autovalori stessi alla potenza
i − ma, e la somma degli autovalori è pari alla traccia della matrice, si ha che

si = tr(Ai )

Ne segue che l’i − mo elemento delle relazioni di Newton si può esprimere nel modo seguente

ian−i = −tr(An−i−1 + an−1 An−i−2 + · · · + an−i A)

Infine le matrici En−i soddisfano le relazioni

En−i = An−i−1 + an−1 An−i−2 + · · · + an−i+1 A + an−i i = 0, . . . n − 1

Dalle ultime due uguaglianze si deduce

1
ai = − tr(AEi )
n−i
5.8. Appendice 125

In conclusione vale la seguente procedura per il calcolo della funzione di trasferimento:

i=n−1

Ei = I

Ci = AEi


1
ai = tr(AEi )
n−1

Ei−1 = Ci + ai I

ST AM P A(i, Ei , ai )

i=0 ⇒ AE0 + a0 I ∼
=0 Stop

i=i−1 ⇒ IT ERA

Per n ≤ 10 si ottengono in genere buoni risultati.


6. Le proprietà geometriche dello spazio di
stato

In questo capitolo vengono introdotte e studiate le proprietà geometriche dello spazio di stato. Il
concetto fondamentale è quello di sottospazio invariante associato ad un operatore lineare già messo
in luce nei precedenti capitoli per il ruolo che esso ha nella individuazione delle forme semplici di una
data matrice. Come avremo occasione di mostrare, tale concetto acquisisce un significato particolare
nella caratterizazione del comportamento dinamico; si tratta di un aspetto che supera il contesto
lineare e sarà infatti poi ripreso nello studio dei sistemi dinamici non lineari.
L’invarianza è il punto di partenza per lo studio di due prroprietà fondamentali nello studio dei
sistemi dinamici.
La prima riguarda il legame stato-uscita e si riferisce all’esistenza di stati ai quali corrispondono
uscite coincidenti. Come avremo occasione di approfondire, da un punto di vista esterno ciò costituisce
un impedimento alla ricostruzione delle evoluzioni interne a partire dalle osservazioni (inosservabilità
del sistema) e rappresenta una ridondanza della rappresentazione con lo stato (si ricordi quanto già
osservato nel capitolo 1.3.).
La seconda riguarda il comportamento ingresso stato e più in particolare la possibilità di in-
tervenire sugli ingressi per raggiungere prefissati stati. Da un punto di vista esterno ciò esprime
la possibilità di modificare il comportamento dinamico di parte del sistema e l’eventuale presenza
di stati non raggiungibili manifesta la presenza di una ridondanza dello stato nella descrizione del
comportamento ingresso uscita forzato.

6.1. Il concetto di invarianza

Come è noto, ed è stato ricordato nel capitolo terzo a proposito del calcolo della matrice di
transizione, il concetto di sottospazio invariante svolge un ruolo importante nella teoria degli opera-
tori lineari. Ciò in virtù delle semplificazioni che assume la struttura della matrice che rappresenta
l’operatore al variare della base. Dal un punto di vista del comportamento dinamico questa proprietà
ne induce un’altra che è più significativa e che ora si cercherà di mettere in luce.
6.1. Il concetto di invarianza 127

Sia V un sottospazio di dimensione m invariante rispetto ad un operatore lineare A in uno spazio


lineare di dimensione n. Si indichino con V ed A, rispettivamente, una matrice di vettori di base del
sottospazio ed una rappresentazione dell’operatore in un assegnata base. Si avrà

AV ⊂ V

ciò che implica, in una eventuale nuova base, una struttura a blocchi particolare della matrice che
rappresenta l’operatore. Più precisamente se T indica una trasformazione di coordinate in cui i primi
m vettori della nuova base sono una base di V (questo di ha ad esempio fissando una T −1 le cui prime
m colonne sono date dalla matrice V ) allora, nelle nuove coordinate,

µ ¶
−1 A11 A12
T AT =
0 A22

dove A11 è una matrice (m × m). La verifica di quanto asserito è immediata se si pensa che nella
nuova base il generico vettore, v, in V è rappresentato da una ennupla di numeri reali in cui i primi m
sono qualsiasi ed i restanti n − m sono nulli. Poiché per l’invarianza Av ∈ V , se ne deduce la presenza
del blocco di zeri in basso a sinistra nella rappresentazione dell’operatore.

Dunque da un punto di vista delle trasformazioni che induce, un sottospazio invariante è un autospazio.
Ogni sottospazio invariante è infatti necessariamente generato da un sottoinsieme degli autospazi della
matrice. Questo fatto lascia intendere che da un punto di vista dinamico, cioè per quanto riguarda
le evoluzioni libere del sistema ad esso associato, le evoluzioni che partono da uno stato iniziale in V
restano in V . Infatti il sistema è descritto dalle equazioni

ż1 = A11 z1 + A12 z2 + B1 u


ż2 = A22 z2 + B2 u

e in evoluzione libera con z2 (0) = 0 resta z2 (t) = 0.

Ma non è questo l’aspetto più interessante. La questione più significativa, per quanto riguarda le
evoluzioni del sistema è che a partire da due generiche condizioni iniziali la cui differenza appartiene
a V le evoluzioni, istante per istante, mantengono la proprietà degli stati iniziali. Ciò significa che
a partire da stati che appartengono alla stessa varietà affine ottenuta per traslazione del sottospazio
V le evoluzioni si mantengono in varietà affini della stessa classe. In termini sintetici varietà traslate
di V evolvono in varietà traslate o, equivalentemente la struttura indotta per traslazione da V , la
foliazione, è invariante rispetto alla dinamica.

In figura, con riferimento ad uno spazio bidimensionale, sono schematicamente raffigurati V , la foli-
azione indotta ed il concetto di invarianza sotto la dinamica.
128 6. Le proprietà geometriche dello spazio di stato

Il sottospazio invariante è nella nullità di C

Un’ulteriore situazione di interesse dal punto di vista del comportamento dinamico si presenta
se il sottospazio invariante V è contenuto nel kernel della matrice C. Si comprende immediatamente
che in tale circostanza nelle coordinate z il sistema è descritto dalle equazioni

ż1 = A11 z1 + A12 z2 + B1 u


ż2 = A22 z2 + B2 u (6.1)
y = C2 z2

Infatti il venerico vettore di V , rappresentato da una ennupla di numeri reali in cui i primi m sono
qualsiasi ed i restanti n − m sono nulli, dovrà essere annullato mediante l’applicazione di C e questo
è possibile solo se la matrice C ha le prime m colonne nulle.
Le equazioni mettono bene il luce il fatto che un’evoluzione che parte da uno stato iniziale in V ,
z2 (0) = 0, dà uscita identicamente nulla. Ma, come prima, non è questo l’aspetto più significativo dal
punto di vista della dinamica. Ciò che interessa è che poichè le evoluzioni che muovono da stati che
appartengono alla stessa foglia, una varietà traslata di V , appartengono istante per istante ad una
stessa foglia
eAt (z(0) − z 0 (0)) ∈ V

ne segue che
CeAt z(0) = CeAt z 0 (0)

cioè alle evoluzioni che muovono da una stessa foglia è associata la stessa funzione di uscita.

Si tratta di una situazione di interesse che studieremo nel prossimo paragrafo e che rappresenta
geometricamente e da un punto di vista dinamico l’impossibilità di distinguere, dall’uscita, stati che
appartengono ad una stessa foglia (si veda la figura).

L’immagine di B è nel sottospazio invariante


Una situazione ancora diversa, e di interesse, si presenta quando il sottospazio invariante V
contiene l’immagine della matrice degli ingressi B. In questo caso il sistema nelle coordinate z è
descritto dalle equazioni
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
Infatti, poichè le colonne di B sono in V esse ammettono una rappresentazione con ennuple di numeri
con i soli primi m eventualmente non nulli.
Le equazioni mettono bene il luce l’effetto del forzamento sulle evoluzioni del sistema. In particolare è
evidente che non è possibile, muovendo da uno stato iniziale in V , z2 (0) = 0, uscire da tale sottospazio
in quanto il controllo non ha effetto sulla dinamica esterna a V . Anche in questo caso l’aspetto più
significativo dal punto di vista del comportamento dinamico risiede nell’osservare che le evoluzioni
che muovono da due stati che appartengono alla stessa foglia appartengono istante per istante alla
stessa foglia, e questa proprietà di invarianza della struttura è mantenuta identica anche in presenza
6.2. Inosservabilità 129

di ingressi non nulli e diversi. Infatti per azione dell’ingresso non possono essere modificate le ultime
n − m componenti dello stato che descrivono il comportamento all’esterno di V (si veda la figura).

Anche in questo caso si tratta di una situazione di interesse che studieremo tra breve. Essa mette
in luce che le potenzialità di intervento sono limitate alla foliazione indotta da V .

6.2. Inosservabilità

Ricordiamo la definizione di stati equivalenti già proposta nel primo capitolo.

Definizione 6.1 Due stati xa e xb sono detti indistinguibili (equivalenti) a t0 se ∀t ≥ t0 , ∀u[t0 ,∞)

y(t, t0 , xa , u[t0 ,t) ) = y(t, t0 , xb , u[t0 ,t) )

Per una rappresentazione lineare stazionaria la precedente uguaglianza si riscrive


Z t Z t
Ce A(t−t0 )
xa + W (t − τ )u(τ )dτ = Ce A(t−t0 )
xb + W (t − τ )u(τ )dτ
t0 t0

ed è soddisfatta se e solo se
CeA(t−t0 ) (xa − xb ) = 0

Quindi in una rappresentazione lineare due stati sono indistinguibili se e solo se la loro differenza dà
risposta nulla in evoluzione libera.
Si definisca ora inosservabile uno stato x0 per il quale risulti

CeA(t−t0 ) x0 = 0 ∀t,

cioè sia indistinguibile dallo stato zero. Poiché la presenza di stati inosservabili è equivalente all’esistenza
di stati indistinguibili (sono indistinguibili tutti e soli quegli stati la cui differenza coincide con uno
stato inosservabile), si procederà alla caratterizzazione dell’insieme degli stati inosservabili.
Se indichiamo con I tale insieme

I: = {x ∈ Rn : CeAt x = 0, ∀t}

esso è un sottospazio lineare di Rn ; infatti una qualsiasi combinazione lineare di stati inosservabili
risulta inosservabile.

Il seguente risultato ci dice come calcolare l’insieme degli stati inosservabili.


130 6. Le proprietà geometriche dello spazio di stato

Teorema 1.  
C
© ª  CA 
I: = x : CeAt x = 0, ∀t = Ker 
 ..  = Ker(O)

.
CAn−1

Infatti se  
C
 CA 
x ∈ Ker 
 .. 

.
CAn−1
allora per il teorema di Cailey Hamilton

CAk x = 0, ∀k ⇒ CeAt x = 0, ∀t

viceversa se CeAt x = 0 derivando successivamente e calcolando in t = 0, si ottiene CAk x = 0, ∀k ed


in particolare fino a n − 1.
Se O, matrice (nq × n) detta matrice di osservabilità, ha rango n, allora I = {0}, non ci sono
stati indistinguibili ed il sistema è detto osservabile.
Se, invece, O ha rango m < n allora l’insieme degli stati inosservabili coincide con il sottospazio
generato da n−m vettori indipendenti che definiscono una base del kernel della matrice di osservabilità.

Vale la pena di osservare che l’indistinguibilità definisce una relazione di equivalenza e di con-
seguenza induce una partizione dello spazio di stato in classi di equivalenza. Non è difficile verificare
che tali classi coincidono con le varietà lineari ottenute per traslazione dal sottospazio degli inosserv-
abili. Tale relazione induce una partizione dello spazio in cui le classi di equivalenza sono insiemi di
stati indistinguibili tra loro. Le considerazioni fatte lasciano intendere che poichè gli stati che ap-
partengono ad una classe di equivalenza sono indistinguibili, e quindi equivalenti per quanto riguarda
il comportamento ingresso - uscita, basterà assumere un solo rappresentante per ogni classe e costruire
una nuova rappresentazione, di dimensione inferiore, del sistema allo studio. Qualche accorgimento
deve essere preso perchè il sistema ridotto risultante sia lineare. Come l’intuizione suggerisce tale
accorgimento corrisponde a scegliere i rappresentanti delle classi di equivalenza in modo che essi
definiscano un sottospazio.
Alla base della procedura di riduzione alla quale si è ora accennato si trova il concetto di invarianza
introdotto nel precedente paragrafo. Infatti non si avrà difficoltà a verificare che l’insieme degli stati
inosservabili è invariante rispetto alla matrice dinamica ed è contenuto nella nullità della matrice C. In
opportune coordinate il sistema assumerà quindi la rappresentazione (6.1). Una tale rappresentazione
mette bene in luce che solo le coordinate z2 sono significative e a ciascun valore di esse è associata
una foglia della struttura invariante genarata dal sottospazio degli inosservabili (coordinate z1 ). Il
sistema è dunque dal punto di vista ingresso uscita ben rappresentato dalle sole variabili z2 .
La formalizzazione della proprietà messa in luce conduce alla seguente caratterizzazione dell’insieme
degli inosservabili
6.2. Inosservabilità 131

Proposizione 1. I è il più grande sottospazio invariante rispetto ad A (AI ⊂ I) e contenuto in


KerC.

La dimostrazione è semplice infatti per definizione I è contenuto in Ker C; preso comunque un


suo elemento, xI , AxI appartiene ad esso come risulta dal calcolo ricordando il teorema di Cailey-
Hamilton: ciò esprime l’invarianza. Infine è il più grande insieme che soddisfa tale proprietà; se cosı̀
non fosse esisterebbe un elemento, xnI , non appartenente ad esso, ma ad un altro insieme invariante
sotto A e contenuto in Ker C. In base a tali proprietà risulterebbe CAk xnI = 0 e quindi xnI ∈ I,
ciò che nega l’esistenza di un insieme più grande.

6.2.a. Scomposizione rispetto all’inosservabilità

Alla luce della caratterizzazione geometrica di I non è difficile rendersi conto del fatto che esiste
una scelta delle coordinate in Rn rispetto alle quali il sistema (A, B, C) assume una rappresentazione
che mette in evidenza la struttura interna del sistema.

Teorema 2. Si assuma la rappresentazione (A, B, C) non osservabile con ρ(O) = m < n. Allora
esiste T non singolare rispetto alla quale (T AT −1 , T B, CT −1 ) manifesta la seguente struttura
µ ¶ µ ¶
−1 A11 A12 B1
T AT = , TB = , CT −1 = ( 0 C2 )
0 A22 B2

ove A22 è (m × m) ed i blocchi hanno dimensioni consistenti. Inoltre (A22 , B2 , C2 ) rappresenta un


sottosistema osservabile
 
C2
..
ρ . =m
m−1
C2 A22

La dimostrazione riposa sulla precedente caratterizzazione geometrica del sottospazio di inosserv-


abilità. Se infatti si effettua una trasformazione di coordinate di Rn , z = T x, in cui i primi (n − m)
vettori della nuova base sono generatori di I, ciò che corrisponde a scegliere come prime n−m colonne
di T −1 una base di I, la rappresentazione assume la struttura indicata. Infatti, nelle nuove coordinate
il generico stato inosservabile si esprime mediante un vettore che ha le prime (n − m) componenti
generiche e le rimanenti m nulle; l’appartenenza di tale vettore a KerCT −1 spiega la struttura di
CT −1 e l’invarianza rispetto a T AT −1 quella della matrice dinamica nelle nuove coordinate. Infine,
per quanto riguarda la completa osservabilità del sottosistema S2 è sufficiente riscrivere la matrice di
inosservabilità nelle nuove coordinate, osservare che il suo rango è ancora m, essendo legata a quella
nelle coordinate x da T non singolare, e ricordare il teorema di Cailey–Hamilton.
Si noti che posto
µ ¶
z1
z=
z2
132 6. Le proprietà geometriche dello spazio di stato

il sistema nelle nuove coordinate è descritto dalle equazioni seguenti

ż1 = A11 z1 + A12 z2 + B1 u


ż2 = A22 z2 + B2 u
y = C2 z2

La struttura nelle coordinate z, e la figura corrispondente, ben manifestano la scomposizione del


sistema in due sottosistemi S1 ed S2 il primo, S1 , corrisponde alla dinamica non osservabile, il secondo
a quella completamente osservabile.
Per quanto riguarda quest’ultimo aspetto, la completa osservabilità della coppia (A22 , C2 ), essa
risulta dall’invarianza del rango della matrice di osservabilità sotto trasformazione di coordinate e dalla
dipendenza delle potenze diordine superiore o uguale ad m della matrice A2 2 da quelle precedenti
(Cayley- Hamilton). or
z 10

S
z 1
S 1

u
z 2
S 2 y
z

z 20

Figura 6.1

Come suggerisce l’intuizione dall’osservazione della figura, il comportamento in uscita, dipende


solo dal sottosistema S2 infatti, nelle coordinate z,

Ψ(t) = ( 0 C2 eA22 t )

e, per la matrice delle risposte impulsive si ha


µ ¶
A11 A12 µ ¶
t
At −1 T AT −1 t 0 A B1
Ce B = CT e T B = ( 0 C2 ) e 22 = C2 eA22 tB2 .
B2

6.2.b. La ricostruibilità

La proprietà di osservabilità può essere interpretata come quella proprietà in base alla quale è
possibile calcolare lo stato iniziale a partire dalle uscite ”future”. Si pensi infatti ad un sistema con
6.2. Inosservabilità 133

una sola uscita in evoluzione libera; il rango pieno della matrice di osservabilità esprime l’indipendenza
dell’uscita e delle sue (n − 1) derivate e la conseguente possibilità di poter calcolare lo stato iniziale
x0 a partire dall’andamento della risposta in uscita. Limitandoci per semplicità al caso dei sistemi
lineari stazionari definiremo per analogia alla precedente la ricostruibilità come quella proprietà che
consente di osservare lo stato al tempo t0 a partire dalla conoscenza delle uscite ”passate”. Percé
ciò accada non devono esistere due stati iniziali che assunti al tempo (t0 − T ) diano vita a t0 alla
stessa uscita. Non è difficile verificare che tale proprietà sussiste per il sistema se e solo se la mappa
x → Ce−At x è iniettiva. Ciò che equivale a richiedere che il rango della matrice di osservabilità sia
pieno. Se ne deduce, perlomeno per i sistemi lineari, stazionari a tempo continuo, l’equivalenza delle
due proprietà.

6.2.c. Modi osservabili e scomposizione

La struttura del sistema nelle nuove coordinate suggerisce l’esistenza di un legame con la proprietà
di osservabilità dei modi naturali a suo tempo introdotta. L’esistenza di un legame in tal senso è
suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è equivalente a quella
nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati nei sottosistemi
S1 ed S2 . Ovviamente solo quelli in S2 non saranno osservabili, quelli in S1 potrebbero esserlo.
Per un esame più preciso della situazione è necessario introdurre alcuni preliminari. Innanzitutto
si osservi che poiché l’insieme degli inossedrvabili è il più grande sottospazio invariante rispetto ad A
che è contenuto nella nullità di C

Proposizione 2. Esiste un sottospazio U contenuto nel kernel di C ed invariante rispetto ad A se e


solo se il sistema non è tutto osservabile.

Ciò premesso è possibile mostrare che

Teorema 3. Una condizione equivalente di completa osservabilità di S è che

µ ¶
C
ρ =n
(sI − A)
La precedente condizione è nota come condizione di osservabilità di Popov- Belevitch-Hautus
(PBH).
Per quanto riguarda la dimostrazione della necessità basta osservare che se la condizione non è soddis-
fatta e la matrice di PBH è singolare, ciò che può accadere per s = λi , allora esisterebbe un sottospazio
invariante rispetto alla dinamica contenuto nella nullità di C. La sufficienza segue dal fatto che se
il sistema non è tutto osservabile, e quindi esiste un sottospazio invariante contenuto nella nullità di
C, esiste un autospazio contenuto nella nullità di C e la condizione di Popov-Belevitch-Hautus non è
soddisfatta per s coincidente con il corrispondente autovalore.
134 6. Le proprietà geometriche dello spazio di stato

Teorema 4. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica).
S è osservabile se e solo se tutti i modi naturali di ordine massimo sono osservabili.

Per la dimostrazione si pensi A in forma di Jordan e ci si riferisca al test di osservabilità appena


introdotto.

Si osservi che il sottosistema osservabile è caratterizzato da tutti e soli i modi osservabili.

ricordare come sono fatti i modi

Nel caso generale si può affermare che

Proposizione 3. Se S è osservabile allora tutti i modi naturali di ordine massimo sono osservabili.

Si pensi sempre al test precedente con A in forma di Jordan. Ciò che non è limitativo.

E’ importante osservare che se ci si riferisce ad una condizione di osservabilità più forte, quella
indicata nel capitolo quarto come condizione geometrica di osservabilità, non è difficile rendersi conto
che le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è os-
servabile se e solo se tutti i modi naturali soddisfano la condizione geometrica di osservabilità; il
sottosistema osservabile è caratterizzato da tutti e soli i modi che soddisfano alla condizione geomet-
rica di osservabilità.

Un’ultima considerazione riguarda il significato fisico della proprietà di osservabilità. è bene a


tale proposito distinguere almeno tra due diverse situazioni:
— la rappresentazione differenziale (A, B, C) proviene da una descrizione ingresso - uscita di un
sistema dinamico (modellistica del tipo scatola nera);
— la rappresentazione (A, B, C) è la descrizione di un assegnato processo dedotta dalla formaliz-
zazione del legame tra le variabili interne con gli ingressi e le uscite (modellistica del tipo scatola
trasparente).
La non completa osservabilità del sistema corrisponde nel primo caso ad una effettiva ridondanza
nello stato che dovrà essere eliminata. Nel secondo caso, pur non corrispondendo necessariamente
ad una ridondanza di tipo modellistico, mette in luce una ridondanza fisica dal punto di vista del
legame tra ingresso e uscita che induce un potenziale impedimento a poter discernere tra diverse
evoluzioni dello stato muovendo dall’osservazione delle uscite. Come verrà brevemente accennato
nel seguito è quest’ultimo un problema molto importante nella teoria del controllo: la possibilità di
ricostruire l’evoluzione dello stato (interna) a partire dall’uscita. Come vedremo l’osservabilità del
sistema consente di ricostruire con precisione assegnabile le evoluzioni dello stato.
6.3. Raggiungibilità 135

6.3. Raggiungibilità

Si tratta della proprietà duale, caratteristica del comportamento ingresso-stato. è relativa alla
possibilità di raggiungere uno stato, ad un certo istante, a partire da uno stato assegnato.
Definizione 6.2 xR è detto raggiungibile a T da x0 se ∃t0 < T , u su [t0 , T ):

xR = ϕ(T, t0 , x0 , u)

Nel caso di una rappresentazione lineare stazionaria è usuale riferirsi allo stato x(t0 ) = 0. Lo
stato zero è, infatti, sempre mantenuto in assenza di ingresso (stato di equilibrio).
Se notiamo con R(T ) l’insieme dei raggiungibili a T si ha
( Z )
T
R(T ) = x:x= eA(T −τ ) Bu(τ )dτ, per qualche t0 , u[t0 ,T )
t0

che può anche essere descritto come


( Z )
T
A(T −τ )
R(T ) = x:x= e Bu(τ )dτ, u(−∞,T )
−∞

Dalle precedenti espressioni risulta chiaro che combinazioni lineari di stati raggiungibili sono raggiun-
gibili, e quindi che R(T ) è un sottospazio di Rn .
Per arrivare ad una descrizione dell’insieme degli stati raggiungibili che ne consenta il calcolo è nec-
essario fare riferimento ad un noto risultato della teoria degli operatori lineari.

Lemma 1. Se L è un operatore lineare allora

R(L) = Ker(L∗ )⊥

cioè la sua immagine coincide con il complemento ortogonale del kernel dell’operatore aggiunto L∗ .

E’ necessario ricordare preliminarmente la definizione di operatore aggiunto. Assegnato L : A →


B lineare, L∗ : B → A è quell’operatore che soddisfa

< L(a), b >B =< a, L∗ (b) >A

dove < ·, · > indica l’operazione di prodotto interno. Ciò premesso quanto asserito nel lemma, essendo
R(L) e Ker(L∗ )⊥ sottospazi, è equivalente a

R(L)⊥ = Ker(L∗ )

che è vera in quanto comunque preso b in R(L)⊥ e per ogni a in A

< b, L(a) >B = 0 ⇒< L∗ (b), a >A = 0


136 6. Le proprietà geometriche dello spazio di stato

cioé b è in Ker(L∗ ). Analogamente si procede per il viceversa.


Se ora si osserva che la funzione

B ∗ eA (T −τ )
x : Rn → Cω (−∞, T )

è l’operatore aggiunto di
Z T
eA(T −τ ) Bu(τ )dτ,
−∞
è immediato verificare che

Teorema 5. ÃZ !
T ³ ∗
´⊥
A(T −τ )
R(T ) = R e B(·)dτ = Ker B ∗ eA (T −τ ) (·) =
−∞
 ⊥
B∗
 B ∗ A∗ 
= Ker 
 ..  = R(B
 AB · · · An−1 B )
.
B ∗ A∗
n−1

Le precedenti considerazioni conducono ad una semplice e completa caratterizzazione dell’insieme


degli stati raggiungibili. Esso coincide con il sottospazio generato dalle colonne linearmente indipen-
denti della matrice, (n × np), ( B AB · · · An−1 B ) detta matrice di raggiungibilità.
Se tale matrice ha rango n, tutti gli stati sono raggiungibili ed il sistema stesso è detto com-
pletamente raggiungibile. Il risultato messo in evidenza fornisce un test semplice e molto efficace.
Assegnato un sistema è infatti possibile con un semplice criterio indagare le “potenzialità” di inter-
vento attraverso i canali di ingresso. L’insieme degli stati raggiungibili è un sottospazio dello spazio
di stato; esso coincide con il sottospazio generato dalle colonne linearmente indipendenti della matrice
di raggiungibilità.
E’ importante sottolineare come l’insieme dei raggiungibili a T non dipenda dal tempo. Ciò significa
che si può arrivare ad uno stato raggiungibile in un tempo arbitrario; ovviamente con ingressi più
ampi al diminuire di T .
è possibile esprimere analiticamente l’ingresso che consente di raggiungere lo stato xR al tempo
T . Non è difficile verificare mediante sostituzione diretta che tale ingresso assume l’espressione

u(t) = B ∗ e−A t C −1 e−AT xR

ove si è indicato con C la matrice


Z T

C= e−At BB ∗ e−A t dt
0

che risulta non singolare sotto l’ipotesi di completa raggiungibilità.


Al fine di mettere in luce l’esistenza di una scelta delle coordinate rispetto alle quali la struttura delle
matrici manifesti la scomposizione del sistema in una parte raggiungibile ed una non raggiungibile, è
utile fare riferimento ad una formulazione geometrica dell’insieme degli stati raggiungibili.
6.3. Raggiungibilità 137

Proposizione 4. R è il più piccolo sottospazio invariante rispetto ad A (AR ⊂ R) e contenente


R(B).

6.3.a. Scomposizione rispetto alla raggiungibilità

Alla luce di questa caratterizzazione e nell’ipotesi che

(B AB · · · An−1 B ) = m < n,

mostreremo ora che rispetto a coordinate in cui i primi m vettori della base generano l’insieme degli
stati raggiungibili, la rappresentazione assume una scomposizione che mette bene in evidenza la
struttura interna.

Teorema 6. Se una rappresentazione non è tutta raggiungibile esiste una matrice T , non singolare
tale che
µ ¶ µ ¶
−1 A11 A12 B1
T AT = , TB = , CT −1 = ( C1 C2 )
0 A22 0

ove A11 è (m × m) ed i blocchi hanno dimensioni consistenti. Inoltre (A11 , B1 , C1 ) rappresenta il


sottosistema raggiungibile
ρ ( B1 A11 B1 · · · Am−1
11 B1 ) = m

La dimostrazione di questo risultato ricalca le linee di quello corrispondente rispetto all’osservabilità


ed è fondato sulle proprietà geometriche messe in luce nella proposizione precedente. Se T è una
trasformazione di coordinate che fissa una base dei raggiungibili come primi m vettori delle nuove
coordinate, la rappresentazione del generico stato raggiungibile avrà solo le prime m componenti
non nulle, poiché T B è contenuto nell’insieme dei raggiungibili le sue colonne hanno tale struttura;
l’invarianza rispetto alla matrice dinamica impone la sua struttura e poi il calcolo dei raggiungibili
nelle nuove coordinate la completa raggiungibilità del sottosistema S1 . Si noti che posto
µ ¶
z1
z=
z2

il sistema è descritto dalle equazioni seguenti

ż1 = A11 z1 + A12 z2 + B1 u


ż2 = A22 z2
y = C1 z1 + C2 z2
138 6. Le proprietà geometriche dello spazio di stato

z 10

S
u z 1
S 1

+
y
+
z 2
S 2

z
z 20

Figura 6.2

La scomposizione è bene messa in evidenza dalle nuove coordinate. S1 è tutto raggiungibile


mentre S2 non è raggiungibile. Come suggerisce l’intuizione la risposta forzata, z10 = 0 e z20 = 0,
deve dipendere da S1 solamente. Infatti
−1
W (t) = CeAt B = CT −1 eT AT t T B =
µ ¶
A11 A12 µ ¶
t
0 A B1
= ( C1 C2 ) e 22 = C1 eA11 t B1 .
0

6.3.b. La controllabilità

Una proprietà analoga alla raggiungibilità è la controllabilità degli stati. Uno stato, xC , è controllabile
a T se esiste un ingresso che lo porta a zero al tempo T . Per le rappresentazioni lineari e stazionarie
si può mostrare che sono controllabili tutti e soli gli stati raggiungibili.
Se infatti uno stato, xT , è raggiungibile a T , essendo l’insieme degli stati raggiungibili un sot-
tospazio dello spazio di stato invariante rispetto ad A, anche lo stato −eAT xT è raggiungibile; quindi
esiste un ingresso,uT (·) tale che
Z T
eAT
xT + eA(T −τ ) BuT (τ )d(τ ) = 0
0

il che prova la controllabilità a T di xT .

6.3.c. Modi eccitabili e scomposizione

La scomposizione rispetto alla raggiungibilità lascia intuire che ci debba essere un legame molto
forte con l’eccitabilità dei modi naturali. Come già osservato in precedenza, l’esistenza di un legame
6.3. Raggiungibilità 139

in tal senso è suggerita dall’osservazione che le rappresentazione del sistema nelle coordinate z è
equivalente a quella nelle coordinate x; essa ha quindi gli stessi modi naturali diversamente raggruppati
nei sottosistemi S1 ed S2 . Ovviamente quelli in S2 non sono certamente eccitabili, quelli in S1
potrebbero esserlo.
Anche in questo caso, per un esame più preciso della situazione è necessario introdurre alcuni
preliminari. Innanzitutto si osservi che poiché l’insieme degli inossedrvabili è il più piccolo sottospazio
invariante rispetto ad A che è contiene l’immagine di B

Proposizione 5. Esiste un sottospazio U contenente l’immagine di B ed invariante rispetto ad A se


e solo se il sistema non è tutto raggiungibile.

Ciò premesso è possibile mostrare che

Teorema 7. Una condizione equivalente di completa raggiungibilità di S è che

ρ(B (sI − A) ) = n

La precedente condizione è nota come condizione di osservabilità di Popov- Belevitch-Hautus


(PBH).
Per quanto riguarda la dimostrazione della necessità basta osservare che se la condizione non è soddis-
fatta e la matrice di PBH è singolare, ciò che può accadere per s = λi , allora esisterebbe un sottospazio
invariante rispetto alla dinamica contenente l’immagine di B. La sufficienza segue dal fatto che se il
sistema non è tutto raggiungibile, e quindi esiste un sottospazio invariante contenente l’immagine di
B, esiste un autospazio contenente l’immagine di B e la condizione di Popov-Belevitch-Hautus non è
soddisfatta per s coincidente con il corrispondente autovalore.

Teorema 8. Siano i modi naturali tutti distinti (molteplicità algebrica uguale a quella geometrica).
S è raggiungibile se e solo se tutti i modi naturali sono eccitabili.

Per la dimostrazione si pensi A in forma di Jordan e ci si riferisca al test di raggiungibilità appena


introdotto.

Si osservi che il sottosistema raggiungibile è caratterizzato da tutti e soli i modi eccitabili.

Nel caso generale si può affermare che

Proposizione 6. Se S è raggiungibile allora tutti i modi naturali sono eccitabili.

Si pensi sempre al test precedente con A in forma di Jordan.

E’ importante osservare che se ci si riferisce ad una condizione di eccitabilità più forte, quella in-
dicata nel capitolo quarto come condizione geometrica di eccitabilità, non è difficile rendersi conto che
le condizioni enunciate mantengono la loro validità nel caso generale. Precisamente: S è raggiungibile
140 6. Le proprietà geometriche dello spazio di stato

se e solo se tutti i modi naturali soddisfano la condizione geometrica di eccitabilità; il sottosistema


raggiungibile è caratterizzato da tutti e soli i modi che soddisfano alla condizione geometrica di os-
servabilità.

Per concludere lo studio della proprietà di raggiungibilità alcune considerazioni sul significato fisico.
Anche qui faremo riferimento a due diverse situazioni. La non completa raggiungibilità del sistema
corrisponde, dal punto di vista dell’introduzione della rappresentazione con lo stato per descrivere un
assegnato sistema dinamico, ad una ridondanza dello stato per avere, ad esempio, descritto legami
equivalenti con relazioni diverse. Dal punto di vista operativo e della teoria del controllo, ammesso
di non essere incorsi in errori di modellistica del processo o fenomeno dato, la raggiungibilità esprime
le potenzialità di intervento attraverso i canali di ingresso disponibili.

6.4. La struttura interna di un sistema lineare a dimensione finita

Con una trasformazione di coordinate che ordini opportunamente i nuovi vettori di base collegan-
doli ai quattro sottospazi che possono essere definiti a partire da I e R, si mette bene in evidenza la
struttura interna di una rappresentazione lineare stazionaria a dimensione finita. Il risultato dovuto
allo studioso R.E. Kalman si enuncia

Teorema 9. In opportune coordinate una rappresentazione lineare stazionaria a dimensione finita è


descritta da una terna di matrici che manifestano la seguente struttura

   
A11 A12 A13 A14 B1
 0 A22 0 A24  B 
  , ( 0 C2 0 C4 ) ,  2 
0 0 A33 A34 0
0 0 0 A44 0

La dimostrazione è costruttiva e riposa sulla proprietà geometriche messe in evidenza nelle propo-
sizioni precedenti.
Siano χ1 , χ2 , χ3 e χ4 i quattro sottospazi definiti dalle seguenti relazioni

χ1 : χ1 : = R ∩ I
χ2 : χ1 ⊕ χ2 = R
χ3 : χ1 ⊕ χ3 = I
χ4 : χ1 ⊕ χ2 ⊕ χ3 ⊕ χ4 = Rn

sia dimχi = ni , i = 1, . . . , 4. Sia T una trasformazione che assume nell’ordine i nuovi vettori di base
come: n1 generatori di χ1 , n2 generatori di χ2 , n3 generatori di χ3 , n4 generatori di χ4 .
6.4. La struttura interna di un sistema lineare a dimensione finita 141

3
X = IR
X 

X 

X 

Figura 6.3

Usando argomentazioni analoghe a quelle impiegate per trovare la struttura delle scomposizioni
precedenti, argomentazioni fondate sulle proprietà geometriche degli insiemi di stati cosı̀ trovati, non
è difficile verificare la struttura delle matrici nelle nuove coordinate.

Alle strutture delle matrici corrisponde la struttura interna messa in evidenza nella seguente
figura.
142 6. Le proprietà geometriche dello spazio di stato

u z S
1
S
1

z S
2
2

+
z S
3
y
3

z S
4
4

z
Figura 6.4

Le evoluzioni di S1 , S2 , S3 e S4 possono essere facilmente interpretate. Si noti che come suggerisce


l’intuizione il legame forzato dipende solo da S2 . Infatti
−1
W (t) = CeAt B = CT −1 eT AT t
T B = C2 eA22 t B2

La scomposizione individuata chiarisce la struttura interna, inoltre in base allo studio effettuato in
precedenza rimane dimostrato che

Teorema 10. Il sottosistema S2 è caratterizzato da tutte e sole le leggi temporali dei modi simul-
taneamente eccitabili ed osservabili. S2 descrive quindi una rappresentazione di dimensione minima
tra quelle possibili.

6.5. Le particolarità dei sistemi a tempo discreto

La trattazione sinora condotta può essere ripetuta per i sistemi a tempo discreto con la sola
avvertenza di sostituire At al posto di eAt ; i risultati non cambiano.
Le sole differenze riguardano la dipendenza dal tempo della raggiungibilità di uno stato e della
corrispondente osservabilità dello stato iniziale cosı̀ come i legami tra osservabilità e ricostruibilità e
tra controllabilità e raggiungibilità.
Per quanto riguarda la raggiungibilità è molto facile comprendere per la struttura ricorsiva
delle equazioni che l’insieme degli stati raggiungibili in un intervallo di tempo fissato, sia T , è
R ( B · · · AT −1 B ), quindi uno stato raggiungibile può essere “ottenuto” (da x0 = 0 a t0 = 0)
6.6. Sugli zeri della funzione di trasferimento 143

in al più n istanti di tempo. Analoghe considerazioni possono essere fatte in merito allosservabilità di
uno stato iniziale a partire dalle osservazioni dell’uscita.

Per quanto riguarda i legami tra osservabilità e ricostruibilità. Non è difficile verificare che un
sistema può essere ricostruibile senza essere osservabile, ma non viceversa. Come esempio si consideri
la coppia di matrici
µ ¶
1 1
A= , C = (1 1)
1 1
che caratterizzano un sistema certamente non osservabile, ma costruibile. Infatti da y(−1) = x1 (−1)+
x2 (−1) risulta x1 (0) = y(−1) e x2 (0) = y(−1). Le due proprietà sono equivalenti se A è non singolare.
Infine per quanto riguarda i legami tra controllabilità e raggiungibilità valgono considerazioni
analoghe alle precedenti.

La raggiungibilità implica la controllabilità, ma non viceversa. Come esempio si consideri la


coppia di matrici
µ ¶ µ ¶
1 1 1
A= , B=
1 1 1
che caratterizzano un sistema certamente non tutto raggiungibile, ma controllabile. E’ infatti evidente
che l’ingresso u(0) = x1 (0) + x2 (0) porta lo stato a zero in un solo istante di tempo. Anche in questo
caso le due proprietà sono equivalenti se A è non singolare.

6.6. Sugli zeri della funzione di trasferimento

Come già messo in luce nel capitolo quinto gli zeri di trasmissione di un sistema dinamico sono
quei valori complessi, s∗, in corrispondenza dei quali si non ha rango massimo la cosiddetta matrice
di sistema à !
s ∗ I − A −B
ρ 6= n + (p, q)∗
C 0

dove con (p, q)∗ si è indicato il più piccolo tra p e q ed n indica la dimensione della matrice A.
Se si assume che s∗ non coincida con alcun autovalore di A, l’annullarsi del determinante della
matrice di sistema comporta l’esistenza di una coppia (x 6= 0, u 6= 0) tale che

(s ∗ I − A)x − Bu = 0 Cx = 0

cioè
C(s ∗ I − A)−1 Bu = 0

Quindi s∗ annulla tutti i determinanti dei minori di W (s) di dimensione (p, q)∗ ed è quindi uno zero
secondo la definizione data nel capitolo quinto.
Se s∗ coincide con un autovalore di A allora, necessariamente il sistema non è raggiungibile e/o
osservabile. Non è, infatti, difficile verificare impiegando i criteri PBH che il sistema è raggiungibile
144 6. Le proprietà geometriche dello spazio di stato

e osservabile se e solo se la matrice di sistema in s = λ ha rango pieno. Se quindi s∗ è autovalore


ed annulla la matrice di sistema, il sistema non è tutto raggiungibile e/o osservabile ed s∗ è zero
coincidente con un polo (si ricordi che la perdita di raggiungibilità e/o osservabilità si traduce in una
riduzione della dimensione del polinomio a denominatore della W (s) rispetto alla dimensione do A,
ciò che può avvenire solo a seguito di un fenomeno di ”cancellazione” con uno zero di W (s)).
7. Modelli ingresso uscita lineari e rappresentazioni
con lo stato

Lo studio sinora condotto ha avuto per oggetto lo studio delle rappresentazione con lo stato lin-
eari a dimensione finita. In questo capitolo viene affrontato il problema della costruzione di una
rappresentazione con lo stato a partire da un modello ingresso uscita lineare. Dopo una premessa
che si riferisce ai sistemi non stazionari il problema viene studiato in dettaglio per i sistemi lineari
stazionari.

Studieremo in questo capitolo il problema del passaggio da un modello ingresso uscita ad una
rappresentazione con lo stato. Riprendendo il formalismo del primo capitolo il problema da un punto
di vista generale consiste nell’ associazione di una rappresentazione implicita con lo stato ad un sistema
definito mediante un legame funzionale ingresso uscita. Il contesto in cui ci muoveremo è quello dei
sistemi e delle rappresentazioni lineari e faremo riferimento a due sottoproblemi che rappresentano
due livelli di generalità: il problema dell’associazione di una rappresentazione ad un sistema connesso
ed il problema della realizzazione.

Per formulare il problema dell’ associazione di una rappresentazione con lo stato ad un sistema
lineare connesso è necessario premettere che, nel contesto del formalismo del primo capitolo, un
sistema connesso è un sistema uniforme in cui la relazione Su n coincide con il grafo di una funzione
definita su tutto l’asse dei tempi. In concreto, e con riferimento al problema allo studio, supponiamo
che sia assegnato il seguente funzionale lineare definito su tutto l’asse dei tempi
Z t
K(t, τ )u(τ )dτ
−∞

con K(t, τ ) una matrice di funzioni. Un funzionale di questo tipo descrive un sistema connesso
lineare; infatti al generico istante t0 rimane definito un insieme di relazioni ingresso uscita: si tratta
dell’ insieme delle funzioni di ingresso da t0 in poi e delle corrispondenti uscite ciascuna collegata ai
possibili andamenti da meno infinito a t0 .
Il problema dell’associazione dello stato a tale sistema consiste nell’individuare una rappresen-
tazione con lo stato che sia caratterizzata da una discrizione ingresso-uscita equivalente. Deve, cioè
146 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

essere verificato che: per ogni fissato t0 ed u da meno infinito a t0 esista un x0 , viceversa per ogni
fissato t0 e x0 esista un u da meno infinito a t0 , in corrispondenza del quale le uscite del sistema e
della rappresentazione corrispondenti ad ogni fissato ingresso coincidano da t0 in poi.
Lo studio di questo problema sarà condotto con riferimento al caso stazionario nel prossimo
paragrafo.

In questo contesto un problema particolare è quello cosiddetto della realizzazione e consiste nel
calcolare una rappresentazione con lo stato che riproduca a t0 come risposte forzate le coppie ingresso
uscita generate dal funzionale lineare
Z t
K(t, τ )u(τ )dτ
t0

Si tratta, in questo caso, di calcolare una rappresentazione la cui risposta impulsiva coincida
con il nucleo dato. Non è difficile verificare in base alle proprietà di φ ed H che l’esistenza di una
fattorizzazione di K
K(t, τ ) = Q(t, t)P (t, τ )∀t ≥ τ

ove Q e P sono matrici di dimensioni (q × s) e (s × p), per un opportuno s, è condizione necessaria


e sufficiente perchè il problema ammetta soluzione. Per quanto riguarda la necessità, basta osservare
che
W (t, τ ) = C(t)φ(t, t)φ(t, τ )B(τ )

Inoltre, fissato t, la rappresentazione con lo stato

ẋ(t) = P (t, t)u(t)


y(t) = Q(t, t)x(t), x(t0 ) = 0

descrive il legame ingresso – uscita


Z t
y(t) = K(t, τ )u(τ )dτ.
t0

7.1. La rappresentazione con lo stato di un sistema lineare stazionario connesso.

Si consideri un sistema lineare stazionario connesso caratterizzato dal nucleo K(t) e descritto, su
tutto l’insieme dei tempi, dal funzionale lineare
Z t
K(t − τ )u(τ )dτ
−∞

nel caso a tempo continuo e da


X
t−1
K(t − τ )u(τ )
−∞
7.1. La rappresentazione con lo stato di un sistema lineare stazionario connesso. 147

nel caso a tempo discreto.


E’ forse utile sottolineare che il funzionale dato descrive un sistema dinamico lineare stazionario
secondo la definizione data nel primo capitolo; infatti ad ogni istante di tempo t0 , il funzionale dato
definisce una relazione: si tratta di tutte le coppie u0 (·), y0 (·) che si ottengono variando per ogni u da
t0 in poi (u0 ), u da meno infinito a t0 . Per la stazionarietà del nucleo K, inoltre, le relazioni ottenute
al variare di t0 soddisfano la proprietà di stazionarietà.

Il problema dell’associazione di una rappresentazione con lo stato a tale sistema consiste nel
calcolare una rappresentazione lineare stazionaria, equivalentemente una quadrupla (n, A, B, C), ove
n intero positivo definisce la dimensione della rappresentazione, in modo che: per ogni fissato t0 ed
u da meno infinito a t0 esista un x0 , viceversa per ogni fissato t0 e x0 esista un u da meno infinito
a t0 , le uscite y0 (·) del sistema e della rappresentazione corrispondenti ad ogni fissato ingresso u0 (·)
coincidano da t0 in poi. Si osservi che si è assunto, nella formulazione del problema, che il legame
ingresso - uscita sia di tipo strettamente causale. Ciò, a priori, esclude la presenza di un legame
diretto.
Vale il seguente risultato:

Teorema 1. (n, A, B, C) è la rappresentazione con lo stato del sistema connesso associato al nucleo
K(t) se e solo se
K(t) = CeAt B ∀t ≥ 0

R + I = Rn

per i sistemi tempo continuo, e


K(t) = CAt−1 B ∀t > 0

R + I = Rn

per i sistemi a tempo discreto.

Nell’enunciato del precedente teorema R e I indicano, rispettivamente i sottospazi degli stati


raggiungibili e degli stati inosservabili, della rappresentazione con lo stato.
La dimostrazione viene qui condotta per i sistemi a tempo continuo, ma può essere ripetuta
identica nel caso a tempo discreto. Si tratta di mostrare che le coppie ingresso-uscita generate ad
ogni istante t0 mediante il funzionale e la rappresentazione coincidono. Deve cioè risultare che in
corrispondenza ad ogni fissato t0 : ∀u(−∞ , t0 ) esiste un x0 e, viceversa, ∀x0 esiste un u(−∞ , t0 ) tali che
per ogni ∀u[t0 ,∞)

Z t0 Z t Z t
K(t − τ )u(τ )dτ + K(t − τ )u(τ )dτ = CeA(t−t0 ) x0 + CeA(t−τ ) u(τ )dτ ∀t
−∞ t0 t0

Poiché l’uguaglianza scritta deve essere verificata per ogni u(−∞ , t0 ) e per ogni x0 assumendoli
nulli si ottiene l’uguaglianza tra i secondi addendi che è verificata per ogni u da t0 in poi se e solo se
vale la prima delle condizioni enunciate.
148 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

In base a quanto mostrato e ricordando la proprietà di semigruppo l’uguaglianza tra le coppie


ingresso uscita si riduce a ∀u(−∞ , t0 ) esiste un x0 e, viceversa, ∀x0 esiste un u(−∞,t0 ) per cui
Z t0
CeA(t−t0 ) eA(t0 −τ ) Bu(τ )dτ = CeA(t−t0 ) x0
−∞

e quest’ultima uguaglianza è verificata se e solo se il generico stato x0 può essere espresso come somma
di uno stato raggiungibile ed uno inosservabile. Ciò conclude la dimostrazione del teorema.

Se si ricorda quanto detto nel primo capitolo a proposito della minimalità di una rappresentazione
(assenza di stati indistinguibili o equivalenti) e si ricorda quanto osservato nel capitolo precedente circa
l’esistenza di stati equivalenti e inosservabili, si comprende che una rappresentazione con lo stato di
un sistema connesso stazionario si dice ridotta se è tutta osservabile, cioé I = 0.

E’ importante osservare che alla luce di quanto studiato nel precedente capitolo a proposito delle
scomposizioni rispetto alle proprietà degli stati, una volta calcolata una rappresentazione con lo stato
la cui risposta impulsiva coincida con il nucleo assegnato (la prima delle proprietà del precedente
teorema), è sempre possibile costruirne un’altra che soddisfi anche la seconda. E’ sufficiente oper-
are una scomposizione rispetto alla raggiungibilità, estrarre il sottosistema tutto raggiungibile che,
coincidendo l’insieme degli stati raggiungibili con lo spazio di stato, soddisfa anche la seconda delle
condizioni del teorema e definisce la rappresentazione cercata.
Quanto osservato costituisce la prova del seguente risultato di esistenza

Teorema 2. Una rappresentazione con lo stato di un sistema connesso associato al nucleo K(t) esiste
se e solo se

K(t) = CeAt B + Dδ(t) ∀t ≥ 0 (RC1)

per i sistemi tempo continuo, e


K(t) = CAt−1 B ∀t > 0 (RD1)

per i sistemi tempo discreto.

Come vedremo nel prossimo paragrafo tale condizione è anche condizione necessaria e sufficiente
per l’esistenza di una realizzazione dell’assegnato nucleo. Possiamo quindi affermare che esiste una
rappresentazione con lo stato di un assegnato nucleo se e solo se esiste una realizzazione; inoltre una
rappresentazione può essere calcolata mediante la tecnica di riduzione rispetto alla raggiungibilità.

Un ulteriore collegamento con lo studio condotto nel capitolo precedente è qui stabilito. Quanto
sinora osservato consente infatti di asserire che una assegnata rappresentazione con lo stato descrive
un sistema connesso se e solo se nella scomposizione di Kalman χ4 = {0}.
7.2. Il problema della realizzazione 149

7.2. Il problema della realizzazione

Tale problema consiste nel calcolare una rappresentazione con lo stato il cui comportamento
forzato coincida con quello associato ad un assegnato nucleo, ad una assegnata matrice di funzioni
di variabile complessa, al comportamento corrispondente a condizioni iniziali nulle di un assegnato
sistema di equazioni differenziali (alle differenze) tra ingressi e uscite.
Esamineremo ciascuno dei casi citati.
Interessa in questa sede risolvere i problemi dell’esistenza di una tale realizzazione e del calcolo.
Ricordiamo che l’interesse nel passaggio da un modello del comportamento forzato in forma esplicita
ad un modello in forma implicita nel dominio del tempo è collegato alla corrispondenza tra modello
e schema di simulazione o realizzazione. Da qui il nome al problema allo studio. La definizione di
un modello implicito, infatti, consente la realizzazione di un simulatore (eventualmente numerico) del
sistema dato.

7.2.a. Dal nucleo di un integrale di convoluzione ad una rappresentazione con lo

stato
Analogamente a quanto fatto nel contesto non stazionario esamineremo il problema di associare
al legame ingresso uscita al tempo t0
Z t
y(t) = K(t − τ )u(τ )dτ
t0

una rappresentazione con lo stato caratterizzata dallo stesso legame forzato al tempo t0 .
Assumeremo, senza perdita di generalità, che K(t) sia una matrice (q × p) di funzioni, il che
corrisponde ad assumere che D = 0. Se si ricorda che quando D = 0 si usa dire che il sistema
dinamico è strettamente causale in quanto y(t) dipende da u tra t0 e t, ma non da u(t), si comprende
perchè il problema allo studio sia detto della realizzazione strettamente causale. Esso consiste nella
individuazione delle condizioni di esistenza, e poi nel calcolo, di un intero n e tre matrici (A, B, C)
tali che
K(t) = CeAt B ∀t ≥ 0 (RC1)
per i sistemi tempo continuo, e
K(t) = CAt−1 B ∀t > 0 (RD1)
per i sistemi tempo discreto.
Condizioni equivalenti possono essere stabilite e sono di interesse e utilità nelle applicazioni. Si
ha
K(t − τ ) = Q(t)P (τ ) ∀t ≥ τ (RC2)
per opportuni s, Q(t) (q × s) e P (τ ) (s × p) ed analogamente

K(t − τ ) = Q(t)P (τ ) ∀t ≥ 0 > τ. (RD2)

Ed ancora
ρ(Hi ) < ∞ i = c, d (RC3) ÷ (RD3)
150 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

ove Hi indica la matrice di Hankel associata alla matrice di funzioni K(t) nel caso tempo continuo,
Hc , e tempo discreto, Hd . Tali matrici infinite sono definite
 
S0 S1 S2 S3 . . .
 S1 S2 S3 . . . . . . 
H := 
 S2 S3 ... ... ...

.. ..
. . ... ... ...

ove
di K(t) ¯¯
Si = ¯
dti t=0
per i sistemi tempo continuo,
Si = K(i + 1)

per i sistemi tempo discreto.

La dimostrazione dell’equivalenza delle condizioni enunciate può essere svolta senza difficoltà
mostrando che R1 → R2 → R3 → R1. A tale proposito e con riferimento, a titolo esemplificativo, al
caso tempo discreto si ha
RD1 → RD2:
K(t − τ ) = CAt−τ −1 B = CAt A−τ −1 B = Q(t)P (τ ) t ≥ 0 > τ

RD2 → RD3 : infatti per RD2

K(1) = Q(0)P (−1)


K(2) = Q(0)P (−2) = Q(1)P (−1)
K(3) = Q(0)P (−3) = Q(1)P (−2) = Q(2)P (−1)

e quindi
 Q(0)P (−1) Q(0)P (−2) Q(0)P (−3) . . . 
 Q(1)P (−1) Q(1)P (−2) ... ...
H=
 Q(2)P (−1) Q(2)P (−2) ... ...

.. ..
. . ... ...
 Q(0) 
 Q(1) 
= 
 Q(2)  · ( P (−1) P (−2) P (−3) . . . )
..
.
il che prova l’implicazione.
RD3 → RD1: infatti RD3 implica che ρ(HD ) è finito, sia ρH , e quindi ∃m, m0 :
 K(1) K(2) ... K(m0 ) 
 K(2) K(3) ... K(m0 + 1) 
Hm,m0 := 
 .. .. .. 

. .
... .
K(m) K(m + 1) . . . K(m + m0 − 1)

ed Hm,m0 ha un minore di ordine ρH non nullo e tutti quelli di ordine ρH + 1 nulli.


7.2. Il problema della realizzazione 151

Sia Q la matrice composta da ρH colonne di Hm,m0 indipendenti; sia P la matrice composta di


ρH righe indipendenti tali che
Q · P = Hm,m0

Ciò posto sia:


B (ρH × p) la matrice formata dalle prime p colonne di P ;
C (q × ρH ) la matrice formata dalle prime q righe di Q; sia inoltre

A = (Q0 Q)−1 Q0 H m,m0 P 0 (P P 0 )−1

ove  
K(2) K(3) ... K(m0 + 1)
 K(3) K(4) ... K(m0 + 2) 
H m,m0 := 
 .. .. .. 

. .
... .
K(m + 1) K(m + 2) . . . K(m + m0 )
e Q0 Q, P P 0 sono invertibili per costruzione.
La prova che RD3 → RD1 si conclude mostrando, con alcuni passaggi tecnici, che la terna
(A, B, C) definita soddisfa RD1. Inoltre non è difficile rendersi conto del fatto che ρH , il rango di Hd ,
caratterizza la dimensione minima di A; cioè quella costruita è una realizzazione minima. A tal fine
basta osservare che la matrice di Hankel associata ad una realizzazione con dimensione dello stato n
ha rango inferiore o eguale a n; infatti per una assegnata rappresentazione, sia a tempo continuo che
discreto, si ha
   
CB CAB CA2 B ... C
 CAB CA2 B CA3 B . . .   CA 
Hi = 
 CA2 B CA3 B ...
  
. . .  =  CA2  · ( B AB A2 B ...)
.. .. .. ..
. . ... . .

e quindi ρHi ≤ dim(A) = n. Si noti che una realizzazione minima è la generica realizzazione del
sottosistema raggiungibile e osservabile associata ad una data realizzazione.

7.2.b. Da una matrice di funzioni di variabile complessa ad una rappresentazione

con lo stato

Affronteremo ora lo stesso problema, ma nel dominio della variabile complessa. E’ questo il contesto
in cui usualmente il problema viene affrontato e risolto in quanto un modello forzato ingresso uscita
è generalmente assegnato per il tramite di una funzione di variabile complessa eventualmente rilevata
mediante esperimenti di comportamento in frequenza (si ricordi quanto studiato a tale proposito).
Nel dominio complesso, inoltre, il problema è facilmente risolvibile.
Assegnato K(s) (q × p) trovare (n, A, B, C, D) tali che

C(sI − A)−1 B + D = K(s)

La quaterna (A, B, C, D) è detta realizzazione di K(s).


152 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

Un’osservazione preliminare che viene qui svolta, ma che riguarda il problema della realizzazione in
generale e non lo studio nel dominio complesso, riguarda l’unicità della soluzione e le dimensioni delle
realizzazioni. Il problema posto ammette molte soluzioni, anche di dimensioni diverse.
E’ chiaro, infatti, che le rappresentazioni equivalenti, pur diverse tra loro, (A, B, C) 6= (T AT −1 , T B, CT −1 )
hanno le stesse risposta impulsiva e funzione di trasferimento
−1
CT −1 eT AT t
T B = CeAt B ⇒ CT −1 (sI − T AT −1 )−1 T B = C(sI − A)−1 B

Per quanto rigyarda le dimensioni di possibili realizzazioni di un assegnato nucleo si pensi al


risultato dello studio dei modi naturali nel comportamento forzato; solo una parte dei modi naturali
caratterizzano il comportamento forzato. Ciò che equivale a concludere che in generale i poli della
funzione di trasferimento sono solo una parte degli autovalori. Dunque possono esistere diverse rap-
presentazioni con lo stato, di dimensioni diverse, che hanno stesse risposta impulsiva e funzione di
trasferimento.
Una condizione certamente necessaria per la realizzabilità è che K(s) sia una matrice di funzioni
razionali proprie.Infatti ha questa caratteristica l’espressione della matrice delle funzioni di trasferi-
mento di un sistema dinamico lineare. Ciò significa che se il legame funzionale tra ingresso - uscita è
caratterizzato da un nucleo K(t) la cui trasformata di Laplace, K(s), non è una matrice di funzioni
razionali proprie, questo legame ingresso - uscita non può essere realizzato mediante un sistema lin-
eare, stazionario a dimensione finita.

Sorge spontanea la domanda: ma questa condizione è anche sufficiente?


La condizione è anche sufficiente come viene mostrato nel seguito.

La prova è costruttiva, cioè si mostrerà come a partire da una matrice di funzioni razionali proprie,
si possa costruire, per ispezione sui coefficienti delle matrici che la descrivono, una sua realizzazione.
Si assuma, senza perdita di generalità che K(s) sia una matrice di funzioni razionali strettamente
proprie, sono tali le funzioni razionali quando il grado del numeratore è più basso del grado del
denominatore. Si è detto senza perdita di generalità perché si può sempre passare da una forma
propria ad una strettamente propria, infatti, una matrice razionale propria si può sempre scrivere
come
K(s) = K0 + K(s)
con K0 matrice costante e K(s) matrice razionale strettamente propria. Posto D = K0 , il problema
della realizzazione si riduce al calcolo di n, A, B, C per una matrice razionale strettamente propria del
tipo
B0 + B1 s + . . . + Bn−1 sn−1
K(s) =
a0 + a1 s + . . . + an−1 sn−1 + sn
ove le Bi sono matrici (q × p) di costanti.
Un esempio di tale espressione è il seguente

µ ¶ ÃD! Ã K(s) !
1 1
s+1 0 s+1
K(s) = s+1 = + 1
s 1 s
7.2. Il problema della realizzazione 153

Due realizzazioni in forma canonica

Due diverse realizzazioni possono essere ottenute direttamente per ispezione dei coefficienti della K(s)
nella forma data.
Una prima realizzazione cosiddetta in forma canonica raggiungibile, di dimensione np, ove p indica
la seconda dimensione di K e n il grado del minimo comune multiplo dei polinomi a denominatore.
   
0 I 0 ··· 0 0
 .. .. .. .. 
 . . I . .   .. 
  .
.. .. ..  
AR = 
 . . . 0 
 BR =  ... 
   
 0 ··· ··· 0 I  0
−a0 I ··· −an−1 I I

CR = ( B0 ... ... Bn−1 )

ove le matrici identità, I, sono matrici che hanno dimensione (p × p). e, di conseguenza, le matrici
AR , BR e CR hanno dimensione (np × np), (np × p) e (q × np),rispettivamente.

Esempio: ¶ µ ¶ µ ¶ µ
s 0 1
µ 1 ¶ + s
s + 1 1 1
K(s) = s+1
1 = =
s s2 + s s2 + s
µ ¶ µ ¶ µ ¶
0 1 0 0 1
AR = BR = CR =
0 −1 1 1 1
infatti è facile verificare che
CR (sI − AR )−1 BR = K(s)

Altro esempio: µ ¶ µ ¶
1 0 1 0
+ s
−1 1 1 2
K(s) =
1 + 3s + s2
in cui
p=2 n=2

e la realizzazione, di dimensione 4, è
 
0 0 1 0
µ ¶
0 I  0 0 0 1
AR = =


−a0 I −a1 I −1 0 −3 0
0 −1 0 −3
 
0 0 µ ¶
0 0 1 0 1 0
BR =   CR =
1 0 −1 1 1 2
0 1
154 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

La dimostrazione della correttezza della procedura seguita per calcolare la realizzazione consiste nel
verificare che la matrice delle funzioni di trasferimento associata a tale rappresentazione coincide con
la K(s) assegnata.
A questo proposito bisogna calcolare
T
−1 (sI − AR )a
CR (sI − AR ) BR = CR BR
det(sI − AR )
 −1
s −1 0 ··· 0  
  0
 .. ..   .. 
 0 . .  .
 ..  .
= ( B0 ... Bn−1 )  ..   .. 
 . . 0   
  0
 
 0 −1 
a0 ··· · · · an−2 s + an−1 1

ove si è fatto riferimento al caso p = q = 1 per semplicità di notazioni: Si osservi, innanzitutto che il
calcolo del determinante di sI − AR dá

a0 + a1 s + . . . + sn

ciò che è sempre vero per una matrice A che abbia la struttura di AR : gli elementi dell’ultima riga
sono proprio i coefficienti del polinomio caratteristico
Il calcolo della funzione di trasferimento è notevolmente semplificato dalla struttura di BR che ha
tutti zeri ed un 1 nell’ultima posizione. Basterà quindi calcolare solo l’ultima colonna dell’aggiunta -
trasposta; sviluppando i calcoli
   
∗ ∗ 1 0
∗ ∗ s   .. 
 ..  .
(B0 . . . Bn−1 )   .
∗ ∗ .   ..  =
a0 + a1 s + . . . + sn  
..   
∗ ∗ . 0
∗ ∗ s n−1
1
 
0
à !  .. 
B0 + B1 s + . . . + Bn−1 sn−1 .
.
∗ ∗  ..  =
a0 + a1 s + . . . + sn  
0
1
e quindi
B0 + B1 s + . . . + Bn−1 sn−1
K(s) =
a0 + a1 s + . . . + sn
Lo schema di realizzazione/simulazione associato a questa rappresentazione con lo stato comporta
operazioni di integrazione, moltiplicazione per costante e somma come messo in evidenza nella figura
seguente in cui si è assunto per semplicità n = 2.
µ ¶ µ ¶
0 1 0
AR = BR = CR = ( b0 . . . b1 )
−a0 −a1 1
7.2. Il problema della realizzazione 155


 ẋ = x2
 1
ẋ2 = −a0 x1 − a1 x2 + u


y = b0 x1 + b1 x2

b1

u
.
x2 Z x2 = x1 Z
.
x1 + y
+ -
b0
+
-

a1

a2
Figura 7.1

Si noti che la realizzazione individuata secondo questa tecnica ha dimensione (np × np); quindi tutte
le volte che il numero di ingressi è uno, indipendentemente dal numero di uscite, la dimensione di
questa realizzazione è n.

Una seconda realizzazione che considereremo, di dimensione nq, è quella cosiddetta in forma canonica
osservabile, Ao , Bo , Co .
 
0 ··· ··· 0 −a0 I  
 ..  B0
I .   .. 
Ao  ..  Bo  . 
= ..  = . 
(nq × nq)  
0 . .
. .. ..  (nq × p)  .. 
 .. . . 
Bn−1
0 ··· 0 I −an−1 I
Co
= (0 ··· ··· 0 I)
(q × nq)

Co (sI − Ao )−1 Bo = K(s)


 −1
s 0 ··· 0 +a0
 
 .. .. ..  B0
 −1 s . . . 
 ..   .. 
 .. ..   . 
= (0 ··· ··· 0 1)  0 . . 0 .   . 
 . .. .. .. ..   .. 
 .. . . . . 
  Bn−1
0 ··· 0 −1 s + an−1

|sI − Ao | = a0 + a1 s + . . . + sn
156 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

 aT
s 0 ··· 0 +a0
 
 .. .. ..  B0
 −1 s . . . 
(0 ··· 0 1)  ..   .. 
 0 .. ..   . 
 . . 0 .   . 
a0 + · · · + sn  . .. .. .. ..   .. 
 .. . . . . 
  Bn−1
0 ··· 0 −1 s + an−1
in virtù della struttura della matrice Co , l’unica cosa che vogliamo calcolare è l’ultima riga, in quanto
le precedenti vengono moltiplicate per degli zeri.
 
  B0
∗ ∗ ∗  .. 
(0 ··· 0 1) ∗  . 
∗ ∗   . 
a0 + . . . + sn  .. 
1 · · · sn−1
Bn−1

Il prodotto complessivo è proprio la K(s)


Esempio: µ ¶ µ ¶
1 −1 2 0
+ s
K(s) 0 1 1 0
= p=q=2
q×p 3 + 2s + s2
 −3 0  
0 0 1 −1
 0 0 0 −3  0 1
Ao = 


 Bo = 
2

1 0 −2 0 0 
0 1 0 −2 1 0
µ ¶
0 0 1 0
Co =
0 0 0 1
(q × p) q=1
( 1 −1 ) + ( 2 0 ) s
K(s) =
3 + 2s + s2
µ ¶ µ ¶
0 −3 1 −1
Ao = Bo = Co = ( 0 1 )
1 −2 2 0

Lo schema di realizzazione/simulazione associato a questa rappresentazione con lo stato comporta


operazioni di integrazione, moltiplicazione per costante e somma come messo in evidenza nella figura
seguente in cui si assume per semplicità n = 2.
µ ¶ µ ¶
0 −a0 b0
Ao = Bo = Co = ( 0 1 )
1 −a1 b1


 ẋ = −a0 x2 + b0 u
 1
ẋ2 = x1 − a1 x2 + b1 u


y = x2
7.2. Il problema della realizzazione 157

b0 b1

+
. Z . Z
x1 x1 + x2 x2 y
- -

a0 a1

Figura 7.2

7.2.c. Dalle equazioni differenziali (alle differenze) ad una rappresentazione con lo

stato

Un modello matematico in termini di un sistema di equazioni defferenziali tra le variabili di


ingresso e quelle di uscita è spesso il prodotto di un processo di studio su un dato fenomeno o processo.
A partire da questa situazione un problema, analogo al precedente, è quello della associazione di una
rappresentazione con lo stato in forma implicita ad tale modello. Nel contesto lineare stazionario il
problema può essere formulato nei seguenti termini: assegnato un sistema di equazioni differenziali
(alle differenze) lineari a coefficienti costanti che descrive i legami tra le p variabili di ingresso e
le q variabili di uscita, sotto quali condizioni è possibile associare a queste una rappresentazione
differenziale (alle differenze) implicita caratterizzata da una terna di matrici (A, B, C) ?
Posto
P (d)y = Q(d)u

ove P (d) e Q(d) sono matrici, (q×q) e (q×p) rispettivamente, i cui elementi sono polinomi a coefficienti
costanti nella indeterminata formale d, che rappresenta l’operazione di derivazione (anticipo), trovare
un intero n e una terna (A, B, C) di matrici (n × n), (n × p) e (q × n) in modo che al variare di x0 la
rappresentazione individuata descriva tutti i possibili legami u - y.
Il problema formulato è risolvibile se e solo se la matrice P (d) è invertibile e la matrice P (d)−1 Q(d)
è razionale strettamente propria in d. Rinviando a [1] per la dimostrazione si sottolinea solo che, come
suggerisce l’intuizione, la prima condizione esprime l’indipendenza del sistema di equazioni assegnato
mentre la seconda esprime la stretta causalità dei legami tra le variabili di ingresso, u, e di uscita, y.

Una procedura di calcolo della rappresentazione con lo stato a partire dall’equazione alle differenze è
illustrata nel seguito. Tale procedura può essere estesa ai sistemi a tempo continuo ed alla rappresen-
tazioni a più ingressi ed uscite. Assegnata l’equazione alle differenze

y(k + n) + an−1 y(k + n − 1) + · · · + a0 y(k) = bn−1 u(k + n − 1) + · · · + b0 u(k)


158 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

le seguenti n variabili definiscono un insieme di variabili di stato per il sistema in esame


x1 = −a0 y(k − 1) + b0 u(k − 1)
x2 = −a0 y(k − 2) + b0 u(k − 2) − a1 y(k − 1) + b1 u(k − 1)
x3 = −a0 y(k − 3) + b0 u(k − 3) − a1 y(k − 2) + b1 u(k − 2) − a2 y(k − 1) + b2 u(k − 1)
...

x( n−1) = −a0 y(k−n+1)+b0 u(k−n+1)−a1 y(k−n+2)+b1 u(k−n+2) · · ·−an−2 y(k−1)+bn−2 u(k−1)

xn = y(k)
La dimostrazione di quanto asserito consiste nel calcolo delle differenze prime associate a tali variabili;
si ottiene, infatti, come è facile verificare

x1 (k + 1) = −a0 xn (k) + b0 u(k)


x2 (k + 1) = x1 − a1 xn (k) + b1 u(k)
x3 (k + 1) = x2 − a2 xn (k) + b2 u(k)
...
xn−1 (k + 1) = xn−2 − an−2 xn (k) + bn−2 u(k)
xn (k + 1) = xn−1 − an−1 xn (k) + bn−1 u(k)
y(k) = xn (k)
Si tratta di una rappresentazione con lo stato in una forma canonica osservabile.

Una procedura alternativa per il calcolo del modello implicito ingresso-stato-uscita che realizza
l’assegnato legame implicito ingresso-uscita consiste nel calcolo della funzione di variabile complessa
K(s/z) = P (s/z)−1 Q(s/z) e nella sua successiva realizzazione secondo una delle tecniche proposte
nel presente capitolo. Il calcolo della funzione di trasferimento rappresenta di per sé un problema
importante per il significato che essa ha in termini di comportamento in frequenza. La funzione di
trasferimento può anche essere calcolata facendo la trasformata delle relazioni che legano ingressi ed
uscite assumendo le funzioni e le loro derivate (anticipi) nulle in zero. Si consideri a titolo di esempio
il semplice legame

y(t + 2) + a1 y(t + 1) + a0 y(t) = b1 u(t + 1) + b0 u(t)



(z 2 + a1 z + a0 )Y (z) = (b1 z + b0 )u(z)

Y (z) b1 z + b 0
= 2
u(z) z + a1 z + a0
7.4. Realizzazioni minime 159

7.3. Realizzazioni minime

La minimalità di una realizzazione consiste nell’uso di un numero minimo di variabili di stato.


La dimensione non può essere inferiore al numero di leggi ”esponenziali” che caratterizzano gli elementi
della W (t) (zeri del polinomio a denominatore che è il minimo comune multiplo dei polinomi a
denominatore degli elementi di W (s)).

7.4. Realizzazioni minime

Le considerazioni che seguono riguardano la dimensione delle realizzazioni; quelle di dimensione


minima sono ovviamente da preferirsi. Si ricordi, innanzitutto che diverse realizzazioni di una fis-
sata K(s) possono essere calcolate a partire da una qualsiasi (A, B, C) mediante trasformazioni di
coordinate

|T |n×n 6= 0 ⇒ (T AT −1 , T B, CT −1 )

Ma di realizzazioni ne esistono anche di dimensioni diverse, infatti sappiamo che la matrice delle
risposte impulsive contiene informazioni circa le leggi di moto dei modi che sono simultaneamente
eccitabili ed osservabili, quindi la W (s) non mantiene le informazioni su tutti gli autovalori di A. Si
consideri ad esempio,
µ ¶ µ ¶
1 0 1
A= B= C = (1 0)
−1 −2 −1
la funzione di trasferimento è:
1
W (s) =
s−1
e, la costruzione di una sua realizzazione secondo una delle due tecniche già viste dá

Ā = 1 B̄ = 1 C̄ = 1

si ha, quindi, una diversa realizzazione Ā, B̄, C̄ di dimensione 1 che non è equivalente a quella prece-
dente di dimensione 2.
Poiché le dimensioni possono essere diverse si pone naturalmente l’esigenza di disporre di tecniche che
forniscono realizzazioni con la dimensione dello stato più piccola possibile. Alla riduzione della di-
mensione corrisponde, infatti una minore complessità in termini di procedure di calcolo, un’economia
di dispositivi in termini di realizzazione fisica. É, quindi importante andare a costruire realizzazioni
minime cioè che abbiano dimensione dello stato N la più piccola possibile.

Una prima osservazione riguarda le tecniche proposte che, come già sottolineato forniscono re-
alizzazioni di dimensione n in condizioni particolari. In questo caso tali realizzazioni sono anche
minime.
Se infatti con n indichiamo il grado del polinomio a denominatore nella K(s), è semplice comprendere
che realizzazioni di dimensione N inferiore ad n non esistono. Basta ricordare che il polinomio a
160 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

denominatore di una funzione di trasferimento ha dimensione minore o uguale a quella della matrice;
ciò comporta che una matrice dinamica A di dimensione inferiore ad n non esiste; poiché quella
calcolata ha questa dimensione, essa è minima.

q = 1 ⇒ (Ao , Bo , Co ) minima
p = 1 ⇒ (AR , BR , CR ) minima
Quindi già disponiamo di una tecnica di realizzazione minima per nuclei, K, che sono vettori riga o
colonna. Nel caso generale questo non è vero. Ad esempio il sistema a due ingressi e due uscite:
µ 2 ¶ µ ¶ µ ¶ µ ¶
s + 2s 0 0 0 2 0 1 0
µ 1 ¶ + s+ s2
s+1 0 2s + 2 s2 + 1 2 1 2 0 0 1
K(s) = 2 1 = =
s(s+2) s+2 s3 + 3s2 + 2s 2s + 3s2 + s3
(
p=q=2
→N =6
n=3
ammette, secondo le tecniche proposte, realizzazioni di dimensione 6.
É possibile mettere a punto delle tecniche di realizzazione che consentano nel caso generale di
individuare delle realizzazioni in forma minima? Ciò è possibile.
Preliminarmente e con riferimento all’esempio, si metterà in luce come sia possibile, già con le infor-
mazioni che abbiamo, individuare una realizzazione di dimensione inferiore a 6.
Da un primo punto di vista la matrice data definisce due legami ingresso - uscita mediante vettori
riga a due elementi, Ki , tra ciascun uscita e i due ingressi
 
1 0 µ ¶
 s+1  K1 (s)
K(s) =  2 1 =
K2 (s)
s(s + 2) s+2
Si hanno quindi due legami
(1 0)
K1 (s) =
s+1
realizzabile mediante le matrici

A1o = (−1) Bo1 = ( 1 0 ) Co1 = 1

(2 0)(0 1)s
K2 (s) =
s2 + 2s
realizzabile mediante le matrici
µ ¶ µ ¶
2 0 0 2 0
Ao = Bo2 = Co2 = ( 0 1 )
1 −2 0 1

A partire dalle realizzazioni di K1 e K2 , realizzazioni delle righe, possiamo calcolare una realizzazione
di dimensione 3 del nucleo dato mediante le seguenti matrici
µ 1 ¶ µ 1¶ µ 1 ¶
Ao 0 Bo Co 0
A= B= C=
0 A2o Bo2 0 Co2
7.4. Realizzazioni minime 161

ove si è tenuto conto del fatto che il sistema risulta dalla connessione di due sottosistemi che hanno gli
stessi ingressi e ciascuno definisce un’uscita. Una tecnica alternativa consiste nel realizzare ciascuna
colonna. In questo caso
 1   .. 
0 .
 s+1   .. 
K(s) =   =  K 1 (s) . K 2 (s) 

2 1
s(s + 2) s + 2 .
..

A ciascuna di queste colonne posso associare una realizzazione di dimensione 3 per K1


µ ¶
s(s + 2)
2(s + 1)
K1 (s) = → n1 = 3
s(s + 1)(s + 2)
e 1 per K2 µ ¶
0
1
K2 (s) = ⇒ n2 = 1
s+2
la realizzazione complessiva avrà dimensione N = n1 + n2 = 4 ed è del tipo
µ 1 ¶ µ 1 ¶
Ao 0 Bo 0
A= B= C = ( Co1 Co2 )
0 A2o 0 Bo2

ove si è tenuto conto del fatto che il sistema risulta dalla connessione di due sottosistemi che hanno
le stesse uscite e ciascuno un solo ingresso.
Con riferimento all’esempio a più ingressi e uscite in esame la tecnica di realizzazione per righe
risulta essere più conveniente di quella per colonne.
In conclusione con le informazioni a noi note siamo in grado di costruire delle realizzazioni di dimen-
sione inferiore a quella che risulterebbe essere la dimensione della realizzazione costruita direttamente
sulla K(s).

7.4.a. Un metodo per il calcolo di realizzazioni minime

La seguente tecnica di realizzazione nota come metodo di Gilbert, dal nome dello studioso che l’ha
proposta, consente di costruire nel caso di sistemi a più ingressi ed uscite una terna minima. Tale
tecnica è particolarmente semplice nel caso qui esposto in cui la molteplicità degli zeri del minimo
comune multiplo dei polinomi a denominatore nella matrice di funzioni di trasferimento è pari ad uno.
Pm
Il metodo di Gilbert consente, in tal caso, di costruire una realizzazione di dimensione ( i=1 ri )
se m è il numero dei poli ed ri il rango del i − mo residuo nella espansione in frazioni parziali. La
minimalità di tale realizzazione può essere facilmente compresa se si ricorda che il rango del residuo
che corrisponde ad un autovalore di ordine uno coincide con la dimensione del relativo autospazio e
questo a sua volta coincide con la molteplicità algebrica.

X
m
Ri
W (s) =
1
s − λi
162 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

λi molteplicità (geometrica) unitaria.


ρ(Ri ) = ri
   
Λ1 λi 0
Λi
A= ..
.  =  ..
. 
ri × r i
Λm 0 λi
Fattorizzazione minima di Ri
Ci Bi
Ri = i = 1, . . . , m
(q × ri ) × (ri × p)
 
B1
B= |  C = (C1 . . . Cm )
Bm

In presenza di coppie di autovalori complessi la precedente realizzazione è a coefficienti complessi.


Quella reale può essere calcolata con le seguenti espressioni

X
m
Ri X 2Rka (s − αk ) − 2Rkb ωk
µ
W (s) = +
s − λi (s − αk )2 + ωk2
 
λi 0
Λi =  \ 
0 λi
µ ¶ 
αk ωk
0
 −ωk αk 
 
C
Λk =  . .. 
µ ¶ 
 αk ωk 
0
−ωk αk

ρ(Λi ) = ri = ρ(Ri )
µ ¶
C
ρ(Λk ) = 2rk = 2 max{ρ(Rka ), ρ(Rkb )}
 
Λ1 0
 .. 
 . 
 
 Λm 
A= 
 ΛC1 
 
 ..
. 
0 ΛC
µ
 
B1
 .. 
 . 
 
B 
B= m 
 B1C 
 . 
 . 
.
BµC
7.5. Il modello di un sistema interconnesso 163

C = (C1 . . . Cm C1C . . . CµC )

Bi , Ci i = 1, . . . , m : Ri = Ci Bi
C C
BK , CK k = 1, . . . , µ :
µ ¶
C C C b1
2Rka = CK BK BK =
b2
µ ¶
−b2
−2Rkb = C C
CK B̃K C
B̃K =
b1
C C
CK B̃K fattorizzazione di dimensione 2rk

7.4.b. Ancora sulle realizzazioni minime

A proposito delle tecniche di realizzazione proposte si ricorderà quanto annunciato in termini di


proprietà degli stati. E’ infatti evidente la denominazione delle tecniche in forma canonica raggiun-
gibile e osservabile cosı̀ come non è difficile dimostrare la minimalità della procedura di realizzazione
di Gilbert. La minimalità di tale modello implicito è una conseguenza della completa raggiungibilità
e osservabilità.
La verifica può essere condotta mediante le seguenti condizioni 1. e 2. equivalenti alla completa
raggiungibilità ed osservabilità, rispettivamente.

.
1. ρ(A − λi I ..B) = n, i = 1, . . . , m
.
2. ρ(AT − λi I ..C T ) = n, i = 1, . . ., m.
La dimostrazione che le precedenti condizioni sono equivalenti a quelle di rango individuate nei teoremi
precedenti può essere condotta ricordando l’equivalenza con la completa eccitabilità ed osservabilità
dei modi.
Si consideri ad esempio la condizione 2.; è facile verificare che se essa non fosse soddisfatta
esisterebbe un autovettore ui che soddisfa la condizione Cui = 0 ciò che comporta la non completa
osservabilità; il viceversa è altrettanto immediato. Analoghe considerazioni possono essere impiegate
per la condizione 1..

Un’ultima considerazione può essere utile; si pensi assegnata una terna (A, B, C) (cioè una rap-
presentazione LSF) e calcolata la W (t). Rispetto a questa W (t) si può risolvere un problema di
realizzazione causale, come impostato al paragrafo precedente. La terna (A, e B,
e C)
e che risolve il prob-
lema e che è caratterizzata da uno spazio di stato di dimensione minima sull’insieme delle realizzazioni,
ha dimensione n e ≤ n, l’eguaglianza avendosi solo se tutti i modi di (A, B, C) sono eccitabili ed osserv-
e = T AT −1 , B
abili; inoltre in tal caso si ottengono due rappresentazioni equivalenti (i.e. ∃T : A e = T B,
Ce = CT −1 ).
164 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

7.5. Il modello di un sistema interconnesso

Saranno studiati i metodi per il calcolo del modello matematico di un sistema interconnesso in termini
di funzione di trasferimento (formula di Mason) e della rappresentazione ingresso - stato - uscita

7.5.a. La funzione di trasferimento: la formula di Mason

Per il calcolo della funzione di trasferimento del sistema complessivo se si indica con Si la
trasferenza di ramo, può essere impiegata la seguente formula
P
i ∆ i Pi
S=

in cui
Pi ⇒ trasferenza dell0 i − mo cammino u → y
X X X
∆=1− Pj + Pjk − Pjkl · · ·
j j,k j,k,l

Pjk ⇒ prodotto di coppie di trasferenze di anelli che non si toccano

Pjkl ⇒ prodotto di triple di trasferenze di anelli che non si toccano

∆i ⇒ ∆ − tutti i prodotti di trasferenze che sono toccati da Pi

Con riferimento al grafo di flusso rappresentato in Figura

S4

u 1 S1 S2 S3 1 y

S5
S6
Figura 7.3

Da u a y si hanno due cammini: (


P1 = S1 S2 S3
P2 = S4 S3
µX ¶
0
∆ = 1 − ( somma trasf. d anello) + di prodotti di trasf. di coppie anel. 6=
µX ¶
− prodotti di triple di anell. 6= + . . .
7.5. Il modello di un sistema interconnesso 165

Ritornando al caso preso in considerazione:

∆ = 1 − S2 S5 − S1 S2 S3 S6

in questo caso ci si deve fermare, perchè gli anelli si toccano, hanno un ramo in comune, ma basta
anche un solo nodo in comune per non poter più considerare il prodotto delle coppie, che quindi
diventa nullo, cosı̀ come tutti quelli che seguono.
∆i = ∆− tutti quanti quei prodotti di funzioni di trasferimento che coinvolgono una qualche funzione
di trasferimento che sta già in Pi
(
∆1 = 1
∆ 2 = 1 − S 2 S5

In conclusione per quanto riguarda la funzione di trasferimento, dell’esempio preso in considerazione,


si avrà la seguente espressione:

P1 ∆1 + P2 ∆2 S 1 S 2 S 3 + S 3 S 4 − S 2 S3 S 4 S 5
S= =
∆ 1 − S1 S 2 S 5 − S 2 S 3 S6

Un ulteriore esempio che viene trattato è riportato in Figura

S6 S8

u 1 S1 S2 S3 S4 S5 1 y

S7

S9

Figura 7.4

∆ = 1 − S 2 S 3 S 7 − S3 S 4 S 8
P1 = S 6 S 3 S 4 S 5
∆1 =
P2 = S1 S2 S3 S4 S5
∆2 =
P3 = S9
∆3 =

Dopo aver calcolato ∆1 , ∆2 , ∆3 si applichi la formula.


166 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

7.5.b. La rappresentazione con lo stato

Si affronterà ora il calcolo della rappresentazione ingresso - stato - uscita

(
ẋi = Ai xi + Bi ui
Si :
yi = Ci xi

il calcolo si riduce ad imporre i vincoli topologici stabiliti dai collegamenti tra i diversi sottosistemi.
Come già visto nel caso della connessione in cascata si ha


 ẋ = A1 x1 + B1 u
 1
ẋ2 = A2 x2 + B2 C1 x1


y = C2 x2

in cui lo stato è l’aggregato degli stati dei sottosistemi. La procedura euristica che consiste nell’imporre
il rispetto dei vincoli è semplice nei casi elementari, ma quando si considerano collegamenti con
più sottosistemi, con connessioni in controreazione, è necessario fare riferimento ad una procedura
sistematica fondata sull’analisi del diagramma di flusso del sistema interconnesso.
Si consideri il grafo di flusso e si separino alcuni nodi in modo che nel grafo risultante non ci siano
più cicli. La separazione però deve essere fatta in modo da lasciare tutti quanti i rami entranti da
una parte e i rami uscenti dall’altra. Per un grafo di questo tipo, senza cicli, la rappresentazione con
lo stato è immediatamente calcolata, a partire da quella dei sottosistemi.
Infatti il vettore di stato x è l’aggregato dello stato dei singoli sottosistemi e la rappresentazione può
essere semplicemente scritta per ispezione sul grafo di flusso se questo è aciclico. Ciò sarà messo in
evidenza facendo riferimento all’esempio di Figura 37.4

S4

u 1 S1 S2 S3 1 y
S5
S6

Figura 7.5

P = pozzo, la parte del nodo separato dove arrivano tutti i rami


S = sorgente, la parte da cui partono soltanto rami
Quindi si ottiene:
7.5. Il modello di un sistema interconnesso 167



 ẋ1 = A1 x1 + B1 u





 ẋ2 = A2 x2 + B2 S


 ẋ3 = A3 x3 + B3 C2 x2 + B3 C4 x4

 ẋ4 = A4 x4 + B4 u





 ẋ5 = A5 x5 + B5 C2 x2 + B5 C4 x4



ẋ6 = A6 x6 + B6 C3 x3
y = C3 x3 P = C1 x1 + C5 x5 + C6 x6

Da cui si ottiene 

 ẋ1 = A1 x1

  

 B1 0

 ẋ2 = A2 x2

  0 B2  µ ¶
 ẋ3 = A3 x3 + B3 C2 x2 + B3 C4 x4  
 0 0  u
+ 

 ẋ4 = A4 x4  B4 0  S

  

 0 0

 ẋ5 = A5 x5 + B5 C2 x2 + B5 C4 x4

 0 0

ẋ6 = C3 x3

y = (0 0 C3 0 0 0)x
P = ( C1 0 0 0 C5 C6 ) x
ora ritornando al grafo iniziale si verifica che S coincide con P , e quindi se si riporta a far coincidere
S con P si ottiene la rappresentazione con lo stato del sistema complessivo.

In conclusione la rappresentazione complessiva è ottenuta: separando alcuni nodi del grafo, calcolando
la rappresentazione associata, imponendo il vincolo di coincidenza dei nodi separati

Quindi due metodi: uno per il calcolo della funzione di trasferimento, l’altro per il calcolo della
rappresentazione con lo stato, mettono, tral’altro, in evidenza che lo stato del sistema complessivo è
l’aggregato degli stati dei sottosistemi.
A tale proposito vale la pena di osservare che a seguito della connessione puó prodursi perdita di pro-
prietà di raggiungibilità e/o osservabilità. Si considerino ad esempio i sottosistemi S1 , S2 caratterizzati
dalle rispettive funzioni di trasferimento:
µ ¶ µ ¶
s+1 1
s−1 s+1

la funzione di trasferimento del sistema complessivo risulta

1
W (s) =
s−1

ed ammette la seguente realizzazione con lo stato


(
ẋ = x + u
y=x
168 7. Modelli ingresso uscita lineari e rappresentazioni con lo stato

Si è ottenuto un sistema di dimensione uno mentre la dimensione del sistema complessivo, intercon-
nessione di due sottosistemi di dimensione uno, è due. Questo fatto puó essere spiegato in termini di
perdita di raggiungibilità o di osservabilità del sistema, perchè la funzione di trasferimento del sistema
complessivo è influenzata solo dal sottosistema, o tutto raggiungibile o tutto osservabile.
In realtà il caso preso in considerazione corrisponde ad una perdita di raggiungibilità del sistema.
Ció si puó verificare realizzando i due sottosistemi, trovando le rappresentazioni con lo stato, la
rappresentazione complessiva ed infine verificando che il sistema non è tutto raggiungibile.
Ad una cancellazione opposta corrisponderà una perdita di osservabilità.

In conclusione un sistema interconnesso realizzato con sottosistemi raggiungibili e osservabili manifesta


una perdita di raggiungibilità e/o osservabilità se il denominatore della funzione di trasferimento ha
grado inferiore alla somma delle dimensioni dei sottosistemi.
8. Elementi di teoria della stabilità

La teoria della stabilità riveste un ruolo particolarmente importante nello studio dei sistemi
dinamici. Essa costituisce un importante complesso di metodi di analisi qualitativa; si tratta di quei
metodi che consentono di studiare le proprietà delle soluzioni di sistemi dinamici senza procedere al
calcolo delle soluzioni stesse.
Cosa accade a seguito di una modifica delle condizioni in cui opera un fissato sistema ? L’effetto
è della stessa entità della perturbazione ? Vengono mantanute le principali caratteristiche di compor-
tamento ? Sono queste le circostanze che sono assunte a specificare la modalità di un comportamento
stabile.
Stabilità, dunque, come quella proprietà delle evoluzioni di modificare di poco l’andamento a
seguito di perturbazioni: tanto più piccole le perturbazioni tanto più piccoli gli scostamenti delle
evoluzioni perturbate da quelle non perturbate. E’ necessario precisare cosa si intende per pertur-
bazioni, variazioni delle condizioni operative. Se si osserva che un dato sistema è caratterizzato da
relazioni matematiche e da fissati valori dei parametri e che un’evoluzione è fissata una volta fissato
uno stato iniziale ed una funzione d’ingresso, si comprende che una perturbazione può concretizzarsi
in variazioni dei parametri rispetto a valori che sono usualmente definiti ”nominali”, in variazioni
dello stato iniziale oppure in variazioni dell’ingresso. In questo ampio contesto viene qui affrontato lo
studio della stabilità rispetto a perturbazioni sullo stato iniziale: la stabilità degli stati di equilibrio
(stabilità interna), nonchè il collegamento con la proprietà di stabilità ingresso-uscita, una proprietà
relativa alla limitatezza delle evoluzioni in uscita a seguito di perturbazioni in presenza di ingressi
limitati (stabilità esterna).
Lo studio della stabilità degli stati di equilibrio fa riferimento alla teoria di Lyapunov, matematico
ed ingegnere russo che all’inizio del secolo ha gettato le fondamenta della teoria che porta il suo
nome. Uno stato di equilibrio è stabile se le evoluzioni che hanno origine nelle vicinanze restano
nelle vicinanze; instabile altrimenti. Asintoticamente stabile se le evoluzioni non solo restano nelle
vicinanze, ma ritornano sullo stato di equilibrio al crescere del tempo.
Non viene qui affrontato il caso di perturbazioni sui parametri; la cosiddetta stabilità strutturale.
L’assenza di stabilità strutturale rappresenta una ’patologia’ interessante; è intatti possibile che un
170 8. Elementi di teoria della stabilità

dato modello matematico a seguito di piccole perturbazioni di uno o più parametri manifesti com-
portamenti molto diversi rispetto alla situazone nominale. Si usa dire in tal caso che il modello non
è strutturalmente stabile. Questo studio ha risvolti applicativi molto importanti in quanto fornisce
il quadro formale per interpretare fenomeni reali complessi che a seguito di insignificanti modifiche
ambientali subiscono modifiche catastrofiche o danno vita a comportamenti caotici. La teoria delle
catastrofi e lo studio del caos, che hanno negli ultimi anni suscitato interesse ed acquisito credito nella
interpretazione di fenomeni fisici di diversa natura, sono fondati su tali aspetti.
La trattazione che segue prende le mosse dalle definizioni principali per arrivare all’enunciazione
delle condizioni che ne garantiscono il soddisfacimento fino alla presentazione dei criteri di verifica. A
partire dal metodo generale di Lyapunov, si passa allo studio dei sistemi lineari ed all’indagine sulla
collocazione degli autovalori, per ritornare allo studio della stabilità dei sistemi nonlineari mediante
l’esame del modello lineare tangente (approssimazione lineare). La trattazione è diffusa per i sistemi
a tempo continuo e succinta per il tempo discreto. Lo studio della stabilità dei sistemi interconnessi
lineari conclude il capitolo.

8.1. Definizioni

Si consideri il seguente sistema di equazioni differenziali, che descrive l’evoluzione nello stato di un
sistema regolare a dimensione finita
¡ ¢
ẋ(t) = f t, x(t), u(t) (8.1)

e si supponga che in ogni punto di una fissata regione Ω la soluzione di (8.1) sia una funzione continua
di (x0 , t0 ).
Una coppia stato - ingresso (costante), (xe , ue ), è detta di equilibrio se l’evoluzione ad essa
associata rimane confinata in xe ; in formule

f (t, xe , ue ) = 0 (8.2)

Poiché siamo interessati a studiare l’effetto di perturbazioni sullo stato iniziale, nel seguito sup-
porremo, senza perdita di generalità, che ue = 0. Ciò significa che faremo riferimento al sistema
¡ ¢
ẋ(t) = f t, x(t) f (t, xe ) = 0 (8.3)

Inoltre indicheremo con S(xe , R) ed C(xe , R) la regione sferica aperta dello spazio di stato di centro
xe e raggio R ed il suo contorno sferico, rispettivamente. Assumeremo che in Ω = S(xe , A), le
componenti di f , fi (t, x), siano derivabili rispetto ad x con derivate continue. Indicheremo con gx0
la traiettoria per x0 , con g + quella per tempi positivi e con g − quella per tempi negativi. x(t), come
usuale, rappresenterà lo stato at tempo t a partire da x0 al tempo t0 . Un cambiamento di variabile
nello stato che porta l’origine dello spazio in xe , z = x − xe , consente di definire un nuovo sistema

ż(t) = f˜(t, z(t)) f˜(t, 0) = 0


8.1. Definizioni 171

che ha un equilibrio all’origine. E’ dunque possibile senza perdita di generalità supporre che in (8.3)
sia xe = 0.

8.1.a. Stabilità dell’equilibrio

Definizione 1. Lo stato di equilibrio, xe , di (8.3)


• è stabile se per ogni fissato numero reale ε > 0 esiste un altro numero reale δ > 0, eventualmente
dipendente da ε e da t0 , tale che se kx0 − xe k < δε,t0 , allora:

kx(t) − xe k < ε, ∀t ≥ t0 . (8.4)

• è instabile se non è stabile.


• La stabilità è detta uniforme se nelle precedenti relazioni le entità coinvolte non dipendono da
t0 .

Per un sistema stazionario


¡ ¢
ẋ(t) = f x(t) f (xe ) = 0 (8.5)
la proprietà di stabilità si riconduce a quella di stabilità uniforme.
Per meglio comprendere la precedente definizione con l’ausilio di una figura si pensi all’origine
del piano come stato di equilibrio di un assegnato sistema. Tale stato di equilibrio è :
• stabile se per ogni ² < A esiste δ ≤ ² tale che se x0 è in S(δ) allora gx+0 resta in S(²); cioè ogni
evoluzione che muove da S(δ) non raggiunge la frontiera, C(²), di S(²) (figura (8.1a);
• instabile se esiste un ² tale che per ogni δ, non importa quanto piccolo, esiste sempre in S(δ) un
x0 tale che la traiettoria gx+0 raggiunge C(²) (figura (8.1b).

Si osservi che in generale un assegnato sistema può avere più stati di equilibrio e che la proprietà
di stabilità può sussistere per alcuni e non per altri.
A titolo di esempio si consideri il pendolo rigido di lunghezza l e massa m studiato nel terzo
capitolo. Si assuma in questo primo caso che non vi sia attrito dinamico (k = 0). Per tale sistema
nelle variabili di stato (angolo, velocità angolare) vi sono infiniti stati di equilibrio corrispondenti alla
posizione verticale verso il basso, (2kπ, 0), k ≥ 0, ed alla posizione verticale verso l’alto (kπ, 0), k ≥ 1,
come l’intuizione suggerisce e risulta dal calcolo a partire dal modello matematico

ẋ1 (t) = x2 (t)


−g
ẋ2 (t) = senx1 (t).
l
Non è difficile comprendere che gli stati di equilibrio del primo tipo sono stabili, infatti le evoluzioni
nello spazio di stato sono periodiche e possono essere mantenute interne ad una generica sfera cen-
trata sull’equilibrio a patto di imporre perturbazioni sufficientemente piccole, mentre quelli del sec-
ondo tipo sono instabili, infatti una perturbazione comunque piccola conduce ad un allontanamento
dall’equilibrio.
172 8. Elementi di teoria della stabilità

8.1.b. La stabilità del moto

Allo studio della stabilità dell’equilibrio si riconduce lo studio di una proprietà più generale: la
stabilità di un moto. Un moto a partire da una condizione iniziale x0 = x(t0 ), ed un ingresso, u0 (·),
è definito come l’insieme
¡ ¢
M = { t, x(t) ∈ T × X | t ≥ t0 , x(t) = ϕ(t, t0 , x0 , u)}.

E’ facile rendersi conto del significato della seguente definizione di stabilità di un moto.

Definizione 2. Un moto M è stabile se ∀ε, esiste un δε,t0 tale che se kxp0 (t) − x0 k < δε,t0 , allora
kxp (t) − x(t)k < ε, ove xp (t) indica la traiettoria del moto perturbato con stato iniziale xp0 . Il moto
è stabile asintoticamente se è stabile ed inoltre lim kxp (t) − x(t)k = 0.
t→∞

Lo studio della stabilità di un moto può essere condotto indicando con x(t) e xp (t) le evoluzioni
corrispondenti a stato iniziale x0 e xp0 e ponendo

xp (t) = x(t) + ξ(t)

ove ξ(t) indica l’evoluzione perturbata . Tale variabile è soluzione della seguente equazione differenziale
¡ ¢ ¡ ¢ ¡ ¢
˙ = ẋp (t) − ẋ(t) = f t, xp (t) + ξ(t), u0 (t) −f t, x(t), u0 (t) = g t, ξ(t)
ξ(t)

che ammette ξ = 0 come stato di equilibrio. La stabilità di tale equilibrio equivale alla stabilità del
moto del sistema originario, come è immediato verificare dalla definizione stessa. In conclusione lo
studio della stabilità di un moto può essere ricondotto allo studio della stabilità dell’origine dello
spazio di stato del sistema che descrive la dinamica perturbata. Si osservi che quest’ultimo sistema è
caratterizzato da una funzione generatrice g dipendente dal particolare ingresso fissato.

8.1.c. La stabilità asintotica

Definizione 3. Lo stato di equilibrio, xe , di (8.3) è asintoticamente stabile se è stabile e vale la


seguente proprietà di equiasintoticità: esiste δa > 0, eventualmente dipendente da t0 , tale che se
kx0 − xe k < δa,t0 allora risulta:
lim kx(t) − xe , k = 0. (8.6)
t→∞

Ancora con riferimento ad unsistema definito sul piano con lo stato zero di equilibrio la stabilità
asintotica impone anche che ogni traiettoria gx+0 che parte da S(δ0 ) per un qualche δ0 > 0 tenda
all’origine al crescere del tempo (figura (8.2);

A titolo di esempio si consideri ancora la dinamica di un pendolo assumendo in questo caso che
sia presente un attrito dinamico (k 6= 0); ciò che rende il sistema dissipativo. Le equazioni diventano

ẋ1 (t) = x2 (t)


8.1. Definizioni 173

g k
ẋ2 (t) = − senx1 (t) − x2 (t)
l m

e si hanno gli stessi stati di equilibrio. Come l’intuizione ci suggerisce gli stati di equilibrio (2kπ, 0),
k ≥ 0, corrispondenti alla posizione verticale verso il basso sono asintoticamente stabili, in quanto le
evoluzioni nello spazio di stato sono periodiche e smorzate, mentre (kπ, 0), k ≥ 1, corrispondenti alla
posizione verticale verso l’alto, rimangono instabili.

Si osservi che ha senso indagare sulla stabilità asintotica di uno stato di equilibrio solo se esso
è isolato, cioé non è punto di accumulazione di altri stati di equilibrio. Ser ciò non fosse, infatti,
comunque fissato un suo intorno esisterebbe in esso almeno un altro stato di equilibrio che, assunto
come perturbazione, darebbe vita ad un evoluzione costante che non tende allo stato di equilibrio
originario.
A questo proposito è importante osservare che una condizione sufficiente affinché uno stato di equilibrio
sia isolato è che la matrice iacobiana del sistema calcolata nello stato di equilibrio sia non singolare (la
dimostrazione di questo risultato può facilmente essere ottenuta utilizzando al teorema della funzione
implicita sulla funzione y − f (x)). Si tratta di una condizione sufficiente come si può verificare
riferendosi alla semplice situazione di un sistema scalare con funzione generatrice f (x) = x3 . In
questo caso lo stato x = 0 è di equilibrio, è isolato ed anche unico, ma la condizione citata non è
soddisfatta. Ciò accade in quanto lo zero è soluzione isolata, ma non unica (ha molteplicità pari a
tre) e la condizione citata viene meno in tale circostanza.

Un caso particolare e di interesse nelle applicazioni è quello in cui si ha stabilità asintotica e il


ritorno sullo stato di equilibrio avviene con una tendenza esponenziale.

Definizione 4. Lo stato di equilibrio, xe , di (8.3) è esponenzialmente stabile se esiste λ > 0 e per


ogni fissato ε > 0 esiste un δε > 0 tale che se kx0 − xe k < δε allora:

kx(t) − xe k < εe−λ(t−t0 ) , ∀t > t0 . (8.7)

In altre parole x(t) tende ad xe secondo una legge che ammette una maggiorante esponenziale.

Non è difficile mostrare che la stabilità esponenziale implica quella asintotica uniforme, ma non
vale il viceversa.

8.1.d. La stabilità globale

Le proprietà di cui si è parlato hanno una validità locale; sono cioè proprietà che riguardano il
comportamento per piccole perturbazioni.
174 8. Elementi di teoria della stabilità

Definizione 5. Lo stato di equilibrio, xe , di (8.3) è globalmente asintoticamente stabile se xe è stabile


e
∀k > 0 kx(t0 ) − xe k < k ⇒ lim kx(t) − xe k = 0.
t→∞

Comunque grande sia la perturbazione, l’evoluzione corrispondente resta limitata e tende ad xe .

A titolo di esempio si consideri il seguente sistema nel piano

ẋ1 = x2 , ẋ2 = −x1

Poiché xẋ + y ẏ = 0, le traiettorie sono le circonferenze che passano per la condizione iniziale e xe = 0,
unico stato di equilibrio, è globalmente stabile.

Inoltre è facile verificare che si ha la stabilità asintotica globale dell’origine per per il sistema planare

ẋ1 = −x1 , ẋ2 = −x2

8.2. La stabilità secondo Lyapunov

Introdotte le definizioni si tratta ora di comprendere come verificare il sussistere delle proprietà.
L’approccio impiegato nei semplici esempi trattati è fondato sull’esame delle caratteristiche delle
soluzioni e fa riferimento alle definizioni stesse. La generalizzazione di un tale approccio richiede il
calcolo delle soluzioni di (8.3), ciò che è in molti casi impossibile.

Le semplici argomentazioni impiegate per studiare la stabilità del pendolo possono essere rifor-
mulate in termini di concetti energetici e rappresentano il punto di partenza dell’approccio generale
proposto da Lyapunov per lo studio della stabilità dell’equilibrio.
Consideriamo l’energia associata al moto del pendolo data dalla somma dell’energia cinetica e
dell’energia potenziale

g 1
E(x) = (1 − cosx1 ) + x2 2
l 2

ove il riferimento è fissato in modo che nell’equilibrio verso il basso sia E(0) = 0. In assenza di attrito
(k = 0) il sistema è conservativo, dunque E = c, costante, lungo il moto, ciò che corrisponde a dire che
dE
dt = 0 lungo le traiettorie. Dunque le evoluzioni mantengono l’energia costante ed avvengono sulle
curve di livello della funzione E(x) = c; queste ultime sono curve chiuse intorno ad x = 0, possiamo
quindi concludere che l’equilibrio è stabile. In presenza di attrito (k > 0) il sistema è dissipativo, ciò
che corrisponde a dE dt ≤ 0 lungo le evoluzioni. Dunque E non può restare costante indefinitamente,
decresce fino a raggiungere il valore nullo ciò che corrisponde a dire che l’evoluzione tende all’equilibrio
(x = 0) per t → ∞.
8.2. La stabilità secondo Lyapunov 175

La formalizzazione di queste considerazioni induce a fondare la verifica della stabilità degli stati di
equilibrio di un sistema fisico sullo studio della funzione energia intorno all’equilibrio; se, in particolare,
essa è non crescente si ha stabilità, se è decrescente si ha stabilità asintotica.

Alla fine del secolo scorso, Lyapunov ha generalizzato questo concetto dimostrando che altre
funzioni possono essere impiegate al posto della funzione energia per verificare la stabilità.

Faremo riferimento, in quanto segue, ad una rappresentazione nonlineare stazionaria con stato
di equilibrio xe
ẋ(t) = f (x(t)) f (xe ) = 0

8.2.a. Le funzioni di Lyapunov

Poiché come si è accennato il criterio si ispira a concetti energetici un ruolo particolarmente


importante è svolto dalle funzioni cosiddette definite positive.

Definizione 6. Una funzione scalare V (x) è definita positiva in S(xe , R) se si annulla in xe ed è posi-
tiva in ogni altro punto dell’intorno. Si dice semidefinita positiva se si annulla in xe ed è non negativa
in ogni altro punto dell’intorno. Infine V (x) si dice definita negativa ovvero semidefinita negativa
in un intorno se la funzione −V (x) è definita positiva ovvero semidefinita positiva in quell’intorno.
Indicheremo con V (x) > 0 una funzione definita positiva, con V (x) < 0 una funzione definita negativa
e con V (x) ≥ 0, e V (x) ≤ 0, funzioni semidefinite, positive e negative, rispetivamente

Un esempio elementare di funzione definita positiva in tutto Rn rispetto ad xe è dato dalla seguente
funzione  
xe1
. Xn
xe =  ..  stato di equilibrio V (x) = (xi − xei )2 .
xen i=1

Il prototipo di tutte le funzioni definite positive è la funzione quadratica

X
n
V (x) = ei (xi − xei )2 ei > 0
i=1

Un caso più generale è quello in cui si considera la forma quadratica matriciale:

V (x) = (x − xe )T P (x − xe ), (8.8)

dove P senza perdita di generalità è assunta simmetrica. E’ infatti evidente che se cosı̀ non fosse si
potrebbe considerare la forma quadratica:
h i
V (x) = (x − xe )T P (x − xe ) + (x − xe )T P T (x − xe ) =
P + PT
= (x − xe )T (x − xe ),
2
176 8. Elementi di teoria della stabilità

T
e dunque sostituire P con la matrice simmetrica P + P .
2
Se la forma quadratica cosı̀ definita è positiva si usa dire che la matrice è positiva, P > 0, e viceversa.
E’ possibile stabilire con un criterio algebrico se P > 0 e quindi se la forma quadratica associata è
definita positiva. La condizione, nota come condizione di Sylvester, afferma che una matrice simmet-
rica P è definita positiva se e solo se i suoi n minori principali sono positivi:
¯ ¯
¯ ¯ ¯ p11 p12 p13 ¯¯
¯ p11 p12 ¯¯ ¯
p11 > 0, ¯ > 0, ¯ p12 p22 p23 ¯¯ > 0, ···, det P > 0.
¯ p12 p22 ¯ ¯
¯ p13 p23 p33 ¯

Come si è gia detto il criterio di Lyapunov si ispira a considerazioni energetiche; una funzione
definita positiva viene assunta a rappresentare ’virtualmente’ il ruolo di energia intorno all’equilibrio
ed è necessario calcolare una tale funzione lungo le evoluzioni del sistema. In particolare, se ricordiamo
le considerazioni precedenti, è necessario calcolare le variazioni di tale funzione lungo le evoluzioni del
sistema. E’ dunque necessario calcolare la derivata lungo il moto di una data funzione V (x). Questa
si calcola mediante la seguente espressione

à !  ẋ1 
d ∂V dx ∂V ∂V . Xn
∂V ∂V
V (x(t)) = · = ... ·  ..  = fi (x) = f (x)
dt ∂x dt ∂x1 ∂xn i=1
∂xi ∂x
ẋn
.

Ciò premesso, se si immagina di associare ad ogni stato intorno all’equilibrio un livello di energia
positivo, la stabilità risulta dalla diminuzione del livello di energia lungo le evoluzioni del sistema. Se,
quindi, si immagina di associare allo stato xe un livello energetico nullo ed inoltre di associare agli
stati intorno ad xe un livello energetico superiore (V (x) > 0), alle evoluzioni libere che partono dagli
stati intorno ad xe dovrà corrispondere una diminuzione dell’energia. Questa considerazione giustifica
la seguente definizione

Definizione 7. funzione di Lyapunov. Una funzione V (x) > 0, continua assieme alle sue derivate
parziali prime in una fissata regione S(xe , R), è detta una funzione di Lyapunov (una funzione asin-
totica di Lyapunov) per il sistema se la sua derivata lungo il moto è semidefinita (definita) negativa
nello stesso intorno.

8.2.b. Il criterio di Lyapunov

Siamo ora in grado di formulare il risultato fondamentale noto come criterio di Lyapunov.
8.2. La stabilità secondo Lyapunov 177

Teorema 1. Se in un intorno S(xe , R) è definita una funzione di Lyapunov (una funzione di Lyapunov
asintotica) per il sistema allora xe è localmente stabile (asintoticamente stabile).

Dimostrazione Ci riferiremo per semplicità allo stato di equilibrio xe = 0. Assegnato ε > 0


sia S(r), 0 < r ≤ ε < R, e sia α = minC(r) V (x). Risulta α > 0 e sia

Ωβ = x ∈ S(r) : V (x) ≤ β β<α

Poiché Ωβ è contenuto strettamente in S(r), ogni traiettoria che parte da Ωβ a t = 0 resta in Ωβ


t ≥ 0.
Poiché, inoltre V (x) è continua e vale zero in zero, esiste δ > 0 tale che S(δ) ⊂ Ω(β) ⊂ S(r). Si
ha cioé la stabilità
kx0 k < δ ⇒ kx(t)k < ε t ≥ t0 .

Mostreremo ora che se V (x) è una funzione asintotica di Lyapunov, comunque fissato a esiste T
tale che kx(t)k < a, ∀t > T , cioé x(t) → 0 quando t → ∞. Infatti con gli stessi argomenti di prima
esiste b > 0 tale che Ωb ⊂ S(a), basta quindi mostrare che V (x(t)) → 0 quando t → ∞. Ma poichè
V (x(t)) è monotona decrescente ed inferiormente limitata da zero, V (x(t)) → c ≥ 0 quando t → ∞;
inoltre c = 0, perché se cosı̀ non fosse per la continuità di V (x) esisterebbe d > 0 con S(d) ⊂ Ωc .
V (x(t)) → c implicherebbe che la traiettoria x(t) rimane esterna alla sfera S(d) per ogni t ≥ 0. Posto
−γ = maxd≤kxk≤r V̇ (x) si avrebbe
Z t
V (x(t)) = V (x(0)) + Ẋ(x(τ ))dτ ≤ V (x(0)) − γt
0

che contraddice l’assunto c > 0, potendo la quantità a secondo membro diventare positiva.

Si consideri di nuovo la dinamica di un pendolo in assenza di attrito

ẋ1 (t) = x2 (t)

−g
ẋ2 (t) = senx1 (t)
l
e si consideri la funzione energia

g 1
E(x) = (1 − cosx1 ) + x2 2
l 2
che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a
g g g
Ė(x) = ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = 0
l l l
E(x) è una funzione di Lyapunov e prova la stabilità dell’equilibrio verticale inferiore.

E’ opportuno precisare che esistono diversi risultati che esprimono i cosiddetti teoremi inversi.
Tali risultati sanciscono che sotto condizioni generali se lo stato di equilibrio di un assegnato sistema è
stabile allora esiste una funzione di Lyapunov. Ne risulta che l’esistenza di una funzione di Lyapunov è
condizione necessaria e sufficiente per la stabilità. Tuttavia, poichè è possibile provare l’esistenza di tali
178 8. Elementi di teoria della stabilità

funzioni senza fornire alcuna procedura costruttiva, questi risultati non sono di utilità nell’applicazione
del metodo che viene quindi espresso nella sua formulazione sufficiente. A questo proposito è usuale
affermare che il metodo di Lyapunov fornisce un criterio sufficiente di verifica della stabilità in quanto il
venire meno di una verifica a partire da un’assegnata funzione definita positiva non consente di trarre
alcuna conclusione. Esiste una vasta letteratura che affronta il problema di sviluppare strumenti
di ausilio nella costruzione di funzioni di Lyapunov per assegnate classi di sistemi. Un metodo di
interesse nelle applicazioni è quello cosiddetto del gradiente variabile. Tale metodo pesentato nel
testo di esercizi e complementi consiste nel consiste nel fissare la struttura, ma non i parametri, di
una funzione riservandosi di fissare i parametri in modo da renderla una funzione di Lyapunov per il
sistema. Si rinvia ad una letteratuta specialistica per un approfondimento di questi aspetti.

La dimostrazione precedente mette in luce che individuata una funzione asintotica di Lyapunov
in S(R), se Ωc = x ∈ Rn : V (x) ≤ c è limitato e contenuto in S(R) (Ωc ⊂ S(r)) allora ogni traiettoria
che parte da Ωc resta in Ωc e viene attratta dall’origine. Quindi Ωc individua una regione dello spazio
contenuta nella cosiddetta regione di attrazione associata all’equilibrio stabile. Ωc fornisce dunque una
prima stima della regione di attarzione. Quanto questa stima è conservativa ? Sotto quali condizioni
la regione di attarzione coincide con tutto lo spazio Rn ? Rinviando a testi specialistici per le risposte
alla prima domanda, limitiamoci a considerare la seconda che ci riconduce allo studio delle condizioni
sotto le quali si ha stabilità globale. Ritornando alla dimostrazione precedente è chiaro che si ha
stabilità asintotica globale se ogni punto in Rn può essere incluso in un insieme limitato Ωc , e questo
richiede che V (x) sia una fnzione di Lyapunov definita su tutto Rn . Ma questo in realtà non basta.
Infatti potrebbe accadere che per c grandi l’insieme Ωc non sia limitato. Ciò ad esempio accade con
la funzione
x1 2
V (x) = + x22
1 + x21
Una condizione aggiuntiva che garantisce che Ωc sia limitato per ogni c > 0 è la cosiddetta ”non
limitatezza radiale”.

Teorema 2. Se V (x) è una funzione di Lyapunov (una funzione di Lyapunov asintotica) radialmente
illimitata, cioé
lim V (x) = ∞
kxk→∞

allora xe risulta essere globalmente stabile (asintoticamente stabile).

Dimostrazione Fissato ad arbitrio un punto p ∈ Rn , sia c = V (p). La mancanza di limitazione


implica che per ogni c > 0 esiste r > 0 tale che V (x) > c per kxk > r; cioè Ωc , ⊂ S(r) è limitato. Ciò
detto si possono ripetere gli argomenti usati nella dimostrazione precedente.

A titolo di esempio si consideri (


ẋ1 = −x1 x22
ẋ2 = −x32

µ ¶
k
xe =
0
8.2. La stabilità secondo Lyapunov 179

µ ¶
0
= xe stato di equilibrio
0

V (x) = x21 + x22

V̇ (x) = 2x1 ẋ1 + 2x2 ẋ2

= −2x21 x22 − 2x42 = −2x22 (x21 + x22 ) ≤ 0

Si ottiene una funzione semidefinita positiva, possiamo dunque concludere che l’origine dello spazio di
stato è uno stato di equilibrio stabile. La funzione data è di Lyapunov in tutto lo spazio, è radialmente
illimitata, si ha dunque stabilità globale.

Come ulteriore esempio si consideri la dinamica dell’assetto di un corpo rigido in assenza di gravità.
Questo modello è assunto a descrivere la variazione dell’orientamento di un satellite rispetto ad un
riferimento inerziale. Se chiamiamo ω1 la velocità angolare attorno all’asse x, ω2 quella attorno
all’asse y, e ω3 quella attorno all’asse z e se si immagina che l’orientazione del satellite possa mutare a
seguito di coppie, τ1 , τ2 , τ3 , che vengono generate attorno agli assi principali di inerzia che supporremo
coincidenti con gli assi del sistema di riferimento, l’equazione della dinamica può essere scritta

J1 ω̇1 = (J2 − J3 )ω2 ω3 + τ1

J2 ω̇2 = (J3 − J1 )ω3 ω1 + τ2

J3 ω̇3 = (J1 − J2 )ω1 ω2 + τ3

J1 J2 J3 momenti di inerzia attorno all’asse x, y, z. Il criterio di Lyapunov permette di dimostrare che


è possibile arrestare il corpo applicandi su ciascun asse coppie proporzionali alla velocità angolare
attorno a quello stesso asse. Ciò equivale a verificare che con

τi = −ki ωi i = 1, 2, 3

si ha stabilità asintotica globale dello zero dello spazio di stato, unico equilibrio per il sistema as-
segnato; il corpo, dunque tende ad arrestarsi indipendentemente dal valore iniziale della velocità
angolare (lo stato iniziale) al tempo t0 . A tal fine si consideri la seguente funzione definita positiva e
radialmente illimitata.
1 1 1
V (x) = J1 ω12 + J2 ω22 + J3 ω32
2 2 2
Derivando si verifica facilmente che tale funzione è definita negativa in tutto lo spazio. In conclusione
V (x) è una funzione di Lyapunov che soddisfa la condizione del Teorema 2 e lo stato ω = 0 è uno
stato asintoticamente, globalmente stabile, ciò che corrisponde alla tendenza all’arresto del corpo.
180 8. Elementi di teoria della stabilità

8.2.c. Alcuni approfondimenti

• Il teorema di La Salle

Un importante complemento di indagine è fornito dal teorema di La Salle. Tale risultato consente
di decidere della eventuale stabilità asintotica avendo a disposizione una funzione di Lyapunov non
asintotica. Ciò che, per l’esistenza del teorema inverso, equivale a chiedersi, sotto quali condizioni
l’esistenza di una funzione di Lyapunov assicuri l’esistenza du un’altra che è anche asintotica.

Per meglio comprendere l’interesse di un tale risultato si consideri ancora l’esempio del pendolo
in presenza di attrito
ẋ1 (t) = x2 (t)
−g k
ẋ2 (t) = senx1 (t) − x2
l m
e si consideri ancora la funzione energia

g 1
E(x) = (1 − cosx1 ) + x2 2
l 2
che è definita positiva per −2π < x1 < 2π. La sua derivata lungo il moto e pari a

g g g k
Ė(x) = ẋ1 senx1 + x2 ẋ2 = x2 senx1 − x2 senx1 = − x22
l l l m

Ė(x) è essendo semidefinita negativa, è una funzione di Lyapunov e prova la stabilità dell’equilibrio
verticale inferiore, ma non la stabilità asintotica, che appare evidente debba sussistere in questo caso.

Siamo dunque nella condizione di avere una funzione di Lyapunov e ci domandiamo se per una
qualche strana circostanza non possiamo dedurre la stabilità asintotica. Situazioni di questo tipo si
presentano spesso nelle applicazioni.

A questo proposito è necessario premettere che un insieme invariante rispetto alla dinamica del
sistema, Ω, è un insieme di stati in cui rimangono confinate l’evoluzione che muovono da ciascuno di
essi.

Teorema 3. (La Salle) Se il più grande insieme invariante rispetto alla dinamica che è contenuto
nell’insieme di punti in cui si annulla la V̇ (t) coincide con xe allora xe è asintoticamente stabile.

La dimostrazione si riconduce alla verifica che le evoluzioni convergono sugli insiemi invarianti.

Non si avrà difficoltà ad applicare il risultato all’esempio del pendolo.

• Il criterio di Krasovskii

Un valido strumento di analisi di stabilità asintotica è il teorema di Krasovskii. Indicata con


J(x) la matrice iacobiana di f (x)
8.2. La stabilità secondo Lyapunov 181

Teorema 4. Se per ogni x gli autovalori della matrice J(x) + J T (x) hanno parte reale strettamente
negativa, allora lo stato di equilibrio xe = 0 è stabile asintoticamente globalmente.

A titolo di esempio si consideri il sistema

ẋ1 = −x1 + x3 u1 u2
ẋ2 = −x2 − x32 + k1 x3 + u1
ẋ3 = k2 x2 − x3 − x33 .
¯
Lo stato zero è uno stato d’equilibrio isolato, poiché lo jacobiano J(x)¯x=0 è non singolare, inoltre
esso è anche l’unico stato di equilibrio. Per il sistema in esame si ha:
 
−1 0 0
J(x) =  0 −3x22 − 1 k1 
0 k2 −3x3 − 1
2

e dunque  
−2 0 0
J(x) + J T (x) =  0 −6x22 − 2 k1 + k2 
0 k1 + k2 −6x23 − 2
ha un autovalore indipendente da x e pari a λ1 = −2, mentre gli altri, per k1 = −k2 , risultano essere
λ2 = −6x22 − 2, λ3 = −6x23 − 2, i quali hanno parte reale inferiore a −α = 2 > 0.Per il teorema
enunciato si ha dunque la stabilità asintotica globale dello stato zero.

• Il teorema di Cetaev

Teorema 5. Se V (x) si annulla in xe , ha derivate parziali prime continue in Ω(xe ), assume valori
positivi in un insieme che ha xe come punto di accumulazione, la sua derivata lungo il moto è definita
positiva, allora lo stato di equilibrio è instabile.

Si consideri il seguente sistema del secondo ordine

ẋ1 = x1 + g1 (x)

ẋ2 = −x2 + g2 (x)

in cui g1 (·) e g2 (·) soddisfano in un intorno dell’origine

|gi (x)| ≤ kxk2

Poiché le condizioni precedenti implicano gi (0) = 0, l’origine è uno stato di equilibrio. Si consideri,
dunque la funzione
1
V (x) = (x21 − x22 )
2
182 8. Elementi di teoria della stabilità

che è positiva sui punti della retta x2 = 0 intorno all’origine; inoltre si ha

V̇ (x) = x21 + x22 + x1 g1 (x) − x2 g2 (x)

Poiché
|x1 g1 (x) − x2 g2 (x)| ≤ Σ21 |xi ||gi (x)| ≤ 2kkxk3

si ha
V̇ (x) ≥ kx|2 − 2kkxk3 = kx|2 (1 − 2kkxk)
1
e per r < 2k in S(r) le condizioni del teorema di Cetaev sono soddisfatte e si ha instabilità dello stato
di equilibrio.

8.2.d. Sistemi non stazionari

V (x, t) è una funzione definita positiva se:


- V (x, t) è definita in Ω per ogni t ≥ 0
- V (0, t) = 0 per t ≥ 0
- V (x, t) domina W (x) > 0, cioè W (x) ≤ V (x, t) in ogni x in Ω e per ogni t ≥ 0.
Derivata lungo il moto

∂V ∂V
V̇ (x, t) =+ ·f
∂t ∂x
Funzione di Lyapunov è una funzione definita positiva in Ω con derivata lungo il moto semidefinita
negativa in Ω.
I risultati si enunciano allo stesso modo.

8.3. La stabilità dei sistemi lineari

Si noti che per un sistema lineare

ẋ(t) = A(t)x(t) + B(t)u(t)

gli stati di equilibrio sono quelli che soddisfano l’equazione:

0 = A(t)xe

e quindi (xe = 0), cioè l’origine dello spazio di stato, è sempre uno stato di equilibrio. Esso è unico
se e solo se la matrice dinamica è invertibile, cioè se il determinante di A(t) è diverso da zero. Se il
determinante è nullo in ogni istante di tempo gli stati di equilibrio sono un sottospazio dello spazio
di stato.
Nel caso dei sistemi lineari sussistono le seguenti proprietà:
1. l’insieme degli stati di equilibrio è un sottospazio dello spazio di stato ed in particolare l’origine
è sempre uno stato di equilibrio;
8.3. La stabilità dei sistemi lineari 183

2. le proprietà di stabilità di uno stato di equilibrio sono equivalenti a quelle di ogni altro (da cui la
possibilità di limitare lo studio allo stato zero); come conseguenza si parlerà di stabilità interna
come di una proprietà del sistema, non di un particolare stato di equilibrio;
3. la definizione di stabilità può essere indebolita, nel senso che è necessario e sufficiente che esista
una coppia di valori δ, ε che soddisfano la (8.4);
4. le proprietà di stabilità locale implicano quelle globali;
5. il sistema è stabile esponenzialmente se e solo se è uniformemente asintoticamente stabile.
La prima delle proprietà indicate è gia stata commentata. Per quanto riguarda la seconda,
l’equivalenza delle proprietà di stabilità degli stati di equilibrio, si noti che la linearità rispetto allo
stato dell’evoluzione libera consente di ricondurre l’ evoluzione perturbata rispetto ad un generico
stato di equilibrio ad un’evoluzione libera dello stesso sistema. Infatti,

kx(t0 ) − xe k < δ ⇒ kx(t) − xe k < ²,

posto z = x − xe , equivale a

kz(t0 )k < δ ⇒ kϕ(t, t0 , x0 − xe , 0)k = kx(t) − xe k < ²

Per quanto riguarda la terza delle proprietà citate basta osservare che se esiste una coppia di
valori δ, ε tali che

kx(t0 )k < δ ⇒ kx(t)k < ²

allora per ogni altro valore ε̃ = αε se si sceglie δ̃ = αδ la condizione di stabilità è soddisfatta.


Per quanto riguarda la validità in grande delle condizioni locali basta rivedere, per la stabilità
semplice, quanto detto al punto precedente e per il comportamento asintotico, che se

kx(t0 )k < δa ⇒ lim kx(t)k = 0


t→∞

allora comunque fissato z0 = αx0

lim kz(t)k = lim αkx(t)k = 0


t→∞ t→∞

cioè la equiasintoticità globale.

8.3.a. La stabilità del moto

Le generalità insita nello studio della stabilità degli stati di equilibrio già messa in luce nel caso
generale è ancora maggiore nel caso dei sistemi lineari. Per tale classe di sistemi, infatti, la stabilità
dell’origine dello spazio di stato del sistema dato assicura la stabilità di ogni moto.
Il calcolo del sistema differenziale che esprime la dinamica della parturbazione rispetto ad un assegnato
moto, si riduce al seguente
184 8. Elementi di teoria della stabilità

ẋp (t) = A(t)xp (t) + B(t)u(t) = A(t)x(t) + A(t)ξ(t) + B(t)u(t)

e, quindi
˙ = A(t)ξ(t)
ξ(t)

Dunque si ottiene una dinamica che coincide con la dinamica del sistyema assegnato e non dipende
dall’ingresso. La stabilità dello stato zero di tale sistema equivale alla stabilità di un qualsiasi moto.

Poichè, come già osservato, nei sistemi lineari le proprietà locali si trasformano in globali e la
stabilità è invariante rispetto allo stato di equilibrio, per tale classe di sistemi si usa parlare di stabilità
interna del sistema riferendosi allo studio dello stato zero e restando inteso che tale proprietà ha una
valenza globale e riguarda tutti i comportamenti del sistema, sia stati di equilibrio che moti, rispetto
a perturbazioni dello stato iniziale.

8.3.b. Condizioni di stabilità per i sistemi lineari stazionari

x(t) = φ(t − t0 )x(t0 )

La condizione necessaria e sufficiente di stabilità si esprime in termini di limitatezza della norma della
matrice di transizione dello stato. Infatti

kφ(t − t0 )k ≤ k

implica
kx(t)k ≤ kφ(t − t0 )k · kx(t0 )k ≤ kkx(t0 )k

da cui
² ²
kx(t0 )k < ⇒ kx(t)k ≤ k
k k
Quindi se la matrice φ è limitata allora l’evoluzione libera è limitata; inoltre, se kφ(t − t0 )k non fosse
limitata ci sarebbe almeno un elemento della matrice non limitato al variare di t, sia quello di posto
(i, j), al quale corrisponderebbe la componente i − ma dell’evoluzione libera illimitata a partire da
una condizione iniziale non nulla
xi (t) = φij (t − t0 )xj (t0 )

Con gli stessi argomenti è facile verificare che condizione necessaria e sufficiente di stabilità asintotica
è che
lim kφ(t − t0 )k = 0
t→∞

la dimostrazione è analoga sia per la sufficienza che per la necessità


Le condizioni di stabilità per i sistemi lineari stazionari, se si ricorda che la matrice di transizione
è l’esponenziale della matrice dinamica, si possono esprimere in termini di autovalori di A. Più in
8.3. La stabilità dei sistemi lineari 185

dettaglio ricordando che le componenti dell’esponenziale di matrice sono combinazioni lineari delle
leggi di moto dei modi naturali, la condizione kφ(t)k ≤ k, equivale a che gli autovalori a molteplicità
geometrica unitaria abbiano parte reale minore o uguale a zero, quelli a molteplicità geometrica
maggiore di uno, abbiano parte reale strettamente minore di zero. Se si richiede anche che:

lim kφ(t − t0 )k = 0
t→∞

gli autovalori devono avere parte reale strettamente negativa. L’asse immaginario è la frontiera
che divide gli autovalori della matrice A in due categorie, quelli che danno luogo a modi naturali
convergenti e quelli che danno luogo a modi naturali divergenti.
In conclusione la condizione di stabilità si può esprimere come segue

Teorema 6. Un sistema lineare stazionario è


• internamente stabile se gli autovalori di A che hanno molteplicità geometrica uguale ed uno hanno
a parte reale non positiva e quelli che hanno molteplicità geometrica maggiore di uno hanno parte
reale negativa;
• asintoticamente stabile se gli autovalori hanno parte reale negativa.

In formule:
stabilità semplice (
Re(λ1i ) ≤ 0
Re(λ>1
i )<0

stabilità asintotica
Re(λi ) < 0

dove l’apice sul simbolo di autovalore indica la molteplicità geometrica.

8.3.c. Criterio di Lyapunov per i sistemi lineari

Con le precedenti premesse sulle forme quadratiche possiamo enunciare il criterio di Lyapunov per i
sistemi lineari stazionari che fornisce una condizione necessaria e sufficiente.

Teorema 7. Un sistema lineare stazionario è asintoticamente stabile se comunque fissata una matrice
P , simmetrica e definita positiva, esiste ed è unica la soluzione nell’incognita Q, simmetrica e definita
positiva, della seguente equazione matriciale

A0 Q + QA = −P

Quindi fissata ad arbitro P , usualmente si assume P = I, si deve risolvere l’equazione nell’incognita


Q che dovrà essere soluzione unica, simmetrica e definita positiva. In caso affermativo si può asserire
che il sistema è stabile altrimenti si può asserire che il sistema non è stabile. Il risultato è quindi più
186 8. Elementi di teoria della stabilità

forte che non nel contesto non lineare in cui l’impossibilità di concludere a partire da una funzione
definita positiva non consente di dichiarare l’assenza della proprietà.
Dimostrazione La dimostrazione della sufficienza della condizione è costruttiva, se infatti per una
fissata P , esiste Q soluzione definita positiva, si assuma

V (x) = x0 Qx >

risulta
V̇ (x) = ẋ0 Qx + x0 Qẋ = x0 A0 Qx + x0 QAx = x0 (A0 Q + QA)x = −x0 P x < 0

Quindi V̇ (x) è una funzione definita negativa, e lo è in tutto lo spazio. Inoltre V è radialmente
illimitata quindi lo stato zero è stabile asintoticamente globalmente.
Per la necessità invece si suppone che gli autovalori di A abbiano parte reale negativa. Sotto questa
ipotesi, Re(λi ) < 0, è ben definita la matrice
Z ∞
0
Q= eA t P eAt dt
0

Q è soluzione dell’equazione, come si può verificare per sostituzione diretta, infatti


Z ∞ Z ∞ Z ∞
0 0 0 0 ∞
d(eA t P eAt ) = A0 eA t P eAt dt + eA t P eAt dt A = [eA t P eAt ]0 = −I
0 0 0

dove l’ultima uguaglianza segue dalla stabilità asintotica della matrice A. Inoltre Q è simmetrica,
perchè coincide con la sua trasposta, ed è anche positiva perchè se si considera la forma quadratica
associata:
Z ∞ Z ∞ Z ∞
0 0
x0 Qx = x0 (eA t P eAt )dtx = x0 (eA T P eAT )xdt = z 0 (t)P z(t)dt > 0 con z(t) = eAt x
0 0 0

Per quanto riguarda l’unicità della soluzione si supponga che esista un’altra soluzione Q̃ 6= Q; risulterà,
in tal caso
A0 (Q − Q̃) + (Q − Q̃)A = O
0
Premoltiplicando per eA t e postmoltiplicando per eAt si ottiene
0 ¡ ¢ d 0
eA t A0 (Q − Q̃) + (Q − Q̃)A eAt = eA t (Q − Q̃)eAt
dt
Dunque
0
eA t (Q − Q̃)eAt = c∀t

e poiché eAt → 0, t → ∞, c = 0, cioè


Q − Q̃ = 0

Il criterio fornisce una condizione necessaria e sufficiente fondata sulla risoluzione di un sistema
n(n+1)
di 2 equazioni µ ¶
0 1
A= A0 Q + QA = −P
−5 −6
8.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 187

µ ¶µ ¶ µ ¶µ ¶ µ ¶
0 −5 Q11 Q12 Q11 Q12 0 1 −1 0
+ =
1 −6 Q12 Q22 Q12 Q22 −5 −6 0 −1
Per risolvere questo sistema si devono scrivere le equazioni che corrispondono ad uguagliare i coeffi-
cienti delle matrici
−1 = −5q12 − 5q12

0 = −5q22 + q11 − 6q12

essendo le matrici simmetriche basta eguagliare gli elementi della diagonale, quelli che si trovano da
una parte con tutti quelli corrispondenti a secondo membro. Gli elementi sono n(n+1) 2 . Questo in
definitiva è il numero di equazioni che bisogna risolvere per applicare il criterio.

8.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh

Il criterio di Routh consente di stabilire quanti sono gli zeri che hanno parte reale positiva di un dato
polinomio di grado n generico.

an λn + an−1 λn−1 + . . . + a0 = 0

Una considerazione preliminare deve essere fatta circa i coefficienti di un dato polinomio: si verifica
con facilità che se questi non hanno tutti lo stesso segno sicuramente ci sono degli zeri a parte reale
positiva. I coefficienti tutti dello stesso segno è quindi una condizione necessaria, ma ovviamente non
sufficiente, per garantire che tutti gli zeri abbiano parte reale negativa. Il soddisfacimento di questa
condizione deve quindi essere preliminarmente verificato, ed eventualmente imposto nella soluzione di
un problema in presenza di parametri, quando si vuole risolvere un problema di stabilità.
Se ad esempio il polinomio caratteristico di un sistema lineare del secondo ordine è

λ2 + (1 − k)λ + 2 = 0

la condizione k < 1 è necessaria (e nel caso in questione anche sufficiente) per la stabilità asintotica.

Il criterio di Routh si applica ad un polinomio qualsiasi e ci dice anche quanti zeri hanno parte
reale positiva. Esso consiste nella costruzione di una tabella e poi nella verifica del segno dei coefficienti
di una parte di questa tabella. Il criterio in esame estende la regola di Cartesio sulla corrispondenza
di soluzioni a parte reale positiva e negativa a variazioni e permanenze valutate sui coefficienti dei un
polinomio di secondo grado
ax2 + bx + c = 0

Nel caso specifico dell’equazione di secondo grado la regola di Cartesio si enuncia dicendo che ad ogni
variazione corrisponde una soluzione a parte reale positiva, ad ogni permanenza una a perte reale
negativa.

Costruzione della tabella di Routh


188 8. Elementi di teoria della stabilità

Con riferimento al generico polinomio di grado n, la tabella assume la forma


n an an−2 an−4
n−1 an−1 an−3 an−5 · · ·
bn−2 bn−3
cn−3 · cn−4 ·
in cui gli elementi, bj , della riga n − 1 sono calcolati mediante
¯ ¯ ¯ ¯
¯ an an−2 ¯¯ ¯ an an−4 ¯¯
¯ ¯
¯ an−1 an−3 ¯ ¯ an−1 an−5 ¯
bn−2 = bn−3 =
−an−1 −an−1
e quelli della riga di ordine n − 2, sono ancora calcolati con le stesse espressioni, ma con riferimento
alle due righe precedenti; e cosı̀ via.
A titolo di esempio si consideri il polinomio

λ5 + 3λ4 + 2λ3 − 2λ2 + 2λ + 4

si ottiene

5 1 2 2
4 3 −2 4
8 2
3 3 3 0
2 − 11
4 4
75
1 11
0 16

Nella costruzione della tabella gli elementi di una stessa riga possono essere moltiplicati per uno
stesso numero positivo senza che ciò alteri il risultato.
Conclusa la costruzione della tabella il criterio si riduce a contare il numero di variazioni di segno
che si riscontrano nel passaggio da un coefficiente all’altro della prima colonna.
• Il numero di variazioni è pari al numero degli zeri a parte reale positiva del polinomio dato.
Nel caso allo studio, il polinomio di grado 5 ha due zeri a parte reale positiva, gli altri tre hanno parte
reale negativa.

8.4.a. Casi critici

E’ importante osservare che si può incorrere in impedimenti nella costruzione della tabella.
Annullamento del primo elemento di una riga
Quando il primo elemento di una riga si annulla non è possibile procedere al calcolo della riga
successiva. L’impedimento può essere superato in diversi modi come spiegato nel seguito.

Indicato con j il numero dei primi elementi nulli della riga, una primo modo di operare consiste
nel sostituire la riga data con la stringa di numeri ottenuti sommando ad essa la stringa ottenuta
traslando di j posti a sinistra la riga in questione dopo averla moltiplicata per (−1)j .
8.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 189

Si consideri la seguente situazione


1 2 3
2 4
0 3

la procedura indicata conduce alla tabella

1 2 3
2 4
−3 3
6
3
il calcolo delle variazioni di segno tra gli elementi della prima colonne permette di concludere che vi
sono due zeri a parte reale positiva.
Come ulteriore esempio si consideri il polinomio

λ5 + 5λ3 + 10λ + 4
Seguendo la procedura indicata si perviene alla seguente tabella
1 5 10
4 0 4
4 9
−5 4
32
61/5

Un secondo modo di procedere consiste nel sostituire allo zero il simbolo ² per rappresentare un
numero positivo e ’piccolo’. La tabella del primo esempio considerato diventa in tal caso

1 2 3
2 4
² 3
−4²−6
²
3

Il computo delle variazioni di segno, ricordando che ε rappresenta un numero positivo ’piccolo’, con-
sente di affermare, anche in questo caso, che vi sono due zeri a parte reale positiva.

Un terzo modo di procedere di fronte all’impedimento indicato consiste nel modificare il polinomio
dato moltiplicandolo per un binomio con zero negativo;

d1 (λ) = d(λ)(λ + 1)

si ottiene un nuovo polinomio di grado n + 1 con nuovi coefficienti a cui applicare il criterio di Routh.
Si consideri, ad esempio, il polinomio

λ4 + 2λ3 + 3λ2 + 6λ + 4
190 8. Elementi di teoria della stabilità

1 3 4
2 6
0 4

da cui
(λ + 1)(λ4 + 2λ3 + 3λ2 + 6λ + 4) =

λ5 + 3λ4 + 5λ3 + 9λ2 + 10λ + 4

1 5 10
3 9 4
6 26
−1 1
32
1

Annullamento di un’intera riga

Un ulteriore impedimento nella costruzione della tabella è rappresentato dall’annullarsi di un’intera


riga.
Si noti che tale riga è necessariamente di ordine dispari, in quanto la proporzionalità di due righe
consecutive si può avere solo se hanno lo stesso numero di elementi, ciò che può accadere solo se hanno
ordine dispari e pari successivo in ordine decrescente. Questo fatto è bene evidente se si considera la
struttura della tabella corrispondente al seguente polinomio

λ6 + 2λ5 + 3λ4 + 4λ3 + λ2 + λ + 1

6 1 3 1 1
5 2 4 1
4 x x x
3 x x
2 x x
1 x
0 x

Si supponga ora che si abbia una riga nulla. Ad esempio la situazione sia quella qui esemplificata
5 1 3 1
4 1 3 1
3 0 0

In questa circostanza si può concludere che il polinomio considerato, d(λ), è il prodotto di due polinomi

d(λ) = d1 (λ)d2 (λ)

il primo, d1 , con zeri che hanno parte reale caratterizzata dalle variazioni di segno degli elementi della
prima colonna della tabella sinora costruita (gli zeri di d1 a parte reale positiva sono tanti quante le
variazioni di segno che sono apparse nella prima colonna della tabella costruita fino a quel momento);
8.4. Criteri di stabilità per i sistemi lineari: il criterio di Routh 191

Il secondo, d2 , con potenze pari della variabile e di grado uguale all’indice della riga che precede la
riga che si è annullata. I coefficienti, a partire da quello di grado massimo, sono quelli che compaiono
nella riga precedente quella nulla. Nel caso in esame, d1 ha grado uno e zero negativo, d2 ha grado 4
ed è pari a

d2 (λ) = λ4 + 3λ2 + 1

Per quanto riguarda lo studio della parte reale degli zeri di questo nuovo polinomio si procede alla
costruzione della tabella di Routh a partire dal polinomio ottenuto derivano rispetto a λ d2 stesso.
Nel caso in esame
d 4
(λ + 3λ2 + 1) = 4λ3 + 6λ

La sostituzione di tali coefficienti a quelli della riga nulla consente di continuare la costruzione della
tabella.
5 1 3 1
4 1 3 1
3 2 3
2 3 2
5
1 3
0 2

Le variazioni di segno sulla prima colonna esprimono il numero di zeri a parte reale positiva del
polinomio dato.

Una particolarità importante in questa fase dello studio è che se non ci sono variazioni di segno si
potrà desumere al più la stabilità semplice, e non quella asintotica (che avremmo avuto se non avessimo
incontrato impedimenti nella costruzione della tabella). Infatti, come si potrebbe verificare andando
a calcolare gli zeri nel caso in esame, o più in generale come risulta dallo studio matematico degli
zeri di un polinomio con termini di ordine solo pari, gli zeri di d2 (λ), hanno una doppia simmetria
(simmetria quadrantale, cioè una simmetria rispetto a ciascun asse del piano complesso). Ciò che
impone, nella migliore delle ipotesi l’appartenenza degli zeri all’asse immaginario. In conclusione,
dunque, se non si hanno variazioni di segno è necessaria la verifica della molteplicità geometrica degli
zeri sull’asse immaginario per concludere sulla stabilità semplice del sistema.

Osservazioni

Qualche considerazione conclusiva riguarda la potenzialità del metodo.

Si può stabilire non soltanto quanti sono gli zeri di un certo polinomio che sono a sinistra dell’asse
immaginario, ma anche quanti sono gli zeri che sono a sinistra di un asse prefissato che abbia coordinate
sull’asse reale pari ad α. A tal fine è sufficiente effettuare una traslazione di assi in α ed esprimere il
polinomio d(λ) secondo le nuove coordinate ⇒ d(λ + α) Assegnata ad esempio, la matrice
µ ¶
0 1
A=
−20 −9
192 8. Elementi di teoria della stabilità

lo studio degli autovalori conduce al polinomio caratteristico

λ2 + 9λ + 20 = 0

il criterio di Routh (Cartesio) assicura che sono a parte reale negativa. L’ulteriore verifica che gli
autovalori abbiano parte reale minore di −3, può essere fatta sul polinomio

(λ − 3)2 + 9(λ − 3) + 20 = 0

che si riduce a
λ2 + 3λ + 2 = 0

ed ha, quindi, zeri a parte reale negativa. In conclusione, gli zeri del polinomio dato hanno parte reale
inferiore a −3

Considerazioni analoghe consentono di comprendere che il criterio di Routh può essere utilizzato
per verificare se gli zeri appartengono ad un settore conico del piano complesso. Una tale circostanza,
se si ricorda il significato dei parametri fisici associati agli autovalori complessi, garantisce la presenza
di evoluzioni temporali con smorzamento superiore ad un valore prefissato e coincidente con il sin θ,
essendo θ l’angolo del settore conico. A tal fine si consideri la trasformazione di variabile
1
λ ← λejθ

ed il polinomio, a coefficienti reali e di grado 2n

D(λ) = d(λejθ )d(λe−jθ )


1 1

L’applicazione del criterio di Routh a tale polinomio consente di calcolare il doppio degli zeri del
polinomio d(λ) che sono esterni al cono di centro (0, 0 ed angolo 2θ. Si tratta degli zeri che sono al di
sopra dell’asse immaginario ruotato di θ e al di sotto dell’asse immaginario ruotato di −θ.

8.5. Un criterio di stabilità con incertezza sui parametri

da sviluppare

Sia n ≥ 1, e siano ak e ak , k = 0, 1, .., n − 1, gli estremi di variabilità dei coefficienti del polinomio
caratteristico di un’assegnata matrice.

d(λ) = a0 + a1 λ + · · · + an−1 λn−1 + λn

Infine sia N l’insieme dei polinomi omologhi al polinomio caratteristico i cui coefficienti soddisfano

ai ≤ ai ≤ ai i = 1, · · · , n − 1

Si definiscano i seguenti polinomi


8.6. Studio della stabilità mediante l’approssimazione lineare 193

g1 (λ) = a0 + a2 λ2 + a4 λ4 + · · ·

g2 (λ) = a0 + a2 λ2 + a4 λ4 + · · ·

h1 (λ) = a1 + a3 λ3 + a5 λ5 + · · ·

h2 (λ) = a1 + a3 λ3 + a5 λ5 + · · ·

an = an = 1

Kij (λ) = gi (λ) + hj (λ)

Il matematico russo Karitonov ha dimostrato che ogni polinomio in N è stabile (ha zeri a parte
reale negativa) se e solo se lo sono K11 , K12 , K21 , K22 .

8.6. Studio della stabilità mediante l’approssimazione lineare

Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare
applicando il criterio di Lyapunov? Un metodo di indagine per un certo aspetto complementare a
quello di Lyapunov è quello fondato sullo studio della stabilità del sistema lineare approssimante il
sistema dato intorno allo stato di equilibrio di cui si vuole studiare la tabilità.

Come è noto la linearizzazione di un sistema dato intorno ad uno stato di equilibrio

ẋ(t) = f (x(t)) f (xe ) = 0

posto
ξ(t) = x(t) − xe

fornisce  ∂f1 ∂f1 


∂x1 ... ∂xn
 
˙ = Aξ(t)
ξ(t) A = J(xe ) =  ... 
∂fn ∂fn
∂x1 ... ∂xn

Come vedremo, la stabilità asintotica dell’approssimazione lineare implica la stabilità asintotica locale
dello stato xe rispetto alla dinamica non lineare.
Poiché lo studio riguarda la stabilità asintotica, è opportuno assicurarsi xe sia uno stato di
equilibrio isolato. Come è noto, una condizione sufficiente, ma non necessaria, è che

|J(xe )| =
6 0
194 8. Elementi di teoria della stabilità

Teorema 8. Lo stato di equilibrio xe della dinamica nonlineare assegnata


• è localmente asintoticamente stabile se il sistema lineare approssimante è asintoticamente stabile;
• è instabile se il sistema lineare approssimante è instabile per la presenza di almeno un autovalore
a parte reale positiva.

La dimostrazione della prima condizione consiste nel verificare che una funzione per l’approssimazione
lineare è una funzione di Lyapunov locale per il sistema non lineare. Si consideri, a tale proposito, la
funzione
V (ξ) = ξ 0 Qξ
con Q soluzione di A0 Q + QA = −P , ciò che assicura che essa sia una funzione di Lyapunov per il
lineare. La stessa funzione
V (x) = (x − xe )0 Q(x − xe )
funzione è una funzione di Lyapunov locale per il sistema nonlineare; infatti è definita positiva intorno
ad xe e la sua derivata lungo il moto è definita negativa in un opportuno intorno di xe .
da sviluppare
Il teorema precedente fornisce condizioni sufficienti di stabilità ed instabilità. Nelle circostanze in cui la
matrice dinamica abbia autovalori a parte reale negativa e nulla, indipendentemente dalla molteplicità
e quindi anche in presenza di instabilità del linearizzato, non è possibile inferire nulla circa la stabilità
o meno del sistema non lineare. Un esempio elementare a tale proposito è rappresentato dalla seguente
dinamica scalare
ẋ = −x3
che, come è facile verificare impiegando il criterio di Lyapunov, ha in x = 0 un equilibrio asintotica-
mente globalmente stabile. Mentre l’applicazione del criterio fondato sullo studio dell’approssimazione
lineare non consente di concludere alcunché.
Per quanto riguarda l’instabilità è possibile dimostrare che se l’approssimazione lineare è instabile per
la presenza di almeno un autovalore a parte reale positiva lo stato di equilibrio xe , del sistema non
lineare dato, è instabile. Altrimenti nulla può essere deciso sulla stabilità del sistema nonlineare.
A titolo esemplificativo, ad un’approssimazione lineare
µ ¶
−1 0
J(xe ) =
1 −3
corrisponderebbe la stabilità di xe nel nonlineare, a
µ ¶
−1 0
J(xe ) = A =
1 3
l’instabilità, a µ ¶ µ ¶
−1 0 0 0
A= A=
1 0 1 0
situazioni indecidibili.
8.7. Esempi di applicazione 195

8.7. Esempi di applicazione

Dinamica del pendolo


Si considerino ancora le equazioni che rappresentano la dinamica di un pendolo

ẋ1 = x2

k g
ẋ2 = − x2 − sin x1
m l
e gli stati di equilibrio
µ ¶ µ ¶
2hπ (2h + 1)π
= x1e = x2e h = 0, 1, ..
0 0

che come è noto corrispondono al pendolo nelle posizioni verticale verso il basso, e verticale verso
l’alto con velocità iniziale nulla.
Come abbiamo già verificato tali stati di equilibrio, hanno proprietà diverse: quello verticale se per-
turbato tende ad essere abbandonato, l’altro viceversa se perturbato tende ad essere mantenuto. Il
metodo dell’approssimazione lineare restituisce, come è ovvio, lo stesso risultato. L’approssimazione
lineare in corrispondenza di ciascuno di questi stati di equilibrio può essere calcolata a partire dalla
matrice jacobiana µ ¶
0 1
J(x) = −g −k
l cos x1 m | xe

Negli stati di equilibrio corrispondenti alla posizione verticale verso l’alto si ha


µ ¶
0 1
A = g −k
l m

negli altri, invece: µ ¶


0 1
Ā = −g −k
l m

Con la matrice dinamica di tale forma, lo studio della stabilità è immediato in quanto gli elementi
dell’ultima riga rappresentano proprio i coefficienti del polinomio caratteristico cambiati di segno. Si
ha quindi nel primo caso
µ ¶
0 1 k g
Ā = g −k → |λI − A| = λ2 + λ − polinomio caratteristico
l m m l

quindi una variazione nei coefficienti cioè uno zero a parte reale positiva (autovalore a parte reale
positiva), il che implica l’instabilità dello stato di equilibrio rispetto alla dinamica non lineare. Nel
secondo µ ¶
0 1 k g
A = −g −k → |λI − A| = λ2 + λ +
l m m l
e due zeri a parte reale negativa, cioè stabilità asintotica dell’approssimazione lineare, quindi stabilità
asintotica locale della posizione di equilibrio, corrispondente al pendolo verso il basso.
196 8. Elementi di teoria della stabilità

Equazione logistica
La seguente equazione differenziale non lineare

ẋ(t) = ax(t) − kx2 (t)

viene assunta a rappresentare la crescita di una popolazione in assenza di limitazione sulle risorse.
Infatti la soluzione di un’equazione di questo tipo bene rappresenta la crescita di una popolazione
nelle citate condizioni. In tale equazione ci sono due valori di equilibrio:

x(a − kx) = 0

 xe1 = 0
a
 xe2 =
k
Si può utilizzare il metodo dello studio della stabilità mediante linearizzazione per studiare la stabilità
di questi due stati di equilibrio. La matrice jacobiana in questo caso è lo scalare:

J(xe ) = (a − 2kx)xe

e calcolata nei due stati di equilibrio diventa

per xe1 si ha J(xe1 ) = a

e
per xe2 si ha J(xe2 ) = −a

Il risultato è ora evidente: essendo a una costante positiva il primo stato di equilibrio è instabile,
mentre lo stato di equilibrio ka è stabile asintoticamente.

Le precedenti considerazioni trovano riscontro nel seguente esempio:

Modello preda-predatore

Come già visto il modello adatto a rappresentare l’interazione tra due specie è del tipo
(
ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)

dove x1 e x2 rappresentano la densità delle due popolazioni e si è assunto che la popolazione preda (x1 )
cresce secondo un andamento eponenziale, in assenza di limitazioni di risorse mentre la popolazione
predatrice (x2 ) decresce in assenza di interazione con la preda, in quanto il suo unico nutrimento è
la preda stessa, secondo un andamento esponenziale caratterizzato dal coefficiente −c. I coefficienti
a, b, c, d sono tutti positivi. (
x1 (a − bx2 ) = 0
x2 (−c + dx1 ) = 0
8.8. La stabilità esterna nei sistemi lineari 197

Gli stati di equilibrio sono facilmente calcolati e pari a

a c
x1e = x2e =
b d

L’applicazione del metodo della linearizzazione non consente di concludere, come si può verificare
facilmente in quanto gli autovalori dell’approssimazione lineare hanno parte reale nulla. Si è quindi
in una condizione in cui non si può inferire nulla circa la stabilità dello stato di equilibrio del sistema
non lineare.

Una situazione diversa risulta se si descrive la crescita della preda impiegando l’equazione logis-
tica. Si ha in tal caso
(
ẋ1 (t) = ax1 (t) − bx1 (t)x2 (t) − kx21 (t)
ẋ2 (t) = −cx2 (t) + dx1 (t)x2 (t)
con stati di equilibrio soluzioni del sistema
(
x1 (a − bx2 − kx1 ) = 0
x2 (−c + dx1 ) = 0

 (a − bx2 − kx1 ) = 0
c
 (−c + dx1 ) = 0 → x1 =
d
µ ¶
c
a − bx2 − k =0
d

a kc
x2 = −
b db
µ c

d = xe
a
b − bdkc

appare, quindi, un nuovo stato di equilibrio che è positivo quando ad − kc > 0 o, ciò che è lo stesso,
a c
k > d . Tale condizione si esprime dicendo che la capacità portante della specie preda deve essere
sufficientemente elevata per poter reagire alla capacità di preda del predatore. Tale stato di equilibrio
è positivo ed ha un significato fisico, nel contesto che si sta esaminando.

L’applicazione del metodo rispetto a tale stato di equilibrio consente di verificare la sua stabilità asin-
totica locale. I passaggi sono lasciati per esercizio. Il risultato matematico spiega bene un fenomeno
che in presenza di condizioni di competizione tra due specie preda - predatore, si verifica nella re-
altà. A seguito di una perturbazione rispetto a una data condizione di equilibrio insorge un fenomeno
oscillatorio che converge verso lo stato di equilibrio.
198 8. Elementi di teoria della stabilità

8.8. La stabilità esterna nei sistemi lineari

riscrivere con raggiungibilità e osservabilità


Si definisce stabile esternamente un sistema dinamico che genera uscite limitate in corrispondenza di
ingressi limitati. Più precisamente un sistema è detto stabile esternamente nello stato x0 se per ogni
positivo M ed ogni ingresso limitato in norma, ū(t)≤M ¯ , le uscite sono limitate in norma, ȳ(t)≤N
¯ M,x0
per un opportuna costante positiva NM,x0 . Se la proprietà vale in x0 = 0 il sistema è detto stabile
nello stato zero. Se vale in ogni stato iniziale, esiste cioè NM che non dipende da x0 , allora il sistema
è detto esternamente stabile.

ku(t)k < M ⇒ ky(t)k < NM,x0


Z t
At
y(t) = Ce x0 + W (t − r)u(r)dr
0
At
Ce = ψ(t)

1. kψ(t)k < k1 ∀t ≥ 0

Z t
2. kW (r)kdr < k2 ∀t ≥ 0
0

La condizione 1. è equivalente a ( ¶
Re(λ0,1
i )≤0

Re(λ0>1
i )<0
cioè: gli autovalori associati a modi naturali osservabili devono avere parte reale non positiva se sono
semplici e parte reale negativa se sono multipli. La condizione 2. è equivalente a

Re(λ0,e
i )<0

cioè: gli autovalori associati a modi naturali eccitabili ed osservabili devono avere parte reale negativa.
La 2. è condizione necessaria e sufficiente di stabilità esterna nello stato zero; la 1. e la 2.
simultaneamente sono condizioni necessarie e sufficienti per la stabilità esterna in qualsiasi stato.

La prova della sufficienza è semplice


sufficiente: Z t
ky(t)k = kψ(t)x0 + W (t − r)u(r)drk
0
Z t
≤ kψ(t)k · kx0 k + kW (t − r)ku(r)dr
0
≤ k1 kx0 k + k2 M = Nx0 ,M
necessità:
se 1. o 2. non valgono esiste almeno un elemento della/e matrice/i non limitato (nella ψ(t) oppure
8.9. Condizioni e criteri per i sistemi lineari a tempo discreto 199

non limitato nell’integrale in W (t)) scegliendo x0 e/o u = cost è allora possibile mostrare che g non
è limitata.

- Legame con la stabilità interna Esempio


   
−1 2 0 1
A =  0 0 0 B = 0 C = (1 1 0) ⇐
−1 1 1 0
   
0 2 0 2
λi = −1  0 1 0 u 1 = 0 ⇒ u1 =  0  v11 = ( 12 −1 0 )
−1 2 2 1
 
2
λ2 = 0 u1 =  1  v11 = ( 0 1 0 )
1
   
−2 2 0 0
λ3 = 1  0 −1 0 u1 =  0  v11 = ( − 12 0 1 ) − ∆0,e = {λ1 }
−1 1 0 1
Λ = (λ1 , λ2 , λ3 ) Λ0 = {x1 , λ2 } Λe = {λ1 , λ3 }

8.9. Condizioni e criteri per i sistemi lineari a tempo discreto

Premesso che le definizioni rimangono invariate, lo studio sinora condotto consente di comprendere
che la condizione di stabilità asintotica dei sistemi lineari a tempo discreto è che gli autovalori abbiano
modulo minore di uno. La verifica può essere condotta impiegando diversi criteri; tra questi quelli
qui di seguito esposti.
Una primo criterio è rappresentato dal criterio di Routh stesso.
Con riferimento al polinomio

d(z) = an z n + an−1 z n−1 + . . . + a0

la sostituzione di variabile
s+1
z←
s−1
corrisponde ad effettuare una trasformazione del cerchio unitario al semipiano negativo del piano
complesso. Sul polinomio in s è ora possibile applicare il criterio di Routh ed ottenere le informazioni
sulla stabilità; infatti gli zeri in z con modulo > 1 corrispondono a zeri in s a parte reale maggiore di
zero.

Un secondo criterio è il cosiddetto criterio di Jury che consiste, al pari di quello di Routh, nel verificare
che tra i coefficienti di una tabella costruita ad hoc siano verificate precise condizioni.
200 8. Elementi di teoria della stabilità

a0 a1 ··· ··· ··· an


an an−1 ··· ··· ··· a0 ¯ ¯
¯ a0 an−k ¯
b0 ··· ··· ··· bn−1 con ¯
bk = ¯ ¯,
bn−1 ··· ··· ··· b0 an ak ¯
¯ ¯
c0 ··· ··· cn−2 ¯ b0 bn−k−1 ¯¯
¯
ck = ¯ ,
cn−2 ··· ··· c0 bn−1 bk ¯
.. .. ..
. . . etc.
t0 t1 t2
t2 t1 t0

Teorema 9. Un sistema lineare stazionario a tempo discreto è asintoticamente stabile se e solo se,
costruita la tabella di Jury le seguenti condizioni sono soddisfatte

d(1) > 0,
(−1)n d(−1) > 0,
|an | > |a0 |, |b0 | > |bn−1 |, · · · |t0 | > |t2 |.

A titolo di esempio il polinomio


z 2 + z + O.5 == 0

ammette la tabella caratterizzata dalla sola riga

1 1 0, 5

e si verifica immediatamente il soddisfacimento delle condizioni di stabilità asintotica.

Come per i sistemi a tempo continuo un ulteriore criterio di indagine sulla stabilità è rappresentato
dal criterio di Lyapunov. Si tratta di un criterio di grande generalità e potenzialità di impiego non
limitato al contesto lineare.

8.9.a. Il criterio di Lyapunov

Con riferimento al sistema a tempo discreto

x(t + 1) = f (x(t)) f (xe ) = xe

lo stato di equilibrio xe è localmente stabile, asintoticamente stabile, se esiste una funzione V (x)
definita positiva in un certo intorno dello stato di equilibrio, Ixe , e la sua differenza prima:

∆V (x) = V (x(t + 1)) − V (x(t))


8.9. Condizioni e criteri per i sistemi lineari a tempo discreto 201

è definita negativa in Ixe .


Il criterio quindi si enuncia allo stesso modo e questa volta si deve trovare una funzione la cui
differenza prima sia definita (semidefinita) negativa. Ancora una volta il criterio dà vita a condizioni
che sono soltanto sufficienti, nel senso che se in corrispondenza di V (x) definita positiva la ∆V (x)
non risulta definita (semidefinita) negativa non si può decidere della stabilità dello stato di equilibrio.
Esempio: 
 x2 (t)

 x1 (t + 1) = 1 + x (t)2
2

 x (t)
 x2 (t + 1) = 1
1 + x2 (t)2
lo stato di equilibrio è xe = 0 e posto:
V (x) = x21 + x22

¡ ¢
∆V (x) = V f (x(t)) −V (x(t))
¡ ¢ x22 x21
V f (x(t)) = + =
(1 + x22 )2 (1 + x22 )2
x21 + x22 V (x)
= 2 =
(1 + x2 ) 2 (1 + x22 )2
V (x)
∆V (x) = − V (x)
(1 + x22 )2
à !
1
∆V (x) = − 1 V (x) ≤ 0
(1 + x22 )2

Questa ultima quantità è semidefinita negativa e quindi lo stato di equilibrio è uno stato stabile, in
realtà è uno stato di equilibrio globalmente stabile per le note condizioni di illimitatezza della V e di
validità delle condizioni su tutto lo spazio.
Anche con riferimento ai sistemi a tempo discreto nel caso lineare il criterio si particolarizza
dando vita a condizioni necessarie e sufficienti di facile verifica.

8.9.b. Il criterio di Lyapunov per i sistemi lineari stazionari a tempo discreto

x(t + 1) = Ax(t) xe = Axe ⇒ (A − I)xe = 0

Condizione necessaria e sufficiente per la stabilità asintotica del sistema dato, è che la seguente
equazione
A0 QA − Q = −P

ammetta soluzione unica in Q simmetrica e definita positiva, per ogni P fissata, anche essa simmetrica
e definita positiva.
202 8. Elementi di teoria della stabilità

Quindi la formulazione è identica al caso precedente, ciò che cambia è la struttura dell’equazione.
Anche in questo caso in genere si fissa P = I; se questa equazione non ammette una soluzione, se la
soluzione non è unica, se non è definita positiva, si può concludere che il sistema non è asintoticamente
stabile.
Per la dimostrazione si procede come nel caso dei sistemi a tempo continuo. Per la sufficienza, si fissi

V (x) = x0 Qx

∆V (x) = V (x(t + 1)) − V (x(t))


= x0 (t + 1)Qx(t + 1) − x0 (t)Qx(t)
= x0 A0 QAx − x0 Qx
= x0 (A0 QA − Q)x
= −x0 P x

ma P è definita positiva e quindi −x0 P x è globalmente definita negativa. Ciò dimostra la stabilità
asintotica globale del sistema.

Per la necessità si procede in modo formalmente analogo a quanto visto nel caso a tempo continuo
mostrando che

X
Q= A0k P Ak
0

è soluzione dell’equazione unica simmetrica e definita positiva. Anche in questo caso il criterio si
riconduce alla risoluzione di n(n+1)
2 equazioni lineari.

Interessante è il confronto tra il criterio di Routh e quello di Lyapunov in merito alla complessità
dei calcoli in termini di numeri di operazioni. Ovviamente tutto dipende dalla struttura della matrice
dinamica; in presenza di un numero elevato di elementi nulli nella matrice A può risultare conveniente
applicare il criterio di Routh in quanto non si deve dimenticare che per applicare il criterio di Routh
è necessario preliminarmente calcolare il polinomio caratteristico.

Dunque nel contesto lineare, anche per i sistemi a tempo discreto, il criterio di Lyapunov si
particolarizza dando vita a condizioni necessarie - sufficienti. Ciò non accade nel contesto non lineare
ove la possibilità di pervenire ad una verifica positiva della stabilità è collegata al calcolo di una
funzione che soddisfi alle condizioni note. Questo aspetto rende di difficile applicazione il metodo nei
casi in cui la verifica non abbia avuto esito positivo impiegando le funzioni definite positive quadratiche
elementari.
Che cosa fare quando non si riesce direttamente a studiare la stabilità di un sistema non lineare
applicando il criterio di Lyapunov ? Anche nel contesto discreto un ruolo complementare è svolto dal
metodo fondato sullo studio della stabilità sulla base dell’approssimazione lineare.
8.9. Condizioni e criteri per i sistemi lineari a tempo discreto 203

8.9.c. Studio della stabilità mediante linearizzazione

Il metodo è relativo all’impiego dell’approssimazione lineare intorno ad uno stato di equilibrio per
studiare la stabilità di uno stato di equilibrio di un sistema non lineare.

Come è noto la linearizzazione di un sistema dato intorno ad uno stato di equilibrio

Algoritmo per il calcolo della radice quadrata


La seguente equazione
x2 − a = 0

può essere risolta per un fissato a impiegando il seguente algoritmo iterativo

x(t + 1) = x(t) + a − x2 (t)

Per tale algoritmo lo stato



xe = a

è di equilibrio, come è immediato verificare. La verifica della stabilità di tale stato di equilibrio
equivale alla verifica della convergenza dell’algoritmo per il calcolo della radice quadrata. Se si ha

stabilità intorno a a, ciò assicura che l’implementazione dell’algoritmo, consente di convergere verso

la soluzione: a.

L’applicazione del metodo di analisi fondato sulla linearizzazione consente di verificare, che per op-
portuni valori del parametro a, l’algoritmo in questione converge. Si ottiene, infatti,


J(xe ) = (1 − 2 a)



0 < a < 1 ⇔ |1 − 2 a| < 1

Da questa analisi si ricava che per 0 < a < 1 la soluzione xe = a può essere senz’altro calcolata con
l’algoritmo dato.
Il risultato ottenuto ha una validità locale e rimane non definito il massimo scostamento ammesso
dalla condizione iniziale rispetto al valore vero (quello di equilibrio). Un’informazione più precisa circa
l’eventuale scostamento, la regione di stabilità, può essere ottenuto utilizzando il criterio di Lyapunov
con
V (x) = |a − x2 |

Il calcolo della V (x(t + 1)) e ∆(V (x)) consentono di verificare senza difficoltà se si assume 0 < a < 1
che
0≤x≤1

definisce la regione di stabilità.

Dinamica del prezzo in condizioni di equilibrio in presenza di due beni


204 8. Elementi di teoria della stabilità

In presenza di due beni concorrenti, la domanda e l’offerta possono con buona approssimazione
rappresentate dalle seguenti equazioni
(
d(t + 1) = Ap(t + 1) + d0
o(t + 1) = Ep(t) + o0

dove A, E, d0 e o0 sono matrici e vettori di dimensione due. In condizioni di equilibrio (p(t + 1) =


o(t + 1), la dinamica del prezzo evolve secondo l’equaione alle differenze

p(t + 1) = A−1 Ep(t) + A−1 (o0 − d0 )


µ ¶ µ ¶
d1 −α β
d= A=
d2 γ −δ
α, β, γ, δ > 0

Supponendo E = I si studi la precedente equazione e si individuino quali sono le condizioni affinchè


l’equilibrio sia stabile asintoticamente. Si tratta di un’analisi di stabilità di un sistema lineare a tempo
discreto, e ammette un’interpretazione in termini dei coefficienti α, β, γ, δ che hanno un interessante
significato in termini economici.

8.10. Sistemi interconnessi: la stabilità

Introduzione di un criterio per lo studio della stabilità dei sistemi interconnessi.

Per comprendere la generalità del criterio si deve fare riferimento al calcolo della rappresentazione
con lo stato di un sistema S a partire dalle rappresentazioni dei sottosistemi. Quindi a partire da un
sistema S definiti l’ingresso e l’uscita, aperti alcuni nodi per rendere il grafo di flusso aciclico, avendo
indicato con S = sorgenti e P = pozzi alcune parti della separazione dei nodi, si è praticamente
associata una rappresentazione con lo stato al sistema con i nodi aggiuntivi, nodi ingresso e nodi di
uscita, una rappresentazione del tipo:

 ẋ = Ax + Bu + Bs S

y = Cx


p = Cp x

quindi la rappresentazione con lo stato complessiva è:


(
ẋ = Ax + Bu + Bs Cp x
y = Cx

ottenendo un sistema del tipo: (


ẋ = (A + Bs Cp )x + Bu
y = Cx
8.10. Sistemi interconnessi: la stabilità 205

A partire dalle matrici dinamiche dei sottosistemi Si che caratterizzano il sistema complessivo cioè a
partire dalle (Ai , Bi , Ci ) viene prima individuata la matrice A che caratterizza il sottosistema S poi
a partire da questa viene individuata la matrice (A + Bs Cp ) che è la matrice dinamica del sistema
complessivo, ora si potrebbe verificare facilmente che in un sistema interconnesso caratterizzato dal
fatto che il grafo di flusso non ha cicli, la proprietà di stabilità è mantenuta, cioè è equivalente alla
proprietà di stabilità dei sottosistemi; il sistema complessivo è stabile se e soltanto se sono stabili i
sottosistemi.
In realtà la cosa si complica per la presenza di alcuni cicli, i quali possono comportare delle modifiche
per quanto riguarda la proprietà di stabilità, infatti la matrice dinamica cambia e da A diventa
(A + Bs Cp ).
In sostanza queste considerazioni suggeriscono il seguente fatto: dal punto di vista della stabilità
questo sistema interconnesso è equivalente ad un sistema del tipo:
(
ẋ = Ax + Bs u
y = −Cp x

in cui si fa una controreazione unitaria, cioè si pone

u=v−y

Ciò significa che in realtà lo studio della stabilità di un sistema a controreazione unitaria è uno studio
abbastanza generale, perchè la matrice dinamica che si ottiene per rappresentare sistema interconnesso
generico, quando viene adottata la suddetta procedura, è una matrice che ha formalmente la struttura
analoga a quella che si ottiene quando si considera un sistema a controreazione unitaria.
Quindi per studiare la stabilità del sistema complessivo, ci si può ricondurre allo studio della stabilità
di un sistema a controreazione unitaria, di un opportuno sistema a controreazione unitaria dove le
matrici degli ingressi e delle uscite sono definite dalle interconnessioni secondo il criterio visto.

Lo studio della stabilità è quindi ricondotto allo studio di un sistema a controreazione unitaria.

L’analisi sarà condotta a partire da un sistema S modificato mediante una controreazione unitaria;
si assume di conoscere le proprietà di stabilità del sistema S. Tale conoscenza si esprime in concreto
nelle del segno della parte reale degli autovalori.

Il risultato che viene nel seguito esposto riguarda lo studio della stabilità a partire dall’indagine del
comportamento in frequenza. Il metodo prende il nome dallo studioso che l’ha proposto.Si tratta del
criterio di Nyquist.

Alcuni fatti preliminari. Assegnato il sistema S, strettamente causale (D = 0),


(
ẋ = Ax + Bu
u=v−y
y = Cx
(
ẋ = (A − BC)x + Bv
Se :
y = Cx
206 8. Elementi di teoria della stabilità

dAP (s) = |sI − A| ⇒ polinomio caratteristico a ciclo aperto

dCH (s) = |sI − A + BC| ⇒ polinomio caratteristico a ciclo chiuso

Il sistema complessivo risulterà stabile se il secondo polinomio ha autovalori a parte reale negativa.
Alcuni risultati preliminari devono essere messi in luce. Il primo è rappresentato dalla seguente
uguaglianza

dCH (s)
= |I + F (s)| = |I + C(sI − A)−1 B|
dAP (s)

Infatti
|sI − A + BC| = |sI − A| × |I + (sI − A)−1 BC|

inoltre
vertI + (sI − A)−1 BC| = |sI − A||I + C(sI − A)−1 B|

come segue dall’identità matriciale

|Im×m + P Q| = |In×n + QP |

per una generica coppia di matrici P , (m × n), e Q, (n × m). Dalle precedenti uguaglianze si ottiene

|sI − A + BC| = |sI − A||I + C(sI − A)−1 B|

cioè
dCH (s)
= |I + C(sI − A)−1 B|
dAP (s)
Un ulteriore risultato preliminare riguarda la variazione di fase che subisce un polinomio P (s) di
variabile complessa, calcolato in jω, quindi P (jω), quando ω nel piano complesso varia da −∞ a
+∞.
P (jω) = k(jω − p1 ) · · · (jω − pn )

Qual’è la variazione di fase che subisce questo numero complesso quando ω varia da −∞ a +∞?

∆ϕ (p) = variazione di fase complessiva

Si asssume, in una prima fase che non vi siano zeri a parte reale nulla. Si devono distinguere due
situazioni: il caso di uno zero positivo dal caso di uno zero negativo.
Il vettore (jω − pi ) generalmente permette di comprendere come varia la fase di ciascuno dei termini
(jω − pi ), la variazione di fase per ogni pi positivo è −π. Per quanto riguarda invece gli zeri con parte
reale negativa pj̇, stesse considerazioni con variazioni di fase +π in senso orario.
Siccome questi sono fattori, la variazione di fase complessiva sarà uguale alla somma delle variazioni
di fase dei singoli fattori, che sono appunto −π per ciascuno zero a parte reale positiva e +π per
ciascuno zero a parte reale negativa. Se il polinomio è di grado n:

∆ϕ (p) = (n − np )π − np π
8.10. Sistemi interconnessi: la stabilità 207

In base alle considerazioni precedenti

dCH (s)
∆ϕ ( ) = ∆ϕ (1 + F )
dAP (s)
e
∆ϕ (1 + F ) = ∆ϕ + (dCH ) − ∆ϕ(dAP ) =
= (n − zp )π − zp π − (n − pp )π + pp π =
= (−zp + pp )2π
ove si è indicato con zp il numero di autovalori Re > 0 nel sistema a ciclo chiuso Se con pp il numero
di autovalori con parte reale positiva nel sistema S

Si ha la stabilità asintotica del sistema a controreazione se e soltanto se zp = 0. Ciò, consente di


formulare la condizione di stabilità in termini di variazione di fase di (1 + F ), calcolato in jω al
variare di ω da −∞. Tale condizione si esprime:

∆ϕ (1 + F ) = pp · 2π

questo è il criterio di Nyquist, e si enuncia dicendo:

N = pp

Si ha stabilità asintotica del sistema a controreazione se e soltanto se N , il numero di giri attorno allo
zero che competono alla variazione di fase di 1 + F (jω) quando ω varia da −∞ a +∞, è uguale a pp ,
il numero di autovalori a parte reale positiva del sistema in catena diretta
Se si tiene conto che il vettore (1 + F ) in 0 è uguale al vettore F in (−1, j0); una formulazione
equivalente è: si ha stabilità asintotica del sistema a controreazione se e soltanto se N , il numero di
giri attorno al punto (−1, j0) che competono alla variazione di fase di F (jω) quando ω varia da −∞
a +∞, è uguale a pp , il numero di autovalori a parte reale positiva del sistema in catena diretta

Nel caso particolare in cui nel sistema in catena diretta si abbia pp = 0, si ha il criterio nella sua
forma cosiddetta ridotta
N = 0.

Ricordando le considerazioni svolte a proposito dello studio della stabilità non si troverà difficoltà
nel verificare che con riferimento ad un sistema interconnesso che presenta più sottosistemi in un
unico ciclo a controreazione, lo studio della stabilità si riduce a quello su un sistema a controreazione
unitaria in cui in catena diretta si assume sia presente l’interconnessione in cascata dei sottosistemi
presenti nel ciclo.

Alcuni semplici esempi e l’estensione del criterio al caso in cui in S vi siano autovalori a parte
reale nulla Si consideri il sistema descritto dalla seguente funzione di trasferimento con guadagno, k,
e costanti di tempo, τi , positivi.

k
F (s) =
(1 + τ1 s)(1 + τ2 s)(1 + τ3 s)
208 8. Elementi di teoria della stabilità

L’esame della rappresentazione polare di F (jω) riportata nella figura seguente lascia comprendere
che il sistema a controreazione unitaria è stabile se il punto (1 , j0) è esterno alla curva, in quando
si avrebbe N = 0 = pp , instabile altrimenti, in quanto si avrebbe N = −2 6= pp = 0. Si noti che il
circondamento o meno del punto (−1, j0) da parte della curva dipende, per fissati valori delle costanti
di tempo, dal valore del guadagno k. In particolare al suo crescere il modulo aumenta, ciò che rende
possibile l’attraversamento. E’ usuale nell’impiego del metodo fare riferimento ad un diagramma
tracciato e valutare la stabilità al variare del guadagno modificando di un fattore inverso la scala sugli
assi, ciò che corrisponde a spostare il punto (−1, j0).

(-1,j 0) +∞ 0
-∞

Figura 8.1

In molte situazioni reali si ha a che fare con funzioni di trasferimento che hanno delle singolarità
sull’asse immaginario (equivalenti alla presenza di autovalori a parte reale nulla nella matrice dinam-
ica). In questo caso il diagramma polare non può essere chiuso, e se il diagramma non è chiuso non
si possono calcolare il numero di giri attorno il punto (−1; j0)? Si consideri ad esempio il sistema:
k k>0
= F (s) τ >0
(1 + τ s)s

Visto nel piano complesso, si avrà un polo in zero e uno in −1


τ , se si costruisce l’immagine secondo
il diagramma polare, siccome si va verso zero la curva andrà all’infinito. Ma come si fa a calcolare il
numero di giri attorno al punto (−1; j0) se il diagramma è aperto ?

-
0

(-1,j 0) -∞
+∞

+
0
Figura 8.2
8.10. Sistemi interconnessi: la stabilità 209

Quindi il diagramma va chiuso e il risultato è diverso secondo il verso in cui si chiude il diagramma.
Per superare questa ambiguità si deve proseguire come segue:
non si considera più il diagramma polare, ma il diagramma di Nyquist, cioè il diagramma in cui si va a
costruire l’immagine secondo la funzione F non più dell’asse immaginario, ma del cosiddetto percorso
di Nyquist: un percorso uncinato che coincide con l’asse immaginario in quasi tutti i punti, ma che
intorno ai punti singolari, i poli della F che si trovano sull’asse immaginario, lascia degli uncini cioè
li evita, e per convenzione si stabilisce che questo percorso uncinato lasci i poli che hanno parte reale
nulla a sinistra, cioè li ”consideri” a parte reale negativa. Con questa convenzione anche gli autovalori
a parte reale nulla di S saranno considerati nel semipiano complesso negativo. Si noti che, inoltre,
con tale convenzione, pp = 0 non corrisponde ad un sistema in catena diretta necessariamente stabile
e neppure al limite di stabilità.

Ora si consideri questo percorso uncinato, a questo corrisponde un’immagine secondo la funzione F ,
che è una curva chiusa in quanto il punto di singolarità è stato escluso. Come è fatta la chiusura della
curva?
Si deve fare riferimento allo studio delle funzioni analitiche e al fatto che la funzione F (s) è un rapporto
tra polinomi; quindi una funzione analitica che induce trasformazioni conformi,cioè che mantengono
gli angoli e i versi di percorrenza. Quindi se nel dominio per andare dal punto A al punto B, si per-
corre un uncino e ad un uncino corrisponde una variazione di fase di π, anche nell’immagine accadrà
la stessa cosa e quindi si deve fare una rotazione di π, inoltre si mantengono i versi di percorrenza,
che in questo caso lasciano a sinistra il punto singolare e quindi anche il punto corrispondente, cioè
il punto immagine deve essere lasciato a sinistra. Il punto immagine è il punto improprio che sta
all’infinito, ciò significa che la chiusura del diagramma di Nyquist si deve fare lasciando a sinistra il
punto improprio che è l’immagine del punto singolare.

Torniamo all’esempio; in questo caso effettuata la chiusura si vede che il punto (−1; j0) rimane
esterno, indipendentemente dal valore del guadagno.

N = pp = 0

ed il sistema è asintoticamente stabile.


Per costruire il diagramma di Nyquist è utile fare riferimento ai diagrammi di Bode, ciò semplifica
lo studio. Si assuma, in base a quanto già osservato, il guadagno unitario, e si consideri la funzione
di trasferimento assegnata nella forma di Bode:

(s + 1)
F (s) = −
10s(1 − s)(1 + s
10 )

Si tratta di tre termini binomi con pulsazioni di rottura pari a 1 e 10. L’andamento del modulo è
sempre decrescente come si verifica facilmente. Per quanto riguarda la fase sono presenti due contributi
tra zero e π2 con pulsazione di rottura ω = 1; uno tra zero e −π2 con pulsazione di rottura ω = 10 ed
un contributo di fase costante e pari a 2 . Questo basta per comprendere che la fase varia tra −3π
−3π
2
e −π e che, per la collocazione del polo in +1 e dello zero in −1, una decade prima del secondo polo,
la fase raggiunge valori maggiori di −π. Dall’andamento riportato in figura
210 8. Elementi di teoria della stabilità

+
0

(-1,j 0) -∞
+∞

-
0
Figura 8.3

Ricordando le considerazioni svolte a proposito dello studio al variare del guadagno, si comprende
che per quanto riguarda la stabilità il sistema a controreazione unitaria sarà instabile per valori del
guadagno inferiori ad un valore critico, k ∗ , stabile per valori superiori.
Come valutare k ∗ ?
A tale proposito si potrà utilizzare il criterio di Routh al polinomio caratteristico a ciclo chiuso:

k(s + 1)
F (s) =
s(s − 1)(s + 10)
F (s)
W (s) =
1 + F (s)
k(s + 1)
W (s) =
s3 + 9s2 + (k − 10)s + k
Si nota preliminarmente che k > 10 è necessario. Il valore critico potrà essere 10 o altro eventuale
valore maggiore corrispondente alla variazione di segno di qualche coefficiente della prima colonna
della tabella. Si ha:

1 k − 10

9 k
8k−90
9
k

e, quindi le seguenti condizioni:


90
k>0 k>
8
ciò che implica
90
k∗ =
8
Il sistema a controreazione unitaria per tale valore di k è al limite di stabilità.

Si suggerisce di svolgere ulteriori esempi di applicazione. Si consideri, ad esempio


8.10. Sistemi interconnessi: la stabilità 211

s+1
F (s) = sistema instabile in catena diretta pp = 0
s2
s+1
F (s) =
s2 + 1
Applicato il criterio di Nyquist, si verificherà che per ogni valore di k positivo, entrambi i sistemi a
controreazione unitaria sono asintoticamente stabili.
Le seguenti considerazioni sono utili per decidere della stabilità nel caso in cui vi siano autovalori a
parte reale nulla in dAP e/o in dCH . Sia jω0 un punto dell’assse immaginario e si indichi con mAP ed
mCH la molteplicità con cui tale punto è eventuale zero dei suddetti pilinomi. Si supponga, inoltre,
noto mAP . Se 1 + F (jω0 ) = c 6= 0, mCH = mAP e si avrà stabilità semplice se mAP = 1, instabilità
se mAP > 1. Se F (jω0 ) = −1, mCH > mAP ciò che comporta instabilità se mAP > 0 e stabilità
semplice se mAP = 0 ed mCH = 1; quest’ultima condizione sussiste se la fase di F (jω0 ) vale π. Se,
infine, F (jω) = ∞, mAP > mCH e si ha stabilità se la chiusura comporta una rotazione di mAP π.

Fino ad ora si è visto come decidere della stabilità partendo dal diagramma di Nyquist, però
questo diagramma è stato dedotto da quello di Bode, quindi alcune informazioni sulla stabilità del
sistema a controreazione sono già contenute nel diagramma di Bode del sistema in catena diretta. E’
infatti possibile valutare, in alcuni casi importanti, le condizioni di stabilità sui diagrammi di Bode.
Questo lo faremo con riferimento ad un sistema in catena diretta privo di poli a parte reale positiva.
Con riferimento al caso in cui il sistema a controreazione sia stabile, e quindi che il punto (−1; j0) sia
a sinistra dell’attraversamento; si possono introdurre due parametri che rendono conto della stabilità
del sistema.
Uno di essi è il modulo della F quando la fase è −π; se è minore di uno, negativo in dB, il sistema
sarà stabile. Tanto è minore di uno tanto maggiore sarà la stabilità. Si usa dare a tale parametro, il
valore del guadagno quando la fase è −π, il nome di margine di guadagno in quanto ci dice di quanto
si può modificare il guadagno del sistema per arrivare ad una situazione che sia limite di stabilità.
L’altro parametro a cui è forse più comune fare riferimento è il cosiddetto margine di fase e
corrisponde alla variazione di fase necessaria a condurre al limite di stabilità.
mϕ = π − faseF|F |=1

Con l’introduzione di questi ultimi aspetti lo studio della stabilità di un sistema a controreazione
viene ricondotto, siapure in un caso particolare, ad un’indagine sui diagrammi di Bode della funzione
di trasferimento in catena diretta, quindi dei diagrammi che caratterizzano il comportamento in
frequenza dei sistemi in catena diretta. Inoltre i due parametri introdotti misurano, se si è in presenza
di stabilità, un margine che rappresenta anche una specifica di robustezza al variare dei parametri
rispetto alla proprietà di stabilità stessa.
In conclusione il margine di guadagno mg esprime quantitativamente il mantenimento della stabilità
al variare del guadagno k, della funzione di trasferimento dell’anello; il margine di fase mϕ esprime
quantitativamente il mantenimento della stabilità al variare della fase del ciclo aperto. Questo col-
legamento con il comportamento in frequenza è molto importante dal punto di vista ingegneristico
come si avrà occasione di verificare nello studio dei sistemi di controllo.
—–
9. Struttura interna, intervento e osservazione

Lo studio sinora condotto ci ha fatto ben comprendere che le principali caratteristiche di com-
portamento di un sistema dinamico dipendono dalla collocazione degli autovalori nel piano complesso.
Inoltre come messo in evidenza nello studio dei sistemi interconnessi la collocazione degli autovalori
risulta alterata da connessioni a controreazione. La più semplice delle interconnessioni a controre-
azione può essere intesa come un intervento sul sistema impiegando misure, osservazioni, del suo
comportamento.

Si vuole mostrare nelle pagine seguenti che le proprietà di raggiungibilità e osservabilità degli stati
hanno un rilievo particolare dal punto di vista dell’intervento e dell’osservazione, rispettivamente. Da
un punto di vista complessivo, inoltre, mostreremo che esse esprimono in modo preciso le potenzialità
di modifica del comportamento dinamico mediante una interconnessione del tipo citato.

Lo studio prende le mosse dallo schema di figura. Per quanto riguarda l’intervento, mostreremo
che la raggiungibilità esprime proprio la possibilità di modificare gli autovalori agendo sul sistema
tramite i canali di ingresso: più precisamente sono modificabili tutti e soli gli autovalori associati
al sottosistema raggiungibile. Inoltre, per quanto riguarda le misure, mentre la presenza di stati
inosservabili rispetto ad esse comporta impedimenti alla ricostruzione di differenti evoluzioni nello
stato, in condizioni di completa osservabilità non solo è possibile ricostruire il comportamento interno,
ma è possibile farlo fissando ad arbitrio la rapidità di convergenza. Più precisamente mostreremo che
la velocità di ricostruzione è limitata dalle proprietà degli autovalori del sottosistema non osservabile.

v(t)

S
u(t)
C
y(t)

m(t)

Figura 9.1
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 213

Con riferimento all schema di figura in cui S descrive il sistema dinamico assegnato
(
ẋ = Ax + Bu
S: x(0) ∈ Rn
y = Cx

con A ∈ Rn×n , B ∈ Rn×p e C ∈ Rq×n , mentre il compensatore, C, è descritto da una rappresentazione


di dimensione µ della forma
(
ξ˙ = Lξ + M m + N v
C: ξ(0) ∈ Rµ
u = Eξ + F m + Gv

con L, M, N, E, F, G matrici di opportune dimensioni, il problema consiste nell’analizzare come vari-


ano le caratteristiche del sistema complessivo al variare di C.

9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato

In questa prima parte faremo riferimento ad un compensatore istantaneo (µ = 0) in cui le variabili


misurate coincidono con lo stato stesso del sistema m = x. L’ingresso al sistema S è in questo caso
una funzione lineare dello stato e di una nuova variabile v ∈ Rp , ingresso esterno.

S: ẋ = Ax + Bu

C: u = F x + Gv |G| =
6 0

Sostituendo nell’equazione della dinamica si ottiene la dinamica del sistema modificato SF

SF : ẋ = (A + BF )x + BGv

Ciò premesso possiamo domandarci come variano, al variare della matrice F gli autovalori della
matrice (A + BF ) e, più in particolare formulare il seguente problema.
Problema dell’assegnabilità degli autovalori: Sotto quali condizioni in corrispondenza di un’arbitraria
assegnata n-pla di numeri complessi esiste una F tale che (A + BF ) ha autovalori coincidenti con la
fissata n-pla ?. Inoltre, come calcolare la matrice di guadagni in controreazione, F , associata a tale
collocazione.
Alcune osservazioni preliminari:
Osservazione 1. Sia x̃ = T x, |T | =6 0. Se F è la matrice di guadagni che assegna gli autovalori da x,
F̃ = F · T −1 assegna gli autovalori da x̃. Infatti

x = T −1 x̃ ⇒ u = F x = F T −1 x̃ = F̃ x̃

e le matrici dinamiche delle due rappresentazioni hanno gli stessi autovalori perchè matrici simili

σ(A + BF ) = σ(Ã + B̃ F̃ ) = σ[T AT −1 + T BF T −1 ] = σ[T (A + BF )T −1 ].


214 9. Struttura interna, intervento e osservazione

Osservazione 2. E’ possibile modificare gli autovalori del solo sottosistema raggiungibile. Supponi-
amo,infatti, che il sistema non sia tutto raggiungibile, cioè

ρ(B| . . . |An−1 B) = l < n

Sappiamo allora che in una nuova base dello spazio di stato in cui le prime l coordinate definiscono
una base nell’insieme degli stati raggiungibili, cioè x̃ = T x con
µ ¶
−1 ∀base ∀
T =
∈ R(B − An−1 B : |T −1 | =
6 0

la matrice dinamica e la matrice degli ingressi manifestano la seguente struttura


µ ¶ µ ¶
−1 A11 A12 B1
à = T AT = B̃ = T B =
0 A22 0

e il sottosistema definito da A11 , B1 è tutto raggiungibile

A11 ∈ Rl×l , B1 ∈ Rl×m , ρ(B1 . . . Al−1


11 B1 ) = l

La struttura delle matrici à e B̃ consente di verificare facilmente che non è possibile modificare gli
autovalori del sottosistema non raggiungibile. Posto, infatti

F̃ = ( F̃1 F̃2 )

risulta µ ¶
A11 + B1 F̃1 A12 + B1 F̃2
à + B̃ F̃ =
0 A22

e, la struttura triangolare consente di affermare che gli autovalori del sottosistema non raggiungibile
caratterizzato da x̃˙ = A22 x̃ rimangono invariati. Inoltre poichè la scelta di F̃2 non influenza gli
autovalori si usa assumere F̃2 = 0.

Le osservazioni precedenti mostrano anche che la matrice F può essere scelta senza perdita di
generalità della forma
F = ( F̃1 0)T

con T una qualsiasi trasformante che manifesti la scomposizione rispetto alla raggiungibilità.

Alla luce di quanto messo in evidenza, nel seguito si supporrà (A, B) raggiungibile. Al variare di
F infatti, potranno variare solo gli autovalori che competono al sottosistema raggiungibile. Rimane
infatti dimostrato che la raggiungibilità è condizione necessaria per la risoluzione del problema dell’
assegnabilità degli autovalori.
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 215

9.1.a. Sistemi con un solo ingresso.

Un caso particolare
Una situazione particolarmente semplice è quella in cui la rappresentazione è nella cosiddetta
forma canonica raggiungibile
   
0
0 1 ···
 · ··
ẋ = Ac x + bc u Ac =  1  bc =  
0
−a0 · · · −an
1
che prende il nome dalla manifesta raggiungibilità della coppia (Ac , bc ).
Fissati ad arbitrio n numeri complessi e calcolato il polinomio di grado n a coefficiente di grado
massimo unitario di cui i dati numeri sono zeri

λ∗1 . . . λ∗n ⇒ p∗ (λ) = (λ − λ∗1 ) − (λ − λ∗n ) = α0 + α1 λ + . . . + λn

è facile verificare che con


Fc = ((a0 − α0 ) . . . (an−1 − αn−1 ))
la matrice (Ac + Bc Fc ) ha autovalori coincidenti con la n-pla fissata.

σ(Ac + bc Fc ) ≡ {λ∗1 . . . λ∗n }

A tale proposito basta ricordare che la struttura della matrice dinamica è quella canonica che presenta
i coefficienti del polinomio caratteristico sull’ultima riga.

Il caso generale
Assegnato
ẋ = Ax + bu (A, b) raggiungibile
si mostrerà che esiste Tc tale che

Tc ATc−1 = Ac T c b = bc

In base a quanto osservato calcolata una tale Tc ed Fc sulla forma canonica per una arbitraria
scelta degli autovalori, F = Fc · Tc corrisponderà alla coppia (A, b).
Per quanto riguarda il calcolo di Tc , si procede nel modo seguente: Sia R = (b . . . An−1 b) e indicato
con γ l’ultima riga di R−1 si scelga
 
γ
 · 
Tc =  
γA
γAn−1
che è invertibile in quanto lo sono le matrici Tc R ed R
 
0 01
 −
Tc R =  ⇒
0
1 − −
216 9. Struttura interna, intervento e osservazione

⇒ |Tc | =
6 0 poichè |R| =
6 0

Nelle nuove coordinate si ha:


   
γ γ
à = Tc ATc−1 ⇒  |  A = à  | 
γAn−1 γAn−1
 
0 1
⇒ Ã =  1  = Ac
−a0 · · · −an−1
   
0
γ
b̃ = Tc b =  b =  | 

 = bc
n−1 0
γA
1
E’ interessante calcolare l’espressione della matrice F che corrisponde alla fissata scelta di autovalori.
Si ha    
γ γ
F = Fc Tc = (a0 . . . an−1 )  |  − (α0 . . . αn−1 )  |  =
γAn−1 γAn−1
= −γAn + (γAn − γp∗ (A)) = −γp∗ (A)

dove p∗ indica il polinomio caratteristico che si desidera assegnare e p∗ (A) la matrice che si ottiene
sostituendo in esso la matrice A al posto della variabile λ

p∗ (A) = α0 I + α1 A + . . . + αn−1 An−1 + An

Osservazione 3. Con F 0 = −γAn si ottiene un sistema SF equivalente ad una cascata di n integra-


tori. Più precisamente nelle coordinate scelte x̃ = Tc x

x̃˙ = x̃2 . . . x̃˙ n−1 = x̃0 x̃˙ n = v

Rimane quindi verificato che se (A, b) è raggiungibile per una opportuna controreazione dallo stato
F 0 ed una trasformazione di coordinate Tc si ottiene

   
0
0 1
|
Tc (A + bF 0 )Tc−1 =  1  = AB Tc b =   = bB
0
0 ... 0
1

la coppia (AB , bB ) è detta forma canonica di Brunowski.

Un esempio (il pendolo invertito)


(
θ̇ = ω
S:
ω̇ = Ω2 θ − αω + βu
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 217

k2 K g
α=− β= J = Jm + ml Ω2 = J
JR JR l + ml
µ ¶ µ ¶
0 1 0
A= b=
Ω2 −α β
µ ¶
0 β
R= γ = ( 1b 0 )
β −αβ
se p∗ (λ) = α0 + α1 λ + λ2
¡ −α0 ¢ ¡ −α1 ¢ ¡ Ω2 ¢
F = −γp∗ (A) = −γ(α0 + α1 A + A2 ) = β 0 + 0 β + β
−α
β
¡ Ω2 −α ¢
= β
0
− α+α
β
1

Osservazione 4. In quale relazione sono gli autovalori di SF con i coefficienti di F ?


- fi (i coefficienti di guadagno) sono tanto più grandi quanto più gli autovalori di SF sono lontani
da quelli di A;
- a valori di fi grandi corrispondono ampiezze elevate e quindi possibili saturazioni degli ingressi.
- fi sono ”inversamente proporzionali” alla controllabilitá
- la scelta della posizione dei poli é ovviamente legata alle specifiche sulla ”banda passante” del
sistema.
Un buon compromesso é spesso rappresentato dall’collocare i poli tutti alla stessa distanza
dall’origine secondo la configurazione Butterworth:
à !2k
s
= (−1)2k+1
ω0

Tale scelta corrisponde ad una collocazione nel piano complesso negativo con modulo costante e
fase tale da dividere l’angolo con centro nell’origine rispetto all’asse immaginario in 2k + 1 angoli
uguali.

9.1.b. Sistemi con più ingressi

Un caso particolare
Si assume che il sistema sia in forma canonica raggiungibile e, per semplicità di scrittura, che
abbia m = 2 ingressi
ẋ = Ac + Bc u
   
0 1 0 0
 1  · ·
   
 1  0 0
   
Ac =  −a10 . . . . . . −a1n1 −a1n1 +1 . . . −a1n1 +n2  Bc =  1 0 
   
 0 0 0 1  0 0
   
· · 1 · ·
−a20 . . . . . . −a2n1 −a2n1 +1 . . . −a2n1 +n2 0 1
218 9. Struttura interna, intervento e osservazione

n1 + n 2 + . . . + nm = n

Una tale coppia (Ac , Bc ) è raggiungibile e scelti ad arbitrio n autovalori, che immagineremo rag-
gruppati in modo consistente con la partizione di Ac , possiamo calcolare i polinomi caratteristici
corrispondenti
λ∗1 , . . . , λ∗n ⇒ λ1∗ 1∗ 2∗ 2∗ m∗ m∗
1 . . . λn1 , λ1 . . . λn2 . . . λ1 . . . λnm

⇒ p∗i (λ) = (λ − λi∗


1 ) . . . (λ − λni ) = α0 + α1 + . . . + λ
i∗ i i ni
i = 1, . . . , m
0 0
Posto an1 la n1 − ma riga di Ac , ... an1 +n2 la (n1 + n2 ) − ma riga di Ac
µ 0 ¶ µ ¶
an1 α01 ... αn1 1 −1 0
Fc = − 0 −
an1 +n2 0 0 α02 ... αn2 2 −1

assegna gli autovalori desiderati, infatti non è difficile verificare che

σ(Ac + Bc Fc ) ≡ {λ∗1 , . . . , λ∗n }

Il caso generale

Assegnato il sistema ẋ = Ax + Bu, con (A, B) raggiungibile si mostrerà che esistono matrici

(Tc , Qc ) (Tc ∈ Rn×n 3 |Tc | =


6 0, Qc ∈ Rm × Rm 3 |Qc | =
6 0)

(Tc definisce una trasformata di coordinate in x, Qc , una trasformazione di coordinate sugli ingressi)
tali che
à = Tc ATc−1 = Ac B̃ = Tc BQc = Bc

Poichè (Ac + Bc Fc ) = Tc (A + BQc Fc Tc )Tc−1 se Fc corrisponde ad un’arbitraria fissata n-pla di


autovalori su (Ac , Bc )
F = Qc Fc Tc

corrisponde alla stessa scelta di autovalori su A, B.

Osservazione 5. Si assumerà nel seguito che rango (B) = m (numero degli ingressi). Se cosı̀ non
fosse (rango (B) = m1 < n esisterebbe Q1 tale che BQ1 = ( B1 0 ) con rango (B1 ) = m1 e la
seguente procedura può essere applicata a B1 .

Per il calcolo di Tc e Qc si procede costruendo preliminarmente la seguente tabella

b1 . . . . . . bm2 . . . . . . bm1 . . . . . . bm
Ab1 . . . . . . . . . . . . . . . Abm1
A2 b1 . . . . . . . . . A2 bm2
An1 −1 b1 . . . An1 −1 bmn1 −1

che definisce una base dello spazio di stato che soddisfa, a seguito di un eventuale riordinamento
degli ingressi, alle condizioni m ≥ m1 . . . ≥ mn1 −1 . Ovviamente, poichè (A, B) è raggiungibile
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 219

m + m1 + . . . + mn1 −1 = n ed equivalentemente, indicate con n1 , n2 , . . . , nm il numero di vettori nella


colonna 1, . . . , m della tabella 1; n1 + n2 + . . . + nm = n.
Esempio m = 2 n=5
b1 b2 Ab1 Ab2 2 A2 b2 3
( A b1 A b1 A3 b2 A4 b1 A4 b2 )
↑ ↑ ↑ ↑ ↑
ove ↑ indica le colonne indipendenti. Invertendo l’ordine degli ingressi (b2 → b1 , b1 → b2 ; ciò che
0 1
corrisponde a fare una trasformazione preliminare nello spazio degli ingressi medianteQ1 = ) si
1 0
ottiene la tabella
b 1 b2
Ab1 Ab2
Ab1
con n1 = 3 e n2 = 2.

Scelta una tale base sia R la seguente matrice non singolare:

R = (b1 . . . An1 −1 b1 b2 . . . An2 −1 b2 . . . bm . . . Anm −1 bm )


e indichiamo con γi la (n1 + n2 + . . . + ni )-esima riga di R−1 .
Si costruiscano ora le matrici Tc e Qc nel seguente modo
 
γ1
 .. 
 .   
  Ã γ1 An1 −1 !−1
 γ1 An1 −1 
 ..   .. 
Tc =  .

 Qc =  . B
  nm −1
 γm  γm A
 . 
 .. 
nm −1
γm A
Tc e Qc sono non singolari; come mette in evidenza la seguente verifica nel caso m = 2, ma di ovvia
generalizzazione
 
0 0 1 0 ... 0
0 1 ... ... 0 −
 
0 0 − −
 
Tc · R =  1 − − ... ... 
 
0 0 0 0 1 
 
0 0 0 1 −
0 ... 0 1 − ... ... −
Tc · R è non singolare come si può facilmente verificare con un opportuno sviluppo del determinante
rispetto alle righe che hanno un solo elemento diverso da zero. Poichè R è non singolare Tc anche lo
è.
Per quanto riguarda Qc si ha:
µ ¶ µ ¶
γ1 An1 −1 1 −
(b1 b2 ) =
γ2 An2 −1 0 1
220 9. Struttura interna, intervento e osservazione

il che prova che Qc è non singolare.

Con le scelte fatte per Tc e Qc si calcolerà nel seguito à = Tc ATc−1 e B̃ = Tc BQc . Si ottiene
   
γ1 γ1
 |   | 
   
 γ1 An1 −1   γ1 An1 −1 
   
 |  A = Ã  | 
   
 γ m   γ m 
   
| |
γm Anm −1 γm Anm −1

à = Ac
 
0  
  0 0
γ1 B  |
   | |
 |   0  
     0
 γ1 An1 −1 B   γ1 A n1 −1
B  
0

 ..   ..   1 0
B̃ = Tc BQc = 
 .

 Qc = 
 .

 Qc =   = Bc
     0 |
 γm B   0   
     | 0
|  |   
  0
γm Anm −1 B 0 0 1
nm −1
γm A B
La matrice F che assegna gli autovalori ad (A, B) è quindi data da:
 
γ1
  ..
   .
a1n−1  
 γ1 An1 −1 
   .. 
F = Qc Fc Tc = −Qc  ...   .


 
an1  γ m 
 .. 
 
.
γm Anm −1
  
α01 ... αn1 1 −1 0 0 γ1
  .. 
−Qc  ...  . 
0 0 α0m ... γm Anm −1
αnmm −1
    
γ1 An1 " γ1 p∗1 (A) #
γ1 An1
 ..   . 
= −Qc  .  + Qc  | − ..  =
n
γm A nm γm A m ∗
γm pm (A)
 
γ1 p∗1 (A)
 .. 
= −Qc  . 
γm p∗m (A)
9.1. Raggiungibilità e assegnazione degli autovalori con reazione dallo stato 221

Osservazione 6. Non è difficile verificare che con la controreazione −Qc F 0 = F il sistema comp-
lessivo SF è equivalente ad m cascate di n1 , . . . , nm integratori; più precisamente posto x̃ = Tc x si
ha:
x̃˙ 11 = x̃12 x̃˙ 1n1 −1 = x̃1n−1 x̃˙ 1n1 = v 1
 1

.
˙x̃m1 = x̃2
m ˙ m
x̃nm = v m
x̃ =  .. 
x̃m
In altre parole se (A, B) è raggiungibile esiste una trasformazione degli ingressi (Qc ), una controre-
azione dallo stato (F 0 ) ed una trasformazione di coordinate (Tc ) tali che:

Tc (A + BQc F 0 )Tc−1 = AB Tc Qc B = BB

La coppia (AB ; BB ) è detta forma canonica di Brunowski.

Procedura di assegnazione degli autovalori.


Data (A, B) raggiungibile, ρ(B) = m
- calcolare n1 , . . . , nm
- calcolare p∗1 (λ), . . . , p∗m (λ)
- calcolare γ1 , . . . , γm , p∗1 (A), . . . , p∗m (A)
  0 
à γ1 An1 −1 !−1 γ1 p1 (A)
 ..   .. 
Qc =  . B F = −Qc  . 
0
nm −1
γm A γm pm (A)

Un esempio.
   
1 0 0 0 0, 5 1 0
0 0 0 1 0  0 1
   
A = 0 1 0 0 2  B = 2 1
   
0 0 1 0 2 0 0
0 0 0 2 1 0 0
     
1 0 1
0 0 2
     
Ab1 =  0  Ab2 =  1  A 2 b1 =  0 
     
2 1 0
0 0 4
 
1 1 1 0 0
n1 = 3 0 0 2 1 0
 
R = 2 0 0 1 1
n2 = 2  
0 2 0 0 1
0 0 4 0 0
γ1 = ( 0 0 0 0 0, 25 )

γ2 = ( −1 −0, 5 0, 5 0, 5 0, 5 )
222 9. Struttura interna, intervento e osservazione

µ ¶−1 µ ¶−1 µ ¶
γ1 A2 B 1 0, 5 1 −0, 5
Qc = = =
γ2 AB 0 1 0 1
µ ¶
γ1 p∗1 (A)
F = −Qc
γ2 p∗2 (A)
Se, ad esempio,
p∗1 (λ) = (1 + λ)3 = λ3 + 3λ2 + 3λ + 1 → p∗1 (A)
p∗2 (λ) = λ2 + 2λ + 1 → p∗2 (A)
..
.
 
0 1 0
µ ¶  0 0 1 0 
γ1 A3  
F0 = − 3 Tc (A + BQc F 0 )Tc−1 = 0 0 0 
γ2 A2  
0 1
0 0 0
 
0 0
0 0
 
Tc BQc =  1 0
 
0 0
0 1

Lo studio sinora condotto consente di affermare che


condizione necessaria e sufficiente per la risoluzione del problema dell’assegnabilità degli autovalori è
la completa raggiungibilità,
inoltre, poiché al variare di F possono essere spostati ad arbitrio tutti e soli gli autovalori che com-
petono al sottosistema raggiungibile, mentre quelli del sottosistema non raggiungibile rimangono
invariati (per questo si usa dire che i modi che competono lal sottosistema non raggiungibile rappre-
sentano i modi fissi), possiamo affermare che
condizione necessaria e sufficiente per collocare gli autovalori in una assegnata regione del piano
complesso è che quelli del sottosistema non raggiungibile siano inclusi in tale regione.
Si usa riferirsi a quest’ultimo come problema dell’assegnazione degli autovalori.
Un caso particolare di quest’ultimo è il cosiddetto problema della stabilizzazione mediante reazione
dallo stato. A tale proposito si può affermare che
condizione necessaria e sufficiente per la sua stabilizzazione mediante reazione dallo stato è che i modi
fissi siano stabili.
Per concludere si osserverà ancora una volta che una soluzione al problema dell’assegnazione
degli autovalori o della stabilizzazione può essere calcolata come indicato nelle osservazioni 1. e 2.: si
effettua preliminarmente una trasformazione di coordinate per estrarre il sottosistema raggiungibile,
si risolve l’assegnazione su tale sottosistema e si procede come indicato per esprimere la controreazione
nelle coordinate originarie.
9.2. Il problema della ricostruzione dello stato. 223

9.2. Il problema della ricostruzione dello stato.

Dato il sistema S un sistema dinamico lineare θ avente per ingressi gli ingressi e le uscite di S
e per uscite n variabili, z1 , . . . , zn (in numero pari alle variabili di stato di S), è detto ricostruttore
asintotico dello stato se il vettore z(t) tende asintoticamente a x(t).
( )
ẇ = F w + Gu + Ky
θ:
z = Hw + Ly

Osservazione 7. . Se il numero di uscite del sistema, q è maggiore o uguale al numero di


variabili di stato n e ρ(C) = n esiste una soluzione istantanea con F = G = K = H = 0 e L = C ]
(pseudo inversa di C). Si ha in tal caso

z = C ] y = C ] Cx = x

In generale il ricostruttore è un sistema dinamico e indicheremo con γ la sua dimensione (quella


del vettore w).
In analogia a quanto fatto nella sezione precedente in cui abbiamo distinto i problemi in as-
segnabilità e assegnazione degli autovalori, distingueremo le due possibili situazioni, che peraltro
sono strettamente collegate ai problemi precedenti, in problema dell’osservatore e problema della
ricostruzione dello stato. Il primo riguarda l’esistenza, e il calcolo, di un dispositivo che sia in
grado di ricostruire con una velocità assegnabile ad arbitrio (una convergenza asintotica assegnabile)
l’evoluzione dello stato; il secondo un dispositivo che consenta di ricostruire l’evoluzione dello stato.

9.2.a. Il problema della ricostruzione dello stato.

Se S è internamente asintoticamente stabile (σ(A) ∈ C − ) una scelta elementare consiste nell’assumere


ẇ = Aw + Bu, z = w. In tal caso un ricostruttore consiste in una copia della dinamica del sistema.
è chiaro che w(t) → x(t) infatti

ξ =w−x ξ˙ = Aξ ξ(t) = eAt ξ0 → 0

In questo modo non è però possibile modificare la velocità di convergenza, comunque esponenziale,
con la quale w tende ad x. Tale velocità dipenderà dagli autovalori di A.

La scelta indicata non è possibile se σ(A) 6∈ C − . Appare spontaneo domandarsi se e in quale


misura sia possibile riferirsi ad un dispositivo del tipo indicato modificandone la dinamica in modo
proporzionale allo scostamento tra l’uscita misurata e quella fornita da una copia del sistema. Si
pensa in tal caso ad un dispositivo del tipo indicato in figura
224 9. Struttura interna, intervento e osservazione

u(t) y(t)
S
+

-
y(t)
CS

Figura 9.2

dove CS rappresenta una copia di S modificata nella dinamica mediante un intervento proporzionale
allo scostamento tra y e ỹ. Si ottiene in tal modo:

ẇ = Aw + Bu + K(y − ỹ)
= (A − KC)w + Bu + Ky

In queste condizioni è facile rendersi conto del fatto che è possibile fare in modo che w tenda ad x
con velocità comunque assegnabile (problema dell’osservatore) se e solo se la matrice (A − KC) ha
autovalori comunque assegnabili al variare di K. Infatti:

ξ =w−x ξ˙ = (A − KC)ξ ξ(t) = e(A−KC)t ξ0

Il problema dell’osservatore è dunque ricondotto ad un problema di assegnabilità degli autovalori alla


matrice (A − KC).
Se gli autovalori non possono essere assegnati ad arbitrio, ma per opportune scelte di K hanno parte
reale negativa (ciò che accade nel caso in cui il sistema sia asintoticamente stabile e si assume K = 0)
allora diremo che il problema della ricostruzione dello stato ha soluzione e il dispositivo indicato è
un ricostruttore. Il problema della ricostruzione è dunque ricondotto al problema di rendere a parte
reale negativa gli autovalori di (A − KC) al variare di K (analogo alla stabilizzabilità).
Una diversa formulazione consente di ritrovare anche l’analogia con il problema dell’assegnazione degli
autovalori. Se infatti non si richiede che la convergenza di w a x possa essere fissata ad arbitrio, ma che
essa possa avvenire con una convergenza esponenziale non inferiore ad e−αt , α > 0 fissato, il problema
consiste nell’ assicurare che gli autovalori di (A − KC) possano assumere parte reale inferiore a −α e
diventa quindi un problema di assegnazione degli autovalori.
Si osservi che il dispositivo indicato è un sistema del tipo indicato di dimensione γ = n con F =
A − KC, G = B, H = I, L = 0.

L’analogia con il problema studiato nella sezione precedente è completamente compresa se si osserva
che la collocazione degli autovalori di (A − KC) al variare di K è riconducibile a quello studiato.
Basta osservare che una matrice e la sua trasposta hanno gli stessi autovalori

σ(A − KC) = σ(AT + (−C T )K T )


9.2. Il problema della ricostruzione dello stato. 225

e quindi si perviene ad un problema di assegnazione del tipo studiato in cui (AT , −C T ) prende il
posto della coppia (A, B).

Mostreremo ora che la proprietà di osservabilità svolge in questo problema il ruolo della proprietà
di raggiungibilità. Se, infatti il sistema è tutto osservabile, cioè
 
C
ρ | =n
n−1
CA

la dinamica del ricostruttore può essere fissata ad arbitro e indicato con p∗ (λ) il polinomio caratter-
istico che si vuole assegnare alla matrice (A − KC) si ha

K T = −η T p∗ (AT )

ove si è indicato con η T l’ultima riga dell’inversa della matrice di raggiungibilità costruita con AT e
−C T . E’ semplice verificare che a meno del segno η coincide con l’ultima colonna dell’inversa della
matrice di osservabilità e, passando ai trasposti, si ottiene

K = p∗ (A)η

Nel caso generale di rappresentazione non osservabile il calcolo di un ricostruttore più rapido di
−αt
e , α > 0 assegnato, si riconduce ad una assegnazione parziale di autovalori e per questo problema
valgono le stesse considerazioni svolte nell’osservazione 2. che vengono qui ripetute nel caso specifico

à  T !
C
− |  =m≤n
n−1
CA
µ ¶
A11 A12
∃T : T AT −1 = CT −1 = ( C1 0 )
0 A22

se, e solo se σ(A22 ) ∈ C −α il problema ha soluzione. Per calcolare il ricostruttore, si calcola K̃1 tale
che σ(A11 − K1 C1 ) ∈ C −α , e si ottiene
µ ¶
−1 K̃1
K=T
0

In sintesi, condizione necessaria e sufficiente affinchè dato α esista un ricostruttore ”più rapido” di
e−αt è che gli autovalori di A associati a modi naturali non osservabili appartengono a C −α .
Come già detto un caso particolare, equivalente al problema della stabilizzazione, corrisponde alla
scelta α = 0, esistenza di un ricostruttore. Condizione necessaria e sufficiente per la sua risoluzione è
che il sottosistema non osservabile sia stabile.
Infine condizione necessaria e sufficiente affinchè ∀α esista un osservatore ”più rapido” di e−αt (
problema dell’osservatore), è che (A, C) sia osservabile.
226 9. Struttura interna, intervento e osservazione

Calcolato K in modo da garantire la convergenza desiderata il ricostruttore θ, non ridotto, è carat-


terizzato dalle seguenti matrici

γ=n F = A − KC G=B H=I L=0

In quanto segue senza ambiguità ed in linea con la terminologia adottata nella letteratura, si
userà indistintamente il termine osservatore e ricostruttore per indicare un dispositivo che ricostruisce
asintoticamente lo stato.

9.2.b. L’osservatore asintotico ridotto

Una domanda si pone naturalmente: γ, la dimensione della dinamica di un dispositivo che ri-
costruisce l’evoluzione dello stato, deve essere necessariamente pari ad n o può essere inferiore ? In
effetti se ρ(C) = q1 ≤ q sono già disponibili q1 relazioni indipendenti tra le variabili di stato, la
ricostruzione asintotica di (n − q1 ) variabili di stato deve poter consentire la ricostruzione asintotica
di tutto lo stato.
Su questa base nel seguito viene mostrato come costruire un osservatore in cui γ = n − q1 ; un tale
osservatore viene detto ridotto in quanto la dimensione dello stato è minima.
Assegnato S, supponiamo che ρ(C) = q, se cosı̀ non è, ρ(C) = q1 < q, possiamo calcolare Q tale che
µ ¶
C1
QC =
0

e assumere queste q1 uscite indipendenti come nuove uscite del sistema.

Assumiamo quindi che ci siamo q uscite indipendenti e sia P ∈ Rq × Rq , non singolare, tale che

PC = (I C2 ) I(q × q) identità

A seguito di una tale trasformazione sulle uscite si ottiene

v = P y = x1 + C2 x2

da cui si evince che se si riesce a ricostruire asintoticamente l’evoluzione di x2 , sia z2 → x2 , poichè


v viene misurato, mediante z1 = v − c2 z2 è possibile ricostruire asintoticamente x1 , z1 → x1 . Il
problema è quindi quello di osservare asintoticamente x2 .
Si consideri µ ¶
I C2
x̃ = T x =
0 I
da cui 
 v = x̃1

x̃˙ 1 = Ã11 x̃1 + Ã12 x̃2 + B̃1 u


x̃˙ 2 = Ã21 x̃1 + Ã22 x̃2 + B̃2 u
9.2. Il problema della ricostruzione dello stato. 227

Poichè si richiede che z2 → x̃2 i seguenti passaggi conducono a successive scelte che consentano alla
dinamica di ξ = z2 − x̃2 di convergere verso lo zero.

ż2 − x̃˙ 2 = H̃(F̃ w + G̃u + K̃v) + L̃(Ã11 v + Ã12 x̃2 + B̃1 u

−Ã21 v − Ã22 x̃2 − B̃2 u

⇒ H̃ = I G̃ = B̃2 − L̃B̃1

tali scelte rendono la dinamica dell’errore indipendente da u;

ż2 − x̃˙ 2 = F̃ z2 − F̃ L̃v + K̃v + L̃Ã11 v + L̃Ã12 x̃2 − Ã21 v − Ã22 x̃2

F̃ = Ã22 − L̃Ã12

K̃ = −L̃Ã12 L̃ + Ã22 L̃ − L̃Ã11 + Ã21

ξ˙ = ż2 − x̃˙ 2 = F̃ (ż2 − x̃˙ 2 ) = F̃ ξ

ξ(t) = eF̃ t ξ0

tali scelte riducono il problema a quello di assegnare gli autovalori ad (Ã22 − L̃Ã12 )

Non è difficile verificare che gli autovalori di F̃ possono essere assegnati ad arbitrio se e solo se la
coppia (A, C) è osservabile. Per verificare questo si considerino i seguenti sistemi S1 ed S2
( µ ¶µ ¶ (
ẋ1 A11 A12 x1 ϑ̇ = A22 ϑ
S1 = S2 =
ẋ2 A21 A22 x2 η = A12 ϑ

y = x1

Se S2 è inosservabile esiste ϑ0 tale che

η(t) = A12 eA22 t ϑ0 ≡ 0


µ ¶ µ ¶
x10 0
=
x20 ϑ0

è inosservabile per S1 come si vede facilmente dal seguente schema:


228 9. Struttura interna, intervento e osservazione

y
A11

+
∫ X1
A2 1

+
X2
∫ A12
+

A22
Figura 9.3

Cioè S2 inosservabile ⇒ S1 inosservabile.


In modo analogo si mostra l’implicazione inversa.
Un semplice esempio:
   
0 1 0 0

A= 0 0 1  B = 0
 C = (1 0 0)
0 −5 −6 2

Ã11 = 0 Ã12 = 0 B̃1 = 0


µ ¶ µ ¶ µ ¶
0 1 0 0
Ã21 = Ã22 = B̃2 =
0 −5 −6 2
µ ¶ µ ¶
0 1 l 0
F̃ = Ã22 − L̃Ã12 = − 1
−5 −6 l2 0
¯µ ¶¯
¯ λ + l1 −1 ¯
|λI − F̃ | = ¯¯ ¯= λ2 + (l1 + 6)λ + 6l1 + l2 + 5
5 + l2 λ + 6 ¯
0
p (λ) = (λ + 5)2 = λ2 + 10λ + 25

l1 = 4 l2 = −4
quindi  µ ¶ µ ¶ µ ¶

 −4 1 0 −12

 ẇ =
−1 −6
w+ u+ y

 2 12
z1 = x1

 µ ¶

 4

 z2 = w + x1
−4
9.3. Il principio di separazione 229

9.3. Il principio di separazione

Cosa accade se viene applicata una controreazione del tipo:

u = Fz + v

sul sistema S utilizzando le uscite dell’osservatore ?


Questo problema viene ora esaminato utilizzando un osservatore non ridotto. Le stesse considerazioni
possono essere ripetute nel caso generale.
Il sistema di controllo risulta essere cosı̀ fatto:

v(t) + u(t) y(t)


S
+

z(t)
F Oss.
Figura 9.4

ẋ = Ax + BF z + Bv
=
ż = (A − KC)z + KCx + BF z + Bv
µ ¶µ ¶ µ ¶
A BF x B
= + v
KC A − KC + BF z B
µ ¶
x
+Ā + B̄v
z
Posto µ ¶
I −I
T =
0 I

σ(Ā) = σ(T ĀT −1 )

e il calcolo di T ĀT −1 fornisce


µ ¶µ ¶µ ¶ µ ¶
I −I A BF I I A − KC 0
=
0 I KC A − KC + BF 0 I KC A + BF

La struttura triangolare della matrice a secondo membro mette in luce che gli autovalori del sistema
complessivo risultano essere quelli delle matrici (A + BF ) e (A − KC).

σ(Ā) = σ(A − KC)U σ(A + BF )


230 9. Struttura interna, intervento e osservazione

Questo fatto è noto come principio di separazione.

Se il sistema è tutto raggiungibile ed osservabile sarà quindi possibile scegliendo F e K fissare in


modo arbitrario gli autovalori del sistema di controllo. Per fare questo si possono fissare in modo in-
dipendente gli autovalori di (A − KC) (immaginando di costruire un osservatore) e quelli di (A + BF )
(immaginando di assegnare gli autovalori con una reazione dello stato).

Con riferimento allo schema di controllo con reazione dall’uscita ora esaminato, le ultime con-
siderazioni al di là del problema dell’assegnabilità degli autovalori, che richiede la completa raggiun-
gibilità e osservabilità, consentono di comprendere che il problema dell’assegnazione degli autovalori
ha soluzione se e solo se gli autovalori dei sottosistemi non raggiungibili e non osservabili non devono
essere spostati.
Un problema particolare è quello della stabilizzazione mediante reazione dall’uscita. Tale prob-
lema ammette soluzione utilizzando lo schema indicato se e solo se i sottosistemi non osservabile e
non raggiungibile sono stabili.
Come già detto per la procedura di realizzazione del compensatore si seguono separatamente le
procedure di assegnazione su (A + BF ) e (A − KC).

Con riferimento allo schema di controllo con reazione dall’uscita ora esaminato, le ultime con-
siderazioni al di là del problema dell’assegnabilità degli autovalori, che richiede la completa raggiun-
gibilità e osservabilità, consentono di comprendere che il problema dell’assegnazione degli autovalori
ha soluzione se e solo se gli autovalori dei sottosistemi non raggiungibili e non osservabili non devono
essere spostati.
Un problema particolare è quello della stabilizzazione mediante reazione dall’uscita. Tale prob-
lema ammette soluzione utilizzando lo schema indicato se e solo se i sottosistemi non osservabile e
non raggiungibile sono stabili.
Come già detto per la procedura di realizzazione del compensatore si seguono separatamente le
procedure di assegnazione su (A + BF ) e (A − KC).
Un’ultima considerazione riguarda la collocazione degli zeri della funzione di trasferimento del
sistema complessivo. Il calcolo può essere effettuato senza difficoltà nelle nuove coordinate in cui
µ ¶ µ ¶
−1 A − KC 0 −1 0
T AT = CT = (C C) TB =
KC A + BF B

Sviluppando il calcolo in virtù della presenza dei blocchi di zeri nella matrice dinamica e nella matrice
degli ingressi si ottiene
W (t) = Ce(A+BF )t B

Il sistema complessivo ha dunque poli coincidenti con gli autovalori assegnati mediante F e zeri
coincidenti con gli zeri del processo. I rimanenti autovalori assegnati mediante la matrice K, che
sappiamo essere autovalori del sistema complessivo non compaiono nella funzione di trasferimento.
Questo fatto non può che essere conseguente ad una cancellazione con altrettanti zeri. Gli zeri del
sistema complessivo sono dunque coincidenti con gli autovalori della matrice (A − KC).
9.4. Assegnazione della dinamica con reazione dall’uscita 231

Il problema della collocazione degli zeri con riferimento ad uno schema di assegnazione dall’uscita
più generale di quello trattato, viene affrontato nel prossimo paragrafo.

9.4. Assegnazione della dinamica con reazione dall’uscita

Faremo riferimento, in quanto segue, ad uno schema più generale di quello adottato nella sezione
precedente, ispirato allo schema generale proposto all’inizio del capitolo in cui L = A − KC + BF e
M = K. ( (
ẋ = Ax + Bu ż = (A − KC + BF )z + KCx + N v
S: C:
y = Cx u = F z + Gv

Per il principio di separazione il sistema di controllo ha 2n autovalori coincidenti con quelli di (A+BF )
ed (A − KC).
Diverse scelte di N ed G non influenzano gli autovalori, ma gli zeri del sistema di controllo. Tali matrici
possono quindi essere scelte in modo da consentire il soddisfacimento di specifiche che dipendono da
essi; tra queste il comportamento al transitorio.
N ed G prendono il nome di matrici di guadagni in avanti.

9.4.a. Criteri di scelta di N e G

1. Scelta che rende la ricostruzione dello stato indipendentemente da v.

(ẋ − ż) = ė = (A − KC)e + (BG − N )v

N = BG

ciò equivale a:

+ u(t) y(t)
S
v(t)
N
+

z(t)
F Oss.
Figura 9.5
232 9. Struttura interna, intervento e osservazione

2. Scelta che consente di controllare dall’esterno il sistema mediante il segnale (v − y) (è necessario
in alcuni casi pratici; radar, controllo termico...)

N = −K G=0

si ottiene
ż = (A − KC + BF )z − K(v − y)
ciò equivale a:

u(t) y(t)
S

-
z(t) v(t)
F Oss. +

Figura 9.6

3. Scelta fondata su altri criteri, eventualmente di ottimo.

9.4.b. Gli zeri del sistema complessivo.

Reazione dello stato (


ẋ = Ax + Bu
P : u = F x + Gv
y = Cx
Come è noto gli zeri del sistema complessivo sono gli zeri di
à !
sI − A − BF −B
det =0
C 0

ma, poichè per un’opportuna matrice di costanti, H, si ha


µ ¶ µ ¶
sI − A − BF −B sI − A −B
det = det ·H
C 0 C 0

si comprende che gli zeri coincidono con quelli del sistema assegnato ciò che permette di concludere
che gli zeri non cambiano sotto controreazione istantanea dallo stato.

Controreazione dinamica dall’uscita


Un compensatore dinamico, C, introduce nuovi zeri nel sistema di controllo; si tratta degli zeri
che competono ad esso, e sono quelli che soddisfano
µ ¶
sI − A + KC − BF −N
det =0
F G
9.4. Assegnazione della dinamica con reazione dall’uscita 233


µ ¶
sI − A + KC + N
GF − BF −N
det =0
0 1
cioè i nuovi zeri sono quelli di:
¡ N ¢
det sI − A − BF + KC + F = γ(s) (0 )
G
Posto
A + BF − KC = Ã
e fissate F e K, gli zeri del compensatore coincidono con gli autovalori di à − LF al variare di L = N
G

γ(s) = det(sI − Ã + LF )

Si osservi che si tratta ancora una volta di un problema di assegnazione di autovalori.

Le scelte di N e G indicate ai punti 1. e 2. comportano diverse collocazioni.


1. N = BG sostituita nella (’) mostra che i nuovi zeri sono gli zeri di

det(sI − A + KC)

cioè gli zeri aggiunti sono coincidenti con i poli dell’ ”osservatore”(ciò corrisponde alla non con-
trollabilità dell’osservatore in tale schema).
2. N = K µ ¶
sI − A + KC − BF −K
det =0
F 0

µ ¶
sI − A − BF −K
det =0
F 0

µ ¶
sI − A −K
det =0
F 0
cioè gli zeri aggiunti sono quelli del sistema
(
ξ˙ = Aξ + Kω
r = Fξ

cioè sono gli zeri di


F (sI − A)−1 K

In sintesi, e con riferimento allo schema di compensazione introdotto, mediante reazione dall’uscita si
ottiene una funzione di trasferimento a ciclo chiuso
γ(s)N (s)
W (s) = K
DC (s)α(s)
234 9. Struttura interna, intervento e osservazione

K guadagno, γ ed n polinomi a coefficienti max = 1.

n(s) polinomio a numeratore di ella funzione di trasferimento del sistema dato


DC (s) = det(sI − A − BF )
α(s) = det(sI − A + KC)

γ(s) può essere fissato per soddisfare ad altre specifiche di progetto. Si noti che
1. γ(s) = α(s) ⇔ N = BG
2. γ(s) numeratore di F (sI − A)−1 K ⇔ N = K

Si noti che comunque gli zeri del sistema rimangono tra gli zeri del sistema di controllo (a meno che
non vengano cancellati da alcuni zeri di DC (s))

Ulteriori considerazioni sulla scelta di G

G può essere scelto in modo da fissare il guadagno del sistema complessivo. Se ad esempio, come
spesso accade, si vuole tale guadagno pari a 1, posto N̄ = N
G si ha:
µ ¶ µ ¶µ ¶ µ ¶
ẋ A + BF BF x B
= + GV
ż 0 A − KC z B − N̄

che ha guadagno unitario se:


µ ¶−1 µ ¶
A + BF BF B
(C 0) G=1
0 A − KC B − N̄


Á µ ¶
−1 −1
G = 1 C(A + BF ) B 1 − F (A − KC) (B − N̄ )

ove N̄ è stato fissato in modo da collocare ove desiderato gli zeri.


10. Introduzione alle rappresentazioni non lineari

Assumeremo senza perdita di generalità che X, U e Y siano spazi vettoriali di dimensione finita,
rispettivamente n, p e q. La generica rappresentazione implicita di un sistema strettamente causale a
dimensione finita, stazionario é del tipo

∆x(t) = f (x(t), u(t)) x(0) = x0

y(t) = h(x(t))

Nella precedente espressione ∆ rappresenta la derivazione o l’anticipo unitario, nel caso a tempo
continuo o a tempo discreto, rispettivamente.
Con riferimento alla struttura della funzione generatrice f (x, u) e della trasformazione in uscita,
h(x), è usuale assumere la seguente classificazione.

1. Rappresentazione lineare

f è lineare su X × U ed h è lineare su X

(
f (x, u) = Ax + Bu
h(x) = Cx

A, B e C sono matrici di dimensioni (n × n), (n × p) e (p × n) rispettivamente.

2. Rappresentazione bilineare

Posto
f (x, u) = f1 (x, u) + f2 (x, u)
236 10. Introduzione alle rappresentazioni non lineari

f1 è lineare su X × U , f2 è bilineare su X × U ed h è lineare su X



 X
p
 f (x, u) = Ax + Bu + Ni xui


i=1
h(x) = Cx

con A, N1 , . . . , Np matrici quadrate (n × n), B, (n × p), C, (q × n).

3. Rappresentazione affine rispetto allo stato

f è affine rispetto ad x per ogni fissato u, h è lineare su X


(
f (x, u) = A0 (u) + A1 (u)x
h(x) = Cx

A0 (·) e A1 (·) analitiche, C é (q × n). E’ frequente il caso in cui gli elementi di A0 (·) e A1 (·) sono
polinomi in u1 , u2 ,. . . up .

4. Rappresentazione affine rispetto all’ingresso

Posto
f (x, u) = f1 (x) + f2 (x, u)

f2 è lineare rispetto ad u per ogni fissato x. Posto f1 (x) = f (x), di ha

f (x, u) = f (x) + g(x)u

f , g ed h sono, in tale contesto, assunte C ∞ o analitiche.

10.1. Sistemi a tempo continuo

10.1.a. Sistemi lineari (richiami)

Data la rappresentazione implicita di un sistema lineare a tempo continuo:


(
ẋ(t) = Ax(t) + Bu(t) x(0) = x0
y(t) = Cx(t)

I comportamenti ingresso/stato e ingresso/uscita sono descritti dalla rappresentazione esplicita:


10.1. Sistemi a tempo continuo 237

Z t
x(t) = γ0 (t)x0 + γ1 (t, τ )u(τ )dτ
0
Z t
At
= e x0 + e(t−τ )A Bu(τ )dτ
0
Z t
y(t) = w0 (t)x0 + w1 (t, τ )u(τ )dτ
0
Z t
= Ce(t) Ax0 + Ce(t−τ )A Bu(τ )dτ
0

Vale il passaggio dalla forma esplicita alla forma implicita:

dγ0 (t)
A= |t=0
dt
B = γ1 (0)
C = w0 (0)

Inoltre, come é immediato verificare:

γ0 (t)x0 = eAt x0
∂γ0 (t − τ )x ¯¯
γ1 (t − τ ) = e(t−τ )A B = x0
·B
∂x
∂w0 (t − τ )x ¯¯
w1 (t − τ ) = Ce(t−τ )A B = x0
B
∂x
In sistesi possiamo enunciare le seguenti proprietà:

• i nuclei possono essere calcolati a partire da γ0 , w0 e B.

• il nucleo di ordine uno è fattorizzabile

w1 (t − τ ) = Q(t)P (τ ) t ≥ τ

• la fattorizzabilità di un nucleo sotto w(t) è condizione necessaria e sufficiente di realizzabilità.


Ciò, come è noto (capitolo 7), segue dal fatto che il sistema

ẋ(t) = P (t)u(t)
y(t) = Q(t)x(t)

realizza il legame ingresso uscita associato al nucleo dato


Z t Z t
y(t) = Q(t) P (τ )u(τ )dτ = w(t − τ )u(τ )dτ.
0 0
238 10. Introduzione alle rappresentazioni non lineari

10.1.b. Rappresentazioni a tempo continuo affini nell’ingresso

Si consideri la seguente rappresentazione implicita che descrive, per semplicità di notazioni, un sistema
ad ingresso e uscita scalari (
ẋ(t) = f (x(t)) + g(x(t))u(t)
(II.1)
y(t) = h(x(t))
x(t) ∈ Rn ; f , g: Rn → Rn e h : Rn → R sono funzioni analitiche.

Teorema 1. La rappresentazione esplicita del sistema (II.1) di stato iniziale x0 a t0 = 0 ammette il


seguente sviluppo in serie

XZ tZ τ1 Z τk
x(t) = γ0 (t; x0 ) + ... γk (t, τ1 , . . . , τk , x0 )u(τ1 ) . . . u(τk )dτ1 . . . dτk (II.2)
k≥0 0 0 0

XZ tZ τ1 Z τk
y(t) = w0 (t; x0 ) + ... wk (t, τ1 , . . . , τk , x0 )u(τ1 ) . . . u(τk )dτ1 . . . dτk (II.3)
k≥0 0 0 0

con γ0 (·; x0 ) : [0, t] → R , w0 (·; x0 ) : [0, t] → R; γk (·; x0 ) : [0, T ]k+1 → Rn , wk (·; x0 ) : [0, T ]k+1 → R (
n

t ≥ t ≥ τ1 ≥ . . . ≥ τk ≥ 0).

Le espressioni in serie (II.2) e (II.3) prendono il nome di serie di Volterra, il matematico italiano
che agli inizi del secolo ha per primo impiegato rappresentazioni in serie con integrali multipli per
rappresentare funzionali nonlineari. Nel caso in esame esse rappresentano i legami funzionali ingresso-
stato e ingresso-uscita associati al sistema (II.1) a partire dallo stato iniziale x0 ,e sono caratterizzati
dai nuclei γk (·; x0 ) e wk (·; x0 ), rispettivamente. Nel caso lineare, come già ricordato, sono diversi da
zero solo i nuclei di ordine zero ed uno che, infatti, caratterizzano la parte lineare del legame.
Si mostrerà nel seguito che i nuclei wk (·; x0 ) ammettono una rappresentazione in serie. La stessa
procedura applicata alla funzione h(x) = x dà l’espressione dei γk (·; x0 ). A questo proposito è
necessario richiamare il formalismo delle serie di Lie.

La serie di Lie
Data una funzione analitica
f : Rn → Rn
si definisce l’operatore formale ”derivata direzionale” o ”derivata di Lie”, e si scrive Lf , l’operatore
differenziale del primo ordine
Xn

Lf = fi
i=1
∂xi
dove fi : Rn → |R indica l’i - esima componente della funzione f .
Se h : Rn → R è una funzione derivabile l’operatore Lf agisce sulla funzione h nel modo seguente:
¯ " ¯ ¯ # " f1 (x) # ¯
Xn
∂h ¯¯ ∂h ¯¯ ∂h ¯¯ . ∂h ¯¯
Lf (h)|x = ·fi (x) = ,..., · .. = ·f (x) (III.4)
i=1
∂xi ¯x ∂xi ¯x ∂xn ¯x ∂x ¯x
fn (x)
10.1. Sistemi a tempo continuo 239

dove |x indica il calcolo in x. Se h(x) = Id, la funzione identità, si ha:

Lf (Id)|x = f (x)

esempio:
n = 2, f (x) : R2 → R2 , h(x) : R2 → R

(x1 , x2 ) 7→ (2x1 , x1 + x2 ) (x1 , x2 ) 7→ x1 x2

Si ha:
∂ ∂
Lf = 2x1 + (x1 + x2 )
∂x1 ∂x2

∂ ∂
Lf (h)|x0 = 2x1 (x1 x2 )|x0 + (x1 + x2 ) (x1 x2 )|x0
∂x1 ∂x2
= 2x1 x2 |x0 + (x1 + x2 )x1 |x0

= 2x10 x20 + (x10 )2 + x10 x20 = (x10 )2 + 3x10 x20

se x0 = (1, 2) ⇒ Lf (h)|x0 = 1 + 6 = 7

• Lf é un operatore lineare
Siano h1 e h2 due funzioni derivabili e α1 e α2 ∈ R, si ha:

Lf (α1 h1 + α2 h2 ) = α1 Lf (h1 ) + α2 Lf (h2 )

Siano f e g due funzioni derivabili Rn → Rn , indichiamo con Lg o Lf la composizione, ”o”, di


questi operatori


Lg oLf (h)|x = (Lf (h))|x · g(x)
∂x à n ¯ !
X X ∂ X ∂h ¯¯
n n
∂Lf (h)
= gi (x) = ¯ fj (x) gi (x)
∂x i ∂x i ∂xj ¯
i=1 i=1 j=1 x
¯ ¯ ¯
X ∂ h ¯
n 2 ¯ X ∂h ¯ ∂fj (x) ¯¯
n ¯
= ¯ fj (x)gi (x) + ¯ ¯ ·gi (x)
i,j=1
∂xi ∂xj ¯ i,j=1
∂xj ¯ ∂xi ¯
x x x

La composizione ”o” non è commutativa: Lg o Lf 6= Lf o Lg .

• Prodotto di Lie
Si definisce l’operatore prodotto di Lie di due operatori Lf ed Lg , e lo si indica con,

[Lf , Lg ] = [Lf oLg − Lg oLf ]

In base alla definizione [Lf , Lg ] opera sulle funzioni come la derivata di Lie rispetto alla funzione
[f, g], L[f,g] . [f, g] è definito come
∂g ∂f
[f, g] = f− g
∂x ∂x
240 10. Introduzione alle rappresentazioni non lineari

e non è difficile verificare che

Xn
∂h ∂gi Xn
∂h ∂fi
Lf Lg (h) − Lg Lf (h) = · · · = fj − gj = L[f,g] (h)
i,j=1
∂xi ∂xj i,j=1
∂xi ∂xj

Si verifica facilmente che


L[f,g] = −L[g,f ]

• Composizione iterata di Lf
¯
¯
∂L f (h)| x ¯
L2f (h)|x := Lf · Lf (h)|x = ¯ ·f (x)
∂x ¯
x
¯
∂Lhf (h)|x ¯¯
Lf (h)|x := Lf · Lf (h)|x =
k+1 k
¯ ·f (x) k≥0
∂x ¯
x

• esempio
f (x) : (x1 , x2 ) 7→ (2x1 , x1 + x2 ) h(x) : (x1 , x2 ) 7→ x1 x2

Lf (h)|x = x21 + 3x1 x2


∂ ∂
L2f (h)|x = 2x1 (x21 + 3x1 x2 ) + (x1 + x2 ) (x21 + 3x1 x2 )
∂x1 ∂x2
= 2x1 (2x1 + 3x2 ) + (x1 + x2 )(3x1 )
= 4(x1 )2 + 9x1 x2 + 3(x1 )2 = 7(x1 )2 + 9x1 x2
Se x0 = (1, 2)
L2f (h)|x0 = 7 + 18 = 25

Indicato, con I l’operatore identità, L0f (h)|x = I|x h = h(x), definiamo


l’esponenziale formale:
1 1
eLf = I + Lf + L2f + . . . + Lkf + . . . (II.5)
2! k!
tale che:
1
eLf (h)|x = h|x + Lf (h)|x + . . . + Lkf (h)|x + . . .
k!
La serie (II.5) é detta serie di Lie associata a Lf .

Osservazione
f (x) = Ax h(x) = Cx



Lf = Ax
∂x
¯ ¯
∂Cx ¯¯ ∂CAx ¯
¯
Lf (h)|x = ¯ ·Ax = CAx = L2f (h)|x = ¯ ·Ax = CA2 x, . . . , Lkf (h)|x = CAk x
∂x ¯ ∂x ¯
x x
10.1. Sistemi a tempo continuo 241

da cui
X CAk x
eLf (h)|x = = CeA x
k!
h≥0

se h = Id, si ha:
eLf (Id)|x = eA x

si ritrova l’esponenziale di matrice.

Calcolo dei nuclei

Per il calcolo dei nuclei si impiegherà una procedura iterativa di integrazione dell’equazione (II.1)
con condizione iniziale x0 a t0 = 0.

In base al formalismo introdotto possiamo riscrivere la (II.1) nel seguente modo

ẋ(t) = (Lf + u(t)Lg )(Id)|x(t)


y(t) = h(x(t))
inoltre ¯
∂h ¯¯
ẏ(t) = ẋ(t) = (Lf + u(t)Lg )(h)|x(t)
∂x ¯x(t)

ed integrando
Z t
y(t) = y(0) + (Lf + u(τ1 )Lg )(h)|x(τ1 ) dτ1
0

posto
∂h
Λ1 (x(t), u(t)) := (Lf + u(t)Lg )(h)|x(t) = |x(t) ẋ(t)
∂x
si ha
Z ¯
τ1
∂Λ1 (·, u(τ1 )) ¯¯
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + ¯ ẋ(τ2 )dτ2
0 ∂x ¯
x(τ2 )


Z τ1
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + (Lf + u(τ2 )Lg )(Λ1 (·, u(τ1 )))|x(τ2 ) dτ2
0


Z t Z tZ τ1
y(t) = y(0) + Λ1 (x0 , u(τ1 ))dτ1 + Λ2 (x(τ2 ), u(τ1 ), u(τ2 ))dτ2 dτ1
0 0 0
con
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) := (Lf + u(τ2 )Lg ) · (Lf + u(τ1 )Lg )(h)|x(τ2 )

Di nuovo si ottiene:
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) =
Z τ2
= Λ2 (x0 , u(τ1 ), u(τ2 )) + (Lf + u(τ3 )Lg )(Λ2 (·, u(τ1 ), u(τ2 ))|x(τ3 ) dτ3
0
242 10. Introduzione alle rappresentazioni non lineari

che porta alla forma generale:


Z t
y(t) = h(x0 ) + (Lf + u(τ1 )Lg )(h)|x0 dτ1
0
Z tZ τ1
+ (Lf + u(τ2 )Lg ) · (Lf + u(τ1 )Lg )(h)|x0 dτ2 dτ1
0 0

+... (II.6)
Z tZ τ1 Z τp−1
+ ... (Lf + u(τp )Lg ) . . . (Lf + u(τ1 )Lg )(h)|x0 dτp . . . dτ1
0 0 0
+...

per t ≥ τ1 ≥ . . . ≥ τp ≥ 0

Le espressioni dei nuclei possono ora essere ottenute per identificazione dei ’coefficienti’ dei termini
in u(τ1 ) (lineare in u), u(τ1 )u(τ2 ) (quadratico in u), ..
Per il primo nucleo si ha

¯ t2 ¯ ¯
w0 (t; x0 ) = h(x0 ) + tLf h¯x + L2f h¯x + . . . := etLf h¯x
0 2 0 0

ed esprime esprime la soluzione di ẋ = f (x), x(0) = x0 mediante la serie di Lie.


Per quanto riguarda la parte lineare rispetto all’ingresso, raggruppando i termini sotto integrale che
sono moltiplicati per u(τ ) si ottiene

X ¯ τ i1 (t − τ1 )i2
w1 (t, τ1 ; x0 ) = Lif1 Lg Lif2 ¯x0 1
i1 !i2 !
i1 ,i2 ≥0
¯
= eτ1 Lf Lg e(t−τ1 )Lf h¯x0 , t ≥ τ1

ove si è applicata la formula di integrazione per parti


Z Z
αdβ = αβ − βdα

R
che per α = u(τ )dτ e β = t dà l’uguaglianza
Z tZ τ1 Z t Z t Z t
u(τ2 )dτ2 dτ1 = u(τ1 )(t − τ1 )dτ1 = t u(τ1 )dτ1 − τ1 u(τ1 )dτ1
0 0 0 0 0

Con analoghi calcoli si ottiene, per i contributi quadratici in u(τ ),

X ¯ τ i1 (τ1 − τ2 )i2 (t − τ1 )i3


w2 (t1 , τ1 , τ2 ; x0 ) = Lif1 Lg Lif2 Lg Lif3 h¯x 2
0 i1 !i2 !i3 !
i1 i2 i3 ≥0
¯
= eτ2 Lf Lg e(τ1 −τ2 )Lf Lg et−τ1 )Lf h¯ x0

t ≥ τ1 ≥ τ2 .
10.1. Sistemi a tempo continuo 243

In generale
¯
wk (t, τ1 , . . . , τk ; x0 ) = · · · = eτk Lf Lg · · · e(t−τ1 )Lf h¯x0

Con gli stessi argomenti può essere reso esplicito il legame ingresso-stato che assume forma analoga
alla precedente in cui i nuclei γk assumono la forma
¯
γk (t, τ1 , . . . , τk ; x0 ) = eτk Lf Lg · · · Lg e(t−τ1 )Lf Id¯x0

ove Id indica la funzione identità, t ≥ τ1 . . . ≥ τk .

Il teorema di scambio
Poichè dai calcoli fatti, risulta
¯ ³ ¯ ´
y` (t) = w0 (t, x0 ) = etLf h¯x0 = h(x` (t)) = h etLf Id¯x0

ove il pedice ` indica che u ≡ 0, rimane dimostrato un noto teorema della teoria delle serie di
Lie (il Teorema di scambio). L’applicazione di etLf ad h coincide con il calcolo di h al risultato
dell’applicazione della serie differenziale esponenziale alla funzione identità.

In conclusione con un raggruppamento adeguato dei termini nella (II.6) permette di dedurre le
espressioni dei nuclei nella (II.3). Si ha:

X ti
w0 (t; x0 ) = ψ0 (t; x0 ) = etLf (h)|x0 = Lif (h)|x0 (II.7)
i!
i≥0

w1 (t, τ1 ; x0 ) = eτ1 Lf · Lg · e(t−τ1 )Lf (h)|x0 t ≥ τ1 ≥ 0


X τ1i1 (t − τ1 )i2
= Lif1 · Lg · Lif2 (h)|x0 (II.8)
i2 !i1 !
i1 ,i2 ≥0

w2 (t, τ1 , τ2 ; x0 ) = eτ2 Lf · Lg e(τ1 −τ2 )Lf · Lg e(t−τ1 )Lf (h)|x0


X τ1i1 (τ1 − τ2 )i2 (t − τ1 )i3
= Lif1 · Lg · Lif2 Lg · Lif3 (h)|x0 (II.9)
i1 !i2 !i3 !
i1 ,i2 ,i3 ≥0

t ≥ τ1 ≥ τ2 ≥ 0

...

wt (t, τ1 , . . . τk ; x0 ) = eτk Lf · Lg · e(τk−1 −τk )Lf Lg · . . . · Lg e(t−τ1 )Lf (h)|x0


X i τki1 . . . (τ1 − τ2 )ik (t − τ1 )ik+1
= Lif1 · Lg · . . . · Lg · Lfk+1 (h)|x0 (II.10)
i1 ! . . . ik+1 !
i1 ,...ik+1 ≥0

Si deducono le espressioni dei nuclei γk (·; x0 ) nella (II.2) ponendo h(x) = x, si ha:

γk (t, τ1 , τk ; x0 ) = eτk Lf · Lg · e(τk−1 −τk )Lf · Lg · . . . · Lg e(t−τ1 )Lf (Id)|x0


244 10. Introduzione alle rappresentazioni non lineari

X i τki1 . . . (τ1 − τ2 )ik (t − τ1 )ik+1


= Lif1 · Lg · . . . · Lg · Lfk+1 (Id)|x0 (II.11)
i1 ! . . . ik+1 !
i1 ,...,ik+1 ≥0

γ0 (t; x0 ) = etLf (Id)|x0 (II.12)

Dalla rappresentazione esplicita a quella implicita.


Si deduce facilmente dalle espressioni (II.7), (II.11) e (II.12).
¯
∂γ0 (t; x) ¯¯
= f (x)
∂t ¯t=0

γ1 (0, 0; x) = g(x)

w0 (0; x) = h(x)

Come casi particolari si ritrova


• lineare f (x) = Ax, g(x) = B, h(x) = Cx.

¯ t2 ¯
w0 (t; x0 ) = etLAx Cx¯x = (Cx + tCAx + CA2 x + . . .)¯x = CeAt x0
0 2 0

¯
w1 (t, τ1 ; x0 ) = eτ1 LAx LB e(t−τ1 )LAx Cx¯x0 =
¯
= eτ1 LAx LB CeA(t−τ1 ) x¯x = eτ1 LAx CeA(t−τ1 ) B
0

= CeA(t−τ1 ) B
¯
w2 (t, τ1 , τ2 ; x0 ) = eτ2 LAx LB e(τ1 −τ2 )LAx Cx¯x0 =
= eτ2 LAx LB Ce(t−τ1 )A B ≡ 0
wk = 0, k ≥ 2.

• bilineare f (x) = Ax, g(x) = N x + B, h(x) = Cx.


¯
w0 (t; x0 ) = etLAx Cx¯x0 = CeAt x0
¯
w1 (t, τ1 ; x0 ) =eτ1 LAx LN x+B e(t−τ1 )LAx Cx¯x0 =
³ ´¯
=eτ1 LAx CeA(t−τ1 ) (N x + B) ¯x 0

A(t−τ1 ) A(t−τ1 ) Aτ1


=Ce B + Ce Ne x0
¯
w2 (t, τ1 , τ2 ; x0 ) = eτ2 LAx LN x+B e(τ1 −τ2 )LAx LN x+B e(t−τ1 )LAx Cx¯x
³ 0
´¯
=e τ2 LAx
LN x+B Ce A(t−τ1 )
B + Ce A(t−τ1 )
Ne A(τ1 −τ2 )
x ¯x=0
= ···
= CeA(t−τ1 ) N eA(τ1 −τ2 ) B + CeA(t−τ1 ) N eA(τ1 −τ2 ) N eAτ2 x0
³ ´¡ ¢
wk (t, τ1 , . . . , τk ; x0 ) = CeA(t−τ1 ) N · · · N eA(τk−1 −τk ) B + N eAτk x0
10.1. Sistemi a tempo continuo 245

Proprietà dei nuclei

Si dimostra che il calcolo dei nuclei successivi si può fare in modo ricorsivo a partire da γ0 (t; x),
w0 (t; x) e g(x).

ek
Una proprietà importante è la separabilità dei nuclei: posto γ

ek (t; τ1 . . . τk , , γ0 (τk ; x)) = γk (t, τ1 , . . . , τk ; x)


γ
¯
ek (t; τ1 , . . . , τk ; x) = Lg e(τk−1 −τk )Lf · · · Lg e(t−τ1 )Lf Id¯x
γ
¯ ∂γ0 (t − τ1 , x)
e1 (t, τ1 ; x) = Lg e(t−τ1 )Lf Id¯x =
γ · g(x)
∂x
e
∂γ0 (t − τ1 , x) ¯¯
γ1 (t, τ1 ; x0 ) = γ0 (τ1 ,x)
· g(γ0 (τ1 , x))
∂x
quindi: noto γ0 (t, x), si può calcolare γ1 nel modo indicato. Analogamente si verifica che

γk−1 (t, τ1 , . . . , τk−1 , γ0 (τk−1 − τk ; x0 ))


∂e
ek (t, τ1 , . . . , τk , x) =
γ · g(x)
∂x

e quindi tutti i nuclei possono essere calcolati da γ0 (t, x) e g(x). Si hanno forme ricorrenti per il
calcolo.
Le stesse considerazioni possono essere ripetute per wk . Si ottiene:

ek (t, τ1 , . . . , τk ; γ0 (τk ; x)) = wk (t, τ1 , . . . , τk ; x)


w

che: ¯
ek−1 (t, τ1 , . . . , τk−1 ; γ0 (τk−1 − τk ; x)) ¯¯
∂w
ek (t, τ1 , . . . , τk ; x) =
w ¯ ·g(x) (II.14)
∂x ¯
x

10.1.c. Il problema della realizzazione

Sulla base della proprietà messa in evidenza è facile mostrare un semplice ed elegante risultato
relativo alla realizzazione causale.

Definizione 1. Assegnata una famiglia di nuclei vk (t, τ1 , . . . , τk ), k ≥ 0, t ≥ τ1 . . . ≥ τk una sua


realizzazione causale è costituita da una quintupla (n, x0 , f, g, h) (n dimensione dello spazio di stato,
x0 ∈ Rn , f , g ed h campi di vettori e trasformazione d’uscita che definiscono una rappresentazione
affine) tale che detti wk i nuclei ad essa associati si ha wk = vk .
246 10. Introduzione alle rappresentazioni non lineari

Teorema 2. Una famiglia di nuclei vk , k ≥ 0, ammette una realizzazione causale se e solo se esistono
un intero n, e due funzioni
P :R × Rn → Rn Q :R × Rn → Rn
(t, x) → P (t, x) (t, x) → Q(t, x)
ed un x0 ∈ Rn tale che

v0 (t) = Q(t, x0 )
¯
vk (t, τ1 , . . . , τk ) = LP (τk ,·) · · · LP (τ1 ,·) Q(t, ·)¯x
0

dimostrazione
Necessità: Le formule precedentemente richiamate mostrano l’esistenza delle funzioni Pt e Qt , si
ha:
Qt (x) = etLf (h)|x
X τk
Pτ1 (x) = eτ1 Lf · Lg · e−τ1 Lf (Id)|x = 1
adkf g(x)
k!
k≥0

con
ad0f (g) = g, adf (g) = [Lf , Lg ](Id), . . . , adkf g = [Lf , adk−1
f g](Id)

Sufficienza: Se esistono x0 , Pt e Qt si costruisce il sistema lineare analitico definito su Rn+1


seguente:

ẋ = Pξ (x)u z = (x, ξ), z0 = (x0 , 0) (II.15)


ξ˙ = 1 ⇒ ξ(t) = t
y = Qξ (x)

con:
∂ ∂
Lf = , Lg = Pξ (x)
∂ξ ∂x
si ottiene
γ0 (t; z) = (x, ξ + t), w0 (t; z) = Qξ+t (x)

γ0 (t; z0 ) = (x0 , t), w0 (t; z0 ) = Qt (x0 )


Z t Z t
x(t) = x0 + ẋ(τ1 )dτ1 = x0 + Lpτ1 (x(τ1 ))u(τ1 )dτ1
0 0
con Z τ1
x(τ1 ) = x0 + Lpτ2 (x(τ2 ))u(τ2 )dτ2
0


Z t Z t Z τp−1
x(t) = x0 + Lpτ1 (x0 )u(τ1 )dτ1 + . . . + ... Lpτp · . . . · Lpτ1 (x0 )u(τ1 )u(τp )dτp . . . dτ1
0 0 0
10.1. Sistemi a tempo continuo 247

wp (t, τ1 , . . . , τp ; z0 ) = Lpτp . . . Lpτ1 (Qt (x))|x0

La realizzazione bilineare
Esaminiamo quali condizioni supplementari sono necessarie per ottenere una realizzazione bilin-
eare.

Teorema 3. Una famiglia di nuclei vk , k ≥ 0, ammette una realizzazione bilineare se e solo se le


condizioni del Teorema 2 sono verificate e se inoltre:
- le funzioni P e Q sono lineari in x per ogni t fissato; i. e. esiste una matrice (n × n), P (t), e una
matrice (1 × n), Q(t), tali che:

Pt (x) = P (t)x, Qt (x) = Q(t)x

- per un’opportuna matrice n × n, X(t) si verifica

Q(t)X(s) = Q(t − s), ∀t, ∀s

Q(t)P (τ1 ) · P (τi )X(s) = Q(t − s)P (τ1 − s) . . . P (τi − s), ∀t, τ1 , . . . , τi , s

dimostrazione:
Necessità: le funzioni Pt e Qt di una realizzazione bilineare soddisfano queste condizioni, infatti:

Qt (τ ) = CetA x = Q(t)x

Pτ1 (x) = e−τ1 A N eτ1 A x = P (τ1 )x


da cui:
X(s) = e−sA0

Q(t)X(s) = Ce(t−s)A = Q(t − s)
Q(t)P (τ1 ) . . . P (τi )X(s) = Ce(t−τ1 )A N e(τ1 −τ2 )A N . . . N e(τi −s)A
Q(t − s)P (τ1 − s) . . . P (τi − s) = Ce(t−s−τ1 +s)A N e(τ1 −s−τ2 +s)A N . . . N e(τi −s)A ·
P (τi − s) = e(−τi +s)A N e(τi −s)A
Sufficienza. Supponiamo che siano verificate le condizioni della Proposizione 3, il sistema (II.15)
diventa bilineare dipendente dal tempo:

ẋ = P (ς)xu
ς˙ = 1
y = Q(ς)x
248 10. Introduzione alle rappresentazioni non lineari

Per passare ad una rappresentazione indipendente dal tempo bisogna utilizzare la seconda proprietà.

 ẋ = P (ς)x(ς)xu = P (0)xu

ς˙ = 1


y = Q(ς)x(ς)x = Q(0)x

Una situazione ricorrente nella pratica riguarda il caso in cui lo stato x0 sia di equilibrio.

f (x0 ) = 0 ⇒ γ0 (t, x0 ) = x0 , ∀t.

In tal caso con considerazioni analoghe a quelle accennate nel verificare la proprietà di separazione si
può mostrare che

Teorema 4. Rispetto ad uno stato di equilibrio


• i nuclei sono separabili nella forma

w1 (t, τ1 ; x0 ) = w11 (t − τ1 )
w2 (t, τ1 , τ2 ; x0 ) = w21 (t − τ1 )w22 (τ1 − τ2 )
..
.
wk (t, τ1 , . . . , τk ; x0 ) = wk1 (t − τ1 ) · · · wkk (τk−1 − τk )

• le funzioni wkj (τj−1 − τj ) sono fattorizzabili

wkj (τj−1 − τj ) = Qkj (τj−1 )Pkj (τj )

e di conseguenza
wkj (τj−1 − τj ) = Ckj eAkj (τj−1 −τj ) Bkj

con A, B e C matrici di dimensioni opportune.

dimostrazione:

Se x0 é un punto d’equilibrio ⇒ γ0 (t; x0 ) = x0 , ∀t ∈ R

ek (t, τ1 , . . . , τk ; x0 ) = wk (t, τ1 , . . . , τk ; x0 )
w

dalla (II.14) si deduce:


¯
∂w0 (t − τ1 ; x) ¯¯
w1 (t, τ1 ; x0 ) = ¯ ·g(x0 ) = W11 (t − τ1 )
∂x ¯
¯ x0 ¯
∂h0 γ0 (t; x) ¯¯ ∂γ0 (−τ1 ; x) ¯¯
= ¯ · ¯ ·g(x0 )
∂x ¯ ∂x ¯
x0 x0
= Q11 (t)P11 (τ1 )
10.1. Sistemi a tempo continuo 249

Analogamente per il 2’ ordine:


¯
e2 (t)τ1 ; γ0 (τ1 − τ2 ; x) ¯¯
∂w
w2 (t, τ1 , τ2 ; x0 ) = ¯ ·g(x0 )
∂x ¯
x0
¯ ¯
¯
∂w1 (t, τ1 ; ξ) ¯ ∂γ0 (τ1 − τ2 ; x) ¯¯
= ¯ · ¯ ·g(x0 )
∂ξ ¯ ∂x ¯
ξ=0 x0
= W21 (t − τ1 )W22 (τ1 − τ2 )
= Q21 (t)P21 (τ1 )Q22 (τ1 )P22 (τ2 )

e cosı̀ via.
Gli argomenti sviluppati costituiscono la prova del successivo Teorema 5 relativo alla realizzazione
di un numero finito di nuclei. Una soluzione può, infatti, essere ottenuta immediatamente impiegando
rappresentazioni bilineari (ciò mostra anche le generalità di tale classe di sistemi).

Teorema 5. Esiste una rappresentazione bilineare di un numero finito di nuclei associati al legame
ingresso uscita di un’assegnata rappresentazione affine rispetto all’igresso a partire da uno stato di
equilibrio x0 .

esempio
• k=1
w1 (t, τ1 , x0 ) = Q11 (t)P11 (τ ) = C11 eA11 (t−τ ) B11

ż = A11 z + B11 u
y1 = C11 z, z0 = 0
• k=2
w2 (t, τ1 , τ2 ; x0 ) = w21 (t − τ1 )w22 (τ1 − τ2 )
= C21 eA21 (t−τ1 ) B21 C22 eA22 (τ1 −τ2 ) B22
µ ¶ µ ¶ µ ¶
A21 0 0 B21 C22 0
ż2 = z2 + z2 u + u
0 A22 0 0 B22
y2 = ( C21 0 ) z2 , z2 (0) = 0
è una realizzazione di w2 solo, infatti
µ ¶
A21 0
(t−τ1 ) µ ¶
0 A 22 0 B21 C22
w2 = ( C21 0 ) e z2 u
0 0
µ ¶
µ ¶ A21 0
(τ1 −τ2 ) µ ¶
0 0
+ e 0 A22
B12 B22

Le rappresentazioni affini nell’ingresso: in sintesi


250 10. Introduzione alle rappresentazioni non lineari

• modello implicito: f , g e h analitiche

ẋ(t) = f (x(t)) + g(x(t))u(t) x(0) = x0 , y(t) = h(x(t))

• modello esplicito in serie di Volterra


Z t
x(t) = γ0 (t; x0 ) + γ1 (t, τ1 ; x0 )u(τ1 )dτ1 . . .
0
Z t Z τ1 Z τk
... γk (t, τ1 , . . . , τk ; x0 )u(τ1 ) . . . u(τk )dτ1 . . . dτk + . . .
0 0 0
Z t
y(t) = w0 (t; x0 ) + w1 (t, τ1 ; x0 )u(τ1 )dτ1 . . .
0
Z t Z τ1 Z τk
... wk (t, τ1 , . . . , τk ; x0 )u(τ1 ) . . . u(τk )dτ1 . . . dτk + . . .
0 0 0
k+1
γk (·; x0 ) : [0, T ] → R , wk (·; x0 ) : [0, T ]k+1 → R - t ≥ τ1 ≥ . . . ≥ τk ≥ 0
n

• derivata e serie differenziale di Lie


∂h
Lf h = f (x)
∂xi
L0f (h)|x = h(x) Lk+1
f (h)|x = Lf · Lkf (h)|x k≥0

1 2 1
eLf = I + Lf + Lf + . . . + Lkf + . . .
2! k!

1 k
eLf (h)|x = h|x + Lf (h)|x + . . . + L (h)|x + . . .
k! f
Se f ed h sono lineari, f (x) = Ax h(x) = Cx
X CAk x
eLf (h)|x = = CeA x
k!
k≥0

h = Id, la funzione identità,


eLf (Id)|x = eA x

• Calcolo dei nuclei per integrazioni successive


Z t
y(t) = y(0) + ẏ(τ1 )dτ1
0
¯
∂h ¯¯
ẏ(t) = ẋ(t) = (Lf + u(t)Lg )(h)|x(t)
∂x ¯x(t)

10.1. Sistemi a tempo continuo 251

Z t
y(t) = y(0) + (Lf + u(τ1 )Lg )(h)|x(τ1 ) dτ1
0

si pone
Λ1 (x(τ1 ), u(τ1 )) := (Lf + u(τ1 )Lg )(h)|x(τ1 )


Z ¯
τ1
∂Λ1 (·, u(τ1 )) ¯¯
Λ1 (x(τ1 ), u(τ1 )) = Λ1 (x0 , u(τ1 )) + ¯ ẋ(τ2 )dτ2
0 ∂x ¯
x(τ2 )
Z τ1
= (Lf + u(τ1 )Lg )(h)|x0 + (Lf + u(τ2 )Lg )(Lf + u(τ1 )Lg )(h)|x(τ2 ) dτ2
0


Z t
y(t) = y(0) + (Lf + u(τ1 )Lg )(h)|x0 dτ1 +
0
Z tZ τ1
(Lf + u(τ2 )Lg )(Lf + u(τ1 )Lg )(h)|x(τ2 ) dτ2 dτ1
0 0

si pone
Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) := (Lf + u(τ2 )Lg ) · (Lf + u(τ1 )Lg )(h)|x(τ2 )

Λ2 (x(τ2 ), u(τ1 ), u(τ2 )) =


Z τ2
= Λ2 (x0 , u(τ1 ), u(τ2 )) + (Lf + u(τ3 )Lg )(Λ2 (·, u(τ1 ), u(τ2 ))|x(τ3 ) dτ3
0


Z t
y(t) = h(x0 ) + (Lf + u(τ1 )Lg )(h)|x0 dτ1
0
Z tZ τ1
+ (Lf + u(τ2 )Lg ) · (Lf + u(τ1 )Lg )(h)|x0 dτ2 dτ1
0 0
Z tZ τ1 Z τp−1
+ ... (Lf + u(τp )Lg ) . . . (Lf + u(τ1 )Lg )(h)|x0 dτp . . . dτ1
0 0 0
+...
t ≥ τ1 ≥ . . . ≥ τ p ≥ 0


252 10. Introduzione alle rappresentazioni non lineari

Z t
y(t) = h(x0 ) + tLf (h)|x0 + Lg (h)|x0 u(τ1 )dτ1
0
Z t Z t Z τ1
t2 2
+ Lf (h)|x0 + tLf Lg (h)|x0 u(τ1 )dτ1 + Lg Lf (h)|x0 u(τ2 )dτ2 dτ1
2! 0 0 0
Z t Z τ1
+L2g (h)|x0 u(τ2 )u(τ1 )dτ2 dτ1 + . . .
0 0

• nuclei di ordine zero


¯ t2 ¯ X ti ¯
w0 (t; x0 ) = h(x0 ) + tLf h¯x0 + L2f h¯x0 + . . . = Lif (h)|x0 := etLf h¯x0
2 i!
i≥0

¯
γ0 (t; x0 ) = etLf Id¯x
0

• l’evoluzione libera come serie di Lie

yl (t) = w0 (t; x0 ) = h(γ0 (t; x0 )) = h(xl (t))

¯ ¯
etLf h¯x0 = h(etLf Id¯x0 )

teorema di scambio

• nuclei del primo ordine Z t


w1 (t, τ1 ; x0 )u(τ1 )dτ1 =
0
Z t Z τ1
= (Lg (h)|x0 u(τ1 ) + tLf LG (h)|x0 u(τ1 ) + Lg Lf (h)|x0 u(τ2 )dτ2 + . . .)dτ1
0 0
Z Z Z
αdβ = αβ − βdα α= u(τ )dτ β=t


Z tZ τ1 Z t Z t Z t
u(τ2 )dτ2 dτ1 = t u(τ1 )dτ1 − τ1 u(τ1 )dτ1 = u(τ1 )(t − τ1 )dτ1
0 0 0 0 0


X ¯ τ i1 (t − τ1 )i2 ¯
w1 (t, τ1 ; x0 ) = Lif1 Lg Lif2 h¯x0 1 = eτ1 Lf Lg e(t−τ1 )Lf h¯x0 , t ≥ τ1
i1 !i2 !
i1 ,i2 ≥0
10.1. Sistemi a tempo continuo 253

¯
γ1 (t, τ1 ; x0 ) = eτ1 Lf Lg e(t−τ1 )Lf Id¯x , t ≥ τ1
0

• nuclei di ordine superiore

X ¯ τ i1 (τ1 − τ2 )i2 (t − τ1 )i3


w2 (t1 , τ1 , τ2 ; x0 ) = Lif1 Lg Lif2 Lg Lif3 h¯x0 2
i1 !i2 !i3 !
i1 i2 i3 ≥0
¯
= eτ2 Lf Lg e(τ1 −τ2 )Lf Lg et−τ1 )Lf h¯x t ≥ τ1 ≥ τ20

¯
γ2 (t1 , τ1 , τ2 ; x0 ) = eτ2 Lf Lg e(τ1 −τ2 )Lf Lg et−τ1 )Lf Id¯x t ≥ τ1 ≥ τ2
0

In generale

¯
wk (t, τ1 , . . . , τk ; x0 ) = · · · = eτk Lf Lg e(τk−1 −τk )Lf Lg · · · Lg e(τ1 −τ2 )Lf Lg e(t−τ1 )Lf h¯x
0

¯
γk (t, τ1 , . . . , τk ; x0 ) = eτk Lf Lg e(τk−1 −τk )Lf Lg · · · Lg e(τ1 −τ2 )Lf Lg e(t−τ1 )Lf Id¯x
0

X ti
w0 (t; x0 ) = ψ0 (t; x0 ) = etLf (h)|x0 = Lif (h)|x0
i!
i≥0

w1 (t, τ1 ; x0 ) = eτ1 Lf · Lg · e(t−τ1 )Lf (h)|x0 t ≥ τ1 ≥ 0

X τ1i1 (t − τ1 )i2
= Lif1 · Lg · Lif2 (h)|x0
i2 !i1 !
i1 ,i2 ≥0

w2 (t, τ1 , τ2 ; x0 ) = eτ2 Lf · Lg e(τ1 −τ2 )Lf · Lg e(t−τ1 )Lf (h)|x0

X τ2i1 (τ1 − τ2 )i2 (t − τ1 )i3


= Lif1 · Lg · Lif2 Lg · Lif3 (h)|x0
i1 !i2 !i3 !
i1 ,i2 ,i3 ≥0

t ≥ τ1 ≥ τ2 ≥ 0

...

wk (t, τ1 , . . . τk ; x0 ) = eτk Lf · Lg · e(τk−1 −τk )Lf Lg · . . . · Lg e(t−τ1 )Lf (h)|x0

X i τki1 . . . (τ1 − τ2 )ik (t − τ1 )ik+1


= Lif1 · Lg · . . . · Lg · Lfk+1 (h)|x0
i1 ! . . . ik+1 !
i1 ,...ik+1 ≥0

t ≥ τ 1 ≥ . . . ≥ τk ≥ 0
254 10. Introduzione alle rappresentazioni non lineari

• dalla rappresentazione esplicita a quella implicita


¯
∂γ0 (t; x) ¯¯
= f (x)
∂t ¯t=0

γ1 (0, 0; x) = g(x)

w0 (0; x) = h(x)

• rappresentazioni lineari
f (x) = Ax, g(x) = B, h(x) = Cx

¯ t2 ¯
w0 (t; x0 ) = etLAx Cx¯x0 = (Cx + tCAx + CA2 x + . . .)¯x0 = CeAt x0
2
¯
w1 (t, τ1 ; x0 ) = eτ1 LAx LB e(t−τ1 )LAx Cx¯x0 =
¯
= eτ1 LAx LB CeA(t−τ1 ) x¯x = eτ1 LAx CeA(t−τ1 ) B
0
A(t−τ1 )
= Ce B
¯
w2 (t, τ1 , τ2 ; x0 ) = eτ2 LAx LB e(τ1 −τ2 )LAx Cx¯x0 =
= eτ2 LAx LB Ce(t−τ1 )A B ≡ 0
wk = 0, k ≥ 2.

• rappresentazioni bilineari
f (x) = Ax, g(x) = N x + B, h(x) = Cx

¯
w0 (t; x0 ) = etLAx Cx¯x0 = CeAt x0
¯
w1 (t, τ1 ; x0 ) =eτ1 LAx LN x+B e(t−τ1 )LAx Cx¯x =
³ ´0 ¯
=eτ1 LAx
CeA(t−τ1 )
(N x + B) ¯x
0

A(t−τ1 ) A(t−τ1 ) Aτ1


=Ce B + Ce Ne x0
¯
w2 (t, τ1 , τ2 ; x0 ) = eτ2 LAx LN x+B e(τ1 −τ2 )LAx LN x+B e(t−τ1 )LAx Cx¯x
³ 0
´¯
=e τ2 LAx
LN x+B Ce A(t−τ1 )
B + Ce A(t−τ1 )
Ne A(τ1 −τ2 )
x ¯x=0
= ···
= CeA(t−τ1 ) N eA(τ1 −τ2 ) B + CeA(t−τ1 ) N eA(τ1 −τ2 ) N eAτ2 x0
10.1. Sistemi a tempo continuo 255

³ ´¡ ¢
wk (t, τ1 , . . . , τk ; x0 ) = CeA(t−τ1 ) N · · · N eA(τk−1 −τk ) B + N eAτk x0

• proprietà dei nuclei


I nuclei possono essere calcolati da w0 , γ0 e g

ek (t; τ1 . . . τk , , γ0 (τk ; x)) = γk (t, τ1 , . . . , τk ; x)


γ


¯
ek (t; τ1 , . . . , τk ; x0 ) = Lg e(τk−1 −τk )Lf · · · Lg e(t−τ1 )Lf Id¯x
γ
¯ ∂γ0 (t − τ1 , x)
e1 (t, τ1 ; x0 ) = Lg e(t−τ1 )Lf Id¯x =
γ · g(x)
∂x

∂γ0 (t − τ1 , x) ¯¯
γ1 (t, τ1 ; x0 ) = γ0 (τ1 ,x0 )
· g(γ0 (τ1 , x0 ))
∂x
...
γk−1 (t, τ1 , . . . , τk−1 , γ0 (τk−1 − τk ; x))
∂e
ek (t, τ1 , . . . , τk , x) =
γ · g(x)
∂x

γk−1 (t, τ1 , . . . , τk−1 , γ0 (τk−1 − τk ; x0 )) ¯¯
∂e
γk (t, τ1 , . . . , τk , x) = γ0 (τk ,x)
· g(γ0 (τk , x))
∂x

ek (t, τ1 , . . . , τk ; γ0 (τk ; x)) = wk (t, τ1 , . . . , τk ; x)


w


¯
ek−1 (t, τ1 , . . . , τk−1 ; γ0 (τk−1 − τk ; x)) ¯¯
∂w
ek (t, τ1 , . . . , τk ; x) =
w ¯ ·g(x)
∂x ¯
x


ek−1 (t, τ1 , . . . , τk−1 , γ0 (τk−1 − τk ; x0 )) ¯¯
∂w
wk (t, τ1 , . . . , τk , x) = γ0 (τk ,x)
· g(γ0 (τk , x))
∂x

• Una famiglia di funzioni vk , k ≥ 0, ammette realizzazione causale se e solo se esistono un intero


n, e due funzioni
P :R × Rn → Rn Q :R × Rn → Rn
(t, x) → P (t, x) (t, x) → Q(t, x)
256 10. Introduzione alle rappresentazioni non lineari

tali che, per un opportuno x0 ∈ Rn ,

v0 (t) = Q(t, x0 )
¯
vk (t, τ1 , . . . , τk ) = LP (τk ,·) · · · LP (τ1 ,·) Q(t, ·)¯x0

• Una famiglia di nuclei vk , k =≥ 0, ammette una realizzazione bilineare se e solo se in aggiunta


alle precedenti condizioni:
- P e Q sono lineari in x per ogni t fissato;
- per un’opportuna matrice n × n, X(t) si verifica

Q(t)X(s) = Q(t − s), ∀t, ∀s

Q(t)P (τ1 ) · P (τi )X(s) = Q(t − s)P (τ1 − s) . . . P (τi − s), ∀t, τ1 , . . . , τi , s

• proprietà dei nuclei da x0 di equilibrio

f (x0 ) = 0 ⇒ γ0 (t, x0 ) = x0 , ∀t.

• se x0 è di equilibrio. I nuclei sono separabili nella forma

w1 (t, τ1 ; x0 ) = w11 (t − τ1 )
w2 (t, τ1 , τ2 ; x0 ) = w21 (t − τ1 )w22 (τ1 − τ2 )
..
.
wk (t, τ1 , . . . , τk ; x0 ) = wk1 (t − τ1 ) · · · wkk (τk−1 − τk )

inoltre le funzioni wkj (τj−1 − τj ) sono fattorizzabili

wkj (τj−1 − τj ) = Qkj (τj−1 )Pkj (τj )

wkj (τj−1 − τj ) = Ckj eAkj (τj−1 −τj ) Bkj

dimostrazione
γ0 (t; x0 ) = x0 , ∀t ∈ R


10.1. Sistemi a tempo continuo 257

ek (t, τ1 , . . . , τk ; x0 ) = wk (t, τ1 , . . . , τk ; x0 )
w


¯
∂w0 (t − τ1 ; x) ¯¯
w1 (t, τ1 ; x0 ) = ¯ ·g(x0 ) = W11 (t − τ1 )
∂x ¯
¯ x0 ¯
∂h0 γ0 (t; x) ¯¯ ∂γ0 (−τ1 ; x) ¯¯
= ¯ · ¯ ·g(x0 ) = Q11 (t)P11 (τ1 )
∂x ¯ ∂x ¯
x0 x0

Analogamente per il 2’ ordine:


¯
e2 (t, τ1 ; γ0 (τ1 − τ2 ; x)) ¯¯
∂w
w2 (t, τ1 , τ2 ; x0 ) = ¯ ·g(x0 )
∂x ¯
x0
¯ ¯
¯
∂w1 (t, τ1 ; ξ) ¯ ∂γ0 (τ1 − τ2 ; x) ¯¯
= ¯ · ¯ ·g(x0 )
∂ξ ¯ ∂x ¯
ξ=0 x0
= W21 (t − τ1 )W22 (τ1 − τ2 )
= Q21 (t)P21 (τ1 )Q22 (τ1 )P22 (τ2 )
...

• Esiste una rappresentazione bilineare di un numero finito di nuclei associati al legame ingresso us-
cita di un’assegnata rappresentazione affine rispetto all’igresso a partire da uno stato di equilibrio
x0 .
esempio
k=1

w1 (t, τ1 , x0 ) = Q11 (t)P11 (τ ) = C11 eA11 (t−τ ) B11

ż = A11 z + B11 u
y1 = C11 z, z0 = 0

k=2

w2 (t, τ1 , τ2 ; x0 ) = w21 (t − τ1 )w22 (τ1 − τ2 )


= C21 eA21 (t−τ1 ) B21 C22 eA22 (τ1 −τ2 ) B22
µ ¶ µ ¶ µ ¶
A21 0 0 B21 C22 0
ż2 = z2 + z2 u + u
0 A22 0 0 B22
y2 = ( C21 0 ) z2 , z2 (0) = 0
258 10. Introduzione alle rappresentazioni non lineari

è una realizzazione di w2 solo, infatti


µ ¶
A21 0
(t−τ1 ) µ ¶
0 A22 0 B21 C22
w2 = ( C21 0 ) e z2 u
0 0
µ ¶
µ ¶ A21 0
(τ1 −τ2 ) µ ¶
0 0 A 22 0
+ e
B12 B22

10.2. Sistemi a Tempo Discreto

10.2.a. Sistemi lineari (richiami)

Data la rappresentazione implicita di un sistema lineare a tempo discreto


(
x(k + 1) = Ax(k) + Bu(k)
y(k) = Cx(k)

I comportamenti ingresso/stato e ingresso/uscita sono descritti dalla rappresentazione esplicita

X
k−1
x(k) = γ0 (k)x0 + γ1 (k − τ )u(τ )
τ =0
X
k−1
k
= A x0 + Ak−1−τ Bu(τ )
τ =0
X
k−1
y(k) = w0 (k)x0 + w1 (k − τ )u(τ )
τ =0
X
k−1
= CA x0 +k
CAk−τ −1 Bu(τ )
τ =0

dove γ0 (k)x e w0 (k)x rappresentano le evoluzioni libere (corrispondenti a ingressi nulli) nello stato e
nell’uscita. γ1 (k) e w1 (k) sono i nuclei degli integrali di convoluzione che caratterizzano il contributo
del forzamento sullo stato x(k) e rispettivamente l’uscita y(k).

Il passaggio dalla reppresentazione esplicita a quella implicita è immediato; si ha infatti

A = γ0 (1)
C = w0 (0)
B = γ1 (1)

Proprietà dei nuclei


10.2. Sistemi a Tempo Discreto 259

Le seguenti fattorizzazioni sono di immediata verifica


¯
∂γ0 (k − τ − 1)x ¯¯ ∂ ¯
γ1 (k − τ ) = ¯ ·B = (Ak−τ −1 x)¯x B
∂x x0 ∂x 0

¯
∂w0 (k − τ − 1)x ¯¯ ∂ ¯
w1 (k − τ ) = ¯ ·B = (CAk−τ −1 x)¯x B
∂x x0 ∂x 0

Se ne deduce che il calcolo dei nuclei γ1 (k) e w1 (k) si può fare a partire dalle risposte libere γ0 (k)x e
w0 (k)x rispettivamente e dalla matrice B. Queste considerazioni saranno estese al caso non lineare.

Separabilità dei nuclei

Un nucleo stazionario w1 (k − τ ) si dice separabile se esistono delle matrici Qi (k) e Pi (τ ) di


dimensioni opportune, tali che:
w1 (k − τ ) = Q(k)P (τ )

In base alle precedenti considerazioni:

• i nuclei associati alla rappresentazione (I.1) sono separabili

• un funzionale ingresso/uscita lineare

X
k−1
y(k) = w1 (k − τ )u(τ )
τ =0

descritto da un nucleo separabile

w1 (k − τ ) = Q(k)P (τ )

ammette una realizzazione lineare:


(
x(k + 1) = x(k) + P (k)u(k)
y(k) = Q(k)x(k)

infatti
y(k) = Q(k)P (k − 1)u(k − 1) + Q(k)x(k − 1)
= w1 (1)u(k − 1) + Q(k)P (k − 2)u(k − 2) + Q(k)x(k − 2)
= w1 (1)u(k − 1) + w1 (2)u(k − 2) + Q(k)x(k − 2)
= ...
X
k−1
= w1 (k − τ )u(τ )
τ =0

la fattorizzabilità è condizione necessaria e sufficiente di realizzabilità


260 10. Introduzione alle rappresentazioni non lineari

10.2.b. Rappresentazioni a tempo discreto affini nell’ingresso

aggiungere pb della realizzazione

Si considera per semplicità un sistema lineare analitico ad ingresso scalare, definito su Rn . A


differenza del caso continuo, l’ipotesi di linearità in u potrebbe essere tolta nel tempo discreto senza
per questo modificare i risultati che seguono

x(k + 1) = x(k) + f (x(x)) + g(x(k)u(k)) (III.1)


y(k) = h(x(k))

f, g : Rn → Rn e h : Rn → R

sono funzioni analitiche. L’assumere che la deriva abbia la forma x + f (x) non modifica la generalità
del problema, essa é fatta con il solo scopo di semplificare le notazioni. x(k) ∈ Rn , x0 stato iniziale.

Comportamento ingresso/stato - ingresso/uscita


Un calcolo elementare mostra che la risposta nello stato e nell’uscita del sistema (III.1) é un funzionale
non lineare degli ingressi ottenuto per sostituzioni successive di una funzione in un’altra.

Risposta nello stato


¡ ¢
x(1) = I + f + u(0)g (x0 )
¡ ¢
x(2) = I + f + u(1)g (x(1))
¡ ¢¡ ¢
= I + f + u(1)g I + f + u(0)g (x0 )
...
¡ ¢ ¡ ¢
x(k) = I + f + u(h − 1)g · . . . · I + f + u(0)g (x0 ) (III.2)

Risposta nell’uscita

y(0) = h(x0 )
¡ ¢
y(1) = h · I + f + u(0)g (x0 )
¡ ¢¡ ¢
y(2) = h · I + f + u(1)g · I + f + u(0)g (x0 )
...
¡ ¢ ¡ ¢
y(k) = h · I + f + u(h − 1)g · . . . · I + f + u(0)g (x0 ) (III.3)

Nel caso di sistemi lineari e bilineari, in virtù della linearità rispetto ad x, le composizioni di funzioni
si riconducono a prodotti di matrici ciò permette il calcolo dei coefficienti degli sviluppi in potenze
degli ingressi u(0), . . . , u(k + 1) delle espressioni (III.2) e (III.3). Nel caso lineare più in generale n é
cosı̀; per calcolare questi coefficienti vale a dire i nuclei di Volterra bisogna introdurre uno strumento
adatto a rappresentare la composizione di funzioni.
10.2. Sistemi a Tempo Discreto 261

Esponenziale tensoriale
Siano f e g:|Rn → |Rn ; si definisce il prodotto ⊗ dei due operatori Lf e Lg cpme

X
m
∂2
Lf ⊗ Lg = fi1 gi2
i1 ,i2 =1
∂xi1 ∂xi2

si ha: ¯
X
m
∂ 2 h ¯¯
Lf ⊗ Lg (h)|x = fi (x)gi2 (x)
i1 ,i2 =1
∂xi1 ∂xi2 ¯x 1

Questo prodotto é:


- commutativo
Lf ⊗ Lg (h) = Lg ⊗ Lf (h)

- associativo rispetto all’addizione


Se g1 e g2 : |Rn → |Rn
Lf ⊗ (Lg1 + Lg2 ) = Lf ⊗ Lg1 + Lf ⊗ Lg2

Si definisce cosı̀ la potenza tensoriale Lf

L⊗k ⊗k−1
f = Lf ⊗ Lf L⊗0
f =I

e la serie ”esponenziale tensoriale”

1 ⊗k
exp⊗ Lf = ∆f = I + Lf + . . . + L + ...
k! f

Proposizione 6: Se f : |Rn → |Rn e h : |Rn → |R sono funzioni analitiche, si verifica l’eguaglianza:

∆f (h)|x = h · (I + f )(x) = h(x + f (x)) (III.5)

La prova consiste nel calcolo dello sviluppo in serie di Taylor di h(x + f (x)) in potenze di f (x).
¯
X n
∂h ¯¯
h · (x + f (x)) = h(x) + ·fi (x)
i =1
∂xi1 ¯x 1
1
¯
1 X ∂ 2 h ¯¯
n
+ ·fi (x)fi2 (x)
2! i ,i =1 ∂xi1 ∂xi2 ¯x 1
1 2

+ ...
¯
1 X ¯
n
∂ph ¯ ·fi (x) . . . fip (x)
+
p! i ...,i =1 ∂xi1 . . . ∂xip ¯x 1
1 p

1 ⊗2 1
= h(x) + Lf (h)|x + Lf (h)|x + . . . + L⊗p (h)|x + . . .
2! p! f
= ∆f (h)|x

Qualche proprietà
262 10. Introduzione alle rappresentazioni non lineari

- Siano f 1 , . . . , f k funzioni analitiche |Rn → |Rn si verifica facilmente che vale, per la composizione,

h0 (I + f h ) · . . . · (I + f 1 )(x) = ∆f1 · . . . · ∆fk (h)|x

- ∆f è un operatore lineare; infatti comunque fissate due funzioni λ1 e lambda2 , ed una coppia di
numeri reali α1 ed α2
∆f (α1 Λ1 + α2 h2 ) = α1 ∆f (Λ1 ) + α2 ∆f (h2 )
- ∆f +g = ∆f ⊗ ∆g
- se α è un numero reale
αh ⊗h
∆αf = I + αLf + . . . + L + ...
h! f
Se ne deduce che:
¡ X uh ¢ X uk
∆f +ug = ∆f ⊗ ∆ug = ∆f ⊗ I + L⊗h
g = ∆f + ∆f ⊗ L⊗k
g (III.6)
h! k!
h≥1 k≥1

∆f ⊗ L⊗k
g agisce su una funzione h come segue

∆f (h)|x = h(x + f (x))


¯ ¯
X
n
∂h ¯¯ ∂h ¯¯
∆f ⊗ Lg (h)|x = ·gi (x) = ·g(x)
∂xi ¯
i=1 x+f (x) ∂x ¯x+f (x)
......
¯ ¯
X
n
∂ 2 h ¯¯ ∂ ⊗2 ¯¯
∆f ⊗ L⊗2
g (h)|x = ¯ ·gi1 (x)gi2 (x) = ⊗2 ¯
·g ⊗2 (x)
i1 ,i2 =1
∂xi 1 ∂xi 2 x+f (x) ∂x x+f (x)

con: · ¸⊗2
∂ ⊗2 h ∂h ∂h
= ,...,
∂x⊗2 ∂x1 ∂xu
· ¸T
⊗2 ⊗2
g (x) = [g1 (x), . . . , gu (x)]

in generale, ¯
∂ ⊗k h ¯¯
∆f ⊗ L⊗k
g (h)|x = ·g ⊗k (x)
∂x⊗k ¯x+f (x)
es:
f : |R2 → |R2 , g : |R2 → |R2 , h : |R2 → |R
(x1 , x2 ) 7→ (x21 , x1 + x2 ), (x1 , x2 ) 7→ (x1 , x22 ), (x1 , x2 ) 7→ x1 x2
∆f (h)|x = h(x + f (x)) = (x1 + x21 ) − (x2 + x1 + x2 )
= 2x1 x2 + x21 + 2x2 + x21 + x31
¯ ¯
∂h ¯¯ ∂h ¯¯
∆f ⊗ Lg (h)|x = ·g1 (x) + ·g2 (x)
∂x1 ¯x+f (x) ∂x2 ¯x+f (x)
= (2x2 + x1 )x1 + (x1 + x21 )x22
= 2x1 x2 + x21 + x1 x22 + x21 x22
10.2. Sistemi a Tempo Discreto 263

1
∆f (h)|x = h|x + Lf (h)|x + Lf (h)|x
¯ 2 ¯ ¯
∂h ¯¯ ∂h ¯¯ ∂h ¯¯
= x1 x2 + f1 (x) + f2 (x) + f1 (x)f2 (x)
∂x1 ¯x ∂x2 ¯x ∂x1 ∂x2 ¯x
= x1 x2 + x2 x21 + x21 + x1 x2 + x31 + x21 x2
= 2x1 x2 + 2x21 x2 + x21 + x31

Calcolo dei nuclei

Con il formalismo introdotto, le espressioni (III.2) e (III.3) possono essere scritte nella forma:

x(k) = ∆f +u(0)g · . . . · ∆f +u(k−1)g (Id)|x0 (III.7)

y(k) = ∆f +u(0)g · . . . · ∆f +u(k−1)g (h)|x0 (III.8)

Utilizzando l’espressione (III.6) si ha:


µ X ui0 (0) ¶ µ X uik−1 (k − 1) ¶
⊗i0 ⊗ik−1
y(k) = ∆f + ∆f ⊗ Lg · . . . · ∆f + ∆f ⊗ Lg (h)|x0 (III.9)
i0 ! ik−1 !
i0 ≥1 ik−1 ≥1

X
k−1
= w0 (k; x0 ) + w1 (k, τ1 ; x0 )u(τ1 )
τ1 =0

X
k−1
+ w2 (k, τ1 , τ2 ; x0 )u(τ1 )u(τ2 )
τ1 ≥τ2 =0
+ ...
X
+ wp (k, τ1 , . . . , τp ; x0 )u(τ1 ) . . . u(τp )
τ1 ≥...≥τp

+ ... (III.10)

Lo sviluppo (III.10) é la serie di Volterra associata al sistema (III.1). Dallo sviluppo (III.9) si deduce
l’espressione dei nuclei wp (·; x0 ).
Si ottiene:
w0 (k; x0 ) = ∆kf (h)|x0
1 −1
w1 (k, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f (h)|x0 (III.11)

Per i nuclei di ordine superiore al primo, bisogna distinguere i nuclei corrispondenti ai prodotti degli
ingressi per tempi strettamente crescenti da quelli corrispondenti a prodotti di ingressi allo stesso
istante.
Per l’ordine 2 si ha:
se τ1 > τ2
u(τ1 )u(τ2 )
w2 (k, τ1 , τ2 ; x0 ) = ∆τf2 · ∆f ⊗ Lg ∆τf1 −τ2 −1 ∆f ⊗ Lg ∆k−τ
f
1 −1
(h)|x0 (III.12)
264 10. Introduzione alle rappresentazioni non lineari

se τ1 = τ2
u(τ1 )2
1 τ1 k−τ1 −1
w2 (k, τ1 , τ1 ; x0 ) = ∆ ∆f ⊗ L⊗2
g ∆f (h)|x0 (III.13)
2 f
Per l’ordine 3:
se τ1 > τ2 > τ3
u(τ1 )u(τ2 )u(τ3 )

w3 (k, τ1 , τ2 , τ3 ; x0 ) = ∆τf3 ∆f ⊗ Lg ∆τf2 −τ3 −1 ∆f ⊗ Lg ∆τf1 −τ2 −1 ∆f ⊗ Lg ∆k−τ


f
1 −1
(h)|x0 (III.14)

se τ1 > τ2 = τ3
u(τ1 )u(τ2 )2

1 τ2 τ1 −τ2 −1 1 −1
w3 (k, τ1 , τ2 , τ2 ; x0 ) = ∆ ∆f ⊗ L⊗2
g ∆f ∆f ⊗ Lg ∆k−τ (h)|x0 (III.15)
2 f f

se τ1 = τ2 > τ3
u(τ2 )2 u(τ3 )

1 τ3
w3 (k, τ2 , τ2 , τ3 ; x0 ) = ∆f ∆f ⊗ Lg ∆τf3 −τ2 −1 ∆f ⊗ L⊗2 k−τ2 −1
g ∆f (h)|x0 (III.16)
2
se τ1 = τ2 = τ3
u(τ1 )3
1 τ1 k−τ1 −1
w3 (k, τ1 , τ1 , τ1 ; x0 ) = ∆f ∆f ⊗ L⊗3
g ∆f (h)|x0 (III.17)
3!
e cosı̀ via per wp (k, . . . , x0 ), p > 3
La stessa cosa succede per i nuclei γp (·; x0 ) associati alla risposta nello stato (7), é sufficiente in questo
caso porre
h(x) = x

Si ottiene
γ0 (k; x0 ) = ∆kf (Id)|x0
1 −1
γ1 (k, τ1 ; x0 ) = ∆τf1 ∆f ⊗ Lg ∆k−τ
f (Id)|x0

...

Passaggio dalla forma esplicita alla forma implicita


Dalle formule (III.10) e (III.11) si deduce

x + f (x) = γ0 (1; x)
|
g(x) = γ1 (1, 0; x) = ∆f ⊗ Lg (Id)|x (III.18)

h(x) = w0 (0, x)
10.2. Sistemi a Tempo Discreto 265

Osservazione si ritrova facilmente il caso bilineare ponendo:

x + f (x) = x + Ax
y(x) = N x
h(x) = Cx

si ha:
1 ⊗h
∆f (h)|x = h|x + Lf (h)|x + . . . + L (h)|x + . . .
k! f
con h(x) = Cx ¯
∂h ¯¯
Lf (h)|x = ·f (x) = CAx
∂x ¯x
L⊗2
f (h)|x = 0

∆f (h)|x = C(I + A)x

w0 (k; x) = C(I + A)k x

Analogamente si verifica:
∆kf (I)|x = (I + A)k x
¯
∂h ¯¯
∆f ⊗ Lg (h)|x = ·g(x)
∂x ¯x+f (x)
= CN x

∆f ⊗ L⊗p
g (h)|x = 0

se p > 1
da cui:

w1 (k + 1, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f
1
(h)|x0
= C(I + A)k−τ1 N (I + A)τ1 x0

e cosı̀ via per i nuclei di ordine superiore.

Proprietà dei nuclei


Definiamo i nuclei wp (k, τ1 , . . . , τp ; x) come fatto in precedenza.

ep (k, τ1 , . . . , τp ; γ0 (τp ; x)) = wp (k, τ1 , . . . , τp ; x)


w

se ne deduce un calcolo iterato dei nuclei successivi a partire dall’evoluzione libera e da g(x).
Per i primi nuclei si ha:
γ0 (k; x) = ∆kf (I)|x , w0 (k; x) = ∆kf (h)|x

e1 (k, τ1 ; γ0 (τ1 ; x)) = w1 (k, τ1 ; x)


w
266 10. Introduzione alle rappresentazioni non lineari

con:

1 −1
e1 (k, τ1 ; x) = ∆f ⊗ Lg ∆k−τ
w f (h)|x
¯
∂w0 (k − τ1 − 1; x) ¯¯
= ¯ ·g(x) (III.19)
∂x x+f (x)

Analogamente per l’ordine 2:


se τ1 > τ2

e2 (k, τ1 > τ2 ; x) = ∆f ⊗ Lg · ∆τf1 −τ2 −1 · ∆f ⊗ Lg · ∆k−τ


w f
1 −1
(h)|x
¡ τ1 −τ2 −1
¢¯
e1 k, τ1 , ∆f
∂w (x) ¯
= ¯ ·g(x) (III.20)
∂x ¯
x+f (x)

se τ1 = τ2
1 k−τ1 −1
e2 (k, τ1 = τ2 ; x) =
w ∆f ⊗ L⊗2 g · ∆f (h)|x
2 ¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
= ¯ ·g ⊗2 (x) (III.21)
2 ∂x⊗2 x+f (x)

Proprietà dei nuclei associati alla risposta del sistema (III.1) da uno stato iniziale di equilibrio

Se x0 é uno stato di equilibrio, allora x0 + f (x0 ) = x0 , e

ep (k, τ1 , . . . , τp ; x0 ) = wp (k, τ1 , . . . , τp ; x0 )
w

e la (III.19) diventa:
¯
∂w0 (k − τ1 − 1; x) ¯¯
w1 (k, τ1 ; x0 ) =
∂x ¯ ·g(x0 )
x0

∆f ⊗ Lg ∆k−τ
f
1
(h)|x
= w11 (k − τ1 − 1) (III.22)

la (III.20) diventa:
¯ ¯
∂w1 (k, τ1 , ς) ¯¯ ∂∆τf1 −τ2 −1 (x) ¯
w2 (k, τ1 , τ2 ; x0 ) = · ¯ ·g(x0 )
∂ς ¯ ∂x ¯
ς=x0 x=x0
1
= w21 (k − τ1 − 1)w22
1
(τ1 − τ2 − 1) (III.23)

la (III.21) diventa:
¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
w2 (k, τ1 , τ1 ; x0 ) = ¯ ·g ⊗2 (x0 )
2 ∂x⊗2 x=x0
2
= w21 (k − τ1 − 1) (III.24)

Si deduce da ciò la seguente proposizione:


Proposizione 1: Sia ssegnata la rappresentazione a tempo discreto (III.1), con (I + f ) invertibile, e
10.2. Sistemi a Tempo Discreto 267

sia x0 di equilibrio. I primi p nuclei ammettono una realizzazione a stato affine; il comportamento
ingresso/uscita é di tale modello è caratterizzato da questi p nuclei e unicamente da essi.
Con l’ipotesi di invertibilità della funzione (I + f ) : |Rn → |Rn si deducono dalle (III.23) e (III.24) le
ulteriori seguenti decomposizioni
¯ ¯ ¯
∂w0 (k − τ1 − 1, x) ¯¯ ∂w0 (k − 1, ς) ¯¯ ∂γ0 (τ1 , x) ¯¯
¯ g(x0 ) = ¯ · ¯ ·g(x0 )
∂x x0 ∂ς ς=x0 ∂x x=x0
= P11 (k − 1)Q11 (τ1 ) = C11 (A11 )k−τ1 −1 B11

Analogamente:
1
w2 (k, τ1 > τ2 ; x0 ) = P21 (k − 1)Q121 (τ1 )P22
1
(τ1 − 1)Q122 (τ2 )
1
= C21 (A121 )k−τ1 −1 B21
1 1
C22 (A122 )τ1 −τ2 −1 B22
1

2
w2 (k, τ1 , τ1 ; x0 ) = P21 (k − 1)Q221 (τ1 ) = C21
2
(A221 )k−1−τ1 B21
2

e cosı̀ via per i nuclei d’ordine superiore.

Realizzazione a stato affine


Il nucleo w1 (k, τ1 ; x0 ) é realizzato dal seguente sistema lineare di punto iniziale z10 = 0

z1 (k + 1) = A11 z1 (k) + B11 u(k)


y1 (k) = C11 z1 (k)

si ha:
X
k−1
1 −1
y1 (k) = C11 Ak−τ
11 B11 u(τ1 )
τ1 =0

Il nucleo w2 (k, τ1 , τ2 ; x0 ) é realizzato dal seguente sistema bilineare, di punto iniziale z20 = 0
 · 1 ¸ · ¸ · ¸

 z2 (k + 1) = A21 0 0 B211 1
C22 0
z (k) + z2 (k)u(k) + u(k)
0 A122 2 0 0 1
B22


2y (k) = [ C 1 0 ]z (k)
21 2

Si ha:
X
k−1
y2 (k) = 1
C21 (A121 )k−τ1 −1 B21
1 1
C21 (A122 )τ1 −τ2 −1 B22
1
u(τ1 )u(τ2 )
τ1 >τ2 =0

Gli altri nuclei sono nulli

Il nucleo w2 (k, τ1 = τ2 ; x0 ) é realizzato dal sistema a stato affine, di punto iniziale z30 = 0

 z (k + 1) = A2 z (k) + 1 B 2 u2 (k)
2 21 3
2 21
 2
y3 (k) = C21 z3 (k)

Questi tre sistemi realizzano i tre primi nuclei

w1 (k, τ1 ; x0 ), w2 (k, τ1 > τ2 ; x0 ), w3 (k, τ1 = τ2 ; x0 )


268 10. Introduzione alle rappresentazioni non lineari

y(k) = y1 (k) + y2 (k) + y3 (k)

Un’analisi più approfondita consente di limitare il numero di sistemi a stato affine. Nel caso precedente
chiamando
A11 = A221 , C11 = C21 2


2
z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21? u2 (k)
y4 (k) = C11 z4 (k)
con
y4 (k) = y1 (k) + y3 (k)

Rappresentazioni affini rispetto all’ingresso: in sintesi

x(k + 1) = x(k) + f (x(k)) + g(x(k)) · u(k))


y(k) = h(x(k))

f, g : Rn → Rn e h : Rn → R

funzioni analitiche
Risposta nello stato
¡ ¢
x(1) = I + f + u(0)g (x0 )
...
¡ ¢ ¡ ¢
x(k) = I + f + u(k − 1)g · . . . · I + f + u(0)g (x0 )

Risposta in uscita

y(0) = h(x0 )
¡ ¢
y(1) = h · I + f + u(0)g (x0 )
...
¡ ¢ ¡ ¢
y(k) = h · I + f + u(k − 1)g · . . . · I + f + u(0)g (x0 )

• Esponenziale tensoriale
Si definisca il prodotto ⊗ dei due operatori Lf e Lg come

X
m
∂2
Lf ⊗ Lg = fi1 gi2
i1 ,i2 =1
∂xi1 ∂xi2

- ⊗ è commutativo
Lf ⊗ Lg = Lg ⊗ Lf
10.2. Sistemi a Tempo Discreto 269

- ⊗ è associativo rispetto all’addizione

Lf ⊗ (Lg1 + Lg2 ) = Lf ⊗ Lg1 + Lf ⊗ Lg2

L⊗k ⊗k−1
f := Lf ⊗ Lf L⊗0
f =I

1 ⊗k
exp⊗ Lf := ∆f = I + Lf + . . . + L + ...
k! f

Proposizione
∆f (h)|x = h ◦ ·(I + f )(x) = h(x + f (x))
¯
X n
∂h ¯¯
h · (x + f (x)) = h(x) + ·fi (x)
i1 =1
∂xi1 ¯x 1
¯
1 X ∂ 2 h ¯¯
n
+ ·fi (x)fi2 (x)
2! i ,i =1 ∂xi1 ∂xi2 ¯x 1
1 2

+ ...
¯
1 X ¯
n
∂ph ¯ ·fi (x) . . . fip (x)
+
p! i ...,i =1 ∂xi1 . . . ∂xip ¯x 1
1 p

1 ⊗2 1
= h(x) + Lf (h)|x + Lf (h)|x + . . . + L⊗p (h)|x + . . .
2! p! f
= ∆f (h)|x

Qualche proprietà
k
- h ◦ (I + fk ) ◦ . . . ◦ (I + f1 )(x) = ∆f1 · . . . · ∆fk (h)|x = (∆f ) h|x

- ∆f (α1 h1 + α2 h2 ) = α1 ∆f (h1 ) + α2 ∆f (h2 )

- ∆f +g = ∆f ⊗ ∆g
αh ⊗h
- ∆αf = I + αLf + . . . + h! Lf + ...


¡ X uk ¢ X uk
∆f +ug = ∆f ⊗ ∆ug = ∆f ⊗ I + L⊗k
g = ∆f + ∆f ⊗ L⊗k
g
k! k!
h≥1 k≥1

∆f (h)|x = h(x + f (x))


¯
∂h ¯¯
∆f ⊗ Lg (h)|x = ·g(x)
∂x ¯x+f (x)
270 10. Introduzione alle rappresentazioni non lineari

X ¯
∂ 2 h ¯¯
n
∆f ⊗ L⊗2
g (h)|x = ·gi (x)gi2 (x)
i1 ,i2 =1
∂xi1 ∂xi2 ¯x+f (x) 1
¯
∂ ⊗2 ¯¯
= ·g ⊗2 (x)
∂x⊗2 ¯x+f (x)
· ¸⊗2
∂ ⊗2 h ∂h ∂h
= ,...,
∂x⊗2 ∂x1 ∂xn
· ¸T
⊗2 ⊗2
g (x) = [g1 (x), . . . , gn (x)]

···
¯
∂ ⊗k h ¯¯
∆f ⊗ L⊗k
g (h)|x = ·g ⊗k (x)
∂x⊗k ¯x+f (x)

• esempio

f : (x1 , x2 ) 7→ (x21 , x1 + x2 ), g : (x1 , x2 ) 7→ (x1 , x22 ), h : (x1 , x2 ) 7→ x1 x2

∆f (h)|x = h(x + f (x)) = (x1 + x21 ) − (x2 + x1 + x2 )


= 2x1 x2 + x21 + 2x2 + x21 + x31
¯ ¯
∂h ¯¯ ∂h ¯¯
∆f ⊗ Lg (h)|x = ·g1 (x) + ·g2 (x)
∂x1 ¯x+f (x) ∂x2 ¯x+f (x)
= (2x2 + x1 )x1 + (x1 + x21 )x22 = 2x1 x2 + x21 + x1 x22 + x21 x22
1
∆f (h)|x = h|x + Lf (h)|x + Lf (h)|x
¯ 2 ¯ ¯
∂h ¯¯ ∂h ¯¯ ∂h ¯¯
= x1 x2 + f1 (x) + f2 (x) + f1 (x)f2 (x)
∂x1 ¯x ∂x2 ¯x ∂x1 ∂x2 ¯x
= x1 x2 + x2 x21 + x21 + x1 x2 + x31 + x21 x2 = 2x1 x2 + 2x21 x2 + x21 + x31

Calcolo dei nuclei

x(k) = ∆f +u(0)g · . . . · ∆f +u(k−1)g (Id)|x0

y(k) = ∆f +u(0)g · . . . · ∆f +u(k−1)g (h)|x0


µ X ui0 (0) ¶ µ X uik−1 (k − 1) ¶
y(k) = ∆f + ∆f ⊗ L⊗i
g
0
· . . . · ∆f + ⊗ik−1
∆f ⊗ Lg (h)|x0
i0 ! ik−1 !
i0 ≥1 ik−1 ≥1
10.2. Sistemi a Tempo Discreto 271

X
k−1 X
k−1
= w0 (k; x0 ) + w1 (k, τ1 ; x0 )u(τ1 ) + w2 (k, τ1 , τ2 ; x0 )u(τ1 )u(τ2 )
τ1 =0 τ1 ≥τ2 =0
X
+... + wp (k, τ1 , . . . , τp ; x0 )u(τ1 ) . . . u(τp ) + . . .
τ1 ≥...≥τp

serie di Volterra a tempo discreto .

nucleo di ordine zero

w0 (k; x0 ) = ∆kf (h)|x0

nucleo del primo ordine

1 −1
w1 (k, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f (h)|x0

nuclei del secondo ordine


se τ1 > τ2
u(τ1 )u(τ2 )
w2 (k, τ1 , τ2 ; x0 ) = ∆τf2 · ∆f ⊗ Lg · ∆τf1 −τ2 −1 · ∆f ⊗ Lg · ∆k−τ
f
1 −1
(h)|x0

se τ1 = τ2
u(τ1 )2
1 τ1 k−τ1 −1
w2 (k, τ1 , τ1 ; x0 ) = ∆ · ∆f ⊗ L⊗2
g · ∆f (h)|x0
2 f

nuclei del terzo ordine


se τ1 > τ2 > τ3 , u(τ1 )u(τ2 )u(τ3 ),

w3 (k, τ1 , τ2 , τ3 ; x0 ) = ∆τf3 · ∆f ⊗ Lg · ∆τf2 −τ3 −1 · ∆f ⊗ Lg · ∆τf1 −τ2 −1 · ∆f ⊗ Lg · ∆k−τ


f
1 −1
(h)|x0

se τ1 > τ2 = τ3 , u(τ1 )u(τ2 )2 ,

1 τ2 τ1 −τ2 −1 1 −1
w3 (k, τ1 , τ2 , τ2 ; x0 ) = ∆ · ∆f ⊗ L⊗2
g · ∆f · ∆f ⊗ Lg · ∆k−τ (h)|x0
2 f f

se τ1 = τ2 > τ3 , u(τ2 )2 u(τ3 ),

1 τ3
w3 (k, τ2 , τ2 , τ3 ; x0 ) = ∆ · ∆f ⊗ Lg · ∆τf3 −τ2 −1 · ∆f ⊗ L⊗2 k−τ2 −1
g · ∆f (h)|x0 s
2 f

se τ1 = τ2 = τ3 , u(τ1 )3 ,

1 τ1 k−τ1 −1
w3 (k, τ1 , τ1 , τ1 ; x0 ) = ∆ · ∆f ⊗ L⊗3
g · ∆f (h)|x0
3! f
272 10. Introduzione alle rappresentazioni non lineari

Per i nuclei nel comportamento ingresso stato

γ0 (k; x0 ) = ∆kf (Id)|x0

1 −1
γ1 (k, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f (Id)|x0

...

Passaggio dalla forma esplicita alla forma implicita

x + f (x) = γ0 (1; x)
g(x) = γ1 (1, 0; x) = ∆f ⊗ Lg (Id)|x

h(x) = w0 (0, x)

Osservazione si ritrova facilmente il caso bilineare ponendo:

x + f (x) = x + Ax
g(x) = N x
h(x) = Cx

si ha:
1 ⊗h
∆f (h)|x = h|x + Lf (h)|x + . . . + L (h)|x + . . .
k! f
con h(x) = Cx ¯
∂h ¯¯
Lf (h)|x = ·f (x) = CAx
∂x ¯x
L⊗2
f (h)|x = 0

∆f (h)|x = C(I + A)x

w0 (k; x) = C(I + A)k x

Analogamente si verifica:
∆kf (I)|x = (I + A)k x
¯
∂h ¯¯
∆f ⊗ Lg (h)|x = ·g(x)
∂x ¯x+f (x)
= CN x

∆f ⊗ L⊗p
g (h)|x = 0 p>1


10.2. Sistemi a Tempo Discreto 273

w1 (k + 1, τ1 ; x0 ) = ∆τf1 · ∆f ⊗ Lg · ∆k−τ
f
1
(h)|x0
= C(I + A)k−τ1 N (I + A)τ1 x0

e cosı̀ via per i nuclei di ordine superiore.

Proprietà dei nuclei

ep (k, τ1 , . . . , τp ; γ0 (τp ; x)) = wp (k, τ1 , . . . , τp ; x)


w

γ0 (k; x) = ∆kf (I)|x , w0 (k; x) = ∆kf (h)|x

e1 (k, τ1 ; γ0 (τ1 ; x)) = w1 (k, τ1 ; x)


w

con: ¯
1 −1
∂w0 (k − τ1 − 1; x) ¯¯
e1 (k, τ1 ; x) = ∆f ⊗
w Lg ∆k−τ
f (h)|x = ¯ ·g(x)
∂x x+f (x)

Analogamente per l’ordine 2

e2 (k, τ1 > τ2 ; x) = ∆f ⊗ Lg · ∆τf1 −τ2 −1 · ∆f ⊗ Lg · ∆k−τ


w f
1 −1
(h)|x
¡ ¢ ¯
e1 k, τ1 , ∆τf1 −τ2 −1 (x) ¯
∂w
= ¯ ·g(x)
∂x ¯
x+f (x)

1 k−τ1 −1
e2 (k, τ1 = τ2 ; x) =
w ∆f ⊗ L⊗2 g · ∆f (h)|x
2 ¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
= ¯ ·g ⊗2 (x)
2 ∂x⊗2 x+f (x)

Proprietà dei nuclei quando I + f è invertibile

G(u, 0) := ∆f +ug ⊗ Lg · ∆(f +ug)−1


¯ ¯
∂h(I + f + ug)−1 ¯¯ ∂h ∂(I + f + ug)−1 ¯¯
G(u, 0)(h) = ¯ ·g(x) == ¯ ·g(x) = LG(u,0) h
∂x x+f (x) ∂x ∂x x+f (x)

X ui
G(u, 0) = Gi (0)
i!
i≥1

Gi (0) = ∆f τ Gi (0)∆f −τ


k µ
X ¶
k−1
Pk (τ ) = LGi (τ ) Pk−i (τ )
i−1
i=1
274 10. Introduzione alle rappresentazioni non lineari


P1 = G 1 P2 = G2 + LG1 G1 ...

w0 (k; x0 ) = ∆kf (h)|x0

nucleo del primo ordine

w1 (k, τ1 ; x0 ) = P1 (τ1 ) · ∆kf (h)|x0 = LG1 (τ1 ) ∆kf (h)|x0

nuclei del secondo ordine


se τ1 > τ2
u(τ1 )u(τ2 )
w2 (k, τ1 , τ2 ; x0 ) = P1 (τ2 ) · P1 (τ1 ) · ∆kf (h)|x0 = LG1 (τ2 ) LG1 (τ1 ) ∆kf (h)|x0
se τ1 = τ2
u(τ1 )2
1 1
w2 (k, τ1 , τ1 ; x0 ) = P2 (τ1 ) · ∆kf (h)|x0 = (LG1 (τ1 ) 2 + LG2 (τ1 ) )∆kf (h)|x0
2 2

...

Proprietà dei nuclei associati ad uno stato iniziale di equilibrio

Se x0 é uno stato di equilibrio, allora x0 + f (x0 ) = x0

ep (k, τ1 , . . . , τp ; x0 ) = wp (k, τ1 , . . . , τp ; x0 )
w


¯
∂w0 (k − τ1 − 1; x) ¯¯
¯ ·g(x0 ) = ∆f ⊗ Lg ∆f (h)|x = w11 (k − τ1 − 1)
k−τ1
w1 (k, τ1 ; x0 ) =
∂x x0

¯ ¯
∂w1 (k, τ1 , ς) ¯¯ ∂∆τf1 −τ2 −1 (x) ¯
w2 (k, τ1 , τ2 ; x0 ) = · ¯ ·g(x0 )
∂ς ¯ ∂x ¯
ς=x0 x=x0
1
= w21 (k − τ1 − 1)w22
1
(τ1 − τ2 − 1)


¯
1 ∂ ⊗2 w0 (k − τ1 − 1; x) ¯¯
w2 (k, τ1 , τ1 ; x0 ) = ¯ ·g ⊗2 (x0 )
2 ∂x⊗2 x=x0
2
= w21 (k − τ1 − 1)
10.2. Sistemi a Tempo Discreto 275

Proposizione 1: Sia ssegnata una rappresentazione a tempo discreto affine rispetto all’igresso; sia
(I + f ) invertibile e sia x0 di equilibrio. I primi p nuclei ammettono una realizzazione affine rispetto
allo stato.
Con l’ipotesi di invertibilità della funzione (I + f ) si deducono le ulteriori seguenti decomposizioni
¯ ¯ ¯
∂w0 (k − τ1 − 1, x) ¯¯ ∂w0 (k − 1, ς) ¯¯ ∂γ0 (τ1 , x) ¯¯
¯ g(x0 ) = ¯ · ¯ ·g(x0 )
∂x x0 ∂ς ς=x0 ∂x x=x0
k−τ1 −1
= P11 (k − 1)Q11 (τ1 ) = C11 (A11 ) B11

Analogamente:
1
w2 (k, τ1 > τ2 ; x0 ) = P21 (k − 1)Q121 (τ1 )P22
1
(τ1 − 1)Q122 (τ2 )
1
= C21 (A121 )k−τ1 −1 B21
1 1
C22 (A122 )τ1 −τ2 −1 B22
1

2
w2 (k, τ1 , τ1 ; x0 ) = P21 (k − 1)Q221 (τ1 ) = C21
2
(A221 )k−1−τ1 B21
2

e cosı̀ via per i nuclei d’ordine superiore.

Realizzazione a stato affine


Il nucleo w1 (k, τ1 ; x0 ) é realizzato dal seguente sistema lineare

z1 (k + 1) = A11 z1 (k) + B11 u(k)


y1 (k) = C11 z1 (k)
si ha:
X
k−1
1 −1
y1 (k) = C11 Ak−τ
11 B11 u(τ1 )
τ1 =0

Il nucleo w2 (k, τ1 , τ2 ; x0 ) é realizzato dal seguente sistema bilineare


 · 1 ¸ · ¸ · ¸

 z2 (k + 1) = A21 0 0 1
B21 1
C22 0
1 z2 (k) + z2 (k)u(k) + 1 u(k)
0 A22 0 0 B22

 1
y2 (k) = [ C21 0 ]z2 (k)

si ha:
X
k−1
y2 (k) = 1
C21 (A121 )k−τ1 −1 B21
1 1
C21 (A122 )τ1 −τ2 −1 B22
1
u(τ1 )u(τ2 )
τ1 >τ2 =0

Il nucleo w2 (k, τ1 = τ2 ; x0 ) é realizzato dal seguente sistema a stato affine



 z (k + 1) = A2 z (k) + 1 B 2 u2 (k)
2 21 3
2 21
 2
y3 (k) = C21 z3 (k)

I tre sistemi individuati realizzano i tre primi nuclei

w1 (k, τ1 ; x0 ), w2 (k, τ1 > τ2 ; x0 ), w3 (k, τ1 = τ2 ; x0 )


276 10. Introduzione alle rappresentazioni non lineari

y(k) = y1 (k) + y2 (k) + y3 (k)

Un’analisi più approfondita consente di limitare il numero di sistemi a stato affine. Nel caso precedente
con
A11 = A221 , C11 = C21 2


2 2
z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21 u (k)
y4 (k) = C11 z4 (k)
con
y4 (k) = y1 (k) + y3 (k)
11. La geometria dei sistemi di equazioni differenziali

11.1. Il punto di vista della geometria nello studio dei sistemi di equazioni
differenziali

ẋ(t) = Ax(t) x(0) = x0

x ∈ Rn ⇒ Ax ∈ Rn

• concetto fondamentale è quello di sottospazio invariante: l’evoluzione libera a partire da uno


stato in V resta in V .
AV ⊂ V
z= ⇓ Tx
µ ¶
A11 A12
T AT −1 =
0 A22

• l’invarianza dell’insieme induce un’invarianza di struttura

Le evoluzioni libere che muovono da stati che appartengono alla stessa varietà affine ottenuta
per traslazione del sottospazio V si mantengono in varietà affini della stessa classe. In termini sin-
tetici varietà traslate di V evolvono in varietà traslate o, equivalentemente la struttura indotta per
traslazione da V , la foliazione, è invariante rispetto alla dinamica.

• L’immagine di B è in V
278 11. La geometria dei sistemi di equazioni differenziali

Nelle coordinate z il sistema è descritto dalle equazioni

ż1 = A11 z1 + A12 z2 + B1 u


ż2 = A22 z2

• l’invarianza del sottospazio implica che le evoluzioni, sia libere che forzate, da uno stato iniziale
in V restano in V
• l’invarianza della struttura implica l’invarianza della struttura (foglie in foglie) anche sotto forza-
mento .

• V è contenuto nel kernel di C

Nelle coordinate z il sistema è descritto dalle equazioni

ż1 = A11 z1 + A12 z2


ż2 = A22 z2
y = C2 z2

• l’invarianza del sottospazio implica che l’evoluzione in uscita da uno stato iniziale in V è identi-
camente nulla
• l’invarianza della struttura implica che alle evoluzioni che muovono da stati che appartengono
alla stessa foglia è associata la stessa uscita.

Il punto di vista della geometria differenziale

ẋ(t) = f (x(t)) (Ax(t)) x0 ∈ M (Rn )

x∈M f (x) ∈ Tx M

• la dinamica è caratterizzata dal campo di vettori f (x) : x 7→ TX M


• integrazione di un campo di vettori

c0 : vtc0 (x) = f (x)

∂λi
c0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − 1} ⇒ f = 0 i = 1, . . . , n − 1
∂x
11.2. Sistemi a tempo continuo: invarianza e scomposizioni locali 279

• sottospazio ⇒ distribuzione
distribuzione

∆ : x 7→ ∆(x) ⊂ Tx M

• integrazione di una distribuzione di dimensione k

s0 : pt0 (x) = ∆(x)

∂λi
s0 = {x ∈ M : λi (x) = λi (x0 ) i = 1, . . . , n − k} ⇒ f = 0 i = 1, . . . , n − k
∂x

Definizione 1. ∆ è involutiva se
τ1 , τ2 ∈ ∆ ⇒ [τ1 , τ2 ] ∈ ∆

∆(x) = {δ1 (x) · · · δk (x)} è involutiva se rango[∆(x)] = rango[∆(x) [δi , δj ]]

• Teorema di FROBENIUS
∆, di dimensione costante, è integrabile se e solo se è involutiva

• evidenza della necessità


• ∆(x) = V , V sottospazio, induce in Rn una foliazione ”piatta”; le foglie sono ottenuta per
traslazione da V .
280 11. La geometria dei sistemi di equazioni differenziali

11.2. Sistemi a tempo continuo: invarianza e scomposizioni locali

Un esempio di come sia possibile estendere, localmente, alla classe dei sistemi affini alcuni risultati
della teoria lineare può essere facilmente messo in evidenza facendo riferimento alle proprietà di
invarianza e alle scomposizioni rispetto ad esse. Le tecniche della geometria differenziale sono utili a
tal fine; tra gli strumenti di base quello di distribuzione viene qui impiegato.
Si ricorda che una distribuzione è una legge che associa ad ogni punto di una varietà differenziabile
un sottospazio dello stato tangente in quel punto x → ∆(x) ⊂ T × M con M = Rn .
Con riferimento ad una rappresentazione differenziale affine, la seguente assunzione di regolarità
è centrale per le considerazioni che seguono. ∆(x) viene assunta essere una distribuzione nonsingolare
(cioè a dimensione costante), involutiva (e quindi integrabile) in Ix0 un intorno di x0 .
Ciò premesso è facile ritrovare il concetto di invarianza che nella teoria lineare si esprime come
AV ⊂ V ed ha implicazioni sulla struttura del sistema:
µ ¶
−1 A11 A12
∃T : T AT = , in z = T x.
0 A22

Definizione 2. ∆ è invariante rispetto ad f se

[f, ∆] ⊂ ∆, i.e. ∀r ∈ ∆ [f, r] ∈ ∆.

Si noti che tale definizione estende il concetto di invarianza come sottoinsieme a quello di invarianza
come foliazione (sotto l’applicazione di f foglie si trasformano in foglie). Nel caso lineare, come notato
in precedenza, i due concetti si confondono in quanto l’invarianza in senso geometrico qui impiegata
è implicata della invarianza di insieme.

∆ invariante rispetto ad f , secondo la definizione data, implica


µ ¶ µ ¶
e ∂φ ¯
¯ fe1 (z1 , z2 )
∃z = φ(x) : f (z) = · f φ−1 (z) =
∂x fe2 (z2 )

dimz1 = d, d = dim∆. Si ha infatti


 ϕ1 
 .. 
 .   
 
 ϕd  φ1
 
φ = − − − = z = − − −
 
 ϕd+1  φ2
 . 
 . 
.
ϕn
µµ ∂φ1 ¶ ¶ ¯
¯
fe = ∂x
∂φ2 ·f ¯
∂x φ−1 (z)

inoltre [f, r] ∈ ∆ implica L[f,r] ϕi = 0, e quindi

Lf Lr ϕi − Lr Lf ϕi = 0 ⇒ Lr Lf ϕi = 0 i = d + 1, . . . , n
11.2. Sistemi a tempo continuo: invarianza e scomposizioni locali 281

cioè fe2 è costante sulle varietà integrali di ∆, quindi è funzione di ϕd+1 , . . . , ϕn (zd+1 , . . . , zn ).
Con considerazioni analoghe assumendo che ∆ sia invariante rispetto ad f e g i.e.

[f, ∆] ⊂ ∆, e [g, ∆] ⊂ ∆

e che g ∈ ∆, si verifica senza difficoltà che nelle nuove coordinate

ż1 = f1 (z1 , z2 ) + g(z1 , z2 )u S1


ż2 = f2 (z2 ) S2

La struttura delle equazioni mette in evidenza che gli stati del sottosistema S2 sono non “raggiungi-
bili”.
Si ricordi che nel caso lineare la scomposizione rispetto alla proprietà di raggiungibilità conduce
a
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
formalmente analoga a quella ottenuta nel contesto non lineare.
Ricordando anche che, per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo
sottospazio invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la
raggiungibilità di S1 , una scomposizione locale per il sistema affine può essere ottenuta facendo rifer-
imento alla più piccola distribuzione invariante rispetto ad f e g contenente g. Tale distribuzione può
essere costruita iterativamente
∆0 = g
∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ]
∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ]
..
.
∆n−1 è la distribuzione cercata, corrispondente non lineare di R(B . . . An−1 B).
Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati
raggiungibili al tempo t da x0 a t = 0 è dato da

Rt (x0 ) = {x : x = eAt x0 + R(B|AB| . . . |An−1 B)}

Una situazione topologica equivalente si ottiene; si ha infatti


© £ ¤ª
Rt (x0 ) = x : x = γ0 (t, x0 ) + Y∆n−1 (γ0 (t, x0 ))

ove
Y∆n−1 (γ0 (t, x0 ))

rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x − 0).
Analoghe considerazioni possono essere fatte rispetto alla proprietà di osservabilità facendo rifer-
imento ad una ∆ contenuta nella distribuzione Kerdh e possibilmente la più grande. La struttura
geometrica locale è topologicamente analoga al lineare nelle ipotesi di regolarità di ∆.
282 11. La geometria dei sistemi di equazioni differenziali

Le considerazioni sintetiche svolte vogliono fare intendere come, con gli strumenti della geometria
differenziale sia possibile generalizzare, localmente e sotto adeguate ipotesi di regolarità, alcuni aspetti
della teoria lineare. Il rilascio delle ipotesi di regolarità e lo studio del comportamento attorno ai
punti singolari costituisce l’oggetto di attività di ricerca avanzata.I risultati di tali studi sono alla
base di risultati importanti dal punto di vista delle applicazioni della teoria del controllo. Il lettore
ha certamente colto il forte collegamento dell’approccio qui messo in luce con i problemi di analisi
qualitativa dei sistemi dinamici. La differenza saliente, che caratterizza e condiziona la formulazione
stessa dei problemi affrontati nonché i metodi della teoria dei sistemi, essendo collegata alla presenza
della variabili di controllo, gli ingressi.
Uno studio parallelo a quello succintamente esposto può essere fatto per i sistemi a tempo dis-
creto. La mancanza di una struttura differenziale nelle equazioni alle differenze non consente di
trarre giovamento da una struttura affine rispetto all’ingresso. Interessanti risultati sono presenti in
letteratura.

Scomposizioni locali: in sintesi

Definizione 3. ∆ è invariante rispetto ad f se

[f, ∆] ⊂ ∆ i.e. ∀τ ∈ ∆ [f, τ ] ∈ ∆.

• estende il concetto di invarianza come sottoinsieme a quello di invarianza come foliazione (sotto
l’applicazione di f foglie si trasformano in foglie). Nel caso lineare i due concetti si confondono
in quanto l’invarianza in senso geometrico qui impiegata è implicata della invarianza di insieme.
• µ ¶ µ ¶
e ∂Φ ¯
¯ fe1 (z1 , z2 )
∃z = Φ(x) : f (z) = · f Φ−1 (z) =
∂x fe2 (z2 )

• nelle nuove coordinate fe2 è costante sulle varietà integrali di ∆, i.e. è funzione di (ϕd+1 , . . . , ϕn ) =
(zd+1 , . . . , zn ).
• se ∆ è invariante rispetto ad f e g, cioè

[f, ∆] ⊂ ∆ e [g, ∆] ⊂ ∆

nelle nuove coordinate z si ha

ż1 = fe1 (z1 , z2 ) + ge1 (z1 , z2 )u


ż2 = fe2 (z2 ) + ge2 (z2 )u
11.2. Sistemi a tempo continuo: invarianza e scomposizioni locali 283

• versione non lineare di


ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2 + B2 u

• g ⊂ ∆, involutiva e invariante rispetto ad f e g

Nelle coordinate z il sistema è descritto dalle equazioni

ż1 = f1 (z1 , z2 ) + g1 (z1 , z2 )u


ż2 = f2 (z2 )

• è mantenuta l’invarianza della struttura sotto forzamento.


• perfetta corrispondenza con il lineare; l’invarianza rispetto a g per la dipendenza da x.
• versione non lineare di
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2

Ricordando che per un sistema lineare l’insieme degli stati raggiungibili è il più piccolo sottospazio
invariante rispetto ad A che contiene l’immagine di B e che la minimalità assicura la raggiungibilità
del primo sottosistema, una scomposizione locale per il sistema affine può essere ottenuta facendo
riferimento alla più piccola distribuzione invariante rispetto ad f e g contenente g.

• algoritmo
∆0 = g
∆1 = ∆0 + [f, ∆0 ] + [g, ∆0 ]
∆2 = ∆1 + [f, ∆1 ] + [g, ∆1 ]
..
.

• ∆n−1 è la versione non lineare della distribuzione piatta di raggiungibilità R(B . . . An−1 B).

• Un ulteriore collegamento con la teoria lineare è ottenuto si si ricorda che l’insieme degli stati
raggiungibili al tempo t da x0 a t = 0 è dato da

Rt (x0 ) = {x : x = eAt x0 + R(B|AB| . . . |An−1 B)}

• Una situazione topologica equivalente si ottiene; si ha infatti


© £ ¤ª
Rt (x0 ) = x : x = γ0 (t, x0 ) + I∆n−1 (γ0 (t, x0 ))

I∆n−1 (γ0 (t, x0 )) rappresenta un aperto nella foglia integrale di ∆n−1 passante per γ0 (t, x0 ).
284 11. La geometria dei sistemi di equazioni differenziali

• ∆, involutiva e invariante rispetto af f e g, è contenuta in Kerdh

Nelle coordinate z il sistema è descritto dalle equazioni

ż1 = fe1 (z1 , z2 ) + ge(z1 , z2 )u


ż2 = fe2 (z2 ) + ge(z2 )u
y=e
h(z2 )

• alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa
uscita.
• versione non lineare di
ż1 = A11 z1 + A12 z2 + B1 u
ż2 = A22 z2
y = C2 z2

Covettore, ω, è una legge che associa ad ogni x un vettore riga (ω1 (x), · · · , ωn (x)), codistribuzione,
Ω, una legge che associa ad ogni x un sottospazio dello spazio duale di Tx M .

∂ω T ∂f
Lf ω = [ f] + ω
∂x ∂x

Ω è invariante rispetto ad f se Lf Ω ⊂ Ω.

Ricordando che per un sistema lineare l’insieme degli stati inosservabili è il più grande sottospazio
invariante rispetto ad A che è contenuto nel kernel di C, una scomposizione locale di interesse per il
sistema affine può essere ottenuta facendo riferimento alla più grande distribuzione invariante rispetto
ad f e g contenuta in Kerdh.
• algoritmo

Ω0 = dh
Ω1 = Ω0 + Lf Ω0 + Lg , Ω0
Ω2 = Ω1 + Lf Ω1 + Lg , Ω1
..
.

• Ωn−1 è la più piccola codistribuzione invariante rispetto al f e g che contiene dh. Ωn−1 ⊥ è la più
grande distribuzione invariante rispetto ad f e g che è contenuta in kerdh.
• Versione nonlineare della distribuzione piatta di indistinguibilità.

Un esempio di applicazione
11.3. Sistemi a tempo discreto: invarianza e scomposizioni locali 285

Sia ∆ invariante rispetto ad f e g e involutiva per il sistema

ẋ = f (x) + g(x)u + p(x)w


y = h(x)

p ∈ ∆ ⊂ Kerdh

ż1 = fe1 (z1 , z2 ) + ge1 (z1 , z2 )ue


p1 (z1 , z2 )w
ż2 = fe2 (z2 ) + ge2 (z2 )u
y=e
h(z2 )
• versione nonlineare di


C
 CA 
P ⊂ R(P . . . An−1 P ) ⊂ V ⊂ N   ⊂ N (C)
...
CAn−1

11.3. Sistemi a tempo discreto: invarianza e scomposizioni locali

F := I + f + ug e F0 := I + f

• ∆ è invariante rispetto alla dinamica se

JF (·,u) · ∆ ⊂ ∆(F (·, u))

concetto di invarianza come foliazione (sotto l’applicazione di F foglie si trasformano in foglie)


• µ ¶
e −1 Fe1 (z1 , z2 , u)
∃z = Φ(x) : F (z, u) = Φ ◦ F (Φ (z), u) =
Fe2 (z2 , u)
• versione non lineare a tempo discreto di

z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k)


z2 (k + 1) = A22 z2 (k) + B2 u(k)

• nelle nuove coordinate z = Φ(x), ∆ = kerdΦ2

∂ ∂Φ2 ∂F (Φ−1 (z), u)


Φ2 ◦ F (Φ−1 (z), u) = |F (x,u) · =
∂z1 ∂x ∂z1
286 11. La geometria dei sistemi di equazioni differenziali

∂Φ2|F (x, u) ∂F ∂ −1
· |x · Φ (z) = 0
∂x ∂x ∂z1
essendo l’ultima uguaglianza verificata per la proprietà di invarianza e la scelta delle coordinate.

∂F
⊂ ∆(F (x, u))
∂u
implica che nelle coordinate z il sistema è descritto dalle equazioni

z1 (k + 1) = Fe1 (z1 (k), z2 (k), u(k))


z2 (k + 1) = Fe2 (z2 (k))
infatti
∂ ∂Φ2 ∂F (x, u)
(Φ2 ◦ F (Φ−1 (z), u)) = |F (x,u) · =0
∂u ∂x ∂u
ed è mantenuta l’invarianza della struttura sotto forzamento
• versione non lineare di
z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k)
z2 (k + 1) = A22 z2 (k)

∆ ⊂ kerdH

implica che nelle coordinate z

e := H ◦ Φ−1 (z) = H(z


H e 2)

infatti e
∂H
= 0 poichè ∆ = span ∂z∂ 1 . Nelle coordinate z si ha dunque
∂z1

z1 (k + 1) = Fe1 (z1 (k), z2 (k), u(k))


z2 (k + 1) = Fe2 (z2 (k), u(k))
e 2 (k))
y(k) = H(z
alle evoluzioni che muovono da stati che appartengono alla stessa foglia è associata la stessa uscita.
• versione non lineare di
z1 (k + 1) = A11 z1 (k) + A12 z2 (k) + B1 u(k)
z2 (k + 1) = A22 z2 (k) + B2 u(k)
y(k) = C2 z2 (k)

Un esempio di applicazione
11.3. Sistemi a tempo discreto: invarianza e scomposizioni locali 287

Sia ∆ invariante rispetto ad F e involutiva per il sistema


x(k + 1) = F (x(k), u(k), w(k))
y(k) = H(x(k))

∂F
⊂ ∆(F (·, u, w))
∂w
∆ ⊂ KerdH

z1 (k + 1) = Fe1 (z1 (k), z2 (k), u(k), w(k))
z2 (k + 1) = Fe2 (z2 (k), u(k))
e 2 (k))
y(k) = H(z
• versione nonlineare di
 
C
 CA 
P ⊂ R(P . . . An−1 P ) ⊂ V ⊂ N   ⊂ N (C)
...
CAn−1

Linearizzazione mediante controreazione

x(k + 1) = F (x(k), u(k))


F0 = F (x, u)
y(k) = H(x(k))

• grado relativo, r, ritardo ingresso - uscita:

∂ ∂
H ◦ F 0 r−1 ◦ F (x, u) 6= 0 H ◦ F 0 k ◦ F (x, u) = 0 k = 0, . . . , r − 2
∂u ∂u

 
dH
 dH · F0 
rango  =r⇒r≤n
|
dH · F 0 r−1

• Nelle coordinate (z, η) = Φ(x), z = Φ1 (x), η = Φ2 (x), con ∆ = kerdΦ1 = span ∂η



:

z1 (k + 1) = z2 (k)
|=|
zr (k + 1) = S(z(k), η, u(k))
η(k + 1) = Q(z(k), η, u(k))
y(k) = (z1 (k)
288 11. La geometria dei sistemi di equazioni differenziali

e v)
u = (γz, η, v) : S(z, η, γ(z, η, v)) = S(z,


rende ∆ = span ∂η invariante.

e 0) = 0, si ottiene la dinamica
• Se H(x0 ) = 0, Φ1 (x0 ) = 0 e la controreazione , γ ∗ , è tale che S(0,
zero

η(k + 1) = Q(0, η(k), γ ∗ (0, η(k), 0)) = Q∗ (η(k)) η(0) = η0

• problemi di stabilità.

e v) = v + sumr ci zi la dinamica ingresso - uscita è resa lineare


• Se S(z, i=1

• Se esiste una funzione ϕ tale che rvarphi = n si ottiene la completa linearizzazione mediante
controreazione.
Indice

Capitolo 1 Sistemi dinamici e Rappresentazioni con lo Stato ............... 4

1.1 Sistema astratto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4


1.2 Sistema astratto orientato e rappresentazioni con lo stato . . . . . . . . . . . . . . . . . . . . 11
1.2.a Causalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.b Rappresentazione con lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Esistenza e unicità delle rappresentazioni con lo stato . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Dalle rappresentazioni esplicite alle rappresentazioni implicite . . . . . . . . . . . . . . . . 18
1.4.a Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.b Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Elementi di classificazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Capitolo 2 Rappresentazioni con lo stato lineari, a dimensione


finita, stazionarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.1 Struttura e proprietà delle rappresentazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . 21


2.1.a Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.b Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Le rappresentazioni implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Le Rappresentazioni Lineari Stazionarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.a Rappresentazioni a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.b Rappresentazioni a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Rappresentazioni implicite equivalenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
290 Indice

2.4.a Rappresentazioni lineari equivalenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.4.b Rappresentazioni non lineari di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.5 Rappresentazioni lineari come approssimazioni di sistemi non lineari . . . . . . . . . . . 34

2.6 Rappresentazioni a tempo discreto di sistemi a tempo continuo . . . . . . . . . . . . . . . 38

2.7 Rappresentazioni implicite singolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

Capitolo 3 Modellistica e metodi di analisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.1 Dinamica di una popolazione studentesca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.2 Dinamica di un debito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

3.3 La catena di Sant’Antonio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

3.4 I numeri di Fibonacci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3.5 Dinamica di un gioco d’azzardo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3.6 Un semplice modello del flusso migratorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3.7 Un sistema meccanico elementare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.8 Una rete elettrica elementare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.9 Dinamica del prezzo in regime di equilibrio tra domanda e offerta . . . . . . . . . . . . . 49

3.10 Motore elettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.11 Modelli equivalenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3.12 Circuito con diodo Tunnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.12.a Dinamica newtoniana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3.13 Satellite in orbita circolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.14 Dinamica verticale di un missile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

3.15 Motore elettrico in corrente continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3.16 Levitazione magnetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59


Indice 291

Capitolo 4 Rappresentazioni lineari stazionarie: analisi nel dominio


del tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

4.1 La matrice di transizione nello stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62


4.1.a Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.b Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Studio della risposta libera nello stato: il caso di sistemi con matrice
dinamica regolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2.a Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2.b Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3 Studio della risposta libera nello stato: il caso generale . . . . . . . . . . . . . . . . . . . . . . 73
4.3.a Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.b Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.c Ulteriori osservazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.4 I modi naturali sotto discretizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.5 I modi naturali nell’evoluzione nello stato e in uscita . . . . . . . . . . . . . . . . . . . . . . . 76
4.6 Appendice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.7 La forma di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

Capitolo 5 Le rappresentazioni Lineari Stazionarie nel dominio


complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

5.1 La trasformata di Laplace nello studio dei sistemi a tempo continuo . . . . . . . . . . . . 84


5.1.a La matrice di transizione nel dominio complesso . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.b I modi naturali nel dominio complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.1.c La funzione di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 La risposta a regime permanente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.2.a Il regime permanente ad ingressi periodici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.2.b Il regime permanente a ingressi canonici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.3 Le leggi di moto nell’evoluzione libera e forzata nel caso di autovalori
multipli - sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.4 La trasformata Z nello studio dei sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . 104
5.4.a I modi naturali nel dominio complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.5 La risposta a regime permanente per i sistemi a tempo discreto . . . . . . . . . . . . . . . 109
5.5.a La risposta a regime ad ingressi periodici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.5.b La risposta a regime ad ingressi canonici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
292 Indice

5.6 Le leggi di moto nell’evoluzione libera e forzata nel caso di autovalori


multipli - sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.7 Discretizzazione della funzione di trasferimento di un sistema continuo
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.8 Appendice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.8.a La Trasformata Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.8.b Sul calcolo della matrice di transizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

Capitolo 6 Le proprietà geometriche dello spazio di stato . . . . . . . . . . . . . . . . . . 126

6.1 Il concetto di invarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126


6.2 Inosservabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.2.a Scomposizione rispetto all’inosservabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.2.b La ricostruibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.2.c Modi osservabili e scomposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.3 Raggiungibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.3.a Scomposizione rispetto alla raggiungibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.3.b La controllabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.3.c Modi eccitabili e scomposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.4 La struttura interna di un sistema lineare a dimensione finita . . . . . . . . . . . . . . . . . 140
6.5 Le particolarità dei sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.6 Sugli zeri della funzione di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

Capitolo 7 Modelli ingresso uscita lineari e rappresentazioni con


lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
7.1 La rappresentazione con lo stato di un sistema lineare stazionario
connesso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
7.2 Il problema della realizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7.2.a Dal nucleo di un integrale di convoluzione ad una rappresentazione
con lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.2.b Da una matrice di funzioni di variabile complessa ad una rappresentazione
con lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.2.c Dalle equazioni differenziali (alle differenze) ad una rappresentazione
con lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
7.3 Realizzazioni minime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
7.4 Realizzazioni minime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
7.4.a Un metodo per il calcolo di realizzazioni minime . . . . . . . . . . . . . . . . . . . . . . . 161
7.4.b Ancora sulle realizzazioni minime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
7.5 Il modello di un sistema interconnesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
7.5.a La funzione di trasferimento: la formula di Mason . . . . . . . . . . . . . . . . . . . . . 164
7.5.b La rappresentazione con lo stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Indice 293

Capitolo 8 Elementi di teoria della stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

8.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

8.1.a Stabilità dell’equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

8.1.b La stabilità del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

8.1.c La stabilità asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

8.1.d La stabilità globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

8.2 La stabilità secondo Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

8.2.a Le funzioni di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

8.2.b Il criterio di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

8.2.c Alcuni approfondimenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

8.2.d Sistemi non stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

8.3 La stabilità dei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

8.3.a La stabilità del moto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

8.3.b Condizioni di stabilità per i sistemi lineari stazionari . . . . . . . . . . . . . . . . . . . 184

8.3.c Criterio di Lyapunov per i sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

8.4 Criteri di stabilità per i sistemi lineari: il criterio di Routh . . . . . . . . . . . . . . . . . . . 187

8.4.a Casi critici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

8.5 Un criterio di stabilità con incertezza sui parametri . . . . . . . . . . . . . . . . . . . . . . . . 192

8.6 Studio della stabilità mediante l’approssimazione lineare . . . . . . . . . . . . . . . . . . . . . 193

8.7 Esempi di applicazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

8.8 La stabilità esterna nei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

8.9 Condizioni e criteri per i sistemi lineari a tempo discreto . . . . . . . . . . . . . . . . . . . . 199

8.9.a Il criterio di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

8.9.b Il criterio di Lyapunov per i sistemi lineari stazionari a tempo


discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
8.9.c Studio della stabilità mediante linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . 202

8.10 Sistemi interconnessi: la stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204


294 Indice

Capitolo 9 Struttura interna, intervento e osservazione . . . . . . . . . . . . . . . . . . . . 212

9.1 Raggiungibilità e assegnazione degli autovalori con reazione dallo


stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
9.1.a Sistemi con un solo ingresso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
9.1.b Sistemi con più ingressi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
9.2 Il problema della ricostruzione dello stato. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9.2.a Il problema della ricostruzione dello stato. . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
9.2.b L’osservatore asintotico ridotto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
9.3 Il principio di separazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
9.4 Assegnazione della dinamica con reazione dall’uscita . . . . . . . . . . . . . . . . . . . . . . . . 231
9.4.a Criteri di scelta di N e G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
9.4.b Gli zeri del sistema complessivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

Capitolo 10 Introduzione alle rappresentazioni non lineari . . . . . . . . . . . . . . . . . . 235

10.1 Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236


10.1.a Sistemi lineari (richiami) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
10.1.b Rappresentazioni a tempo continuo affini nell’ingresso . . . . . . . . . . . . . . . . . . 237
10.1.c Il problema della realizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
10.2 Sistemi a Tempo Discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
10.2.a Sistemi lineari (richiami) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
10.2.b Rappresentazioni a tempo discreto affini nell’ingresso . . . . . . . . . . . . . . . . . . . 259

Capitolo 11 La geometria dei sistemi di equazioni differenziali . . . . . . . . . . . . . . . 277

11.1 Il punto di vista della geometria nello studio dei sistemi di equazioni
differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
11.2 Sistemi a tempo continuo: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . 279
11.3 Sistemi a tempo discreto: invarianza e scomposizioni locali . . . . . . . . . . . . . . . . . . . 285

Potrebbero piacerti anche