Sei sulla pagina 1di 37

Note di teoria dei sistemi

Augusto Ferrante
Indice

1 Modelli di stato 3
1.1 Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Classi di sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Costruzione di un modello di stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Scelta delle variabili di stato . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Punti di equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Analisi dei sistemi lineari e invarianti nel tempo 13


2.1 Evoluzione dello stato e dell’uscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Teorema di sovrapposizione degli effetti . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Evoluzione libera ed evoluzione forzata . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Funzione di trasferimento e risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 Funzione di trasferimento e realizzazione di stato . . . . . . . . . . . . . . . . 18

3 La stabilità 21
3.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Stabilità nei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.1 Condizioni di stabilità per i sistemi lineari . . . . . . . . . . . . . . . . . . . . 22
3.2.2 Condizioni di stabilità per i punti di equilibrio di sistemi non lineari . . . . . 24
3.3 Stabilità BIBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

A Esponenziale di matrici 27
A.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
A.2 Proprietà dell’esponenziale di matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 27
A.3 Calcolo dell’esponenziale di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . 29
A.3.1 Caso di matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . 29
A.3.2 Caso di matrici non diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . 32

1
2 INDICE
Capitolo 1

Modelli di stato

1.1 Premessa
Una classe molto generale di sistemi è quella dei cosiddetti modelli di stato in cui il legame fra
ingresso u(t) e uscita y(t) è espresso da una coppia di equazioni del tipo:
(
ẋ(t) = f (x(t), u(t), t),
(1.1.1)
y(t) = h(x(t), u(t), t),
 
x1 (t)

 x2 (t) 

dove il segnale vettoriale x(t) =  ..  è detto stato del sistema. Il numero n di componenti
.
 
 
xn (t)
dello stato x(t) è detto ordine del sistema. Le funzioni f : Rn × R × R → Rn , e h : Rn × R × R → R
sono continue con le loro derivate prime.1
La prima delle (1.1.1), detta equazione dinamica, è un’equazione differenziale del primo ordine
per il vettore x.
Si dice evoluzione dello stato del sistema (1.1.1) corrispondente allo stato iniziale x(t0 ) = x0 e
all’ingresso ū(t), t ≥ t0 , la soluzione x̄(t) della prima delle (1.1.1) con condizione iniziale x(t0 ) = x0
e con u(t) = ū(t).2 La corrispondente ȳ(t) = h(x̄(t), ū(t), t) per t ≥ t0 si dice evoluzione dell’uscita.
Date due traiettorie di ingresso, stato e uscita

(u0 (t), x0 (t), y 0 (t)) e (u00 (t), x00 (t), y 00 (t))

(definite, per esempio, su tutto l’asse reale), se

x0 (t0 ) = x00 (t0 ) e u0 (t) = u00 (t) ∀ t ≥ t0 ,

allora, per l’unicità della soluzione dell’equazione differenziale con condizione iniziale fissata, si ha

x0 (t) = x00 (t) e y 0 (t) = y 00 (t) ∀ t ≥ t0 .

Si noti che potrebbe benissimo accadere che, per t < t0 , si abbia u0 (t) 6= u00 (t), x0 (t) 6= x00 (t) e y 0 (t) 6=
y 00 (t). Questo fatto si presta alla seguente importante interpretazione: di tutta l’informazione legata
all’andamento delle traiettorie del sistema per t ≤ t0 (andamento passato), la parte necessaria e
1
Si indicherà con fi , i = 1, 2, . . . , n, la i-esima componente di f cosicché la prima delle (1.1.1) si può scrivere,
componente per componente, nella forma ẋi (t) = fi (x(t), u(t), t), i = 1, 2, . . . , n.
2
Si noti che, con le ipotesi di regolarità fatte sulla f , si può dimostrare che la soluzione x̄(t) esiste ed è unica
almeno in un intorno destro di t0 .

3
4 CAPITOLO 1. MODELLI DI STATO

sufficiente per calcolare l’andamento delle traiettorie di stato e uscita del sistema per t ≥ t0 , nota
la traiettoria dell’ingresso per t ≥ t0 , è contenuta nel valore del vettore di stato all’istante t0 . In
altre parole, nel vettore x(t0 ) è riassunta la parte del passato del sistema che serve per calcolarne
l’evoluzione futura. Questa proprietà si dice proprietà di separazione dello stato.

1.2 Classi di sistemi


Si consideri un sistema del tipo (1.1.1).

Definizione 1.2.1 Il sistema (1.1.1) si dice invariante nel tempo o tempo-invariante se le funzioni
f e h non dipendono esplicitamente da t. In caso contrario il sistema si dice variante nel tempo o
tempo-variante.

Per esempio, il seguente sistema (il cui stato x(t) è scalare) è tempo-invariante:
(
ẋ(t) = sin(x(t) + u(t)),
(1.2.1)
y(t) = x(t)2 − u(t).

Al contrario, il sistema
(
ẋ(t) = sin(x(t) + u(t)) + t,
(1.2.2)
y(t) = x(t)2 − u(t).

è tempo-variante.

Definizione 1.2.2 Il sistema (1.1.1) si dice lineare se f e h sono funzioni lineari di x(t) e u(t).
In caso contrario il sistema si dice non lineare.

Si ricorda che f (x(t), u(t), t) è funzione lineare di x(t) e u(t) se e solo se esistono una matrice
quadrata (di ordine n) A(t) e un vettore colonna (con n elementi) b(t)3 tali che f (x(t), u(t), t) =
A(t)x(t) + b(t)u(t). Analogamente dicasi per h(t). Pertanto i sistemi lineari sono tutti e soli quelli
rappresentabili con le equazioni
(
ẋ(t) = A(t)x(t) + b(t)u(t),
(1.2.3)
y(t) = c(t)x(t) + d(t)u(t),

dove A(t) è una matrice quadrata di ordine n, b(t) è un vettore colonna con n elementi, c(t) è un
vettore riga con n elementi e d(t) è una funzione scalare di t.
Se A(t), b(t), c(t) e d(t) sono costanti (indipendenti da t), allora il sistema, oltre che lineare, è
pure tempo-invariante. Pertanto i sistemi lineari e tempo-invarianti, noti anche con l’acronimo di
sistemi LTI, sono tutti e soli quelli che possono essere rappresentati da una coppia di equazioni del
tipo
(
ẋ(t) = Ax(t) + bu(t),
(1.2.4)
y(t) = cx(t) + du(t),

dove A ∈ Rn×n , b ∈ Rn×1 , c ∈ R1×n e d ∈ R.


3
Gli elementi di A(t) e b(t) sono funzioni, non necessariamente lineari, di t.
1.3. COSTRUZIONE DI UN MODELLO DI STATO 5

1.3 Costruzione di un modello di stato


Come si è già detto, la costruzione di un modello matematico a partire da un sistema fisico, è un
processo molto delicato che deve tenere conto delle due esigenze, di solito contrastanti, di avere un
modello sia semplice sia accurato.
Se si desidera un modello di stato bisogna fissare, oltre alle variabili che si considerano di ingresso
e di uscita, anche un insieme di variabili di stato. Questa scelta in generale non è immediata
e, comunque, non è mai univoca: da una buona scelta delle variabili di stato può dipendere la
semplicità, e quindi la trattabilità, del modello cui si perviene. Non esistono regole generali per la
scelta delle variabili di stato. Tuttavia, nel seguito si illustreranno alcuni esempi da cui si potranno
trarre alcune utili indicazioni.

Esempio 1.3.1 Si consideri il circuito elettrico rappresentato in Figura 1.1. Considerando la

R1 R2
+ b b
+
u(t) C1 C2 y(t)
b b

Figura 1.1: Rappresentazione di un doppio bipolo elettrico con due condensatori e due resistori.

tensione u(t) applicata come ingresso, e la tensione y(t) (a morsetti di uscita aperti) come uscita,
si vuole descrivere il circuito con un modello di stato. Si scelgano
" come
# variabili
" di# stato le tensioni
x1 (t) v1 (t)
v1 (t) e v2 (t) ai capi dei due condensatori C1 e C2 : x(t) = = . Indicando con
x2 (t) v2 (t)
ik (t) la corrente nel condensatore di capacità Ck , k = 1, 2, si hanno le due relazioni
1
ẋk (t) = ik (t), k = 1, 2. (1.3.1)
Ck
Si osservi anche che
x1 (t) − x2 (t) u(t) − x1 (t)
i2 (t) = , i1 (t) = − i2 (t). (1.3.2)
R2 R1
Sostituendo queste relazioni nelle (1.3.1) e tenendo conto che y(t) = x2 (t), si ottiene il seguente
modello di stato. " # " #
R1 +R2

1 1
 ẋ(t) = − R1 R2 C1
 R2 C1 x(t) + R1 C1 u(t),
1 1
R C
2 2
− R C
2 2
0 (1.3.3)

y(t) = [0 | 1]x(t).

Il modello cosı̀ ottenuto è lineare e del secondo ordine. Le matrici corrispondenti sono chiaramente
" # " #
− RR11R+R 2
2 C1
1
R2 C1
1
R 1 C1
A= 1 , b= , c = [0 | 1], d = 0. (1.3.4)
R 2 C2 − R21C2 0

Si noti che il modello è stato ricavato supponendo che i parametri Ck siano costanti (se non lo
fossero il modello cambierebbe). Se anche i parametri Rk , k = 1, 2, si possono considerare costanti
nel tempo allora anche A, b, c, e d lo sono e il sistema è tempo-invariante; se invece le variazioni nel
tempo di Rk (dovute per esempio ad invecchiamento dei componenti) non possono essere trascurate
allora il modello (1.3.3) è tempo-variante.
6 CAPITOLO 1. MODELLI DI STATO

La scelta delle variabili di stato è, in questo caso, suggerita da considerazioni sulla fisica del
sistema: è chiaro che la coppia di tensioni ai capi dei due condensatori gode della proprietà di
separazione. D’altro canto, è pure ovvio che una qualunque coppia di variabili (x01 (t), x02 (t)), legate
alla coppia (x1 (t), x2 (t)) da una mappa invertibile, gode della stessa proprietà. Per esempio si
potrebbero benissimo scegliere le variabili x01 (t) = x1 (t) + x2 (t) = v1 (t) + v2 (t) e x02 (t) = x1 (t) −
x2 (t) = v1 (t)−v2 (t) che sono chiaramente legate alla coppia (x1 (t), x2 (t)) da una mappa invertibile.
Si verifichi che anche in tal caso si ottiene un modello lineare le cui matrici sono
" #
1 − R11C1 2 1 1
R2 C2 − R2 C1 − RP C1
A= ,
2 − R11C1 − R2 C2 − R2 C1 − RP1C1
2 1

" #
1
1 1
 
b= R1 C1 , c= |− , d = 0, (1.3.5)
1
R1 C1 2 2
R1 R2
dove si è posto RP = R1 +R2

Una scelta alternativa è x01 (t) = x31 (t) e x02 (t) = x32 (t), infatti le coppie (x01 (t), x02 (t)) e
(x1 (t), x2 (t)) sono chiaramente legate da una mappa invertibile" e quindi # contengono la stessa
x 0
informazione. Si verifichi che, con questa scelta e definendo x0 := 1
, il modello risulta
x02
  q q 
R1 +R2 0 3 0 (t))2 x0 (t) + 3 0 (t))2 u(t)
 −3 x
R 1 R 2 C1 1 (t) + 3
(x 1
3
(x
 ẋ0 (t) =  R 2 C1 q2 R1 C1 1

 
− R23C2 x02 (t) + 3
R 2 C2
3
(x02 (t))2 x01 (t) (1.3.6)

 q
 y(t) = 3 x0 (t).

2

Questo sistema è chiaramente non lineare ed è molto più complesso da trattare del modello lineare
(1.3.3) che pure rappresenta lo stesso legame tra ingresso e uscita.
Infine si consideri la scelta x01 (t) = (t2 + 1)x1 (t), x02 (t) = (t2 + 1)x2 (t). Queste variabili,
prive di un’interpretazione fisica immediata, sono pur sempre variabili di stato; si verifichi che il
corrispondente modello risulta del tipo (1.2.3) con
" #
2t R1 +R2 1
t2 +1
− R1 R2 C1 R 2 C1
A(t) = 1 2t 1 , (1.3.7)
R 2 C2 t2 +1
− R 2 C2

t2 +1
" #
R1 C1
1
b(t) = , c(t) = [0 | ], d(t) = 0. (1.3.8)
0 t2 +1
Con questa scelta delle variabili di stato, si è ottenuto un sistema tempo-variante pur considerando
costanti nel tempo i valori dei parametri Ri e Ci , i = 1, 2.
Sulla scorta degli esempi precedenti non è difficile scegliere le variabili di stato in modo da
ottenere un sistema non lineare e tempo-variante.

Esempio 1.3.2 Si consideri il sistema elettrico rappresentato in Figura 1.2 e si voglia determinarne
un modello di stato considerando come ingresso la differenza di potenziale u(t) = v1 (t) e come uscita
la differenza di potenziale y(t) = v2 (t) ai capi della resistenza (a morsetti di uscita aperti).
Si scelga come unica variabile di stato la corrente che circola in L: x(t) = i(t). Si hanno allora
le relazioni u(t) = Lẋ(t) + Rx(t) e y(t) = Rx(t) che si possono scrivere nella forma
(
ẋ(t) = − R 1
L x(t) + L u(t), (1.3.9)
y(t) = Rx(t).
1.3. COSTRUZIONE DI UN MODELLO DI STATO 7


+a  a+
L
v1 (t) R v2 (t)
a a

Figura 1.2: Rappresentazione di un doppio bipolo elettrico RL.

Il modello cosı̀ ottenuto è lineare e del primo ordine. Tale modello è stato ottenuto assumendo L
come parametro costante. Se anche il parametro R si può considerare costante nel tempo, il sistema
è anche tempo-invariante; se invece le variazioni nel tempo di R non possono essere trascurate allora
il sistema è tempo-variante.

Se, come uscita del sistema, invece che la tensione v2 , si considera la potenza dissipata nella
resistenza, si ha y(t) = i(t)v2 (t) = Rx(t)2 . Le equazioni del sistema sono
(
ẋ(t) = − R 1
L x(t) + L u(t), (1.3.10)
y(t) = Rx(t)2 .

In questo caso il sistema è non-lineare perché tale è la seconda delle (1.3.10). Tuttavia, l’equazione
dinamica (ossia la prima delle (1.3.10)) che è la più difficile da trattare è lineare e quindi il modello
è ancora sufficientemente semplice.

Esempio 1.3.3 Si consideri ora un forno elettrico schematizzato come in Figura 1.3.


+a 
L
v(t) R
a

Figura 1.3: Rappresentazione di un forno elettrico.

Siano RT e CT la resistenza termica delle pareti del forno e la capacità termica del forno. Siano
inoltre T (t) la temperatura all’interno del forno e Te la temperatura esterna. Si vuole determinare
un modello di stato considerando come ingresso la differenza di potenziale u(t) = v(t) e come uscita
la temperatura del forno y(t) = T (t). Si scelgano
" come# variabili di stato la corrente che circola in L
i(t)
e la temperatura all’interno del forno: x(t) = . Analogamente a quanto visto nell’esempio
T (t)
precedente, per la variabile x1 (t) si ha la relazione

R 1
ẋ1 (t) = − x1 (t) + u(t). (1.3.11)
L L
Per quanto riguarda la variabile x2 , la variazione ∆Q della quantità di calore contenuta nel forno
è pari a CT ∆x2 . Pertanto,

1 dQ 1 x2 (t) − Te
 
ẋ2 (t) = = Rx1 (t)2 − (1.3.12)
CT dt CT RT
dove si è tenuto conto del fatto che la potenza termica netta entrante nel forno è pari alla differenza
fra la potenza fornita dalla resistenza Rx1 (t)2 e quella dispersa attraverso le pareti del forno x2 (t)−T
RT
e
.
8 CAPITOLO 1. MODELLI DI STATO

In conclusione si ottiene il seguente modello del secondo ordine


 " R 1
#
 ẋ(t) = − L x1 (t) + L u(t)

,
R 2 x2 (t)−Te
CT x1 (t) − RT CT
(1.3.13)

y(t) = x2 (t).

Il modello è non lineare (e la non linearità è presente nell’equazione dinamica).

Esempio 1.3.4 Si consideri il sistema massa-molla schematizzato come in Figura 1.4.

k
F (t)
M -

Figura 1.4: Sistema massa-molla.

La massa M è soggetta ad una forza esterna F (t) e alla forza esercitata da una molla di costante
elastica k. Sia β il coefficiente di attrito (viscoso) della massa sul piano e y(t) la posizione della
massa in un sistema di riferimento in cui y(t) = 0 corrisponde alla posizione di molla scarica (né
compressa né estesa). Assumiamo che i parametri M , k, e β si possano considerare costanti nel
tempo.
Si vuole determinare un modello di stato considerando come ingresso la forza u(t) = F (t) e
come uscita la posizione y(t). " #
y
Si scelgano come variabili di stato la posizione e la velocità della massa: x = . È ovvio

che ẋ1 (t) = x2 (t). Per quanto riguarda la variabile x2 , dalla seconda legge della dinamica si ha:

M ẋ2 (t) = F (t) − ky(t) − β ẏ(t) = −kx1 (t) − βx2 (t) + u(t) (1.3.14)

Si ottiene cosı̀ il seguente modello del secondo ordine


 " # " #

 ẋ(t) = 0 1 0
k β x(t) + 1 u(t)
−M −M M (1.3.15)

y(t) = [1 | 0] x(t).

Il modello è lineare e tempo-invariante.

Esempio 1.3.5 Si consideri il pendolo rappresentato in Figura 1.5. Si vuole descrivere il sistema
r
A
A
A  c(t)
A
A
A
ϑ A
Az
A

Figura 1.5: Rappresentazione di un pendolo.

con un modello di stato considerando come ingresso la coppia applicata u(t) = c(t), e come uscita
1.3. COSTRUZIONE DI UN MODELLO DI STATO 9

la posizione angolare y(t) = ϑ(t). Sia l la lunghezza dell’asta del pendolo e m la sua massa (che
si suppone concentrata all’estremità del pendolo). Il momento di inerzia del pendolo (rispetto al
centro di rotazione) risulta dunque J = ml2 . Sia k il coefficiente di attrito viscoso del pendolo.
Poiché il movimento della massa è vincolato a giacere lungo una circonferenza risulta conveniente
scegliere come variabili di stato la" posizione
# angolare
" #ϑ(t) e la sua derivata (anziché la posizione e
x1 (t) ϑ(t)
la velocità della massa): x(t) = = . Ricordando che la coppia totale è pari al
x2 (t) ϑ̇(t)
momento di inerzia per l’accelerazione angolare, si ottiene facilmente il seguente modello di stato:
 " #
 ẋ(t) = x2 (t)

− gl sin(x1 (t)) − mlk 2 x2 (t) + ml1 2 u(t) (1.3.16)

y(t) = x1 .

Si è ottenuto un modello del secondo ordine non lineare e, se i parametri g, l, k e m si possono


ritenere costanti nel tempo, tempo-invariante.
Si noti che se, invece di un modello generale, si desidera fare un modello che descrive il
pendolo solo nelle situazioni in cui l’angolo ϑ è “piccolo” si può considerare l’approssimazione
sin(x1 (t)) ' x1 (t) ottenedo cosı̀ un modello lineare del tutto simile al modello massa-molla discusso
in precedenza.

1.3.1 Scelta delle variabili di stato


Come risulta evidente dall’Esempio 1.3.1 la scelta delle variabili di stato è cruciale al fine di ottenere
un modello semplice e quindi trattabile. Non esistono regole generali per tale scelta. Tuttavia si
possono fare alcune considerazioni che si rivelano utili in vari casi particolari ma di rilevante interesse
pratico.
In tutti gli esempi precedenti, il modello di stato è stato ottenuto scegliendo delle variabili legate
all’energia accumulata dal sistema: nell’esempio 1.3.1 la tensione ai capi di ciascun condensatore è
legata all’energia accumulata nel condensatore stesso: Ec = C2 v 2 (t). Similmente, nell’Esempio
1.3.2 la corrente scelta come variabile di stato è legata all’energia accumulata nell’induttore.
Nell’Esempio 1.3.3 la corrente (prima variabile di stato) è legata all’energia accumulata nell’induttore
e la temperatura (seconda variabile di stato) all’energia termica accumulata nel forno. Nell’Esempio
1.3.4, la posizione della massa (prima variabile di stato) è legata all’energia potenziale elastica e la
sua velocità (seconda variabile di stato) all’energia cinetica. Analoga è la situazione dell’Esempio
1.3.5 dove è risultato conveniente scegliere, come variabili di stato, posizione e velocità angolari. Si
invita il lettore a costruire il modello corrispondente a scegliere, come variabili di stato, la posizione
e la velocità della massa o, più precisamente, le loro componenti orizzontali e verticali, giacché sia
la posizione sia la velocità sono vettori nel piano sul quale giace il pendolo.
In generale, si può dire che, quando possibile, conviene scegliere come variabili di stato grandezze
legate all’energia accumulata dal sistema. In particolare:

Sistemi elettrici: Una scelta canonica che consente di ottenere modelli lineari di circuiti elettrici
RLC consiste nel selezionare come variabili di stato l’insieme di tutte le correnti che attraver-
sano le induttanze e di tutte le tensioni ai capi dei condensatori. Se il circuito è composto di
k induttanze e h capacità si otterrà cosı̀ un modello lineare di ordine h + k.

Sistemi meccanici: Una scelta canonica che consente di ottenere modelli di stato di sistemi mec-
canici consiste nel selezionare come variabili di stato l’insieme di tutte le posizioni e le velocità
delle masse in gioco o, nel caso di masse vincolate a un moto circolare, le posizioni angolari
e le velocità angolari.
10 CAPITOLO 1. MODELLI DI STATO

Sistemi termici: Una scelta canonica che consente di ottenere modelli di stato di sistemi termici
consiste nel selezionare come variabili di stato l’insieme di tutte le temperature dei componenti
del sistema.

1.4 Punti di equilibrio


Si consideri un sistema tempo invariante
(
ẋ(t) = f (x(t), u(t)),
(1.4.1)
y(t) = h(x(t), u(t)),

e sia u(t) = ū un ingresso costante.

Definizione 1.4.1 Il vettore x̄ si dice stato di equilibrio per il sistema (1.4.1) relativamente
all’ingresso ū se l’evoluzione di stato corrispondente all’ingresso costante u(t) ≡ ū, t ≥ 0 e allo
stato iniziale x(0) = x̄, è la costante x(t) ≡ x̄, t ≥ 0.
La coppia (x̄, ū) è detta punto di equilibrio del sistema. Dato un punto di equilibrio (x̄, ū), la
quantità ȳ = h(x̄, ū) si dice uscita di equilibrio corrispondente a (x̄, ū).

In termini meno formali, si può dire che, uno stato x̄ è di equilibrio relativamente all’ingresso
costante u(t) ≡ ū se, in corrispondenza a tale ingresso, lo stato del sistema non si discosta dal
valore iniziale x̄.
Risulta immediato verificare che x̄ è uno stato di equilibrio relativamente a ū se e solo se risolve
l’equazione
0 = f (x̄, ū). (1.4.2)
Pertanto, per determinare l’insieme degli stati di equilibrio corrispondenti a ū è sufficiente risolvere
la (1.4.2) che è un’equazione algebrica (non differenziale). Si noti che, fissato ū, la (1.4.2) può non
ammettere soluzioni o ammetterne infinite. Per esempio si verifichi che il sistema
(
ẋ(t) = sin(x(t)) + u(t),
(1.4.3)
y(t) = h(x(t), u(t))

ammette infiniti stati di equilibrio corrispondenti ad un qualunque ingresso costante |ū| ≤ 1 e


nessuno stato di equilibrio in corrispondenza ad un qualunque ingresso costante |ū| > 1.

Nel caso di sistemi lineari (


ẋ(t) = Ax(t) + bu(t),
(1.4.4)
y(t) = cx(t) + du(t),
fissato un ingresso costante ū, i corrispondenti stati di equilibrio sono tutte e sole le soluzioni della

Ax + bū = 0. (1.4.5)

Se la matrice A è invertibile, la (1.4.5) ammette un’unica soluzione

x̄ = −A−1 bū.

Se, invece, la matrice A è singolare, ci sono due possibilità:

1. se il vettore bū appartiene allo spazio vettoriale generato dalle colonne di A o, in breve,
bū ∈ imA, la (1.4.5) ammette infinite soluzioni;

2. se bū 6∈ imA la (1.4.5) non ammette soluzioni.


1.5. LINEARIZZAZIONE 11

Si noti che nel caso in cui ū 6= 0, la condizione bū ∈ imA è equivalente alla b ∈ imA (ossia il vettore
b appartiene allo spazio vettoriale generato dalle colonne di A). Se invece ū = 0 allora la condizione
bū = 0 ∈ imA è sempre verificata e tutte e sole le soluzioni della (1.4.5) sono gli elementi di ker A
(lo spazio nullo di A).
In particolare, si può quindi conludere che qualunque sistema lineare ammette il punto di equi-
librio (x̄, ū) = (0, 0).

Esempio 1.4.1 Si consideri il pendolo dell’Esempio 1.3.5 e il relativo modello (1.3.16). Fissato un
ingresso costante u(t) = ū, si vogliono calcolare i corrispondenti stati di equilibrio. La (1.4.2) si
particolarizza nella " # " #
x2 0
= (1.4.6)
− gl sin(x1 ) − mlk 2 x2 + ml1 2 ū 0
Questa equazione ammette soluzioni se e solo se

|ū| ≤ mgl (1.4.7)

e in tal caso le soluzioni, sono


"   # "   #
ū ū
arcsin mgl π − arcsin mgl
x̄ = , x̄ = , (1.4.8)
0 0

(dove x̄1 è individuato a meno di multipli di 2 π).


Si verifichi che:

1. se ū = 0 i due stati di equilibrio corrispondono al pendolo verticale (verso l’alto e verso il


basso), come si poteva facilmente intuire;

2. se ū = mgl vi è un unico stato di equilibrio (a meno di multipli di 2 π) corrispondente al


pendolo in posizione orizzontale (a destra del suo asse di rotazione);

3. se ū = −mgl vi è un unico stato di equilibrio (a meno di multipli di 2 π) corrispondente al


pendolo in posizione orizzontale (a sinistra del suo asse di rotazione);

4. se |ū| > mgl non vi sono stati di equilibrio.

1.5 Linearizzazione
Si illustrerà ora come un sistema non lineare (ma tempo-invariante) può essere approssimato,
nell’intorno di un punto di equilibrio, da un modello lineare. Sia dunque dato il sistema (1.4.1) e
sia (x̄, ū) un suo punto di equilibrio. Si definiscano i segnali

δx (t) := x(t) − x̄, δu (t) := u(t) − ū, δy (t) := y(t) − ȳ. (1.5.1)

Le (1.4.1) possono essere quindi riscritte nella forma


(
d(δx (t)+x̄)
dt = δ˙x (t) = f (x̄ + δx (t), ū + δu (t))
(1.5.2)
δy (t) + ȳ = h(x̄ + δx (t), ū + δu (t)),

Si indichi con ∂f
∂x la matrice quadrata di ordine n che ha per elemento di posizione i, j la derivata di
fi (la i-esima componente di f ) rispetto alla j-esima variabile di stato xj . Analogamente, si indichi
con ∂f
∂u il vettore colonna che ha per elementi le derivate di fi , i = 1, 2, . . . , n, rispetto a u, e con
∂h
∂x il vettore riga che ha per elementi le derivate di h, rispetto a xi , i = 1, 2, . . . , n. Gli elementi di
12 CAPITOLO 1. MODELLI DI STATO

∂f ∂f
∂x , ∂u e ∂h
∂x sono funzioni di x e u cosicché, valutandoli in corrispondenza del punto di equilibrio
(x̄, ū), si ottengono valori reali. Si ponga dunque

∂f ∂f
A := x=x̄
∈ Rn×n , b := x=x̄
∈ Rn×1 , (1.5.3a)
∂x u=ū
∂u u=ū

∂h 1×n ∂h
c := x=x̄
∈R , d := x=x̄
∈ R. (1.5.3b)
∂x u=ū ∂u u=ū

Ora, sviluppando le funzioni f e h attorno al punto di equilibrio, le (1.5.2) possono essere


riscritte nella forma

˙ ∂f ∂f
 δx (t) = f (x̄, ū) + ∂x x=x̄ δx (t) + ∂u x=x̄ δu (t) + o(δx , δu ),


u=ū u=ū
∂h ∂h
(1.5.4)
δ
 y

 (t) + ȳ = h(x̄, ū) + δ
∂x x=x̄ x (t) + ∂u x=x̄ δu (t) + o(δx , δu )
u=ū u=ū

Ricordando che f (x̄, ū) = 0 e ȳ = h(x̄, ū), e tenendo conto delle definizioni (1.5.3), si ha
(
δ˙x (t) = A δx (t) + b δu (t) + o(δx , δu ),
(1.5.5)
δy (t) = c δx (t) + d δu (t) + o(δx , δu )

che descrive la dinamica degli scostamenti δx (t), δu (t) e δy (t).


Se i segnali δx (t) e δu (t) sono sufficientemente piccoli, i termini o(δx , δu ) possono essere trascurati
e la (1.5.5) può essere approssimata dalla
(
δ˙x (t) = Aδx (t) + bδu (t),
(1.5.6)
δy (t) = cδx (t) + dδu (t)

In conclusione, fino a che il sistema si mantiene in un intorno del punto di equilibrio, la di-
namica degli scostamenti può essere approssimata da un sistema lineare. Questa possibilità è molto
importante perché:

1. I sistemi lineari sono molto più agevoli da trattare dei sistemi non lineari.

2. Nella pratica ingegneristica accade di frequente che ingresso e stato di un sistema non lineare
rimangano confinati in un intorno di un punto di equilibrio.

Esempio 1.5.1 Si consideri il pendolo" dell’Esempio


  1.3.5
# e il relativo modello (1.3.16). Fissato

arcsin mgl
un punto di equilibrio (x̄, ū) con x̄ = (del tutto analogo sarebbe il caso di x̄ =
0
"   #

π − arcsin mgl
), i parametri del sistema lineare (1.5.6) che descrive approssimatamente la
0
dinamica degli scostamenti attorno al punto di equilibrio sono
 
" #
0 1
h 0  1

∂f r
A := = g ū
i =  2  , (1.5.7a)
x=x̄
∂x u=ū − l cos arcsin mgl − mlk 2 − gl 1− ū
mgl − mlk 2
" #
∂f 0 ∂h ∂h
b := x=x̄
= 1 , c := x=x̄
= [1 | 0], d := x=x̄
= 0. (1.5.7b)
∂u u=ū m l2 ∂x u=ū ∂u u=ū
Capitolo 2

Analisi dei sistemi lineari e invarianti


nel tempo

In questo capitolo si analizza il comportamento dei sistemi per i quali il legame fra ingresso u(t) e
uscita y(t) è espresso da una coppia di equazioni lineari del tipo:
(
ẋ(t) = Ax(t) + bu(t),
(2.0.1)
y(t) = cx(t) + du(t),

dove A ∈ Rn×n , b ∈ Rn×1 , c ∈ R1×n e d ∈ R.

2.1 Evoluzione dello stato e dell’uscita


Si consideri un modello del tipo (2.0.1) e si suppongano noti:

• lo stato all’istante (iniziale) t0 : x(t0 ) = x0 e

• l’andamento futuro dell’ingresso u(t), t ≥ t0 .

Il seguente risultato permette di calcolare l’evoluzione futura di stato e uscita:

Teorema 2.1.1 Fissato lo stato iniziale x(t0 ) = x0 e l’andamento futuro dell’ingresso u(t), t ≥ t0 ,
l’evoluzione dello stato per t ≥ t0 è data da
Z t
x(t) = eA(t−t0 ) x0 + eA(t−τ ) bu(τ )dτ. (2.1.1)
t0

L’evoluzione dell’uscita per t ≥ t0 è data da


Z t
y(t) = c eA(t−t0 ) x0 + c eA(t−τ ) bu(τ )dτ + du(t). (2.1.2)
t0

Dimostrazione. Valutando ambo i membri della (2.1.1) in t = t0 si ottiene

x(t0 ) = eA0 x0 = x0 . (2.1.3)

Derivando ambo i membri della (2.1.1) si ottiene


Z t
A(t−t0 )
ẋ(t) = Ae x0 + A eA(t−τ ) bu(τ )dτ + eA0 bu(t) = Ax(t) + bu(t). (2.1.4)
t0

13
14 CAPITOLO 2. ANALISI DEI SISTEMI LTI

Quindi x(t) dato dalla (2.1.1) soddisfa l’equazione differenziale (formula (2.1.4)) con le prescritte
condizioni iniziali (formula (2.1.3)) e quindi è la traiettoria dello stato corrispondente a stato iniziale
dato da x0 e ad ingresso dato da u(t).
La dimostrazione della (2.1.2) è immediata: essa si ottiene infatti sostituendo l’espressione (2.1.1)
di x(t) nella seconda delle (2.0.1).
Nel seguito, senza perdita di generalità, si assumerà t0 = 0 cosicché la (2.1.1) che è nota come
Formula di Lagrange, si scriverà nella forma
Z t
x(t) = eAt x0 + eA(t−τ ) bu(τ )dτ, (2.1.5)
0

e la (2.1.2) nella forma


Z t
y(t) = c eAt x0 + c eA(t−τ ) bu(τ )dτ + du(t). (2.1.6)
0

2.1.1 Teorema di sovrapposizione degli effetti


Poiché sia lo stato iniziale x0 sia l’andamento dell’ingresso u(t) compaiono linearmente nelle (2.1.5)
e (2.1.6) si ha il seguente importante risultato noto come Teorema di sovrapposizione degli effetti:
Teorema 2.1.2 Dato il sistema (2.0.1), siano x0 (t), t ≥ 0, l’evoluzione dello stato corrispondente
allo stato iniziale x00 e all’ingresso u0 (t) e x00 (t), t ≥ 0, l’evoluzione dello stato corrispondente
allo stato iniziale x000 e all’ingresso u00 (t). Siano, inoltre, y 0 (t) e y 00 (t), t ≥ 0, le evoluzioni delle
corrispondenti uscite. Allora, comunque fissate due costanti reali α e β, l’evoluzione dello stato
corrispondente allo stato iniziale x0 := αx00 + βx000 e all’ingresso u(t) = αu0 (t) + βu00 (t), è data da
x(t) = αx0 (t) + βx00 (t); l’evoluzione della corrispondente uscita è data da y(t) = αy 0 (t) + βy 00 (t);
Il precedente risultato si riassume dicendo che l’evoluzione di stato è funzione lineare della coppia
formata da stato iniziale e ingresso e può essere schematizzato come segue:
# " 
x00 x0 (t) 


0 y 0 (t)
 # "
u (t) αx00 + βx000 αx0 (t) + βx00 (t)


⇒ → (2.1.7)
αu0 (t) + βu00 (t) αy 0 (t) + βy 00 (t)
# "
x000 x00 (t) 


u00 (t) y 00 (t)


2.1.2 Evoluzione libera ed evoluzione forzata


La (2.1.5), cosı̀ come la (2.1.1), può essere scritta nella forma
x(t) = xl (t) + xf (t) (2.1.8)
dove
xl (t) := eAt x0 , (2.1.9a)
Z t
xf (t) := eA(t−τ ) bu(τ )dτ. (2.1.9b)
0

Analogamente la (2.1.6), cosı̀ come la (2.1.2), può essere scritta nella forma
y(t) = yl (t) + yf (t) (2.1.10)
dove
yl (t) := c eAt x0 , (2.1.11a)
Z t
yf (t) := c eA(t−τ ) bu(τ )dτ + du(t). (2.1.11b)
0
2.1. EVOLUZIONE DELLO STATO E DELL’USCITA 15

Si osservi che nella (2.1.8) l’evoluzione x(t) dello stato è decomposta additivamente in due termini:
il primo, xl (t), detto evoluzione libera dello stato del sistema, dipende solamente dallo stato iniziale
x0 e non dall’andamento dell’ingresso u(t); il secondo, xf (t), detto evoluzione forzata dello stato
del sistema, dipende solamente dall’ingresso u(t) e non dallo stato iniziale x0 . Analogamente, nella
(2.1.10) l’evoluzione y(t) dell’uscita è decomposta additivamente in due termini: il primo, yl (t),
detto evoluzione libera dell’uscita del sistema o risposta libera (del sistema) dipende solamente
dallo stato iniziale x0 e non dall’andamento dell’ingresso u(t); il secondo, yf (t), detto evoluzione
forzata dell’uscita del sistema o risposta forzata (del sistema) dipende solamente dall’ingresso u(t)
e non dallo stato iniziale x0 .
Si invita il lettore a verificare che questa decomposizione si può vedere come un caso particolare
del Teorema di sovrapposizione degli effetti. Essa corrisponde alla situazione in cui x00 = x0 ,
u0 (t) ≡ 0, x000 = 0, u00 (t) = u(t) e α = β = 1.

Evoluzione libera dello stato


L’evoluzione libera dello stato a partire dallo stato iniziale x(0) = x0 è data dal prodotto dell’espo-
nenziale eAt per il vettore x0 (espressione (2.1.9a)). Si ricorda (cfr. Proposizione A.3.1, nel caso
di matrici diagonalizzabili, e Proposizione A.3.4, nel caso di matrici non diagonalizzabili) che gli
elementi della matrice esponenziale eAt sono combinazioni lineari secondo coefficienti reali delle
funzioni dell’insieme (A.3.5) nel caso di matrici diagonalizzabili (o, nel caso di matrici non diago-
nalizzabili, dell’insieme (A.3.27)).
In particolare, dalla Proposizione A.3.4 segue immediatamente il seguente risultato.
Proposizione 2.1.1 Sia A ∈ Rn×n e siano λi , i = 1, 2, . . . , r i suoi autovalori reali e µi := σi +jωi
e µ̄i := σi − jωi , i = 1, 2, . . . , c, quelli con parte immaginaria non nulla. Si consideri l’insieme di
funzioni linearmente indipendenti
M := MR ∪ MC (2.1.12)
con
MR := {eλi t , teλi t , . . . , tI(λi )−1 eλi t : i = 1, 2, . . . , r} (2.1.13)
e

MC := {eσi t cos(ωi t), eσi t sin(ωi t), teσi t cos(ωi t), teσi t sin(ωi t), . . . ,
tI(µi )−1 eσi t cos(ωi t), tI(µi )−1 eσi t sin(ωi t) : i = 1, 2, . . . , c}.
(2.1.14)

Per ogni x0 ∈ Rn , ciascun elemento del vettore di stato xl (t) = eAt x0 è combinazione lineare
secondo coefficienti reali delle funzioni di M.
Inoltre, comunque data una funzione f (t) ∈ M esistono condizioni iniziali x0 ∈ Rn tali che la
funzione f (t) compare con combinatore non nullo in almeno un elemento di xl (t).

Definizione 2.1.1 Le funzioni f (t) ∈ M si dicono modi del sistema (2.0.1).

Si noti che i modi del sistema dipendono dalla sola matrice A e nel caso in cui A è diagonaliz-
zabile l’insieme dei modi ha una struttura molto semplice:

M := {eλi t : i = 1, 2, . . . , r} ∪ {eσi t cos(ωi t), eσi t sin(ωi t) : i = 1, 2, . . . , c}. (2.1.15)

dove i λi , i = 1, 2, . . . , r sono gli autovalori reali di A e σi ± jωi , i = 1, 2, . . . , c sono gli autovalori


di A con parte immaginaria non nulla. In altre parole, se A è diagonalizzabile, i modi sono:
1. gli esponenziali degli autovalori reali di A e
2. le parti reali e immaginarie degli esponenziali degli autovalori complessi di A.
16 CAPITOLO 2. ANALISI DEI SISTEMI LTI

Evoluzione libera dell’uscita


L’evoluzione libera dell’uscita è combinazione lineare, secondo gli elementi del vettore c, degli
elementi di xl (t) (cfr (2.1.11a)). In particolare quindi
Proposizione 2.1.2 Per ogni x0 ∈ Rn , l’evoluzione libera dell’uscita yl (t) = ceAt x0 è combi-
nazione lineare secondo coefficienti reali dei modi del sistema.
Si noti che non è affato detto che per ogni f (t) ∈ M esistano condizioni iniziali x0 ∈ Rn tali
che la funzione f (t) compaia con combinatore non nullo in yl (t). In tal caso si dice che alcuni dei
modi del sistema non sono osservabili dall’uscita.

Evoluzione forzata dello stato


L’evoluzione forzata dello stato è data dalla (2.1.9b) che ha la forma di un integrale di convoluzione.
Risulta quindi conveniente analizzarne la trasformata di Laplace. A questo fine si trasformano ambo
i membri della prima delle (2.0.1) tenendo conto che l’evoluzione forzata è la soluzione dell’equazione
differenziale corrispondente a condizioni iniziali nulle. Indicando con Xf (s) il vettore che ha per
componenti le trasformate di Laplace di xf (t) e con U (s) la trasformata di Laplace dell’ingresso
u(t), e ricordando la linearità della trasformata, si ottiene:

sXf (s) = AXf (s) + bU (s) (2.1.16)

cosicché
Xf (s) = [(sI − A)−1 b]U (s) (2.1.17)
che evidenzia come Xf (s) sia il prodotto della quantità (sI −A)−1 b indipendente dall’ingresso per la
trasformata U (s) dell’ingresso. In particolare, il termine (sI −A)−1 b è la trasformata dell’evoluzione
forzata dello stato in corrispondenza all’ingresso impulsivo; infatti, in corrispondenza all’ingresso
u(t) = δ(t) si ha U (s) = 1 cosicché Xf,δ (s) = (sI − A)−1 b. L’antitrasformata di questo termine si
ottiene facilmente sostituendo δ(t) a u(t) nell’espressione (2.1.9b):

xf,δ (t) = eAt b (2.1.18)

da cui consegue immediatamente che ciascuna componente del vettore dell’evoluzione forzata dello
stato corrispondente all’ingresso impulsivo è data da una combinazione lineare dei modi del sistema.

Evoluzione forzata dell’uscita


La trasformata di Laplace Yf (s) dell’evoluzione forzata dell’uscita si ottiene facilmente trsaformando
ambo i membri della seconda delle (2.0.1):

Yf (s) = cXf (s) + dU (s). (2.1.19)

Sostituendo l’espressione (2.1.17) per Xf (s) nella (2.1.19) si ottiene:

Yf (s) = [c(sI − A)−1 b + d]U (s) = W (s)U (s) (2.1.20)

che mostra come anche l’evoluzione forzata dell’uscita sia prodotto di un termine

W (s) := c(sI − A)−1 b + d (2.1.21)

indipendente dall’ingresso, per la trasformata di Laplace dell’ingresso. Come per il caso prece-
dente, si verifica immediatamente che W (s) è la trasformata dell’evoluzione forzata dell’uscita in
corrispondenza ad un ingresso impulsivo u(t) = δ(t):

Yf,δ (s) = W (s). (2.1.22)


2.2. FUNZIONE DI TRASFERIMENTO E RISPOSTA IMPULSIVA 17

La W (s) che gioca un ruolo fondamentale nella teoria del controllo si dice funzione di trasferimento
o trasferenza del sistema (2.0.1). La sua antitrasformata è l’evoluzione dell’uscita corrispondente
ad un ingresso impulsivo ed è chiamata risposta impulsiva del sistema. Quest’ultima si ottiene
facilmente sostituendo δ(t) a u(t) nell’espressione (2.1.11b):

yf,δ (t) = w(t) = ceAt b + dδ(t) (2.1.23)

da cui consegue immediatamente che l’evoluzione forzata dell’uscita corrispondente all’ingresso


impulsivo è data dalla somma di una combinazione lineare dei modi del sistema e da un impulso
di ampiezza d.
Si noti che la risposta impulsiva è una pura combinazione lineare dei modi del sistema (ossia
è priva della componente impulsiva dδ(t)) se e solo se d = 0; in tal caso il sistema si dice stretta-
mente proprio. Come si vede, in un sistema strettamente proprio l’ingresso non influenza l’uscita
direttamente, ma solo indirettamente attraverso la sua azione sull’equazione di stato. Questa è
un’equazione differenziale che ha un effetto regolarizzatore (un impulso in ingresso significa che la
derivata di x(t) ha una componente impulsiva cosicché x(t) presenta una semplice discontinuità del
secondo ordine).
Per questo motivo, nei sistemi strettamente propri, un impulso in ingresso dà luogo ad un’uscita
forzata priva di componenti impulsive.

Esempio 2.1.1 Si consideri il circuito dell’Esempio 1.3.1 e il relativo modello (1.3.3). Siano C1 =
C2 = C = 61 10−3 F, R1 = 2 000 Ohm e R2 = 3 000 Ohm. Si calcolino l’evoluzione dello stato e
dell’uscita in corrispondenza ad un ingresso a gradino unitario (u(t) ≡ 1 Volt, t ≥ 0 e u(t) ≡ 0
Volt, t < 0) e a un stato iniziale in cui le tensioni ai capi dei due condensatori C1 e C2 sono di 0 e
5 Volt, rispettivamente.

2.2 Funzione di trasferimento e risposta impulsiva


Una funzione W (s) si dice razionale se è rappresentabile come un rapporto di polinomi in s:
N (s)
W (s) = ; (2.2.24)
D(s)
la funzione razionale (2.2.24) si dice propria se il grado del polinomio D(s) è maggiore o uguale a
quello di N (s); si dice strettamente propria se il grado del polinomio D(s) è maggiore di quello di
N (s). Nel seguito le funzioni razionali (2.2.24) e N (s)P (s)
D(s)P (s) dove P (s) è un qualunque polinomio non
identicamente nullo, verranno identificate. Il secondo membro della (2.2.24) si dice rappresentazione
coprima (o minima) di W (s) se i polinomi N (s) e D(s) sono coprimi ossia non hanno zeri in
comune. Gli zeri di una funzione razionale W (s) sono gli zeri del polinomio N (s) di una sua
rappresentazione coprima. I poli di una funzione razionale W (s) sono gli zeri del polinomio D(s)
di una sua rappresentazione coprima. Si dice grado relativo di W (s) la differenza tra il grado del
polinomio D(s) e quello del polinomio N (s):

rel deg[W (s)] = deg[D(s)] − deg[N (s)].

Si consideri ora la funzione di trasferimento (2.1.21). Si ha il seguente risultato.


Proposizione 2.2.1 La funzione W (s) data dall’espressione (2.1.21) è una funzione razionale
propria di s. Inoltre, W (s) è strettamente propria se e solo se d = 0.
Dimostrazione. Si ricorda che
1
(sI − A)−1 = adj(sI − A), (2.2.25)
det(sI − A)
18 CAPITOLO 2. ANALISI DEI SISTEMI LTI

dove adj(sI − A) indica la matrice aggiunta di sI − A ossia la matrice quadrata con le stesse
dimensioni di A il cui elemento di indice i, j è pari a

[adj(sI − A)]i,j = (−1)i+j det[(sI − A)j−,i− ] (2.2.26)

con (sI − A)j−,i− sottomatrice ottenuta da sI − A eliminando la riga di ordine j e la colonna di


ordine i. Pertanto, ciascun elemento della matrice adj(sI − A) è un polinomio di grado minore o
uguale a n − 1 e quindi anche c adj(sI − A)b è un polinomio di grado minore o uguale a n − 1
(dove si è indicato con n l’ordine della matrice A). La conclusione è ora immediata osservando che
det(sI − A) è un polinomio in s di grado n.
Si osservi che i poli di W (s) sono un sottoinsieme degli zeri del polinomio det(sI − A) ossia
sono un sottoinsieme dell’insieme degli autovalori di A:

{poli(W (s))} ⊆ σ(A). (2.2.27)

Infatti, W (s) è data da


c adj(sI − A) b + d det(sI − A)
W (s) = , (2.2.28)
det(sI − A)
ma non è affatto detto che numeratore e denominatore del secondo membro della (2.2.28) siano
polinomi coprimi.

2.2.1 Funzione di trasferimento e realizzazione di stato


Nella sezione precedente si è visto che la funzione di trasferimento è una funzione razionale propria.
Sorgono perciò naturali le seguenti domande:
1. Come si caratterizza l’insieme delle funzioni razionali che sono funzioni di trasferimento di
un sistema del tipo (2.0.1)?

2. La funzione di trasferimento individua univocamente il sistema, ossia la quadrupla (A, b, c, d)?

3. Data una funzione di trasferimento W (s) come si calcola una quadrupla (A, b, c, d) tale che
valga la (2.1.21) ? Come si caratterizza l’insieme di tali quadruple?

Definizione 2.2.1 Si dice realizzazione di una funzione di trasferimento W (s) una quadrupla
(A, b, c, d) per la quale è soddisfatta la (2.1.21). Una realizzazione (A, b, c, d) di W (s) si dice minima
se non esiste alcuna altra realizzazione (A0 , b0 , c0 , d0 ) di W (s) tale che l’ordine della matrice A0 sia
minore dell’ordine della matrice A.

Teorema 2.2.1 Data una qualunque funzione razionale propria W (s) esiste una sua realizzazione
(A, b, c, d).

Dimostrazione. Si procederà in modo costruttivo a calcolare una realizzazione di una qualsiasi


funzione razionale W (s). Si consideri la funzione razionale strettamente propria Ws (s) := W (s) −
W (∞) e la si rappresenti in forma minima come Ws (s) = N (s)
D(s) . Sia N (s) = b0 + b1 s + . . . bn−1 s
n−1 e

D(s) = a0 +a1 s+. . . sn (senza perdita di generalità si è assunto D(s) monico). Si verifica facilmente
per ispezione che la quadrupla
   
0 1 0 ··· 0 0

 0 0 1 ··· 0 


 0 


A= .. .. .. .. 
∈ Rn×n

b= .. 
∈ Rn×1 (2.2.29)
 . . . . 0   . 
0 0 ... 0 1  0
   
  
−a0 −a1 . . . . . . −an−1 1
2.2. FUNZIONE DI TRASFERIMENTO E RISPOSTA IMPULSIVA 19

h i
c= b0 b1 . . . . . . bn−1 ∈ R1×n d = W (∞) ∈ R (2.2.30)

è una realizzazione di W (s).

Teorema 2.2.2 Si consideri una rappresentazione minima di una funzione razionale propria W (s) =
N (s)
D(s) e sia (A, b, c, d) una realizzazione di W (s). Le seguenti condizioni sono equivalenti:

1. (A, b, c, d) è una reazlizzazione minima di W (s).

2. L’ordine della matrice A è pari al grado del polinomio D(s).


 
c

 cA 

2 n−1 cA2
 
3. Le matici R := [b | Ab | A b | · · · | A b] e O :=   sono entrambe non singolari.

.. 
.
 
 
cAn−1

Inoltre date due realizzazioni minime (A, b, c, d) e (A0 , b0 , c0 , d0 ) di W (s), esiste una matrice non
singolare T ∈ Rn×n tale che

A0 = T −1 AT, b0 = T −1 b c0 = cT, d0 = d. (2.2.31)

Corollario 2.2.1 La realizzazione (2.2.29)-(2.2.30) è minima.


20 CAPITOLO 2. ANALISI DEI SISTEMI LTI
Capitolo 3

La stabilità

3.1 Definizioni
Si consideri il sistema (
ẋ(t) = f (x(t), u(t)),
(3.1.1)
y(t) = h(x(t), u(t)),
e sia (x̄, ū) un suo punto di equilibrio. Fissato uno stato iniziale x0 = x̄ + ∆x, si indichi con x∆ (t)
l’evoluzione dello stato in corrispondenza all’ingresso costante ū e alla condizione iniziale x0 .

Definizione 3.1.1 Il punto di equilibrio si dice semplicemente stabile se1

∀ε > 0, ∃δ > 0 : k∆xk < δ ⇒ kx∆ (t) − x̄k < ε ∀ t ≥ t0 (3.1.2)

In termini meno formali si può dire che un punto di equilibrio è semplicemente stabile se in
corrispondenza all’ingresso costante u(t) ≡ ū, la traiettoria di stato del sistema rimane confinata
in un intorno arbitrariamente piccolo dello stato di equilibrio x̄, purché la condizione iniziale sia
sufficientemente prossima a tale stato.

Definizione 3.1.2 Il punto di equilibrio si dice asintoticamente stabile se è stabile e vale la

∃δ > 0 : k∆xk < δ ⇒ lim kx∆ (t) − x̄k = 0 (3.1.3)


t→∞

In termini meno formali si può dire che un punto di equilibrio è asintoticamente stabile se in
corrispondenza all’ingresso costante u(t) ≡ ū, la traiettoria di stato rimane confinata in un intorno
arbitrariamente piccolo dello stato di equilibrio x̄ e tende a tale stato, purché la condizione iniziale
sia sufficientemente prossima a x̄.

Si noti che:

1. La stabilità e la stabilità asintotica sono proprietà del punto di equilibrio, non del sistema.

2. Esistono sistemi (necessariamente non lineari) che presentano punti di equilibrio non stabili
ma per i quali vale la (3.1.3). Tali punti di equilibrio si dicono attrattivi.
1
Si indica con kxk la norma euclidea del vettore x, ossia, dette xi , i = 1, 2, . . . , n, le componenti di x,
v
u n
uX 2
kxk := t xi .
i=1

21
22 CAPITOLO 3. LA STABILITÀ

3.2 Stabilità nei sistemi lineari


Come si è già osservato, un qualunque sistema lineare
(
ẋ(t) = Ax(t) + bu(t),
(3.2.1)
y(t) = cx(t) + du(t),

ammette il punto di equilibrio (x̄, ū) = (0, 0). Si mostrerà ora che dato un sistema lineare, le
caratteristiche di stabilità e convergenza di un suo qualunque punto di equilibrio sono le stesse di
quelle del punto di equilibrio (0, 0).

Proposizione 3.2.1 Un qualunque punto di equilibrio (x̄, ū) del sistema lineare (3.2.1) è (asinto-
ticamente) stabile se e solo se lo è il punto di equilibrio (0, 0).

Dimostrazione. L’evoluzione dello stato corrispondente a ingresso ū e stato iniziale x0 = x̄ + ∆x


è Z t
x∆ (t) = eAt (x̄ + ∆x) + eA(t−τ ) bū dτ. (3.2.2)
0
Ricordando che, per la proprietà dei punti di equilibrio, bū = −Ax̄, si ha
Z t
At At
x∆ (t) = e x̄ + e ∆x − e At
e−Aτ A dτ x̄
0
Z t
d
= eAt [I + (e−Aτ ) dτ ]x̄ + eAt ∆x = x̄ + eAt ∆x. (3.2.3)
0 dτ
Di conseguenza, lo scostamento dallo stato di equilibrio x̄ è

x∆ (t) − x̄ = eAt ∆x. (3.2.4)

Osservando che il secondo membro della (3.2.4) è anche lo scostamento dallo stato nullo dell’evoluzio-
ne di stato corrispondente all’ingresso identicamente nullo e allo stato iniziale x0 = ∆x, si ha subito
la conclusione.
Si è dunque dimostrato che, nei sistemi lineari, la stabilità e la stabilità asintotica non dipendono
dal punto di equilibrio in esame. Pertanto esse sono proprietà del sistema. Si può quindi dare la
seguente definizione.

Definizione 3.2.1 Un sistema lineare si dice (asintoticamente) stabile se tale è il suo punto di
equilibrio nell’origine.

3.2.1 Condizioni di stabilità per i sistemi lineari


Un’immediata conseguenza della Proposizione 3.2.1 è che la (asintotica) stabilità di un sistema
lineare è una proprietà dell’insieme delle evoluzioni libere del sistema in corrispondenza a condizioni
iniziali prossime all’origine: infatti, applicando la definizione di (asintotica) stabilità al punto di
equilibrio nell’origine si ottiene subito il seguente corollario:

Corollario 3.2.1 Un sistema lineare è stabile se e solo se

∀ε > 0, ∃δ > 0 : k∆xk < δ ⇒ keAt ∆xk < ε ∀ t ≥ t0 (3.2.5)

Un sistema lineare è asintoticamente stabile se e solo se è stabile e vale la

∃δ > 0 : k∆xk < δ ⇒ lim keAt ∆xk = 0 (3.2.6)


t→∞
3.2. STABILITÀ NEI SISTEMI LINEARI 23

Ora, impiegando nuovamente la linearità, è facile dimostrare il seguente importante corollario


che mostra che i sistemi lineari (asintoticamente) stabili lo sono “in grande”.

Corollario 3.2.2 Un sistema lineare è stabile se e solo se per ogni stato iniziale x0 ∈ Rn ,
l’evoluzione libera dello stato rimane limitata. Equivalentemente, un sistema lineare è stabile se e
solo se tutti gli elementi della matrice eAt hanno modulo limitato:

∃K : |[eAt ]i,j | < K ∀ t ≥ 0, ∀ i, j = 1, 2, . . . n, (3.2.7)

dove [eAt ]i,j indica l’elemento di riga i e colonna j della matrice eAt .
Un sistema lineare è asintoticamente stabile se e solo se per ogni stato iniziale x0 ∈ Rn ,
l’evoluzione libera dello stato tende, per t → ∞, allo stato nullo. Equivalentemente, un sistema
lineare è asintoticamente stabile se e solo se

lim eAt = 0. (3.2.8)


t→∞

Osservando le formule (3.2.8) e (3.2.7) risulta evidente il segunte risultato.

Corollario 3.2.3 La stabilità e la stabilità asintotica di un sistema lineare sono proprietà che
dipendono solo dalla matrice A.

Dal Corollario 3.2.2 e dalla Proposizione A.3.1 (o dalla Proposizione A.3.4, nel caso di matrici
non diagonalizzabili) consegue facilmente il seguente importantissimo teorema.

Teorema 3.2.1 Il sistema lineare (3.2.1):

1. è asintoticamente stabile se e solo se tutti gli autovalori della matrice A hanno parte reale
negativa;

2. è semplicemente stabile se e solo se tutti gli autovalori della matrice A hanno parte reale
negativa o nulla e tutti gli autovalori con parte reale nulla hanno molteplicità algebrica uguale
alla molteplicità geometrica.

In formule:
(3.2.1) Asintoticamente Stabile ⇔ Re[λ] < 0, ∀ λ ∈ σ(A) (3.2.9)
(
Re[λ] ≤ 0,
(3.2.1) Stabile ⇔ ∀ λ ∈ σ(A) (3.2.10)
Re[λ] = 0 ⇒ ma(λ) = mg(λ),

Ricordando che gli autovalori di A sono le radici del polinomio caratteristico di A, si ha il


segunte risultato.

Corollario 3.2.4 Il sistema lineare (3.2.1) è asintoticamente stabile se e solo se il polinomio


πA (s) := det(sI − A) è strettamente hurwitziano.

La condizione (3.2.10) per la semplice stabilità è meno immediata della condizione per la stabilità
asintotica. Tuttavia, nel caso di sistemi la cui matrice di stato è diagonalizzabile, la condizione può
essere semplificata come mostra il seguente corollario.

Corollario 3.2.5 Se la matrice A è diagonalizzabile, il sistema lineare (3.2.1) è semplicemente


stabile se e solo se tutti gli autovalori della matrice A hanno parte reale negativa o nulla. In
formule:

A diagonalizzabile ⇒ {(3.2.1) Stabile ⇔ Re[λ] ≤ 0, ∀ λ ∈ σ(A)} (3.2.11)


24 CAPITOLO 3. LA STABILITÀ

3.2.2 Condizioni di stabilità per i punti di equilibrio di sistemi non lineari


Le definizioni di stabilità e stabilità asintotica per punti di equilibrio di sistemi non lineari sono
di scarso interesse operativo. Infatti, verificare la stabilità di un punto di equilibrio di un sistema
non lineare in base alla diretta applicazione della definizione risulta, nella maggior parte dei casi,
impossibile. Tuttavia si può ricorrere al seguente risultato (enunciato senza dimostrazione).

Teorema 3.2.2 Sia (x̄, ū) un punto di equilibrio del sistema (3.1.1) e sia A la matrice di stato
ottenuta linearizzando il sistema (3.1.1) attorno al punto di equilibrio (x̄, ū). Allora
1. se tutti gli autovalori di A hanno parte reale negativa allora (x̄, ū) è un punto di equilibrio
asintoticamente stabile per il sistema (3.1.1);
2. se almeno un autovalore di A ha parte reale positiva allora (x̄, ū) è un punto di equilibrio
instabile per il sistema (3.1.1).

Si noti che questo teorema non permette di concludere nulla nel caso in cui la matrice A abbia
uno o più autovalori a parte reale nulla e i rimanenti abbiano tutti parte reale negativa. In tal caso
è necessario ricorrere a criteri più sofisticati.

Esempio 3.2.1 Si consideri il pendolo dell’Esempio 1.3.5 e il relativo " # modello (1.3.16)." Si consi-#
0 0 00 π
derino i due punti di equilibrio corrispondenti a ū = 0: (x̄ , ū) = ( , 0) e (x̄ , ū2 ) = ( , 0).
0 0
Impiegando il Teorema 3.2.2, si verifichi che il secondo punto di equilibrio non è stabile mentre,
se il coefficiente di attrito k è positivo, il primo punto di equilibrio è asintoticamente stabile.
Se k = 0, si ricade nella condizione in cui il Teorema 3.2.2 non fornisce alcuna indicazione. " #
0
Tuttavia, impiegando la definizione, si può concludere che il punto di equilibrio (x̄0 , ū) = ( , 0)
0
è semplicemente stabile ma non asintoticamente stabile. A questo scopo si consideri la conservazione
dell’energia totale ET che è la somma di energia cinetica Ek e energia potenziale Ep del pendolo.
Per semplicità, si scelga lo zero dell’energia potenziale in corrispondenza al punto in cui il pendolo
è nella posizione più bassa possibile (verticale). Si esprima la somma ET = Ek + Ep in funzione
delle variabili di stato. Risulterà immediato constatare che ET tende a zero se e solo se kxk vi
tende. A questo punto non è difficile applicare la definizione e concludere che il punto di equilibrio
in questione è semplicemente (ma non asintoticamente) stabile.

3.3 Stabilità BIBO


La stabilità semplice e la stabilità asintotica riguardano il modo in cui variazioni dello stato ini-
ziale x0 influiscono sull’evoluzione dello stato del sistema. Una seconda importantissima forma di
stabilità riguarda invece il modo in cui variazioni dell’ingresso influiscono sull’evoluzione dell’uscita
del sistema. Introdurremo questa forma di stabilità solo per sistemi lineari.
Definizione 3.3.1 Si consideri un sistema lineare. Il sistema si dice BIBO-stabile se per ogni
ingresso limitato la corrispondente uscita forzata è limitata.
Si può dimostrare che vale la seguente condizione necessaria e sufficiente.
Teorema 3.3.1 Si consideri un sistema lineare e sia
N (s)
W (s) =
D(s)
una rappresentazione coprima della sua funzione di trasferimento. Allora il sistema è BIBO-stabile
se e solo se tutti gli zeri di D(s) hanno parte reale strettamente negativa.
3.3. STABILITÀ BIBO 25

Risulta dunque evidente che in un sistema lineare la stabilità asintotica implica sia la stabilità
semplice sia la stabilità BIBO mentre non valgono, in generale, le implicazioni inverse, né vale, in
generale, alcuna implicazione fra le due proprità di stabilità semplice e di stabilità BIBO.
26 CAPITOLO 3. LA STABILITÀ
Appendice A

Esponenziale di matrici

A.1 Definizione
Nel seguito si definirà l’esponenziale di una arbitraria matrice quadrata A ∈ Rn×n e se ne illustreran-
no alcune proprietà. La definizione è fondata sul seguente risultato:

Proposizione A.1.1 Sia A ∈ Rn×n . La serie



X Ak tk A2 t2 A3 t3
= I + At + + + ... (A.1.1)
k=0
k! 2! 3!

converge assolutamente1 per ogni t ∈ R.

Sulla base di questo risultato si ha la seguente definizione.

Definizione A.1.1 Siano A ∈ Rn×n e t ∈ R. Si definisce esponenziale di A t e si indica con eAt


la matrice

X Ak tk
eAt = . (A.1.2)
k=0
k!

Si osservi che l’esponenziale di matrice è stato introdotto per analogia con il caso scalare; infatti
Ak tk
per ogni A ∈ R e t ∈ R si ha eAt = ∞
P
k=0 k! . Pertanto, quando A è scalare il suo esponenziale si
riduce a quello consueto.

A.2 Proprietà dell’esponenziale di matrice


Fissata la matrice A l’esponenziale eAt può essere visto come una matrice i cui elementi aij (t) =
[eAt ]i,j sono funzioni di t.

Proposizione A.2.1 Valgono le seguenti proprietà:

1. Per ogni i, j = 1, 2, . . . n, aij (t) è una funzione continua con tutte le sue derivate.

2. Per ogni A ∈ Rn×n e t ∈ R, eAt è una matrice invertibile e la sua inversa è e−At .

3. Per ogni A ∈ Rn×n ,


eA0 = I. (A.2.1)
1
Il primo membro della (A.1.1) è una serie di matrici, ossia, una
Pmatrice in cui ciascun elemento è costituito da

una serie. Data la P successione di matrici Mk , la serie di matrici k=0
Mk si dice (assolutamente) convergente se

ciascuna delle serie k=0
[Mk ]ij è tale.

27
28 APPENDICE A. ESPONENZIALE DI MATRICI

4. Per ogni A ∈ Rn×n e t1 , t2 ∈ R,

eA(t1 +t2 ) = eAt1 eAt2 (A.2.2)

5. Se A1 , A2 ∈ Rn×n commutano2 allora per ogni t ∈ R,

e(A1 +A2 )t = eA1 t eA2 t . (A.2.3)

Viceversa, se per ogni t ∈ R, vale la (A.2.3) allora A1 e A2 commutano.

6. Per ogni A ∈ Rn×n e t ∈ R si ha

d At
[e ] = AeAt = eAt A. (A.2.4)
dt

7. Se
 
J1 0 0 . . . 0

 0 J2 0 . . . 0 

A= .. .. .. .. .. 
. . . . .
 
 
0 0 0 . . . Jl

è una matrice diagonale a blocchi allora eAt è anch’essa diagonale a blocchi e ciascuno dei
suoi blocchi diagonali è l’esponenziale del corrispondente blocco di A:

eJ1 t 0 0 . . . 0
 

At

 0 eJ2 t 0 . . . 0 

e = .. .. .. .. ..  (A.2.5)
. . . . .
 
 
0 0 0 . . . e lt
J

8. Se v ∈ Cn è un autovettore di A ∈ Rn×n e λ ∈ C è il corrispondente autovalore, allora v è


anche autovettore di eAt per ogni t ∈ R e il corrispondente autovalore è eλt :

Av = λv ⇒ eAt v = eλt v. (A.2.6)

9. Data A ∈ Rn×n , sia T ∈ Cn×n non singolare. Allora, per ogni t ∈ R si ha3
−1 )t
e(T AT = T eAt T −1 . (A.2.7)

Le proprietà 2-9 sono di immediata verifica a partire dalla definizone di esponenziale. La di-
mostrazione della proprietà 1 è meno immediata.
Si osservi che dalla proprietà 7 segue che l’esponenziale di una matrice diagonale Λ è, a sua volta,
una matrice diagonale i cui elementi diagonali sono gli esponenziali dei corrispondenti elementi di
Λ.
2
Si dice che due matrici A1 e A2 commutano se A1 A2 = A2 A1 .
n×n
Si noti che T AT −1 in generale non è una matrice reale in quanto T ∈ C
3
. Per altro, la definizione di
esponenziale di matrici si estende in modo ovvio al caso complesso (la Proposizione A.1.1 continua a valere anche se
n×n
A∈C ).
A.3. CALCOLO DELL’ESPONENZIALE DI UNA MATRICE 29

A.3 Calcolo dell’esponenziale di una matrice


A.3.1 Caso di matrici diagonalizzabili
Nel caso di matrici A diagonalizzabili, il calcolo dell’esponenziale risulta abbastanza agevole. Si
ricorda la seguente definizone.

Definizione A.3.1 Sia A ∈ Rn×n . A si dice diagonalizzabile se esiste una matrice non singolare
T ∈ Cn×n tale che D := T −1 AT è una matrice diagonale (eventualmente anche a valori complessi).

Data una matrice A ∈ Rn×n diagonalizzabile sia T tale che


 
λ1 0 0 . . . 0
−1

 0 λ2 0 . . . 0 

T AT = D =  .. .. .. .. .. . (A.3.1)
. . . . .
 
 
0 0 0 . . . λn

Per calcolare l’esponenziale eAt è sufficiente osservare che


−1 AT T −1 )t −1 AT )t
eAt = e(T T = T e(T T −1 = T eDt T −1 (A.3.2)

e quindi per la proprietà 7,

eλ1 t
 
0 0 ... 0
At

 0 eλ2 t 0 . . . 0 
 −1
e =T .. .. .. .. .. T (A.3.3)
. . . . .
 
 
0 0 0 . . . e λn t

Si osservi che:

1. per calcolare l’eponenziale di una matrice diagonalizzabile A è sufficiente calcolare la matrice


T e la matrice diagonale D e poi eseguire i prodotti a secondo membro della (A.3.3);

2. se A è una matrice diagonalizzabile, le colonne della corrispondente matrice T sono autovettori


(linearmente indipendenti) di A; inoltre l’autovalore di A corrispondente alla i−esima colonna
di T è l’i−esimo elemento λi sulla diagonale di D. Infatti, indicata con vi la i−esima colonna
di T , si ha vi 6= 0 e dalla (A.3.1) consegue AT = T D che, considerata colonna per colonna, si
può scrivere come
Avi = λi vi , i = 1, 2 . . . n. (A.3.4)
Per definizione quindi vi è autovettore di A e il corrispondente autovalore è λi .
Viceversa, dati v1 , v2 , . . . , vn autovettori di A linearmente indipendenti, e detta T la matrice
(non singolare) le cui colonne sono questi autovettori, la matrice T diagonalizza A. Infatti,
vale la (A.3.4) da cui la AT = T D e la (A.3.1).
In conclusione, la matrice A è diagonalizzabile se e solo se ammette n autovettori linearmente
indipendenti e, in questo caso, una matrice che diagonalizza A si ottiene giustapponendo
questi n autovettori di A;

3. i λi e gli elementi di T nella (A.3.3) non sono necessariamente reali; però, se A è una matrice a
elementi reali, eAt è una matrice i cui elementi sono funzioni a valori reali e quindi, eseguendo
il prodotto a secondo membro della (A.3.3), si deve necessariamente ottenere una matrice
reale.
30 APPENDICE A. ESPONENZIALE DI MATRICI

4. dalla (A.3.3) segue subito che gli elementi di eAt sono combinazioni lineari degli esponen-
ziali degli autovalori di A. Inoltre, se λ = σ + jω è un autovalore complesso di A si
può dimostrare che anche il suo complesso coniugato λ̄ = σ − jω è autovalore di A; nel
prodotto a secondo membro della (A.3.3), gli esponenziali eλt = eσt [cos(ωt) + j sin(ωt)] e
eλ̄t = eσt [cos(ωt) − j sin(ωt)] si combinano secondo coefficienti complessi coniugati in modo
che il loro contributo agli elementi dell’eponenziale eAt è costituito da combinazioni lineari
delle funzioni reali eσt cos(ωt) e eσt sin(ωt).
La precedente osservazione 4. è resa più precisa dalla seguente proposizione.
Proposizione A.3.1 Sia A ∈ Rn×n diagonalizzabile e siano λi , i = 1, 2, . . . , r, i suoi autovalori
reali e σi ± jωi , i = 1, 2, . . . , c, quelli con parte immaginaria non nulla. Si consideri l’insieme di
funzioni linearmente indipendenti

M := {eλi t : i = 1, 2, . . . , r} ∪ {eσi t cos(ωi t), eσi t sin(ωi t) : i = 1, 2, . . . , c}. (A.3.5)

Ciascun elemento di eAt è combinazione lineare secondo coefficienti reali delle funzioni di M.
Inoltre, comunque data una funzione f (t) ∈ M, esiste almeno un elemento di eAt in cui la
funzione f (t) compare con combinatore non nullo.

Si ricordano ora alcuni concetti sulla teoria delle matrici utili per enunciare una condizione
necessaria e sufficiente per la diagonalizzabilità di una matrice.

Definizione A.3.2 Sia A ∈ Rn×n . Il polinomio

πA (s) = det[sI − A] (A.3.6)

si dice polimomio caratteristico di A.

Il polinomio caratteristico è un polinomio monico di grado pari all’ordine della matrice.


Gli zeri del polinomio caratteristico di A sono gli autovalori di A. L’insieme degli autovalori di
A è detto spettro di A e indicato con σ(A).

Definizione A.3.3 Sia A ∈ Rn×n e λ ∈ σ(A). La molteplicità di λ come zero del polinomio
caratteristico πA (s) è detta molteplicità algebrica di λ come autovalore di A e si indica con ma(λ).
La dimensione dello spazio vettoriale4
ker[λI − A] (A.3.7)
è detta molteplicità geometrica di λ come autovalore di A e si indica con mg(λ).

È ovvio che dato λ ∈ σ(A), si ha ma(λ) ≥ 1 e mg(λ) ≥ 1. Inoltre, è facile dimostrare che
ma(λ) ≥ mg(λ).

Proposizione A.3.2 Sia A ∈ Rn×n . Condizione necessaria e sufficiente perché A sia diagonaliz-
zabile è che per ogni λ ∈ σ(A) si abbia

ma(λ) = mg(λ). (A.3.8)

In tal caso la matrice A ammette n autovettori linearmente indipendenti v1 , v2 , . . . , vn e la matrice


T ∈ Cn×n le cui colonne sono i vettori vi diagonalizza A, ossia T −1 AT è una matrice diagonale.
4 p×q
Data una matrice L ∈ R , si indica con ker L l’insieme di vettori
q
ker L := {v ∈ R : Lv = 0}.

Tale insieme è un sottospazio vettoriale di Rq e viene anche detto nucleo o spazio nullo di L.
A.3. CALCOLO DELL’ESPONENZIALE DI UNA MATRICE 31

Dalla precedente proposizione, ricordando che ma(λ) ≥ mg(λ) ≥ 1 consegue il seguente corol-
lario che fornisce una condizione sufficiente per la diagonalizzabilità.
Corollario A.3.1 Sia A ∈ Rn×n . Se A ha n autovalori distinti allora è diagonalizzabile.

Esempio A.3.1 Si vuole calcolare l’esponenziale della matrice


" #
−3 10
A= . (A.3.9)
−3 8

Si calcoli anzitutto il polinomio caratteristico:


" #
s + 3 −10
det(sI − A) = det = s2 − 5 s + 6, (A.3.10)
3 s−8

le cui radici (autovalori di A) sono λ1 = 2 e λ2 = 3. La matrice A ha dimensione 2 e ha


" 2 autovalori
#
2
distinti perciò è diagonalizzabile. Ponendo Av = 2v si ottiene l’autovettore v1 = relativo
1
" #
5
all’autovalore 2. Analogamente, ponendo Av = 3v si ottiene l’autovettore v2 = relativo
3
" # " #
2 5 2 0
all’autovalore 3. Dunque T = e T −1 AT = . E infine
1 3 0 3
" #" #" # " #
At 2 5 e2t 0 3 −5 6e2t − 5e3t 10e3t − 10e2t
e = = (A.3.11)
1 3 0 e3t −1 2 3e2t − 3e3t 6e3t − 5e2t
| {z } | {z }
T T −1

Esempio A.3.2 Si vuole calcolare l’esponenziale della matrice


 
−5 7 −10
A =  −11 12 −15  . (A.3.12)
 
−5 5 −6

Si calcoli anzitutto il polinomio caratteristico:


 
s+5 −7 10
det(sI − A) = det  11 s − 12 15  = s3 − s2 + 2, (A.3.13)
 
5 −5 s+6

le cui radici (autovalori di A) sono λ1 = −1 e λ2/3 = 1 ± j. La matrice A ha dimensione 3 e ha 3


autovalori distinti perciò è diagonalizzabile.
     
1 4 ± j3 1 4 − j3 4 + j3
Gli autovettori di A sono v1 =  2  e v2/3 =  11 ± j2 , cosicché T =  2 11 − j2 11 + j2 
     
1 5 1 5 5
 
−1 0 0
e T −1 AT =  0 1 + j 0 . E infine la matrice esponenziale eAt è data da
 
0 0 1−j
−1 AT )t
T e(T T −1 =
" #
2e−t − et cos(t) − 2et sin(t) 3et cos(t) + et sin(t) − 3e−t 5e−t − 5et cos(t)
4e−t − 4et cos(t) − 3et sin(t) 7et cos(t) − et sin(t) − 6e−t 10e−t − 10et cos(t) + 5et sin(t)
2e−t − 2et cos(t) − et sin(t) 3et cos(t) − et sin(t) − 3e−t 5e−t − 4et cos(t) + 3et sin(t)
32 APPENDICE A. ESPONENZIALE DI MATRICI

Esempio A.3.3 Si vuole calcolare l’esponenziale della matrice


 
1 1 −1
A =  −4 6 −4  . (A.3.14)
 
−2 2 0

Si calcoli anzitutto il polinomio caratteristico:

det(sI − A) = s3 − 7s2 + 16s − 12 (A.3.15)

le cui radici (autovalori di A) sono λ1 = 3 e λ2 = 2. In questo caso, la matrice A ha dimensione 3


ma ha solo 2 autovalori distinti; per discuterne la diagonalizzabilità si devono calcolare molteplicità
algebrica e geometrica dei due autovalori. L’autovalore λ1 = 3 ha molteplità algebrica pari a 1 e
quindi tale è pure la sua molteplicità geometrica. L’autovalore λ2 = 2 ha molteplità algebrica pari
a 2 e quindi si deve determinarne la molteplità geometrica ossia si deve determinare la dimensione
dello spazio vettoriale ker(2I −A). Ricordando che la dimensione del nucleo di una matrice quadrata
(come è 2I − A) di ordine n è pari ad n meno il rango della matrice stessa, si ha
 
1 −1 1
dim ker(2I − A) = 3 − rank  4 −4 4  = 3 − 1 = 2, (A.3.16)
 
2 −2 2

e quindi anche la molteplicità geometrica dell’autovalore λ2 = 2 è pari a 2. In conclusione,


  A
1
è diagonalizzabile. Risolvendo l’equazione Av = 3v si ottiene l’autovettore v1 =  4  relativo
 
2
all’autovalore 3. Risolvendo
  l’equazione
  Av = 2v si ottengono due autovettori linearmente
 in-
1 0 1 1 0
dipendenti: v21 =  1  e v22 =  1  relativi all’autovalore 2. Quindi, T =  4 1 1  e
     
0 1 2 0 1
 
3 0 0
T −1 AT =  0 2 0 . E infine la matrice esponenziale eAt è data da
 
0 0 2
 
2e2t − e3t e3t − e2t e2t − e3t
−1 AT )t
eAt = T e(T T −1 2t
=  4e − 4e 3t 3t
4e − 3e 2t 4e2t − 4e3t  . (A.3.17)
 
2e2t − 2e3t 2e3t − 2e2t 3e2t − 2e3t

A.3.2 Caso di matrici non diagonalizzabili


Il calcolo dell’esponenziale di una matrice non diagonalizzabile è più complicato perchè richiede
una trasformazione T che porta la matrice in una forma canonica detta forma di Jordan. Si ha il
seguente risultato.

Proposizione A.3.3 Siano A ∈ Rn×n e λ1 , λ2 , . . . , λl , l ≤ n, gli autovalori di A. Esiste una


matrice invertibile T tale che T −1 AT è una matrice diagonale a blocchi con tanti blocchi quanti
sono gli autovalori di A:  
J1 0 0 . . . 0
 0 J2 0 . . . 0 
 
T −1 AT =  .. .. .. .. .
..  (A.3.18)
 . . . . . 
0 0 0 . . . Jl
A.3. CALCOLO DELL’ESPONENZIALE DI UNA MATRICE 33

Ciascun blocco Ji ha ordine pari alla molteplicità aglebrica di λi come autovalore di A. Inoltre,
ciascun Ji ha il solo autovalore λi e ha anch’esso struttura diagonale a blocchi:
 
Ji1 0 0 . . . 0

 0 Ji2 0 . . . 0 

Ji =  .. .. .. .. .. . (A.3.19)
. . . . .
 
 
0 0 0 . . . Jiki
Il numero di blocchi ki di Ji è pari alla molteplicità geometrica di λi come autovalore di A. Detto
mi,j l’ordine del blocco Jij si ha mi,j ≥ mi,j+1 (i blocchi Jij hanno ordine decrescente). Infine,
ciascun blocco Jij ha la struttura bidiagonale
 
λi 1 0 ... 0

 0 λi 1 ... 0 


Jij =  .. .. .. ..
 = λi I + N. (A.3.20)
 . . . .
 0 0 0 λi 1 
 

0 0 0 . . . λi
dove N è una matrice che ha solo la prima sopradiagonale non nulla e precisamente con tutti gli
elementi pari a 1.

Le matrici Ji si dicono blocchi di Jordan di A; le matrici Jij si dicono miniblocchi di Jordan di


A. L’ordine mi,1 del primo miniblocco di Jordan relativo all’autovalore λi (ossia del miniblocco di
ordine massimo tra quelli relativi all’autovalore λi ) si dice indice di λi come autovalore di A e si
indica con I(λi ).
Si può dimostrare che
dim ker[(λi I − A)q ] < ma(λi ), ∀ q < I(λi ) (A.3.21a)
q
dim ker[(λi I − A) ] = ma(λi ), ∀ q ≥ I(λi ). (A.3.21b)
Queste relazioni permettono di calcolare l’indice I(λi ), infatti esso è il primo intero q per cui vale
la (A.3.21b).
È chiaro che, nota la matrice T che riduce la matrice A in forma di Jordan, il calcolo del-
l’esponenziale di A richiede solo il calcolo dell’esponenziale di matrici con struttura di miniblocchi
di Jordan. Infatti, per calcolare eAt è sufficiente ridurre A in forma di Jordan e operare come nel
caso di matrici diagonalizzabili.
Si illustrerà ora il calcolo dell’esponenziale di matrici con struttura di miniblocchi di Jordan.
Sia J un miniblocco di Jordan di ordine m:
J = λI + N ∈ Rm×m . (A.3.22)
Si osservi che
1. le matrici λI e N commutano;
2. Per i < m, la matrice N i ha tutti gli elementi nulli eccetto quelli della i-esima sopradiagonale
che sono tutti pari a 1. Per i ≥ m, la matrice N i ha tutti gli elementi nulli:
 

0 0 1 0 ... 0
 0 0 0 1
... 0
0 0 0 1 ... 0 
 .. 

   0 0 0 0 . 0 
.. .. . . . . . . .. 
 
.. .. .. .. ..

. . . . 
 
2

N = . . , 3
N =
 . . . . . 1 

0 0 0 ... 0 1 
 
0 0 0 ... 0 0 
  
  
 0 0 0 ... 0 0  
 0 0 0 ... 0 0 

0 0 0 ... 0 0 0 0 0 ... 0 0
34 APPENDICE A. ESPONENZIALE DI MATRICI

 
0 0 ... 0 1

 0 0 ... 0 0  
..., N m−1

= .. .. .. .. ..  Nq = 0 ∀ q ≥ m
. . . . . ,


0 0 ... 0 0 
 

0 0 ... 0 0

Dalla commutatività consegue che


eJt = eλt eN t ; (A.3.23)
e dalla definizione di esponenziale consegue che
t2 t3 tm−1
 
1 t 2! 3! ... (m−1)!
.. ..
 

. . tm−2 

 0 1 t (m−2)!


 .. . . .. .. .. .. 
eN t =  . . . . . . . (A.3.24)
 
 .. t2


 0 0 0 . t 2!


0 0 0 ... 1 t
 
 
0 0 0 ... 0 1
In conclusione
t2 t3 tm−1
 
1 t 2! 3! ... (m−1)!
.. ..
 

. . tm−2 

 0 1 t (m−2)!


Jt

λt 
.. . . .. .. .. .. 
e =e  . . . . . . .

(A.3.25)
 .. t2


 0 0 0 . t 2!


0 0 0 ... 1 t
 
 
0 0 0 ... 0 1
Per calcolare l’esponenziale di una qualunque matrice A si può procedere cosı̀:
1. si calcola la matrice T che riduce A in forma di Jordan;

2. si calcola l’esponenziale di ciascuno dei miniblocchi;

3. si calcola
eAt = T diag{eJ11 t , eJ12 t , . . . eJlkl t } T −1 (A.3.26)

Se A ha autovalori complessi (con parte immaginaria non nulla), la matrice T e la forma


di Jordan T −1 AT hanno elementi complessi; in tal caso si può dimostrare che due autovalori
complessi coniugati hanno la stessa struttura di Jordan ossia hanno blocchi e miniblocchi delle
stesse dimensioni e in particolare hanno lo stesso indice. In modo analogo a come avviene nel
caso di matrici diagonalizzabili, nel prodotto a secondo membro della (A.3.26), gli esponenziali
eλt = eσt [cos(ωt) + j sin(ωt)] e eλ̄t = eσt [cos(ωt) − j sin(ωt)] si combinano secondo coefficienti
complessi coniugati in modo che il loro contributo agli elementi dell’eponenziale eAt è costituito da
combinazioni lineari delle funzioni reali eσt cos(ωt) e eσt sin(ωt). Più precisamente vale la seguente
proposizione:
Proposizione A.3.4 Sia A ∈ Rn×n e siano λi , i = 1, 2, . . . , r i suoi autovalori reali e µi := σi +jωi
e µ̄i := σi − jωi , i = 1, 2, . . . , c, quelli con parte immaginaria non nulla. Si consideri l’insieme di
funzioni linearmente indipendenti
M := MR ∪ MC (A.3.27)
con
MR := {eλi t , teλi t , . . . , tI(λi )−1 eλi t : i = 1, 2, . . . , r} (A.3.28)
A.3. CALCOLO DELL’ESPONENZIALE DI UNA MATRICE 35

MC := {eσi t cos(ωi t), eσi t sin(ωi t), teσi t cos(ωi t), teσi t sin(ωi t), . . . ,
tI(µi )−1 eσi t cos(ωi t), tI(µi )−1 eσi t sin(ωi t) : i = 1, 2, . . . , c}.
(A.3.29)

Ciascun elemento di eAt è combinazione lineare secondo coefficienti reali delle funzioni di M.
Inoltre, comunque data una funzione f (t) ∈ M esiste almeno un elemento di eAt in cui la
funzione f (t) compare con combinatore non nullo.

Esempio A.3.4 Si vuole calcolare l’esponenziale della matrice


 
−69 45 3 −5
 −139 90 6 −10 
A= . (A.3.30)
 
 −77 49 5 −5 
−263 166 12 −18

Si calcoli anzitutto il polinomio caratteristico:

det(sI − A) = (s − 2)4 , (A.3.31)

la cui unica radice (autovalore di A) è λ = 2. Quindi, A ha il solo autovalore 2 e ma(2) = 4. Si può


osservare che A non è diagonalizzabile anche senza calcolare mg(2): infatti se A fosse diagonaliz-
zabile, esisterebbe T invertibile tale che T −1 AT = 2I4 (dove I4 indica l’identità di mensione 4) e
quindi A = T 2I4 T −1 = 2I4 , dove si è tenuto conto del fatto che l’identità commuta con qualunque
matrice T .
La forma di Jordan di A può quindi essere solo una delle seguenti:
 
2 1 0 0
 0 2 1 0 
J = (A.3.32)
 
0 0 2 1

 
0 0 0 2
 
2 1 0 0
 0 2 1 0 
J = (A.3.33)
 
0 0 2 0

 
0 0 0 2
 
2 1 0 0
 0 2 0 0 
J = (A.3.34)
 
0 0 2 1

 
0 0 0 2
 
2 1 0 0
 0 2 0 0 
J = (A.3.35)
 
0 0 2 0

 
0 0 0 2
La (A.3.32) corrisponde alla presenza di un solo miniblocco di Jordan di ordine 4, la (A.3.33)
corrisponde alla presenza di un miniblocco di Jordan di ordine 3 e uno di ordine 1, la (A.3.34)
corrisponde alla presenza di due miniblocchi di Jordan di ordine 2 e la (A.3.35) corrisponde alla
presenza di un miniblocco di Jordan di ordine 2 e due di ordine 1.
36 APPENDICE A. ESPONENZIALE DI MATRICI

Per stabilire quale di queste sia la forma di Jordan di A si calcoli la mg(2). Si ha


 
71 −45 −3 5
 139 −88 −6 10 
2I − A =  . (A.3.36)
 
 77 −49 −3 5 
263 −166 −12 20

il cui nucleo    
2 0
 3   0 
ker[2I − A] =<  , > (A.3.37)
   
 4   5 
1 3
ha dimensione 2. Quindi mg(2) = 2 e la forma di Jordan di A ha due miniblocchi e perciò può
essere la (A.3.33) oppure la (A.3.34). Per stabilire di quale di queste si tratti, si osservi che
   
−130 82 6 −10 0 0 0 0
 −195 123 9 −15   0 0 0 0 
[2I − A]2 =  , [2I − A]3 =  (A.3.38)
   
−260 164 12 −20  0 0 0 0

  
−65 41 3 −5 0 0 0 0

Pertanto l’autovalore 2 ha l’indice pari a 3 e quindi la forma di Jordan di A è la (A.3.33). Nota


la forma di Jordan, la matrice T che riduce A in tale forma si puo calcolare imponendo

AT = T J (A.3.39)

che può essere considerata come un’equazione lineare in T . Una delle (infinite) soluzioni della
(A.3.39) è  
2 1 0 0
 3 2 0 0 
T = , (A.3.40)
 
 4 1 2 5 
1 4 1 3
da cui si calcola facilmente  
2 −1 0 0
 −3 2 0 0 
T −1 =  (A.3.41)
 
−65 41 3 −5

 
25 −16 −1 2
In conclusione
t2 2t
 
e2t t e2t 2e 0
0 e2t t e2t 0
 
eAt = T eJt T −1 = T 
 −1
 T =

 0 0 e2t 0 
0 0 0 e2t

1 − 71 t − 65 t2 45 t + 41 t2 3 t + 3 t2 −5 t − 5 t2
 
195 2 123 2 9 2
 −139 t − 2 t 1 + 88 t + 2 t 6t+ 2 t −10 t − 15
2 t
2 
= e2t  (A.3.42)
 
 −77 t − 130 t 2 49 t + 82 t 2 1+3t+6t 2 −5 t − 10 t 2 

−263 t − 652 t 2 166 t + 41 2
2 t 12 t + 3 2
2 t 1 − 20 t − 52 t2

Potrebbero piacerti anche