Sei sulla pagina 1di 217

Indice

Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi

Capitolo 1 Introduzione alla teoria degli spazi


lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . 2

1.2 Spazi vettoriali o lineari . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3 Dimensione di uno spazio vettoriale e base . . . . . . . . . . . 11

1.4 Cambiamenti di base . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.5 Alcune proprietà delle matrici . . . . . . . . . . . . . . . . . . . . 16

1.6 Trasformazioni lineari e matrici . . . . . . . . . . . . . . . . . . . 18

1.7 Operatori lineari e matrici quadrate . . . . . . . . . . . . . . . . 26

1.8 Autovettori generalizzati di una matrice . . . . . . . . . . . . . 31

1.9 Rappresentazioni canoniche di un operatore


lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.10 Forma canonica di Jordan . . . . . . . . . . . . . . . . . . . . . . . 37

1.11 Proprietà metriche degli spazi lineari e norme . . . . . . . . 46


vi Indice Indice vii

1.12 Prodotto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.5.c Volani collegati da un albero flessibile . . . . . . . . . . 99

1.13 Proprietà delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . 54


2.5.d Pendolo invertito su carrello . . . . . . . . . . . . . . . . . . 100
1.13.a Proprietà generali . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.6 Sistemi elettro–meccanici . . . . . . . . . . . . . . . . . . . . . . . . 104
1.13.b Inversione di matrici . . . . . . . . . . . . . . . . . . . . . . . . 58

1.13.c Matrici a blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.6.a Motore elettrico in corrente continua


a magneti permanenti con tensione
1.14 Esercizi e problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
d’armatura variabile . . . . . . . . . . . . . . . . . . . . . . . . 104
2.6.b Motore elettrico in corrente continua
Capitolo 2 Rappresentazioni con lo stato di
con eccitazione variabile . . . . . . . . . . . . . . . . . . . . . 107
sistemi da diverse discipline . . . . . . . . . . . . . . . . . 75
2.6.c Motore elettrico in corrente continua
2.1 Modelli astratti di procedure di calcolo . . . . . . . . . . . . . 77
con tensione d’armatura e d’eccitazione
2.1.a Modello di un algoritmo di integrazione . . . . . . . . . 77 variabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

2.1.b Inseguimento di un aeromobile mediante 2.6.d Motore in corrente continua alimentato


un sistema radar . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 in tensione con carico ed albero flessibile . . . . . . . . 110
2.2 Modelli demografici e biologici . . . . . . . . . . . . . . . . . . . . 81 2.7 Modelli di sistemi idraulici . . . . . . . . . . . . . . . . . . . . . . . 111
2.2.a Modello di evoluzione per classi di età . . . . . . . . . . 81
2.7.a Serbatoio chiuso con fluido incomprimibile
2.2.b Dinamica della crescita di una popolazione . . . . . . . 84 e con mescolamento perfetto . . . . . . . . . . . . . . . . . . 111
2.2.c Modello di interazione preda–predatore . . . . . . . . . 86
2.7.b Doppio serbatoio connesso da una tubazione . . . . . 112
2.3 Modello economico di Leontief . . . . . . . . . . . . . . . . . . . . 88
2.8 Modelli di sistemi nucleari e chimici . . . . . . . . . . . . . . . . 116
2.4 Modelli di sistemi elettrici . . . . . . . . . . . . . . . . . . . . . . . 90

2.4.a Un semplice circuito elettrico . . . . . . . . . . . . . . . . . 90 2.8.a Reazione nucleare del tipo (n, γ) . . . . . . . . . . . . . . 116

2.4.b Circuito elettrico con diodo tunnel . . . . . . . . . . . . . 92 2.8.b Reattore nucleare . . . . . . . . . . . . . . . . . . . . . . . . . . 118
2.4.c Circuito elettrico oscillante . . . . . . . . . . . . . . . . . . . 94
2.8.c Reattore chimico . . . . . . . . . . . . . . . . . . . . . . . . . . 122
2.5 Modelli di sistemi meccanici . . . . . . . . . . . . . . . . . . . . . . 96
2.9 Esercizi e problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2.5.a Equazioni di Lagrange . . . . . . . . . . . . . . . . . . . . . . 96

2.5.b Dinamica di un punto materiale . . . . . . . . . . . . . . . 97


viii Indice Indice ix

Capitolo 3 Sistemi lineari: analisi nel dominio 4.10 Esercizi e problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
del tempo. I modi naturali nell’evoluzione 4.11 Appendice del capitolo 4 . . . . . . . . . . . . . . . . . . . . . . . . 266
libera e in quella forzata . . . . . . . . . . . . . . . . . . . . 133
4.11.a La trasformata di Laplace . . . . . . . . . . . . . . . . . . . 266
3.1 I modi naturali nell’evoluzione libera dello
4.11.b La trasformata z . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
3.1.a Sistemi a tempo continuo regolari . . . . . . . . . . . . . . 133
Capitolo 5 Proprietà strutturali dei sistemi
3.1.b Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . 145 lineari stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
3.2 I modi naturali nell’evoluzione forzata e nell’uscita . . . . 150 5.1 Proprietà strutturali e scomposizioni . . . . . . . . . . . . . . . 273
3.2.a Sistemi a tempo continuo regolari . . . . . . . . . . . . . . 150 5.2 Criteri di Popov–Belevitch–Hautus . . . . . . . . . . . . . . . . . 288

3.2.b Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . 163 5.3 Matrici Grammiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

3.3 Esercizi e problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 5.4 Alcune proprietà delle forme compagne . . . . . . . . . . . . . 292
5.5 Sul calcolo di poli e zeri . . . . . . . . . . . . . . . . . . . . . . . . . 295
Capitolo 4 Le trasformate di Laplace e z nell’analisi
5.6 Esercizi e problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
dei sistemi a tempo continuo e a
tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Capitolo 6 Modelli ingresso–uscita lineari e
4.1 Richiami sulla trasformata di Laplace . . . . . . . . . . . . . . . 177 rappresentazioni con lo stato . . . . . . . . . . . . . . . . 305

4.2 Calcolo delle evoluzioni nel dominio complesso: 6.1 Richiami sulla teoria dell’associazione di
uso della trasformata di Laplace . . . . . . . . . . . . . . . . . . . 178 una rappresentazione con lo stato e della realizzazione . . 305
4.3 Rappresentazioni della funzione di trasferimento . . . . . . 193 6.2 Nuclei e rappresentazioni . . . . . . . . . . . . . . . . . . . . . . . . 310

4.4 Il regime permanente e la risposta armonica 6.3 Costruzione di una rappresentazione a partire
per i sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . 197 da un nucleo assegnato . . . . . . . . . . . . . . . . . . . . . . . . . . 313
4.5 I diagrammi di Bode . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 6.4 Costruzione di una rappresentazione ridotta
a partire da una assegnata . . . . . . . . . . . . . . . . . . . . . . . 319
4.6 I diagrammi di Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . 233
6.5 Realizzazioni mediante il criterio di Gilbert . . . . . . . . . . 321
4.7 Richiami sulla trasformata z . . . . . . . . . . . . . . . . . . . . . . 242
6.6 La formula di Mason . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
4.8 Calcolo delle evoluzioni nel dominio complesso: 6.7 Trasformazioni tra realizzazioni . . . . . . . . . . . . . . . . . . . 329
uso della trasformata z . . . . . . . . . . . . . . . . . . . . . . . . . . 243
4.9 Il regime permanente e la risposta armonica 6.8 Schemi di simulazione associati alle realizzazione . . . . . . 335
per i sistemi a tempo–discreto . . . . . . . . . . . . . . . . . . . . 255 6.9 Esercizi e problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
x Indice

Capitolo 7 La stabilità dei sistemi dinamici . . . . . . . . . . . . . 355

7.1 Sistemi a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . 355

7.1.a Studio della stabilità mediante le


funzioni di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . 356
7.1.b Cenni sulla costruzione delle funzioni
di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
7.1.c Studio della stabilità mediante l’approssimazione
lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 Premessa
7.1.d Ulteriori considerazioni sulla stabilità
asintotica globale . . . . . . . . . . . . . . . . . . . . . . . . . . 365
7.1.e Cenni sulla stabilità dei sistemi lineari
non stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
7.1.f I criteri di Routh e di Hurwitz . . . . . . . . . . . . . . . . 372 Nel presente testo di Complementi ed Esercizi di Teoria dei Sistemi
sono svolti numerosi esercizi di applicazione dei principali metodi di analisi
7.2 Sistemi a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . . 387 dei sistemi deterministici. In accordo con i temi caratteristici di un insegna-
mento universitario in tale materia, l’analisi è in prevalenza confinata alla
7.2.a Studio della stabilità mediante le classe dei sistemi lineari stazionari tempo continuo e tempo discreto.
funzioni di Lyapunov . . . . . . . . . . . . . . . . . . . . . . . 387 Anche se l’organizzazione in capitoli riflette in gran parte la trattazione
della materia negli insegnamenti presso l’Università di Roma, i numerosi
7.2.b Il criterio di Jury . . . . . . . . . . . . . . . . . . . . . . . . . . 388
richiami agli aspetti di metodo ed ad alcuni complementi, importanti anche
7.2.c Il metodo di Kalman e Beltram . . . . . . . . . . . . . . . 389 dal punto di vista del calcolo, hanno lo scopo di rendere autocontenuto il
materiale presentato nei diversi capitoli.
7.3 La stabilità esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390

7.4 Il criterio di stabilità di Nyquist . . . . . . . . . . . . . . . . . . . 393

7.5 Esercizi e problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
1. Introduzione alla teoria degli
spazi lineari

La descrizione matematica di un fenomeno reale a partire dalla indivi-


duazione delle grandezze e dei legami tra esse, consiste nella formulazione
di tali legami mediante precise relazioni matematiche. In questo contesto le
grandezze fisiche sono in corrispondenza biunivoca con elementi di insiemi
astratti, gli insiemi delle variabili.
La natura del fenomeno e le sue proprietà fisiche si traducono in par-
ticolari strutture degli insiemi delle variabili. Ad esempio se si intende de-
scrivere la relazione tra corrente e tensione in una resistenza, la proprietà
del fenomeno, per il quale vale il principio di sovrapposizione degli effetti,
impone all’insieme dei valori della corrente e della tensione una struttura di
spazio lineare. Analogamente, la descrizione del legame corrente–tensione
ai capi di un condensatore non può prescindere dall’esistenza di una strut-
tura metrica sull’insieme dei valori della tensione, struttura necessaria per
definire la derivata.
Nello studio di sistemi dinamici lineari, entrambe le citate strutture
degli insiemi delle variabili, quella algebrica e quella metrica di spazio nor-
mato, assumono un ruolo centrale. Sebbene le proprietà algebriche e geo-
metriche siano distinte, per dare vita ad una presentazione più sistematica
nel seguito sarà dapprima introdotta la struttura algebrica di spazio lineare
e successivamente quella metrica di distanza.
2 1. Introduzione alla teoria degli spazi lineari 1.1. Dipendenza e indipendenza lineare 3

1.1. Dipendenza e indipendenza lineare In forma più compatta, indicando con X la matrice 3×3 avente per colonne
ordinatamente i vettori x1 , x2 , x3 e con λ il vettore di componenti λ1 , λ2 , λ3 ,
Dati m vettori x1 , · · · , xm di IRn , questi si dicono linearmente dipen- il sistema (1.4) può essere scritto (1.1) :
denti se esistono m scalari λ1 , · · · , λm non tutti nulli tali che risulti:

m Xλ = 0. (1.5)
λi xi = 0. (1.1)
i=1 È ben noto che tale sistema ammette soluzione non banale se e solo se il
Supposto, senza perdita di generalità, che sia λ1 = 0, dalla (1.1) si trae, determinante della matrice dei coefficienti è nullo. Tale condizione è sod-
disfatta nel presente caso ed è immediato verificare che il seguente vettore
ponendo αi = − λi :
λ1 λ:  
m
2
x1 = αi xi . (1.2)
λ =  −1  ,
i=2
−2
Dunque se m vettori sono linearmente dipendenti, è sempre possibile es-
primerne almeno uno in funzione dei rimanenti; si suole chiamare il secondo come ogni altro vettore ad esso proporzionale, è soluzione del sistema (1.5).
membro della (1.2) combinazione lineare dei vettori x2 , · · · , xm secondo i Pertanto i vettori assegnati sono linearmente dipendenti ed è facile mostrare
coefficienti α2 , · · · , αm . che il sottospazio che li contiene è il piano avente equazione x + y − z = 0.
Pertanto il risultato espresso dalla (1.2) si può anche enunciare dicendo
che se m vettori sono linearmente dipendenti è possibile esprimerne almeno I concetti di indipendenza lineare e combinazione lineare permettono
uno come combinazione lineare dei rimanenti. di fare considerazioni che mettono in luce le modalità con cui introdurre
Il significato geometrico della dipendenza lineare di tre vettori x1 , x2 , un’adatta struttura in un certo insieme. Per meglio comprendere questo
x3 in IR3 è semplice; se infatti esistono λ1 , λ2 , λ3 non tutti nulli tali che aspetto si considerino i seguenti esempi.
risulti:
λ1 x1 + λ2 x2 + λ3 x3 = 0, (1.3)
Esempio 1.2. Sia dato un sistema di equazioni lineari omogenee:
allora i tre vettori x1 , x2 , x3 sono complanari, poiché, in virtù della (1.2)
uno di essi può esprimersi come combinazione lineare dei rimanenti. 
n
Se la (1.1) può essere soddisfatta solamente con gli m scalari λ1 , · · · , λm aij xj = 0, i = 1, · · · , n, (1.6)
tutti nulli, gli m vettori x1 , · · · , xm si dicono linearmente indipendenti. j=1

Esempio 1.1. Si voglia verificare l’indipendenza lineare dei seguenti tre e sia r il rango della matrice dei coefficienti aij . La determinazione della
vettori in IR3 : soluzione generale del sistema può essere effettuata ricercandone n − r
      soluzioni x1k , x2k , · · ·, xnk , k = 1, · · · , n − r linearmente indipendenti cioè
1 2 0
x1 =  −1  , x2 =  0  , x3 =  −1  . tali che le n relazioni:
0 2 −1

n−r

Applicando la (1.1) si tratta di verificare se esistano tre numeri reali λ1 , ck xik = 0, i = 1, · · · , n,


λ2 , λ3 non tutti nulli tali da soddisfare il seguente sistema di equazioni k=1

omogenee
λ1 + 2λ2 = 0, siano vere se e solo se tutti i coefficienti ck sono nulli.
−λ1 − λ3 = 0, (1.4) (1.1)
Si veda, ad esempio, A. Ghizzetti e F. Rosati, Lezioni di Analisi Matematica, Vol. 1,
2λ2 − λ3 = 0. Veschi Editore, pp. 306–311, Roma, 1980.
4 1. Introduzione alla teoria degli spazi lineari 1.1. Dipendenza e indipendenza lineare 5

Qualora questa condizione sia soddisfatta, ogni soluzione del sistema le proprietà a prescindere dalla particolare classe di enti matematici cui
(1.6) può esprimersi nella forma: vengono applicati.
Perché sia chiaro come ciò possa essere fatto, si consideri nuovamente

n−r
l’insieme di tutte le soluzioni della (1.8) e lo si indichi con S. Assegnati n
xi = αk xik , i = 1, · · · , n, (1.7) elementi yi in S linearmente indipendenti, ogni altro elemento è univoca-
k=1 mente individuato da una ennupla di costanti tramite la (1.9); cioè la scelta
di yi pone in corrispondenza biunivoca l’insieme S con l’insieme IRn delle
cioè risulta essere una combinazione lineare delle n − r soluzioni preceden-
ennuple ordinate di numeri reali. Pertanto si può dire che la ennupla yi
temente trovate.
costituisce un sistema di riferimento in S, nello stesso senso in cui la scelta
degli assi con le loro unità di misura stabilisce un riferimento cartesiano nel
piano, consentendo di associare ad ogni suo punto una coppia di numeri
Esempio 1.3. Si consideri un’equazione differenziale lineare omogenea di
reali e viceversa.
ordine n:
dn y dn−1 y dy Tutte queste considerazioni sono vere anche per l’esempio 1.2; infatti
= an−1 + · · · + a1 + a0 y. (1.8) fissate n − r soluzioni linearmente indipendenti della (1.6) che costituiscano
n n−1
dx dx dx il “sistema di riferimento”, ad ogni soluzione può farsi corrispondere un
È noto (1.2) che per determinare l’integrale generale di questa equazione oc- insieme ordinato di n − r costanti e viceversa, secondo la (1.7).
corre ricercare n funzioni y1 (x), · · · , yn (x) che siano ciascuna soluzione della Da tutto ciò appare chiaro come i concetti di indipendenza lineare e
(1.8), e che risultino linearmente indipendenti, cioè tali che la relazione di combinazione lineare consentano, almeno in certi insiemi, l’introduzione
di un sistema di riferimento. Il concetto di base, che verrà introdotto nel

n
seguito e presentato nel seguente esempio, rispecchia questo importante
ci yi (x) = 0, ∀x ∈ IR, aspetto.
i=1

dove ci sono costanti, sia vera solamente se tutte le ci sono nulle. Qualora Esempio 1.4. Sia P l’insieme di tutti i polinomi in una variabile  x a coef-
questa condizione sia soddisfatta è possibile dimostrare che ogni soluzione ficienti
 complessi di grado minore o uguale di due. Una ennupla p1 (x), · · · ,
y(x) della (1.8) è esprimibile nella forma pn (x) di tali polinomi si dirà formata di elementi linearmente indipendenti
se la relazione

n n

y(x) = αi yi (x) (1.9) ci pi (x) = 0, ∀x ∈ C, (1.10)
i=1 i=1

ove ci sono costanti complesse, risulta vera solamente quando tutte le ci


dove αi sono costanti, cioè risulta essere una combinazione lineare delle sono nulle. Un polinomio p(x) si dirà combinazione lineare di certi altri
yi (x). polinomi p1 , · · · , pn se esistono delle costanti αi tali che risulti:
Situazioni analoghe a quelle ora viste si presentano nello studio di molte 
n

altre questioni, quali la determinazione delle rette di un fascio avente centro p(x) = αi pi (x), ∀x ∈ C.
in un punto assegnato, la descrizione delle forze agenti su un punto mate- i=1
riale, i cambiamenti di sistema di riferimento, l’analisi delle reti elettriche,
etc. Una volta introdotte queste due definizioni, è immediato constatare che
In tutti questi casi i concetti di indipendenza lineare e di combinazione in P non è possibile trovare più di tre polinomi linearmente indipendenti.
lineare hanno un ruolo fondamentale, per cui appare naturale esaminarne Infatti comunque si scelgano n > 3 polinomi in P , la (1.10), eguagliando
separatamente a zero le potenze di x, genera tre equazioni omogenee nelle
(1.2)
Si veda, ad es., A. Ghizzetti e F. Rosati, Lezioni di Analisi Matematica, Vol. 2, Veschi n incognite c1 , · · · , cn che, per n > 3, ammettono sempre soluzione non
Editore, pp. 414–421, Roma, 1982. banale.
6 1. Introduzione alla teoria degli spazi lineari 1.1. Dipendenza e indipendenza lineare 7

Da questo risultato consegue che ogni polinomio in P può esprimersi terne (α1 , α2 , α3 ) e (β1 , β2 , β3 ) sono detti ortogonali se risulta α1 β1 +α2 β2 +
come combinazione lineare di tre polinomi linearmente indipendenti. Scegliendo α3 β3 = 0.
ad esempio Secondo tale definizione è immediato verificare che i polinomi p(x) e
p (x) dell’esempio 1.4 sono ortogonali; tuttavia se si cambia la scelta di
p1 (x) = x + 1, p2 (x) = x2 + x, p3 (x) = x2 + 1, (1.11) riferimento, assumendo:

per ogni altro elemento p(x) ∈ P esistono tre costanti αi tali che risulti: p1 (x) = 1, p2 (x) = x, p3 (x) = x2 ,

è facile constatare che gli stessi polinomi p(x), p (x) non sono più ortogonali.
p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x). Pertanto il concetto di ortogonalità non è intrinseco all’insieme P , ma
dipende dalla scelta del sistema di riferimento; cambiando quest’ultima,
Se ad esempio tutte le conseguenze che potevano trarsi dall’ortogonalità di certi elementi
p(x) = jx2 + x + 2j + 1, in P vengono meno. Questo esempio mette in luce come la scelta di un
risulta: sistema di riferimento possa introdurre in un insieme delle proprietà ag-
1 1 3 giuntive che non erano presenti “a priori”.
α1 = j + 1, α2 = − j, α3 = j.
2 2 2 Riassumendo le considerazioni sinora fatte si può dire quanto segue:
Se invece: 1) in molti problemi di matematica, geometria, fisica, ingegneria, hanno
p (x) = 4x2 + 3x + 1, un ruolo importante i concetti di indipendenza lineare e di combi-
nazione lineare;
risulta:
α1 = 0, α2 = 3, α3 = 1. 2) tali concetti consentono l’introduzione di sistemi di riferimento nell’insieme
in cui sono definiti;
La terna (p1 , p2 , p3 ) può essere assunta come sistema di riferimento in P ;
 3) mediante questi sistemi di riferimento lo studio di un insieme può essere
essa mette in corrispondenza biunivoca P con l’insieme C3 delle terne or- delegato ad altri insiemi aventi proprietà note;
dinate di numeri complessi.
4) la scelta di un riferimento in un insieme può introdurvi delle proprietà
originariamente non presenti.
Dagli esempi visti appare chiaro come i concetti di indipendenza lineare
e di combinazione lineare consentano l’introduzione di un sistema di rifer- Da tutti questi fatti può trarsi la seguente conclusione: per lo studio
imento e come questo metta in corrispondenza un insieme spesso “poco dei concetti di indipendenza lineare e di combinazione lineare si potrebbe
conosciuto” o “poco maneggevole” con un altro del quale invece strut- assumere un punto di vista simile a quello con il quale si inizia lo studio
tura e proprietà sono ben note. L’introduzione di un sistema di riferi- della geometria analitica, scegliere cioè un particolare sistema di riferimento
mento consente di trasferire lo studio di un insieme ad un altro insieme nell’insieme dato (sia esso un insieme di punti, di funzioni o altro) e condurre
più “matematizzato”, ovvero mediante il sistema di riferimento la matem- lo studio tramite questo riferimento. Ma cosı̀ facendo ci si troverebbe a
atica ben conosciuta può essere applicata allo studio di insiemi in cui molte studiare proprietà strettamente legate al particolare sistema di riferimento
cognizioni matematiche non siano ben sviluppate. scelto (si pensi, ancora nel caso della geometria analitica, alle nozioni di
Gli esempi presentati suggeriscono inoltre che la scelta di un sistema coefficiente angolare di una retta, di circonferenza, etc.).
di riferimento è largamente arbitraria; pertanto sembra logico chiedersi se Tuttavia questa difficoltà può essere superata se si riflette sul fatto
una scelta tra le infinite possibili imponga qualche proprietà aggiuntiva che, almeno negli esempi finora visti, tutti i sistemi di riferimento sono
all’insieme nel quale il sistema di riferimento viene fissato. Per chiarire equivalenti. In tutti i casi, infatti, scegliere un riferimento significa scegliere
questo punto, si torni all’esempio 1.4 e si supponga di avere già scelto un certo numero di elementi linearmente indipendenti le cui combinazioni
come riferimento i tre polinomi in (1.11). Ad ogni elemento in P cor- lineari consentano di esprimere ogni altro elemento di un insieme dato; è
risponde allora una terna di costanti e ciò rende possibile formulare la chiaro come ogni scelta soddisfacente questi requisiti sia possibile e nessuna
seguente definizione: due polinomi p(x), q(x) ∈ P cui corrispondano le di esse sia privilegiata.
8 1. Introduzione alla teoria degli spazi lineari 1.2. Spazi vettoriali o lineari 9

1.2. Spazi vettoriali o lineari 2) (β + γ) · α = β · α + γ · α.

Uno spazio vettoriale o lineare può essere definito come un insieme nel Se poi (F − {0},·) è un gruppo commutativo allora (F ,+,·) è detto campo
quale esistano tutte le operazioni e tutti gli assiomi necessari alla costruzione (in tal caso la 2) è sovrabbondante).
di ogni riferimento, cosicché nessuno di questi ultimi sia a priori privilegiato.
Esso ben si presta agli sviluppi formali e richiede una formulazione precisa Definizione 3. Uno spazio vettoriale XF è costituito da un insieme X di
delle operazioni in esso definite e degli assiomi che esse soddisfano. elementi detti vettori e da un corpo (F, +, ·), assieme a due operazioni dette
Questo richiede l’introduzione di: addizione tra vettori “#” e moltiplicazione “  ” tali che (X, #) costituisce
a) un insieme F di “costanti” o “coefficienti”, tra i quali siano definite un gruppo abeliano e l’operazione “  ” verifica la proprietà di chiusura e i
operazioni che consentano di utilizzarli analogamente a quanto visto seguenti assiomi:
negli esempi; 1) distributività rispetto a “#”: α  (x1 #x2 ) = α  x1 #α  x2 ;
b) l’insieme X degli elementi dei quali si studiano le proprietà, sui quali 2) distributività rispetto a “ + ”: (α + β)  x = α  x#β  x;
si possa operare sommandoli e moltiplicandoli per un “coefficiente” di 3) associatività: α  (β  x) = (α · β)  x;
F. 4) neutralità rispetto all’elemento neutro di “ · ” (indicato con 1): 1  x =
Gli elementi dell’insieme F vengono detti scalari e tra di essi si definis- x  1 = x.
cono le operazioni di addizione, moltiplicazione e le loro inverse; l’insieme
F cosı̀ strutturato è detto corpo. Quando il corpo F è desumibile dal contesto (ad esempio è quello
Gli elementi dell’insieme X vengono detti vettori e su di essi si pos- dei numeri reali IR) esso sarà sottinteso per non appesantire la notazione.
sono eseguire le operazioni di addizione e moltiplicazione per uno scalare Inoltre usualmente si omettono i simboli “ · ” e “  ” e il simbolo “ + ” verrà
appartenente ad un corpo F prefissato; l’insieme X cosı̀ strutturato è detto utilizzato indifferentemente per i due tipi di addizione, senza pericolo di
spazio vettoriale su F e indicato con XF . confusione.
Nel seguito vengono riportate le definizioni formali. Alcuni esempi di spazi vettoriali sono i seguenti.
a) l’insieme S delle soluzioni dell’equazione differenziale (1.8) forma uno
Definizione 1. Un gruppo è un insieme F non vuoto in cui sia definita
spazio vettoriale sul corpo dei numeri reali IR.
un’operazione, indicata col simbolo “ + ” tale che per ogni α, β, γ ∈ F :
b) L’insieme X delle soluzioni del sistema omogeneo (1.6) forma uno
1) valga la proprietà di chiusura: α + β ∈ F ;
spazio vettoriale sul corpo dei numeri reali IR.
2) valga la proprietà di associatività: (α + β) + γ = α + (β + γ);
c) L’insieme dei polinomi a coefficienti complessi di grado non maggiore
3) esista l’elemento neutro (indicato con 0): α + 0 = 0 + α = α; di n forma, per un prefissato n, uno spazio vettoriale sul corpo dei

4) esista l’elemento inverso (indicato con α−1 ): α + α−1 = α−1 + α = 0. numeri complessi C.
d) L’insieme IR forma uno spazio vettoriale su sé stesso.
e) L’insieme IRn delle ennuple ordinate di numeri reali forma uno spazio
Se inoltre vale la proprietà commutativa: α + β = β + α, allora si ha un vettoriale su IR.
gruppo abeliano o commutativo.
f) L’insieme delle funzioni razionali (rapporto di polinomi) forma uno
Definizione 2. Un corpo è un insieme non vuoto F sul quale sono definite spazio vettoriale su IR.
due operazioni dette addizione “ + ” e moltiplicazione “ · ” tali che (F ,+) sia Confrontando gli esempi b) ed e) è immediato verificare che l’insieme
un gruppo commutativo e (F − {0},·) sia un gruppo, essendo 0 l’elemento X delle soluzioni del sistema omogeneo (1.6) è un sottoinsieme di IRn .
neutro rispetto all’operazione di addizione, e valga la distributività di “ · ” In questo caso si dice che XIR è un sottospazio vettoriale di IRnIR . Più
rispetto a “ + ”: precisamente la definizione formale di sottospazio è la seguente.
1) α · (β + γ) = α · β + α · γ;
10 1. Introduzione alla teoria degli spazi lineari 1.3. Dimensione di uno spazio vettoriale e base 11

Definizione 4. Sia XF uno spazio vettoriale e sia Y un sottoinsieme di X. 1.3. Dimensione di uno spazio vettoriale e base
Allora YF è un sottospazio vettoriale di XF se, con le stesse operazioni di
XF , Y forma uno spazio vettoriale su F . In geometria si usa spesso dire che una retta ha dimensione uno, ovvero
che ha ∞1 punti, nel senso che l’individuazione di un punto su di essa
Si mostra facilmente che condizione necessaria e sufficiente affinché
dipende da un solo parametro.
YF sia un sottospazio vettoriale di XF è che valga la chiusura rispetto a
Analogamente, e nello stesso senso, si dice che il piano ha dimensione
combinazioni lineari di generici elementi di Y :
due, lo spazio tre, etc. L’equivalente di questo discorso nel linguaggio degli
αx1 + βx2 ∈ Y, ∀α, β ∈ F, x1 , x2 ∈ Y. spazi vettoriali si ottiene dicendo che sulla retta non esiste più di un vettore
linearmente indipendente, nel piano non ne esistono più di due, nello spazio
Esempi di sottospazi vettoriali sono i seguenti: più di tre, etc. Appare allora naturale definire la dimensione di uno spazio
a) l’insieme delle coppie di numeri reali del tipo (x, αx) forma, per ogni vettoriale come il numero massimo di vettori linearmente indipendenti che
fissato α, un sottospazio di IR2IR . in esso si può reperire.

 Si può facilmente dimostrare che IRnIR e CnC formano precisamente degli
b) Lo spazio vettoriale IRIR è un sottospazio di CIR .
spazi vettoriale n–dimensionali. Viceversa un esempio di spazio vettoriale di
c) L’insieme dei punti di un piano forma spazio vettoriale su IR, quando si dimensione non finita è quello formato dalle funzioni reali di una variabile
definisca la somma di due punti come somma delle coordinate omonime reale t, continue a tratti. Esso non ha dimensione finita sul corpo dei
e la moltiplicazione per uno scalare come moltiplicazione per tutte le numeri reali. Basta infatti notare che già le funzioni del tipo tk , con k
coordinate. È allora facile verificare che i punti di una retta passante intero qualunque, formano un insieme con un numero infinito di vettori
per l’origine formano un sottospazio di tale spazio vettoriale. Questa linearmente indipendenti, poiché:
osservazione e la sua analoga in tre o più dimensioni (iperpiano per
l’origine) consentono spesso una rappresentazione geometrica di spazi e ∞

sottospazi che può rivelarsi utile per l’esame intuitivo di alcuni risultati. λ k tk = 0

d) IRIR non è sottospazio di CC . k=1

Definizione 5. Siano Y1F e Y2F due sottospazi di un certo spazio vettoriale implica λk = 0 per ogni k.
XF . Si definisce somma di questi due sottospazi il sottospazio (Y1 + Y2 )F Nel caso di spazi vettoriali a dimensione finita è possibile introdurre
dove: in modo semplice il concetto, estremamente importante, di base. La sua
Y1 + Y2 : = {y | y = y1 + y2 , y1 ∈ Y1 e y2 ∈ Y2 }. introduzione è legata, fondamentalmente, al seguente teorema.
Qualora Y1 ∩ Y2 contenga solo l’origine, la somma dianzi definita prende il
nome di somma diretta e viene indicata con il simbolo ⊕. Teorema 1. In uno spazio vettoriale n–dimensionale ogni vettore è es-
primibile univocamente come combinazione lineare di n prefissati vettori
Quale esempio si consideri in IR3IR la somma di due sottospazi, uno linearmente indipendenti.
formato dall’insieme delle terne di numeri reali il cui terzo elemento è nullo,
e l’altro formato dall’insieme delle terne di numeri reali in cui solo il terzo
Dimostrazione. Siano e1 , e2 , · · · , en gli n vettori prefissati, che per ipotesi
elemento è eventualmente diverso a zero. Chiaramente tali due insiemi
sono linearmente indipendenti. Scelto arbitrariamente un vettore x dello
hanno in comune soltanto la terna nulla, cioè l’origine; pertanto si tratta
spazio vettoriale, l’insieme formato dai vettori ei e da x è di certo lin-
di somma diretta. Il risultato di tale somma è IR3IR stesso, poiché ogni suo
earmente dipendente, poiché si tratta di n + 1 vettori in uno spazio n–
elemento può essere espresso come somma di due terne, una avente il terzo
dimensionale. Esistono pertanto n + 1 scalari λ1 , · · · , λn+1 non tutti nulli
elemento nullo, l’altra avente solo il terzo elemento eventualmente diverso
tali da verificare la seguente relazione:
da zero.
λ1 e1 + · · · λn en + λn+1 x = 0. (1.12)
12 1. Introduzione alla teoria degli spazi lineari 1.4. Cambiamenti di base 13

Si noti ora che λn+1 è certamente diverso da zero poiché, se cosı̀ non fosse, l’i–esimo vettore ei si hanno le seguenti componenti:
l’ipotesi che i vettori ei siano linearmente indipendenti verrebbe contrad-
 
detta dalla (1.12). Pertanto da questa si trae, ponendo αi = − λi la 0
λn+1 0
seguente relazione: .
.
n .
 
x= αi ei . (1.13)  1  ← i–esima componente.
 
i=1 0
.
 .. 
Ciò prova la prima parte dell’asserto. Per verificare poi che l’espressione di
x come combinazione lineare degli ei è unica, si osservi che se, per assurdo, 0
ne esistesse un’altra:
 n
x= βi ei 1.4. Cambiamenti di base
i=1

per differenza con la (1.13) si otterrebbe la dipendenza lineare dei vettori È chiaro che la rappresentazione di un vettore x pensato come un ente
ei , in contraddizione con l’ipotesi iniziale. geometrico, dipende dalla particolare scelta della base rispetto alla quale
tale rappresentazione viene effettuata.
Da questo teorema ne segue che una volta fissata una n–pla di vettori Nella trattazione di molte questioni che vengono studiate mediante
linearmente indipendenti ei , ad ogni vettore x dello spazio corrispondono la teoria degli spazi vettoriali avviene frequentemente che, dopo aver im-
biunivocamente n scalari αi che lo individuano secondo la (1.13). Appare postato il problema in una certa base, si scopra che sarebbe assai più con-
allora naturale riguardare l’insieme ei come un sistema di riferimento e gli veniente riferirsi ad un’altra base. Appare allora naturale chiedersi come
n scalari αi come le coordinate di x rispetto ad esso. possa ottenersi la rappresentazione del generico vettore x nella nuova base
a partire da quella, supposta nota, relativa alla base iniziale. Per poter
rispondere a questa domanda è prima necessario determinare la relazione
Definizione 6. In uno spazio vettoriale n–dimensionale si chiama sistema matematica che lega la nuova base con la vecchia.
di riferimento o base una qualsiasi n–pla di vettori linearmente indipendenti. Siano dunque e1 , · · · , en i vettori formanti la base rispetto alla quale
Gli scalari αi che, secondo la (1.13), individuano il generico vettore x dello la rappresentazione di x è nota, e sia g1 , · · · , gn la n–pla di vettori linear-
spazio vettoriale, sono dette componenti di x rispetto alla base {ei }, mentre mente indipendenti che si intende assumere come nuova base. Ciascuno dei
l’insieme degli n scalari {αi } si chiama rappresentazione di x rispetto alla vettori ei , come ogni altro vettore dello spazio, può essere rappresentato
base {ei }. rispetto alla nuova base {gj } mediante certe componenti β1i , · · · , βni tali
da verificare la seguente relazione:
Dato uno spazio vettoriale n–dimensionale XF su un corpo F , l’insieme

n
F n delle ennuple ordinate di scalari appartenenti ad F forma, come è facile ei = βji gj , i = 1, · · · , n. (1.14)
verificare, uno spazio vettoriale n–dimensionale su F . Pertanto, scelta una j=1
base di XF , esiste una corrispondenza biunivoca tra esso e lo spazio FFn
delle rappresentazioni di tutti i suoi elementi.
Sostituendo le n relazioni (1.14) nella (1.13) si ottiene la rappresentazione
Questa osservazione spiega per qual motivo viene chiamato vettore di x rispetto alla nuova base:
sia l’elemento di XF che la sua rappresentazione, che viene pensata come
elemento dello spazio vettoriale FFn . 
n 
n 
n 
n
Si noti che la rappresentazione di un vettore facente parte della base x= αi βji gj = βji αi gj .
è particolarmente semplice. Infatti dalla (1.13) si comprende che per i=1 j=1 i=1 j=1
14 1. Introduzione alla teoria degli spazi lineari 1.4. Cambiamenti di base 15

Poiché la rappresentazione di un vettore rispetto ad una base è unica, le e ne segue che:


componenti α̂j di x rispetto alla base {gj } sono date da:  
1
α̂ = T α =  2  .

n
α̂j = βji αi , j = 1, · · · , n. 2
i=1
Infine, come verifica, si noti che α̂1 g1 + α̂2 g2 + α̂3 g3 = t2 + 6t + 1 = x.
e dunque il vettore α̂ formato dalle componenti di x rispetto alla nuova
base è dato dal prodotto: Si osservi che la matrice T , avendo per colonne la rappresentazione di
α̂ = T α, (1.15) n vettori linearmente indipendenti, ha certamente determinante diverso da
ove T è la matrice che ha elementi βji , ovvero la matrice le cui colonne sono zero. Infatti, se cosı̀ non fosse, esisterebbe un vettore v non nullo tale da
le rappresentazioni dei vettori ei nella nuova base {gj }. soddisfare il sistema omogeneo:
Si osservi che α ed α̂ non sono, in generale, vettori della spazio vetto-
riale XF a cui appartiene x, bensı̀ vettori dello spazio F n sul corpo F . T v = 0,

Esempio 1.5. Si consideri lo spazio vettoriale formato dall’insieme dei e le componenti di v formerebbero una n–pla di scalari atta a rendere
polinomi a coefficienti reali di grado non maggiore di due sul corpo IR. Si nulla una combinazione lineare dei vettori della base {ei }, il che è una
scelga come base la seguente terna di vettori contraddizione. Ne segue che la matrice T è invertibile e dalla (1.15) si può
trarre la relazione inversa
e1 = t2 , e2 = t, e3 = 1.
α = T −1 α̂,
In questa base il vettore x = t2 + 6t + 1 ha rappresentazione:
che consente la trasformazione della rappresentazione di un vettore rispetto
  alla base {gj } in quella rispetto alla base {ei }.
1
α = 6. Ripetendo allora tutti i ragionamenti fatti, con l’avvertenza di consid-
1 erare {gj } come vecchia base ed {ei } come nuova base, la j–esima colonna
di T −1 è formata dalla rappresentazione di gj rispetto alla base {ei }. Poiché
Si scelga ora come nuova base: tali rappresentazioni sono scrivibili in modo immediato, è particolarmente
semplice costruire la matrice T −1 . Per ottenere la matrice T che fa pas-
1 sare dalla base {ei } alla base {gj }, basterà poi invertire T −1 . Si ha cosı̀ la
g1 = t2 + 2t, g2 = 2t, g3 = . seguente procedura per determinare la matrice di trasformazione T tra le
2
basi {ei } e {gj }.
Le rappresentazioni rispetto a questa base dei vettori ei sono immediata-
mente determinabili:
Procedura 1.1.
1
e1 = g1 − g2 , e2 = g2 , e3 = 2g3 . a) Si determinano le rappresentazioni dei vettori gj della nuova base
2 rispetto ai vettori della base {ei }. Ciascuna rappresentazione costi-
Pertanto la matrice T , che ha tali rappresentazioni per colonne, risulta tuisce una colonna della matrice T −1 .
essere:   b) Si inverte la matrice T −1 , ottenendo la matrice di trasformazione T .
1 0 0
 1 
T =  −1 2 0  ,
0 0 2
16 1. Introduzione alla teoria degli spazi lineari 1.5. Alcune proprietà delle matrici 17

Esempio 1.6. Riprendendo l’esempio 1.5, per determinare la matrice di Inoltre non è valida la legge di annullamento del prodotto, cioè, se il risul-
trasformazione T corrispondente al cambio di base, invece di calcolarsi le tato di una moltiplicazione è la matrice nulla, non è necessariamente nullo
rappresentazioni dei vettori ei in {gj } è più rapido utilizzare quella di gj uno dei due fattori. Basti osservare il seguente esempio:
in {ei }; trattandosi infatti della base canonica, queste rappresentazioni co-
incidono con i coefficienti che appaiono nelle espressioni dei polinomi della
base {gj }, per cui  
1 0 0 1 3 3 −6 0 0
AB = = = 0.
T −1 =  2 1 0  , 1 3 −1 2 0 0
0 0 1
2
e da questa si ricava, per inversione, la matrice T .
L’elemento neutro della moltiplicazione tra matrici quadrate è la matrice
identità I avente tutti gli elementi nulli fuorché quelli sulla diagonale prin-
1.5. Alcune proprietà delle matrici cipale che sono pari ad uno. Ad esempio:

Nel paragrafo precedente sono state introdotte le matrici quadrate che


hanno consentito di enunciare in modo compatto la legge di trasformazione     
della rappresentazione di un vettore a seguito di un cambiamento di base. 1 2 3 1 0 0 1 2 3
Ciascuna colonna delle matrici cosı̀ introdotte era formata dalla rappre- AI = IA =  4 5 60 1 0  =  4 5 6  = A.
sentazione di un certo vettore rispetto ad una certa base; pertanto ogni 7 8 9 0 0 1 7 8 9
elemento di tali colonne apparteneva al campo F . Sfruttando le operazioni
definite tra gli elementi di F , si possono introdurre analoghe operazioni tra
matrici.
La somma di due matrici A, B aventi le stesse dimensioni è una nuova Data una matrice quadrata A, se ne esiste un’altra delle stesse dimen-
matrice C, anch’essa delle dimensioni di A e B, il cui elemento di posto i, j, sioni, B tale che risulti
cij si ottiene sommando gli elementi (aij , bij ) di analogo posto in A e in B.
L’elemento neutro dell’addizione cosı̀ definita è la matrice avente ele-
menti tutti nulli. Le proprietà dell’addizione tra matrici sono le stesse AB = BA = I
dell’analoga operazione in F e da queste derivano. In modo analogo viene
definita la differenza tra matrici.
Il prodotto di due matrici A, B di dimensioni n × m ed m × p rispet- si dice che A è invertibile o non singolare e la matrice B (che se esiste è
tivamente è una nuova matrice C, di dimensioni n × p il cui elemento di unica) viene detta matrice inversa o semplicemente inversa di A e indicata
posto i, è dato dalla seguente espressione con A−1 . Condizione necessaria e sufficiente perché esista A−1 è che risulti
m |A| = 0. In tal caso è possibile determinare esplicitamente gli elementi di
cij = aik bkj . A−1 a partire da quelli di A. (1.3) Se risulta |A| = 0 la matrice A si dice
k=1 singolare.
La moltiplicazione tra matrici cosı̀ definita non è commutativa, come mostra
Altre proprietà delle matrici sono riportate nel paragrafo 1.13.
il seguente esempio:

1 0 1 3 1 3
AB = = ,
0 2 1 3 2 6

1 3 1 0 1 6 (1.3)
Si veda, ad es., A. Ghizzetti e F. Rosati, Lezioni di Analisi Matematica, Vol. 1, Veschi
BA = = = AB.
1 3 0 2 1 6 Editore, pp. 335–338, Roma, 1980.
18 1. Introduzione alla teoria degli spazi lineari 1.6. Trasformazioni lineari e matrici 19

1.6. Trasformazioni lineari e matrici trasformazione lineare può essere individuata tramite la corrispondenza tra
le rispettive rappresentazioni. Tale corrispondenza, rispetto a basi fissate,
Si è visto come le matrici quadrate non singolari, consentano di enun- è data da una matrice. Vale infatti il seguente risultato.
ciare, in modo compatto, la legge di trasformazione della rappresentazione
di un vettore a seguito di un cambiamento di base. Vedremo ora come le Teorema 2. Scelta una base {e1 , · · · , en } in uno spazio vettoriale X a
matrici rappresentino particolari corrispondenze univoche tra spazi vetto- dimensione n, ed una base {g1 , · · · , gm } in uno spazio vettoriale Y a dimen-
riali diversi una volta fissate le basi di tali spazi. sione m ogni trasformazione lineare f può essere rappresentata tramite una
Appare naturale, vista la linearità dello spazio vettoriale, studiare matrice m × n, in cui le colonne sono le rappresentazioni dei vettori f (ei ),
quelle corrispondenze univoche che siano anch’esse lineari, cioè tali che se i = 1, · · · , n, espressi nella base {g1 , · · · , gm }.
y1 ∈ Y corrisponde ad x1 ∈ X ed y2 ad x2 , α1 y1 + α2 y2 corrisponda ad
α1 x1 + α2 x2 per ogni possibile scelta degli scalari α1 , α2 e dei vettori x1 ed Dimostrazione. Essendo f (ei ) appartenente ad Y si ha:
x2 .

m
f (ei ) = aji gj i = 1, · · · , n.
Definizione 7. Siano XF ed YF due spazi vettoriali sullo stesso corpo F . j=1
Una funzione f : X → Y è una trasformazione lineare da XF in YF se:
dove aji è la j–esima coordinata di f (ei ) rispetto alla base {gj }. Per la
f (α1 x1 + α2 x2 ) = α1 f (x1 ) + α2 f (x2 ) n
definizione di trasformazione lineare, un generico vettore x = αi ei è
i=1
∀α1 , α2 ∈ F , ∀x1 , x2 ∈ X. Se X ≡ Y allora f è un operatore lineare. trasformato da f in

n 
n 
m m 
 n  
m
Dunque un operatore lineare è una trasformazione da uno spazio in sé f (x) = αi f (ei ) = αi aji gj = aji αi gj = βj gj ,
stesso. i=1 i=1 j=1 j=1 i=1 j=1

Alcuni esempi di trasformazioni lineari sono: 


n
e poiché βj = aji αi rappresenta la j–esima coordinata di f (x) nella base
2x1 + 7x2 i=1
a) f (x) = con X = IR3 , Y = IR2 ed F = IR, è una
x3 − 8x2 {gi }, si ha:
trasformazione lineare;  
  
β1 a11 · · · a1n α1
ax1 + bx2 + c  ..   .. .. ..   .. 
b) f (x) = con X = IR3 , Y = IR2 ed F = IR, è una β= . = . . . . = Aα (1.16)
αx1 + βx2
βm am1 · · · amn αn
trasformazione lineare se e solo se c = 0;
1 dove α è la rappresentazione di x nella base {ei }. Essendo x un vettore
c) f (ϕ)(λ) = 0 ψ(λ, t)ϕ(t)dt, λ ∈ [0, 1] con X ≡ Y = spazio delle fun- arbitrario, la matrice:
zioni continue a valori reali definite su [0, 1], ψ(λ, t) funzione continua  
in λ ∈ (0, 1) e t ∈ (0, 1), ed F = IR, è un operatore lineare; a11 · · · a1n
. .
  A =  .. . .. .. 
x1
d) f (x) =  2x1 + x2  con X = IR2 , Y = IR3 ed F = IR, è una am1 · · · amn
x2 consente di determinare, a partire dalla rappresentazione α di un vettore
trasformazione lineare. x, quella β di f (x). Pertanto A rappresenta la trasformazione f nelle basi
Se in XF ed YF supposti a dimensione finita, vengono fissate le basi fissate.
{ei } e {gi } rispettivamente, la corrispondenza tra vettori stabilita da una
20 1. Introduzione alla teoria degli spazi lineari 1.6. Trasformazioni lineari e matrici 21

Esempio 1.7. Siano X = IR3 , Y = IR2 , F = IR ed f definita da: Definizione 9. Si definisce immagine o range della matrice A l’insieme
R(A) dei vettori le cui rappresentazioni β sono ottenibili dalla (1.16) per
3x1 − x2
f (x) = , almeno un α.
x3
con
     
2 0 0
      1 0 Teorema 4. R(A) è l’insieme di tutte le possibili combinazioni lineari dei
e1 = 0 , e2 = −1 , e3 = −2 , g1 = , g2 = .
0 −2 vettori aventi per rappresentazioni le colonne di A.
1 0 3
Si ha:
6 1
f (e1 ) = = 6g1 − g2 , Dimostrazione. Indicando con ai l’i–esima colonna di A e con αi l’i–esima
1 2 componente di α la (1.16) può essere riscritta nella forma seguente:

1
f (e2 ) = = g1 ,
0 
n
β= αi ai .
2 3
f (e3 ) = = 2g1 − g2 , i=1
3 2
 
6 1 2 Ciò dimostra che la rappresentazione di ogni vettore di R(A) si ottiene
e dunque A = −1 0 −3 . come combinazione lineare delle colonne di A e, viceversa, che ciascuna di
2 2 tali combinazioni rappresenta un vettore in R(A).
Con riferimento alle trasformazioni lineari, ha interesse introdurre i Questo risultato viene spesso enunciato dicendo che R(A) è il sot-
concetti di spazio immagine e spazio nullo. tospazio generato dalle colonne di A, e viene scritto nella forma R(A) =
Definizione 8. Si chiama immagine di una trasformazione lineare f : XF → gen {ai }.
YF l’insieme R(f ): = {y ∈ Y | y = f (x), x ∈ X}. Si osservi tuttavia che, in generale, le colonne di A non rappresentano
una base per R(A) poiché potrebbero essere tra loro linearmente dipen-
Vale il seguente teorema. denti. Per avere una base in R(A) occorrerà scegliere quelle linearmente
indipendenti; supponendo ad esempio che esse siano le prime p: a1 , · · · , ap ,
Teorema 3. R(f ) su F è un sottospazio vettoriale di YF . le restanti ap+1 , · · · , an possono esprimersi come combinazione lineare di
queste. Segue allora dal teorema 4 che le p colonne cosı̀ scelte rappresen-
Dimostrazione. Per definizione risulta R(f ) ⊂ Y . Rimane da verificare tano una base per R(A) il quale ha pertanto dimensione pari a p.
che R(f ) è uno spazio vettoriale su F . A tal fine si osservi che dalla
definizione, scelti comunque y1 e y2 in R(f ), esistono x1 ed x2 in X, tali Per definizione il numero p cosı̀ottenuto
 è il rango della matrice A.
che Dunque il rank (A) = )(A) = dim R(A) è pari al numero di colonne
y1 = f (x1 ), y2 = f (x2 ).
linearmente indipendenti di A.
Per dimostrare l’asserto basta osservare che scelti arbitrariamente in F due Analogamente si definisce il nucleo di una trasformazione.
scalari λ1 e λ2 anche y = λ1 y1 + λ2 y2 è in R(f ) in quanto in X, per la
proprietà di chiusura, esiste il vettore x = λ1 x1 + λ2 x2 che dà luogo ad y,
tramite f . Definizione 10. Si dice nucleo o spazio nullo di una trasformazione lineare
f : XF → YF l’insieme N (f ) = {x ∈ X | f (x) = 0}.
Poiché, come risulta dal teorema 2, fissate le basi in X ed in Y la
trasformazione lineare f è rappresentata dalla matrice A, si ha la seguente Vale il seguente risultato.
definizione.
22 1. Introduzione alla teoria degli spazi lineari 1.6. Trasformazioni lineari e matrici 23

Teorema 5. N (f ) su F è un sottospazio di XF . di N (A), trasformato da A in Y = R(A). Si può notare che risulta appunto
r + s = n.
Dimostrazione. Per definizione N (f ) ⊂ X, quindi se x1 ed x2 sono in Se la matrice A è quadrata, ossia rappresenta un operatore lineare,
N (f ), allora anche ogni loro combinazione lineare con scalari qualsiasi in ed ha le colonne linearmente indipendenti, ossia ha rango pieno, la sua
F gode della medesima proprietà. nullità è zero e la matrice stessa risulta invertibile. Questo corrisponde alla
possibilità di definire l’operatore inverso.
Poiché, fissate le basi in X ed Y la trasformazione lineare f è rappre-
sentata da una matrice A, si ha la seguente definizione. Esempio 1.8. Si consideri la seguente matrice:
Definizione 11. Si definisce nucleo o spazio nullo della matrice A l’insieme  
1 1 2 3
N (A) di vettori x la cui rappresentazione soddisfa l’equazione:
0 2 2 4
A= .
Aα = 0. (1.17) 1 0 1 1
0 1 1 2

Delle quattro colonne di A, si possono assumere come linearmente indipen-


A differenza di quanto avveniva per R(A), non esiste un procedimento denti le prime due, poiché la terza si ottiene da queste sommandole e la
semplice per l’individuazione di una base in N (A). Tuttavia sono disponi- quarta aggiungendo alla prima la seconda moltiplicata per 2. Pertanto il
bili numerosi algoritmi che consentono di risolvere tale problema generando rango di A è due e R(A) è il sottospazio generato dai vettori che hanno per
il massimo numero s di soluzioni linearmente indipendenti della (1.17). Tale rappresentazione le prime due colonne di A, cioè:
numero coincide con la dimensione di N (A) ed è detto nullità della matrice
   
A. Dal teorema di Rouché–Capelli risulta che dim N (A) = n−)(A), per cui 1 1
tra il rango p, la nullità s di A e la dimensione n di X sussiste la relazione: 0 2
α1 =   , α2 =   .
1 0
n = p + s, (1.18) 0 1
ossia la somma del rango e della nullità è pari al numero di colonne di A. Si sarebbero potute scegliere anche altre coppie di colonne linearmente in-
dipendenti, ad esempio la seconda e la terza. In tal caso i vettori che
avrebbero generato R(A) sarebbero stati rappresentati da:
Z
   
Y 1 2
X 2 2
α2 =   , α3 =   .
. . 0 1
0 0
N (A) 1 1

In entrambi i casi R(A) è lo stesso, come è facile constatare, poiché ciascuna


coppia di vettori si può ottenere mediante combinazioni lineari dei vettori
dell’altra coppia:

Figura 1.1 α1 = −α2 + α3 , α2 = −α1 + α3 .

Una dimostrazione intuitiva è riportata nella figura 1.1, in cui viene Per determinare N (A) occorre trovare un insieme massimo di vettori lin-
rappresentato un sottospazio X, somma diretta di un suo sottospazio Z e earmente indipendenti soddisfacenti il sistema omogeneo (1.17). Poiché la
24 1. Introduzione alla teoria degli spazi lineari 1.6. Trasformazioni lineari e matrici 25

nullità è s = n − p = 2 è facile verificare che un tale insieme può essere il ed un cambiamento in YF dalla base {gj } a {ĝj }, descritto dalla matrice T2
seguente m × m:
   
1 0 ĝj = T2 gj , j = 1, · · · , m.
 1   1 
β1 =   β2 =  . Rispetto a tali basi la rappresentazione di x diventa:
−1 1
0 −1 α̂ = T1 α,

e quella di f (x) diventa:


Esempio 1.9. Come ulteriore esempio si consideri lo spazio vettoriale for- β̂ = T2 β,
mato dai polinomi di grado non maggiore di due sul corpo IR, e in questo
spazio l’operatore f che ad ogni vettore at2 + bt + c fa corrispondere il da cui
vettore f (at2 + bt + c) = ct + b. β̂ = T2 AT1−1 α̂
È immediato verificare che f è un operatore lineare. Inoltre R(f ) cioè, fissate le nuove basi {êi } e {ĝj }, la rappresentazione di f risulta essere:
è l’insieme dei polinomi di grado non maggiore di uno, mentre N (f ) è
l’insieme dei polinomi aventi il solo termine di secondo grado. Ovviamente  = T2 AT1−1 . (1.19)
questi risultati possono essere ottenuti a partire da una delle rappresen-
tazioni mediante matrice di f . Scelti ad esempio come vettori di base Le matrici  ed A sono dette equivalenti.
e1 = g1 = t2 + t, e2 = g2 = t2 + 2t, e3 = g3 = t + 2, la rappresentazione A Poiché tutte le matrici equivalenti rappresentano, con una opportuna
di f è:   scelta delle basi, la stessa trasformazione lineare, quest’ultima può essere
1 1 −3 pensata come l’ente matematico ottenibile per astrazione dall’insieme delle
 2 2
 1 3
matrici equivalenti. È chiaro inoltre che tutte le matrici equivalenti hanno
A=  2 − −1 , lo stesso rango e stessa nullità, che sono poi quelle dell’operatore che rap-
 2
1 1 presentano.
1
2 2 Data l’espressione della funzione lineare f e fissate le basi {êi }, {ĝj },
e la rappresentazione di una base in R(f ) rispetto alla base fissata, si trova per trovare la rappresentazione  di f si può applicare il procedimento for-
scegliendo le colonne di A linearmente indipendenti. Se si prendono la nito da teorema 2. Potrebbe però risultare difficoltoso esprimere i vettori
seconda e la terza, in quanto la prima è proporzionale alla seconda, si f (êi ) nella base {ĝj }. Per ovviare a ciò si può allora scrivere la rappre-
ottengono le rappresentazioni dei vettori x1 = f (e2 ) = 2, x2 = f (e3 ) = sentazione A di f nelle basi canoniche in XF e YF e le matrici T1−1 , T2−1
2t + 1, le cui possibili combinazioni lineari sono proprio tutti i polinomi di che descrivono i passaggi dalle basi {êi }, {ĝj } alle basi {ei }, {gj }, e quindi
grado non maggiore di uno. Infine la rappresentazione di una base di N (f ) applicare la (1.19). Si noti che A, T1−1 , T2−1 sono di immediata scrittura,
è data da:   mentre gli unici calcoli sono quelli relativi a T2 e alla (1.19).
2
α =  −1  Esempio 1.10. Fissate le basi di IR3IR e IR2IR :
0      
1 0 1
cui corrisponde, nella base scelta, il vettore x = t2 .       1 −1
ê1 = −1 , ê2 = 1 , ê3 = 0 , ĝ1 = , ĝ2 = ,
1 1
0 1 −1
Vediamo ora come varia la rappresentazione di una trasformazione lin-
eare f , avente rappresentazione A, al variare delle basi in XF ed YF . Si per trovare la rappresentazione di f : IR3IR → IR2IR definita come
esegua un cambiamento in XF dalla base {ei } alla base {êi }, descritto dalla
matrice T1 n × n: 3x1 − 5x2
f (x) = ,
êi = T1 ei , i = 1, · · · , n, −x1 + 2x2 − x3
26 1. Introduzione alla teoria degli spazi lineari 1.7. Operatori lineari e matrici quadrate 27

si scrivono dapprima le matrici da cui si deduce che la rappresentazione dell’operatore f rispetto alla nuova
  base è data da:
1 0 1 Â = T AT −1 . (1.20)
3 −5 0 1 −1
A= , T1−1 =  −1 1 0  , T2−1 = ,
−1 2 −1 1 1
0 1 −1 Le matrici A ed  legate dalla (1.20) si dicono simili.
Poiché una matrice quadrata non singolare può sempre pensarsi come
e poi si calcola: rappresentativa di un cambiamento di base, si ha che tutte le matrici simili
 5 3  rappresentano, ciascuna in una base, lo stesso operatore lineare. Questo
1 1 1 −2 fatto consente di pensare l’operatore lineare come l’ente matematico ot-
T2 = , ⇒ Â = T2 AT1−1 = 2 2 .
2 −1 1 −1 3 −3
tenibile per astrazione dall’insieme delle matrici simili.
2 2 2
Poiché un operatore lineare assume rappresentazioni nell’ambito delle
matrici simili, e poiché la scelta di una base è arbitraria, appare naturale
domandarsi se esistano delle basi rispetto alle quali lo studio di un operatore
1.7. Operatori lineari e matrici quadrate lineare sia particolarmente semplice, ossia se esistano delle forme canoniche
dell’operatore lineare.
Poiché, come si è visto, al variare delle basi in XF ed YF varia la rappre- Per meglio comprendere questo problema, si consideri il seguente es-
sentazione delle trasformazioni lineari nell’ambito delle matrici equivalenti, empio.
ha senso domandarsi se esistono tra esse matrici con configurazioni partico-
lari che vengono definite canoniche. La soluzione a tale quesito, che conduce Esempio 1.11. Con riferimento all’operatore f dell’esempio 1.9, rispetto
all’individuazione della forma canonica dell’equivalenza per quanto riguarda alla base costituita dai vettori e1 = t − 1, e2 = t + 1, e3 = t2 , poiché:
il caso generale, verrà trattato nel caso particolare in cui la trasformazione
è un operatore, cioè è una trasformazione da XF in XF . f (e1 ) = −t + 1 = −e1 , f (e2 ) = t + 1 = e2 , f (e3 ) = 0,
Dalla dimostrazione del teorema 2 segue che la rappresentazione di
un operatore lineare f rispetto ad una fissata base {ei } è quella matrice l’operatore f assume la seguente rappresentazione:
quadrata che ha per colonna i–esima la rappresentazione rispetto a tale
 
base di f (ei ). È chiaro come ciò consenta la determinazione della rappre- −1 0 0
sentazione di f rispetto a qualsiasi base. A= 0 1 0 , (1.21)
Qualora sia noto che una matrice A rappresenta l’operatore f rispetto 0 0 0
ad una fissata base {ei }, si può determinare direttamente la nuova rap-
presentazione di f , al variare della base, a partire da A stessa. Infatti
ossia è rappresentato da una matrice diagonale.
rispetto a {ei } la rappresentazione β di f (x) si ottiene da quella α di x
mediante la relazione (1.16). In base alla (1.15), passando alla base {gj } le
rappresentazioni di x ed f (x) divengono rispettivamente: Si osservi che la base scelta gode della proprietà per cui applicando
l’operatore f al primo vettore di base si ottiene il vettore stesso moltiplicato
α̂ = T α, β̂ = T β, per il primo elemento della diagonale di A; applicando l’operatore f al
secondo vettore di base si ottiene il vettore stesso moltiplicato per il secondo
dove T è la matrice n × n, non singolare, avente per i–esima colonna la elemento della diagonale di A, e cosı̀ via. I vettori che godono di tale
rappresentazione di ei rispetto a {gj }. proprietà sono detti autovettori dell’operatore ed i corrispondenti scalari
Ricavando α e β e sostituendoli nella (1.16) si ottiene: sono chiamati autovalori. Più precisamente si possono introdurre le seguenti
definizioni.
β̂ = T AT −1 α̂,
28 1. Introduzione alla teoria degli spazi lineari 1.7. Operatori lineari e matrici quadrate 29

Definizione 12. Si chiama autovettore di un operatore lineare f : XF → e poiché il primo membro della (1.25) è un polinomio di grado n nella
XF un vettore u tale che esiste uno scalare λ ∈ F per cui: incognita λ, esistono nel campo complesso n autovalori, alcuni dei quali
eventualmente coincidenti, in corrispondenza dei quali la (1.24) ammette
f (u) = λu. (1.22) soluzioni non banali.
Nel caso in cui questi n autovalori siano tutti distinti e pari a λ1 ,
Lo scalare λ che soddisfa la (1.22) è detto autovalore di f . λ2 , · · · , λn , risultano determinati dalla (1.24) n autovettori ad essi cor-
rispondenti, aventi rappresentazioni u1 , u2 , · · · , un . È facile mostrare che
Ci si domanda ora se esista sempre una base per XF che sia costituita tali vettori sono linearmente indipendenti.
da autovettori. Con riferimento alla rappresentazione A dell’operatore f in
una generica base, la rappresentazione α che soddisfa la relazione: Teorema 6. Se gli n autovalori λ1 , λ2 , · · · , λn di una matrice A sono dis-
tinti, allora gli n autovettori u1 , u2 , · · · , un ad essi associati sono linearmente
Aα = λα, (1.23) indipendenti.

per qualche valore di λ, è la rappresentazione di un autovettore nella fissata Dimostrazione. Si supponga, per assurdo, che esistano n scalari α1 , · · · , αn
base. Infatti al variare della base secondo una trasformazione T , risulta: non tutti nulli, tali che risulti:

 = T AT −1 , α̂ = T α, 
n
αi ui = 0. (1.26)
dove  e α̂ sono le nuove rappresentazioni dell’operatore e dell’autovettore, i=1
e si ha:
Âα̂ = T Aα = λT α = λα̂. Assunto, senza perdita di generalità, α1 = 0 si premoltiplichino ambo i
membri della (1.26) per (A − λ2 I)(A − λ3 I) · · · (A − λn I). Tenendo conto
Questo conferma che λ ed u, che assume rappresentazioni α e α̂, sono delle proprietà degli autovalori si ottiene:
autovalore ed autovettore di f in quanto soddisfano la (1.22).
La ricerca di una base di autovettori per lo spazio n–dimensionale XF , α1 (λ1 − λ2 )(λ1 − λ3 ) · · · (λ1 − λn )u1 = 0.
può essere quindi ricondotta alla ricerca delle n rappresentazioni di tali
autovettori utilizzando la (1.23). Poiché gli autovalori sono tutti distinti, questa relazione implica α1 = 0, il
che contraddice l’ipotesi e prova l’asserto.
Definizione 13. Lo scalare λ e la rappresentazione α che soddisfano la
(1.23) sono detti rispettivamente autovalore ed autovettore della matrice
A. Esempio 1.12. Per determinare gli autovalori della matrice:
 
Il problema generale della ricerca delle rappresentazioni degli n au- 1 −1 2
tovettori, formulato con la (1.23), può essere soddisfacentemente trattato A = 2 −1 3
qualora si ammetta, come assai frequentemente avviene nella pratica che 0 0 1

sia F = C. In tal caso, riscrivendo la (1.23) nella forma:
occorre innanzi tutto calcolare:
(A − λI)α = 0, (1.24)  
1−λ −1 2
risulta subito che perché esista α = 0 deve essere: |A − λI| = det  2 −1 − λ 3 =
0 0 1−λ
|A − λI| = 0, (1.25) = (1 − λ)(−1 − λ)(1 − λ) + 2(1 − λ) = (1 − λ)(λ2 + 1).
30 1. Introduzione alla teoria degli spazi lineari 1.8. Autovettori generalizzati di una matrice 31

Pertanto gli autovalori di A sono: Questo teorema è di notevole importanza applicativa poiché permette di
esprimere la potenza n–esima di una matrice n × n come combinazione
λ1 = 1, λ2 = j, λ3 = −j. lineare delle sue prime n − 1 potenze. Moltiplicando poi l’espressione cosı̀
ottenuta per A si può esprimere anche la potenza (n + 1)–esima di A in
Ponendo al posto di λ il primo autovalore, si ottiene l’autovettore corrispon- funzione delle sue prime n − 1 potenze, e cosı̀ via. In conclusione, dal
dente come soluzione dell’equazione: teorema di Cayley–Hamilton si deduce che le potenze di qualsiasi esponente
  di una matrice n × n possono esprimersi come combinazione lineare delle
0 −1 2 prime n − 1 potenze.
 2 −2 3  u1 = 0.
0 0 0
1.8. Autovettori generalizzati di una matrice
Si trova dunque:  
1
Nel caso in cui la matrice A abbia tutti autovalori distinti è possibile
u1 =  4  .
generare n autovettori linearmente indipendenti. Qualora tra gli autovalori
2
di A ve ne siano taluni coincidenti, questo risultato non è sempre valido,
In modo analogo: come mostra il seguente esempio. Sia:
     
1 1 1 1 2
u2 =  1 − j  , u3 =  1 + j  . A = 0 1 3 (1.27)
0 0 0 0 2

È facile verificare che questi tre autovettori sono linearmente indipendenti; la matrice assegnata, i cui autovalori risultano pari a(1.5)
infatti il determinante della matrice:
  λ1 = 1, λ2 = 1, λ3 = 2.
1 1 1
4 1 − j 1 + j  I corrispondenti autovettori, a meno di una costante fissata arbitrariamente,
2 0 0 risultano avere le seguenti rappresentazioni:
   
che li ha per colonne, è diverso da zero, essendo pari a 4j. 1 5
u1,2 = 0, u3 =  3  ,
Il primo membro della (1.25), che si riscrive nella forma: 0 1
p(λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 , essendo u1,2 associato sia a λ1 che a λ2 .
Analogamente a quanto fatto nel paragrafo 1.7, per caratterizzare
è detto polinomio caratteristico della matrice A; corrispondentemente la le rappresentazioni semplici di un operatore è necessario individuare una
(1.25) è detta equazione caratteristica di A. Un’importante proprietà dell’equazione nuova base dello spazio. Essa dovrà essere costituita dall’aggregazione di
caratteristica di una matrice è espressa dal teorema di Cayley–Hamilton,(1.4)
il quale asserisce che A è soluzione dell’equazione: (1.5)
Quando una matrice ha nulli tutti gli elementi di una stessa banda della diagonale
principale, i suoi autovalori sono precisamente gli elementi su tale diagonale. Una siffatta
p(A) = An + an−1 An−1 + · · · + a1 A + a0 I = 0. matrice è detta “triangolare superiore” se gli elementi non nulli sono al di sopra della diagonale,
“triangolare inferiore” nel caso opposto. La matrice A del presente esempio è triangolare
(1.4)
Si veda l’esercizio 1.7. superiore.
32 1. Introduzione alla teoria degli spazi lineari 1.8. Autovettori generalizzati di una matrice 33

tutti i possibili vettori indipendenti associabili a ciascun autovalore. Il nu- L’introduzione degli autovettori, generalizzati o meno, consente, come
mero di tali vettori dovrà essere poi pari alla molteplicità dell’autovalore anticipato, di determinare una nuova base e quindi di costruire delle matrici
stesso. Una tale procedura si dovrà ridurre a quella già esaminata nel para- di trasformazione T che trasformano la matrice di partenza A in una simile
grafo precedente. Per comprendere in qual modo possa ottenersi questo T AT −1 con particolari caratteristiche. Su questo argomento si ritornerà nel
risultato occorre rendersi conto del motivo per cui, nel caso di autovalori paragrafo dedicato alle rappresentazioni canoniche di un operatore lineare.
coincidenti, possono nascere degli autovettori linearmente dipendenti. Ciò Nel presente paragrafo si vuole solo mostrare, nel caso di autovettori gen-
può capirsi facilmente esaminando più a fondo l’esempio ora visto. Quando eralizzati, come devono essere determinati gli autovettori che costituiranno
nella matrice caratteristica A − λI si pone λ = λ1 = λ2 , si ottiene: la nuova base.
  Utilizzando la nozione di autovettore generalizzato, è possibile dare una
0 1 2 procedura che consente di associare a ciascun autovalore un sottospazio
A − I = 0 0 3. (1.28) di dimensione pari alla sua molteplicità. L’insieme delle basi di questi
0 0 1 sottospazi costituirà la base cercata. La procedura in questione consiste
nei seguenti passi.
È immediato constatare che la nullità della matrice (1.28) è pari a uno,
onde è possibile determinare, a meno di una costante arbitraria, un solo Procedura 1.2.
autovettore di A per gli autovalori λ1 e λ2 . Se invece la nullità della (1.28) a) Iniziando dall’autovalore λ1 di molteplicità µ1 si determini il maggior
fosse stata due, si sarebbero potuti determinare due autovettori linearmente numero possibile di soluzioni linearmente indipendenti per l’equazione
indipendenti che, uniti al terzo, corrispondente a λ3 , avrebbero determi-
nato una base. Appare allora naturale cercare di determinare a partire
(A − λ1 I)u1 = 0. (1.29)
dalla (1.28) una matrice di nullità due. È facile constatare che la (1.28) al
quadrato soddisfa tale requisito:
Siano u11 , · · · , u1q1 tali soluzioni.
 
0 0 5 b) Qualora risulti q1 < µ1 , si ricerchino le soluzioni linearmente indipen-
(A − I)2 =  0 0 3  . denti u21 , · · · , u2q2 delle equazioni:
0 0 1
(A − λ1 I)2 u2 = 0
Questa scelta può essere ulteriormente giustificata con la seguente consider- (1.30)
azione: un autovettore di A corrispondente all’autovalore λi è un particolare (A − λ1 I)u2 = 0
vettore che goda della proprietà di essere trasformato nell’origine dalla ma-
trice (A−λi I). Una possibile generalizzazione di ciò consiste nella ricerca di cioè si ricerchino gli autovettori generalizzati di ordine 2 associati
vettori i quali siano trasformati nell’origine mediante applicazione ripetuta all’autovalore. Se se ne trovano µ1 − q1 linearmente indipendenti tra
della matrice (A − λi I), cioè mediante (A − λi I)2 , (A − λi I)3 , etc. loro e con le soluzioni della (1.29) si passi al punto c), altrimenti si passi
Da queste considerazioni appare giustificata la seguente definizione. alla ricerca di autovettori generalizzati di ordine 3, 4, · · · linearmente
indipendenti tra loro e con quelli precedenti, arrestando la procedura
Definizione 14. Un autovettore generalizzato di ordine k associato all’autovalore quando si sia ottenuto un numero di autovettori generalizzati global-
λi della matrice A è un vettore uk tale che mente pari alla molteplicità µ1 dell’autovalore λ1 .
c) Si ripeta tutta la procedura per i restanti autovalori λ2 , λ3 , · · · di
(A − λi I)k uk = 0, molteplicità µ2 , µ3 , · · ·. Al termine si saranno ottenuti µ1 + µ2 + µ3 +
(A − λi I)k−1 uk = 0. · · · = n autovettori generalizzati.

Si noti che per k = 1 questa definizione si riduce a quella di autovettore La procedura 1.2 permette di enunciare il seguente teorema.
data nel paragrafo precedente.
34 1. Introduzione alla teoria degli spazi lineari 1.9. Rappresentazioni canoniche di un operatore lineare 35

Teorema 7. Ogni insieme di autovettori generalizzati costruiti secondo la 1.9. Rappresentazioni canoniche di un operatore
procedura 1.2 è una n–pla di vettori linearmente indipendenti. lineare
I concetti introdotti nei paragrafi precedenti ci consentono di risolvere
Esempio 1.13. Si consideri la matrice (1.27). Applicando la procedura 1.2 il problema, precedentemente formulato, della ricerca di basi rispetto alle
si ha, per l’autovalore λ1 = 1 di molteplicità µ1 = 2, la matrice (1.28) con quali lo studio di un operatore lineare sia particolarmente semplice. In
l’autovettore generalizzato di ordine 1: particolare verranno esaminate due forme canoniche.

  La prima è la cosiddetta forma canonica di Jordan, ed è la forma che


1 assume l’operatore rispetto ad una base formata da autovettori generaliz-
u11 =  0  . zati. La particolarità consiste nel fatto che a caratterizzare la rappresen-
0 tazione dell’operatore, ossia la matrice A, sono i suoi stessi autovalori λi .
Nell’esempio 1.11, nella base e1 = t − 1, e2 = t + 1, e3 = t2 l’operatore f
Poiché la matrice (1.28) ha rango 2, non esistono altri autovettori generaliz- assumeva la rappresentazione (1.21), ossia una forma diagonale, caratteriz-
zati di ordine 1 linearmente indipendenti con u11 , cioè si ha q1 = 1. Occorre zata dagli autovalori. È questa una forma particolare che rientra tra quella
pertanto passare al punto b) della procedura 1.2, ricercando µ1 − q1 = 1 più generale di Jordan come vedremo nel prossimo paragrafo.
vettore soluzione delle equazioni (1.30) cioè: La seconda rappresentazione canonica che verrà esaminata è la cosid-
    detta forma canonica compagna, ed è caratterizzata dal fatto che è individ-
0 0 5 0 1 2 uata dai coefficienti del polinomio caratteristico dell’operatore. Per meglio
0 0 3  u21 = 0, 0 0 3  u21 = 0. comprendere cosa si intenda per forma compagna si consideri l’operatore f
0 0 1 0 0 1 tale che f (at2 + bt + c) = −2(−b + 2c)t2 + (a + c)t + b − 2c e se ne determini
la rappresentazione A rispetto alla base {t2 , t, −2t2 + 1}. Si ottiene:
Soluzioni possibili sono:  
0 0 0
    Â =  1 0 −1  .
0 1 0 1 −2
u21 =  1  , oppure 1.
0 0 Risulta |λI − Â| = λ3 + 2λ2 + λ e si può notare che i coefficienti di questa
equazione caratteristica sono, a parte il primo che è sempre unitario, pre-
Infine, in corrispondenza a λ3 = 2 si ha l’autovettore: cisamente gli opposti degli elementi dell’ultima colonna di Â. È chiaro come
questa osservazione faccia nascere l’idea di ricercare una particolare base
 
5 rispetto alla quale la rappresentazione di un operatore goda della proprietà
u12 =  3  , ora trovata molto comoda per la determinazione dell’equazione caratteris-
1 tica.
Si osservi preliminarmente che il polinomio caratteristico di una ma-
trice A è definito a partire dagli autovalori:
ed è facile verificare che i vettori u11 , u21 , u12 sono linearmente indipendenti.
p(λ) = (λ − λ1 ) · · · (λ − λn ) = λn + an−1 λn−1 + · · · + a0 .
Nel paragrafo relativo alle rappresentazioni canoniche di Jordan di un Tale polinomio è anche detto polinomio caratteristico dell’operatore f ,
operatore lineare, si mostrerà una procedura alternativa a questa ora es- poiché è indipendente dalle rappresentazioni di A al pari degli autovalori.
posta, che consente la determinazione di un’altra base, più adatta ai fini Ciò premesso, si supponga che esista un vettore x1 tale che gli n vettori
del calcolo. x1 , x2 = f (x1 ), · · ·, xn = f (xn−1 ) risultino linearmente indipendenti. Si
può in tal caso enunciare il seguente risultato.
36 1. Introduzione alla teoria degli spazi lineari 1.10. Forma canonica di Jordan 37

Teorema 8. Rispetto alla base x1 , x2 = f (x1 ), · · ·, xn = f (xn−1 ), l’operatore Esse corrispondono rispettivamente alle matrici di trasformazione:
lineare f avente polinomio caratteristico p(λ) = λn + an−1 λn−1 + · · · + a0  T   T 
è rappresentato dalla seguente matrice: x1 xn = f T (xn−1 )
   xT = f T (x )   .. 
0 0 ··· 0 −a0    
T1 =  T . T
1
T = 2 . , ,
1 0 ··· 0 −a1   ..   x2 = f (x1 ) 
 

Ac =  0 1 · · · 0 −a2  , T T
xn = f (xn−1 ) T
x1
. . . . 
 .. .. . . . .. .. 
come è facile verificare.
0 0 · · · 1 −an−1
La struttura delle matrici compagne è particolarmente comoda in quanto
detta matrice compagna o forma compagna dell’operatore f . evidenzia immediatamente i coefficienti del suo polinomio caratteristico. In-
oltre è particolarmente utile quando si desideri costruire rapidamente una
Dimostrazione. Costruendo la matrice di trasformazione T in modo tale matrice avente un polinomio caratteristico assegnato.
 dai vettori x1 , x2 = f (x1 ), · · ·, xn =
che la nuova base sia proprio data È importante sottolineare il fatto che non per tutti gli operatori la
f (xn−1 ), ossia prendendo T −1 = x1 f (x1 ) · · · f (xn−1 ) , dalla (1.20) determinazione di una base avente la struttura x1 , x2 = f (x1 ), · · ·, xn =
riscritta come f (xn−1 ) è possibile, e quindi non sempre un operatore ammette tra le sue
AT −1 = T −1 Â rappresentazioni la forma compagna.
e dal teorema di Cayley–Hamilton, per cui f n (x1 ) + an−1 f n−1 (x1 ) + · · · + La determinazione delle condizioni sotto le quali esiste la forma com-
a1 f (x1 ) + a0 x1 = 0,(1.6) si trova che  = Ac . pagna e la sua generalizzazione nella “forma canonica di Frobenius” non
rientrano negli scopi del presente testo.(1.7)
Ad un analogo risultato si perviene se si costruisce la matrice T −1
considerando i vettori di base in senso inverso:
 −a 1 ··· 0
n−1 1.10. Forma canonica di Jordan
 .. .. ..
. .. 
.
Ãc = 

. . .
 Nell’esempio 1.11 la rappresentazione (1.21) che assumeva l’operatore f
−a1 0 ··· 1
è stata ottenuta assumendo come base gli autovettori di f . Questo risultato
−a0 0 ··· 0 non è casuale, ma richiede che gli autovettori in questione formino una base,
In effetti è come considerare una seconda trasformazione cioè siano in numero di n e linearmente indipendenti.
 
0 ··· 1 Ciò è senz’altro vero se gli autovalori dell’operatore assegnato sono
. . .
T1 = T1 =  .. . .
−1 ..  , tutti distinti. In tal caso si ha il seguente teorema.
1 ··· 0 Teorema 9. Un operatore lineare f avente tutti gli autovalori λi distinti ha,
per cui Ãc = T1 Ac T1−1 . rispetto alla base formata dai suoi autovettori, la seguente rappresentazione:
 
Infine anche le matrici ATc , ÃTc sono dette matrici compagne, come λ1 0 · · · 0 0
verrà precisato nel capitolo 6:  0 λ2 · · · 0 0 
 . .. 
     . .. . . .. 
0 1 ··· 0 −an−1 · · · −a1 −a0 J = . . . . .  = diag (λi ), (1.31)
. . .  . . . . 
 .. .. . .. ..   1 ··· 0 0   .. .. .. . . . .. 
 ,  . .. ..  .
 0 0 ··· 1   .
.
..
. . .  0 0 · · · 0 λn
−a0 −a1 · · · −an−1 0 ··· 1 0
   
(1.7)
Il lettore interessato potrà trovare tali generalizzazioni ad esempio in S. Lipschutz, Linear
(1.6) 2 3 2
f (x): = f f (x) , f (x): = f f (x) , etc. Algebra, Schaum’s Out. Ser., 1968, pp. 227–229.
38 1. Introduzione alla teoria degli spazi lineari 1.10. Forma canonica di Jordan 39

detta forma canonica di Jordan nel caso di autovalori distinti. Definizione 16. Si chiama molteplicità algebrica µi di un autovalore λi di
una matrice A, rappresentazione dell’operatore f , la sua molteplicità nel
−1
Dimostrazione.
  Dalla (1.20), riscritta come AT = T −1 Â, dove T −1 = polinomio caratteristico p(λ). Si chiama molteplicità geometrica mi di λi
l’ordine massimo dell’autovettore generalizzato che è associabile a λi .
u1 · · · un , e tenendo presenti le definizioni di autovettore e autoval-
ore, si ricava  = J. Se dunque gli autovalori λ1 , · · · , λr , con r < n, sono gli autovalori
distinti di A, il polinomio caratteristico può anche essere scritto:
Si osservi che non sempre un operatore lineare ammette la rappresen-
tazione diagonale J. Il teorema ora enunciato ne garantisce l’esistenza per 
r

il caso di autovettori distinti, ma non nega la possibilità che tale rappre- p(λ) = (λ − λ1 )µ1 (λ − λ2 )µ2 · · · (λ − λr )µr = (λ − λi )µi .
sentazione esista anche in presenza di autovalori multipli. i=1
In generale un operatore lineare avente autovalori multipli non am-
La dizione di molteplicità geometrica è giustificata dal fatto che essa
mette la rappresentazione diagonale (1.31). Questo è dovuto al fatto che
poteva essere introdotta equivalentemente anche come molteplicità di λi
in presenza di autovalori multipli, solo in casi particolari gli autovettori
in un opportuno polinomio, detto polinomio minimo, definito come quel
del primo ordine formano un insieme di n vettori linearmente indipen-
polinomio m(λ) tale che m(A) = 0, e che è divisore di tutti i polinomi
denti. In base a quanto visto nel paragrafo 1.8, appare naturale “com-
che godono di tale proprietà e che ha coefficiente unitario alla massima
pletare” l’insieme degli autovettori aggiungendovi gli autovettori generaliz-
potenza di λ. Infatti si potrebbe dimostrare che tutte e sole le soluzioni del
zati. Questi, in analogia al caso di matrici, sono definiti nel modo seguente.
polinomio minimo sono date dagli autovalori λi e che la molteplicità di λi
nel polinomio minimo è pari a mi ≤ µi . Quindi il polinomio minimo può
Definizione 15. Un autovettore generalizzato di ordine k associato all’autovalore anche scriversi:
λi dell’operatore f è un vettore uk tale che risulta (1.8) :
(f − λi I)k (uk ) = 0 
r
m(λ) = (λ − λ1 )m1 (λ − λ2 )m2 · · · (λ − λr )mr = (λ − λi )mi .
(f − λi I)k−1 (uk ) = 0. i=1

Dal punto di vista computazionale, se A è la rappresentazione dell’operatore Nel caso di autovalori distinti mi = µi = 1 e i due polinomi coincidono.
f , la definizione 15 implica che occorre risolvere le equazioni Descriviamo ora la procedura alternativa per la determinazione degli
autovettori generalizzati, che evita il calcolo delle potenze successive della
(A − λi I) u = 0 k k
matrice (A − λi I). Per determinare la base desiderata, costituita da au-
(A − λi I)k−1 uk = 0 tovettori generalizzati, si noti che se uk è un autovettore generalizzato di
ordine k relativo a λi , allora (f − λi I)(uk ) è un autovettore generalizzato
per il calcolo di uk . La procedura 1.2 può essere generalizzata, onde si può di ordine k − 1 poiché:
dire che ad ogni operatore risultano associati n autovettori generalizzati che,  
per il teorema 7, sono linearmente indipendenti. Questo metodo ha però lo (f − λi I)k (uk ) = (f − λi I)k−1 (f − λi I)(uk ) = 0
svantaggio di richiedere il calcolo delle potenze della matrice (A − λi I), per  
cui nel seguito si proporrà un’altra procedura che risolve questo inconve- (f − λi I)k−1 (uk ) = (f − λi I)k−2 (f − λi I)(uk ) = 0.
niente. Prima di presentarla occorre però premettere delle precisazioni sulla
determinazione degli autovettori generalizzati. A tale scopo introduciamo La stessa osservazione in termini di rappresentazione A di f utilizzabile per
le seguenti definizioni. eseguire i calcoli, comporta che:
 
(A − λi I)k uk = (A − λi I)k−1 (A − λi I)uk = 0
k k  
(1.8)
(f − λi I)k (x): = f k (x) − λi f k−1 (x) + λ2i f k−2 (x) · · · (A − λi I)k−1 uk = (A − λi I)k−2 (A − λi I)uk = 0.
1 2
40 1. Introduzione alla teoria degli spazi lineari 1.10. Forma canonica di Jordan 41

Dunque: totale si hanno ovviamente q1 catene le cui lunghezze, in generale, vanno


(f − λi I)(uk ) = uk−1 , (1.32) da m ad 1.
Al generico autovalore λ in tal modo saranno associati un numero di
ovvero:
autovettori generalizzati pari alla sua molteplicità algebrica n. Tali autovet-
(A − λi I)uk = uk−1 . (1.33)
tori saranno q1 di ordine 1, q2 di ordine 2, etc., qm di ordine m, risultando
La (1.33) suggerisce di utilizzare la procedura 1.2 per il calcolo degli 
m
ovviamente qj = µ.
autovettori di ordine k, a partire da quelli di ordine k − 1. Omettendo il j=1
pedice i per non appesantire la notazione, fissato un autovalore λ si trovano Per ognuno degli autovalori distinti λ1 , · · · λr viene costruita una tabella 1.1,
gli autovettori del primo ordine u11 , · · · , u1q1 , ove q1 è la nullità della matrice applicando la (1.32) ovvero la (1.33) se A è fissata.
(A − λI). Si calcolano dunque con la (1.33) gli autovettori del secondo
Si osservi che in tale procedura gli autovettori al passo k − 1 devono
ordine u21 , · · · , u2q2 , e cosı̀ via fino a calcolare quelli di ordine massimo m,
essere determinati in maniera opportuna perché ciascuna catena possa es-
dati da um1 , · · · , uqm . Per inciso si noti che in questo procedimento risulta
m
sere completata, arrivando alla giusta lunghezza. In effetti questo metodo
q1 ≥ q2 ≥ · · · ≥ qm , in quanto per un certo autovettore uk−1 potrebbe di calcolo, se da un lato diminuisce la complessità dei calcoli, ha il difetto
non esistere alcun autovettore uk che soddisfi la (1.33). In questa maniera che a priori non permette di conoscere le lunghezze delle catene di au-
al generico autovalore λ vengono associati degli autovettori generalizzati, i tovettori. Poiché in generale gli autovettori uk−1 , che poi serviranno per
quali risultano essere indipendenti tra loro (teorema 7) e che dunque pos- il calcolo di quelli uk , possono essere scelti in più modi, una loro scelta
sono essere presi come base dell’autospazio U cosı̀ associabile a λ. Tali inadatta può comportare che la catena non è completabile. A tal proposito
autovettori vengono a costruire una tabella in cui nella prima colonna ven- si veda l’esempio 1.15. Poiché però questa situazione determina risultati
gono posti gli autovettori di ordine 1, nella seconda quelli di ordine 2, e cosı̀ non possibili quando si applica la (1.33), in genere è agevole la corretta
via fino a quelli di ordine m. individuazione degli autovettori e dunque il completamento delle catene.
Per meglio comprendere come questa procedura di calcolo alternativa
permetta di economizzare lo sforzo computazionale, descriviamo breve-
ordine 1 ordine 2 ··· ordine m − 1 ordine m mente il metodo del calcolo degli autovettori basato sulla loro definizione.
In questo caso la tabella di autovettori associata a λ viene costruita a partire
u11 u21 ··· u1m−1 um1 dagli autovettori di ordine massimo. Si calcolano infatti prima di tutto gli
u12 u22 ··· u2m−1 um2 autovettori di ordine m; per far ciò occorre calcolare le potenze di (A − λI)
.. .. .. .. fino a che si trova che il rango di (A−λI)m+1 è uguale a quello di (A−λI)m .
. . . .
Siano essi um1 , · · · , uqm . Si determinano quindi qm autovettori mediante la
m
.. ..
. . uqm−1
m
um
qm (1.33):
.. .. .. um−1
1 = (A − λI)um 1 , · · · , um−1
qm = (A − λI)um
qm ;
. . .
.. .. si noti che anche in questo caso essi vanno scelti in maniera opportuna
. . uqm−1
m−1
perché le catene siano completabili fino agli autovettori di ordine 1. Questi
u1q2 u2q2 autovettori non sono tutti gli autovettori generalizzati di ordine m − 1, in
..
quanto ce ne potrebbero essere altri: um−1qm +1 , · · · , uqm−1 . Anche in tal caso
m−1
.
u1q1 si ritrova che qm−1 ≥ qm . A partire da u1 , · · · , uqm−1
m−1
m−1
, riapplicando la
(1.33), si ottengono qm−1 autovettori di ordine m − 2, a cui se ne possono
Tabella 1.1 – Autovettori generalizzati associati a λ eventualmente aggiungere altri, avendo cosı̀ qm−2 ≥ qm−1 autovettori di
ordine m − 2. Procedendo iterativamente in questa maniera fino agli au-
Osservando le righe della tabella, si notano qm catene formate da m tovettori del primo ordine, si arriva ad associare al generico autovalore λ la
autovettori, qm−1 − qm catene formate da m − 1 autovettori, e cosı̀ via. In tabella 1.1 di autovettori generalizzati.
42 1. Introduzione alla teoria degli spazi lineari 1.10. Forma canonica di Jordan 43

Si osservi come, in questo caso, occorra calcolare le potenze succes- è un autovettore generalizzato di ordine due scelto in modo tale che risulti
sive della matrice (A − λI). Ciò può essere oneroso da un punto di vista (f − λ1 I)(u21 ) = u11 da cui si ha:
computazionale, ed è per questo che viene preferito l’altro procedimento di
calcolo. f (u21 ) = u11 + λ1 u21 .
Costruite le tabelle di autovettori associate ad ognuno degli autovalori Pertanto la seconda colonna di J, che è la rappresentazione di f (u21 ) rispetto
distinti λi , i = 1, · · · , r, si assuma come base {ei } dello spazio di stato alla base scelta, è data da
quella costituita, nell’ordine, dagli autovettori generalizzati associati a λ1  
1
ordinati secondo le relative catene, ossia ordinate secondo le righe della  λ1 
relativa tabella, poi da quelli associati a λ2 e ordinati analogamente, e cosı̀  
 0 .
via fino all’ultimo autovalore λr . Si perviene cosı̀ al seguente risultato.  . 
 .. 
0
Teorema 10. Rispetto alla base {ei } l’operatore f ha la rappresentazione
diagonale a blocchi J = diag {Jij }, dove l’indice i varia da 1 a r e l’indice Iterativamente si costruisce cosı̀ il blocco J11 . Passando alle successive
j varia, per ogni i prefissato, da 1 a q1i (ossia per ogni i si hanno tanti catene di autovettori relativi a λ1 e poi ai restanti autovalori si trova che
blocchi quante sono le righe della i–esima tabella). Il generico blocco Jij è la matrice J è costituita secondo quanto enunciato dal teorema.
una matrice quadrata di dimensioni pari alla lunghezza della catena a cui
Si noti che in base al teorema ora enunciato l’operatore f viene ad
corrisponde:
  essere rappresentato, nella base degli autovettori generalizzati scelti come
λi 1 0 ··· 0 0
visto, da una matrice J diagonale a blocchi, avente tanti blocchi quanti sono
 0 λi 1 · · · 0 0
 . ..  gli autovalori distinti. A loro volta queste sotto–matrici sono diagonali a
 . .. . . . . .. 
 . . . . . .  blocchi, con tante sotto–matrici quante sono le catene che appaiono nella
Jij =  . .. .. . . . . . .
 .. . ..  tabella,(1.9) e con le dimensioni di tali sotto–matrici date dalle lunghezze
 . . . 
0 0 0 · · · λi 1 
delle catene. In particolare la dimensione della prima di queste sotto–
matrici è la maggiore ed è pari alla molteplicità geometrica dell’autovalore
0 0 0 · · · 0 λi
corrispondente.(1.10)

Dimostrazione. Dalla (1.20), riscritta come AT −1 = T −1 Â, e dove: Esempio 1.14. Si consideri in C6C l’operatore f rappresentato, in una base
prefissata, dalla seguente matrice:
T −1 = ( M1 · · · Mr ) , 2

1 0 0 −3 −1

 
.. .. 0 2 4 0 0 0
Mi = u11 u21 ··· um . u12 u22 ··· um . ··· ,  
1 2 0 0 2 0 0 0
A= .
 0 −1 0 2 4 0
per i = 1, · · · , r, e tenendo conto della (1.32), si constata subito che la prima  
0 0 1 0 2 0
colonna di J è   0 0 0 0 0 2
λ1
 0  Si trova facilmente che |A−λI| = (λ−2)6 , onde l’operatore f ha l’autovalore
 . 
 ..  λ = 2 di molteplicità algebrica µ = 6.
0
(1.9)
Ossia tante quanto è la nullità delle matrici (A − λi I).
poiché il primo vettore u11
della base scelta è un autovettore di ordine uno (1.10)
Alcuni autori definiscono la molteplicità geometrica di λi come il numero di righe della
relativo a λ1 . Per la seconda colonna si osservi che il secondo vettore, u21 , tabella corrispondente, ovvero come il numero di blocchi della forma canonica di Jordan.
44 1. Introduzione alla teoria degli spazi lineari 1.10. Forma canonica di Jordan 45

Per determinare la forma di Jordan, occorre eseguire un cambiamento Analogamente a quanto fatto in precedenza, la ricerca di un autovettore di
di base secondo quanto detto nel teorema 10; occorre cioè determinare la ordine 3 viene effettuata risolvendo una delle equazioni:
base {ei } degli autovalori generalizzati.
Osservando la matrice (A − 2I), che ha nullità pari a tre, si trovano (A − 2I)u31 = u21 , (A − 2I)u32 = u22 .
subito gli autovettori di ordine uno:
Si constata facilmente che la prima ha la soluzione:
       
1 0 0 0
0 0 4  0 
       
0 0 0  −1 
u11 =   , u12 =   , u13 =   . u31 =  
0 1 0  0 
       
0 0 1 0
0 0 1 0

Le catene di autovettori sono dunque tre. Esse potrebbero avere lunghezze e avendo cosı̀ ottenuto complessivamente sei autovettori generalizzati, la
rispettivamente 4, 1, 1, oppure 3, 2, 1, oppure 2, 2, 2. procedura è completata. La matrice T è costruita a partire da T −1 :
La determinazione degli autovettori di ordine due può essere effettuata  
1 0 0 0 0 0
utilizzando la (1.33), cercando le soluzioni delle equazioni:
 0 −4 0 0 −1 4
 
 0 0 −1 0 0 0
(A − 2I)u21 = u11 , (A − 2I)u22 = u12 , (A − 2I)u23 = u13 . T −1 =  ,
0 0 0 1 0 0
 
0 −1 0 0 0 1
Anche in questo caso, osservando le prime due equazioni, si trovano le 0 0 0 0 −1 1
soluzioni:
   
0 0 e come previsto si ha che T AT −1 = J. Si osservi che in realtà non occorre
 −4   −1  calcolare né T né T AT −1 , se non per verifica dei calcoli svolti. Infatti la
   
 0   0  forma di J deriva direttamente dalla dimostrazione del teorema 10 (tre
u21 =  , u22 =  ,
 0   0  catene di autovettori di lunghezza 3, 2 ed 1 rispettivamente).
   
−1 0
0 −1
Esempio 1.15. Si è osservato che nell’applicazione della (1.33) per il
mentre è immediato constatare che la terza non ammette soluzione, poiché calcolo delle catene di autovettori, a partire da quelli di ordine 1 e andando
u13 non appartiene a R(A − 2I) (si osservi la sesta componente dei vettori verso quelli di ordine superiore, ci potrebbero essere dei problemi, a meno
colonna). A questo punto già si può affermare che le catene hanno lunghezze di scegliere gli autovettori opportunamente. Se ad esempio si considera:
3, 2, 1 e che
   
2 1 0 0 0 0 4 2 −1
0 2 1 0 0 0 A =  −1 1 1,
 
−1 0 0 2 0 0 0 −1 −2 4
J = T AT =  .
0 0 0 2 1 0
  avente un unico autovalore λ = 3, con molteplicità algebrica 3, poiché:
0 0 0 0 2 0
0 0 0 0 0 2  
1 2 −1
con T opportuna, ancora da calcolare. Per inciso si noti che, essendo la (A − 3I) =  −1 −2 1
molteplicità geometrica uguale a tre, il polinomio minimo è m(λ) = (λ−2)3 . −1 −2 1
46 1. Introduzione alla teoria degli spazi lineari 1.11. Proprietà metriche degli spazi lineari e norme 47

ha nullità s = 2, ci debbono essere due autovettori del primo ordine e Definizione 17. Dato uno spazio vettoriale XF si chiama norma di un
dunque due catene di autovettori. La molteplicità geometrica di λ è dunque vettore x di tale spazio una funzione X → IR, il cui valore è indicato con
m = 2 e si dovranno avere due catene di autovettori, di lunghezza 2 ed 1 x, tale che sia
rispettivamente. Se ad esempio si fissano:
    x ≥ 0, ∀x ∈ X, x = 0 ⇔ x = 0,
2 0
ū11 =  −1  , u12 =  1  , λx = |λ|x, ∀x ∈ X, ∀λ ∈ F,
0 2 x + y ≤ x + y, ∀x, y ∈ X.

si trovano dei risultati impossibili quando si applica la (1.33) per il cal-


colo dell’autovettore del secondo ordine. Ciò è proprio dovuto alla scelta È facile rendersi conto che la norma cosı̀ definita soddisfa tutti i requisiti
inadatta di ū11 . In effetti l’autovettore opportuno è invece che appaiono logicamente associati all’idea della “misura” di una lunghezza
di un vettore.
 
1
u11 =  −1  . Si intuisce come la generalità della definizione 17 sia tale da permettere
−1 l’introduzione di un gran numero di norme, onde appare naturale chiedersi
se questa arbitrarietà possa creare degli inconvenienti. Qualora lo spazio
T XF abbia dimensione finita, la risposta è negativa, nel senso che tutte le
Applicando la (1.33) si vede poi che u21 = ( 1 0 0 ) .
Per esercizio applichiamo allo stesso caso la procedura di calcolo degli norme definibili in uno spazio avente dimensione finita sono equivalenti,
autovettori generalizzati basata sulla loro definizione. A tal fine notato che cioè prese due norme qualsiasi  · α e  · β , esistono due numeri positivi
m = 2, si calcola (A − 3I)2 = 0. È ovvio che scelto u21 come autovettore di k1 , k2 tali che
ordine massimo si ottiene u11 mediante la (1.33). k1 xα < xβ < k2 xα .
Il significato e l’utilità di questa equivalenza si possono capire dal seguente
esempio.
1.11. Proprietà metriche degli spazi lineari e norme
Esempio 1.16. Data una successione di vettori xn , si suol dire che questa
Per lo studio dei sistemi dinamici è necessario dare agli insiemi, che successione converge in norma al vettore x se, scelta una norma  · α , si ha
caratterizzano l’evolversi delle grandezze dei fenomeni in esame, una strut-
tura che tenga conto delle proprietà metriche. Tali proprietà verranno lim xn − xα = 0.
n→∞
introdotte con riferimento alla struttura lineare. Le proprietà metriche
che saranno esaminate sono di due tipi: la prima è legata al concetto di Se ci si trova in uno spazio avente dimensione finita, la convergenza, in virtù
lunghezza di un vettore e viene trattata in questo paragrafo, la seconda, più dell’equivalenza tra norme di cui si è detto, non dipende dalla particolare
ricca e complessa della precedente, è legata all’opportunità di introdurre in norma scelta, cioè si ha
uno spazio lineare di tipo generale un concetto equivalente a quello di angolo
tra le rette di un piano. L’esame di questa seconda proprietà è l’oggetto lim xn − xα = 0 ⇔ lim xn − xβ = 0
del prossimo paragrafo. n→∞ n→∞
È noto come gran parte delle proprietà dei numeri reali hanno origine
dal fatto che ad essi è intuitivamente associabile il concetto di distanza; quale che sia la norma β.
questo a sua volta è derivato da quello più generale di valore assoluto.
Equivalente al concetto di valore assoluto per un numero reale è quello Questo risultato consente di scegliere di volta in volta la norma più
di norma di un vettore. conveniente ai fini di una dimostrazione. Esempi di norme sono forniti nel
seguito.
48 1. Introduzione alla teoria degli spazi lineari 1.11. Proprietà metriche degli spazi lineari e norme 49


a) Sia x ∈ IRn o Cn con coordinate x1 , · · · , xn rispetto ad una fissata alla d) Sia X lo spazio delle funzioni limitate, a valori reali definite su [0, 1].
base. Possibili scelte di norme per tale vettore sono: Una possibile norma per X è:


n
x: = sup |f (t)|.
x1 : = |xi |, t∈[0,1]
i=1
 n  12 Si noti la differenza con le norme definite ai punti b) e c).

x2 : = |xi |2
, e) Sia X lo spazio delle funzioni a valori reali su [0, 1] con p–esima potenza
i=1
 n  p1 integrabile su [0, 1], cioè tali che:

xp : = |xi |p
,  1
i=1 |x(t)|p dt
0
x∞ : = max |xi |.
esista e sia finito (p ≥ 1). Tale spazio X usualmente è denotato con
È semplice verificare che le funzioni cosı̀ definite soddisfano alla definizione Lp [0, 1]. Una possibile norma è:
17.
 1 p1
b) Sia X lo spazio delle funzioni continue a valori reali definite nell’intervallo
x: = |x(t)|p dt ,
[0, 1]. Una norma per x ∈ X è data da: 0

x: = max |x|. come non è difficile verificare.


t∈[0,1]
In riferimento all’equivalenza tra norme e riferendosi alle norme del
È immediato verificare la validità dei primi due assiomi della definizione punto a), si noti che valgono le seguenti maggiorazioni:
17. Per quanto riguarda il terzo assioma si ha: √
x2 ≤ x1 ≤ nx2 ,
x + y = max |x + y| ≤ max (|x| + |y|) √
t∈[0,1] t∈[0,1]
x∞ ≤ x2 ≤ nx∞ ,
≤ max |x| + max |y| ≤ x + y x∞ ≤ x1 ≤ nx∞ ,
t∈[0,1] t∈[0,1]
in cui appaiono esplicitamente le costanti k1 e k2 .
Lo spazio X dotato di tale norma è usualmente denotato con C[0, 1].
 Fissata una norma in uno spazio lineare questa induce il concetto di
c) Sia X lo spazio delle sequenze limitate di numeri in IR o C, cioè: distanza tra vettori nello spazio, proprio come il valore assoluto induce
  il concetto di distanza tra numeri reali. Se infatti x, y ∈ X, si definisce
x = x1 , x2 , · · · , xn , · · · distanza tra x e y la quantità:

d(x, y): = x − y. (1.34)


e |xi | ≤ M per ogni i. Una possibile norma per X è:
Come accennato in precedenza le proprietà metriche in un insieme sono
x: = sup |xi |
i legate al concetto di distanza. È la funzione distanza, infatti, che nel caso
più generale viene introdotta a caratterizzare le proprietà metriche dello
come è immediato verificare. spazio. Nel caso in cui l’insieme sia dotato di una struttura lineare, la
50 1. Introduzione alla teoria degli spazi lineari 1.11. Proprietà metriche degli spazi lineari e norme 51

distanza può essere dedotta a partire dalla norma tramite la (1.34). Si noti Definizione 21. Un insieme A ⊂ X è detto insieme chiuso in X se contiene
che per un insieme qualsiasi la (1.34) non ha senso. tutti i suoi punti limite. Un insieme B ⊂ X è detto insieme aperto se il suo
Ricordando che le proprietà generali cui deve soddisfare una funzione complemento X − B è chiuso.
distanza sono:
Poiché in uno spazio vettoriale è molto frequente lo studio di operatori
d(x, y) ≥ 0, ∀x, y ∈ X con d(x, y) = 0 ⇔ x = y lineari rappresentati da matrici, appare naturale anche per queste ultime
d(x, y) = d(y, x) definire delle norme.
La norma introdotta per un vettore x può essere allora utilizzata per
d(x, y) ≤ d(x, z) + d(z, y) (diseguaglianza triangolare) definire anche una norma per una matrice A. In tal caso si parla di norma
indotta. Per comprendere come ciò possa essere fatto, si osservi che, mentre
è facile verificare come queste siano soddisfatte dalla funzione introdotta
non ha senso tentare di immaginare la “lunghezza” di una matrice cosı̀ come
con la (1.34).
si era fatto per un vettore, appare invece abbastanza intuitiva l’idea di un
Si osservi che in uno spazio lineare possono essere definite funzioni
“allungamento” che una matrice può produrre quando trasforma un vettore.
distanza non generabili da norme. Questo comunque trascende gli interessi
Anche se tale allungamento, in generale dipende dal vettore trasformato,
della presente trattazione.
ci sarà un vettore che viene “allungato” più degli altri. Si suole definire la
Con l’introduzione del concetto di distanza uno spazio lineare, già
norma di una matrice nella seguente maniera.
dotato di una struttura algebrica (quella lineare), acquista una struttura
geometrica. Le seguenti definizioni, infatti, rendono conto della geometria  
Definizione 22. Data una matrice A: Cn → Cm e scelta una norma  · α
introdotta. n m
in C ed una  · β in C , la norma della matrice A è il numero reale:
Definizione 18. È detto intorno sferico di raggio r centrato in x0 l’insieme Axβ
Sr (x0 ) definito da: A = sup (1.36)
x∈C n xα
Sr (x0 ): = {x: x ∈ X e x − x0  < r}. (1.35)
Dalla definizione 22 discende direttamente che
Tale intorno è detto chiuso se la diseguaglianza nella (1.35) è verificata per 
Axβ < A · xα , ∀x ∈ Cn .
x − x0  ≤ r; altrimenti è detto aperto.
Inoltre è possibile dimostrare che per qualunque coppia di matrici per cui
le operazioni indicate abbiano senso, si ha
Definizione 19. Un insieme A ⊂ X è detto limitato se è contenuto in
un intorno sferico, cioè se esiste x0 ∈ X ed un numero positivo r tale che A + B ≤ A + B,
A ⊂ {x | x0 − x < r}.
AB ≤ AB.

Le norme comunemente utilizzate per le matrici A m × n ad elementi


Definizione 20. Il vettore x ∈ X è detto punto limite di un insieme 
in Cn dedotte rispettivamente da quelle del punto a) sono:
A ⊂ X se ogni intorno sferico aperto di x contiene almeno un punto di A
eventualmente diverso da x stesso. 
m
A1 = max |aij |,
j
Poiché un punto limite di un insieme non è necessariamente nell’insieme, √
i=1
come risulta dalla definizione precedente (si pensi ad esempio all’intervallo A2 = massimo autovalore di A∗ A,
A = (0, 1) in IR, in cui 0 ed 1 non sono in A ma sono punti limite) è

n
necessario introdurre la seguente definizione. A∞ = max |aij |,
i
j=1
52 1. Introduzione alla teoria degli spazi lineari 1.12. Prodotto interno 53

in cui con “ ∗ ” si è indicato il coniugato trasposto. ove “ ∗ ” indica il coniugato trasposto. Sulle basi di tali proprietà non è
Alcune proprietà utili sono di seguito riportate: difficile dimostrare che vale la seguente diseguaglianza di Cauchy–Schwarz:

A2 ≤ A1 A∞ , |(x, y)| ≤ x · y
1 √ dove la norma è quella generata dal prodotto interno.
√ A∞ ≤ A2 ≤ mA∞ , La rilevanza dell’introduzione del prodotto interno è legata al fatto che
n
1 √ a partire da esso è possibile introdurre la nozione di ortogonalità tra vettori
√ A1 ≤ A2 ≤ nA1 , e base ortonormale che a loro volta assicurano l’esistenza ed unicità della
m decomposizione di un vettore nella somma di altri due. A tal fine, e con
ABp ≤ Ap Bp . 
riferimento allo spazio Cn , si introducono le seguenti definizioni.

Definizione 24. Due vettori x ed y di Cn sono detti vettori ortogonali se
1.12. Prodotto interno risulta (x, y) = 0.

Abbiamo visto come introducendo la norma di uno spazio lineare lo 


Definizione 25. Una base {ei } in Cn è detta base ortogonale se (ei1 , ei2 ) =
spazio risulta dotato di una struttura geometrica. Tale struttura geometrica
0, ∀i1 = i2 . Se inoltre, ei  = 1, ∀i allora la base è ortonormale.
risulta insufficiente in molti casi, in particolare quando lo spazio ha dimen-
sione infinita. Tale difficoltà può essere superata introducendo l’operazione Ad esempio in IRn la base costituita dai vettori
di prodotto interno tra vettori dello spazio. La breve trattazione che segue,  
che vuole essere solo introduttiva al problema e che conduce nel caso più 0
 .. 
generale alla definizione di spazio di Hilbert, è limitata alle n–uple di numeri
 .
 
in IRn e Cn . ei =  1  ← i–esima componente
.
  .. 
Definizione 23. Si definisce prodotto interno (x, y) con x ed y ∈ Cn
l’operazione: 0
n
è ortonormale. Essa è anche detta base canonica.
(x, y): = xi yi∗ ,
In uno spazio vettoriale a dimensione finita è sempre possibile costru-
i=1
ire una base ortonormale utilizzando una procedura detta procedura di
dove yi∗ rappresenta il complesso coniugato di yi . ortonormalizzazione di Gram–Schmit. Siano e1 , · · · , en i vettori di una base
di X. Una base ortonormale è ottenibile nella seguente maniera:
Lo spazio IRn dotato di prodotto interno è detto spazio euclideo. Se
e1
y = x si ha: g1 = ,

n
e1 
(x, x) = |xi |2 (1.37) e2 − (e2 , g1 )g1
i=1 g2 = ,
e2 − (e2 , g1 )g1 
che è il quadrato della norma x2 . Tale norma è quindi generabile a partire ..
da un prodotto interno. .
Alcune proprietà di interesse, deducibili facilmente dalle definizioni 
i−1
stesse di prodotto interno sono le seguenti: ei − (ei , gk )gk
k=1
∗ gi = ,
(x, y) = (y, x) ,

i−1
(α1 x1 + α2 x2 , y) = α1 (x1 , y) + α2 (x2 , y), ei − (ei , gk )gk 
.. k=1
(x, αy) = α∗ (x, y). .
54 1. Introduzione alla teoria degli spazi lineari 1.13. Proprietà delle matrici 55

Si può verificare che gi è ortogonale a gk per ogni k < i e che {g1 , · · · , gn } P. 13.4. Date due matrici quadrate A e B (per cui ha senso considerare
genera lo stesso sottospazio generato da {e1 , · · · , en }. sia AB che BA) è facile vedere che
È facile dimostrare che vale il seguente risultato.
det(AB) = det A det B = det(BA).

Teorema 11. Se {e1 , · · · , en } è una base ortonormale in Cn (o IRn ) e se Inoltre il determinante di una trasposta è pari al determinante della matrice
ci di partenza: det A = det AT .
x= ei allora ci = (x, ei ).
i=1
P. 13.5. Data una matrice A n × n, considerando la matrice B ottenuta
 da essa permutando h volte le sue righe o le sue colonne, si ha:
Sia ora W un sottospazio di dimensione k < n di Cn (o IRn ). Scelta
una base {e1 , · · · , en } ortonormale tale che i primi k vettori siano vettori det B = (−1)h det A.
generatori di W , si denoti con W ⊥ (W perpendicolare) il sottospazio gener-
ato da {ek+1 , · · · , en }. Ovviamente per ∀x ∈ W e y ∈ W ⊥ risulta (x, y) = 0.
 P. 13.6. Se la matrice A n×n ha due righe o colonne uguali o proporzionali,
Se ora z ∈ Cn (o IRn ) è un generico vettore, esistono due vettori x ∈ W e
 oppure combinazioni lineari di altre righe o colonne, oppure una riga o
y ∈ W ⊥ tali che z = x + y, e tale scelta è unica, risultando W ⊕ W ⊥ = Cn
n
(o IR ). I vettori x ed y sono detti proiezione rispettivamente di z su W e colonna nulla, allora det A = 0.
W ⊥.
P. 13.7. Se in una matrice A n×n si moltiplicano gli elementi di una stessa
riga o colonna per un numero λ, si ottiene una matrice B tale che:
det B = λ det A.
1.13. Proprietà delle matrici
In particolare se gli elementi di una stessa riga o colonna hanno un fattore
Nel seguito sono riportate alcune proprietà utili nei calcoli in cui ven- comune λ, esso può essere portato fuori del determinante. Inoltre:
gono utilizzate le matrici.
det(λA) = λn det A.

1.13.a. Proprietà generali


P. 13.8. Se la matrice A n × n è triangolare, il suo determinante è dato
dal prodotto degli elementi sulla diagonale principale. Se invece A ha tutti
P. 13.1. Per le matrici vale la proprietà distributiva (destra e sinistra) del nulli gli elementi situati da una parte della diagonale secondaria, il suo
prodotto rispetto alla somma e quella associativa del prodotto: determinante è dato dal prodotto degli elementi della diagonale secondaria
moltiplicato per (−1)n(n−1)/2 .
(A + B)C = AC + BC, C(A + B) = CA + CB, (AB)C = A(BC).
P. 13.9. Se nella matrice A n × n esiste una riga o colonna i cui elementi
sono dati dalla somma di p termini, il suo determinante è pari alla somma
dei determinanti delle p matrici ottenute da A considerando, al posto di
P. 13.2. La trasposta di una matrice trasposta è la matrice di partenza
 T  −1 tale riga o colonna, i primi, i secondi, · · ·, i p–esimi addendi. Da questo
(AT )T = A. Inoltre risulta: A−1 = AT . e dalla proprietà P. 13.6 si deduce che se B è una matrice ottenuta da A
sommando ad una sua riga o colonna una combinazione lineare di altre sue
P. 13.3. La matrice inversa di una matrice quadrata A, se esiste, è unica. righe o colonne, allora:
Per l’inversa di matrici, prodotto di due matrici, vale la relazione: (AB)−1 = det B = det A.
B −1 A−1 , e infine, la matrice A−h viene definita come A−h = (A−1 )h .
56 1. Introduzione alla teoria degli spazi lineari 1.13. Proprietà delle matrici 57

P. 13.10. Il polinomio caratteristico p(λ) di una matrice A ha coefficienti P. 13.14. Se A n × n è antisimmetrica e v è un generico vettore, allora Av
ai = (−1)i si , ove si sono le somme di tutti i minori principali di ordine i: è ortogonale a v. Infatti: Av = −AT v e

p(λ) = λn − s1 λn−1 + · · · + (−1)n−1 sn−1 λ + (−1)n sn . v T Av = −v T AT v = −(Av)T v = −v T Av,

Ad esempio, per n = 3: per cui v T Av = 0, che esprime l’ortogonalità tra v e Av.

p(λ) =λ3 − (a11 + a22 + a33 )λ2 + P. 13.15. Una matrice si dice ortogonale se A−1 = AT . Ovviamente deve
 
       a11 a12 a13  essere det A = 0. Poiché poi det A−1 = (det A)−1 e det AT = det A, allora:
 a11 a12   a11 a13   a22 a23  
+    +  + λ −  a21 a22 a23  .
a21 a22   a31 a33   a32 a33   a31 a32 a33  det A−1 = det AT ⇒ (det A)−1 = det A,

e quindi:
P. 13.11. Una matrice si dice hermitiana se A∗ = A, ove il simbolo “ ∗ ” (det A)2 = 1 ⇒ det A = ±1.
indica la matrice coniugata trasposta. Ovviamente gli elementi della di-
agonale principale devono essere tutti reali. In particolare se tutti gli ele-
menti sono reali, la matrice è simmetrica. Poiché poi AT = Ā, ed essendo
det AT = det A e det Ā = det A, si ha: P. 13.16. Una matrice si dice idempotente se A2 = A. Si dice poi nilpotente
di indice q se Aq = 0, mentre Aq−1 = 0.
det A = det A,
P. 13.17. Una matrice A n × n si dice definita positiva (A > 0) se per
e quindi il determinante di una matrice hermitiana è sempre reale. Una la corrispondente forma quadratica risulta xT Ax > 0, ∀x = 0. È detta
matrice A n × n si dice antihermitiana se A∗ = −A. Se A è una matrice semidefinita positiva (A ≥ 0) se invece per la forma quadratica si ha
hermitiana, in particolare se è simmetrica quando i suoi elementi sono reali, xT Ax ≥ 0, ∀x. Non è limitativo supporre A simmetrica, perché se non
il suo polinomio caratteristico è a coefficienti reali e i suoi autovalori sono (A + AT )
tutti reali. Se A è una generica matrice non quadrata m × n, allora AAT è lo fosse basta sostituirla con , che è simmetrica. Infatti xT Ax =
2
una matrice simmetrica e AA∗ è una matrice hermitiana. xT (A + AT )x
. Condizione necessaria e sufficiente affinché una matrice sim-
2
T metrica A sia definita positiva è che abbia tutti i suoi autovalori stretta-
P. 13.12. Se A è una generica matrice quadrata n × n, allora A + A è
2 mente maggiori di zero, ovvero che tutti gli n minori principali consecutivi
una matrice hermitiana, ovvero simmetrica se A è a valori reali.
siano strettamente positivi. È ovvio dunque che una matrice definita pos-
itiva è sempre invertibile. Condizione necessaria e sufficiente affinché una
P. 13.13. Una matrice si dice antisimmetrica o emisimmetrica se AT = −A.
matrice simmetrica A sia semidefinita positiva è che abbia tutti i suoi au-
Ovviamente gli elementi della diagonale principale devono essere tutti nulli.
tovalori maggiori o uguali a zero, ovvero che tutti i suoi 2n − 1 minori
Da AT = −A e dalla proprietà P. 13.7 ne segue che:
principali siano maggiori o uguali a zero.
det A = (−1)n det A.
P. 13.18. Se A n × n è definita positiva e v è un generico vettore, allora
Questa è una identità se n è pari; se n è dispari permette di dire che il de- Av non è ortogonale a v ed è ruotato rispetto a v di un angolo minore o
terminante di una matrice antisimmetrica di ordine dispari è sempre nullo. uguale a π . Infatti, essendo definita positiva: v T Av > 0. Se A è invece
2
Infine gli autovalori di una matrice antisimmetrica sono tutti puramente semidefinita positiva, allora v T Av ≥ 0 e dunque la rotazione è, al più, di
π.
immaginari coniugati. 2
58 1. Introduzione alla teoria degli spazi lineari 1.13. Proprietà delle matrici 59

P. 13.19. Date due matrici A m × n, B n × p, allora rank (AB) ≤ P. 13.22. Un altro metodo di calcolo dell’inversa fa uso delle matrici che
min{rank (A), rank (B)}, a meno che B sia non singolare, nel qual caso operano le cosiddette trasformazioni elementari, quali lo scambio di colonne
rank (AB) = rank (A). Inoltre vale la diseguaglianza di Sylvester: e/o righe e la combinazione lineare di colonne e/o righe. Infatti lo scam-
bio tra due righe di A si può eseguire premoltiplicando A per la matrice
rank (A) + rank (B) − n ≤ rank (AB) ≤ min{rank (A), rank (B)}.
identità sulla quale siano state effettuate la medesima operazione, mentre
la combinazione di una riga moltiplicata per una costante con un’altra riga
1.13.b. Inversione di matrici di A può essere eseguita premoltiplicando A per la matrice identità sulla
quale sia stata eseguita la stessa operazione. Queste stesse operazioni pos-
L’inversa di una matrice non singolare A può essere calcolata a partire sono essere effettuate sulle colonne di A postmoltiplicando per la matrice
dalla formula: identità sulle cui colonne siano state eseguite le stesse operazioni.
1  a T
A−1 = A Le matrici identità cosı̀ ottenute sono dette matrici trasformanti ele-
|A| mentari. Esse sono immediatamente invertibili. Infatti le matrici trasfor-
ove Aa indica la matrice aggiunta, ossia la matrice ottenibile trasponendo manti T che operano scambi di righe o colonne sono ortogonali (proprietà
la matrice che ha per elementi i complementi algebrici degli elementi cor- P. 13.15), mentre quelle che operano combinazioni tra righe o colonne sono
rispondenti. Il complemento algebrico dell’elemento aij , ad esempio, è dato facilmente invertibili, come si vede dai seguenti esempi:
dal minore ij, ottenuto da A eliminando la riga i e la colonna j, calcolando
il determinante della matrice cosı̀ ottenuta e moltiplicandolo per (−1)i+j .  −1  
Vi sono però altri metodi di calcolo, riportati nel seguito, che a seconda 1 0 0 1 0 0
0 1 0 =  0 1 0,
della complessità della matrice A, possono essere utilizzati in alternativa.
c 0 1 −c 0 1
P. 13.20. Se A è una matrice 2 × 2:

a b  −1  1 0 0

A= , 1 0 0
c d
0 c  
0 = 0 1
c 0.
l’inversa si ottiene invertendo di posto gli elementi della diagonale principale 0 0 1
ed invertendo di segno quelli dell’antidiagonale, dividendo gli elementi per 0 0 1
il determinante:
1 d −b Operando allora operazioni elementari successive sulle righe (o sulle
A−1 = .
ad − cb −c a colonne) di A, mediante la premoltiplicazione ovvero la postmoltiplicazione
per delle trasformanti elementari T1 , T2 , · · ·, Tq , si ottiene:
P. 13.21. Sia A una matrice non singolare e p(λ) = λn + an−1 λn−1 + · · · +
a1 λ + a0 il suo polinomio caratteristico. Allora la sua inversa è calcolabile Tq Tq−1 · · · T2 T1 A = I, ovvero AT1 T2 · · · Tq−1 Tq = In×n ,
nella seguente maniera. Per il teorema di Cayley–Hamilton:
An + an−1 An−1 + · · · + a1 A + a0 I = 0, per cui:
e dunque
1  n−1  A−1 = Tq Tq−1 · · · T2 T1 , ovvero A−1 = T1 T2 · · · Tq−1 Tq .
− A A + an−1 An−2 + · · · + a1 I = I.
a0
Si deduce pertanto che
1  n−1   
A−1 = − A + an−1 An−2 + · · · + a1 I . 0 1 1
a0 Esempio 1.17. Sia A =  1 0 2 . Operando in modo da ridurre le
−1 2 1
60 1. Introduzione alla teoria degli spazi lineari 1.13. Proprietà delle matrici 61

colonne ad essere quelle di una matrice identità, si ha: Per il nullo N (A) si osservi che, posto y = T1 T2 x:
   
1 0 0 0 1 1
Âx = AT1 T2 x = Ay = 0.
T1 =  0 1 0  ⇒ T1 A =  1 0 2,
0 1 1 0 2 3  
 0 
    Ma N (Â) = gen  0  e poiché y = T1 T2 x si ha:
1 0 0 0 1 1  
T2 =  0 1 0  ⇒ T2 T1 A =  1 0 2, 1
−2 0 1 0 0 1     
     0   −2 
1 0 −1 0 1 0 N (A) = gen T1 T2  0  = gen  1  .
   
T3 =  0 1 −2  ⇒ T 3 T 2 T1 A =  1 0 0, 1 1
0 0 1 0 0 1
 
0 1 0 P. 13.23. Se A, matrice m × n con m > n ha rango pieno, pari ad n,
T4 =  1 0 0  ⇒ T4 T3 T2 T1 A = I, allora la matrice AT A, di dimensioni n × n, è non singolare. Quindi data
0 0 1 una matrice non quadrata è talvolta possibile introdurre una matrice, detta
  pseudoinversa sinistra di A e pari a
4 −1 −2
per cui A−1 = T4 T3 T2 T1 =  3 −1 −1 . A#s = (AT A)−1 AT
−2 1 1
tale che A#s A = In×n . Analogamente se n > m ed A ha rango pieno,
Le matrici elementari consentono anche il calcolo delle immagini e dei allora esiste la pseudoinversa destra di A data da:
 
1 0 2
nuclei di una matrice. Ad esempio se A =  2 1 3 , usando le A#d = AT (AAT )−1 ,
1 −1 3
matrici trasformanti elementari in modo da trasformare A in triangolare tale che AA#d = Im×m .
inferiore:
    P. 13.24. Se A è una matrice non singolare e u, v sono vettori, e se (A+uv T )
1 0 −2 1 0 0 è non singolare, allora per l’inversa vale la formula:
T1 =  0 1 0 ⇒ AT1 =  2 1 −1  ,
0 0 1 1 −1 1 A−1 uv T A−1
(A + uv T )−1 = A−1 − .
    1 + v T A−1 u
1 0 0 1 0 0
T2 =  0 1 1  ⇒ AT1 T2 =  2 1 0  Â, Si noti che il rango della matrice uv T è pari alla dimensione interna, ossia
0 0 1 1 −1 0 è pari ad 1. Questa formula mostra dunque che l’inversa della matrice A
sommata ad una matrice di rango 1 è ottenibile modificando leggermente
e notando che, essendo state compiute solo combinazioni lineari tra colonne
l’inversa A−1 .
di A, l’immagine di A e quella di  coincidono, allora R(A) è il sottospazio
che ha per base le prime due colonne di Â:
    1.13.c. Matrici a blocchi
 1 0 
R(A) = gen  2  ,  1  . Riguardo alle matrici a blocchi si notino le seguenti proprietà.
 
1 −1
62 1. Introduzione alla teoria degli spazi lineari 1.13. Proprietà delle matrici 63

P. 13.25. Le operazioni tra matrici partizionate a blocchi vanno fatte ricor- Infine:
dandosi che il prodotto tra matrici non è commutativo. Quindi ad esempio:
A 0 B A
det = det = det A det C,
B C C 0
A1 A2 B1 B2 A1 B1 + A2 B3 A1 B2 + A2 B4 −1
= .
A3 A4 B3 B4 A3 B1 + A4 B3 A3 B2 + A4 B4 0 A −C −1 BA−1 C −1
= ,
C B A−1 0
−1
B A 0 C −1
= ,
P. 13.26. Data una matrice triangolare, ad esempio inferiore, il deter- C 0 A−1 −A−1 BC −1
minante è pari al prodotto dei determinanti delle matrici (quadrate) che
appaiono sulla diagonale principale. Infatti: come è ovvio in quanto tali matrici sono riconducibili alle
precedenti
medi-
0 I
ante la postmoltiplicazione per la matrice (invertibile) .
A 0 A 0 I 0 I 0 I 0
= ,
B C 0 I 0 C C −1 B I
P. 13.27. Si consideri la seguente matrice partizionata a blocchi

per cui A B
A 0 M= .
det = det A det C. C D
B C
Se la matrice A è non singolare si trova che
Dunque tale matrice è invertibile se e solo se A e C lo sono, e l’espressione
A B
dell’inversa è: det = det A det(D − CA−1 B).
C D
−1
A 0 A−1 0 Infatti:
= .
B C −C BA−1
−1
C −1
A B A 0 I 0 I A−1 B
=
Analogamente: C D 0 I C D − CA−1 B 0 I

A B e dunque vale la relazione vista. Più facilmente ancora, il risultato può
det = det A det C,
0 C essere dimostrato notando che basta sottrarre dalla seconda riga la prima
per cui sotto le stesse condizioni esiste l’inversa della matrice triangolare premoltiplicata per CA−1 , ottenendo la matrice triangolare a blocchi
superiore, data da:
A B
−1 0 D − CA−1 B
A B A−1 −A−1 BC −1
= . il cui determinante è uguale a quello della matrice di partenza per la pro-
0 C 0 C −1
prietà P. 13.9.
Dunque perché M sia invertibile è sufficiente che A e ∆1 = D−CA−1 B
Si noti in particolare la forma delle seguenti matrici inverse:
lo siano.(1.11) Per calcolarne l’inversa basta risolvere il sistema
−1 −1 
I A I −A I 0 I 0 A B x1 y1 Ax1 + Bx2 = y1
= , = . = , ossia :
0 I 0 I A I −A I C D x2 y2 Cx1 + Dx2 = y2

Si confrontino queste espressioni con quelle date per le matrici trasformanti (1.11)
È chiaro che se è già nota l’invertibilità di M , perché valgano le formule che seguono è
elementari (proprietà P. 13.22). sufficiente verificare solo l’invertibilità di A, poiché det ∆1 = det M/ det A.
64 1. Introduzione alla teoria degli spazi lineari 1.14. Esercizi e problemi 65

in termini di x1 e x2 . Avendo supposto l’esistenza di A−1 : ottenuta sostituendo ad A, B, C, D le matrici I, −C, B e sI − A.


Un’altra applicazione di queste relazioni è la seguente. Se A, B, C, D,
x1 = −A−1 Bx2 + A−1 y1 , sono matrici n × n, n × 1, 1 × n, 1 × 1, si ha:
 
 sI − A −B   
che sostituita nella seconda equazione dà:   = |sI − A| D + C(sI − A)−1 B  =
 C D 
∆1 x2 = −CA−1 y1 + y2 .  
= |sI − A| D + C(sI − A)−1 B ,
Avendo supposto anche l’esistenza di ∆−1
1 si ricava x2 , e quindi x1 , otte-
nendo cosı̀: in quanto la quantità a secondo membro è uno scalare. Indicatala con W (s)
−1 −1 si ottiene:
A + A−1 B∆−1 −1
−A−1 B∆−1  
A B 1 CA 1  sI − A −B 
=
−∆−1 −1
∆−1
,  
C D 1 CA 1  C D 
−1
W (s) = C(sI − A) B + D = .
la quale esiste se A e ∆1 sono invertibili. Come detto queste
sono condizioni |sI − A|
0 I
sufficienti per l’invertibilità di M ; in effetti la matrice non ha A
I 0
invertibile, ma la sua inversa esiste ed è uguale alla matrice stessa. P. 13.28. Se A è una matrice n × m e B una matrice m × n, allora non
Analogamente se D è invertibile: è più vero che det(AB) = det(BA) (cfr. proprietà P. 13.4). Però vale la
formula:

A B det(Im×m − AB) = det(In×n − BA)
det = det D det(A − BD−1 C),
C D In×n A
poiché considerata la matrice e la proprietà P. 13.27 vale:
B Im×m
come si può vedere sottraendo dalla prima riga la seconda premoltiplicata
per BD−1 , ottenendo la matrice triangolare a blocchi
In×n A
det = det(Im×m − AB) = det(In×n − BA).
B Im×m
A − BD−1 C 0
.
C D

Dunque se esiste D−1 e l’inversa di ∆2 = A − BD−1 C in maniera analoga 1.14. Esercizi e problemi
si calcola:
−1
A B ∆−1
2 −∆−1
2 BD
−1 Esercizio 1.1. Trovare tra i seguenti insiemi di vettori quelli linearmente
= −1 −1 .
C D −D−1 C∆2 D−1 + D−1 C∆2 BD−1 indipendenti su IR:
           
Queste sono dette formule di inversione di Schur. Si noti che poiché le due 4 2 2 1 1 2
inverse coincidono deve valere la seguente relazione: a)  9  ,  13  ,  −1  ; c) 1, 0, 2.
11 10 1 1 1 0
 −1  −1
A − BD−1 C = A−1 + A−1 B D − CA−1 B CA−1 .
1+j 10 + 2j −j 28 54 81
b) , , ; d) , , ;
Essa ha molte applicazioni, specialmente nella forma: 2 + 3j 4−j 3 17 −73 37
 −1
I + C(sI − A)−1 B = I − C(sI − A + BC)−1 B,
66 1. Introduzione alla teoria degli spazi lineari 1.14. Esercizi e problemi 67

Soluzione. I vettori risultano: a) e c) tutti linearmente indipendenti; b) e Esercizio 1.4. Si determinino gli autovalori e le rappresentazioni degli
d) qualsiasi due vettori sono indipendenti, ad esempio i primi due. autovettori per le seguenti matrici:

Esercizio 1.2. Riferendosi all’esercizio 1.1 esprimere, se possibile, il vettore    


T
1 0 2 1+j 0 0
v1 = ( 10 13 32 ) come combinazione lineare dei vettori del punto c) ed
 A1 =  2 1 3, A4 =  1 1−j 0,
T
il vettore v2 = ( 1 0 ) come combinazione lineare su IR e C dei vettori 1 −1 3 −1 j 1
del punto b).    
1 0 0 0 0 1
A2 =  0 1 0, A5 =  0 1 0,
 −1  
1 1 2 35 0 0 1 1 0 0
Soluzione. La rappresentazione di v1 è pari a  1 0 2  v1 =  −3 ,    
1 −1 0 1 0 3
1 1 0 −11
 A3 =  0 2 0, A6 =  −1 2 1.
mentre quella di v2 è ottenibile solo su C ed è data, in termini del primo
−1 3 1 −1 0 0 −1
1 + j −j
e del terzo (scelti per semplicità di calcolo) da v2 =
2 + 3j 3
 
−3j
5 .
−3 + 2j
5 5 Soluzione. Si ha nei sei casi proposti:
Esercizio 1.3. Considerato lo spazio vettoriale, di dimensione n + 1, cos- 1) matrice A1 :
tituito dall’insieme dei polinomi a coefficienti complessi di grado non mag-
  
giore di n su C, con le usuali operazioni di somma e moltiplicazione, e   1√
fissata la base: λ1 = 0, −2 9 7 
√  
u1 =  1  , u2,3 =  4 ∓ 4 j  ;
2
v1 = t + t + 1, v2 = t + 2, v3 = 3t − 2, λ2,3 =
5
±
7
j,  √ 
1 3 ± 7j
2 2 4 4
si determini la matrice che rappresenta il cambiamento di base quando
la nuova base è costituita dai vettori: a) {v2 , v3 , v1 }; b) {v3 , v1 , v2 }; c)
{v1 , v2 , v3 }; d) {v1 + v2 , v2 + v3 , v1 + v3 }; e) {e1 = t2 , e2 = t, e3 = 1}. 2) matrice A2 : è una matrice diagonale, per cui gli autovalori coincidono
con gli elementi della diagonale principale (λ = 1 con molteplicità tre),
con:      
Soluzione. Si ha: 1 0 0
     
0 1 0 0 0 1 1 0 0 u 1 =  0  , u2 =  1  , u3 =  0  ;
a) Ta =  0 0 1  , b) Tb =  1 0 0, e) Te =  1 1 3, 0 0 1
1 0 0 0 1 0 1 2 −2
3) matrice A3 : è una matrice triangolare, con la sotto–matrice in po-
e Tc = I3×3 , mentre per il caso d) si ha: sizione (1,1) triangolare, per cui gli autovalori coincidono con gli ele-
    menti della diagonale principale
1 0 1 1/2 1/2 −1/2
Td =  1 1
−1
0  ⇒ Td =  −1/2 1/2 1/2  . λ1 = 1,      
2 3 0
0 1 1 1/2 −1/2 1/2
λ2 = 2, u1 =  0  , u2 =  −3  , u3 =  0  ;
λ3 = −1, 3 2 1
68 1. Introduzione alla teoria degli spazi lineari 1.14. Esercizi e problemi 69

4) matrice A4 : è anch’essa una matrice triangolare per cui: si trova:


    
      0 1 0
u11 =  1  , u21 =  −1  , u31 =  1  .
λ1 = 1 + j, 2j 0 0
λ2 = 1 − j, u1 =  1  , u2 =  1  , u3 =  0  ; −1 3 0
λ3 = 1, −1 −1 1 Infine con
 
  0 1 0
5) matrice A5 : T1−1 = u11 u21 u31 = 1 −1 1 ,
λ1 = −1,       −1 3 0
1 0 1 si ha:  
λ2 = 2, u1 =  0  , u2 =  1  , u3 =  0  ; 3 0 −1
λ3 = 2, −1 0 1 T1 =  1 0 0 .
−2 1 4
6) matrice A6 : è la trasposta di A3 per cui gli autovalori sono gli stessi,
La molteplicità geometrica di λ è dunque 3 e il polinomio minimo è m1 (λ) =
ma non gli autovettori, che risultano essere:
(λ − 1)3 . Si noti che non è stato necessario calcolare T1 A1 T1−1 : la struttura
     
1 0 9 di J1 è stata infatti immediatamente dedotta dal fatto che si ha un solo
u1 =  1  , u2 =  1  , u3 =  5  . autovalore, con una sola catena di autovettori.
0 0 −6 Anche la matrice A2 ha l’autovalore λ = 1 con molteplicità algebrica
tre, ma  
0 0 0
Esercizio 1.5. Si determinino gli autovalori, le rappresentazioni degli au- A2 − λI =  3 −1 −1 
tovettori e le trasformazioni che mettono nella forma canonica di Jordan le −3 1 1
seguenti matrici: ha nullità 2 per cui la molteplicità geometrica di λ non può che essere
    m = 2. Dunque ci sono due catene di autovettori di lunghezze 2 ed 1, e
−1 1 1 1 0 0
A1 =  3 0 −1  , A2 =  3 0 −1  . quindi:  
−7 3 4 −3 1 2 1 1 0
T2 A2 T2−1 = J2 =  0 1 0  .
Calcolare inoltre i rispettivi polinomi minimi. 0 0 1
Il polinomio minimo in questo caso è dunque m2 (λ) = (λ − 1)2 . Inoltre si
Soluzione. La matrice A1 ha l’autovalore λ = 1 con molteplicità algebrica ha:      
0 0 1
tre. Infatti A1 −λI ha nullità 1, e dunque c’è solo una catena di autovettori,
u 1 =  1  , u 1 =  1  , u2 =  0  ,
1 2 1
che quindi deve avere lunghezza tre. Pertanto dovrà essere:
−1 0 3
 
1 1 0 per cui
T1 A1 T1−1 = J1 =  0 1 1  ,    
0 0 1 −3 0 1
0 0 1 T2 =  −1
−1
1 0  , T2 =  −3 1 1 .
con T1 da costruire. Poiché: 1 0 3 1 0 0
  Anche qui si nota che i calcoli non sono necessari, se non per verifica: la
−2 1 1 struttura di J2 infatti discende dal fatto che si ha un solo autovalore con
A1 − λI =  3 −1 −1  , due catene di autovettori.
−7 3 3
70 1. Introduzione alla teoria degli spazi lineari 1.14. Esercizi e problemi 71

Esercizio 1.6. Si determini la forma canonica di Jordan dell’operatore Esercizio 1.7. Dimostrare il teorema di Cayley–Hamilton.
rappresentato dalla matrice:
   T 
2 2 1 0 Soluzione. Poiché (λI − A)−1 = 1 (λI − A)a = 1 Nn−1 λn−1 +
0 2 −1 0   p(λ) p(λ)
A= .
0 0 1 1 Nn−2 λn−2 + · · · + N1 λ + N0 , si ha:
0 0 0 1
p(λ)I = (λn + an−1 λn−1 + · · · + a1 λ + a0 )I =
 
= (λI − A) Nn−1 λn−1 + Nn−2 λn−2 + · · · + N1 λ + N0 =
 
Soluzione. Essendo A triangolare, si trova λ1 = 1, λ2 = 2, entrambi = Nn−1 λn + Nn−2 − ANn−1 λn−1 + · · ·
con molteplicità due. Essendo )(A − λi I) = 3 si ha mi = 2, e risulterà    
ovviamente:   + N1 − AN2 λ2 + N0 − AN1 λ − AN0 .
1 1 0 0
0 1 0 0
T AT −1 = J =  . Uguagliando membro a membro e sommando le relazioni cosı̀ trovate, si
0 0 2 1
prova che p(A) = 0.
0 0 0 2
Volendo poi calcolare la trasformazione T , occorre determinare gli autovet- Esercizio 1.8. Mostrare che se u è un autovettore di A associato all’autovalore
tori generalizzati fino all’ordine 2. Si trova che: λ allora esso è anche un autovettore di (sI − A)−1 associato all’autovalore
1 , essendo s ∈ / σ(A).
    s−λ
3 2
 −1   0  Soluzione. Sottraendo la quantità s u ad ambo i membri di Au = λu, si
u11 =  , u21 =  
−1 1 ha:
0 −1 (sI − A)u = (s − λ)u
(sicché u è anche autovettore di sI − A associato all’autovalore s − λ) e
(si poteva anche considerare u21 = ( 8 −2 −1 −1 ) ), e
T
/ σ(A) esistono sia (sI − A)−1 che (s − λ)−1 :
poiché s ∈
   
2 0 1
(sI − A)−1 u = u.
0 1 s−λ
1
u2 =   , 1
u2 =  
0 0
0 0 Si noti che (s − λ)−1 è proprio un autovalore di (sI − A)−1 in quanto:

1 (sI − A)−1   (sI − A)−1


(si poteva anche considerare u22 = ( 1 1 0
T
0 ) ). Dunque: (sI−A)−1 − I= (s−λ)I−(sI−A) = (A−λI)
s−λ s−λ s−λ
ha rango minore di n.
   
3 2 2 0 0 0 −1 −1
 −1 0 0 1 0 0 0 −1 
T −1 =  ⇒ T =
1 3 5 
. Problema 1.1. Dimostrare che l’insieme delle matrici m × n ad elementi
−1 1 0 0 2
0
2 2 appartenenti ad un corpo F , forma uno spazio vettoriale su F rispetto alle
0 −1 0 0 0 1 −1 −1 operazioni di addizione tra matrici e di moltiplicazione di una matrice per
uno scalare.
72 1. Introduzione alla teoria degli spazi lineari 1.14. Esercizi e problemi 73

Problema 1.2. Dimostrare che l’insieme di funzioni f : IR → IR continue Problema 1.11. Nello spazio vettoriale costituito dai polinomi a coeffici-

a tratti forma uno spazio vettoriale su IR (ed è un esempio di spazio fun- enti complessi di grado qualsiasi (sul campo C e con le usuali operazioni
zionale) con le usuali operazioni di somma e moltiplicazione. di somma e moltiplicazione), si trovi la rappresentazione dell’operatore
derivazione rispetto alla base {tk , k = 1, 2, · · ·}. Si noti che la matrice
Problema 1.3. Definire delle operazioni sull’insieme {0, 1} in modo che cosı̀ ottenuta ha dimensioni infinite.
abbia la struttura di un corpo. Verificare quindi che esso forma uno spazio
vettoriale su se stesso. Usare le usuali operazioni di somma e moltipli- Problema 1.12. Si determini una rappresentazione dell’operatore f : ( IR3 ,
cazione. IR) → ( IR2 , IR) che associa ad ogni terna di numeri reali la coppia formata
dal primo e dal terzo di tali numeri.
Problema 1.4. Si dimostri che l’insieme dei polinomi a coefficienti comp-
lessi di grado non maggiore di n forma uno spazio vettoriale di dimensione
 Problema 1.13. Si determini la rappresentazione dell’operatore che asso-
n + 1 su C con le usuali operazioni di somma e moltiplicazione. cia ad una n–pla di numeri complessi un polinomio di grado n − 1 avente
 gli elementi di tale n–pla come coefficienti.
Problema 1.5. Si dimostri che lo spazio vettoriale (C, IR) con le usuali
operazioni di somma e moltiplicazione ha dimensione due.
Problema 1.14. Si determini la rappresentazione dell’operatore che asso-
Problema 1.6. Verificare che l’insieme delle funzioni continue periodiche cia ad una n–pla di numeri reali la loro somma.
di periodo T assegnato, con le usuali operazioni di somma e moltiplicazione,
forma uno spazio vettoriale di dimensione infinita su IR. Dimostrare che Problema 1.15. L’operatore che associa ad una n–pla di numeri complessi
  un polinomio avente tali numeri come radici è lineare? Perché?
una base per tale spazio è costituita dalle funzioni ϕn (t) = sen n 2π t+ϕn ,
T
n = 1, 2, · · ·.

Problema 1.7. Si determinino autovalori ed autovettori dell’operatore lin-


eare che associa ad ogni punto del piano il suo simmetrico rispetto ad una
1
prefissata retta r per l’origine. Scelta come base quella canonica, sia
1
il vettore che individua r. Si determini, rispetto a tale base, la rappresen-
tazione dell’operatore.

Problema 1.8. Si determinino tutte le possibili rappresentazioni dell’operatore


identità.

Problema 1.9. Si determinino autovalori ed autovettori dell’operatore che


ad ogni ellisse di centro nell’origine e semiassi a e b fa corrispondere l’ellisse
di centro nell’origine e semiassi b ed a.

Problema 1.10. Nello spazio vettoriale del problema 1.4, con n = 2, si


determinino autovalori, autovettori e rappresentazioni rispetto alla base
{t2 , t, 1} dell’operatore che ad ogni polinomio associa la sua derivata. Si
determinino anche immagini e nucleo di tale operatore e si verifichino i
risultati sulla rappresentazione trovata. Si estenda quanto detto per n
qualsiasi.
2. Rappresentazioni con lo stato
di sistemi da diverse discipline

Le tecniche di analisi delle proprietà di un sistema astratto orientato,


tipiche della Teoria dei Sistemi, si basano sulla conoscenza di un mod-
ello matematico che descriva adeguatamente il comportamento del sistema
stesso. L’adeguatezza di un modello dipende dall’utilizzo che se ne vuol fare,
e rappresenta un compromesso tra una completa ed accurata descrizione dei
fenomeni, principi fisici o leggi matematiche che caratterizzano il sistema, e
la sinteticità ed approssimazione necessarie perché il modello risulti adatto
dal punto di vista computazionale e dal punto di vista dell’applicabilità
delle tecniche di analisi. Il vantaggio di usare un modello è che si possono
utilizzare tecniche basate sulla matematica per l’analisi delle proprietà che
sono del sistema.
Un modello matematico deve quindi riassumere le caratteristiche salienti
del fenomeno fisico che rappresenta. La descrizione di un sistema mediante
un modello sfrutta le relazioni matematiche che si possono stabilire tra le
grandezze scelte per fornire una descrizione del comportamento del sistema
stesso.
Pur dovendo osservare che un modello matematico è sempre una rap-
presentazione approssimata della realtà, essendo complessi i fenomeni che
governano il comportamento nel tempo dei sistemi reali, con riferimento
alle diverse esigenze possiamo distinguere tra modelli orientati alla com-
prensione e modelli orientati alla riproduzione “in vitro” del sistema reale
(simulazione).
La prima delle esigenze citate dovrà condurre alla formulazione di un
76 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.1. Modelli astratti di procedure di calcolo 77

modello che catturi le principali caratteristiche del fenomeno e ben ne rap- 2.1. Modelli astratti di procedure di calcolo
presenti, da un punto di vista complessivo, i principi di funzionamento;
si tratta di un modello spesso semplice, adatto a fornire una descrizione
2.1.a. Modello di un algoritmo di integrazione
concettuale qualitativa; l’applicazione ad esso delle tecniche della Teoria
dei Sistemi potrà fornire indicazioni di carattere concettuale sul compor-
tamento migliorando, eventualmente, il livello di conoscenza del settore Si consideri una semplice procedura di calcolo utilizzata per le op-
specifico. La citata semplicità del modello si concreta in una descrizione erazioni di integrazione o di derivazione di funzioni continue, usualmente
mdiante un numero ridotto di equazioni differenziali lineari alle derivate denominate integrazione numerica e derivazione numerica.
totali. La seconda esigenza citata, particolarmente utile quando si devono Per approssimare l’integrale o la derivata di una funzione a tempo con-
verificare delle proprietà di un sistema complesso o costoso ovvero di cui non tinuo u(t) è necessario convertirla in una forma consistente con le operazioni
si conosce ancora l’affidabilità in termini di sicurezza, comporta la messa di calcolo numerico. Si suppone dunque di campionarla con un intervallo
a punto di un modello fedele della realtà. Le simulazioni su un modello di campionamento T costante. Questa operazione viene effettuata da un
matematico sono più vantaggiose della costruzione ed utilizzo di un pro- dispositivo che prende il nome di convertitore analogico–digitale. Si ha cosı̀
totipo del sistema, almeno nella prima fase di realizzazione del prototipo una sequenza di campioni, corrispondenti ai valori di u(t) negli istanti di
fisico. Il modello in tal caso deve ovviamente essere sufficientemente ac- campionamento t = kT , k = 0, 1, 2, · · ·.
curato e completo da inglobare al meglio le caratteristiche ed i fenomeni Si vuole ora definire un sistema a tempo discreto che abbia come in-
che lo definiscono. Questo tipo di modello ovviamente ha lo svantaggio di gresso la sequenza di campioni e che fornisca in uscita una sequenza di nu-
essere solitamente piuttosto complicato. Consta, molto spesso, di un sis- meri che siano una buona approssimazione dell’integrale (o della derivata)
tema di equazioni differenziali non lineari ed eventualmente alle derivate della funzione u(t) negli istanti di campionamento. L’accuratezza di tale
parziali; ciò che corrisponde nel caso di un sistema fisico a non ignorare che approssimazione dipenderà dall’ampiezza dell’intervallo di campionamento
i parametri dell’oggetto allo studio sono distribuiti nello spazio. T.
Per quanto riguarda l’integrazione, si supponga che si voglia calcolare:
L’interesse nell’ adozione della rappresentazione implicita con lo stato
 t
risiede nel fatto che nella quasi totalità dei casi essa è direttamente associa-
bile ad un assegnato sistema fisico. Il problema modellistico si pone nelle y(t) = u(τ ) dτ.
0
due fasi di
Supponendo di fissare T e posto t = kT :
a) scelta delle variabili da assumere come stato del sistema;  kT −T  kT
y(kT ) = u(τ ) dτ + u(τ ) dτ
0 kT −T
b) derivazione delle equazioni che rappresentano le dinamiche del fenomeno  kT
(2.1)
a partire dalla formulazione nelle variabili di stato delle leggi che gov- = y(kT − T ) + u(τ ) dτ, k = 1, 2, · · · .
kT −T
ernano il fenomeno.

Nel presente capitolo vengono presentati alcuni modelli matematici .u (kT )


u (t)
derivati da diversi campi di interesse. Nella determinazione dei modelli il
lettore potrà notare come importanti sono la scelta delle variabili di stato
e la scrittura delle equazioni che ne descrivono il comportamento. Inoltre
potrà osservare come, nella grande maggioranza dei casi, si può pervenire kT - T kT t
ad una rappresentazione con lo stato lineare, stazionaria e a dimensione
finita. Figura 2.1 – Approssimazione dell’integrale
Figura 2.3 – Segnali trasmessi e ricevuti da un radar
Tali segnali possono essere cosı̀ captati, indeboliti a causa dell’assorbimento
da parte dell’aeromobile e della riflessione non direzionale. In condizioni ide-
ali il segnale che si ripresenta in ricezione ha una forma impulsiva (figura 2.3).
Se ∆t è l’intervallo di tempo intercorso tra l’emissione del segnale incidente
e la ricezione di quello riflesso ne segue che la distanza radar–aeromobile è
(in metri):
∆t
u=c .
2
Nella realtà, però, il segnale riflesso ha una forma diversa da quella impul-
siva, che dipende dalle caratteristiche dell’aeromobile, dai livelli di rumore
presenti, etc., e non è possibile valutare in modo diretto l’intervallo di tempo
∆t. È quindi necessario mettere a punto un sistema che fornisca una stima,
∆t, di ∆t. Indicando con ū e ∆u rispettivamente la distanza stimata e
l’errore di stima, si ha:
∆t (∆t − ∆t)
ū = c , ∆u = c .
2 2
80 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.2. Modelli demografici e biologici 81

Per ottenere una buona stima di ∆t vengono fatte periodiche rilevazioni e introducendo come variabili di stato:
trasmettendo più impulsi distanti tra loro T secondi. Le misure u(0), u(1),
u(2), · · · cosı̀ effettuate vengono fornite in ingresso ad una procedura di x1 (k) = y(k − 1)
calcolo che fornisce una stima della distanza con la precisione desiderata. x2 (k) = ẏ(k − 1)
Poiché inoltre il sistema radar deve essere in grado di inseguire oggetti
che si muovono ad alta velocità è necessario che a partire dalle rilevazioni e sostituendo nelle (2.6) e (2.3), si ottiene:
suddette, la procedura di calcolo fornisca, non solo una buona stima della
posizione presente ma anche una buona stima della velocità e posizione x1 (k + 1) = (1 − α)x1 (k) + T (1 − α)x2 (k) + αu(k)
futura.
È possibile realizzare un sistema a tempo discreto che implementi una β β
x2 (k + 1) = − x1 (k) + (1 − β)x2 (k) + u(k)
tale procedura. Si indichi a tal fine u(k) la misura, affetta da rumore, T T
della posizione dell’oggetto dedotta dal k–esimo impulso riflesso, y(k) la
stima della posizione al k–esimo impulso, dopo l’elaborazione, ẏ(k) la stima yp (k) = x1 (k) + T x2 (k).
della velocità dell’oggetto al k–esimo impulso, dopo l’elaborazione, yp (k) la
predizione della posizione al k–esimo impulso dedotto dall’impulso (k − 1)– Esse costituiscono una rappresentazione con lo stato, lineare, stazionaria,
esimo, dopo l’elaborazione. a dimensione finita, di un sistema a tempo discreto della forma:
Se sono disponibili i valori stimati della posizione e della velocità al
(k − 1)–esimo impulso radar, una predizione plausibile della posizione è: x(t + 1) = Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)
yp (k) = y(k − 1) + T ẏ(k − 1). (2.3)
dove:    
La successiva misura della posizione u(k) rende poi possibile la stima sec- 1−α T (1 − α) α
ondo la seguente relazione: A= β , B =  β ,
− 1−β
T T
" #
y(k) = yp (k) + α u(k) − yp (k) , (2.4)    
1−α T (1 − α) α
   
nella quale si tiene conto dell’errore rilevato u(k)−yp (k), ed α è una costante 
C = −β  D =  β .
1 − β , T
positiva. La stima della velocità, infine, è data dalla stima: T
1 T 0
β" #
ẏ(k) = ẏ(k − 1) + u(k) − yp (k) , (2.5)
T
2.2. Modelli demografici e biologici
dove T è il periodo di trasmissione degli impulsi e β > 0.
Le relazioni (2.3)–(2.5) sono note come equazioni di inseguimento α–β
2.2.a. Modello di evoluzione per classi di età
(α–β tracker) e descrivono una procedura tipica nell’inseguimento radar. I
parametri α e β possono essere selezionati in modo da garantire risposte
I modelli di popolazione sono usati nella pianificazione, nell’analisi e
con diverse caratteristiche. Sostituendo la (2.3) nelle (2.4) e (2.5) si ottiene,
nella previsione della struttura demografica della popolazione di una certa
con semplici passaggi:
area ad un certo tempo prefissato, a partire da una distribuzione nota
di tale popolazione, sulla base di determinate assunzioni sul numero delle
y(k) = (1 − α)y(k − 1) + T (1 − α)ẏ(k − 1) + αu(k) nascite e di decessi che avranno luogo durante ciascun periodo, e degli effetti
(2.6)
ẏ(k) = −βk y(k − 1) + (1 − β)ẏ(k − 1) + βk u(k) dell’emigrazione sull’area considerata.
82 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.2. Modelli demografici e biologici 83

Verrà qui derivato un modello fondamentale di sopravvivenza, basato ove x è un vettore di dimensione (n × 1) e:
sul concetto di classi di età. Tale modello, sviluppato per analizzare l’aumento
 
naturale della popolazione, può essere generalizzato in modo da tenere conto 0 0 b3 (t) · · · 0 0
degli effetti della migrazione e delle interazioni tra aree diverse.  s1 (t) 0 0 ··· 0 0
 
La popolazione viene suddivisa in n classi, ciascuna costituita da indi-  0 s2 (t) 0 ··· 0 0
vidui con età compresa nell’intervallo [k∆t, (k + 1)∆t), k = 0, 1, · · · , n − 1.  . .. 
A(t) =  . .. .. .. .. ,
 . . . . . .
Se ad esempio ∆t = 10 anni, alla prima classe appartengono individui di  
età tra 0 e 9 anni, alla seconda quelli di età tra 10 e 19 anni, e cosı̀ via.  0 0 0
..
. 0 0
Posto T = ∆t, indicato con k il periodo [kT, (k + 1)T ) e: 0 0 0 · · · sn−1 (t) 0
 
xi (kT ) = numero di persone nella classe d’età i, all’inizio del periodo k; C = 1 1 1 ··· 1 1 .

bi (k) = tasso di natalità della classe d’età i nel periodo k;


Nella matrice A(t) si è messo in evidenza il fatto che gli indici di
si (k) = tasso di sopravvivenza della classe d’età i nel periodo k; natalità sono in genere nulli per le prime ed ultime classi di età. Si noti che
y(kT ) = popolazione presente all’inizio del periodo k; il modello è non stazionario se si assume che la natalità e la sopravvivenza
variano da periodo a periodo.
valgono le seguenti relazioni di bilancio: Il modello (2.8) consente, a partire dalla distribuzione della popolazione
all’istante t0 , ossia dallo stato del sistema x(t0 ), di valutare la crescita una
  
n volta disponibili i tassi di natalità e sopravvivenza.
x1 (k + 1)T = b1 (k)x1 (kT ) + · · · + bn (k)xn (kT ) = bi (k)xi (kT ) Nei modelli demografici utilizzati per previsioni a breve scadenza, sud-
 
i=1 dividendo il periodo di tempo in sottointervalli T = ∆t ed indicando con
δ
x2 (k + 1)T = s1 (k)x1 (kT ) pi (kT ) il tasso di transizione dalla classe i alla classe i + 1 nel periodo
 
x3 (k + 1)T = s2 (k)x2 (kT ) (2.7) [kT, (k + 1)T ), si hanno le relazioni di bilancio:
..    
 
. x1 (k + 1)T = s1 (kT ) − p1 (kT ) + b1 (kT ) x1 (kT ) + · · · + bn (k)xn (kT )
xn (k + 1)T = sn−1 (k)xn−1 (kT ).    
x2 (k + 1)T = p1 (kT )x1 (kT ) + s2 (k) − p2 (kT ) x2 (kT )
Si noti che al tempo (k + 1)T gli individui nella prima classe d’età sono ..
i nuovi nati nel periodo [kT, (k + 1)T ), mentre per i = 2, · · · , n gli individui . (2.9)
nell’i–esima classe d’età sono quelli sopravvissuti che appartenevano alla    
classe i − 1 nel periodo precedente. Si noti inoltre che i coefficienti bi non xn−1 (k + 1)T = pn−2 (kT )xn−2 (kT ) + sn−1 (kT ) − pn−1 (kT ) xn−1 (kT )
 
nulli sono quelli delle classi intermedie, per cui ad esempio b1 (t) = b2 (t) = 0, xn (k + 1)T = pn−1 (kT )xn−1 (kT ) + sn (kT )xn (kT )
bn−2 (t) = bn−1 (t) = bn (t) = 0. Infine:
y(kT ) = x1 (kT ) + · · · + xn (kT ).
y(kT ) = x1 (kT ) + · · · + xn (kT ).
Rispetto alle equazioni (2.7), si tiene conto qui del fatto che solo la frazione
pi (kT )xi (kT ) degli individui della classe i al tempo kT sono nella classe
Si ottiene cosı̀ la rappresentazione con lo stato lineare di un sistema a tempo d’età i + 1 al tempo (k + 1)T .
discreto autonomo, ossia privo di ingresso, del tipo: Se il modello rappresentato dalle (2.9) viene utilizzato per previsioni ed
analisi su un periodo breve, è giustificato assumere bi (kT ), si (kT ), pi (kT )
x(t + 1) = A(t)x(t) costanti. In tal caso si ha una rappresentazione del sistema lineare, a di-
(2.8)
y(t) = Cx(t) mensione finita, a tempo discreto, in cui la matrice dinamica è costante e
84 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.2. Modelli demografici e biologici 85

pari a: La variazione della densità della popolazione risulta, per quanto detto,
dipendente dalla densità stessa x(t), secondo una funzione non lineare:
 
s1 − p1 b2 b3 ··· 0 0  
 p1 s2 − p2 0 ··· 0 0  ẋ(t) = f x(t) ,
 
A= 0 p2 s3 − p3 ··· 0 0 ,
 
 .. .. .. ..
.
.. ..  che ovviamente dovrà essere tale che f (0) = 0 in quanto se la densità è
. . . . . nulla non può esservi alcuna variazione della popolazione. Sviluppando in
0 0 0 · · · pn−1 sn serie di Taylor la funzione f si ottiene:
in cui si è supposto che b1 = bn−1 = bn = 0.  
ẋ(t) = ax(t) + f1 x(t)
Nei semplici modelli proposti si possono tenere in conto gli effetti della
migrazione aggiungendo nei bilanci un termine che esprime la migrazione in cui il parametro a > 0 viene detto velocità o tasso intrinseco di crescita,
netta della popolazione per ciascuna classe d’età i tra kT e (k + 1)T . Indi- che si avrebbe in condizioni di scarso affollamento e dunque assenza di
cando con u(kT ) il vettore (n × 1) della migrazione netta per classi d’età, competizione. In effetti per x(t) sufficientemente piccolo tale relazione si
si otterrebbe cosı̀ una rappresentazione con lo stato lineare, a dimensione riduce ad una crescita di tipo esponenziale, ossia:
finita, stazionaria, a tempo discreto:
ẋ(t) = ax(t)
x(t + 1) = A(t)x(t) + u(t)
y(t) = Cx(t). che esprime come nell’intervallo di tempo dt ogni individuo dà origine ad
ax(t)dt nuovi individui. Ma per x(t) piccolo la probabilità di interazione
Nota la distribuzione iniziale x(t0 ) della popolazione in classi d’età e tra individui, e quindi la competizione, è bassa e dunque trascurabile.
l’andamento della migrazione netta per classi d’età u(t), è possibile valutare Per specificare la funzione f1 (x) si devono considerare i meccanismi
l’evoluzione della popolazione stessa. di competizione, che possono essere fondamentalmente distinti in compe-
tizione per interferenza, in cui gli individui competono direttamente per
la difesa dei territori e, in ultima analisi, delle risorse, e competizione per
2.2.b. Dinamica della crescita di una popolazione sfruttamento, in cui gli individui competono tra loro solo indirettamente,
in quanto le risorse sono limitate e l’utilizzo di esse da parte di un individuo
Nella crescita di una popolazione si nota sperimentalmente che, nella è a scapito di altri. Per semplicità ci riferiremo al solo caso di competizione
maggior parte dei casi, l’influenza reciproca di individui facenti parte della per interferenza.
stessa popolazione è sensibile ed è spesso negativa, ossia contribuisce a Nella competizione per interferenza, in cui si ha un contatto diretto
diminuire la capacità di sopravvivenza e di riproduzione del singolo ele- tra gli individui, si può assumere un movimento casuale degli individui e
mento. Infatti all’aumentare della popolazione diminuiscono le risorse nec- che ogni contatto determini una diminuzione della probabilità di soprav-
essarie all’individuo per la sopravvivenza e la probabilità di accoppiamento, vivenza e di riproduzione. Infatti tali scontri tra individui hanno come
in quanto aumenta la competizione interspecifica all’interno del gruppo. conseguenza che essi hanno meno tempo da dedicare alla ricerca del cibo
Tale competizione interspecifica è ovviamente tanto maggiore quanto mag- e alla riproduzione. L’ipotesi di movimento casuale implica che la proba-
giore è il numero di individui in una certa area o volume, ossia quanto bilità di incontro è proporzionale al quadrato della densità x(t), in analogia
maggiore è la densità. alla teoria cinetica dei gas. Supponendo poi trascurabile la probabilità di
Nelle popolazioni in cui esiste una struttura sociale si nota inoltre incontro tra più di due individui, allora si ha:
che, per basse densità, la crescita aumenta all’aumentare della densità, in  
quanto si ha un aumento della natalità e della probabilità di sopravvivenza. f1 x(t) ∼ = −bx2 (t),
Quando però la densità aumenta oltre un certo valore, si inizia a sentire
l’effetto dovuto alla competizione interspecifica, che predomina sull’effetto con b > 0 che tiene conto della mobilità di ciascun individuo e del danno
sociale per densità elevate. prodotto da ogni incontro.
86 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.2. Modelli demografici e biologici 87

Si ottiene cosı̀ la cosiddetta equazione logistica: Uno dei più noti modelli di interazione tra coppie di specie è il modello
preda–predatore, la cui prima formulazione è dovuta al biofisico ameri-
ẋ(t) = ax(t) − bx2 (t) cano Lotka (1924) e poi indipendentemente riformulato e generalizzato dal
matematico italiano Volterra (1926).
dovuta allo statistico belga Verhulst (1838) e riscoperta da Pearl e Reed Questo modello presuppone che sia la preda che il predatore siano
(1920). Questa è una equazione di Bernouilli, risolvibile ponendo z = 1/x, isolati e che crescano esponenzialmente, con un tasso intrinseco di crescita
trovando cosı̀ la soluzione: positivo per la preda e negativo per il predatore, ossia in condizioni di
ax0 separazione delle specie:
x(t) = . ẋ1 = a1 x1
−a(t−t0 )
(a − bx0 )e + bx0
ẋ2 = − a2 x2
Essa per t → ∞ tende asintoticamente al valore k = a , detto capacità
b ove x1 , x2 sono le densità delle due popolazioni e a1 > 0, a2 > 0. Quando le
portante della specie.
due specie vengono a contatto, i predatori attaccano le prede e un certo nu-
Mettendo esplicitamente in evidenza la capacità portante della specie
mero di queste ultime moriranno. Supponendo, come nella teoria cinetica
l’equazione logistica si riscrive:
dei gas, che le specie si muovono in modo arbitrario e gli scontri sono casuali
e che quindi la probabilità di scontro è proporzionale al prodotto delle den-
1
ẋ(t) = ax(t) 1 − x(t) sità, le prede diminuiranno e i predatori aumenteranno proporzionalmente
k a x1 x2 secondo un coefficiente b > 0:
che è l’equazione che descrive la dinamica di crescita di una popolazione ẋ1 = a1 x1 − bx1 x2
sotto le ipotesi di competizione interspecifica. Si noti che essa e l’equazione (2.10)
ẋ2 = − a2 x2 + ηbx1 x2
y(t) = x(t) costituiscono un esempio di rappresentazione non lineare, a
dimensione finita, stazionaria, regolare, a tempo continuo. ove 0 < η < 1 rappresenta una efficienza di conversione della biomassa delle
prede in quella dei predatori.
Oltre alle ipotesi precedenti queste equazioni valgono quando il tempo
2.2.c. Modello di interazione preda–predatore
dedicato dal predatore alla caccia e al consumo della preda siano trascurabili
e assumendo che il predatore sia limitato solo dal suo cibo, ossia dalla preda.
Lo scopo dei modelli biologici è quello di analizzare le relazioni che
Per essere più aderenti alla realtà, rimuovendo l’ipotesi di crescita espo-
intercorrono tra più specie viventi che caratterizzano un certo sistema eco-
nenziale delle prede e sostituendola con quella di crescita di tipo logistico,
logico. Nella gran parte dei casi le specie interagenti sono numerose e le
si hanno le equazioni:
modalità di interazione sono complesse. Questo rende difficile sia la for-
mulazione del modello matematico che la sua analisi. Queste difficoltà, 1
assieme alle molte approssimazioni, indispensabili per modellare un eco- ẋ1 = a1 x1 1 − x1 − bx1 x2
k (2.11)
sistema complesso, hanno condotto a considerare interazioni tra coppie di
ẋ2 = − a2 x2 + ηbx1 x2
specie in condizioni costanti di clima, densità di altre specie, etc. Le inter-
azioni possibili tra coppie di specie sono: con k la capacità portante delle prede in assenza di predatori.
a. competizione (−, −): ogni specie produce un effetto inibitorio sulla Se poi si considera che il predatore ha una capacità limitata di mangiare
crescita delle altre; prede, e che il tempo dedicato alla sua nutrizione viene speso in tempo per
b. commensalismo (+, +): ogni specie produce un effetto acceleratore la ricerca e in tempo per la cattura, l’ingestione e la digestione della preda,
sulla crescita delle altre; attività mai contemporanee, si ha che il numero di prede divorate non è
bx1 x2 , ossia non è proporzionale a x2 secondo il termine bx1 . Il numero di
c. predazione (+, −): una specie, il predatore, produce un effetto inibito- prede incontrate nel tempo tr dedicato alla ricerca è:
rio sulla crescita dell’altra, la preda, che a sua volta produce un effetto
acceleratore sulla crescita del predatore. n = tr bx1 .
88 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.3. Modello economico di Leontief 89

Se poi tc è il tempo necessario per catturare, mangiare e digerire una preda, la quantità del bene i prodotto da Ii e destinata al consumatore vale:
il tempo totale dedicato a questa attività vale:

n 
n
qi = xi − xij = xi − aij xj , i = 1, · · · , n.
tct = tc n = tc tr bx1
j=1 j=1

e dunque il tempo totale dedicato al nutrimento è tt = tr + tct ed il numero Si noti che ovviamente xii = 0 e dunque aii = 0.
di prede divorate nell’unità di tempo da ciascun predatore vale: Sia yi la domanda di consumo del bene prodotto da Ii , supposta non
negativa. Se il sistema economico non ha accumuli di scorte, allora la
n bx1 domanda degli n beni prodotti dalle industrie eguaglia la produzione degli
= .
tt 1 + tc bx1 stessi. Dunque sotto l’ipotesi di assenza di accumuli si ha qi = yi e si ottiene
cosı̀ il modello “statico” di Leontief:
Il livello di saturazione è l’inverso del tempo tc . Pertanto le equazioni di
interazione preda–predatore diventano: (I − A)x = y (2.13)
ove I è la matrice identità n × n e:
1 bx1 x2
ẋ1 = a1 x1 1 − x1 −  
k 1 + tc bx1 0 a12 · · · a1n    
(2.12) x1 y1
bx1 x2  a21 0 · · · a2n   
ẋ2 = − a2 x2 + η . A= ..  ,
.
x =  ..  , y =  ...  .
1 + tc bx1  ... ..
.
..
. . 
xn yn
an1 an2 · · · 0
Si noti che per tc → 0 le (2.12) forniscono nuovamente le (2.11).
Tutti questi modelli sono non lineari a causa della presenza di termini I vettori x e y sono detti vettore dei prodotti e vettore dei consumi, mentre
del tipo x1 x2 , x21 e bx1 x2 . Se ad esempio come uscita si prendono le A viene detta matrice di produzione.
1 + tc bx1
due densità x1 e x2 : Le soluzioni della (2.13) nell’incognita x, a componenti non negative,

1 0 x1 è detta soluzione di equilibrio del modello.
y= , Supponiamo che ogni industria voglia adeguare la propria produzione
0 1 x2
alla domanda del mercato. L’incremento della produzione ẋi potrà allora
si ha un altro esempio di rappresentazione non lineare, a dimensione finita, supporsi, come spesso accade nella realtà, proporzionale alla differenza tra
stazionaria, regolare, a tempo continuo. la domanda complessiva del bene, che vale

n 
n
yi + xij = yi + aij xj
2.3. Modello economico di Leontief j=1 j=1

Il modello di W. Leontief rappresenta una formulazione della teoria e la produzione stessa, che vale xi . La produzione dovrà aumentare se tale
dell’equilibrio economico. Si consideri un sistema economico in cui i beni differenza è positiva, e dovrà diminuire se è negativa, ossia posto ki > 0:
(beni materiali e servizi) vengono prodotti da n industrie I1 , · · ·, In . Siano  

n
xi , i = 1, · · · , n, la quantità del bene i–esimo prodotta dall’industria Ii ẋi = ki yi + aij xj − xi , i = 1, · · · , n.
nell’unità di tempo ed xij , i, j = 1, · · · , n, la quantità del bene i–esimo j=1
prodotto da Ii ed utilizzato da Ij per la produzione del bene j–esimo. Sotto
l’ipotesi che xij sia proporzionale alla quantità xj secondo una costante: Si ha cosı̀ l’equazione che esprime il legame dinamico tra i livelli di consumo
e di produzione:
xij = aij xj , i, j = 1, · · · , n, ẋ = K(A − I)x + Ky,
90 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.4. Modelli di sistemi elettrici 91

con K = diag {k1 , · · · , kn }. L


Si voglia ora mettere in relazione la domanda di consumo yi con i
livelli di tassazione, sotto le ipotesi che l’incremento di produzione ẋi sia i1 i2
proporzionale secondo una costante ai nuovi investimenti ξi (ossia gli inves- i R1 R2
R3
timenti nei settori j = i non influenzino la produzione del bene i–esimo):
v i3
ẋi = fi ξi , i = 1, · · · , n, C1 C2
ic 1 ic 2

e che gli investimenti ξi siano a loro volta proporzionali ai profitti pi :


Figura 2.4
ξi = gi pi , i = 1, · · · , n.
Si consideri dunque la rete descritta in figura 2.4. Si ricavano cosı̀ le
seguenti equazioni:
Infine si supponga che i profitti ξi siano proporzionali alle vendite, supposte
di
pari alla domanda yi , a meno di una detrazione legata alla tassazione: v − L − R1 i1 − vC 1 = 0
dt
pi = d i y i − u i , i = 1, · · · , n. vC 1 + R1 i1 − R2 i2 − vC 2 = 0
vC 1 + R3 i3 − vC 2 = 0
Ponendo F = diag {f1 , · · · , fn }, G = diag {p1 , · · · , pn }, D = diag {d1 , i1 + i2 = i
 T
· · · , dn }, u = u1 · · · un , si ha dunque: i1 + i3 = iC1 = C1 v̇C 1
i2 = i3 + iC2 = i3 + C2 v̇C 2 .
ẋ = F G(Dy − u). Pertanto:
vC 1 − vC 2
i1 = + C1 v̇C 1 ,
Ricordandosi del modello statico di Leontief (2.13), si ottiene il seguente vC 2 − vC 1 R3
modello dinamico: i3 = ⇒
R3 vC 2 − vC 1
ẋ = F GD(I − A)x − F Gu i2 = + C2 v̇C 2 ,
R3
y = (I − A)x e dalla prima, seconda e quarta equazione si trova:
che è un ulteriore esempio di rappresentazione lineare, stazionaria, a di- di R1 + R3 R1
L + R1 C1 v̇C 1 = − vC 1 + vC 2 + v
mensione finita, regolare, a tempo continuo. dt R3 R3

R1 C1 v̇C 1 − R2 C2 v̇C 2 = (vC 2 − vC 1 )
R3
2.4. Modelli di sistemi elettrici C1 v̇C 1 + C2 v̇C 2 = i
in cui R̄ = R1 + R2 + R3 . Quindi:
2.4.a. Un semplice circuito elettrico    −1     
di L R1 C1 0 0 − R1 +R3 R1 i 1
 dt      R3 R3      
          
v̇C 1  =  0 R1 C1 −R2 C2    R̄ 
 vC 1  +0 v ,
Le equazioni differenziali che descrivono il comportamento dinamico di      0

− R̄
R3 R3      

una rete elettrica possono essere derivate mediante le leggi di Kirchhoff dei 0 C1 C2 vC 2 0
v̇C 2 1 0 0
nodi e delle maglie.
92 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.4. Modelli di sistemi elettrici 93

(si noti che si tratta dell’inversione di una matrice triangolare a blocchi) da e sono gli elementi in cui l’energia elettromagnetica viene immagazzinata,
cui, posto   ossia sono gli elementi a cui è associata una dinamica.
i
x =  vC 1  , u = v, L
vC 2 i3
i2
e presa come uscita y la tensione ai capi della resistenza R3 : R i1
C v1
y = vC 2 − vC 1 , v

si ottiene la seguente rappresentazione lineare, stazionaria, a dimensione


finita, regolare, a tempo continuo:
Figura 2.5 – Circuito con diodo tunnel
ẋ = Ax + Bu
y = Cx + Du, Per le leggi di Kirchhoff:

ove: i1 = i2 + i3
  v = Ri1 + L
di1
+ vc
R1 R2
− − 1 R1+R3 + R1 R̄ 1 R1 − R1 R̄
 L(R1+R2 ) L R3 L(R1+R2 ) R3 L R3 L(R1+R2 ) R3  dt
 
 R2 1 R̄ 1 R̄  ed inoltre:
A= − , 1
 (R1+R2 )C1 (R1+R2 )C1 R3 (R1+R2 )C1 R3  v̇c = i2
  C
R1 1 R̄ − 1 R̄
(R1+R2 )C2 (R1+R2 )C2 R3 (R1+R2 )C2 R3 i3 = f (v1 ) = f (vc ),
  essendo la tensione v1 ai capi dei diodo pari a vc . Posto x1 = vc , x2 = i1 ,
1
u = v, si ha dunque il modello del circuito:
L
B= 0  , C = ( 0 −1 1 ) , D = 0.
1 
0 ẋ1 = x2 − f (x1 )
C
Si noti infine che questo è un modello del terzo ordine in quanto si hanno 1 
ẋ2 = − x1 − Rx2 + u .
tre elementi con memoria (l’induttanza e le due capacità(2.1) ), ad ognuno dei L
quali rimane associata una variabile di stato.
Considerata come uscita la tensione v1 = vc :

2.4.b. Circuito elettrico con diodo tunnel y = x1

si ottiene una rappresentazione non lineare, stazionaria, a dimensione finita,


Si consideri il seguente circuito elettrico, costituito da una resistenza R,
regolare, a tempo continuo. La non linearità della rappresentazione è poi
un’induttanza L, una capacità C e da un diodo tunnel avente caratteristica
legata alla non linearità del comportamento del diodo, come descritto dalla
i = f (v), essendo i e v l’intensità della corrente e la tensione applicata al
funzione f (v1 ). Inoltre il modello è del secondo ordine in quanto vi sono
diodo. La capacità e l’induttanza sono elementi lineari e tempo–invarianti,
due elementi con memoria (l’induttanza e la capacità), a ciascuno dei quali
(2.1)
Da un punto di vista fisico in una induttanza e in una capacità è possibile infatti im-
corrisponde una variabile di stato.
magazzinare dell’energia elettromagnetica.
94 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.4. Modelli di sistemi elettrici 95

2.4.c. Circuito elettrico oscillante Applicando le leggi di Kirchhoff al circuito di figura 2.6 si ricavano le
equazioni:
Sia dato un circuito con una capacità C ed una induttanza L, lineari, i + i1 + i2 = 0
tempo–invarianti e passivi, ossia tali che C > 0 e L > 0. Vi sia poi un di2
vc − L = 0,
elemento resistivo di tipo attivo, avente cioè una caratteristica corrente– dt
tensione i = f (v) tale che: che assieme alle relazioni:

df 1
f (0) = 0, < 0, lim f (v) = ∞, lim f (v) = −∞. v̇c = i1
dv v→∞ v→−∞ C
i = f (v1 ) = f (vc ),

ove v1 è la tensione ai capi dell’elemento resistivo attivo, forniscono le


i equazioni
f (vc ) + C v̇c + i2 = 0
v1 di2 1
= vc .
dt L
C Derivando la prima rispetto al tempo e sostituendovi la seconda:
i1 i2 v v df (vc )
LC v̈c + L v̇c + vc = 0,
dvc
e considerando il cambio della variabile tempo:
Figura 2.6 – Circuito oscillante 1
τ=√ t,
LC
Una tale caratteristica può essere ottenuta mediante un circuito con due
diodi tunnel. per cui:
dvc √ d2 vc
= LC v̇c , = LC v̈c ,
i dτ dτ 2
si ottiene l’equazione del circuito:
*
d2 vc L df (vc ) dvc
+ + vc = 0.
2 C dvc dτ

Questa è un caso particolare dell’equazione di Liénard:
v
v̈ + f (v)v̇ + g(v) = 0.

Quando poi f (vc ) = −vc + 1 vc3 , si ottiene l’equazione di Van der Pol:
3
*
2
d vc L dvc
Figura 2.7 – Caratteristica i–v + (−1 + vc2 ) + vc = 0,
dτ 2 C dτ
96 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.5. Modelli di sistemi meccanici 97

usata per studiare le oscillazioni nei circuiti con tubi a vuoto. Essa costi- all’inizio dell’analisi di un sistema, l’insieme delle grandezze, le coordinate
tuisce un esempio fondamentale nella teoria non lineare delle oscillazioni. generalizzate, ognuna corrispondente ad un grado di libertà del sistema di
Posto x1 = vc , x2 = v̇c , si ottiene il modello non lineare del circuito corpi rigidi, e che incorpora i vincoli dovuti all’interconnessione dei corpi.
oscillante: Una volta determinate le coordinate generalizzate si scrive l’energia cinetica
ẋ1 = x2 T in funzione di queste coordinate e delle loro derivate, e l’energia poten-
* ziale U in funzione delle coordinate generalizzate (non dipendendo U dalle
L df (x1 )
ẋ2 = − x1 − x2 . derivate delle coordinate generalizzate). Si introduce quindi la funzione
C dx1 Lagrangiano:
Considerata infine un’uscita y = h(x) si ottiene una rappresentazione non
lineare, stazionaria a dimensione finita, regolare, a tempo continuo. La non L = T (q1 , · · · , qN , q̇1 , · · · , q̇N ) − U (q1 , · · · , qN )
linearità della rappresentazione è qui dovuta, oltre che alla non linearità
df (x1 ) e si scrivono le equazioni di Lagrange che forniscono le equazioni del moto:
della funzione , anche alla funzione (da definire) h(x), che in generale
dx1
può essere non lineare. Infine si osservi che il modello è del secondo ordine d ∂L ∂L
− = Qi , i = 1, · · · , N,
a causa della presenza di due elementi con memoria (induttanza e capacità) dt ∂ q̇i ∂qi
e dunque due variabili di stato.
ove Qi sono le forze generalizzate, ossia forze o momenti, esterne al sistema
o non derivabili da potenziale (ad esempio dissipative, come quelle dovute
all’attrito).
2.5. Modelli di sistemi meccanici Si noti che esse sono equazioni differenziali del secondo ordine, e dunque
un sistema con N gradi di libertà è rappresentato da 2N equazioni differen-
2.5.a. Equazioni di Lagrange ziali del primo ordine, ossia il sistema sarà di ordine n = 2N .

Per i sistemi meccanici olonomi con un numero finito N di gradi di lib-


2.5.b. Dinamica di un punto materiale
ertà è ben noto che la conoscenza delle posizioni e velocità in un’istante di
tutti i punti materiali costituenti il sistema è sufficiente alla determinazione
Si consideri un punto materiale di massa m, che si muove su di un piano
del moto. D’altra parte posizioni e velocità possono essere ottenuti in cias-
orizzontale. Esso è vincolato a muoversi circolarmente in quanto connesso
cun istante dalla conoscenza di N parametri (q1 , · · · , qN ) individuanti le
ad un punto fisso da un’asta rigida, che viene fatta ruotare da un momento
posizioni, e di altri N (q̇1 , · · · , q̇N ) individuanti le velocità. In totale dunque
u(t), variabile nel tempo.
sono necessari 2N parametri. Le equazioni della meccanica dei sistemi in
cui compaiono queste 2N funzioni come incognite hanno soluzione unica
per ogni assegnata condizione iniziale, e questo garantisce che l’insieme dei
valori di queste 2N funzioni può essere assunto come stato del sistema a
ciascun istante.
La dinamica di sistemi meccanici complessi può infatti essere espressa
utilizzando le equazioni di Lagrange, derivabili dalle equazioni del moto di
Newton. Esse hanno il pregio di incorporare in sé i vincoli esistenti tra i
corpi (rigidi) costituenti il sistema. In tal modo non occorre procedere alla
eliminazione e/o al calcolo delle forze o dei momenti delle reazioni vincolari.
Inoltre, poiché questo metodo utilizza l’espressione delle energie cinetiche e
potenziali dei singoli corpi, e dunque utilizza quantità scalari, non occorre
servirsi di diagrammi vettoriali, necessari quando si tratta con quantità
vettoriali, come forze e momenti. Per contro è importante determinare, Figura 2.8
Figura 2.9 – Volani con asse flessibile

Facendo riferimento alla figura 2.9, in cui ϑ, ϑ1 , ω, ω1 sono la posizione


e la velocità angolare dei due volani, e ±k(ϑ − ϑ1 ) sono i momenti dovuti
alla flessibilità dell’albero, l’equazione dei momenti per il primo volano si
scrive come:
Mm − k(ϑ − ϑ1 ) − F ω = J ω̇, (2.14)

mentre per il secondo volano:

k(ϑ − ϑ1 ) − F1 ω1 − Cr = J1 ω̇1 . (2.15)

Posto:
x1 = ϑ, x3 = ϑ1 ,
u = Mm ,
x2 = ϑ̇, x4 = ϑ̇1 ,

e prese come uscite ad esempio le due posizioni angolari si ha la seguente


rappresentazione lineare, stazionaria, a dimensione finita, regolare, a tempo
2.5. Modelli di sistemi meccanici 101

È ovvio che si sarebbero potute considerare anche le coordinate carte-


siane, ossia le variabili x ed y per il carrello e x1 ed y1 che individuano la
posizione della massa m, ma solo due di queste quattro risultano indipen-
denti tra loro, a causa delle relazioni cinematiche che esistono tra loro:

x1 = x + lsen ϑ
y1 = y + lcos ϑ = lcos ϑ,

ossia a causa del fatto che il sistema ha due gradi di libertà. In effetti,
anche utilizzando tali variabili, ma considerando i vincoli esistenti, alla
fine la dinamica del sistema deve essere espressa in termini di coordinate
generalizzate.
L’energia cinetica è la somma di quella del carrello:

1
Tc = M ẋ2 ,
2
e di quella del pendolo:

1 1
Tp = m(ẋ21 + ẏ12 ) = m(ẋ2 + 2lẋϑ̇cos ϑ + l2 ϑ̇2 cos 2 ϑ + l2 ϑ̇2 sen 2 ϑ) =
2 2
1
= m(ẋ2 + 2lẋϑ̇cos ϑ + l2 ϑ̇2 ),
2
ossia:
1 1
T (x, ϑ, ẋ, ϑ̇) = Tc + Tp = (M + m)ẋ2 + m(2lẋϑ̇cos ϑ + l2 ϑ̇2 ).
2 2
Nell’espressione ricavata per Tp si noti che compare un termine legato alla
2
rotazione del pendolo e dunque
 al momento d’inerzia Jp = ml della massa
m rispetto alla cerniera 1 2
J ϑ̇ , un altro termine legato alla traslazione
  2 p
di m lungo x 1 mẋ2 , ed infine un termine legato all’accoppiamento delle
2
due dinamiche in cui compare il prodotto delle velocità nelle due “direzioni
generalizzate” (mlẋϑ̇cos ϑ). Quest’ultimo termine esprime proprio come la
dinamica di un componente del sistema influenza la dinamica dell’altro.
Si noti come scrivendo l’energia Tp direttamente in termini di variabili la-
grangiane si sarebbe potuto facilmente dimenticare di scrivere il termine di
accoppiamento.
Poiché si suppone presente la sola forza peso, preso come riferimento
il baricentro del carrello:
Figura 2.10 – Pendolo invertito su carrello Uc = Urif = 0,
102 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.5. Modelli di sistemi meccanici 103

l’energia potenziale del pendolo vale:


Up = mglcos ϑ.
.
x1 
x 1= x

Pertanto:
U (x, ϑ) = Uc + Up = mglcos ϑ.
1
Se il pendolo è rivolto verso il basso e l’angolo ϑ viene misurato a .
partire dalla posizione di riposo, in Up , e dunque in U , compare un segno
M +
x2  x2 = x
.
+
negativo: −mglcos ϑ. ml +
u 1= f - y 1 = x1
Dunque la funzione lagrangiana ha l’espressione: MJ p
mg
1 1 -
L = T (x, ϑ, ẋ, ϑ̇) − U (x, ϑ) = (M + m)ẋ2 + Jp ϑ̇2 + mlẋϑ̇cos ϑ − mglcos ϑ, u 2= τ M
2 2
.
x3 
x3 = ϑ
y 2= x3
e le equazioni del moto sono:

d ∂L ∂L d  
− = (M + m)ẋ + mlϑ̇cos ϑ − 0 = f
dt ∂ ẋ ∂x dt
ml
d ∂L ∂L d   -
. .
− = Jp ϑ̇ + mlẋcos ϑ + MJ p +
x4  x4=ϑ
dt ∂ ϑ̇ ∂ϑ dt  
+
+
− − mlẋϑ̇sen ϑ + mglsen ϑ = τ M+ m
MJ p mgl
(M+m)
essendo f e τ rispettivamente la forza agente sul carrello nella direzione MJ p
della rotaia e il momento applicato sulla cerniera del pendolo. Dunque:
(M + m)ẍ + mlcos ϑ ϑ̈ − mlsen ϑ ϑ̇2 = f
Figura 2.11 – Schema a blocchi del pendolo invertito linearizzato
mlcos ϑ ẍ + Jp ϑ̈ − mglsen ϑ = τ.
Le equazioni sono non lineari sia per la presenza di prodotti o potenze
di variabili che per la presenza di funzioni trascendenti. Se però il pendolo
è prossimo al punto di equilibrio corrispondente a ϑ = 0, in quanto gli e quindi:
spostamenti sono piccoli oppure perché si ha un sistema di controllo che fa
rimanere il pendolo prossimo a tale posizione, è possibile fare le approssi- mg 1 ml
mazioni: ẍ = − ϑ+ f−
τ
sen ϑ ∼
= ϑ, cos ϑ ∼
= 1. M M
M Jp
(2.16)
mglml M +m
Un’altra approssimazione, comune ma che a priori non ha una vera gius- ϑ̈ = (M + m) ϑ− f+ τ.
tificazione (se non che a posteriori si riconosce accettabile), è ritenere che M Jp M Jp M Jp
anche la velocità angolare ϑ̇ sia piccola. A maggior ragione lo sarà il suo
quadrato: ϑ̇2 ∼
= 0. Le equazioni del moto si semplificano quindi come segue:
f
Posto allora x1 = x, x2 = ẋ, x3 = ϑ, x4 = ϑ̇, u = , e prendendo
τ
(M + m)ẍ + mlϑ̈ = f come grandezze misurate ad esempio la posizione x e l’angolo ϑ, si ha la
mlẍ + Jp ϑ̈ − mglϑ = τ, seguente rappresentazione differenziale lineare, stazionaria, a dimensione
104 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.6. Sistemi elettro–meccanici 105

finita, regolare, a tempo continuo: Poiché poi le spire del rotore si muovono in un campo magnetico, e dunque
sono sede di fenomeni di induzione elettromagnetica(2.4) , nel circuito d’armatura
   
0 1 0 0 0 0 si deve tenere conto di una forza controelettromotrice indotta fc , che si op-
0 0 −
mg
0  1 − ml  pone alla rotazione e che può ritenersi proporzionale al prodotto tra flusso
 M   M M Jp 
ẋ =  + u di eccitazione Φe (qui supposto costante) e velocità angolare di rotazione
0 0 0 1  0 0  ω:
mgl ml M +m
0 0 (M + m)
M Jp
0 − fc = k̄2 Φe ω = k2 ω. (2.18)
M Jp M Jp

y=
1 0 0 0
x. Essendo pe = ia fc = k2 ωMm la potenza elettrica (prodotto della forza con-
0 0 1 0 k1
troelettromotrice indotta per la corrente d’armatura) e pm = ωMm quella
meccanica (prodotto della velocità angolare per la coppia elettromagnet-
Lo schema a blocchi corrispondente mette in luce le dinamiche del carrello
ica), ovviamente:
e quelle del pendolo, e il legame di accoppiamento tra di esse.
k2
pe = pm ,
k1
2.6. Sistemi elettro–meccanici e nel caso di perfetta conversione dell’energia si avrebbe k1 = k2 = k; se
il rendimento è invece inferiore al 100% allora k2 > 1, ossia k2 > k1 .
k1
2.6.a. Motore elettrico in corrente continua a magneti permanenti Si noti che Mm , ia , fc e ω si misurano in Nm, A, V e rads rispettiva-
con tensione d’armatura variabile
mente, e dunque k1 e k2 vengono misurate in Nm e Vs = J .
Si consideri un motore in corrente continua in cui il campo magnetico in A rad Arad
cui si muovono le spire dell’avvolgimento rotorico, o “circuito d’armatura”,
sia generato da magneti permanenti. In condizioni ideali il momento mec- Ra La
canico Mm sviluppato sull’asse del motore, o “coppia elettromagnetica”, è
proporzionale al prodotto tra il flusso di eccitazione determinato dai mag-
neti permanenti e l’intensità della corrente ia che scorre nel circuito rotorico fc
(2.3)
, detta “corrente d’armatura”: va ia

Mm = k̄1 Φe ia .

Essendo costante il campo magnetico, e dunque il flusso, prodotto dai mag- Figura 2.12 – Circuito equivalente d’armatura
neti, il momento è proporzionale alla corrente di armatura:
Il circuito equivalente del circuito d’armatura è rappresentato in figura
Mm = k1 ia . (2.17)

immersa in un campo magnetico uniforme d’induzione


(2.4)
(2.3)
Per una spira piana di forma qualsiasi
In effetti una spira piana di forma generica immersa in un campo magnetico uniforme F F = F · Fn dS = SBcos α, essendo S la superficie della
F risente di un momento meccanico M F = ia SFn × B,
F ove S è la superficie della B, il flusso concatenato vale Φc (B) B
d’induzione B S
spira e Fn la normale alla spira (scelta secondo la regola della “mano destra”). Se essa ruota in
spira, Fn è la normale alla spira (scelta secondo la regola della “mano destra”) percorsa dalla
F e Fn. Poiché tale campo risulta essere sede di fenomeni di induzione e, per la legge di Faraday–Neumann–
corrente d’intensità ia . Dunque M = ia SBsen α, ove α è l’angolo tra i vettori B F
dΦ (B)
π
l’avvolgimento del rotore è costituito da spire uguali, disposte con
una densità di N spire per Lentz, la forza controelettromotrice indotta che si genera vale fc = − c = (SBsen α)ω,
dt
radiante, si ha che Mm = N 0 M dα = 2N SBia = k̄1 Φe ia , ove Φe = S B F · FndS è il flusso di
π
e considerando per l’avvolgimento rotorico una densità di N spire per radiante, essa vale
eccitazione, che attraversa la singola spira perpendicolare a B. F fc = N 0 (BSsen α)ω dα = 2N Φe ω = k2 ω.
Figura 2.14 – Circuito equivalente d’eccitazione e schema fisico

Nello scrivere la legge di Ohm per il circuito equivalente del circuito


di eccitazione (figura 2.14) si tenga presente che non si hanno contributi
108 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.6. Sistemi elettro–meccanici 109

dovuti a forze controelettromotrici indotte, poiché il flusso φa del circuito di Dalle equazioni (2.22), (2.24), assieme all’equazione ϑ̇ = ω, si ha il sistema
armatura non si concatena con le spire del circuito di eccitazione, essendo di equazioni:
ortogonali a tale flusso (viceversa φe si concatena con le spire del rotore in die Re 1
quanto esse sono in rotazione). Dunque la legge di Ohm per il circuito di = − ie + ve
eccitazione fornisce: dt Le Le
die k1 F 1
ve − Re ie − Le = 0, (2.22) ω̇ = ie − ω− Cr
dt J J J
con Re , Le resistenza e induttanza del circuito equivalente d’eccitazione. ϑ̇ = ω.

φe Se la grandezza misurabile è ad esempio la posizione angolare, si ricava


dunque la seguente rappresentazione differenziale lineare, stazionaria, a di-
mensione finita, regolare, a tempo continuo:

  R   1   
φe 
 − e 0 0 0

  Le 

 ẋ =  k1 
L
 e  1 
 −F − 1 Cr  x +  0  u +  − J d
 J J J

 0 1 0 0 0


ie ie 
y = (0 0 1)x
Figura 2.15 – Caratteristica flusso–corrente di eccitazione
 
Riguardo l’espressione del momento meccanico, il flusso di eccitazione ie
risulta essere proporzionale alla corrente d’eccitazione ie , come mostrato ove si è posto x =  ω , u = ve , d = Cr .
in figura 2.15 dove è rappresentata la caratteristica flusso–corrente di ecci- ϑ
tazione. Entro un certo intervallo di valori della corrente di eccitazione la
caratteristica è lineare, mentre al di fuori di questo intervallo il flusso φe
del circuito di eccitazione satura ad un valore massimo, e la curva non è 2.6.c. Motore elettrico in corrente continua con tensione
più lineare. d’armatura e d’eccitazione variabili
Il momento meccanico risulta allora essere dato da:

Mm = kie ia . (2.23) Si consideri un motore in corrente continua in cui possano variare en-
trambe le tensioni del circuito d’armatura e di eccitazione. Per il momento
Se ora la corrente di armatura è costante, l’espressione del momento è meccanico si deve allora utilizzare l’espressione (2.23), e l’equazione mec-
proporzionale a ie : canica diventa:
Mm = k1 ie kia ie − F ω − Cr = J ω̇. (2.25)
entro un certo intervallo di valori di tale corrente.
Le equazioni dei circuiti equivalenti di armatura ed eccitazione sono ancora
Indicando dunque con J il momento d’inerzia del carico, Cr un mo-
date dalle (2.19) e (2.22) che, assieme alla (2.21) e all’espressione della forza
mento resistente agente sul carico ed F il coefficiente d’attrito dinamico,
controelettromotrice (2.18), che in questo caso si riscrive come:
dall’equilibrio dei momenti agenti sull’asse del motore si ha:

k1 ie − F ω − Cr = J ω̇. (2.24) fc = k̃ie ω,


110 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.7. Modelli di sistemi idraulici 111

forniscono il seguente modello: Il modello complessivo del sistema è dunque:

dia Ra k2 1
dia Ra k̃ 1 = − ia − ω+
va
= − ia − ie ω + va dt La La La
dt La La La ϑ̇ = ω
die Re 1
= − ie + ve k1 k F 1
dt Le Le ω̇ = ia − (ϑ − ϑ1 ) − ω − Cr
k F 1 J J J J
ω̇ = ia ie − ω− Cr k F1 1
J J J ω̇1 = (ϑ − ϑ1 ) − ω − Cr
ϑ̇ = ω. J1 J1 J1
ϑ̇1 = ω1 ,

Al solito come uscite possono essere prese una o più variabili di stato. Si in cui va appare come ingresso al sistema e Cr come un disturbo agente su
noti che ora la rappresentazione è non lineare (stazionaria, a dimensione di esso. Ovviamente come uscite si possono assumere una o più variabili di
finita, regolare, a tempo continuo). stato.
Queste equazioni, cosı̀ come quelle nei paragrafi 2.6.a e 2.6.b, si basano
sulle ipotesi che tutte le perdite nel motore possano essere tenute in conto
dallo smorzamento meccanico (tramite il coefficiente F ) e dalla resistenza
elettrica (tramite Ra e/o Re ), e che il comportamento del motore sia lineare,
2.7. Modelli di sistemi idraulici
ossia che si lavori nella parte lineare della caratteristica flusso–corrente.
La dinamica del motore è in realtà più complessa, ma le equazioni scritte 2.7.a. Serbatoio chiuso con fluido incomprimibile e con
catturano le caratteristiche dinamiche essenziali del motore, e sono quindi mescolamento perfetto
adatte per l’analisi del sistema e la sintesi di eventuali sistemi di controllo.
Si consideri un serbatoio in cui un fluido incomprimibile subisce una
variazione di temperatura (riscaldamento o raffreddamento). A causa della
2.6.d. Motore in corrente continua alimentato in tensione turbolenza o di appositi miscelatori, si suppone che all’interno del serbatoio
il miscelamento sia perfetto, ovvero che la temperatura media del fluido sia
con carico ed albero flessibile pari a quella di uscita.
   
Kg
Siano G la portata in massa in s , c il calore specifico in J ,
Si consideri un motore in corrente continua, alimentato in tensione, e Kg K
m la massa (in Kg) e Ti , Tu le temperature (in K) relative al fluido in
con flusso di eccitazione costante. Il carico, di momento d’inerzia J1 , sia
ingresso ed in uscita del serbatoio.
collegato al motore tramite un albero con flessibilità non trascurabile. Si
L’energia contenuta nel fluido sotto forma di calore è data da:
supponga di poter tenere in conto questa elasticità mediante una costante
elastica k. Sia presente l’attrito sia nella rotazione del rotore che in quella 
del carico, e su quest’ultimo agisca un carico resistente Cr . Il rotore e il E= c T dV = cmTm ,
carico costituiscono due volani connessi da un albero flessibile, come trat- serbatoio
tato nella sezione 2.5.c.
ove si è indicato con Tm la temperatura (in K) media del fluido. Da questa
L’equazione del circuito equivalente d’armatura è ancora la (2.19), con
equazione, utilizzando l’ipotesi di mescolamento perfetto per cui Tm = Tu ,
fc data dalla (2.18), mentre le equazioni dei due volani sono date dalla
si ottiene:
(2.14), con Mm come in (2.17), e dalla (2.15). Riguardo le posizioni angolari dE dTu
di rotore e carico, valgono rispettivamente la (2.21) e la relazione ϑ̇1 = ω1 . = cm .
dt dt
Figura 2.16 – Doppio serbatoio con tubazione

Le equazioni dinamiche dei due serbatoi si ottengono imponendo il


bilancio di massa, ossia che la variazione della massa nel singolo serbatoio
sia pari alla massa entrante meno quella uscente nell’unità di tempo. Si
prende la convenzione, come solito, di considerare positive le grandezze in
ingresso al sistema e negative quelle uscenti.
Le masse nei due serbatoi sono )A1 h1 e )A2 h2 . Indicando poi con G
la portata in massa che scorre nella tubazione, le equazioni dinamiche per
i due serbatoi risultano essere:

)A1 ḣ1 = − G + G1
)A2 ḣ2 = G − G2 ,

in quanto G è uscente dal primo serbatoio ed entrante nel secondo.


Per la tubazione si possono considerare la proiezione lungo il suo asse
delle forze agenti sul fluido. Questo equivale a considerare che le componenti
delle forze ortogonali all’asse della tubazione sono bilanciate dalla reazione
vincolare, ossia dalle pareti della tubazione.
114 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.7. Modelli di sistemi idraulici 115

profilo piatto di velocità (ovvero se si suppone che v rappresenti la velocità


p1A (1) media sulla sezione A), poiché G = )Av si ricava:

l G
v= .
fa=F v β )A
. mg sen α
Dunque l’equazione (2.26) si riscrive:
mg
α( (2) Ġ z1 − z2
p2A )Al = (p̄1 + )gh1 )A − (p̄2 + )gh2 )A − F v β + )Alg .
)A l
z1 z2 Posto:
   
h 1 + z1 G1
h 1 + z1
x =  h 2 + z2  , u =  G2  , y= ,
Figura 2.17 – Tubazione h 2 + z2
G p̄1 − p̄2
Se si indicano con p1 e p2 le pressioni del liquido in corrispondenza
si ottengono le equazioni del sistema:
delle sezioni (1) e (2) della tubazione (figura 2.17), supposta di sezione A,
sulle due sezioni terminali agiscono due forze, aventi direzioni opposte e di
1 1
modulo pari a p1 A e p2 A. Inoltre si deve considerare la forza peso agente ẋ1 = − x3 + u1
sul liquido, che fornisce una componente pari a mgsen α, diretta verso il )A1 )A1
basso, essendo m la massa del liquido nella conduttura. Infine occorre con- 1 1
ẋ2 = x3 + u2
siderare la forza di attrito, dovuta a vari fenomeni, quali la turbolenza del )A2 )A2
liquido, l’adesione delle particelle alla superficie della tubazione, la rugosità )gA )gA F A
della tubazione; essa è proporzionale ad una certa potenza (usualmente ẋ3 = x1 − x2 − xβ3 + u3 .
l l ()lA)β l
determinata sperimentalmente) della velocità v del liquido nella tubazione
(fa = F v β ) e si oppone al moto. La seconda legge della dinamica è quindi:
Il sistema è non lineare a causa della presenza del termine xβ3 . Se
però è possibile supporre β = 1 si ottiene un sistema lineare del terzo
mv̇ = p1 A − p2 A − F v β + mgsen α. (2.26) ordine (in quanto vi sono tre elementi con memoria: i due serbatoi e la
condotta), avente rappresentazione differenziale (lineare, stazionaria, a di-
Le pressioni p1 e p2 sono date dalla legge di Stevino (2.5) : mensione finita, regolare, a tempo continuo):
 
p1 = p̄1 + )gh1 , p2 = p̄2 + )gh2 ,   1 0 0
0 0 − 1  )A1 
 )A1   
mentre se l è la lunghezza della tubazione la massa di fluido in essa con-  0 1   1 
ẋ =  0 x +  0 0 u
tenuta vale m = )Al. Se poi α è l’inclinazione rispetto all’orizzontale e  )A2   )A2 
z1 , z2 sono le altezze assolute delle sezioni (1) e (2) della tubazione, risulta )gA

)gA
− F  
A
sen α = z1 − z2 . Infine se si suppone che il fluido abbia nella tubazione un
l l )lA 0 0
l
l
1 0 0
y= x.
(2.5)
Si veda D. Sette, Lezioni di Fisica, Veschi Editore, p. 384, Roma, 1982. 0 1 0
116 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.8. Modelli di sistemi nucleari e chimici 117

Si noti infine che se la variazione della velocità nella tubazione è trascur- MeV ed uno da 1.33 MeV (1 eV = 1.60219 1019 J). Più precisamente un
abile, allora dall’equazione (2.26) si ottiene: neutrone del 60 27 Co si trasforma in un protone ed un elettrone, assieme ad
un antineutrino: n → p + e− + ν̄ (decadimento β − ), ottenendo cosı̀ il 60
28 N i.
1/β
F 1/β )gA )gA
Tale nucleo non è stabile e decade al livello fondamentale emettendo raggi
x3 = x − x + A u3 , γ. Il 60
28 N i, cosı̀ diseccitato, è stabile e non decade ulteriormente.
)Al l 1 l 2 l
La disintegrazione spontanea dei nuclei, di tipo β − o di qualsiasi al-
e se β = 1 allora si ha un sistema lineare del secondo ordine: tro tipo essa sia, è governata da una legge fondamentale, secondo la quale
la probabilità per unità di tempo che un nucleo radioattivo decada è una
1 F )gA )gA costante indipendente dal tempo. Tale costante è detta costante di disin-
ẋ1 = u1 − x1 − A
x + u3 tegrazione λ. Dato un numero elevato nb (t) di atomi di un elemento ra-
)A1 )2 AA1 l l l 2 l
dioattivo B all’istante t, il numero di atomi che decadono nell’intervallo
1 F )gA )gA A
ẋ2 = u2 + x − x + u3 . dt vale λnb (t)dt. La diminuzione di nuclei radioattivi dell’elemento B
)A2 )2 AA2 l l 1 l 2 l nell’intervallo dt è quindi:

dnb = −λnb (t)dt,


2.8. Modelli di sistemi nucleari e chimici
mentre l’aumento di atomi della specie C che si produce dal decadimento
2.8.a. Reazione nucleare del tipo (n, γ) degli atomi della specie B vale:

I neutroni interagiscono con i nuclei della materia in diversi modi. Tra dnc = λnb (t)dt.
i vari casi, si può avere l’assorbimento del neutrone da parte di un nucleo.
In tal caso possono avere origine diversi processi, il più frequente dei quali Pertanto si hanno le equazioni:
è la cosiddetta cattura radiativa, o reazione (n, γ), in cui il nucleo assorbe
il neutrone n ed emette raggi γ. Per valutare la probabilità che una data ṅb = − λnb (t)
reazione nucleare abbia luogo si utilizza una grandezza chiamata sezione (2.28)
ṅc = λnb (t).
d’urto, misurata in barn (b), essendo 1b = 10−28 m2 . Se dei nuclei di un
elemento A vengono irraggiati mediante un flusso φ di neutroni, a causa
delle reazione (n, γ) vengono trasformati in nuclei di un elemento B. Se na Volendo dunque descrivere la dinamica delle specie 59 60 59
27 Co, 27 Co, 28 N i,
ed nb indicano il numero di atomi dei rispettivi elementi, nell’intervallo di indicando con x1 = na , x2 = nb ed x3 = nc il numero di atomi di tali
tempo dt si avrà: elementi, dalle (2.27), (2.28) si ha:
dna = − φσna dt
ẋ1 = − φσx1
dnb = + φσna dt
ẋ2 = φσx1 − λx2
e quindi:
ṅa = − φσna ẋ3 = λx2 .
(2.27)
ṅb = φσna .
Alcuni radioisotopi sono prodotti con reazioni (n, γ) successive. Il nu-
Questa reazione può essere utilizzate per produrre isotopi (cioè nuclei clide A viene irraggiato con un flusso φ di neutroni (in neutroni/s) e, per
con lo stesso numero di protoni) radioattivi, utili nella medicina, nell’industria, cattura (n, γ) con sezione d’urto σ1 , dà luogo al nuclide B. Quest’ultimo
nella ricerca. Un tipico esempio è quello del 60
27 Co, radioattivo, prodotto a può subire due processi: un decadimento con costante λ1 con produzione
partire dal 59
27 Co mediante assorbimento di un neutrone. Il radioisotopo del nuclide C, oppure un’altra cattura (n, γ) con sezione d’urto σ2 e pro-
60
27 Co cosı̀ prodotto decade emettendo un raggio gamma di energia 1.17 duzione del nuclide D. La specie D decade poi con una costante λ2 nella
118 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.8. Modelli di sistemi nucleari e chimici 119

specie E. Volendo descrivere la dinamica dei vari elementi, indicando con partire da un neutrone capace di indurre una fissione. Per avere un sistema
na , nb , nc , nd , ne il numero dei loro atomi, valgono i seguenti bilanci: di reazioni che si autosostenga e quindi funzioni in uno stato stazionario,
è necessario che sia kef f = 1. Se invece kef f > 1 il numero di neutroni
dna = − φσ1 na dt cresce sempre più e la reazione a catena diverge. La frazione δk = kef f − 1
dnb = φσ1 na dt − λnb dt − φσ2 nb dt di neutroni in eccesso può essere eliminata dalle barre di controllo, inserite
per una opportuna profondità.
dnc = λnb dt La maggior parte dei neutroni vengono emessi istantaneamente nel
dnd = φσ2 nb dt − λnd dt momento della fissione (entro circa 10−17 s dalla scissione del nucleo origi-
nario), mentre meno dell’un per cento vengono emessi alcuni secondi dopo,
dne = λnd dt
nel decadimento di tipo β − di alcuni prodotti di fissione, detti precursori. I
precursori che forniscono questo secondo tipo di neutroni, importantissimi
e quindi posto:
    dal punto di vista del controllo di un reattore nucleare, possono essere divisi
x1 na
in sei classi.
 x2   nb 
    Indicando con l il tempo medio di vita di un neutrone (circa 0.1 s), la
x =  x3  =  nc  ,
    probabilità per unità di tempo che un neutrone scompaia (per assorbimento
x4 nd
o altra causa) è pari a λ = 1/l. Pertanto la quantità di neutroni che
x5 ne scompaiono dal reattore all’istante t è pari a:
valgono le equazioni: 1
ns (t) = λn(t) = n(t).
  l
−φσ1 0 0 0 0
−λ − φσ2 Per quanto riguarda il numero di neutroni che si producono, si tenga conto
 φσ1 0 0 0
  che per ogni neutrone scomparso si producono kef f neutroni, di cui una
ẋ =  0 λ 0 0 0  x.
   6
0 φσ2 0 −λ 0 parte istantaneamente ed una parte con un certo ritardo. Sia β = βi la
0 0 0 λ 0 i=1
frazione di neutroni prodotti a causa delle emissioni ritardate dei precursori,
Processi di questo tipo sono utilizzati per la produzione di gran parte degli con βi il contributo del gruppo i. Allora si può scrivere:
elementi transuranici. kef f = kef f (1 − β) + kef f β = kef f 1 + kef f 2 ,
Considerata come uscita il numero di atomi y = nb = xa , si ottiene
una rappresentazione lineare, stazionaria, a dimensione finita, regolare, a ove kef f 1 = kef f (1 − β) sono i neutroni prodotti istantaneamente per ogni
tempo continuo. Avendo cinque elementi con memoria (i cinque elementi) 6
neutrone scomparso e kef f 2 = kef f βi quelli prodotti con ritardo dai
si hanno cinque variabili di stato. i=1
precursori. Essendo i neutroni scomparsi all’istante t pari a ns (t), istanta-
neamente si producono
2.8.b. Reattore nucleare
kef f (t)(1 − β)
np1 (t) = kef f 1 (t)ns (t) = n(t)
Si consideri un reattore nucleare costituito da una massa di materiale l
fissile, in cui può essere inserita una barra scorrevole di materiale assor- neutroni. Ma all’istante t vengono anche prodotti dei neutroni dal decadi-
bitore di neutroni. Per le sue proprietà assorbenti, tale barra permette di mento dei precursori. Se λi (s) sono le costanti di decadimento della classe
controllare la quantità di atomi che si fissionano a seguito delle reazioni i dei precursori e ci sono le concentrazioni (atomi/cm3 ) dei sei precursori,
nucleari. questi neutroni sono dati da:
Ogni neutrone prodotto in una fissione ha una certa probabilità di 
6
produrre un’altra fissione e dunque di produrre altri neutroni capaci di np2 (t) = λi ci (t).
provocare una fissione. Si indichi con kef f il numero di neutroni prodotti a i=1
120 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.8. Modelli di sistemi nucleari e chimici 121

Dunque i neutroni prodotti all’istante t sono dati da Si ha cosı̀ il seguente sistema:


 
−kef f (t)β λ1 λ2 λ3 λ4 λ5 λ6
kef f (t)(1 − β) 
6  β1 /l −λ1 0 0 0 0 0 
 
np (t) = np1 (t) + np2 (t) = n(t) + λi ci (t),  β2 /l 0 −λ2 0 0 0 0 
l  
i=1 ẋ =  β3 /l 0 0 −λ3 0 0 0  x+
 
 β4 /l 0 0 0 −λ4 0 0 
 
e posto δk(t) = kef f (t) − 1, l’equazione di bilancio neutronico è: β5 /l 0 0 0 0 −λ5 0
β6 /l 0 0 0 0 0 −λ6
 
1/l 0 0 0 0 0
kef f (t)(1 − β) − 1 
6
 0 0 0 0 0 0
ṅ = np (t) − ns (t) = n(t) + λi ci (t) =  
l  0 0 0 0 0 0
i=1  
(2.29) +  0 0 0 0 0 0  xu

6  
= −
kef f (t)β 1  0 0 0 0 0 0
n(t) + λi ci (t) + n(t) δk(t).  
l i=1 l 0 0 0 0 0 0
0 0 0 0 0 0
 
Per quanto riguarda la variazione delle concentrazioni ci , poiché il nu- y= kp 0 0 0 0 0 0 x
mero di atomi del precursore i che si producono all’istante t vale:
in cui si è posto
 T
kef f (t)βi x= n c1 c2 c3 c4 c5 c6 , u = δk.
cpi (t) = kef f (t)βi ns (t) = n(t),
l
Si noti che il modello risulta bilineare e tempo–variante, ossia del tipo:
mentre quello dei nuclei che decadono vale:
ẋ = A(t)x + N xu
y = Cx
cdi (t) = λi ci (t),
a causa della presenza del termine misto xu e del termine kef f (t).
Tale modello può essere linearizzato attorno al punto di funzionamento,
per i precursori valgono i bilanci: in corrispondenza al quale n = n0 , δk = δk0 e ci = ci0 . Si ponga quindi:

n = n0 + n̄, ci = ci0 + c̄i , ¯


δk = δk0 + δk
kef f (t)βi
ċi (t) = cpi (t) − cdi (t) = n(t) − λi ci (t), i = 1, · · · , 6. (2.30) ¯ Sviluppando in serie di Taylor
l e si noti che kef f = δk + 1 = δk + 1 + δk.
ed arrestandosi ai termini del primo ordine si ottiene:

Infine la potenza P prodotta dal reattore si può pensare proporzionale δk0 (β − 1) + β 


6
(1 − β)n0 ¯
ad n(t) secondo una costante: n̄˙ = − n̄ + λi c̄i + δk
l i=1 l
(δk0 + 1)βi n0 βi ¯
P (t) = kp n(t). (2.31) c̄˙i = n̄ − λi c̄i + δk, i = 1, · · · , 6
l l
122 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.8. Modelli di sistemi nucleari e chimici 123


che assieme alla (2.31) forniscono una rappresentazione lineare, stazionaria, mole della specie A rispettivamente nel fluido in ingresso al reattore e in
a dimensione finita, regolare, a tempo continuo: l
quello all’interno del reattore.
ẋ = Ax + Bu Poiché si suppone che il mescolamento sia perfetto, la concentrazione
y = Cx, della specie A e la temperatura del fluido in uscita dal reattore sono con-
siderate uguali a cA e T .
ove: La reazione chimica sia esotermica e dunque il reattore sia raffreddato
    da uno scambiatore di calore, costituito da una serpentina in cui scorre un
− δk0 (β − 1) + β /l λ1 λ2 λ3 λ4 λ5 λ6
 (δk0 + 1)β1 /l −λ1 0 0 0 0 0  fluido refrigerante, con portata Γr e calore specifico cr .
 
 (δk0 + 1)β2 /l 0 −λ2 0 0 0 0 
 
A= (δk0 + 1)β3 /l 0 0 −λ3 0 0 0 ,
  cA0 cA
 (δk0 + 1)β4 /l 0 0 0 −λ4 0 0 
 
(δk0 + 1)β5 /l 0 0 0 0 −λ5 0 T0 , Γ, c A B T, Γ, c
(δk0 + 1)β6 /l 0 0 0 0 0 −λ6
 
(1 − β)n0 /l Tr, Γr , c r
 n0 β1 /l  T , cA
 
 n0 β2 /l   
 
B =  n0 β3 /l  , C = kp 0 0 0 0 0 0 ,
 
 n0 β4 /l  Figura 2.18 – Reattore chimico
 
n0 β5 /l
n0 β6 /l  
¯ rappresentano le variazioni La velocità della reazione chimica in mole , ossia il numero di moli
e in cui le variabili x1 = n̄, xi+1 = c̄i , u = δk ls
incrementali rispetto al punto di lavoro prescelto. di A che si trasformano in moli di B nell’unità di tempo e di volume,
dipende da cA e dalla  temperatura T , e per la legge  di van’t Hoff è pari
a vA = k1 cA e −k2 /T 1
k1 è espresso in s e k2 in K , mentre la quantità
2.8.c. Reattore chimico
di energia assorbita nella serpentina di refrigerazione nell’unità di tempo
Si consideri un reattore chimico di volume V (in litri) in cui avviene è proporzionale alla differenza di temperatura tra fluidi
 e alla portata del
una reazione chimica tra due specie chimiche, del tipo A→ B. La  specie A refrigerante: δ = k3 (T − Tr )Γr k3 è espresso in J . Infine sia b l’energia
viene trasportata da un fluido avente calore specifico c J e densità
Kl 
Kg K rilasciata durante la reazione chimica di una mole di A in una di B in
  
Kg J .
) , e temperature T0 , T (in K) rispettivamente all’ingresso e dentro
l mole
il reattore. Sia Γ la portata volumetrica, in sl , del fluido in ingresso al Il modello del reattore si ottiene scrivendo i bilanci di massa e di ener-
reattore.  gia. Come solito si attribuisce segno positivo alle grandezze in ingresso al
Si indichino con cA0 e cA le concentrazioni molari (2.6) o molarità, in sistema, costituito dal reattore, e negativo a quelle in uscita.
Per il bilancio di massa della specie A, si deve imporre che la variazione
(2.6)
Una mole è la quantità di materia contenente N = 6.02204 1023 atomi o molecole (numero nel tempo del numero di moli presenti nel reattore, sia pari alla differenza
di Avogadro). Indipendentemente dalla sostanza in questione, ogni mole contiene un ugual tra numero di moli in ingresso meno il numero di quelle uscenti o che ven-
numero di atomi o molecole della sostanza. Si veda P. Silvestroni, Fondamenti di Chimica, gono trasformate a causa della reazione chimica. In numero di moli di A nel
Veschi Editore, Roma, 1980. reattore sono V cA moli, con V costante. La differenza tra moli in ingresso
124 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.9. Esercizi e problemi 125

e quelle di uscita nell’unità di tempo è pari a Γ(cA0 − cA ), mentre il numero Si noti che ci si può ridurre ad un modello bilineare, ossia ad un modello
di moli di A reagenti nell’unità di tempo è pari a V vA = k1 V cA e−k2 /T . Il in cui appaiono solo prodotti tra due variabili di stato o tra una variabile
bilancio della specie A è dunque: di stato e l’ingresso, notando che valgono le approssimazioni:
1 ∼ 1  1  2 1
V ċA = Γ(cA0 − cA ) − k1 V cA e−k2 /T . = − x2  (x2 − x20 ) = − x2
x2 x20 2
x20 x20 x220
Per il bilancio energetico del fluido che trasporta la specie A occorre
k̄2 ∼ 2k̄2 k̄2
imporre che la variazione di energia nell’unità di tempo del fluido nel reat- e−k̄2 /x2 ∼
= 1− =1− + x2
tore sia pari alla differenza tra energia entrante ed energia uscente nell’unità x2 x20 x220
di tempo. L’energia del fluido nel reattore è pari a c)V T , mentre l’energia
essendosi fermati al primo ordine in entrambi gli sviluppi in serie. Le
entrante nell’unità di tempo nel sistema è data da quella contenuta nel flu-
equazioni cosı̀ approssimate sono:
ido in ingresso (Γ)cT0 ) e quella dovuta alla reazione (supposta esotermica:
bV vA = bV k1 cA e−k2 /T ) e l’energia uscente nell’unità di tempo dal sistema  
dx1 2 k̄1
è quella nel fluido uscente (Γ)cT ) e quella estratta dallo scambiatore di = x10 − x1 − k̄1 1 − x1 − x1 x2
calore (δ = k3 (T − Tr )Γr ). Dunque il bilancio energetico del fluido è dato dτ x20 x220
da:  
c)V Ṫ = Γ)c(T0 − T ) + bV k1 cA e−k2 /T − k3 (T − Tr )Γr . dx2 2 k̄1
= x20 − x2 + k̄1 1 − x1 + x1 x2 − k̄3 (x2 − x2r )u.
Per scrivere in maniera più semplice queste equazioni, si introducano dτ x20 x220
le seguenti variabili adimensionali:
2.9. Esercizi e problemi
c )cT Γ Γr
x1 = A , x2 = , τ= t, u= , Esercizio 2.1. Un plotter è costituito da un pennino che si muove tra due
cA0 bcA0 V Γ
arresti, posti a distanza di d = 0.5 m. Esso è mosso da una cinghia, tramite
una puleggia di raggio r = 0.02 m, collegata ad un motore M .
indicanti rispettivamente la concentrazione, la temperatura, il tempo e la
portata refrigerante (adimensionali), e le seguenti costanti adimensionali:
θ
k1 V k2 )c k3
k̄1 = , k̄2 = , k̄3 = . r
Γ bcA0 c)

Si hanno cosı̀ le seguenti equazioni: y


M d
dx1 −k̄2 /x2
= x10 − x1 − k̄1 x1 e

dx2 v
= x20 − x2 + k̄1 x1 e−k̄2 /x2 − k̄3 (x2 − x2r )u,

Figura 2.19
ove x10 = 1 ed x20 sono i valori iniziali (cioè per t = τ = 0) delle variabili.
Si noti che se Tr è costante allora anche x2r lo è. Inoltre la portata u Il motore è in corrente continua, alimentato con corrente di statore costante,
costituisce l’ingresso al sistema, che risulta modellato da equazioni non ed ha come ingresso la tensione applicata al rotore e come uscita la po-
lineari. sizione angolare ϑ. Il circuito rotorico ha una resistenza R = 0.3 Ω ed
126 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.9. Esercizi e problemi 127

una induttanza L = 0.025 H. La forza controelettromotrice è proporzionale Il pendolo può ruotare di 360◦ grazie ad un momento u applicato sull’asse di
alla velocità angolare secondo un fattore k1 = 1N m , mentre il momento rotazione. Indicato con J il momento di inerzia rispetto all’asse di rotazione,
A derivarne il modello dinamico.
meccanico è proporzionale all’intensità di corrente i nel motore, secondo
una costante k2 = 1N m . Il momento d’inerzia J del rotore, tenendo conto
A Soluzione. Il bilanciamento dei momenti agenti sulla struttura meccanica
anche dell’inerzia del carico, vale 2 Kg m2 e l’attrito, sempre tenendo conto
del carico, è di tipo viscoso con coefficiente d’attrito β = 2 10−3 Nm s . è dato da
Si determini il modello matematico del sistema.
rad J ϑ̈ = −mgd sin ϑ + u.
Scegliendo come variabili di stato la posizione angolare ϑ(t) e la sua derivata

x1 ϑ
Soluzione. Facendo riferimento allo schema di un motore in corrente con- ϑ̇(t), e ponendo x = = , il sistema dinamico è descritto dalle
x2 ϑ̇
tinua alimentato in tensione (figura 2.12), l’equazione di Ohm si scrive seguenti equazioni differenziali del primo ordine:
come v − Ri − L di − fcem = 0, ove la forza controelettromotrice risulta
dt ẋ1 = x2
proporzionale alla velocità angolare del rotore fcem = k1 ω. La seconda
equazione cardinale fornisce l’equazione meccanica del motore M est = J ω̇+ mgd 1
ẋ2 = − sin x1 + u.
βω, in cui il momento meccanico (supposto un rendimento ideale pari ad J J
uno) disponibile sull’asse del motore è proporzionale all’intensità di corrente
di armatura: M est = k2 i. Infine ϑ̇ = ω. Ovviamente la posizione del  pen-
 Esercizio 2.3. Sia dato un sistema costituito da un asse verticale, ruotante
i ad una velocità angolare costante ω, ed un asse inclinato di un angolo α
nino è data da y = ϑr. Inserendo i valori numerici e ponendo x =  ω , rispetto al primo e solidale con esso, su cui scorre un corpo pesante di massa
ϑ m e dimensioni trascurabili. Sia presente l’attrito di scorrimento, tenuto
u = v, si ottiene: in conto con un coefficiente β. Sul corpo agisca inoltre una forza u diretta
    come in figura. Determinare il modello del sistema.
−12 −40 0 40
ẋ =  0.5 −0.001 0  x +  0  v
0 1 0 0
y = (0 0 0.02 ) x.

ω x
Esercizio 2.2. Sia dato un pendolo di massa m e lunghezza 2d, il cui u
m
moto avviene nel solo piano verticale.
u α

d x

Figura 2.21
ϑ
Figura 2.20
128 2. Rappresentazioni con lo stato di sistemi da diverse discipline 2.9. Esercizi e problemi 129

Soluzione. Proiettando le forze lungo l’asse x si ha l’equazione dinamica Problema 2.3. Utilizzando l’approssimazione della derivata proposta nel
del moto della massa: problema 2.2, mostrare che il modello dell’algoritmo di risoluzione numerica
dell’equazione differenziale:
mẍ = u − mgcos α − β ẋ + mω 2 x sin2 α,
d2 ϕ(t) dϕ(t)
ove l’ultimo termine a secondo membro è dovuto alla forza centrifuga. Posto +α + βϕ(t) = γu(t)
2 dt
dunque x1 = x, x2 = ẋ, si ottiene il modello cercato: dt
è dato da:
ẋ1 = x2
β 1 Tα + 2 1 T 2γ
ẋ2 = x1 ω 2 sin2 α − x2 − gcos α + u. ϕ(k) = ϕ(k−1)− ϕ(k−2)+ u(k).
m m 1 + T α + T 2β 1 + T α + T 2β 1 + T α + T 2β

Problema 2.1. Con riferimento al modello dell’algoritmo di integrazione Posto inoltre x1 (k) = ϕ(k − 2), x2 (k) = ϕ(k − 1), mostrare che si ottiene
presentato nel paragrafo 2.1.a, mostrare che utilizzando, a costo di una la seguente rappresentazione con lo stato:
maggiore complessità di calcolo, l’approssimazione:    
0 1 0
 kT    
u kT + u (k − 1)T x(k + 1) = − 1 T α + 2  x(k)+  T 2γ  u(k)
u(τ ) dτ = T 2 2
1 + Tα + T β 1 + Tα + T β 2
1 + Tα + T β
kT −T 2
 
in (2.1), si ottiene la seguente rappresentazione con lo stato: y(k) = 1 0 x(k)



T
relativa ad un sistema stazionario a tempo discreto di dimensione due, in cui
 x(k + 1) = x(k) + u(k)
2 come uscita si è considerato il valore ϕ(k −2). Qual è lo schema realizzativo

 T T corrispondente?
 y(k) = x(k) + u(k), x(1) = u(0).
2 2
Problema 2.4. Un sistema meccanico è costituito da un punto materiale
P1 di massa m1 soggetto ad una forza elastica di richiamo di costante
Problema 2.2. Si supponga di approssimare la derivata di una funzione k1 ed un attrito viscoso costante f1 . Inoltre P1 è connesso tramite una
u(t) in t = kT con la pendenza del segmento di retta che congiunge u(kT − forza elastica k2 ed un attrito viscoso (proporzionale alla velocità relativa)
T ) con u(kT ), per cui: di costante f2 , ad un punto materiale P2 di massa m2 , cui è applicata
dy  y(kT ) − y(kT − T ) una forza orizzontale u. Si determini il modello differenziale del sistema
 ∼
= . ottenuto assumendo come ingresso u e come uscita lo spostamento di P1
dt  kT T dalla posizione di equilibrio quando u = 0.
Verificare che il modello dell’algoritmo di risoluzione numerica dell’equazione
Problema 2.5. Il sistema meccanico illustrato in figura è costituito da una
differenziale:
dy(t) sbarra rigida di massa trascurabile che collega due punti materiali P1 e P2 di
+ αy(t) = βu(t) masse m1 ed m2 , soggetti ciascuno a forze elastiche di richiamo e ad attriti
dt viscosi. Al centro della sbarra agisce una forza verticale di intensità u.
è dato da: Si determini il modello differenziale del sistema ottenuto assumendo come
1 Tβ
y(k) = y(k − 1) + u(k). ingresso u e come uscita le posizioni dei punti Q1 e Q2 situati a 1/3 e 2/3
1 + Tα 1 + Tα della sbarra, misurate rispettivamente alla posizione di equilibrio quando
u = 0.
2.9. Esercizi e problemi 131

Problema 2.8. Si determini il modello differenziale ottenuto assumendo


come ingresso la tensione u e come uscite le correnti y1 e y2 nella rete
elettrica in figura.
0.001
4

0.01 y1
0.2 8
u
10
4 0.4 8 y2

Figura 2.22
Problema 2.6. Un dispositivo meccanico complesso, schematizzato in
figura come un rettangolo, fornisce una coppia pari all’integrale di un op- Figura 2.25
portuno ingresso u. Tale coppia muove un pignone di 24 denti il quale
ingrana su una condotta di 120 denti. Sull’asse di questa ultima è calettato Problema 2.9. Si determini il modello esplicito del sistema a tempo dis-
un carico di momento inerzia J e di attrito viscoso F . Determinare il mod- creto rappresentato tramite lo schema realizzativo in figura.
ello differenziale assumendo come ingresso u(t) e come uscita la posizione +
angolare dell’asse della condotta. 3 Ritardo 4
+
+
 3
u

u 6
+ y
y
J, F 3 +

Figura 2.23 1
Problema 2.7. Si determini il modello differenziale ottenuto assumendo + +
come ingresso la tensione u e come uscita la corrente y nella rete elettrica
4 Ritardo 5
in figura. +

C Figura 2.26
R
Problema 2.10. Fornire lo schema di realizzazione del motore in corrente
continua alimentato in tensione con carico ed albero flessibile (paragrafo
u L R y 2.6.d).

Figura 2.24
3. Sistemi lineari: analisi nel
dominio del tempo. I modi
naturali nell’evoluzione libera
e in quella forzata

Nel capitolo precedente si è visto come il processo di modellistica a


partire da un dato oggetto, fenomeno o processo fisico, conduca in molti
casi di interesse, eventualmente a seguito di un processo di semplificazione,
alla costruzione di una rappresentazione con lo stato, lineare, stazionaria a
dimensione finita.
In questo capitolo viene affrontato lo studio del comportamento del
sistema nel dominio del tempo, prima per la classe dei sistemi a tempo
continuo, quindi per la classe dei sistemi a tempo discreto.

3.1. I modi naturali nell’evoluzione libera dello stato

3.1.a. Sistemi a tempo continuo regolari

Assegnata una rappresentazione implicita con lo stato di un sistema a


tempo continuo lineare, a dimensione finita, stazionario:

ẋ(t) = Ax(t) + Bu(t) x(0) = x0


(3.1)
y(t) = Cx(t) + Du(t)
134 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 135

le evoluzioni nello stato e nell’uscita assumono la forma: Nel caso di autovalori non tutti distinti e limitandosi per semplicità al
 t caso di autovalori reali, siano Ui , i = 1, · · · , r, gli autospazi generati dagli
x(t) = Φ(t − t0 )x0 + H(t − τ )u(τ ) dτ autovettori generalizzati associati agli r autovalori distinti λi , calcolati come
t0 indicato nel capitolo 1 a proposito della forma canonica di Jordan. Lo spazio
 t
(3.2) di stato X viene cosı̀ decomposto nella somma diretta degli r sottospazi Ui ,
y(t) = ψ(t − t0 )x0 + W (t − τ )u(τ ) dτ. aventi dimensione pari alla molteplicità algebrica di λi :
t0

Il problema è quello di calcolare le matrici Φ(·), Ψ(·), H(·), W (·) a partire X = U1 ⊕ U2 ⊕ · · · ⊕ Ur .


da A, B, C, D. A tale proposito, come noto, valgono le seguenti relazioni: 
r
Con riferimento alla decomposizione cosı̀ effettuata di X, se x0 = x0i è lo
∞ k
 i=1
t
Φ(t) = eAt : = Ak , Ψ(t) = CeAt , stato iniziale, con x0i combinazione lineare degli autovettori (generalizzati)
k=0 k! che generano Ui , la risposta libera nello stato assume l’espressione:
H(t) = eAt B, W (t) = CeAt B + Dδ(t). - .

r
tki −1 ki −1
xl (t) = I + t(A − λi I) + · · · + (A − λi I) eλi t x0i ,
Per la matrice di transizione dello stato eAt , che compare nelle (3.2), valgono (ki − 1)!
i=1
le note proprietà, analoghe a quelle dell’esponenziale di uno scalare: (3.4)
 −1 ove con ki si è indicato l’ordine massimo degli autovettori generalizzati che
eA·0 = I, eAt1 eAt2 = eA(t1 +t2 ) , eAt = e−At . compaiono nella combinazione lineare che dà x0i . Ciascun termine della
sommatoria (3.4) è un modo naturale associato all’autovalore λi .
Nel caso in cui gli n autovalori di A siano distinti e se µ autovalori sono Esercizio 3.1. Si studi la risposta libera nello stato per un sistema a tempo
reali e 2ν sono complessi e coniugati (n = µ + 2ν), è noto che la risposta continuo in cui la matrice dinamica è:
libera nello stato assume l’espressione:
 
1 0 1

µ 
ν  
xl (t) = ci eλi t ui + mj eαj t sen (ωj t + ϕj )uja + cos (ωj t + ϕj )ujb , A =  −2 −1 −1  .
i=1 j=1
2 2 0
(3.3)
in cui
T
cja
ci = viT x0 , cja = vja x0 , sen ϕj = , Soluzione. Occorre innanzi tutto determinare gli autovalori di A, ossia le
, mj
cjb radici dell’equazione caratteristica:
mj = c2ja + c2jb , T
cjb = vjb x0 , cos ϕj = ,
mj
p(λ) = |A − λI| = λ(λ − 1)(λ + 1) = 0.
e dove uja , ujb sono la parte reale e quella complessa degli autovettori uj , ūj
associati agli autovalori complessi e coniugati λj = αj + jωj , λ̄j = αj − jωj , Pertanto si ricava λ1 = 1, λ2 = −1, λ3 = 0. Si procede quindi alla ricerca
mentre vja , vjb , legati alle parti reale e complessa degli autovettori sinistri degli autovettori destri, iniziando da quelli associati a λ1 :
(si veda l’esercizio 3.2), si ricavano invertendo T −1 .  
I termini della (3.3) sono i modi naturali. In particolare quelli della 0 0 1
prima sommatoria sono i modi aperiodici, mentre quelli della seconda sono (A − λ1 I)u1 =  −2 −2 −1  u1 .
i modi pseudoperiodici. 2 2 −1
136 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 137

Si trova:   ove, come solito, c1 = v1T x0 , c2 = v2T x0 e c3 = v3T x0 . Si noti che le compo-
α nenti dell’evoluzione libera lungo le direzioni degli autovettori sono date da
u1 =  −α  ,  t  t 
c1 e c1 e +c2 e−t −c3
0 c2 e−t, mentre quelle rispetto alla base canonica sono  −c1 et + c3 .
ove α è una costante che può essere scelta arbitrariamente. Si sceglierà per c3 −2c2 e−t + c3
semplicità α = 1. In modo analogo si trovano i restanti autovettori destri: L’evoluzione libera dello stato è dunque caratterizzata da un modo ape-
riodico crescente et , uno aperiodico decrescente e−t ed un modo costante.
    Facendo riferimento alle componenti di xl (t) rispetto alla base data dagli
1 −1
autovettori, si comprende facilmente che se ad esempio x0 è proporzionale
u2 =  0  , u3 =  1  .
ad u1 (curva a), e dunque ortogonale a v2 e v3 , le prime due componenti
−2 1 dello stato crescono indefinitamente mentre la terza resta nulla. Se poi x0
è proporzionale ad u2 (curva b), la prima e la terza componente dello stato
Gli autovettori sinistri si calcolano imponendo la condizione di ortonor- tendono esponenzialmente a zero mentre la seconda è sempre nulla. Infine
malità, ossia imponendo che: se x0 è proporzionale a u3 (curva c), il vettore di stato rimane costante.
  Nel caso in cui x0 non abbia la direzione di un autovettore possono farsi
v1T  −1   discorsi analoghi (curva d): se è diversa da zero la componente di x0 lungo
 −1 1 1 −1 2 1 1
 T
 v2  = u1 u2 u3 =  −1 0 1 = 1 1 0. u1 almeno una componente dello stato tende all’infinito; se è nulla la com-
ponente di x0 lungo u1 ma è diversa da zero quella lungo u3 lo stato tende
0 −2 1 2 2 1
v3T ad una costante; infine se anche la componente di x0 lungo u3 è nulla si
ricade nel secondo dei casi precedenti, cioè lo stato tende esponenzialmente
È ovvio che essi potevano essere calcolati anche a partire dalla definizione a zero.
di autovettore sinistro, definito a meno di una costante di proporzionalità
che viene fissata imponendo la condizione di ortonormalità. Ad  esempio v1 x3 d
poteva essere calcolato da: v1T (A − λ1 I) = 0, ottenendo v1T = 2β β β ,
con β determinabile imponendo: v1T u1 = 1. Con la scelta fatta per u1 si
ricava β = 1. x2 c
È ora immediato calcolare la matrice di transizione dello stato Φ(t):
   
u3 x1

3 2 1 1 1 1 0
Φ(t) = eλi t ui viT = et  −2 −1 −1  + e−t  0 0 0+ u1
i=1 0 0 0 −2 −2 0 a
   t 
−2 −2 −1 2e + e−t − 2 et + e−t − 2 et − 1
+ 2 2 1  =  −2et + 2 −et + 2 −et + 1  , b
2 2 1 −2e−t + 2 −2e−t + 2 1

e l’evoluzione libera nello stato:


     
1 1 −1 Figura 3.1 – Traiettorie nello spazio di stato
xl (t) = c1 et  −1  + c2 e−t  0  + c3  1  ,
0 −2 1
138 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 139

Esercizio 3.2. Mostrare che relazione esiste tra gli autovettori sinistri, Ne segue dunque che:
ortonormali agli autovettori destri u = ua + jub , ū = ua − jub , e i vettori      
1 0 −1 0 0 0
va + jvb , va − jvb , ove va e vb sono ottenuti invertendo la matrice T −1 =    
0 0 1
Φ(t) = e−t  − 1 0 1  + e−3t  1 1 1  + e−2t  0 0 −1  =
( ua ub ). 2 2 2 2
0 0 0 0 0 0 0 0 1
 
Soluzione. Gli autovettori sinistri ortonormali sono calcolabili invertendo e−t 0 e−t + e−2t
la matrice  1 −t 1 −3t
    e−3t 1 (e−t + e−3t ) − e−2t 
1 1 = − e + e
 2 2 2
,

u ū = ua + jub ua − jub = ( ua ub ) .
j −j
0 0 e−2t
Si ricava cosı̀: e posto ci = viT x0 , i = 1, 2, 3:
−1 1 1 −j vaT
(u ū ) = =      
2 1 j vbT 2 0 1
  xl (t) = c1 e−t  −1  + c2 e−3t  1  + c3 e−2t  −1  ,
vaT − jvbT T 0 0 1
 2  v
=  =
vaT + jvbT v̄ T con componenti rispetto alla base {u1 , u2 , u3 } date da c1 e−t , c2 e−3t ,
2 c3 e−2t . Dunque qualsiasi evoluzione tende all’origine, come evidenziato
Gli autovettori sinistri ortonormali a u, ū sono dunque v = 1 (va − jvb ), in figura.
2
v̄ = 1 (va + jvb ), e non va + jvb , va − jvb . Si noti che questi ultimi due sono x3
2
ancora autovettori sinistri, ma essendo il doppio di v̄ e v essi corrispondono
rispettivamente agli autovettori λ̄ e λ (e non a λ, λ̄). x2
Esercizio 3.3. Si studi la risposta libera dello stato per un sistema a tempo
continuo in cui la matrice A è: x1
  b
−1 0 −1 c
A =  −1 −3 0.
0 0 −2 a

Soluzione. Data la forma triangolare di A, si ottiene subito per gli auto- d


valori:
λ1 = −1, λ2 = −3, λ3 = −2.
Corrispondentemente gli autovettori risultano essere:
     
2 0 1 Figura 3.2 – Traiettorie nello spazio di stato

u1 = −1   
, u2 = 1 , u3 =  −1  , Infine si noti che, poiché le componenti di xl (t) rispetto agli assi carte-
0 0 1 siani sono 2c1 e−t + c3 e−2t , −c1 e−t + c2 e−3t − c3 e−2t , c3 e−2t , se la terza
    componente di x0 è inizialmente nulla, rimane sempre tale.
v1T = 1 0 − 1 , v2T = 1 1 1 , v3T = ( 0 0 1 ) .
2 2 2 2
140 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 141

Esercizio 3.4. Si scriva la risposta libera dello stato per un sistema a si ricava:
tempo continuo in cui la matrice dinamica è:  
et 0 0
  Φ(t) = eAt −1 Dt
=T e T =T −1 
0 e−t cos t e−t sen t  T =
1 0 0
A = 0 0 1 0 −e−t sen t e−t cos t
0 −2 −2  
et 0 0
   −t −t 
1 =0 e (sen t + cos t) e sen t . (3.5)
a partire dallo stato x0 =  0 . 0 −t
−2e sen t −t
e (cos t − sen t)
2
A questa stessa espressione si perviene considerando la base {u1 , u2 , u3 }
e l’espressione:
Soluzione. Essendo A diagonale a blocchi,  
  0 0 0
1 0 0  1−j j 
λ1 = 1, λ2 = −1 + j, λ3 = λ̄2 = −1 − j.  − 
Φ(t) = eAt = et  0 0 0  + e(−1+j)t  0 2 2  +
 
Si ha pertanto un autovalore reale ed una coppia di autovalori complessi 0 0 0 j+1
0 j
2
coniugati. Corrispondentemente si possono determinare gli autovettori:  
      0 0 0
1 0 0  
(−1−j)t  0 j+1 j 
u1 =  0  , u2 =  1  , u3 =  1 , +e 
 2 2 

0 −1 + j −1 − j j−1
0 −j −
2
   
v1T = ( 1 0 0 ) , v2T = 0 1 − j − j , v3T = 0 1 + j j . che, tramite le formule di Eulero, permette di riottenere la (3.5).
2 2 2 2
Considerando gli autovettori: Il calcolo di Φ(t) può essere fatto anche osservando che le sue colonne
      sono le evoluzioni libere a partire da opportune condizioni iniziali, per cui si
1 0 0 può utilizzare la (3.3) per il calcolo della Φ(t) eseguito colonna per colonna.
 T
u1 =  0  , ua =  1  , ub =  0  , Infatti ponendo x0 = 1 0 0 , si ottiene:
0 −1 1  t
e
e la trasformazione: xl1 (t) =  0 
  0
v1T  −1  
   −1 1 0 0 1 0 0  T
 T 
T =  v2a  = u1 ua ub = 0 1 0 = 0 1 0, (curva a) mentre ponendo x0 = 0 1 0 :
      
0 −1 1 0 1 1
T
v2b √ −t   0   0
xl2 (t) = 2e  sen t + π  1  + cos t + π  0   =
4 4
che trasforma A nella matrice: −1 1
     
λ1 0 0 1 0 0 0
D = T AT −1 =  0 α ω = 0 −1 1, =  e−t (sen t + cos t) 
0 −ω α 0 −1 −1 −2e−t sen t
142 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 143

 T
(curva b) ed infine con x0 = 0 0 1 : e dunque:
             
0 0 0 1 0 0
xl3 (t) = e−t  sen t  1  + cos t  0   =  e−t sen t 
xl (t) = e  0  + 2e  sen t  1  + cos t  0   =
t −t
−t
−1 1 e (cos t − sen t) 0 −1 1
(curva c).  
et
= 2e−t sen t .
x3 2e−t (cos t − sen t)

La stessa espressione si ottiene, più direttamente, calcolando Φ(t)x0 , ovvero


x2 d da xl (t) = xl1 (t) + 2xl3 (t).
È opportuno sottolineare che, per la particolare forma della matrice A,
c x1 la prima componente di xl (t) risulta essere “disaccoppiata” dalle restanti
due, e quindi evolve indipendentemente da queste. Per tale ragione l’evoluzione
b a a partire da uno stato iniziale proporzionale ad u1 si svolge lungo la retta
u1 contenente u1 con legge temporale esponenziale crescente; viceversa, l’evoluzione
a partire da uno stato iniziale contenuto nel piano individuato dai vettori
ua , ub si svolge lungo una spirale con legge temporale pseudoperiodica.

Esercizio 3.5. Determinare l’evoluzione libera dello stato a partire dallo


stato x0 , per un sistema avente matrice dinamica A, ove:
   
−3 4 −2 −1 1 1
Figura 3.3 – Traiettorie nello spazio di stato  1 0 1 0 −1  2
   
A= 6 −6 5 0 −6  , x0 =  3  .
Considerando ora lo stato iniziale x0 , e i vettori    
  0 0 0 −2 1 0
vT   0 0 0 −1 −2 2
 1   −1 1 0 0
 T
 va  = u1 ua ub = 0 1 0
 
0 1 1
vbT
Soluzione. Poiché la matrice A è triangolare a blocchi, il calcolo degli
(si noti che si tratta dell’inversione di una matrice elementare), in base alla autovalori può essere condotto separatamente per ciascun blocco:
(3.3) si ottiene:
     
−3 4 −2
1 1 −2 1
c1 = v1T x0 = ( 1 0 0 )  0  = 1, c2a = v2a T
x0 = ( 0 1 0 )  0  = 0, A1 =  1 0 1, A2 = .
−1 −2
2 2 6 −6 5
 
1 Si trova in tal modo:
c2b = v2bT
x0 = ( 0 1 1 )  0  = 2, m2 = 2, ϕ2 = 0,
2 λ1 = 1, λ2 = −1, λ3 = 2, λ4 = −2 − j, λ5 = −2 + j.
144 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 145

Gli autovettori sono quindi: 3.1.b. Sistemi a tempo discreto


       
1 −1 0 1
Data una rappresentazione con lo stato di un sistema lineare, a dimen-
1  0  1 0
        sione finita, stazionario
u 1 =  0  , u2 =  1  , u3 =  2  , u4 =  0  , u5 = u∗T
4 ,
       
0 0 0 j x(t + 1) = Ax(t) + Bu(t)
0 0 0 1 (3.6)
y(t) = Cx(t) + Du(t),
avendo indicato con “∗” il coniugato trasposto. Al posto di u4 e u5 si
considerano i vettori le evoluzioni nello stato e nell’uscita sono date dalle seguenti espressioni:
   
1 0
0 0 
t−1
    x(t) = Φ(t − t0 )x0 + H(t − τ )u(τ )
u4a =  0  , u4b =  0  .
    τ =t0
0 1 (3.7)
1 0 
t
y(t) = ψ(t − t0 )x0 + W (t − τ )u(τ ).
La ricerca degli autovettori sinistri, che sarebbero necessari per deter- τ =t0
minare le costanti ci , cja , cjb , può essere evitata osservando che risulta:
Analogamente al caso a tempo continuo, si tratta di calcolare le matrici che
x0 = u1 + u2 + u3 + u4a , compaiono nelle (3.7) a partire da A, B, C, D. Le relazioni cercate sono:
per cui:
c1 = c2 = c3 = 1, c4a = 1, c4b = 0. Φ(t) = At , t ≥ 0, H(t) = At−1 B, t > 0,
/
D se t = 0
In caso non si fosse notato ciò, nell’inversione della matrice Ψ(t) = CAt , t ≥ 0, W (t) =
  CAt−1 B se t > 0.
T −1 = u1 u2 u3 u4a u4b Si noti che nel caso a tempo discreto la matrice di transizione dello
stato Φ(t) è definibile anche per t < 0 se A è invertibile. Nel caso a tempo
si tenga conto che si tratta di una matrice triangolare a blocchi.
continuo, invece, la matrice di transizione dello stato è definita anche per
Applicando la (3.3) si ottiene: t < 0, sicché può sempre essere invertita.
- .
 π  π Nel caso in cui gli autovalori di A siano distinti, ed indicato con µ
−t −2t
t 2t
xl (t) = e u1 +e u2 +e u3 +e sen −t+ u4a +cos −t+ u4b = il numero di autovalori reali e con ν quello degli autovalori complessi e
2 2 coniugati, la risposta libera nello stato per sistemi a tempo discreto assume
 
= et u1 + e−t u2 + e2t u3 + 2e−2t cos t u4a + sen t u4b = l’espressione:

  
µ 
ν  
et − e−t + 2e−2t cos t xl (t) = ci λti ui + σjt mj sen (ϑj t + ϕj )uja + cos (ϑj t + ϕj )ujb (3.8)
 t
e +e 2t 
  i=1 j=1

= e−t
+ 2e t .

 −2t
2e sen t  in cui ci , cja , cjb , mj , ϕj sono calcolabili come nel caso a tempo continuo.
2e−2t cos t I termini a secondo membro della (3.8) sono i modi naturali. Più
precisamente quelli della prima sommatoria sono i modi aperiodici, se λi >
Si può poi verificare che, coerentemente, risulta x(0) = x0 . 0, e i modi alternanti, se λi < 0, mentre quelli della seconda sommatoria
sono i modi pseudoperiodici.
146 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 147

Nel caso di autovalori non tutti distinti, definito il polinomio fattoriale (si tenga conto nel calcolo dell’inversa che T −1 è diagonale a blocchi) e
quindi:
t(h) t t(t − 1) · · · (t − h + 1)
:= = , 
h! h h!
T
c1a = v1a x0 = 1, T
c1b = v1b x0 = 0, c3 = v3T x0 = 0, σ1 = α2 + γ 2 ,

n
γ
l’evoluzione libera a partire da x0 = x0i , con x0i ∈ Ui , si scrive: m1 = 1, ϕ1 = π , ϑ1 = arctan ω α = −θ, avendo posto θ = arctan β .
i=1
2
Pertanto si ha:

r 
t     
t(h) 1 −1
xl (t) = (A − λi I)h λt−h x0i .
xl (t) = σ1t  cos θt  1  − sen θt  1   .
i
i=1 h=0 h!
0 0

Esercizio 3.6. Studiare la risposta libera nello stato per il sistema a tempo
discreto caratterizzato dalla seguente matrice dinamica:
  x3 ≡ u3
α −γ 0
A = γ
0
α 0 ,
0 β . .. . .. . .
 T . .. . . .
a partire da x0 = 1 1 0 .
. . .
Soluzione. Detto ω = −γ, è ovvio che:
.. .. .
λ1 = α − jγ, λ2 = α + jγ, λ3 = β.
. .... . .. .. .
5
4 3 2
con 
1−j
  
0 . . . 6
7
t= 0
1 x1

u1 =  1 + j  ,
0
u2 = u∗T
1 , u3 =  0  .
1 ub . .
Il calcolo dell’evoluzione a partire da uno stato iniziale assegnato x0 , può
essere effettuato in base alla (3.8). Si ricava: x2 ua
     
1 −1 0
u1a =  1  , u1b =  1  , u3 =  0  , Figura 3.4
0 0 1
L’evoluzione rimane quindi confinata al sottospazio generato da u1a ,
    u1b , come d’altra parte è noto in quanto x0 appartiene a tale sottospazio.
T
v1a 1 1 0
   −1  2 2  L’analisi può essere facilmente completata facendo variare lo stato iniziale
 T    x0 in IR3 .
 v1b  = u1a u1b u3 =  −1 1 0 
   2 2  Si noti che alla stessa espressione si arriva se si considerano altri due
v3T 0 0 1 autovettori destri corrispondenti all’autovalore complesso e coniugato, ad
148 3. Analisi nel dominio del tempo 3.1. I modi naturali nell’evoluzione libera dello stato 149

esempio:   È interessante osservare che il comportamento dinamico riportato nelle


1 figure 3.4 e 3.5 può essere ottenuto campionando le evoluzioni di un sistema
ũ1 =  j  , ũ2 = ũ∗T
1 , a tempo continuo con autovalori pari al logaritmo principale degli autovalori
0 del sistema assegnato ed autovettori coincidenti con quelli del sistema dato,
ossia con autovalori:
che sono linearmente dipendenti da u1 , u2 . In tal modo si ricava
        √ π √ π
1 0 1 0 λ1 = ln 2 − j , λ2 = ln 2 + j , λ3 = ln 1 = 0,
ũ1a =  0  , ũ1b =  1  , ṽ1a =  0  , ṽ1b =  1  , 4 4
0 0 0 0 nel primo caso e

c̃1a = c̃1b = 1, m̃1 = 2, ϕ̃1 = 3 π, che portano alla stessa espressione di π π
4 λ1 = ln 2 − j , λ2 = ln 2 + j , λ3 = 0,
xl (t).
3 3
nel secondo, ed autovettori u1 , u2 , u∗T
2 .

x3 ≡ u3 Esercizio 3.7. Si consideri il modello demografico di una popolazione,

.. .. . .
suddivisa in tre classi di età e la cui dinamica è descritta dalle equazioni:
 
.. ..
x1 (k + 1)T = f1 x2 (kT )
 
x2 (k + 1)T = s1 x1 (kT )
.  
x3 (k + 1)T = s2 x2 (kT )

..
..
3
.. . .
2
1
ove f2 è il tasso di natalità della classe d’età 2 nel periodo k, s1 , s2 sono i
tassi di sopravvivenza delle classi d’età 1 e 2 nel periodo k di durata T . Si
studi l’evoluzione libera.

. 4
5 ..
t= 0
6
x1
Soluzione. È interessante osservare come la classe dei sistemi a tempo
ub discreto sembri, almeno ad una prima analisi, più adatta a riprodurre il
comportamento di questi semplici modelli demografici. Il modello eviden-
zia, infatti, la presenza di modi alternanti, riproducibili da un sistema a
x2 ua tempo continuo campionato solo a prezzo di un aumento della dimensione
dello spazio di stato. La matrice dinamica risulta:
Figura 3.5  
0 f1 0
Le evoluzioni sono sinteticamente riportate nelle figure 3.4 e 3.5; nella A =  s1 0 0,

prima si è considerato α = γ = β = 1 mentre nella seconda α = 1, γ = 3, 0 s2 0
β = 2.
Si noti come le evoluzioni rimangono confinate in piani perpendicolari per cui gli autovalori sono:
ad u3 in conseguenza del fatto che λ3 = 1. Si noti inoltre come al variare  
della fase dell’autovalore complesso α − jγ varia il numero di campioni. λ1 = s1 f1 , λ2 = − s1 f1 , λ3 = 0.
150 3. Analisi nel dominio del tempo 3.2. I modi naturali nell’evoluzione forzata e nell’uscita 151

Nell’evoluzione del sistema sarà quindi presente un modo alternante. Gli Qualora il modo i–esimo sia eccitabile, ci si può chiedere se esista un in-
autovettori destri sono: gresso che lo ecciti isolatamente, cioè che dia luogo ad un’evoluzione (che
 ,   ,  per istanti successivi a quello di applicazione dell’impulso è un’evoluzione
f1 f1   libera) costituita dal solo modo i–esimo. Preso come ingresso
 s   − s1  0
 1     

u1 =  1  ,  u2 =  1  u3 =  0  , u(t) = u0 δ(t − t0 ), u0 ∈ IRp ,
,
 s2   
√ − √ s2 1 è noto che il modo i–esimo può essere eccitato separatamente dagli altri
s1 f1 s1 f1 se e solo se si può scegliere u0 in modo che Bu0 assuma la direzione di
ui (se λi è reale) o appartenga al piano di uia , uib se λi è complesso. In
e quelli sinistri:  , 
altre parole, sono isolatamente eccitabili soltanto quei modi aperiodici i cui
  1 s1 1
autovettori appartengano a R(B) e quei modi pseudoperiodici i cui piani
v1T  2 2
0
 f 
 T  −1 1
 ,  abbiano intersezione diversa dall’origine con R(B).
 v2  = u1 = 1 s 1 0
 − 2 f1
u2 u3 1
  2  Si noti che se vi è complesso, e dette via , vib le sue parti reale ed im-
 
v3T   maginaria, la (3.9) equivale alla verifica di almeno una delle due condizioni:
− s2 0 1
f1 T
via B = 0, T
vib B = 0. (3.10)
−1
(si tenga conto nel calcolo dell’inversa che T è triangolare a blocchi) e
Passando a considerare l’uscita si rammenta che è possibile dimostrare
dunque l’espressione dell’evoluzione libera è:
che le colonne di Ψ(·) = CΦ(·) sono combinazioni lineari di modi e che
 ,   ,  il modo i–esimo è detto osservabile in uscita se compare in almeno un
f1 f1  
√  s  √  − s1  0 elemento di Ψ(·). In tal caso esiste uno stato iniziale x0 tale che l’evoluzione

s 1 f1 t 
1     
 − s 1 f1 t   libera dell’uscita a partire da x0 contenga il modo i–esimo. Il vettore Cui
xl (t) = c1 e  1  + c2 e  1  + c3  0  , individua, nello spazio Y dei valori di uscita, il sottospazio nel quale si
 s2   
√ − √ s2 1 muove l’evoluzione libera nell’uscita quando x0 sia tale da eccitare il solo
s1 f1 s1 f1
modo i–esimo. Si dimostra che tale modo è osservabile se e solo se risulta:
con
* * Cui = 0. (3.11)
1 s1 1 1 s1 1 s2
c1 = x01 + x02 , c2 = − x01 + x02 , c3 = − x01 + x03 , Anche in questo caso, se ui è complesso, la (3.9) equivale alla verifica di
2 f1 2 2 f1 2 f1 almeno una delle due condizioni:
 T
ed essendo x0 = x01 x02 x03 . Cuia = 0, Cuib = 0. (3.12)
Nelle colonne di CΨ(·)B, che per i sistemi strettamente causali è la
matrice W (·) delle risposte impulsive, sono ovviamente presenti tutti e soli
3.2. I modi naturali nell’evoluzione forzata e nell’uscita i modi che risultano simultaneamente eccitabili ed osservabili.

3.2.a. Sistemi a tempo continuo regolari Per scoprire quali dei modi eccitabili lo siano indipendentemente uno
dall’altro occorre esaminare le intersezioni tra R(B) e i sottospazi in cui
Le colonne di H(·) = Φ(·)B sono combinazioni lineari di modi naturali. evolvono le traiettorie dei singoli modi. Perché il modo associato a λi ∈
IR sia eccitabile indipendentemente dagli altri si deve avere ui ∈ R(B);
Un assegnato modo si dice eccitabile con impulsi in ingresso se compare in 
almeno una colonna di H(·). Il modo associato all’autovalore λi risulta analogamente se λi ∈ C, perché il modo associato sia eccitabile indipenden-
eccitabile con impulsi in ingresso se e solo se: temente dagli altri si deve avere: R(uia , uib ) ∩ R(B) = {0}. Una procedura
sistematica per ottenere questo risultato è la seguente.
viT B = 0. (3.9)
152 3. Analisi nel dominio del tempo 3.2. I modi naturali nell’evoluzione forzata e nell’uscita 153

Procedura 3.1. 
r
Ovviamente x0 = x0i , con:
1) Si costruisce la matrice E ottenuta affiancando a destra di B gli au- i=1
tovettori destri corrispondenti ai modi eccitabili (per i modi pseudope-

qi 
mi
riodici si usino i vettori ua , ub ); 1 1
x0i = αi1 2 2
ui1 + αi1 ui1 + · · · + αi1
mi mi 1 1
ui1 + αi2 2 2
ui2 + αi2 ui2 + · · · = k k
αij uij
2) si opera sulle colonne di E con trasformazioni elementari (si veda il j=1 k=1
capitolo 1) a partire dalla prima colonna di B, il cui ultimo elemento
è supposto non nullo, in modo da annullare tutti gli altri elementi ossia x0i può essere decomposto nella combinazione lineare degli autovettori
dell’ultima riga di E; generalizzati della base di Ui . L’evoluzione a partire da x0 sarà la combi-
3) si ripetono le operazioni precedenti sulla sotto–matrice ottenuta can- nazione di evoluzioni a partire da condizioni iniziali coincidenti con quegli
cellando l’ultima riga; autovettori generalizzati:
4) si procede sino a quando ogni colonna non nulla di B sia stata usata 
r 
qi  
mi k−1
th
per le operazioni di annullamento. xl (t) = k
αij eλi t (A − λi I)h ukij .
i=1 j=1 k=1 h=0 h!
Al termine delle operazioni, alcune delle colonne di E originariamente oc-
cupate da autovettori corrispondenti a modi aperiodici risulteranno nulle: Se ukij è uno di tali autovettori, quello di ordine k nella catena j–esima, il
i modi che corrispondevano a tali autovettori sono eccitabili indipendente- modo a partire da esso avrà espressione:
mente, in quanto i loro autovettori sono risultati essere combinazioni lineari
delle colonne di B. Viceversa gli autovettori che non sono stati annullati 
k−1
th 
k−1
th
con questa procedura non possono appartenere a R(B). Inoltre alcune (A − λi I)h eλi t ukij = k−h
eλi t uij ,
h=0 h! h=0 h!
coppie di colonne corrispondenti a modi pseudoperiodici risulteranno pro-
porzionali: tali modi sono eccitabili indipendentemente poiché la somma
dello spazio in cui evolvono (di dimensione 2) e di R(B) (di dimensione in quanto (A − λi I)h ukij = uk−h
ij . Ne segue che la legge temporale del tipo:
)(B)) ha dimensione )(B) + 1 e quindi l’intersezione di questi due spazi ha
dimensione 1. Se oltre ad essere proporzionali, le due colonne sono nulle, th
eλi t (3.13)
l’intersezione ha dimensione 2. h!
Passando ad esaminare i modi naturali nell’evoluzione forzata nell’uscita, compare moltiplicata per l’autovettore di ordine k − h della generica catena
dall’espressione (3.4) si constata immediatamente che alcuni dei termini j–esima. Perché tale legge temporale possa comparire nell’uscita è perciò
della sommatoria possono non comparire nell’uscita, qualora lo stato in- necessario e sufficiente che esista una coppia di indici (j, h) tali che risulti:
iziale e la matrice C siano tali che risulti, per qualche j:
k−h
Cuij = 0. (3.14)
C(A − λi I)j x0i = 0.
Qualora non esista alcuna coppia di indici che verifichi tale condizione la
Questo fatto implica che la struttura di un modo naturale nella uscita può
legge temporale (3.13) non può comparire nell’evoluzione libera dell’uscita.
presentarsi diversamente da quella che lo stesso modo ha nello stato. Mentre k−h
infatti la legge temporale di evoluzione dello stato non può mai contenere un È ovvio che se uij è preso come stato iniziale e la (3.14) è soddisfatta,
h h−1 allora potrebbero comparire in uscita anche le leggi temporali:
termine del tipo t eλi t senza anche contenere t eλi t , · · · , teλi t , eλi t ,
h! (h − 1)!
th−1
nell’uscita tale legge temporale può apparire isolatamente. Per rendersi eλi t , · · · , teλi t , eλi t .
conto di ciò, si consideri il sottospazio Ui (i = 1, · · · , r) e una sua base (h − 1)!
formata dalle catene di autovettori generalizzati:
/ 0 Considerazioni analoghe possono essere ripetute per quanto riguarda
Ui = gen u1i1 u2i1 · · · um i1
i
u 1
i2 u 2
i2 · · · . la risposta forzata nello stato. La presenza di una legge temporale del tipo
154 3. Analisi nel dominio del tempo 3.2. I modi naturali nell’evoluzione forzata e nell’uscita 155

della (3.13) nella risposta impulsiva nello stato è determinata dall’esistenza Passando all’uscita, si può eseguire il prodotto Ψ(t) = CeAt ottenendo:
di un opportuno “autovettore sinistro generalizzato” tale che risulti valida
la (3.9). Inoltre l’esistenza di tale legge temporale implica quella delle leggi 2(e−t − et ) 2e−t − et −et
Ψ(t) = .
analoghe con h − 1, h − 2, · · ·, 1 , 0. 2et et et
Tutte queste considerazioni risultano alquanto più semplici se si ricorre
alla rappresentazione del sistema nella quale A assuma la forma canonica Si constata che nelle colonne di Ψ(·) non compare il modo corrispondente a
di Jordan; ciò è lecito poiché, come è noto, i risultati dell’analisi modale λ3 (l’autovalore nullo), che pertanto non è osservabile, mentre lo sono i modi
svolta per una particolare rappresentazione sono validi per tutto l’insieme corrispondenti a λ1 e λ2 . Si osservi tuttavia che il modo corrispondente a
delle rappresentazioni ad essa strettamente equivalenti. λ2 è osservabile soltanto tramite la prima componente dell’uscita. Se il
Infine è noto che, grazie al legame tra proprietà dei modi e proprietà sistema assegnato venisse
connesso
con un blocco istantaneo caratterizzato
strutturali, l’osservabilità e l’eccitabilità dei modi può essere anche anal- 0 5
da una matrice M = , di cui y è l’ingresso e ỹ = M y è l’uscita,
izzata studiando i sottospazi degli stati osservabili e raggiungibili. Questa 0 5
corrispondenza tra eccitabilità (osservabilità) dei modi e raggiungibilità (os- nel nuovo sistema cosı̀ ottenuto anche il modo corrispondente a λ2 sarebbe
servabilità) degli stati necessita però alcune precisazioni in quanto possono inosservabile.
presentarsi delle situazioni particolari, in cui non è vero che il sotto–sistema La verifica dell’osservabilità poteva essere fatta direttamente tramite
raggiungibile (osservabile) è caratterizzato da tutti e solo i modi eccitabili le (3.11) ottenendo:
(osservabili). Questo aspetto verrà approfondito nel capitolo 6.
−1 2
Cu1 = = 0, Cu2 = = 0, Cu3 = 0.
Esercizio 3.8. Studiare dal punto di vista dell’analisi modale il seguente 1 0
sistema:
    Poiché nessun modo è simultaneamente eccitabile ed osservabile, ci si at-
1 0 1 2 −1 tende che W (·) = CH(·) non ne contenga nessuno, cioè sia nulla. Ed infatti
0 1 −1
A =  −2 −1 −1  , B =  −2 1, C = , D = 0. si ottiene:
2 1 1
2 2 0 −2 1 W (t) = CeAt B = 0.
Può essere interessante esaminare l’insieme di coppie ingresso–uscita rap-
presentato dalle matrici assegnate. Assumendo ovviamente T = IR, U =
Soluzione. Gli autovalori ed autovettori di A sono stati determinati nell’esercizio Y = IR2 , U coincidente con l’insieme delle funzioni continue, X = IR3 , la
3.1, in cui è stata calcolata eAt . Eseguendo il prodotto eAt B si calcola: costruzione della generica relazione Σ(t0 ), cioè la determinazione di tutti
  gli y0 che sono in relazione con un ingresso u0 , va ovviamente effettuata
2 −1 tramite le funzioni ϕ ed η che, composte, danno in questo caso:
H(t) =  −2 1 .
−2 1 y(t) = Ψ(t − t0 )x0 , t > t0 , ∀u ∈ U, x0 ∈ X. (3.15)

Si noti che nelle colonne di H(·) è presente il solo modo corrispondente Gli elementi di Σ(t0 ) si ottengono associando ad ogni ingresso u0 tutte le
all’autovalore nullo di A; pertanto i restanti modi non sono eccitabili. Ciò possibili uscite generate dalla (3.15) facendo variare x0 . Se si indica con
può anche essere verificato applicando la (3.9): Y T (t0 ) l’insieme di queste uscite e con U T (t0 ) l’insieme:
 
v1T B = 0, v2T B = 0, v3T B = −2 1 = 0. U T (t0 ) = {u|T (t0 ) | u ∈ U},

Ciò conferma che il solo modo corrispondente a λ3 è eccitabile. Ne segue è immediato constatare che risulta:
pertanto che tale modo è separatamente eccitabile con un ingresso impul-
sivo, ed infatti u3 ∈ R(B) mentre ovviamente u1 e u2 non vi appartengono. Σ(t0 ) = U T (t0 ) × Y T (t0 ) .
156 3. Analisi nel dominio del tempo 3.2. I modi naturali nell’evoluzione forzata e nell’uscita 157

Inoltre scelto t−1 < t0 , è immediato constatare che ogni elemento di Σ(t0 ) Soluzione. Gli autovalori ed autovettori di A sono già stati determinati
può essere ottenuto tramite il troncamento di un elemento di Σ(t−1 ); infatti nell’esercizio 3.4, nel quale si è visto come si sia in presenza di un modo
ogni uscita costruibile tramite la (3.15) è anche ottenibile come troncamento aperiodico crescente e di uno pseudoperiodico smorzato.
dell’uscita, definita su [t−1 , ∞), che si ha a partire dallo stato iniziale L’applicazione delle (3.9), (3.10) dà:
v1T B = 0, T
v2a B = (1 2), T
v2b B = (1 3).
x−1 = Φ−1 (t0 − t−1 )x0
Ne segue che il modo pseudoperiodico è eccitabile mentre non lo è quello
imposto all’istante iniziale t−1 . Pertanto il sistema è uniforme e può essere aperiodico. Per l’uscita si ottiene, applicando le (3.11), (3.12):
assegnato tramite un’unica relazione Σun . Togliendo infatti la restrizione
Cu1 = 0, Cu2a = 1, Cu2b = 0.
t > t0 nella (3.15) questa individua un insieme di funzioni definite su tutto
T ; è immediato constatare che si ha: Pertanto il modo pseudoperiodico è osservabile mentre quello aperiodico
non lo è. Ci si attende dunque che il solo modo pseudoperiodico compaia
Σun = U T (t0 ) × Y T (t0 ) . sia in Ψ(·), sia in H(·), sia in W (·). E infatti tenendo conto dell’espressione
di Φ(t) data nell’esercizio 3.4, si ottiene:
Da quanto detto è facile costruire altre rappresentazioni per questo sistema.  
Ad esempio: Ψ(t) = 0 e−t (sen t + cos t) e−t sen t ,
 
0 0
A = 0, B = 0, C = Ψ(t), D = 0,  
H(t) =  e−t (sen t + cos t) e−t (3sen t + 2cos t)  ,
che non è stazionaria, dello stesso ordine di quella data ma non algebrica- −2e−t sen t e−t (cos t − 5sen t)
mente equivalente ad essa, oppure:  
W (t) = e−t (sen t + cos t) e−t (3sen t + 2cos t) .

2e−t − et −et
A = B = D = 0, C= , È immediato constatare che il sistema rappresentato da queste matrici è
et et
connesso, cioè può essere individuato tramite una funzione F : U → Y .
che è di ordine più basso della precedente; o ancora A, B, C coincidenti con Esercizio 3.10. Studiare dal punto di vista dell’analisi modale il seguente
quelle assegnate e B = 0, che è stazionaria e dello stesso ordine di quella sistema:
assegnata ma non ad essa strettamente equivalente.  
−3 4 −2 −1 1  
2 1 1
 1 0 1 0 −1 
Esercizio 3.9. Studiare dal punto di vista dell’analisi modale il seguente    0 1 −1 
A =  6 −6 5 0 −6  ,  
sistema:   B =  0 2 −2  ,
0 0 0 −2 1  
1 0 1
    0 0 0 −1 −2
1 0 0 0 0 2 1 1
A = 0 0 1, B = 1 2, C = (0 1 0), D = 0. 2 −2 1 0 1
C= , D = 0,
0 −2 −2 0 1 −2 2 −1 1 0
analizzando in particolare l’eccitabilità dei modi indipendentemente dagli
altri.
158 3. Analisi nel dominio del tempo 3.2. I modi naturali nell’evoluzione forzata e nell’uscita 159

Soluzione. Gli autovalori ed autovettori destri di A sono stati già deter- Quindi la seconda colonna di E1 viene sommata alla 3a , sottratta alla 5a e
minati nell’esercizio 3.5. Gli autovettori sinistri sono: sommata alla 6a moltiplicata per 2, ottenendo:
 . 
v1T = ( −1 2 −1 0 1), 2 0 0 .. 0 0 0
 
v2T = ( −2 2 −1  . 
0 2), 0 1 0 .. 1 −1 2 
 . 
v3T = ( 1 −1 −1 0 −1 ) , E2 = 
0 2 0 .. 2 −2 4  
 
T
v4a = (0 0 0 −1 1),  1 − 1 0 ... 0 0 0
 2 
T ..
v4b = (0 0 0 1 0).
2 0 0 . 0 0 0
Applicando le (3.9), (3.10) si trova: La procedura ha termine poiché le prime due colonne di B sono state già
usate e la terza è divenuta nulla. Poiché la quarta colonna, corrispondente
v1T B = 0, v2T B = 0, v3T B = ( 0 1 −1 ) , al modo associato a λ3 , è diversa da zero, tale modo non è eccitabile sep-
aratamente con impulsi in ingresso. Infatti questa situazione corrisponde
T T al fatto che u3 ∈ R(B). Viceversa le ultime due colonne di E2 sono pro-
v4a B = (1 1 0), v4b B = (1 0 1).
porzionali, per cui R(u4a , u4b ) ∩ R(B) = 0 (tale intersezione ha dimensione
Pertanto sono eccitabili i modi corrispondenti agli autovalori λ3 , λ4 , λ5 . Per 1) e il modo pseudoperiodico (corrispondente alla coppia λ4 , λ5 ) può essere
vedere quali dei modi eccitabili lo siano indipendentemente uno dall’altro eccitato separatamente dagli altri (e ciò, si osservi, nonostante
  né u4a né
studiamo le intersezioni tra R(B) e i sottospazi in cui evolvono le traiet- 1
torie dei singoli modi. Applicando la procedura 3.1, si costruisca allora la u4b appartengano a R(B)). E infatti ponendo u(t) =  0  δ(t) si ottiene
matrice: 0
B u3 u4a u4b per l’evoluzione forzata dello stato l’espressione:
   
..
2 1 1 . 0 1 0 3 sen t − 1 cos t
   5 
 ..  
5

0 1 −1 . 1 0 0  
   0 
E =0 2 −2
..
. 2 0 0

−2t  0 
  xf (t) = e  ,
1 .  1 
 0 1 .. 0 0 1  − sen t − cos t 
 5
3

5
..  
2 1 1 . 0 1 0 3 sen t − 1 cos t
5 5
e iniziando con la procedura descritta, si somma la prima colonna di E,
moltiplicata per − 1 , alla 2a , 3a e 5a ottenendo: composta dal solo modo pseudoperiodico.
2 Passando a considerare l’uscita si trova:
 
. −1
2 0 0 .. 0 0 0 Cu1 = 0, Cu2 = , Cu3 = 0,
  1
 . 
0 1 −1 .. 1 0 0
 . 
E1 =  0 2 −2 .. 2 0 0. Cu4a =
3
, Cu4b =
0
.
 .  −2 1
1 − 1 1 .
. 0 − 1 1
 2 2 2  Pertanto i modi corrispondenti a λ1 e λ3 non sono osservabili mentre tutti
..
2 0 0 . 0 0 0 gli altri lo sono.
160 3. Analisi nel dominio del tempo 3.2. I modi naturali nell’evoluzione forzata e nell’uscita 161

Riassumendo, il risultato dell’analisi è il seguente: Poichè X è somma diretta di U1 e U2 , ogni vettore x0 può essere de-
– modo corrispondente a λ1 : non eccitabile e non osservabile; composto in modo unico rispetto ad U1 e U2 nella somma di due vettori
x0 = x01 + x02 . Se ad esempio si ha:
– modo corrispondente a λ2 : non eccitabile ma osservabile;
– modo corrispondente a λ3 : eccitabile (non separatamente) ma non  
0
osservabile;  −1 
x0 =  ,
– modo corrispondente a λ4 , λ5 : eccitabile (separatamente) ed osserv- 3
abile. −1
Ne segue che il solo modo pseudoperiodico compare nel prodotto CH(·).
si trova che x01 = u11 , x02 = −u e l’evoluzione dello stato è caratterizzata
Esercizio 3.11. Studiare i modi naturali del sistema avente la seguente dai due modi e−t u11 , et u.
matrice dinamica: Se invece:  
  3
0 1 0 1
 0 0 1 2  0 
A= . x0 =  ,
−1 −3 −3 −7 2
0 0 0 1 −1
si trova che x01 = 4u31 , x02 = −u e compaiono i modi:
- .
t2 t2
Soluzione. Il polinomio caratteristico di questa matrice è I + t(A + I) + (A + I)2 e−t u31 = e−t u31 + te−t u21 + e−t u11
2! 2!
p(λ) = |λI − A| = (λ + 1)3 (λ − 1),
ed et u.
per cui si ha l’autovalore λ1 = −1 di molteplicità algebrica n1 = 3 e
l’autovalore λ2 = 1 con n2 = 1. Gli autovettori generalizzati relativi a Esercizio 3.12. Studiare l’evoluzione nell’uscita del sistema avente la ma-
λ1 sono poi: trice A come nell’esercizio 3.11 e:
     
1 1 1 0 1 1 2
 −1   0  0 C=
0 −2 −2 −4
.
u11 =  , u21 =  , u31 =   ,
1 −1 0
0 0 0

ove (A − λ1 I)u21 = u11 , (A − λ1 )u31 = u21 . Essi formano una catena di


lunghezza tre. Si noti che per λ1 la molteplicità algebrica e geometrica Soluzione. Come base in U1 si assumono u11 , u21 , u31 che formano una
coincidono. Per l’autovalore λ2 si trova: catena di autovettori generalizzati (si veda l’esercizio 3.11). Si constata
immediatamente che risulta:
 
1
 0  Cu11 = 0, Cu21 = 0, Cu31 = 0.
u= .
−2
1 Pertanto applicando quanto visto nell’esercizio 3.11, si ha:
– la legge temporale e−t può comparire nell’uscita. Ponendo infatti come
Pertanto U1 è il sottospazio di dimensione 3 formato da tutti i vettori aventi condizione iniziale proprio x0 = u21 lo stato evolve secondo il modo
la quarta componente nulla, mentre U2 è il sottospazio di dimensione 1 lungo
cui giace u. e−t u21 + te−t u11 ,
162 3. Analisi nel dominio del tempo 3.2. I modi naturali nell’evoluzione forzata e nell’uscita 163

e il primo termine di questa evoluzione compare nell’uscita;


– la legge temporale te−t può comparire nell’uscita. Ponendo infatti
+ 
x0 = u31 l’evoluzione dello stato è caratterizzata dal modo -1
+ +
t2
e−t u31 + te−t u21 + e−t u11 ,
2 -1

y1
il cui secondo termine compare nell’uscita; -1
2 
– la legge temporale t e−t non può comparire nell’uscita.
2! + + y2
2
Esercizio 3.13. Si studi l’evoluzione forzata ed in uscita del sistema rap- u
-1
presentato dalle matrici A e C dell’esercizio 3.12 e da

0 
 1 
B= .
−3
1
-1

+ 
Soluzione. L’evoluzione nell’uscita è stata studiata nell’esercizio 3.12. Riguardo
+
l’evoluzione forzata si esegua un cambiamento di base nello spazio di stato
individuato dalla matrice:
 
0 −1 0 0
−1  0 −1 −1 −2 
T = ( u11 u21 u31 u ) =  . Figura 3.6
1 2 1 1
0 0 0 1 A questa rappresentazione corrisponde lo schema realizzativo di figura 3.6,
dal quale risulta evidente come soltanto le leggi temporali e−t ed et possano
Si ottiene la seguente rappresentazione:
essere eccitate mediante impulsi in ingresso.
   
−1 1 0 0 −1
 0 −1 1 0   0  3.2.b. Sistemi a tempo discreto
 = J = T AT −1 = , B̂ = T B =  ,
0 0 −1 0 0
0 0 0 1 1 Per i sistemi a tempo discreto valgono considerazioni del tutto analoghe
a quelle svolte per i sistemi a tempo continuo.
−1 0 −1 0 0
Ĉ = CT = . Esercizio 3.14. Studiare dal punto di vista dell’analisi modale il sistema
0 2 0 0
a tempo discreto:
   
Come ci si aspettava  è costituita da due sotto–matrici, di cui la prima 7 2 −6 −1
corrispondente alla catena dei tre autovettori u11 , u21 , u31 e la seconda relativa x(t + 1) =  −30 −12 30  x(t) +  4  u(t)
alla catena costituita dal solo autovettore u. −6 −3 7 1
164 3. Analisi nel dominio del tempo 3.3. Esercizi e problemi 165

 
y(t) = −6 −3 7 x(t). 3.3. Esercizi e problemi

Esercizio 3.15. Studiare dal punto di vista della osservabilità in uscita i


Soluzione. Gli autovalori sono λ1 = 1, λ2 = −2, λ3 = 3, cui corrispondono modi del sistema a tempo continuo caratterizzato dalla matrice dinamica
degli autovettori destri con cui è possibile costruire la trasformazione T tale  
1 1 −1 0
che   0 1 0 1
  1 0 −1 A= 
T −1 = u1 u2 u3 =  0 2,
0 0 2 0
3
1 −3 1 4
1 1 0
per cui per un generico stato iniziale x0 , per ingresso nullo e per diverse matrici di
   
v1T −2 −1 3 uscita C.
 T  
T = 
 v2  =  2 1 −2  .
T
v3 −3 −1 3 Soluzione. Poiché |λI − A| = (λ − 2)4 , si ha un unico autovalore in λ = 2,
a cui corrispondono due catene di autovettori generalizzati:

3
Dunque, poiché At = λti ui viT :
       

i=1
     1 −1 0 1
−2 −1 3 0 0 0 3 1 −3 1  0  0  0 
1
u1 =   , u21 =  ,
3
u1 =   , u12 =  .
At =  0 0 0  + (−2)t  6 3 −6  + 3t  −6 −2 6  = 0 0 1 −1
−2 −1 3 2 1 −2 0 0 0 1 1 0 0
 
−2 + 3 3t −1 + 3t 3 − 3 3t Posto x0 = αu11 + βu21 + γu31 + δu12 , si ricava:
 
=  6 (−2)t − 6 3t 3 (−2)t − 2 3t −6 (−2)t + 6 3t  . - .
t2
−2 + 2 (−2)t −1 + (−2)t 3 − 2 (−2)t xl (t) = eλt (αu11 + βu21 + γu31 + δu12 ) + t(βu11 + γu21 ) + (γu11 ) .
2!
Inoltre:
v1T B = 1 = 0, v2T B = 0, v3T B = 2 = 0, Se dunque C = C0 = ( 0 0 1 0 ), allora C0 u31 = 0, C0 u12 = 0 e quindi
Cu1 = 1 = 0, Cu2 = −2 = 0, Cu3 = 0,  
y(t) = eλt γ C u31 + δ C u12 ,
per cui:


1 − 3t mentre se C = C1 = ( −1 0 0 1 ) solo C1 u12 = 0, sicché
H(t) = u1 + 3t 2u3 =  2 3t  ,
1 y(t) = γ t eλt C u21 .
 
Ψ(t) = v1T − 2 (−2)t v2T = −2 + 2 (−2)t −1 + (−2)t 3 − 2 (−2)t , Infine se C = C2 = ( 0 1 0 0 ) si ha che C2 u11 = 0, e

t2
W (t) = 1. y(t) = γ eλt C u11 .
2!
166 3. Analisi nel dominio del tempo 3.3. Esercizi e problemi 167

Esercizio 3.16. Dato il sistema Soluzione. Gli autovalori sono λ1 = 1 + 2j, λ2 = 1 − 2j, mentre gli
    autovettori destri sono:
0 1 0 3 0
ẋ =  1 0 0  x +  0 2u u1 =
j
=
0
+j
1
= ua + jub , u2 = ua − jub .
0 0 1 0 0 1 1 0

y = (2 1 1)x Posto:
vaT −1 0 1
= ( ua ub ) =
vbT 1 0
determinare gli stati iniziali in corrispondenza dei quali l’uscita in evoluzione
libera non è divergente per t tendente a infinito. si calcola:
, √ ca π
ca = vaT x0 = 1, cb = vbT x0 = 1, m = c2a + c2b = 2, ϕ = arctan = .
cb 4
Soluzione. Gli autovalori sono λ1 = −1, con molteplicità algebrica µ1 = 1,
e λ2 = 1, con µ2 = 2. Gli autovettori sono poi del primo ordine: Dunque:
        
1 0 1   π
√  π  π √  cos 2t + 4 
u1 =  −1  , u2 =  0  , u3 =  1  . xl (t) = 2et sen 2t+ ua +cos 2t+ ub = 2et   
 .
0 1 0 4 4 sen 2t + π
4
Dunque, posto x0 = αu1 + βu2 + γu3 :
  Esercizio 3.18. Si consideri il sistema descritto dalle equazioni
xl (t) = C e−t αu1 + et (βu2 + γu3 ) ,

0 1 ϑ
ẋ = f , x =
con   − k2 − 2 ϑ̇
γ ml ml
C[βu2 + γu3 ] = C  γ  = 3γ + β. (si veda il paragrafo 2.5.b del capitolo 2. Studiare i modi naturali al variare
β del parametro f ≥ 0.
Gli stati iniziali cercati si trovano ponendo β = −3γ, e sono del tipo:
Soluzione. Gli autovalori sono forniti dall’equazione caratteristica
x0 = αu1 + (−3u2 + u3 )γ
f k
|λI − A| = λ2 + λ+ = 0,
con α e γ qualsiasi. ml2 ml2
e valgono:
1 −2 
Esercizio 3.17. Data la matrice dinamica A = di un sistema −f ∓ f 2 − 4ml2 k
2 1 λ1,2 = .
a tempo continuo, determinare l’evoluzione libera dello stato a partire da 2ml2

1 Se f ∈ [0, 2l mk) sono complessi e coniugati (se f è nullo gli autovalori sono
x0 = . ,
1
immaginari puri λ1,2 = ∓j k ), se f = 2l √mk sono reali e coincidenti,
√ ml2
ed infine se f ∈ (2l mk, ∞) sono reali e distinti.
168 3. Analisi nel dominio del tempo 3.3. Esercizi e problemi 169

Gli autovettori sono facilmente ricavabili dall’equazione: Esercizio 3.19. Analizzare le relazioni esistenti tra gli autovalori di un sis-
  tema a tempo discreto e quelli di un sistema a tempo continuo campionato.
λ −1
 ki f  1
  ui = 0 ⇒ ui = .  
ml2
λi +
ml2 λi Soluzione. Siano λ1 = α + jω = σejϑ ∈ C, λ2 = α − jω = σe−jϑ ∈ C,
λ3 ∈ IR tre autovalori e u1 , u∗T
1 , u3 i tre autovettori corrispondenti. Si
√ consideri ora un sistema a tempo continuo avente due autovalori complessi
Nel caso che f ∈ [0, 2l mk) si considerano allora i vettori: e coniugati ed uno reale, dati dai logaritmi principali di λi :
   
    f
1 1 δ
 f +δ  f +δ  λc1 = ln σ + jϑ, λc2 = ln σ − jϑ, λc3 = ln λ3
ua = − f  , ub =   
, va =    ,
δ 2  , vb =  
2ml2 2ml2 − 2ml 2ml2 ed autovettori u1 , u∗T1 , u3 .
f +δ f +δ Se ora si considera il sistema ottenuto campionando tale sistema a
 tempo continuo, esso avrà matrice dinamica AD = eAT , ove T èc il peri-
ove δ = 4ml2 k − f 2 e dunque si ha un modo pseudoperiodico: odo di campionamento. Dunque gli autovalori saranno dati da eλ1 T = λT1 ,
      eλc2 T T
= λ2 , eλc3 T T
= λ3 , che coincidono con λi se T = 1 s. Pertanto si
−f t/2ml2 δ δ può concludere che il comportamento dinamico del sistema a tempo con-
xl (t) = m e sen t + ϕ ua + cos t + ϕ ub .
2ml2 2ml2 tinuo campionato coincide, negli istanti di campionamento, con quello di
un opportuno sistema a tempo continuo.
√ f Quanto detto vale per sistemi ottenuti dal campionamento di sistemi
Se f = 2l mk si ha λ1 = − e gli autovettori si ricavano dalle equazioni
2ml2 a tempo continuo. Dato ora un sistema a tempo discreto generico, non è
    sempre possibile individuare un sistema a tempo continuo, con la stessa
λ1 −1 λ1 −1
f 1
u1 = u1 = 0 ⇒ u1 =
1 1 1
, dimensione dello spazio di stato n, tale che negli istanti t = 0, 1, 2, · · · il
k λ + k −λ
1 1 λ 1 comportamento dinamico del sistema a tempo discreto coincida con quello
ml2 ml2 ml2
del sistema a tempo continuo. Ciò è legato al fatto che un sistema a tempo
 
λ1 −1 discreto può avere genericamente anche dei modi alternanti, che un sistema
 k  u21 = u11 ⇒ u21 = 0 a tempo continuo campionato non può avere. Infatti perché un sistema a
.
−λ1 −1 tempo continuo campionato abbia un autovalore reale λc < 0 (corrispon-
ml2
dente ad un modo alternante), per quanto detto il sistema a tempo continuo
e quindi si ha un solo modo aperiodico: dovrebbe avere un autovalore pari a λ = ln σ + jπ (infatti, con il campiona-
  mento si ha l’autovalore eln σ+jπ = σejπ = −σ = λc < 0), ossia dovrebbe
xl (t) = e−f t/2ml I + t(A − λI I) x0 ,
2
x0 = c1 u11 + c2 u21 . avere un autovalore complesso (non coniugato, in generale) e dunque una
matrice dinamica A non reale, non possibile per un sistema reale.
√ Tale difficoltà potrebbe essere superata a patto di aumentare di uno
Infine per f ∈ (2l mk, ∞) gli autovettori sono
la dimensione del sistema a tempo continuo. Se infatti assieme alla dinam-
ica caratterizzata dall’autovalore λ = ln σ + jπ se ne considera un’altra
1 1
u1 =
λ1
, u2 =
λ2
, caratterizzata dall’autovalore λ̄ = ln σ − jπ, sicché:

e si hanno due modi aperiodici: ln σ + jπ 0
A=
0 ln σ − jπ
xl (t) = c1 eλ1 t u1 + c2 eλ2 t u2 , x0 = c1 u1 + c2 u2 .
è la sotto–matrice relativa a queste due dinamiche e u1 , u2 sono gli au-
tovettori (reali) corrispondenti, l’evoluzione libera del sistema campionato
170 3. Analisi nel dominio del tempo 3.3. Esercizi e problemi 171

contiene il termine: ed eguagliando i termini con le stesse potenze in A:


 
σ t m sen (πt + ϕ)u1 + cos (πt + ϕ)u2 ϕ̇0 (t) = −a0 ϕn−1 (t)
ϕ̇1 (t) = ϕ0 (t) − a1 ϕn−1 (t)
che negli istanti t = 0, 1, · · · vale ..
  .
(−1)t σ t m sen ϕ u1 + cos ϕ u2 ϕ̇n−1 (t) = ϕn−2 (t) − an−1 ϕn−1 (t).

At 
che corrisponde ad un modo alternante che evolve nel sottospazio Poiché poi per e t=0
= I, si può scegliere ϕ0 (0) = 1, ϕi (0) = 0, i =
1, · · · , n − 1.
gen {sen ϕ u1 , cos ϕ u2 }.
Esercizio 3.21. Si consideri la dinamica del pendolo invertito, linearizzata
Si osservi che le considerazioni sinora svolte possono essere ripetute con attorno al punto di equilibrio corrispondente a ϑ = 0 (paragrafo 2.5.d).
riferimento al problema inverso. In tal caso il problema ammette sempre Posto τ = 0 ed f = u − F ẋ, ove F rappresenta il coefficiente  di attrito,
una soluzione ed il sistema a tempo discreto che assume gli stessi valori individuare una rappresentazione con lo stato in cui x(t) e lx(t) + ϑ(t)
dello stato del sistema a tempo continuo campionato in t = 0, 1, 2, · · · è siano due variabili di stato e l’uscita sia y(t) = ϑ(t), e studiare l’eccitabilità
caratterizzato dagli stessi autovettori e da autovalori (reali o complessi e dei modi e la controllabilità degli stati.
coniugati):
λi = eαi t i = 1, · · · , n
Soluzione. È facile ottenere:
dove αi sono gli autovalori (reali o complessi e coniugati) del sistema a F mg 1
tempo continuo. ẍ = − ẋ − ϑ+ u
M M M
F g 1
Esercizio 3.20. Mostrare che la matrice eAt può essere calcolata come ϑ̈ = ẋ + (M + m) ϑ− u
soluzione dell’equazione ϕ̇(t) = Ac ϕ(t), ove Ml Ml Ml
sicché:
   
0 ··· 0 −a0 F mg 1 1 F g 1
ϕ0 (t)
  1 ··· 0 −a1  lẍ(t)+ ϑ̈(t) =−l ẋ+ ϑ− u + ẋ+(M +m) ϑ− u =
ϕ(t) =  ..
, Ac =  ... . . . ... ..  , M M M l M M M
. 
.
aF g a
ϕn−1 (t) = ẋ + (M + am) ϑ − u
0 · · · · · · −an−1 M M M
ponendo ϕ0 (0) = 1, ϕi (0) = 0, i = 1, · · · , n − 1. ove a = 1 − l. Posto allora
l
x1 = x, x2 = ẋ, x3 = lx + ϑ, x4 = lẋ + ϑ̇,
Soluzione. In virtù del teorema di Cayley–Hamilton: si ha y = ϑ = x3 − lx = x3 − lx1 e:
∞ k
 ẋ1 = x2
t
eAt = Ak = ϕ0 (t)I + ϕ1 (t)A + · · · + ϕn−1 (t)An−1 , m F m 1
k=0 k! ẋ2 = glx1 − x2 − gx3 + u
M M M M
e poiché d eAt = AeAt : ẋ3 = x4
dt gl aF g a
ẋ4 = − (M + am) x1 + x2 + (M + am) x3 − u.
ϕ̇0 (t)I+ϕ̇1 (t)A + · · · + ϕ̇n−1 (t)An−1 = M M M M
 
= ϕ0 (t)A + ϕ1 (t)A2 + · · · + ϕn−1 (t) − an−1 An−1 + · · · − a0 I ,
172 3. Analisi nel dominio del tempo 3.3. Esercizi e problemi 173


Esercizio 3.22. Mostrare che se uk è un autovettore di ordine k, corrispon- y(t) =
1 1 1
x(t)
dente all’autovalore λ, allora risulta che: 0 0 1

 h
k−1    
t 1 0 0 1
eAt uk = eλt uk−h
h=0 h! ẋ(t) =  0 1 0  x(t) +  1  u(t)
0 0 1 0
ove uk−h sono autovettori di ordine inferiore o uguale a k.
y(t) = ( 1 0 1 ) x(t)
   
Soluzione. Dalla definizione di esponenziale di matrice e di quella di au- 1 1 0 1 1
tovettori generalizzati di ordine k si ha: ẋ(t) =  0 2 0  x(t) +  1 1  u(t)
∞ h 1 1 3 0 0
 t
eAt uk = e(A−λI)t eλt uk = eλt (A − λI)h uk =
y(t) = ( 0 1 0 ) x(t)
h=0 h!
- .    
tk−1 −2 2 0 0 1
=e λt
I + t(A − λI) + · · · + (A − λI) k−1 k
u =  −2 −2 0 0   0 
(k − 1)! ẋ =   x(t) +   u(t)
- . 1 −1 1 0 −1
t2 tk−1 −1 −1 2 −3 1
=e λt k
u + tu k−1
+ u k−2
+ ··· + u 1
,
2! (k − 1)! y(t) = ( 1 0 1 1 ) x(t)

ove uk−h−1 = (A − λI)uk−h costituiscono una catena di autovettori. In


−1 0 1
particolare se k = 1 si trova che eAt u = eλt u. ẋ(t) =
−1 −1
x(t) +
0
u(t)

Problema 3.1. Studiare dal punto di vista dell’analisi modale i seguenti y(t) = ( 1 1 ) x(t)
sistemi a tempo continuo:
   
−1 0 0 1 0 1 1
ẋ(t) =
1 1
x(t) +
2
u(t) ẋ(t) =  1 1 1  x(t) +  2  u(t)
1 1 1 0
y(t) = ( 1 1 ) x(t)
y(t) = ( 1 1 0 ) x(t)
   
1 0 0 1    
ẋ(t) =  2 −1 0  x(t) +  0  u(t) 0 1 0 0
1 1 2 2 ẋ(t) =  0 0 1  x(t) +  0  u(t)
−1 −3 −3 1
1 0 0
y(t) =
2 0 0
x(t) y(t) = ( 0 1 −1 ) x(t)

   
−1 1 1 1
ẋ(t) =  −1 −1 1  x(t) +  0  u(t)
0 0 −2 0
174 3. Analisi nel dominio del tempo 3.3. Esercizi e problemi 175

   
0 1 0 0 1 y(t) = ( 1 1 0 ) x(t)
 0 0 1 0  1
ẋ(t) =   x(t) +   u(t)    
0 0 0 1 1 1 0 1 1
−2 −7 −9 −5 0 ẋ =  0 1 0  x(t) +  0  u(t)
1 0 1 1
1 0 1 0
y(t) = x(t)
0 1 0 0 y(t) = ( 1 0 −1 ) x(t)

Problema 3.2. Studiare dal punto di vista dell’analisi modale i seguenti    


3 −1 0 1
sistemi a tempo discreto:
    ẋ =  2 0 2  x(t) +  −3  u(t)
0 2 1 1 1 0 2 0
x(t + 1) =  0 0 3  x(t) +  1  u(t)
0 0 0 0 y(t) = ( 0 1 0 ) x(t)
 
y(t) = ( 1 1 1 ) x(t) 3
    ẋ =  0  u(t)
1 0 1 1 1
x(t + 1) =  0 1 0  x(t) +  0  u(t)
1 0 1 −1 y(t) = ( 1 3 −1 ) x(t)
   
y(t) = ( 1 1 −1 ) x(t) 2 1 0 1
    ẋ =  0 2 1  x(t) +  2  u(t)
−1 2 0 1 0 0 2 1
x(t + 1) =  −1 −1 4  x(t) +  0  u(t)
0 0 −3 0 y(t) = ( 0 1 2 ) x(t)
   
y(t) = ( 1 −2 −4 ) x(t) −1 1 0 0 0
 0 −1 1 0  0
    ẋ =   x(t) +   u(t)
−2 2 0 0 1 0 0 −1 1 0
 −2 −2 0 0   −1  0 0 0 −1 1
x(t + 1) =   x(t) +   u(t)
1 −1 1 0 0
y(t) = ( 0 0 0 1 ) x(t).
−1 −1 2 −3 0
y(t) = ( 0 0 1 1 ) x(t)

e tutti i sistemi del problema 3.1 in cui si sostituisca ẋ(t) con x(t + 1).

Problema 3.3. Determinare la rappresentazione dei seguenti sistemi sot-


toposti a campionamento:
   
0 5 1 1
ẋ =  0 0 3  x(t) +  0  u(t)
0 0 0 1
178 4. Le trasformate di Laplace e z

Come noto la trasformata di Laplace può essere usata vantaggiosa-


mente per l’analisi dei sistemi lineari stazionari a tempo continuo. Infatti
un certo problema di partenza (nel dominio del tempo) può essere tradotto
in un problema più semplice (nel dominio della variabile complessa s); una
volta risolto, mediante antitrasformazione si riottiene la soluzione nel do-
minio del tempo.

Tabella 4.1 – Trasformate e antitrasformate di Laplace

Funzione Trasformata di Laplace


f (t) F (s)
4. Le trasformate di Laplace e δ−1 (t) 1
s
z nell’analisi dei sistemi a tempo
eαt δ−1 (t) 1
s−α
continuo e a tempo discreto sen ωt δ−1 (t) ω
s2 + ω 2
cos ωt δ−1 (t) s
s2 + ω 2
δ(t) 1
In questo capitolo vengono applicati i metodi di analisi sviluppati nel tn δ (t) 1
dominio delle variabili complesse s e z allo studio dei sistemi a tempo con- n! −1 sn+1
tinuo e a tempo discreto. L’interesse risiede non solo nel fatto che si ha una tn eαt δ (t) 1
−1
procedura alternativa di calcolo, ma anche nella corrispondenza, caratter-
n! (s − α)n+1
istica dell’approccio ingegneristico, tra comportamento nel tempo e com- f (t − a) δ−1 (t − a) e−as F (s)
portamento in frequenza.
f (t)eαt δ−1 (t) F (s − α)
1 t s
ω 2! sen ωt δ−1 (t) (s2 + ω 2 )2
4.1. Richiami sulla trasformata di Laplace
1 sen ωt − tcos ωt δ (t) 1
−1
 2ω 3 (s2 + ω 2 )2
Sia f (t) una funzione da IR → IR oppure da IR → C. Si definisce
 
trasformata di Laplace di f (t) la funzione F : C → C definita da:
s → F (s)
 +∞ 4.2. Calcolo delle evoluzioni nel dominio complesso:
F (s) = f (t)e−st dt = L[f (t)].
0 uso della trasformata di Laplace

Nella seguente tabella vengono riassunte le principali trasformate ed anti- Dato il sistema lineare stazionario a tempo continuo regolare descritto
trasformate di Laplace, mentre si rimanda in appendice per ulteriori richi- dalle equazioni:
ami. In tabella 4.1 le funzioni sono moltiplicate per δ−1 (t) per indicare che ẋ(t) = Ax(t) + Bu(t)
(4.1)
sono nulle per t < 0. y(t) = Cx(t) + Du(t)
4.2. Uso della trasformata di Laplace 179 180 4. Le trasformate di Laplace e z

si ricorda che in base alle proprietà riportate in appendice le matrici Φ(t) = Esercizio 4.1. Calcolare le trasformate di Laplace di u(t) = t2 δ−1 (t − 2) e
eAt , H(t) = eAt B, Ψ(t) = CeAt , W (t) = CeAt B + Dδ(t) assumono nel u(t) = e2t cos 3t.
dominio della variabile complessa le seguenti espressioni:
Φ(s) = L[eAt ] = (sI − A)−1 , Ψ(s) = C(sI − A)−1 , Soluzione. Si calcola:
H(s) = (sI − A) −1
B, W (s) = C(sI − A)−1 B + D, 2!
L[t2 δ−1 (t − 2)] = e−2s L[t2 ] = e−2s ,
e la trasformata di Laplace della rappresentazione (4.1) dà luogo alle seguenti s3
espressioni: mentre, usando la proprietà di traslazione in s:
 −1  −1
x(s) = sI − A x0 + sI − A 
B u(s)  s  s−2
 −1 "  −1 # 
y(s) = C sI − A Bx0 + C sI − A L[e cos 3t] = L[cos 3t]
2t
=  = .
s2 + 9 
B + D u(s). s−2
s−2 s2 − 4s + 13
Esse forniscono una procedura alternativa per il calcolo delle funzioni nel
tempo: noti infatti x0 e u(t), si calcola u(s) e quindi x(s) e y(s). Da queste,
per antitrasformazione, si determinano x(t) e y(t). Esercizio 4.2. Antitrasformare le funzioni y1 (s) = 2 s + 1 , e y2 (s) =
s +s+1
Dalle espressioni ricordate segue che Φ(·), H(·), Ψ(·) sono matrici e−2s .
razionali i cui elementi hanno il grado del numeratore minore di quello del s2 + 9
denominatore, mentre W (·) è una matrice razionale i cui elementi hanno il
grado del numeratore al più uguale a quello del denominatore. Soluzione. Per la prima funzione antitrasformata si calcola:
Nel caso in cui gli autovalori di A siano distinti, è noto che la matrice  
Φ(s) può essere espansa in frazioni parziali secondo l’espressione  
1 1
s+1   s+ 2 + 2 

n
1 y1 (t) = L−1  = L−1 

=

Φ(s) = Ri , s2 + s + 1 (s + 1 )2 + 3
i=1 s − λi 2 4
   √ 
in cui le matrici residue Ri si ottengono tramite la relazione: 1 3
 s + 
Ri = lim (s − λi )Φ(s) (4.2) = L−1  2  + L−1 
√
1 2 
=
s→λi  
(s + 1 )2 + 3 3 (s + 1 )2 + 3
e risultano legate agli autovalori di A nel modo seguente: 2 4 2 4
 
Ri = ui viT . √ √
− 2t  3 1 3 
=e cos t + √ sen t ,
Qualora invece gli autovalori di A abbiano molteplicità geometrica mi mag- 2 3 2
giore di uno, vale l’espressione:

r 
mi
1 avendo usato la proprietà della traslazione in s e le trasformate del seno e
Φ(s) = Rik , del coseno. Per la seconda funzione:
i=1 k=1 (s − λi )k    
−2s −2s
e 1 3e  = 1 sen 3(t − 2) δ−1 (t − 2),
in cui r è il numero degli autovalori distinti di A e y2 (t) = L−1   = L−1 
1 dmi −k " # s2 + 9 3 s2 + 9 3
Rik = lim (s − λi )mi Φ(s) . (4.3)
s→λi (mi − k)! dsmi −k avendo sfruttato la proprietà della traslazione in t.
4.2. Uso della trasformata di Laplace 181 182 4. Le trasformate di Laplace e z

Esercizio 4.3. Calcolare W (t) sapendo che la sua trasformata di Laplace Analogamente per R2 :
 
è W (s) = 10 .  1  R1 
s(s + 1) 
(s + 2)W (s) =  = (s + 2)  + R2 ⇒ R2 = −1.
s=−2 s + 1 s=−2 s + 1 s=−2
Soluzione. Sviluppando in frazioni parziali, sfruttando la linearità ed an- Ora, ricordandosi della linearità e della trasformata dell’esponenziale, an-
titrasformando: titrasformando si ottiene:
- . - .
    1 1 1 1
−1 −1 −1 −1
10  1 L [W (s)] = L − =L ]−L [ = e−t − e−2t .
W (t) = L−1  = 10 L−1  = s+1 s+2 s+1 s+2
s(s + 1) s(s + 1)
Esercizio 4.5. Data la matrice di transizione
 
  s−2 4
1 1
= 10L−1  −  = 10 1 − e−t δ−1 (t). 1 s+1
s s+1 Φ(s) =
(s − 3)(s + 2)
determinare la matrice Φ(t).
Esercizio 4.4. Calcolare W (t) sapendo che la sua trasformata di Laplace Soluzione. Sviluppando in frazioni parziali:
è W (s) = 1 .
(s + 1)(s + 2) R1 R2
Φ(s) = +
s−3 s+2
con R1 , R2 dati dalle (4.2):
Soluzione. Sviluppando in frazioni parziali:  
 1 4

W (s) =
R1
+
R2
. R1 = (s − 3)Φ(s) =  5 5 ,
s=3 1 4
s+1 s+2 5 5
 
Per calcolare i residui R1 ed R2 si può applicare l’espressione (4.2) ovvero  4 −4

si può calcolare il minimo comune multiplo: R2 = (s + 2)Φ(s) = 5 5 .
s=−2 − 1 1
R1 (s + 2) + R2 (s + 1) (R1 + R2 )s + 2R1 + R2 5 5
= A queste stesse espressioni si giunge considerando il minimo comune mul-
(s + 1)(s + 2) (s + 1)(s + 2) tiplo:
e confrontare l’espressione ottenuta con W (s), avendo cosı̀ le condizioni: (s + 2)R1 + (s − 3)R2 (R1 + R2 )s + (2R1 − 3R2 )
Φ(s) = =
   (s − 3)(s + 2) (s − 3)(s + 2)
R1 + R2 = 0 R1 = −R2 R1 = 1 ed eguagliando questa espressione con
⇒ ⇒
2R1 + R2 = 1 R2 = −1 R2 = −1.
s−2 4 1 0 −2 4
s+
Un altro metodo per trovare i residui, che poi coincide con l’applicazione 1 s+1 0 1 1 1
Φ(s) = = ,
della formula (4.2), è quello di moltiplicare ambo i membri per (s + 1) e (s − 3)(s + 2) (s − 3)(s + 2)
imporre s = −1: ossia imponendo:
 
 −2
1   1 0 4
 R2  R1 + R2 = , 2R1 − 3R2 = .
(s + 1)W (s) =  = R1 + (s + 1) ⇒ R1 = 1. 0 1 1 1
s=−1 s+2  s+2 
s=−1 s=−1
4.2. Uso della trasformata di Laplace 183 184 4. Le trasformate di Laplace e z

Esercizio 4.6. Determinare l’evoluzione forzata di un sistema avente Esercizio 4.8. Dato un sistema con W (s) = 3s +2 10 , calcolare l’uscita
forzata quando u(t) = e−t . s
funzione di trasferimento W (s) = 10 , a cui sia applicato l’ingresso
s+1
u(t) = δ−1 (t).
Soluzione. Ovviamente u(s) = 1 , ed essendo x = 0:
Soluzione. Risulta u(s) = 1s e quindi y(s) = 10 . Espandendo in s+1 0
s(s + 1)
frazioni parziali: 3s + 10 1 3s + 10
y(s) = = .
2
R1 R2 s s+1 s2 (s + 1)
y(s) = +
s s+1 Per calcolare y(t) occorre antitrasformare questa espressione. Espandendo
e dalla (4.2) ovvero facendo il minimo comune multiplo ed eguagliando in frazioni parziali:
i coefficienti delle stesse potenze in s si ottiene:
R1 = 10, R2 = −10. 3s + 10 R11 R12 R2 (R12 + R2 )s2 + (R11 + R12 )s + R11
= + + = ,
s2 (s + 1) s2 s s+1 s2 (s + 1)
Ne segue che
−t
y(t) = (10 − 10 e ) δ−1 (t). da cui si ricava:

Esercizio 4.7. Determinare l’evoluzione forzata di un sistema avente R12 + R2 = 0, R11 + R12 = 3, R11 = 10,
W (s) = s + 5 3 , a cui sia applicato l’ingresso u(t) = 3δ−1 (t) − 2δ(t).
(s + 1) cioè
R12 = −7, R2 = 7, R11 = 10.
Soluzione. Per la linearità del sistema e della trasformata di Laplace: Antitrasformando:
-  .    
       
1 −1  s + 5 1  −1  s + 5
y(t) = L−1
W (s) 3 − 2 = 3L − 2L 1 = 10 7 7  1 1 1 
s (s + 1)3 s (s + 1)3 y(t) = L−1 − + = 10 L−1  − 7 L−1  + 7 L−1 =
s2 s s + 1 s2 s s + 1
 
5 5 5 4 = 10 t − 7 δ−1 (t) + 7 e−t = (10 t − 7 + 7 e−t ) δ−1 (t).
= 3L−1  − − − +
s s + 1 (s + 1)2 (s + 1)3
Si è moltiplicato tutto per δ−1 (t) per indicare che y(t) è nulla per t < 0.
  Per il calcolo dei residui si poteva procedere anche nella seguente maniera:
0 1 4   
− 2L−1  =
R12   3s + 10 
+ +
s+1 (s + 1)2 (s + 1)3 R11 
(s + 1) +  + R2 = (s + 1)W (s) =  ,
s2 s  s=−1 s2 
-  .   s=−1 s=−1
2 2
t t 
= 3 5 − e−t 5 + 5t + 4 − 2e−t t + 4 = ottenendo: 

2! 2! R2 = (s + 1)W (s) ,
s=−1
 
e:
t2
= 15 − e−t 15 + 17t + 20 .   
  3s + 10 
2! 
R2 
R11 + sR12 + s2  = s2 W (s) =  , (4.4)
s+1  s=0
s=0 s+1  s=0
4.2. Uso della trasformata di Laplace 185 186 4. Le trasformate di Laplace e z

avendo cosı̀  Soluzione. Poiché:



R11 = s2 W (s)
s=0 1 (s−1)(s+3) R11 R12 R2 R3
W (s) = = + + + ,
Per calcolare R12 occorre derivare la (4.4) una volta rispetto ad s: (s+1)2 (s−1)(s+3) s+1 s+1 (s+1)2 s−1 s+3
 
d s2 R2  d 2 
 ove i residui si calcolano applicando le relazioni analoghe alle (4.2), (4.3),
R12 +  = [s W (s)] ,
ds s + 1 s=0 s=0 valide nel caso di matrici:
ds
   
d   1 0
ricavando: d
d 
 R11 = lim (s + 1)2 W (s) = lim  s+1 =
−1
,
R12 = s2 W (s)  . s→−1 ds s→−1 ds
(s − 1)(s + 3) 4
ds s=0
Si noti che se ad esempio fosse stato:  
  1
1
R11 R12 R13 R12 = lim (s + 1)2 W (s) = lim  s+1  = ,
+ + + M (s) = W (s), s→−1 s→−1
(s − 1)(s + 3) 0
s 3
s 2 s
moltiplicando ambo i membri per s3 :  
s−1  
  0
 (s + 1)2 
R11 + sR12 + s2 R13 + s3 M (s) = s3 W (s), R2 = lim (s − 1)W (s) = lim  1  = 1 ,
s→1 s→1
(s + 1)(s + 3) 8
e procedendo analogamente si sarebbe avuto:
   
s+3  
R11 = s3 W (s) |s=0 ,   0
 (s + 1)2

R3 = lim (s + 3)W (s) = lim   = 1 ,
d  1
d  s→−3 s→−3
(s + 1)(s − 1) 8
2 3
R12 + (s R13 + s M (s))|s=0 = s W (s)  3
ds ds s=0
d 3 
 antitrasformando si ricava:
⇒ R12 = s W (s)  ,        
ds s=0 0 1 0 0
d2  3  d2  3  −t
  y(t) = 1 e + te + 1 e + 1 e−3t .
−t t
2R13 + s M (s)  = s W (s)  − 0
4 8 8
ds2 s=0 ds2 s=0
1 d2  3 

⇒ R13 = s W (s) 
2! ds2 s=0 Esercizio 4.10. Calcolare la matrice di transizione dello stato del sistema

avendo derivato due volte rispetto ad s per calcolare R13 . Iterando questo 2 −1
a tempo continuo avente matrice dinamica A = .
procedimento otteniamo nel caso generale la relazione (4.3). −2 3

Esercizio 4.9. Calcolare la risposta all’impulso per il sistema descritto


dalla matrice di funzioni di trasferimento Soluzione. Poiché
 
1 −1
 (s + 1)2
 −1 s−2 1 1 s−3 −1
W (s) =  . Φ(s) = (sI − A) = = =
1 2 s−3 s − 5s + 4
2 −2 s−2
(s − 1)(s + 3)
2
1 s − 3 −1 " #
= = L eAt ,
(s − 4)(s − 1) −2 s − 2
4.2. Uso della trasformata di Laplace 187 188 4. Le trasformate di Laplace e z

si ha:  s−3 −1  Soluzione. Trasformando secondo Laplace:


 (s − 4)(s − 1) (s − 4)(s − 1)  1 2 s2 + 4s + 4
eAt = L−1  −2 s−2  . u(s) = +2 = .
s s2 + 4 s(s2 + 4)
(s − 4)(s − 1) (s − 4)(s − 1)
Dall’espressione della funzione di trasferimento si nota che il sistema è
Occorre antitrasformare singolarmente i termini che compaiono in Φ(s). causale, ovvero l’uscita dipende dai valori del passato dell’ingresso e dai
Più rapidamente, si possono applicare le relazioni (4.2), (4.3), ottenendo: valori del presente. Poiché:
1 2
1 1 y(s) = W (s)u(s)
eAt = L−1 R1 + R2 ,
s−4 s−1 si ha:
ove:  1  y(t) = L−1 [W (s)u(s)].
−1
 3 3 
R1 = lim [(s − 4)Φ(s)] =  , Poiché poi lo stato iniziale è per ipotesi nullo, antitrasformando:
s→4 2 2  

3 3 s2
+ 7s + 1 s2
+ 4s + 4
  y(t) = L−1  
2 1 s2 + 5s + 6 s(s2 + 4)
R2 = lim [(s − 1)Φ(s)] =  2 1  ,
3 3
s→1
3 3 si ottiene:
1 2 1 2
A B C Ds + E 1
e quindi:     y(t) = L−1 + +
+ = A L−1 +
1 −1 2 1 s
s+3 s+2 s2 + 4 s+3
eAt = 
3 3  4t  3 3  t    
e + 2 1 e. 1 2 1 2
−2 2
1 1 s E 2
3 3 3 3 +B L−1 +C L−1 +D L−1   + L−1  =
Le due matrici R1 , R2 a secondo membro hanno rango 1, in quanto sono pari s+2 s s2 + 4 2 s2 + 4
al prodotto ui viT , e il cui rango è uguale alla dimensione interna, ossia 1. Per
correlare questo metodo di calcolo di eAt con quello mediante autovettori, E
= A e−3t + B e−2t + C δ−1 (t) + cos 2t + sen 2t
si fattorizzino le matrici che compaiono al secondo membro, evidenziando 2
cosı̀ i termini eλi ui viT . Le fattorizzazioni sono infinite perché gli autovettori ove i residui si possono calcolare con i metodi finora visti.
sono definiti a meno di una costante arbitraria. Ad esempio:
    Esercizio 4.12. Calcolare la risposta forzata del sistema descritto dalla
At 4t 1 1 − 1 t 1 2 1 ,
e =e + e funzione di trasferimento ingresso–uscita:
−2 3 3 1 3 3
 

n 1 0
che è appunto una somma del tipo eλi ui viT = eAt . W11 (s) W12 (s) s
i=1 W (s) = = 1 s
,
W21 (s) W22 (s)
s+2 s+1
Esercizio 4.11. Calcolare la risposta forzata del sistema descritto dalla
funzione di trasferimento ingresso–uscita: all’ingresso:
u1 (t) δ−1 (t)
2
s + 7s + 1 u(t) = = .
W (s) = u2 (t) sen 3t
s2 + 5s + 6
all’ingresso u(t) = δ−1 (t) + 2sen 2t = (1 + 2sen 2t)δ−1 (t).
4.2. Uso della trasformata di Laplace 189 190 4. Le trasformate di Laplace e z

Soluzione. Si ha: Esercizio 4.14. Si determini la rappresentazione esplicita del seguente


  
1 1 sistema regolare:
y1 (s) s 0 s    
= 1 s

3
, −1 −1 0 1
y2 (s)
s+2 s+1 s2 + 9 ẋ(t) =  −2 −2 0  x(t) +  0  u(t)
1 1 −1 0
da cui segue y1 (s) = 12 e
s 1 0 0
1 3s A B C Ds + E y(t) = x(t).
y2 (s) = + = + + + . 0 1 1
2
s(s + 2) (s + 1)(s + 9) s s+2 s+1 s2 + 9
Dunque:
y1 (t) = t Soluzione. Si calcola:
 s+2 1 
E − 0
y2 (t) = A δ−1 (t) + B e−2t + Ce−t + D sen 3t + cos 3t.  s(s + 3) s(s + 3) 
3  
 2 s+1 
Φ(s) = (sI − A) −1
=  − s(s + 3) s(s + 3)
0 
Esercizio 4.13. Si determini la matrice delle risposte impulsive di un sis-  
 1 1 1 
tema avente funzione di trasferimento:
 1 1  (s + 1)(s + 3) (s + 1)(s + 3) s+1
2 s + 3
s + 3s + 2
W (s) =  . e dalle (4.2) e (4.3) si ottiene:
 
1 1     1 1 0
2 3 2
s + 2s + 1 s + 6s + 11s + 6 2 −1 0 0 0 0
1 
3 3 
1  3 3  1    2 2 0
Soluzione. Il minimo comune denominatore della W (s) risulta essere pari Φ(s) =   − 2 1 0
+ s+10
 0 0 + 
 s+3 3 3  .
s 3 3 1 1 1 
a (s + 1)2 (s + 2)(s + 3). Pertanto dalle analoghe alle (4.2), (4.3), si ha: 0 0 0 −1 −1 1
2 2 2 2
1 1 1 1 Quindi:
W (s) = R11 + R12 + R21 + R31 ,  
s+1 2s+2 s+3 2 + 1 e−3t − 1 + 1 e−3t 0
(s + 1)
 3 3 3 3 
 0 
d 2
1 0 Φ(t) =  − 32 + 23 e−3t 1 + 2 e−3t
,
R11 = lim
s→−1 ds
[(s + 1) W (s)] = 0 1 ,  3 3 
2 1 e−t − 1 e−3t 1 e−t − 1 e−3t e−t
2 2 2 2
R12 = lim [(s + 1)2 W (s)] =
0 0
,  
s→−1 1 0 2 + 1 e−3t
 3 3 
 
−1 0 H(t) = Φ(t)B =  − 23 + 23 e−3t  ,
R21 = lim [(s + 2)W (s)] = ,  
s→−2 0 −1 3 e−t − 1 e−3t
2 2
0 1  
R31 = lim [(s + 3)W (s)] = 0 1 . 2 + 1 e−3t − 1 + 1 e−3t 0
s→−3
Ψ(t) = CΦ(t) =  2 1 −t 1 −3t 1 1 −t 1 −3t ,
2 3 3 3 3
Ne segue che: − + e + e + e + e e−t
  3 2 6 3 2 6
e−t − e−2t e−3t  
W (t) = 1 e−t − e−2t + 1 e−3t . 2 + 1 e−3t
te−t  3 3 .
2 2 W (t) = CΦ(t)B =
− 2 + 3 e−t + 1 e−3t
3 2 6
4.2. Uso della trasformata di Laplace 191 192 4. Le trasformate di Laplace e z

Esercizio 4.15. Determinare la risposta in evoluzione forzata all’ingresso Alternativamente si noti che per il teorema della traslazione risulta:
in figura per il sistema considerato nell’esercizio 4.14.
u(t) e−s − e−3s W (s) −s
u(s) = ⇒ y(s) = W (s)u(s) = (e − e−3s ).
s s
1 Per la linearità della trasformata di Laplace ed ancora applicando il teorema
della traslazione si ottiene il risultato voluto.
t
1 3 Esercizio 4.16. Studiare, mediante il teorema del valore iniziale, il com-
Figura 4.1 portamento della risposta impulsiva del sistema

s2 + s + 1
W (s) =
Soluzione. Si osservi che u(t) = δ−1 (t − 1) − δ−1 (t − 3). Il calcolo è (s + 1)(s + 3)(s + 2)
immediato se si tiene conto del fatto che il sistema è lineare e stazionario,
per cui per la risposta forzata vale la proprietà di sovrapposizione degli nell’intorno dell’origine.
effetti e la proprietà di traslazione. Più precisamente la risposta forzata
voluta è pari alla somma della risposta forzata all’ingresso δ−1 (t) traslata
in t = 1 (per la stazionarietà), meno la stessa risposta forzata traslata di Soluzione. Per istanti immediatamente seguenti l’applicazione dell’impulso
t = 3. Si ha quindi: in ingresso, si trova:
 
21 + 1 1
3 s 3s+3
W (s) =  2 1 3 1 , lim y(t) = lim W (t) = lim s W (s) = 1.
− s+ +1 1 t→0+ t→0+ s→∞
3 2s+1 6s+3
  Pertanto la risposta impulsiva presenta una discontinuità nell’origine, pas-
2 + 1
2 sando da valori nulli per istanti immediatamente precedenti t = 0 a valori
v(s) = W (s)u(s) =  3s 3s(s + 3) =
finiti per istanti seguenti.
− 22 + 3 + 1
3s 2s(s + 1) 6s(s + 3) Più in generale se m ed n sono rispettivamente i gradi del polinomio
 2 + 1 − 1  a numeratore e a denominatore di W (s), dal teorema del valore iniziale si
2 9s 9(s + 3) ottiene la seguente casistica:
3s
= ,
1) se m = n risulta lim W (t) = ∞, e in tal caso esiste un legame di-
− 22 + 3 − 3 + 1 − 1
t→0+
3s 2s 2(s + 1) 18s 18(s + 3)
retto ingresso–uscita (ossia la matrice D è diversa da zero) e l’impulso
ed in definitiva:   applicato si presenta istantaneamente all’uscita del sistema;
 
y(t) = L−1 [v(s)] δ−1 (t − 1) − L−1 [v(s)] δ−1 (t − 3) = 2) se n − m = 1 la risposta impulsiva parte da valori finiti non nulli e
(t−1) (t−3)
presenta una discontinuità nell’origine;
 
1 + 1 (t − 1) − 1 e−3(t−1) 3) se n − m = 2 la risposta impulsiva parte da zero ma la sua derivata
=  28 1  δ−1 (t − 1)+
9 3 9 prima presenta una discontinuità nell’origine (infatti lim ẏ(t) = lim Ẇ (t) =
− (t − 1) − 3 e−(t−1) − 1 e−3(t−1) +
t→0 +
t→0
18 3 2 8 lim sL[Ẇ (t)] = lim s2 W (s) = l < ∞);
  s→∞ s→∞
1 + 1 (t − 3) − 1 e−3(t−3) 4) se n − m = d > 2 la risposta impulsiva parte da zero con le prime d − 1
−  28 1  δ−1 (t − 3).
9 3 9
derivate continue, mentre la derivata d–esima presenta una disconti-
− (t − 3) − 3 e−(t−3) nuità nell’origine.
18 3 2
4.3. Rappresentazioni della funzione di trasferimento 193 194 4. Le trasformate di Laplace e z

y (t) n=m n - m >1 Rappresentazione mediate poli e residui. Questa rappresentazione fa rifer-
n - m =1 imento alle soluzioni del polinomio a denominatore nella (4.6), usualmente
denominati poli della matrice delle funzioni di trasferimento, ed al noto
sviluppo
r  mi
Rik
t W (s) = , (4.7)
i=1 k=1 (s − pi )
k
Figura 4.2
dove p1 , · · · , pr sono le radici distinte (con molteplicità m1 , · · · , mr ) di d(s)
Le varie situazioni sono presentate graficamente in figura 4.2. e i residui Rik sono matrici costanti che si calcolano con la relazione analoga
alla (4.3), ove i poli pi sostituiscono gli autovalori λi .
È utile osservare che, limitandosi per semplicità al caso di poli con
4.3. Rappresentazioni della funzione di trasferimento molteplicità unitaria, l’antitrasformata della (4.7) fornisce:

Come è noto per i sistemi lineari, stazionari a dimensione finita la ma- 


n
W (t) = Ri epi t (4.8)
trice delle funzioni di trasferimento W (s), che coincide con la trasformata
i=1
di Laplace della matrice delle risposte impulsive, è costituita da funzioni
razionali proprie della variabile complessa s. Una tale matrice può ovvi- che mostra come la W (t) sia costituita da combinazioni lineari di questi
amente essere sempre espressa come somma di una matrice costante, che modi simultaneamente eccitabili ed osservabili, aperiodici e pseudoperiod-
rappresenta il legame diretto ingresso–uscita, e di una costituita da fun- ici a seconda che gli autovalori siano reali o a coppie complessi coniugati.
zioni razionali strettamente proprie alla quale ci riferiremo nell’esaminarne Se, infatti, la terna di matrici (A, B, C) costituisce una rappresentazione
le possibili rappresentazioni. implicita del sistema caratterizzato dalla matrice delle risposte impulsive
Rapporto di polinomi. Ogni elemento della W (s) è del tipo (4.8), gli Ri possono essere calcolati con la relazione:

nij (s) Ri = Cui viT B


wij (s) = , i = 1, · · · , p, j = 1, · · · , m,
dij (s) nella quale ui e vi sono gli autovettori destri e sinistri di A. Un analogo
discorso vale se i poli hanno molteplicità superiore all’unità.
dove nij (s) e dij (s) sono polinomi in s ed il grado del numeratore è minore di
quello del denominatore. Indicato con d(s) il minimo comune denominatore Rappresentazione mediante poli e zeri. Questa rappresentazione fa riferi-
dei wij , è possibile rappresentare W (s) come: mento alle espressioni fattorizzate in funzione delle soluzioni dei polinomi
a numeratore e a denominatore di ogni elemento wij (s) della matrice delle
B(s) funzioni di trasferimento, detti rispettivamente zeri e poli. Il generico ele-
W (s) = (4.5) mento di W (s) può infatti scriversi:
d(s)
nella quale B(s) è una matrice di polinomi ognuno di grado minore di quello 3
h
(s − zi )νi
di d(s). n(s) i=1
w(s) = = k̄
Supponendo pari ad n il grado di d(s) la (4.5) può essere scritta: d(s) 3
k
(s − pi )µi
Bn−1 sn−1 + Bn−2 sn−2 + · · · + B1 s + B0 i=1
W (s) = (4.6) dove
sn + an−1 sn−1 + · · · + a1 s + a0 k̄ è il rapporto tra i coefficienti di ordine massimo di d(s) ed n(s);
dove B0 , · · · , Bn−1 sono matrici costanti. zi è lo zero di w(s) di molteplicità νi ;
4.3. Rappresentazioni della funzione di trasferimento 195 196 4. Le trasformate di Laplace e z

pi è il polo di w(s) di molteplicità µi . Esercizio 4.17. Fornire i vari tipi di rappresentazioni della seguente ma-
Distinguendo i poli e gli zeri complessi coniugati da quelli reali e separando trice di funzioni di trasferimento:
i fattori corrispondenti ad un eventuale polo di molteplicità µ0 nell’origine  2 
s + 2s + 3 s−1
ed un eventuale zero di molteplicità ν0 , anch’esso nell’origine, si ha:  s2 + 3s + 2 
W (s) =  s − 1
2
.
1 s2 + 2s + 1
3 h2 
3 νj
h1
(s − zi )νi (s − βj )2 + γj2
s+1 s +s−2
2

i=1 j=1
w(s) = k̄
3
k1 k2 
3 µj
sµ0 −ν0 (s − pi )µi (s − αj )2 + ωj2
i=1 j=1
Soluzione. Per quanto riguarda l’espressione di W (s) in termini di rap-
porto di polinomi, si ottiene per semplice ispezione:
nella quale h1 , 2h2 , k1 , 2k2 sono rispettivamente il numero dei zeri reali, 2
degli zeri complessi coniugati, dei poli reali, dei poli complessi coniugati, 1 0 1 2s +8s +8 s2 −2s+1
W (s)=D+W̄ (s)= + =
(s2 −1)(s+2) s +s −2 s +4s+3
2 2
diversi da quelli nell’origine. 0 1
Un modo alternativo, più utile nella pratica, è quello che si ottiene uti-
lizzando le costanti di tempo τi , τi per gli zeri e i poli reali, gli smorzamenti 2 1 8 −2 8 1
s2 + s+
ζj , ζj e le pulsazioni naturali ωnj

, ωnj per quelli complessi e coniugati: 1 0 1 1 1 4 −2 3
= + .
0 1 s + 2s − s − 2
3 2
1 2νj
3
h1 3
h2 2
(1 + τi s)νi 1 + 2ζj s + s2 L’espressione di W (s) in termini di poli e residui può essere calcolata facil-
i=1 j=1 ωnj ωnj mente osservando che nel caso in esame:
w(s) = k 1 2µj , (4.9)
3
k1 3
k2 2

sµ0 −ν0
(1 + τi s)µi s
1 + 2ζj ωnj + 2s 1 0 R1 R2 R3
ωnj W (s) = D + W̄ (s) = + + +
i=1 j=1 0 1 (s + 1) (s − 1) (s + 2)
ove:
1 , βj e con semplici calcoli si ottiene:
τi = − , 
ωnj = βj2 + γj2 , ζj = − ,
zi γnj
, −1 −2 3 0 0 3
1
τi = − , αj2 + ωj2 , ζj = −
αj
pi
ωnj =
ωnj
, 1 0 1 0 0 4/3 0 −1/3
W (s) = + + + .
0 1 (s + 1) (s − 1) (s + 2)
e dove il guadagno, pari al rapporto tra i coefficienti relativi alle potenze
di ordine più basso di n(s) e d(s), è pari a Infine l’espressione di ciascuno dei termini della W (s) assegnata in termini
di poli e zeri è:
3
h1 3
h2
2ν  
τiνi γnjj 2(s + 2) s−1
i=1 j=1 1 0  (s + 1)(s − 1) (s + 2)(s + 1) 
k = k̄ . W (s) = D + W̄ (s) = + =
3
k1 3
k2 0 1 1 s+3
τiµi (s + 2)(s − 1)

ωnj j (s + 1)
i=1 j=1
 
−4
1 + s/2
−1 1−s
In conclusione la funzione W (s) è univocamente individuata una volta as-  (1 + s)(1 − s) 2 (1 + s/2)(1 + s) 
segnati, per ogni suo elemento w(s), il coefficiente k, ovvero k̄, gli zeri e i = .
1 3 1 + s/3
poli e le relative molteplicità. −
(1 + s) 2 (1 + s/2)(1 − s)
4.4. Il regime permanente e la risposta armonica 197 198 4. Le trasformate di Laplace e z

  4
4.4. Il regime permanente e la risposta armonica con Mik (ωk ) = wik (jωk ) e φik (ωk ) = wik (jωk ) , e quindi:
per i sistemi a tempo continuo   
uk M1k (ωk )sen ωk t + φ1k (ωk )
m  
Come è noto la risposta a regime permanente per il sistema regolare  .. 
yr (t) =  . .
(4.1) è quella funzione verso la quale tende l’andamento della risposta al ten-    
k=1
dere del tempo all’infinito, indipendentemente dalle condizioni iniziali x0 . uk Mpk (ωk )sen ωk t + φpk (ωk )
Nell’ipotesi di esistenza del regime permanente, e se l’ingresso appartiene a
fissate classi di funzioni, tra le quali quelle polinomiali e quelle periodiche, La matrice delle risposte armoniche W (jω) è suscettibile di una interpre-
la risposta a regime permanente è dello stesso tipo della funzione d’ingresso. tazione sperimentale. Riferendosi per semplicità di notazione ad un ingresso
ed una uscita, poiché la risposta a regime permanente ad un ingresso sinu-
Per sistemi ad un ingresso ed una uscita, la risposta a regime perma-
k soidale è ancora una funzione
 sinusoidale4 di uguale pulsazione ma modifi-
nente ad un ingresso canonico u(t) = u0 t ha l’espressione: cata in ampiezza di W (jω) e sfasata di W (jω) , è possibile determinarla
k!
sperimentalmente.

k 1 2
tk−i k k−1
yr (t) = u0 ci = u0 c0 t +c1 t +· · ·+ck−1 t+ck , (4.10)
i=0 (k − i)! k! k − 1!
u(t)
1 2 1
di W (s)
in cui i coefficienti sono dati dalla espressione ci = 1 .
i! dsi s=0 0 t
La risposta a regime permanente ad un ingresso sinusoidale u(t) = ϕ( ω
˜)
u0 sen ω̃t, è ancora sinusoidale, ed è definita dalla relazione: ω̃ 2π
  y (t ) ω̃
yr (t) = u0 M (ω̃)sen ω̃t + φ(ω̃) , (4.11)
M(ω̃)
  4
ove M (ω̃) = W (j ω̃) e φ(ω̃) = W (j ω̃) sono il modulo e la fase di 0 t
W (jω) = M (ω̃)ejφ(ω̃) calcolati in ω̃. Questi stessi argomenti si possono
applicare a sistemi con m ingressi e p uscite. Infatti, per la linearità del
sistema, la risposta ad un ingresso che sia combinazione lineare di fissati 2π
ingressi è pari alla stessa combinazione lineare delle risposte. Quindi dato ω̃
l’ingresso Figura 4.3

      Si supponga infatti che il sistema si trovi in un qualunque stato x0 all’istante


  u1 0 0
u1 sen ω1 t . t0 , prescelto per l’inizio della determinazione sperimentale, e che, data la
 0   u2   . 
u(t)= 
..  =  . sen ω1 t+ . sen ω2 t+· · ·+ . sen ωm t stazionarietà del sistema, può essere assunto uguale a zero. Si consideri
.  ..   ..   0 
inoltre un ingresso della forma sen ωt; se gli autovalori del sistema hanno
um sen ωm t
0 0 um parte reale negativa esiste la risposta a regime permanente, che assume
l’espressione (4.11). Dal confronto dei segnali sinusoidali in ingresso e in
l’i–esima uscita in regime permanente è data da: uscita si possono ottenere i valori M (ω) e φ(ω) per vari valori di ω ∈ [0, ∞)
e, in definitiva, la funzione W (jω).

m  
yri (t) = uk Mik (ωk )sen ωk t + φik (ωk ) , È grazie a tale interpretazione che la funzione W (jω) prende il nome di
k=1 risposta armonica. Si richiama l’attenzione sul fatto che tale condizione è
4.4. Il regime permanente e la risposta armonica 199 200 4. Le trasformate di Laplace e z

collegata all’ipotesi che l’asse immaginario, nel piano complesso, appartenga ove:
alla regione di convergenza di W (s).  2
(1 − ω 2 )2 + ω 2 ejω/(1−ω )
W (jω) = √ √ √ ,
Esercizio 4.18. Determinare l’uscita in regime permanente all’ingresso 1 + ω 2 ejω 3 + ω 2 ejω/3 3 + ω 2 ejω/2
u(t) = sen 3t per un sistema avente W (s) = 4 .
s+3 *
73 47
M (3) = , φ(3) = − arctan ,
Soluzione. Il regime permanente esiste in quanto i poli della W (s) sono 2340 8
a parte reale minore di zero. La risposta yr (t) ha allora la forma (4.11).
Poiché: 1 5 1 55
c0 = W (0) = , c1 = W  (0) = − , c2 = W  (0) = .
6 36 2! 216
4 4 4
W (jω) = =√ =√ e−jω/3 ,
3 + jω jω/3 Dunque:
9+ ω2 e 9+ ω2
  1 2 1 2
si ricava: t2 1 1
yr (t) = 2M (3)cos 3t+4+φ(3) +8c0 + c0 + 8c1 t+ c1 + 8c2 + 4c0 .
 2 2 2
  4 4  3 π
W (jω) = √ , W (jω)  = arctan − =− .
ω=3
3 2 ω=3 3 4 Si noti che per il calcolo di yr4 (t) si può anche applicare il teorema del
  valore finale:
Dunque yr (t) = √ 4 sen 3t − π .
3 2 4 1 1
yr4 (t) = lim y(t) = lim y(s) = lim s W (s) = ,
t→∞ s→0 s→0 s 6
Esercizio 4.19. Si determini l’evoluzione in regime permanente per in-
gresso u(t) = 2cos (3t + 4) + 1 t + 4t2 + 4 di un sistema avente ove 1s è la trasformata di Laplace del gradino. Il calcolo di yr2 (t) e yr3 (t)
2
può essere ancora fatto mediante il teorema del valore finale sfruttando la
s2 + s + 1 conoscenza dell’andamento di queste due funzioni. Infatti poiché yr2 (t) =
W (s) = .
(s + 1)(s + 3)(s + 2) c0 t + c1 , detta yr2 (s) = c0 12 + c1 1s = c0 +2c1 s la sua trasformata, si deve
avere: s s

   1 
Soluzione. Poiché tutti i poli di W (s) hanno parte reale negativa, esiste
lim y(t) − yr2 (t) = lim s W (s) − yr2 (s) =
la risposta in regime permanente, che può essere calcolata sfruttando la t→∞ s→0
s2
linearità e in base alla (4.10) e all’analoga della (4.11). Infatti: N (s) − (c0 + c1 s)D(s)
= lim = 0,
s→0
1 t2 sD(s)
u(t) = 2 cos (3t + 4) + t + 8 + 4 = u1 (t) + u2 (t) + u3 (t) + u4 (t).
2 2! ove si sono indicati con N (s) = s2 + s + 1, D(s) = (s + 1)(s + 3)(s + 2) =
s3 + 6s2 + 11s + 6, il numeratore e il denominatore di W (s). Dunque il
Le risposte a regime permanente a questi quattro ingressi sono:
polinomio al numeratore deve avere uno zero nell’origine in più rispetto a
    quello del denominatore, ossia si deve avere:
yr1 (t) = 2 M (3)cos 3t + 4 + φ(3) , yr2 (t) = 1 c0 t + c1 ,
2
 2  1 − 6c0 = 0, 1 − 11c0 − 6c1 = 0,
yr3 (t) = 8 c0 t + c1 t + c2 , yr4 (t) = 4 c0 ,
2
4.5. I diagrammi di Bode 201 202 4. Le trasformate di Laplace e z

1 2 3 4 5 6 7 8 91 2 3 4 5 6 7 8 91 2 3 4 5 6 7 8 91 2 3 4 5 6 7 89

riottenendo i valori visti per c0 e c1 . In modo analogo, poiché deve essere


2 2
yr3 (t) = c0 t + c1 t + c2 , con yr3 (s) = c0 13 + c1 12 + c2 1s = c0 + c1 s3 + c2 s ,
2 s s s
deve risultare:

   1 
lim y(t) − yr3 (t) = lim s W (s) − yr3 (s) =
t→∞ s→0
s3
N (s) − (c0 + c1 s + c2 s2 )D(s)
= lim = 0,
s→0
s2 D(s)

e quindi

1 − 6c0 = 0, 1 − 11c0 − 6c1 = 0, 1 − 6c0 − 11c1 − 6c2 = 0,

da cui si ricava c2 . Questo procedimento può essere iterato per il calcolo di


qualsiasi coefficiente ci .

4.5. I diagrammi di Bode

Tra le rappresentazioni grafiche della risposta armonica W (jω) rive-


stono particolare interesse i diagrammi logaritmici di Bode. La trattazione
che segue è relativa alla rappresentazione del generico elemento wij (jω)
della matrice W (jω).

Questa rappresentazione
 fa ricorso a due diagrammi cartesiani uno per
il modulo W (jω) della W (jω), espresso in scala logaritmica, e l’altro per la
4
fase W (jω) . In entrambi i diagrammi le pulsazioni riportate sull’asse delle
ascisse sono in scala logaritmica (4.1) . Questo ha il vantaggio di permettere
di rappresentare con il dovuto dettaglio le grandezze al variare di ω in
intervalli anche estesi. Il logaritmo più usato per ω è quello in base 10,
il che comporta una suddivisione dell’asse delle ascisse in decadi, ove una
decade è la distanza tra due pulsazioni che sono nel rapporto di 1 a 10.

(4.1)
Riportare su di una scala logaritmica una pulsazione ω vuol dire associarla al valore
1 2 3 4 5 6 7 8 91 2 3 4 5 6 7 8 91 2 3 4 5 6 7 8 91 2 3 4 5 6 7 89
loga ω, essendo a la base scelta per il logaritmo. Se ad esempio a = 10, ω = 1 corrisponde
a log10 1 = 0, ω = 2 a log10 2 ! 0.301, etc. È chiaro che la scelta della base è arbitraria e il
cambio da una base a ad una b comporta la moltiplicazione per loga b.
Figura 4.4 – Carta semilogaritmica
4.5. I diagrammi di Bode 203 204 4. Le trasformate di Laplace e z

Considerando per ogni fissata pulsazione ω il logaritmo del numero i diagrammi dei singoli fattori. Questi ultimi possono essere dei seguenti
complesso W (jω): tipi:
  4
log W (jω) = log W (jω) + j W (jω) , 1) fattore costante k;
2) fattore monomio jω;
e ricordando che il logaritmo del prodotto di più funzioni è pari alla somma
dei logaritmi: 3) fattore binomio 1 + jωτ ;
 2
 q  jω jω
4) fattore trinomio 1 + 2ζ ωn + ωn , con |ζ| < 1;
 q 
q
  q
4
log Wi (jω) = log Wi (jω) = log Wi (jω) + j Wi (jω) ,
i=1 i=1 i=1 i=1
5) fattore esponenziale ejω .
Ciascuno di questi, eccetto k, possono apparire elevati a potenza pos-
appare naturale fornire nel primo diagramma il logaritmo del modulo, e nel itiva o negativa. Nel seguito quindi viene esaminato in dettaglio il traccia-
secondo la fase. Più precisamente il modulo viene espresso, su una scala mento dei diagrammi di Bode di ognuno dei termini suddetti.
lineare, in decibel:
Fattore costante k. Il contributo al modulo è costante e pari a |k|dB =
|W (jω)|dB : = 20 log10 |W (jω)| 20 log10 |k|, cosı̀ come per la fase, il cui contributo è nullo se k > 0 e pari a
−π se k < 0. I diagrammi sono riportati nella seguente figura.
e la fase in gradi o radianti. Dunque i diagrammi di Bode vengono tracciati
su carta semilogaritmica (figura 4.4).
k dB
Talvolta viene usato per ω il logaritmo in base 2 o quello naturale e; in
questo secondo caso il modulo viene espresso in neper (logaritmo naturale
del modulo). 20 log10|k|
Il ricorso alla scala logaritmica per il modulo e a quella lineare per la 0dB
fase è vantaggioso sia perché usualmente il modulo è suscettibile di ampie 0.1 1 10 ω
variazioni che possono essere rappresentate più comodamente in tale scala,
sia perché molto spesso occorre tracciare il diagramma del prodotto di due
o più funzioni di cui sono noti i relativi diagrammi logaritmici, ed in tal caso k
i diagrammi del modulo e della fase del prodotto possono essere tracciati k>0
0
sommando i diagrammi dei diversi fattori. 0.1 1 10 ω
Inoltre la scelta della scala logaritmica per la pulsazione e per il modulo
k<0
della W (jω) semplificano notevolmente la procedura di tracciamento dei -π
diagrammi stessi. Infatti supponendo di disporre della rappresentazione
poli–zeri della funzione di trasferimento nella forma (4.9) ponendo in questa Figura 4.5 – Fattore costante k
s = jω si ha:
1   2νj
3
h1
 νi
3
h2
 jω jω 2 Fattore monomio jω. Poiché log10 jω = log10 ω+j π , per quanto riguarda
(1 + jωτi ) 1 + 2ζj  + 
2
i=1 j=1 ωnj ωnj il modulo si ha:
W (jω) = k 1 |jω|dB = 20 log10 ω,
3
k1 3
k2   2µj
µ0 −ν0 µi jω jω 2
(jω) (1 + jωτi ) 1 + 2ζj ωnj + ωnj
i=1 j=1 e ricordando che la scala in ω è logaritmica in base 10, il diagramma del
modulo è una retta con pendenza di 20dB per decade che attraversa l’asse
ed è quindi evidente, in base alle considerazioni precedenti, che i diagrammi delle ascisse (MdB = 0) in ω = 1. La fase, trattandosi4 di un termine
del modulo e della fase di W (jω) possono essere ottenuti sommando tra loro immaginario puro, per ω ∈ [0, ∞) è costante e pari a jω = π .
2
4.5. I diagrammi di Bode 205 206 4. Le trasformate di Laplace e z

ove il diagramma del modulo è una retta con pendenza di −20dB per decade
che attraversa l’asse delle ascisse (MdB = 0) in ω = 1 e quello della fase è

dB una costante pari a − π :
2
20dB
4 π
0.1 |jω|dB = −20 log10 ω, jω = − .
0dB 2
1 10 ω
-20 dB
Fattore binomio 1 + jωτ . Essendo


log10 (1 + jωτ ) = log10 1 + ω 2 τ 2 + j arctan ωτ,
π
2
per quanto riguarda il modulo si ha:

0 |1 + jωτ |dB = 20 log10 1 + ω2 τ 2 .
0.1 1 10 ω
Figura 4.6 – Fattore monomio jω

Se il fattore monomio è elevato a -1, ossia per il termine 1 , si ha che: 1+j ωτ


jω dB

1 1 π π
log10 = log10 − j = − log10 ω − j , 20dB
jω ω 2 2
andamento 3
e quindi il fattore monomio a denominatore è rappresentato dai seguenti reale dB

diagrammi:
0dB
___
1
|τ|
___
10
|τ|
ω
punto di
rottura
1 andamento asintotico
j ω dB
1+j ωτ
20dB
π τ>0
2
0dB 10 andamento
0.1 1 ω reale ( τ > 0)
π
4
-20 dB

1
jω 0
0.1
___ 0.2
___
|τ| |τ|
___
1
|τ|
___
5 ___
10
|τ| |τ|
ω


0
0.1 1 10 ω 4
andamento
reale ( τ < 0)

2 -π τ<0
2

Figura 4.7 – Fattore monomio 1 Figura 4.8 – Fattore binomio 1 + jωτ



4.5. I diagrammi di Bode 207 208 4. Le trasformate di Laplace e z

Tale curva presenta, per ω molto minore di 1/τ , un asintoto che coincide Per quanto riguarda il diagramma delle fasi si ha:
con l’asse delle ascisse, essendo ω 2 τ 2 trascurabile rispetto a 1. Per ω molto
4
maggiore di 1/τ presenta un secondo asintoto di equazione: 1 + jωτ = arctan ωτ.

ϕa = 20 log10 1 + ω 2 τ 2 ! 20 log10 |ωτ | = 20 log ω + 20 log |τ | Tale diagramma presenta due asintoti, entrambi orizzontali, uno coinci-
dente con l’asse delle ascisse, per ω " 1/|τ |, e l’altro di ordinata pari a π/2
in quanto 1 è trascurabile rispetto a ω 2 τ 2 . Quest’ultimo asintoto è una se τ > 0 ovvero pari a −π/2 se τ < 0 (4.2) , per ω # 1/|τ |. La rappresen-
retta con pendenza 20dB /dec che attraversa l’asse delle ascisse (MdB = 0) tazione con i soli asintoti è ovviamente insoddisfacente in quanto presenta
in ω = 1/|τ |; questo valore di ω è detto pulsazione di rottura del diagramma uno scostamento di ± π/4 in corrispondenza della pulsazione di rottura.
asintotico. Volendo approssimare il diagramma esatto con una spezzata a tre lati
Una decade prima e una dopo della pulsazione di rottura lo scosta- l’approssimazione complessivamente migliore risulta quella ottenibile uti-
mento del diagramma effettivo da quello asintotico risulta trascurabile. In- lizzando i due asintoti ed un segmento passante per il punto (1/|τ |, ± π/4)
fatti: con pendenza di π/4 per decade se τ > 0, ovvero di −π/4 per decade se
  * τ < 0. In questo caso lo scostamento massimo si ha in corrispondenza dei
1
MdB − ϕa = 20 log10 1 + − 0dB ! 0.043dB , vertici di tale spezzata (una decade prima della pulsazione di rottura e una
ω=1/10|τ | 100 dopo) e risulta inferiore a 0.1 radianti.
  √
MdB − ϕa = 20 log10 1 + 100 − 20dB ! 0.043dB . Un’altra approssimazione spesso utilizzata è quella che si ottiene as-
ω=10/|τ |
sumendo come segmento approssimante nell’intorno di 1/|τ | quello ivi tan-
Risulta che il massimo scostamento si ha per ω = 1/|τ | e vale: gente alla curva effettiva. Tale segmento interseca l’asse delle ascisse in
  ω ! 1/5|τ | e l’altro asintoto in ω ! 5/|τ | (4.3) . Anche in tal caso lo scosta-

MdB − ϕa = 20 log10 2 = 3dB . mento massimo si ha nei vertici e risulta inferiore a 0.2 radianti. Questa
ω=1/|τ | seconda approssimazione è spesso usata per riprodurre meglio l’andamento
effettivo nell’intorno di 1/|τ |.
Per un fattore binomio a denominatore risulta:
MdB - y
1 1
3
dB log10 = log10 √ − j arctan ωτ ,
1 + jωτ 1 + ω2 τ 2
2 (4.2)
Uno zero con τ > 0 viene detto a fase minima, mentre uno con τ < 0 viene detto a fase
dB
non minima.
Il coefficiente angolare m della retta tangente in ω = 1/|τ | si calcola derivando la fase,
(4.3)
1
dB 4 
ricordando che in ascissa è riportato il log10 ω. Dunque m =
d 1 + jωτ  =
4   d log 10 ω ω=1/|τ |

0.1 0.5 1 2 10
dω d 1 + jωτ  = ωτ  = ±1/2 (a seconda del segno di τ ). Le rette
ωτ d log10 ω dω ω=1/|τ | 1 + ω 2 τ 2 ω=1/|τ |
tangenti hanno allora equazione:
Figura 4.9 – Scostamento dal diagramma reale
del modulo (fattore binomio) π 1 1  1
y∓ =± log10 ω − log10 = ± log10 ω|τ |
4 2 |τ | 2
L’andamento degli scostamenti, che è simmetrico rispetto ad una ver-
ticale passante per 1/|τ |, è riportato in figura 4.9, ove le pulsazioni sono e calcolando l’intersezione con le rette y = 0 (primo asintoto) e y = ± π
2 (secondo asintoto) si
normalizzate rispetto a quella di rottura. ricavano le intersezioni per ω ! 1/5|τ | e ω ! 5/|τ |.
4.5. I diagrammi di Bode 209 210 4. Le trasformate di Laplace e z

per cui: precedentemente trattati. Analogamente ai casi finora analizzati si trova


  che:
 1  1 
  = −20 log10 1 + ω2 τ 2 , 6 2
  = 20 log10 √  
1 + jωτ dB 1 + ω2 τ 2  2  
 jω jω   2
ω  ω2
5 1 + 2ζ +  = 20 log10 71 − + 4ζ 2 ,
1  ωn ωn  ω2 ω2
dB n n
1 + jωτ = − arctan ωτ,
8  
ed è rappresentato da diagrammi del modulo e della fase opposti, relativa- 2
1 + 2ζ

+
jω  2ζ ω 
mente all’asse delle ascisse, rispetto a quelli del fattore binomio a numera- ωn ωn  ωn 
tore (4.4) . = arctan  .
 2 
1 andamento asintotico 1 − ω2
1+j ωτ dB
ωn
___
1 ___
10
|τ| |τ|
0dB
ω Dunque il diagramma dei moduli presenta, per ω " ωn , un asintoto co-
andamento
incidente con l’asse delle ascisse, e per ω # ωn un altro asintoto, la cui
reale 3dB equazione si trova trascurando gli altri addendi rispetto a ω 4 /ωn4 :
-20 dB
6 2


 ω 2 2
1 ϕa =20 log10 71 −  +4ζ 2 ω !40 log10 ω =40 log10 ω−40 log10 ωn .
1+j ωτ ωn2 ωn2 ωn
π τ<0
2
andamento
reale ( τ < 0) Tale asintoto è quindi una retta con pendenza di 40dB /dec che inter-
π
4 seca l’asse delle ascisse in ω = ωn , detta pulsazione di rottura. Il dia-
gramma asintotico costruito utilizzando i due asintoti individuati presenta
0
degli scostamenti dal diagramma effettivo. Questi scostamenti dipendono
0.1
___ 0.2
___
|τ| |τ|
___
1
|τ|
___
5 ___
10
|τ| |τ|
ω da |ζ| e possono assumere valori elevati nell’intorno della pulsazione di rot-
tura, tendendo all’infinito per ω → ωn e |ζ| → 0. Si noti che il diagramma

4 dei moduli non cambia al cambiare di segno di ζ.
andamento
reale ( τ > 0)
In figura 4.11 sono indicati gli andamenti del diagramma effettivo per

2 τ>0 alcuni valori di |ζ|. Naturalmente per |ζ| = 1 il termine trinomio si ri-
1 conduce al quadrato di un termine binomio; le sue ordinate sono quindi il
Figura 4.10 – Fattore binomio
1 + jωτ doppio di quelle relative al diagramma del termine binomio con τ = ω1n .
 
  Si noti infine che per |ζ| ∈ 0, √1 ! 0, 707 la curva presenta un minimo,
jω jω 2 2
Fattore trinomio 1 + 2ζ + . Ovviamente si considera |ζ| < 1
ωn ωn mentre per valori superiori l’andamento è monotono crescente. Inoltre per
perché altrimenti il fattore trinomio è scomponibile in due fattori binomi,  
ζ ∈ 0, 1 la curva interseca l’asse delle ascisse a destra di ω = ωn e per
2
(4.4)
Anche in questo caso τ può essere negativo e, analogamente al caso degli zeri, un polo  
ζ ∈ 1 , 1 a sinistra, mentre per ζ = 1 l’interseca in ω = ωn . È chiaro
con τ > 0 viene detto a fase minima mentre uno con τ < 0 viene detto a fase non minima. 2 2
4.5. I diagrammi di Bode 211 212 4. Le trasformate di Laplace e z

poi che per ζ ∈ (0.3, 1) l’approssimazione asintotica descrive in maniera


|ζ|= 0
sufficientemente precisa l’andamento reale.

2
jω jω
1+2 ζ
ωn (ω )
+
n
dB
40dB +40dB /dec 0dB
0.1ω n ωn 10ω n ω

|ζ|= 1 |ζ|= 1

|ζ| = 0.707 Figura 4.12 – Scostamento dal diagramma reale


0dB del modulo (fattore binomio)
ωn |ζ|= 0.5
10ω n ω
_ -8 dB
~
_
~ -14 dB |ζ| = 0.2
|ζ|< 1
Per quanto riguarda la fase del termine trinomio risulta:
|ζ| = 0 |ζ|= 0.1

8  
2 1
jω jω  2
1+2 ζ
()
ωn + ωn 1 + 2ζ

ωn
+

ωn
 2ζ ω 

= − arctan 
ωn 

 2 
π 1 − ω2
ζ=0 ωn
π ζ=1
ζ>0
2 approssimazione
asintotica per ζ = 1

0 ed è immediato dedurre che presenta due asintoti orizzontali, uno coinci-


0.1ωn ωn 10ωn ω dente con l’asse delle ascisse e l’altro di ordinata π oppure −π secondoché
approssimazione
asintotica per ζ = -1 risulti ζ > 0 oppure ζ < 0. Poiché la fase dipende da ζ, le considerazioni

2 ζ = -1
ζ<0 fatte per il termine binomio relative alla costruzione di una spezzata ap-
prossimante, potrebbero essere ripetute per ogni fissato valore di ζ. Risulta
-π molto più comodo nella pratica costruire il diagramma per punti, ovvero,
 2 considerando gli andamenti reali, riportati in figura 4.11, disegnare un anda-
jω jω
Figura 4.11 – Fattore trinomio 1 + 2ζ ωn + ωn mento asintotico oppure reale compreso tra gli andamenti asintotici estremi
corrispondenti a ζ = 0 e ζ = ± 1, quest’ultimo costruito da una spezzata
ottenuta considerando i punti di rottura in ω = 0.1 ωn e ω = 10 ωn . Infatti
Nella figura 4.12 sono riportati gli scostamenti, con ascissa normaliz- la curva per ζ = ± 1, dimezzando le ordinate, rappresenta l’andamento di
zata ω/ωn , del diagramma effettivo da quello asintotico per diversi valori un termine binomio. In alternativa si può considerare l’approssimazione
di |ζ|. con una spezzata tangente nel punto di flesso. Essa determina due punti di
4.5. I diagrammi di Bode 213 214 4. Le trasformate di Laplace e z

rottura in 1ζ ωn e 5ζ ωn (4.5) . Si noti che nel caso delle fasi il diagramma viene 1
5 2
jω jω
1+2 ζ
ribaltato rispetto all’asse delle ascisse a seconda del segno di ζ (similmente
a quanto avviene nel caso di binomio con τ < 0). ωn
+(ω ) n
dB

|ζ| = 0 |ζ|= 0.1


Per un fattore trinomio al denominatore risulta:
_
~ 14dB
  6 2 _ 8dB
~ |ζ| = 0.2
  
   |ζ|= 0.5
 1   ω 2 2
 + 4ζ 2 ω ,
0dB
    = −20 log10 71 − ωn 10ω n ω
 2
ωn2 ωn2
 1 + 2ζ jω + jω  |ζ| = 0.707
ωn ωn dB
|ζ|< 1

8   |ζ|= 1
1
 2  2ζ ω 
jω jω  ωn 
1 + 2ζ + = − arctan 
ωn ωn , -40 dB -40 dB /dec
 2 
1 − ω2
ωn
1
2

e quindi si hanno diagrammi di modulo e fase che sono uguali a quelli visti 1+2 ζ

ωn
+(ωω)j
n
per il termine trinomio al numeratore, ma ribaltati rispetto all’asse delle
ascisse.
π
ζ=0
Anche in questo caso per ζ ∈ (−1, 0) si ribalta il solo diagramma
delle fasi. Inoltre valgono le stesse osservazioni riguardanti l’andamento del π ζ = -1
ζ<0
2 approssimazione
modulo per i vari valori di ζ. asintotica per ζ = -1

0
  0.1ωn ωn 10 ωn ω
(4.5)
Il coefficiente angolare della retta tangente in ωn , π
2 vale: approssimazione
asintotica per ζ = 1

2 ζ=1
ζ>0
   
ω  ω 
   
2ζ 2ζ
m=
d
arctan 
ωn
=
dω d
arctan 
ωn
=
1
, -π
d log10 ω 1 − ω2
2
 d log10 ω dω 1 − ω2
2
 ζ 1
ωn ω=ωn ωn ω=ωn Figura 4.13 – Fattore trinomio  2
jω jω
1 + 2ζ ωn + ωn
per cui la retta tangente ha equazione:
Fattore esponenziale ejωτ . Essendo il modulo unitario e la fase pari a
π 1 ωτ si ha:  jωτ  4 jωτ
y− = (ln ω − ln ωn ) e  = 0, e = ωτ,
2 ζ dB

e dunque il diagramma dei moduli è nullo, mentre quello delle fasi è un


e con le intersezioni per ω = 0, ω = π si trovano ω/ωn = e−(π/2)ζ ! 1/5ζ e ω/ωn = e(π/2)ζ ! 5ζ . esponenziale, crescente per τ > 0 o decrescente per τ < 0 (si ricordi che le
4.5. I diagrammi di Bode 215 216 4. Le trasformate di Laplace e z

ω sono riportate su scala logaritmica: ωτ = 10log10 ωτ ). corrisponde ad una traslazione del diagramma delle fasi (in alto o in
basso) che può essere evitata assegnando all’asse delle ascisse il valore
relativo alla traslazione.

e - ωτ
j
e jωτ dB dB
Osservato ciò, la procedura per il tracciamento dei diagrammi di un’assegnata
W (s)|s=jω = W (jω) si può cosı̀ sintetizzare:
0dB
1 ω
|τ| 1) si mette W (s) nella forma fattorizzata (4.9);
2) si tracciano i diagrammi asintotici (ovvero quelli reali se molto diversi
e jωτ e -jωτ da quelli asintotici) dei singoli fattori (cioè dei termini corrispondenti
a quelli mostrati per s = jω), usando per quelli delle fasi le approssi-
1 τ>0
mazioni più semplici (con i punti di rottura nella decade precedente e
in quella successiva a 1/|τ | ovvero ωn );
0.1 3) si sommano i diagrammi e si apportano le necessarie correzioni nell’intorno
0
-0.1
0.1
___
|τ|
___
1
|τ|
___
10
|τ|
ω dei punti di rottura.

Si osservi che nel caso in cui non si riesca a fattorizzare il numeratore


e/o denominatore, ovvero non si voglia procedere alla fattorizzazione della
-1 τ<0
W (s), oppure si vogliano ottenere dei diagrammi più precisi, si può ricorrere
al tracciamento per punti. In tal caso si consiglia di porre s = jω e mettere
1 la W (jω) nella forma:
Figura 4.14 – Diagrammi di ejωτ e di
ejωτ
Se il termine esponenziale compare al denominatore il diagramma delle IRe1 (ω) + j IIm1 (ω) )1 (ω)
W (jω) = = ej[φ1 (ω)−φ2 (ω)] ,
fasi viene ribaltato rispetto all’asse delle ascisse: IRe2 (ω) + j IIm2 (ω) )2 (ω)
5
  1
 1 
  = 0, ejωτ
= − ωτ,
ottenendo cosı̀
 jωτ 
e dB
)1 (ω) 4
Riassumendo, nel tracciare i diagrammi di Bode di un’assegnata fun- |W (jω)|dB = 20 log10 , W (jω) = φ1 (ω) − φ2 (ω).
)2 (ω)
zione W (s)|s=jω = W (jω) si osservi prima di tutto che:
1) non è necessario sostituire jω ad s in W (s) per ottenere i diagrammi
Si noti inoltre che si possono scegliere come valori di ω, sufficientemente
dei singoli termini (basta mettere la W (s) nella forma (4.9));
equidistanti su scala logaritmica, i valori ω = 1 10p e ω = 4 10p ove p
2) il guadagno k dà un contributo al modulo di kdB ; quindi il diagramma corrisponde alle decadi di interesse. Si comprende che con il calcolo di
del modulo complessivo, ottenuto sommando i vari contributi, andrà pochi punti è già possibile disegnare su carta semilogaritmica l’andamento
traslato di kdB (verso l’alto se k > 1 o verso il basso se k < 1); questa di modulo e fase di una data W (jω).
traslazione non è però necessaria in quanto basta assegnare all’asse
delle ascisse corrispondente a 0dB il valore kdB ; Sono presentate nel seguito alcune reti elettriche di particolare inter-
3) i poli, gli zeri e il guadagno (se negativo) danno un contributo com- esse.
plessivo alla fase che è un multiplo di ± π . Come nel caso 2), ciò
2
4.5. I diagrammi di Bode 217 218 4. Le trasformate di Laplace e z

Rete anticipatrice. La funzione di trasferimento della seguente rete elet- In figura si sono indicati a tratteggio i diagrammi asintotici del modulo
trica e della fase dei tre fattori che compongono la W (jω) e a tratto pieno il
R1 diagramma complessivo ottenuto per somma.
. .
Questa rete elettrica, connessa in cascata con un amplificatore di guadagno
u ( t) C R 2 y( t )
i ( t) pari a R1 + R2 , realizza un sistema con funzione di trasferimento:
R2
. .
Figura 4.15 1 + τa s R1 + R2
G1 (s) = , τa = R1 C, ma = , (4.12)
1+ mτa s R2
può essere ottenuta applicando le leggi di Kirchoff. Nella variabile comp- a
lessa s e considerando il parallelo di R1 con C:
1 R1 con ma > 1.
u(s) − y(s) = i(s) = i(s),
1 + 1 1 + R1 Cs
R1 1/sC  G1(j ω)
dB
per cui y(s) = R2 i(s) = R2 (1 + R1 Cs) u(s) − y(s) , e dunque:
R1
y(s) 1 + R1 Cs R2 1 + R1 Cs
= W (s) = = . 0dB
u(s) R1 /R2 + 1 + R1 Cs R1 + R2 1 + R1 R2 C s _____
1 (R 1 +R 2 )
________ ω
R1 + R2 R1C R1R2C

W( j ω) dB G1(j ω)

0
R2
20 log10 ________
_____
1 (R 1 +R 2)
________ ω
(R 1 +R 2 )
_____
1 (R 1 +R 2 )
________ ω R1C R1R2C
R1C R1R2C

Figura 4.17 – Rete anticipatrice


W( j ω)
π
2

Il diagramma della fase rimane lo stesso del precedente e quello del


modulo risulta traslato verso l’alto di una quantità pari a 20 log10 R2
0
_____
0.1 _____
1 _____ (R 1 +R 2) ___________
10 ________ 10(R 1 +R 2) ω R 1 + R2
R1C R1C R1C R1R2C R1R2C
0.1(R 1+R 2 )
(figura 4.17). Una funzione di trasferimento del tipo (4.12) è molto usata
____________
R1R2C nella sintesi di sistemi di controllo e, per l’azione che essa svolge, viene detta

2 rete anticipatrice in quanto, connessa in cascata a monte di un sistema
assegnato, la fase del sistema complessivo viene aumentata (anticipata) in
un opportuno intervallo di pulsazioni.
Figura 4.16
4.5. I diagrammi di Bode 219 220 4. Le trasformate di Laplace e z

Rete attenuatrice. Data la seguente rete elettrica del tipo:


1+ m τs
R2 G2 (s) =
, (4.13)
. . 1 + τs
con m > 1, detta rete attenuatrice in quanto, connessa in cascata a monte
C i ( t) di un sistema assegnato, il modulo del sistema complessivo viene diminuito
u ( t) y( t ) (attenuato) in un opportuno intervallo di pulsazioni. Anche tale rete è
R1 molto usata nella sintesi di sistemi di controllo.
. . Esercizio 4.20. Si forniscano i diagrammi di Bode della rete rappresentata
in figura.
Figura 4.18
L
la funzione di trasferimento, ottenuta con le leggi di Kirchoff, vale:

. .
u(s) − y(s) 1
y(s) = + R1 , u ( t) R y( t )
R2 Cs
da cui:
. .
y(s) 1 + R1 Cs Figura 4.20
= G2 (s) = .
u(s) 1 + (R1 + R2 )Cs
u(s) − y(s)
Soluzione. Poiché risulta y(s) = Ri(s) = R la funzione di
sL
G2(j ω) 1
dB trasferimento è pari a W (s) = . È immediato tracciare i diagrammi
1 + Ls
di W (jω). R
________
1 _____
1
(R 1 +R 2 ) R1C
0dB
ω W (j ω)
dB R/L 10R/L
0dB
ω
G2(j ω)
_________
1 ___________
10 -20 dB
(R 1 +R 2 )C (R 1 +R 2 )C
0.1
___________ _____
0.1 _____
1 _____
10
(R 1 +R 2 )C R1C R1C R1C
0
ω W (j ω)
0.1R/L R/L 10R/L


2
ω


4
Figura 4.19 – Rete attenuatrice

In figura 4.19 sono riportati i diagrammi di Bode di G2 (jω). Ponendo -π


2

τ = (R1 + R2 )C ed m = R1 + R2 si ottiene una funzione di trasferimento Figura 4.21


R1
4.5. I diagrammi di Bode 221 222 4. Le trasformate di Laplace e z

Esercizio 4.21. Tracciare i diagrammi di Bode della funzione di risposta Soluzione. Prima di tutto si riscrive la W (s) come W (s) = 10 1 + 0.5s .
armonica corrispondente a W (s) = 2 −1000s + 100 s(1 + 0.02s)
. Si disegnano poi i contributi relativi ai singoli termini, sia per il modulo
s (−0.1s2 + 0.9s + 1)
che per la fase, e quindi si sommano.
Soluzione. Poiché W (s) = 100 2 1 − 10s , si disegnano i seguenti
s (1 + s)(1 − 0.1s)
diagrammi per la W (jω).
W (j ω)
dB
1+0.5s

W (j ω) 10
dB
2 50
1-10s 20dB
0.1 1 10 100 ω
100
________
1
1+0.02s
40dB
0.01 0.1 1 10 100 ω
__
1
_______
1 W (j ω) s
1-0.1s
__
1 ____
1
s2 1+s
0
________
1
W (j ω) 1+0.5s 1+0.02s


2

__
1 0.1 10
s2 _______
1
1-0.1s 2 0.2 1 2 5 20 100 500 ω
0.01
-π ___
10
0.1 1 10 100 ω s
1-10s

-
3 π Figura 4.23
2

____
1
-2 π
1+s
Esercizio 4.23. Tracciare i diagrammi di Bode della funzione di risposta
armonica corrispondente a W (s) = 3 s+2 .
Figura 4.22 4s + 49s2 + 140s + 32
Si noti la presenza di uno zero e di un polo a fase non minima, per i
quali i diagrammi delle fasi vanno ribaltati rispetto al caso di τ > 0.
Soluzione. Il denominatore della W (s) viene fattorizzato in (4s + 1)(s +
Esercizio 4.22. Tracciare i diagrammi di Bode della funzione di risposta 1+ s
4)(s + 8), per cui si può riscrivere W (s) = 1  2  . Si
armonica corrispondente a W (s) = 10 + 5s . 16
s(1 + 0.02s) (1 + 4s) 1 + s 1 + s
4 8
ricavano cosı̀ i seguenti diagrammi di Bode della W (jω).
4.5. I diagrammi di Bode 223 224 4. Le trasformate di Laplace e z

e dunque si può facilmente determinare la seguente tabella:


W (j ω) 4
dB
s ω |W (jω)|dB W (jω)
1+ __
2
0.01 -24.1 -2.22
0.25 8 0.04 -24.2 -8.80
20 log10 ___
1
16 0.1 1 4 80 ω 0.1 -24.7 -21.1
1
______ 0.4 -29.5 -55.2
s
1+ __
8 1 -35.7 -70.5
______
1 4 -45.2 -94.5
s
1+ __ 10 -54.7 -129
4
W (j ω) 1
______ 40 -76.3 -165
1+4s
100 -92.1 -174
π
2
e i punti riportati su una carta semilogaritmica forniscono i diagrammi
1+ __
s
desiderati.
2

0.025 0.2 0.8 40


0 Esercizio 4.24. Tracciare i diagrammi di Bode della funzione di risposta
0.01 0.4 2.5 20 80 ω 160(s + 1)
armonica corrispondente a W (s) = 2 2 .
______
1 s (s + 4s + 16)
1+4s ______
1
1+ __
s

4
2
Soluzione. Si ha
______
1
1+ __
s
8 10(1 + s)
W (s) =  2
-π 1 s
2
s 1+2 + s
2 4 4
Figura 4.24
in cui al denominatore si ha un termine trinomio con ωn = 4 e ζ = 0.5 e
dunque si tracciano i seguenti diagrammi per la W (jω). Si noti che, essendo
Si noti che nel caso in cui la fattorizzazione del denominatore non fosse
ζ = 0.5, l’andamento asintotico approssima bene il comportamento reale
desiderata, si potrebbe disegnare la W (jω) per punti. Infatti considerato
del modulo. Per disegnare la fase del termine trinomio si possono tracciare:
che:
2 + jω 1) l’approssimazione corrispondente alle spezzate per ω = 0.51 4 ! 1.8,
W (jω) =
5
(32 − 49ω ) + j(140ω − 4ω 3 )
2
ω = 5 4 ! 8.9 (tangenza nel punto di flesso);
0.5

si ha: 2) un andamento compreso tra l’approssimazione per ζ = 1, corrispon-


9 dente alle spezzate con punti di rottura in ω = 0.4 e ω = 40, e
4 + ω2 l’approssimazione del punto 1);
|W (jω)|dB = 20 log10 , 3) un’approssimazione “empirica” che corrisponde a prendere i punti di
(32 − 49ω 2 )2 + (140ω − 4ω 3 )2
rottura in ω = 0.1ζ ωn ! 1.26 e ω = 10ζ ωn ! 12.6. questa è più facile
4 ω 140ω − 4ω 3 
W (jω) = arctan − arctan , da ricordare di quella al punto 1) .
2 32 − 49ω 2
4.5. I diagrammi di Bode 225 226 4. Le trasformate di Laplace e z

Nel tracciamento della fase di W (jω) si sono disegnate, per confronto, le ap- Infine, sia nel diagramma del modulo che in quello delle fasi, gli spigoli
prossimazioni ai punti 1), 2), e 3) (curve tratteggiate). Si è anche riportato sono stati eliminati tracciando l’andamento reale.
l’andamento reale (curva a puntini).
Esercizio 4.25. Tracciare i diagrammi di Bode della funzione di risposta
armonica corrispondente a W (s) = s + 10 .
s(s + 2)(s2 + 60s + 2500)
W (j ω)
dB
Soluzione. La W (s) può riscriversi come

10 1+s
1 1+ s
10
W (s) =  2  .
4 500  
20dB 1+ s 1 + 2 · 0.6 s + s
0.1 1 10 ω 2 50 50
I diagrammi di Bode della W (jω) sono dati, a tratto continuo, nelle figure
seguenti. Si noti la presenza
√ al denominatore di un termine trinomio con
____________
1 pulsazione naturale ωn = 2500 = 50 rad/s e smorzamento ζ = 0.6. Per
1 + __ s2
s + __ __
1 questo valore dello smorzamento l’andamento asintotico si avvicina molto
2 2
4 4 s a quello reale.

W (j ω) 50 100

0
0
__
1 1+s
2
s -50
4 40
-π -100
0.1 0.4 1 10 ω 100
____________
1
1 + __ s2
s + __
2 -200
4 4 150

200 -300
-1 0 1 2 3 -1 0 1 2 3
10 10 10 10 10 10 10 10 10 10

Figura 4.26

Figura 4.25 Esercizio 4.26. Tracciare i diagrammi di Bode della funzione di risposta
armonica corrispondente a W (s) = s−7 .
Nel tracciare la somma dei contributi si è proceduto  inizialmente da 4(s2 + 4s + 23)
sinistra a destra, fino a ω = 1, poi da destra a sinistra infatti si sa che si
 Soluzione. Riscriviamo la funzione W (s) nella forma
deve partire da − 3π fino a ω = 10, ed infine si sono congiunti i due punti
2
nell’intervallo in cui i contributi alla fase sono di entrambi i termini. In tal 1− s
7
modo si è superata la difficoltà relativa alla pendenza della retta tra ω = 1 W (s) = −0.076   2  .
e ω = 10. 1 + 2 · 0.42 √s + √s
23 23
4.5. I diagrammi di Bode 227 228 4. Le trasformate di Laplace e z

I diagrammi di Bode della W (jω) sono dati, a tratto continuo, nelle figure 100 100

seguenti.
√ L’andamento reale del termine trinomio con pulsazione naturale 50
ωn = 23 ! 4.8 rad/s e smorzamento ζ ! 0.42 si avvicina molto a quello 50
0
asintotico.
-50
0
30 200
-100
20 150 -50
-150
10
100
-200
0 100
50
-250
-10
0
150 -300
-20 0 1 2 3 4 0 1 2 3 4
10 10 10 10 10 10 10 10 10 10
-50
-30

-40
-100 Figura 4.28
-50 -150

-60
0 1 2
-200
0 1 2
Esercizio 4.28. Tracciare i diagrammi di Bode della funzione di risposta
10 10 10 10 10 10
armonica corrispondente a W (s) = 10 s2 + 4 .
s(s + 3)(s2 + 3s + 4)
Figura 4.27
Soluzione. La W (s) si riscrive come
  2 
10 1+ s
2
W (s) =  2  .
3  s

3 s
Esercizio 4.27. Tracciare i diagrammi di Bode della funzione di risposta s 1+ 1+2· + s
3 4 2 2
(s − 376)(s + 8.86)
armonica corrispondente a W (s) = −7.09 . I diagrammi di Bode della W (jω) sono dati, a tratto continuo, nella
(s + 100)(s2 + 3.33s + 248)
figura seguente. Si noti la presenza al numeratore di un termine trinomio
con pulsazione naturale ωn = 2 rad/s e smorzamento nullo, ed uno al
Soluzione. La W (s) si riscrive come denominatore con ωn = 2 e ζ = 3 .
4
80 200

   60
150

1− s 1+ s 100
376 8.86
W (s) = 0.95    2  .
40
50

1+ s 1 + 2 · 0.1 √ s + √ s 20 0
100 248 248
0 -50

-100
-20
I diagrammi di Bode della W (jω) sono dati, a tratto continuo, nelle figure -150
seguenti. Si noti la presenza√ al denominatore di un termine trinomio con -40
-200
pulsazione naturale ωn = 248 ! 15.7 rad/s e smorzamento ζ ! 0.1. -60 -250
-1 0 1 2 -1 0 1 2
Per questo valore dello smorzamento l’andamento asintotico si discosta da 10 10 10 10 10 10 10 10

quello reale, per cui il modulo e la fase di questo termine trinomio vanno
riportati (ad esempio per punti) in maniera esatta. Figura 4.29
4.5. I diagrammi di Bode 229 230 4. Le trasformate di Laplace e z

Pertanto il termine trinomio al numeratore va disegnato in maniera esatta Soluzione. Si noti la presenza del termine esponenziale. Per disegnare i
(peraltro molto semplice), mentre per quello al denominatore l’approssimazione diagrammi di Bode si disegnano innanzitutto quelli relativi a
asintotica è soddisfacente. 1 − 2s
W̄ (s) = 10 .
Esercizio 4.29. Tracciare i diagrammi di Bode della funzione di risposta s(1 + 0.1s)2
2
armonica corrispondente a W (s) = 3s + 2s + 7 . Poiché l’esponenziale altera solo la fase, solo il diagramma della fase va
s(s2 + 10) modificato per tenere conto di questo termine, che può essere graficato per
punti (ad esempio per ω = 0.1, ω = 1, ω = 10).
Soluzione. La W (s) si riscrive come 80 0

 2 60 -100
1/3
1+2  s + s 40 -200
7 7/3 7/3 7/3
W (s) =   .
10  2 20 -300

s 1 + √s
10 0 -400

Sia al numeratore che al denominatore sono presenti , dei termini trinomi. -20 -500

Quello al numeratore ha pulsazione naturale ωn = 7 ! 1.53 rad/s e


3

-40 -600
-2 -1 0 1 2 -2 -1 0 1 2
1/3 10 10 10 10 10 10 10 10 10 10
smorzamento ζ =  ! 0.218, e quello al denominatore ha ωn = 10 !
7/3
3.16 e ζ = 0. Per entrambi occorre disegnare, in maniera esatta, gli anda- Figura 4.31
menti del modulo e della fase.
Esercizio 4.31. Tracciare i diagrammi di Bode della funzione di risposta
armonica corrispondente a W (s) = 2 s2 + 2 .
60 200

150
s −1
40
Soluzione. Si noti la presenza al denominatore di due termini, s + 1, s − 1,
100
20 le cui fasi si elidono (essendo un polo a fase minima ed uno a fase non
50 minima), per cui il tracciamento dei diagrammi di Bode della W (jω) è
0
0
particolarmente semplice.
-20 50 100
-50

-40
-100
50

-60 -150
-1 0 1 2 -1 0 1 2
10 10 10 10 10 10 10 10

0 0

Figura 4.30
-50

Esercizio 4.30. Tracciare i diagrammi di Bode della funzione di risposta


armonica corrispondente a W (s) = 10 1 − 2s 2 e−2s . -50
-2 -1 0 1 2
-100
10
-2 -1
10
0
10
1
10
2
10
s(1 + 0.1s) 10 10 10 10 10

Figura 4.32
4.5. I diagrammi di Bode 231 232 4. Le trasformate di Laplace e z

Esercizio 4.32. Tracciare i diagrammi di Bode della funzione di risposta Esercizio 4.34. Tracciare i diagrammi di Bode della funzione di risposta
1 − 10s armonica corrispondente a W (s) =  1 − 4s −5s
armonica corrispondente a W (s) = 100 2
s (1 + s)(1 − 0.1s)
.  2  e .
s 1 − 2 0.1 s + s
3 3
Soluzione. I diagrammi di Bode della W (jω) sono riportati a tratto con- Soluzione. Si noti la presenza del termine esponenziale e del termine tri-
tinuo nelle figure seguenti. nomio a denominatore con smorzamento ζ = −0.1 negativo. I diagrammi
di Bode della W (jω) sono riportati a tratto continuo nelle figure seguenti.
150 100
60 200
50
100 100
40
0
0
50 -50 20

-100 -100
0 0
-150 -200
-20
-50 -200 -300

-250 -40
-400
-100
-300 -60 -500
-150 -350
-2 -1 0 1 2 3 -2 -1 0 1 2 3
10 10 10 10 10 10 10 10 10 10 10 10 -80 -600
-2 -1 0 1 2 -2 -1 0 1 2
10 10 10 10 10 10 10 10 10 10

Figura 4.33
Figura 4.35

Esercizio 4.35. Tracciare i diagrammi di Bode della funzione di risposta


Esercizio 4.33. Tracciare i diagrammi di Bode della funzione di risposta  2
armonica corrispondente a W (s) = 100  1+s
 2  . 1+ s
10 −0.3s
s 1 + 2 0.7 s + s
2 armonica corrispondente a W (s) = 10   2  e .
4.5 4.5 s s
s(1 + s2 ) 1 − 2 0.2 +
4 4
Soluzione. I diagrammi di Bode della W (jω) sono riportati di seguito. Soluzione. Si noti la presenza del termine esponenziale, di un termine
100 100
trinomio a denominatore con smorzamento ζ = −0.2 negativo, e di due
termini trinomi, a numeratore e denominatore, con smorzamento nullo.
80 50
100 200
60
0
100
40 50
-50
20 0
-100 0
0 -100
-150
-20 -50 -200
-200
-40
-300
-250 100
-60
-400
-80 -300 150
-1 0 1 2 -1 0 1 2
10 10 10 10 10 10 10 10 -500

200 -600
-1 0 1 2 3 -1 0 1 2 3
Figura 4.34 10 10 10 10 10 10 10 10 10 10

Figura 4.36
4.6. I diagrammi di Nyquist 233 234 4. Le trasformate di Laplace e z

4.6. I diagrammi di Nyquist Il generico punto sul semicerchio è s2 = jω +)ejϑ , per cui in corrispon-
denza a tale valore si ha
Lo studio della stabilità dei sistemi interconnessi a controreazione può
essere effettuato utilizzando il criterio di Nyquist. L’impiego di tale crite- NF (s2 ) 1 −jϑ NF (s2 )
rio è subordinato alla costruzione di una particolare rappresentazione della F (s2 ) = = e .
(s22 + ω 2 )dAP0 (s2 ) ) ()ejϑ + 2ωj)d
funzione di trasferimento d’anello F (s) in catena diretta del sistema as- AP0 (s2 )

segnato. Più precisamente si deve costruire la rappresentazione sul piano Dunque per ) → 0 il grafico di F (jω) passerà per l’infinito. Inoltre, poiché
complesso della funzione di risposta armonica F (jω).
Una assegnata funzione di trasferimento F ϑ varia da − π a π , si ha un contributo alla fase di F (jω), dato da e−jϑ
  (s) definisce una trasfor-
 2 2
mazione del piano IRe(s), IIm(s) in quello di IRe(F (jω)), IIm(F (jω)) . con −ϑ che varia da π a − π (dunque in senso orario), che determina una
2 2
rotazione di π in senso orario.
La monodromia e l’analiticità della F (s) fanno sı̀ che fissato nel piano com-
In modo analogo si mostra che se µ è la molteplicità dei poli immaginari
plesso ( IRe(s), IIm(s)) un contorno chiuso che non passi per alcun polo della
puri, la rotazione è µπ.
funzione di trasferimento F (s), ad essa corrisponde nel secondo piano com-
plesso un contorno chiuso. IIm (s )
  Si definisce diagramma di Nyquist l’immagine
IRe(F (jω)), IIm(F (jω)) del cosiddetto cammino di Nyquist nel piano
( IRe(s), IIm(s)), che è quel contorno chiuso nel piano ( IRe(s), IIm(s)) che
comprende nel suo interno l’intero semipiano destro, che viene percorso in
Eventuali
R ∞
poli di F (s ) IRe (s )
senso orario. Esso comprende ovviamente l’asse immaginario. Se F (s) ha
sull’asse
poli immaginari puri, per evitare il passaggio del cammino di Nyquist su di immaginario
essi, si considera un percorso perturbato rispetto al precedente, che formi
piccoli semicerchi in corrispondenza dei poli. Come noto ciascuno di questi
semicerchi corrisponde ad un passaggio del diagramma di Nyquist per il
punto improprio. Inoltre cosı̀ come il polo immaginario puro è lasciato a
sinistra percorrendo il cammino di Nyquist, cosı̀ il punto improprio viene
lasciato alla sinistra percorrendo il diagramma di Nyquist. Ciò equivale ad Figura 4.38
una chiusura all’infinito nel diagramma di Nyquist in senso orario, con una
rotazione di π. Si osservi che poiché F (s) è pari al rapporto di due polinomi a coeffi-
cienti reali nella variabile s, risulta:
In effetti se il denominatore di F (s), che è poi il polinomio caratteristico
a ciclo aperto dAP (s), ha un polo in s1 = jω, esso ha la forma        
IRe F (jω) = IRe F (−jω) , IIm F (jω) = − IIm F (−jω) ,
dAP (s) = (s − jω)(s + jω)dAP0 (s) = (s2 + ω 2 )dAP0 (s).

e quindi il diagramma di Nyquist presenta simmetrie coniugate, cioè il


grafico per ω ∈ [0, ∞) è l’immagine speculare rispetto all’asse reale del
grafico per ω ∈ (−∞, 0). Dunque il diagramma di Nyquist è ottenibile da
quello polare di F (jω) (ossia quello per ω ∈ [0, ∞)) ribaltando quest’ultimo
s1 = jω rispetto all’asse reale e operando le eventuali chiusure all’infinito. Inoltre
ϑ se tutti i poli della F (s) hanno parte reale minore di zero il diagramma di
) Nyquist può essere ottenuto tracciando il diagramma polare della funzione
s2 = jω + ) e j ϑ F (jω) dedotto per via sperimentale.
Molto spesso è utile saper tracciare il diagramma di Nyquist qualita-
Figura 4.37 tivamente, ma in modo rapido. L’andamento qualitativo del diagramma
4.6. I diagrammi di Nyquist 235 236 4. Le trasformate di Laplace e z

di Nyquist può essere dedotto sia da quello qualitativo dei diagrammi di IIm
Bode, sia da semplici considerazioni a partire dal diagramma poli–zeri della
F (s).
0+ -∞ IRe
+∞
Esercizio 4.36. Tracciare il diagramma di Nyquist di F (s) = 40 s + 0.5 . 0-
(s+1)(s+4)

Figura 4.40
Soluzione. Il modulo di F (jω) va da 40 (per ω = 0) a 0 (per ω = ∞) in
modo continuo. Inoltre la fase varia da 0 radianti (per ω = 0) a − π (per
2 Il risultante diagramma di Nyquist è riportato in figura 4.40.
ω = ∞). Poiché l’aumento di fase dovuto allo zero interviene prima della
diminuzione di fase dovuta ai poli, la fase inizialmente crescerà (e quindi
sarà superiore a 0 rad) per poi decrescere. Per convincersi di ciò ci si può Esercizio 4.38. Si consideri il circuito elettrico in figura
costruire i diagrammi di Bode. C
IIm

u ( t) R y ( t)

-∞ 0
+ IRe
+ ∞ 0- Figura 4.41

e si tracci il corrispondente diagramma di Nyquist.

Figura 4.39

Soluzione. Poiché F (s) = τ s , τ = RC, si ha che il modulo va da un


Il risultante diagramma di Nyquist è riportato in figura 4.39, ove sono 1 + τs
stati riportati i valori della pulsazione ω. Per ω = 0 si ha un modulo valore nullo per ω = 0, ad 1 (cioè 0dB ) per ω = ∞; la fase varia da π
2
pari a 40. Con il tratteggio si è indicata la parte relativa a ω ∈ (−∞, 0), a 0 radianti. Inoltre è facile verificare che il diagramma rimane confinato
simmetrica rispetto a quella per ω ∈ [0, ∞). al primo quadrante. In definitiva si ha il diagramma in figura, dato da
jωτ
una circonferenza, come è facile verificare notando che W (jω) = =
1 + jωτ
s−0.5 . √ ωτ ej(π/2−arctan ωτ )
e dunque che in coordinate cartesiane:
Esercizio 4.37. Tracciare il diagramma di Nyquist di F (s) = 40 1 + ω2 τ 2
(s+1)(s+4)

ω2 τ 2 ωτ
x= = ωτ y, y= ,
1 + ω2 τ 2 1 + ω2 τ 2
Soluzione. Il modulo varia da 40 a zero, mentre la fase varia da −π a
− 3 π, a causa della presenza dello zero a fase non minima e dei due poli. per cui x2 + y 2 − x = 0.
2
Figura 4.45

Esercizio 4.40. Tracciare i diagrammi di Nyquist della seguente funzione


di trasferimento
k
F (s) = , τ1 , τ2 > 0.
s(1 + τ1 s)(1 + τ2 s)

Soluzione. Poiché la funzione di trasferimento presenta un polo sull’asse


immaginario, il percorso di Nyquist risulta essere il seguente
IIm

0+ IRe
0

Figura 4.46
Figura 4.51
242 4. Le trasformate di Laplace e z

Riguardo la funzione di trasferimento g) si noti che può anche essere scritta


come:  
(1 + 10s) 1 + 2 1 s + s2
4 4 2 4
 2
.
9 1 s s
s(1 + 30s) 1 − 2 +
3 3 9

4.7. Richiami sulla trasformata z

Sia data una funzione f : ZZ+ → IR. Si definisce trasformata z di f (k)


 
la funzione F : C → C definita da:
z → F (z)


 f (k)
F (z) = = Z[f (k)]. (4.14)
k=0 k!

Le più importanti trasformate sono richiamate in tabella 1.2.

Tabella 4.2 – Trasformate e antitrasformate z

Funzione Trasformata z
f (k) F (z)
δ−1 (k) z
z−1
eαk = λk z = z
z − eα z−λ
sen ωk z sen ω
z 2 − 2z cos ω + 1
cos ωk −z cos ω
z 2 − 2z cos ω + 1
δ(k) 1
k (n) z
n! (z − 1)n+1
k (n) eα(k−n) = k (n) λ(k−n) z
n! n! (z − λ)n+1
 n
k n f (k) −z d F (z)
dz

Figura 4.54
4.8. Uso della trasformata z 243 244 4. Le trasformate di Laplace e z

Si noti che nella trasformata delle funzioni k n f (k), che provengono e ne segue che Φ(·), Ψ(·) e W (·) sono matrici razionali proprie, mentre H(·)
 n è strettamente propria.
dal campionamento delle funzioni tn f (t), il simbolo −z d indica la
dz Nel caso in cui gli autovalori di A siano distinti, Φ(z) può essere es-
ripetizione per n volte della derivazione rispetto a z, seguita dalla moltipli- pansa analogamente al caso a tempo continuo in frazioni parziali secondo
cazione per −z. l’espressione:
Come nel caso a tempo continuo, un certo problema di partenza (nel  n
z
dominio del tempo) può essere tradotto in un problema più semplice (nel Φ(z) = Ri ,
dominio della variabile complessa z) e, una volta risolto, mediante anti- i=1 z − λi
trasformazione si riottiene la soluzione nel dominio del tempo. Si nota in cui le matrici residue Ri sono date dall’espressione:
dalla tabella 4.2 che le trasformate z hanno al numeratore il termine z.
Quando dunque si sviluppa in frazioni parziali la F (z) conviene far ap- z − λi
Ri = lim Φ(z), (4.16)
parire in ciascuna frazione il termine z al numeratore, in modo da ottenere z→λi z
al secondo membro dei termini che sono le trasformate di funzioni note. Per e risultano legate agli autovettori di A nel modo seguente:
far ciò in maniera semplice e rapida conviene sviluppare in frazioni parziali
F (z) Ri = ui viT .
la funzione z e poi moltiplicare per z ambo i membri.
Nel caso in cui gli autovalori di A abbiano molteplicità geometrica mi mag-
giore di uno, si ha l’espressione più generale:
4.8. Calcolo delle evoluzioni nel dominio complesso: 
r 
mi
z
uso della trasformata z Φ(z) = Rik ,
i=1 k=1 (z − λi )k
Al pari della trasformata di Laplace per i sistemi a tempo continuo, la
in cui r è il numero degli autovalori distinti di A e:
trasformata z può essere usata vantaggiosamente per l’analisi dei sistemi
1 2
lineari stazionari a tempo discreto 1 dmi −k (z − λi )mi
Rik = lim Φ(z) . (4.17)
z→λi (m − k)!
i dz mi −k z
x(k + 1) = Ax(k) + Bu(k)
(4.15)
y(k) = Cx(k) + Du(k). Esercizio 4.42. Determinare la trasformata z del seguente segnale:

La trasformata z della rappresentazione (4.15) permette infatti di ricavare u ( k)


le espressioni: 2
 −1  −1
x(z) = zI − A zx0 + zI − A Bu(z) 1
 −1 "  −1 #
y(z) = C zI − A zx0 + C zI − A B + D u(z),
k
1 2 3 4 5
le quali, analogamente al caso a tempo continuo, forniscono una procedura
alternativa per il calcolo di x(t) ed y(t), mediante antitrasformazione, una -1
volta noti x0 , u(t) e quindi u(z).
Pertanto:
Figura 4.55
Φ(z) = (zI − A)−1 z, Ψ(z) = C(zI − A)−1 z,
H(z) = (zI − A)−1 B, W (z) = C(zI − A)−1 B + D,
4.8. Uso della trasformata z 245 246 4. Le trasformate di Laplace e z

Soluzione. Dalla definizione (4.14) si ricava: Pertanto:


1 z
2 1 2z + 2z − 1
2 y(z) = 2 + −2 ,
u(z) = 2 + − +0= . z z−1
z z 2
z2 e dunque
Esercizio 4.43. Determinare la trasformata z del seguente segnale: y(k) = 2 δ(k) + δ(k − 1) − 2 δ−1 (k).

y ( k) Esercizio 4.45. Si determini la risposta forzata all’impulso, al gradino e


2 al gradino traslato δ−1 (k − 1) di un sistema discreto avente funzione di
10(z + 1)
trasferimento W (z) = .
1 z + 0.1

k
Soluzione. Nel primo caso u(z) = 1. Per ottenere la risposta forzata
1 2 3 4 5
y(z)
conviene innanzitutto espandere in frazioni parziali z , ottenendo:
-1
y(z) W (z) 100 90 z
= = − ⇒ y(z) = W (z) = 100 − 90 .
z z z z + 0.1 z + 0.1
Figura 4.56
Ne segue che

Soluzione. Dalla definizione (4.14) si ricava: 10 se k = 0
1 1 1 z −z −z+1 3 2 y(k) = 100 δ(k) − 90(−0.1)k =
y(z) = 1 − − + +0= . −90(−0.1)k se k > 0.
z z 2
z 3
z3
Tale risultato può essere verificato eseguendo la divisione tra numeratore e
Esercizio 4.44. Dato un sistema descritto dalla funzione di trasferimento denominatore di y(z) e ricordando la definizione (4.14):
W (z) = z + 1 , calcolare la risposta all’impulso unitario. ∞

z(1 − z) y(k) 9 −0.9
y(z) = = 10 + + + ···.
z k z z2
k=0
Soluzione. Essendo u(z) = 1, si calcola:
y(z) W (z) A B C Nel secondo caso u(z) = z , per cui:
= = + + . z−1
z z z z 2 z −1
y(z) W (z) z 40/3 −10/3 40 z 10 z
Dalle (4.16), (4.17) si calcola: = = + ⇒ y(z) = − ,
- . z z z−1 z − 1 z + 0.5 3 z−1 3 z + 0.5
1 d z + 1 (1 − z) + (z + 1)
A = lim z2 = lim = 2, e pertanto:
z→0
(2 − 1)! dz z (1 − z)
2 z→0
(1 − z)2 40 10
y(k) = δ−1 (k) − (−0.5)k .
z+1 3 3
B = lim z 2 = 1, 1 z 1
z→0
z 2 (1 − z) Infine nel terzo caso u(z) = z
z−1
=
z−1
:

z+1 y(z) W (z) 1 −20 20/3 40/3


C = lim (z − 1) = −2. = = + + ,
z→1
z (1 − z)
2 z z z−1 z z + 0.5 z − 1
4.8. Uso della trasformata z 247 248 4. Le trasformate di Laplace e z

e dunque: Esercizio 4.47. Determinare per il sistema avente la seguente rappresen-


20 z 40 z tazione:    
y(z) = −20 + + , 0.1 1 0 0
3 z + 0.5 3 z−1
x(k + 1) =  0 0.2 0  x(k) +  1  u(k)
fornendo cosı̀: 1 0 0.5 1
20 40 y(k) = ( 1 2 0 ) x(t) + u(k)
y(k) = −20 δ(k) + (−0.5)k + δ−1 (k) =
3 3  
 2
0 se k = 0 la risposta a gradino a partire dallo stato iniziale x0 =  0 .
= 20 (−0.5)k + 40 δ (k) se k > 0. 1
3 3 −1

Esercizio 4.46. Sia y(k) l’uscita corrispondente a u(k), graficati nella Soluzione. Poiché Φ(z) = (zI − A)−1 z, si ottiene:
figura seguente.  z z 
0
u ( k) z − 0.1 (z − 0.1)(z − 0.2)
 
2 Φ(z) = 
 0 z 0 ,

z − 0.2
z z z
1 (z − 0.1)(z − 0.2) (z − 0.1)(z − 0.2)(z − 0.5) z − 0.5
k e quindi:  
1 2 3 4 5 y(z) = z 2z 2 + 0.8z 0 x0 +
z − 0.1 (z − 0.1)(z − 0.2)
-1  
+ 2z + 0.8 + 1 u(z).
(z − 0.1)(z − 0.2)
Figura 4.57 Ne segue che

Determinare la funzione di trasferimento W (z). 2z z 2 + 1.7z + 0.82 z


y(z) = + ,
z − 0.1 (z − 0.1)(z − 0.2) z − 1

Soluzione. Dalla definizione (4.14) si calcola: ed in virtù della linearità della trasformata z i due termini a secondo mem-
bro possono essere antitrasformati separatamente: per il primo ciò è imme-
y(1) y(2) 1 1 z+1 diato mentre il secondo risulta pari a
y(z): = y(0) + + + ··· = 0 + + +0= ,
z z2 z z2 z2 100z 15z 44 z
− + .
u(1) u(2) 1 −z + 1 9(z − 0.1) z − 0.2 9 z−1
u(z): = u(0) + + + · · · = −1 + + 0 = .
z z 2 z z
Si ottiene in questo modo:
Quindi:
y(z) z+1 100 44
W (z) = = . y(k) = 2 · 0.1k + 0.1k − 15 · 0.2k + .
u(z) z(1 − z) 9 9
250 4. Le trasformate di Laplace e z

Soluzione. Poiché risulta:


 
u1 (z)
y(z) = W1 (z) W2 (z)
u2 (z)

ne segue:
 
y(z)  y(z) 
W1 (z) =  , W2 (z) =  .
u1 (z)  u2 (z)=0 u2 (z)  u1 (z)=0

Quindi con riferimento alle funzioni assegnate:

1 + 1
W1 (z) = z 2
z3 = 1 ,
1 1 z
z + z2
1 + z1 + 12 2
W2 (z) = z = z + z + 1,
−1 + z1 z(1 − z)

in cui per il calcolo delle trasformate si è fatto riferimento alla definizione


(4.14).

Esercizio 4.50. Assegnata la funzione di trasferimento:

2z + 1
W (z) = ,
(z + 0.1)(z + 0.5)
determinare il valore della risposta per k → ∞ quando viene applicato
l’ingresso a gradino unitario.

Soluzione. Poiché u(z) = z , si ha:


z−1
z(2z + 1)
y(z) = ,
(z + 0.1)(z + 0.5)(z − 1)
e quindi in base al teorema del valore finale:

Figura 4.59 z(2z + 1) 60


y(∞) = lim (z − 1)y(z) = lim (z − 1) = .
z→1 z→1
(z + 0.1)(z + 0.5)(z − 1) 33
4.8. Uso della trasformata z 251 252 4. Le trasformate di Laplace e z

Si noti che il teorema del valore finale ammette una semplice dimostrazione Facendo tendere z ad 1:
di tipo intuitivo. Si noti innanzitutto che data y(z), poiché:  
lim (z − 1)y(z) − z y(0) = lim (z − 1)y(z) − y(0) =
z→1 z→1
y(1) y(2) y(3) 
y(z) = y(0) + + + + ··· = lim y(1) − y(0) + y(2) − y(1) + · · · + y(n) − y(n − 1)+
z z2 z3 n→∞
  
y(2) y(3) + y(n + 1) − y(n) = lim y(n + 1) − y(0) ,
z [y(z) − y(0)] = y(1) + + + ··· n→∞
1 2 z z2
y(1) y(3) si ha dunque quanto cercato:
z 2 y(z) − − y(0) = y(2) + + ···
z z
1 2 lim (z − 1)y(z) = lim y(n + 1) = lim y(k).
y(2) y(1) z→1 n→∞ k→∞
z 3 y(z) − − − y(0) = y(3) + · · ·
z2 z
.. Esercizio 4.51. Determinare la risposta al gradino per il sistema:
.    
0 2 1 1
i valori di y(k), k ≥ 0 sono dati dalle relazioni: x(k + 1) =  0 0 3  x(k) +  1  u(k)
0 0 0 0
 
y(0) = lim y(z), y(k) = 1 1 1 x(k).
z→∞
y(1) = lim z [y(z) − y(0)] ,
z→∞
1 2
y(1)
y(2) = lim z y(z) −
2
− y(0) ,
z→∞ z Soluzione. Poiché A è diagonale a blocchi si ricava rapidamente:
1 2  
y(2) y(1)  −1 1 2 6 + 1
y(3) = lim z 3 y(z) − − − y(0) , z
z→∞
z2 z z −2 −1  z 2
z 3
z 
2
 
.. (zI − A)−1 =  0 z −3  =  0 z1 3 
.  z 2 
0 0 z
0 0 1
z
Ora, poiché: e dunque
2 2 2

 
n W (z) = C(zI − A)−1 B = + = (z + 1).
y(k + 1) − y(k) y(k + 1) − y(k) z 2
z2
Z [y(k + 1) − y(k)] = = lim , z , si ricava:
z
n→∞ Essendo u(z) =
k=0 zk k=0 zk z−1
2z+1 yf (z) 2 z+1 A B C
in base all’osservazione precedente il primo membro vale: yf (z) = W (z)u(z) = ⇒ = = + + ,
zz−1 z z 2 z−1 z z 2 z−1
" #
Z [y(k + 1) − y(k)] = z y(z) − y(0) = z [y(z) − y(0)] − y(z), ove i residui B, C si calcolano dalle (4.16), (4.17) (B = −2, C = 4) ed A si
può calcolare (oltre che dalla (4.17)) più semplicemente ponendo z = −1,
per cui sicché A = B − C = −4. Dunque:
2

n
y(k + 1) − y(k)
(z − 1)y(z) − z y(0) = lim . 2 4z
n→∞ yf (z) = −4 − + ⇒ yf (k) = −4δ(k) − 2δ(k − 1) + 4δ−1 (k).
k=0 zk z2 z−1
Figura 4.61

Esercizio 4.54. Determinare la risposta del sistema con:


   
0 1 0 1 0
x(k + 1) =  0 0 1  x(k) +  0 1  u(k)
2 1 −2 0 0
 
y(k) = 1 0 −1 x(k)
 
1
δ(k)
all’ingresso u(k) = , essendo x0 =  −1 .
δ(k)
1
4.9. Il regime permanente e la risposta armonica 255 256 4. Le trasformate di Laplace e z

1 i 2
Soluzione. L’espressione dell’uscita si ricava antitrasformando: 1 d W (z)
in cui i coefficienti sono dati da ci = .
i! dsi
y(z) = C(zI − A)−1 z x0 + C(zI − A)−1 Bu(z),
z=1
Si ricorda inoltre che la risposta in regime permanente ad un ingresso
sinusoidale u(t) = u0 sen θ̃t, con θ̃ ∈ (0, π), risulta:
1
ove u(z) =
1
e  
yr (t) = u0 M (θ̃)sen θ̃t + φ(θ̃) , (4.20)
 2 
z + 2z − 1 z + 2 1 :
1   
(zI − A)−1 = 2 z 2 + 2z z  .  j θ̃  j θ̃
dove M (θ̃) = W (e ) e φ(θ̃) = W (e ) sono il modulo e fase di W (ej θ̃ ) =
(z + 2)(z − 1)
2
2z z + 2 z2
M (θ̃)eφ(θ̃) calcolati in θ̃. La funzione W (ejθ ), θ ∈ (0, π), che è pari alla
Dunque trasformata z della W (t) valutato sul cerchio di raggio unitario del piano
  complesso, risulta essere definita nell’ipotesi che gli autovalori del sistema
C(zI − A)−1 z x0 = z 0 − z x = 0, abbiano modulo minore di 1. In tal caso infatti la circonferenza di raggio
z+2 z+2 0
  unitario nel piano complesso appartiene alla regione di convergenza della
1
C(zI − A)−1 Bu(z) = 1 0 − 1 Bu(z) = , trasformata z.
z+2 z+2 z+2 È interessante verificare come la (4.20) possa essere ottenuta proce-
dendo, almeno formalmente, in modo diverso. A tal fine si ricorda che la
e infine si ricava y(z) = 1 = 1 z . Pertanto y(k) = (−2)k−1 . trasformata z di un segnale sinusoidale vale (si veda la tabella 4.2):
z+2 zz+2
z sen θ z sen θ
Z[sen θt] = = .
4.9. Il regime permanente e la risposta armonica z 2 − 2zcos θ + 1 (z − ejθ )(z − e−jθ )
per i sistemi a tempo–discreto La risposta forzata di un sistema avente funzione di trasferimento W (z)
Come è noto per un sistema lineare stazionario a tempo discreto (4.15) all’ingresso sen θt risulta:
la risposta in regime permanente è definita dal limite: z sen θ
- . y(z) = W (z)

t
(z − ejθ )(z − e−jθ )
(t−t0 ) (t−τ )
yr (t) = lim CA x0 + CA Bu(τ ) (4.18)
t0 →−∞ da cui
τ =t0

se tale limite esiste, è finito ed è indipendente da x0 . Analogamente al caso y(z) sen θ


= W (z) =
a tempo continuo, perché tale limite sia indipendente da x0 occorre che z (z − e )(z − e−jθ )

risulti |λi | < 1, ∀i = 1, · · · , n. La risposta a regime permanente allora esiste

t A B
e può calcolarsi con la formula yr (t) = lim W (t − τ )u(τ ). = + + [termini dovuti ai poli di W (z)],
t0 →−∞ τ =t0 z−e jθ
z − e−jθ
Si ricorda che per sistemi ad un ingresso ed una uscita, la risposta dove:
(k) 
a regime permanente ad un ingresso canonico del tipo u(t) = u0 t : =
k! y(z)  sen θ  W (ejθ )
t(t − 1) · · · (t − k + 1) A = (z − e )

 = W (z)  = ,
u0
k!
ha l’espressione: z z=ejθ z − e−jθ  z=ejθ
2j


k   W (e−jθ )
t(k−i) y(z)  sen θ 
yr (t) = u0 ci , (4.19) B = (z − e−jθ )  −jθ = W (z)  = .
(k − i)! z z=e jθ 
i=0 z−e z=e−jθ
2j
4.9. Il regime permanente e la risposta armonica 257 258 4. Le trasformate di Laplace e z

    4 4
Poiché risulta W (ejθ ) = W (e−jθ ) e W (ejθ ) = − W (e−jθ ) , posto Esercizio 4.55. Si determini la risposta a regime permanente del sistema:
W (ejθ ) = M (θ)ejφ(θ) , si ha:
1 1 0
x(k + 1) = x(k) + u(k)
  −0.005 −0.6 1
M (θ)  z ejϕ(θ) z e−jϕ(θ)  y(k) = ( 1 0 ) x(k)
y(z) = − + [· · ·].
−jθ
2j z−e jθ
z−e per il quale l’intervallo unitario di tempo è pari a 0.1 s, all’ingresso campi-
onato ottenuto da una sinusoide con pulsazione naturale pari a 2π rad/s.
Infine antitrasformando si ottiene:
Soluzione. L’ingresso campionato è u(k) = sen kω0 T , con ω0 = 2π. Dunque:
y(t) = M (θ)sen [θt + φ(θ)] + yt (t),
π
k.
u(k) = sen
in cui il secondo termine a secondo membro, sotto l’ipotesi che i poli di 5
W (z) abbiano modulo minore di uno, tende a zero al crescere di t e viene Il calcolo della funzione di trasferimento W (z) del sistema assegnato fornisce
denominato risposta transitoria. Il primo termine è coincidente con il sec- inoltre:
1
ondo membro della (4.20) e fornisce la risposta permanente. W (z) = .
Analoghi passaggi potevano essere fatti nel caso a tempo continuo, e (z + 0.1)(z + 0.5)
mostrano che la risposta a regime permanente è quella risposta a cui tende Risulta quindi dalla (4.20):
l’uscita del sistema al crescere t. Inoltre la risposta a regime permanente
 π  π 4
yr (k) = W (ej 5 ) sen
π
all’ingresso sinusoidale, come noto, è ancora dello stesso tipo, ma modificata k + W (ej 5 ) ,
in ampiezza e in fase. 5

Questo fatto mette in luce, tra l’altro, le caratteristiche “filtranti” dei dove:
sistemi lineari. Supponiamo infatti di voler realizzare un sistema carat- π 1 1
W (ej 5 ) = = ,
terizzato da un comportamento a regime permanente che filtri quanto più jπ jπ jϕ1
(0.1 + e 5 )(0.5 + e 5 ) )1 e )2 ejϕ2
possibile segnali campionati del tipo sen kω0 T ottenuti ad esempio da un
9 2 *
segnale continuo sen ω0 t ed in cui T è l’intervallo di campionamento coin-
π π π
cidente con l’unità temporale del sistema a tempo discreto. A tal fine è )1 = 0.1 + cos + sen 2 = 0.01 + 0.2 cos + 1 ! 1.08,
sufficiente che risulti: 5 5 5
 
W (ejω0 T ) ! 0, 9 2 *
π π π
)2 = 0.5 + cos + sen 2 = 0.25 + cos + 1 ! 1.43,
e tale condizione assieme al fatto che W (z) deve avere coefficienti reali, 5 5 5
equivalgono alla presenza di zeri nella W (z) in prossimità di ejω0 t ed e−jω0 t .    
Ad esempio una scelta del tipo: sen π
sen π
5 5
ϕ1 = arctan , ϕ2 = arctan ,
π π
0.1 + cos 0.5 + cos
(z − ejω0 T )(z − e−jω0 T ) 5 5
W (z) =
  1 4
z 2 + a1 z + a2 W (ej π5 ) = ! 0.64,
π
W (ej 5 ) = −ϕ1 − ϕ2 ! 1.17.
)1 )2
con a1 ed a2 da determinare in base ad ulteriori specifiche, soddisfa la
specifica di filtraggio richiesta.
260 4. Le trasformate di Laplace e z

Ora trasformando gli ingressi e yf (t):

y(s) s+1
W1 (s) = = ,
u1 (s) (s + 2)(s + 3)

per cui l’espressione di H(s) diviene:

7s + 6
H(s) = .
s+1

La funzione di trasferimento che lega l’ingresso u2 all’uscita y vale poi:

P2 (s)
W2 (s) = = sK(s),
1 + P1 (s)P2 (s)H(s)
Figura 4.62
nella quale si è indicato con K(s) una funzione di trasferimento senza poli
nell’origine. Dal teorema del valore finale, la risposta a regime permanente
con le funzioni di trasferimento P1 (s) = s + 1 1
s , P2 (s) = s − 2 . Si individui vale
la yr (t) = W2 (0)δ−1 (t),
funzione di trasferimento
H(s) sapendo che la risposta forzata all’ingresso
u1 (t) δ−1 (t) e poiché W2 (s) ha uno zero nell’origine yr (t) = 0.
= è
u2 (t) 0

1 1 −2t 2 −3t
yf (t) = + e − e δ−1 (t). Esercizio 4.57. Sapendo che la risposta a regime permanente all’ingresso
6 2 3 u(t) = 3δ−1 (t) è pari a 6δ−1 (t) per i due sistemi F1 (s) = k , F2 (s) =
s+2
1 , individuare i parametri k e p.
u1 (t) s+p
Calcolare inoltre la risposta a regime permanente all’ingresso =
u2 (t)
0
.
δ−1 (t) Soluzione. Dal teorema del valore finale risulta per i = 1, 2:

yr (t) = lim sFi (s)u(s) = Fi (0)δ−1 (t).


s→0
Soluzione. La funzione di trasferimento W1 (s) che lega u1 a y vale:
Dunque imponendo
P1 (s)P2 (s)
W1 (s) = ,
1 + P1 (s)P2 (s)H(s) k 1
6δ−1 (t) = 3δ−1 (t), 6δ−1 (t) = 3δ−1 (t),
2 p
da cui, risolvendo rispetto ad H(s), si ottiene:

P1 (s)P2 (s) − W1 (s) si ricava k = 4 e p = 1 .


2
H(s) = .
P1 (s)P2 (s)W1 (s)
Figura 4.63
264 4. Le trasformate di Laplace e z

Problema 4.3. Determinare la risposta forzata al gradino per un sistema


10(s + 0.1)
avente funzione di trasferimento W (s) = .
(s + 1)(s + 2)(s + 3)
Problema 4.4. Determinare la risposta forzata all’impulso per un sistema
 
s2 − s + 1
 (s + 0.1)(s2 + s + 1) 
avente funzione di trasferimento W (s) = 

.

1
(s + 0.1)(s + 2)

Problema 4.5. Determinare la risposta forzata al gradino per un sistema


avente funzione di trasferimento W (s) = 3 s+5 .
s + 3s2 + 3s + 1
Problema 4.6. Determinare la risposta a regime permanente al gradino
per il sistema del problema 4.3.

Problema 4.7. Determinare la risposta a regime permanente sotto l’ingresso


u(t) = cos 3t per il sistema del problema 4.4.

Problema 4.8. Determinare la risposta a regime permanente all’ingresso


u(t) = t2 δ−1 (t) per il sistema del problema 4.5.

Problema 4.9. Studiare l’andamento iniziale delle risposte impulsive dei


sistemi dei problemi 4.3 ÷ 4.6.

Problema 4.10. Determinare la risposta all’impulso discreto per un


sistema avente funzione di trasferimento W (z) = z 2 + 2z + 1 .
(z + 0.1)(z + 0.5)
Problema 4.11. Determinare la risposta al gradino per un sistema avente
 
z + 0.1
 (z + 0.1)(z + 0.5) 
funzione di trasferimento W (z) = 

.

z+1
(z + 0.1)(z + 0.2)

Problema 4.12. Calcolare i valori delle risposte impulsive dei sistemi dei
problemi 4.10 e 4.11 per t = 0, 1, 2, 3.

Problema 4.13. Determinare la risposta all’impulso discreto per un


Figura 4.66
sistema avente funzione di trasferimento W (z) = z + 2z 6+ z − 1 .
4 3 2

z
266 4. Le trasformate di Laplace e z

4.11. Appendice del capitolo 4

4.11.a. La trasformata di Laplace

Nel ricavare i modelli matematici del capitolo 2 si sono ottenute delle


equazioni differenziali. Per la loro risoluzione sono di grande utilità le
trasformazioni funzionali, ossia le trasformazioni che associano funzioni a
funzioni. Una di essa è la trasformazione di Laplace.
Le trasformazioni funzionali stabiliscono una corrispondenza biunivoca
(sotto certe ipotesi) tra le funzioni di partenza (di solito funzioni del tempo
f (t)) e quelle trasformate (nel caso della trasformata di Laplace funzioni
F (s) della variabile complessa s = α + jω), in modo che le operazioni effet-
tuate sulle funzioni di partenza (ad esempio la derivazione) corrispondono
ad operazioni più semplici nelle funzioni trasformate (un’operazione alge-
brica per la trasformata di Laplace). Dunque un certo problema di partenza
(nel dominio del tempo) può essere tradotto in un problema più semplice
(nel dominio della variabile complessa s); una volta risolto, mediante anti-
trasformazione si riottiene la soluzione nel dominio del tempo.

Sia dunque f (t) una funzione da IR → IR oppure IR → C. Sotto le
seguenti ipotesi sufficienti:
1) per ogni t0 ∈ IR esiste una costante reale c1 ∈ IR tale che |f (t)| < c1
per t ∈ [0, t0 ];
2) f (t) ha un’infinità numerabile di punti di discontinuità;
3) esistono c2 , c3 , t0 ∈ IR per cui |f (t)| < c2 ec3 t per ogni t ≥ t0 ;
legate essenzialmente alla possibilità di definire un integrale da zero a +∞
(sommabilità di f (t)), si definisce trasformata di Laplace di f (t) la seguente
 
funzione F : C → C :
s → F (s)
 +∞
F (s) = f (t)e−st dt = L[f (t)]. (4.21)
0

Si noti che le precedenti ipotesi di esistenza della trasformata di Laplace


implicano che esiste finito il limite
 T
Figura 4.67 lim f (t)e−st dt
T →∞ 0

 +∞
Problema 4.19. Determinare i parametri caratteristici della risposta ar- per almeno un valore s0 ∈ C, ossia che converga l’integrale 0 f (t)e−s0 t dt.
+∞
monica e della risposta indiciale per i sistemi dei problemi 4.3, 4.4, 4.5. Si può dimostrare che allora converge anche l’integrale 0 f (t)e−st dt per
4.11. Appendice del capitolo 4 – La trasformata di Laplace 267 268 4. Le trasformate di Laplace e z

ogni s tale che IRe(s) > IRe(s0 ). Il più piccolo valore IRe(s) per cui tale P7) Trasformata dell’integrale. Dato l’integrale di una funzione f (t) si
integrale converge è detto ascissa di convergenza. Viene cosı̀ individuato ha: - .
t
un semipiano di convergenza (nel piano complesso, a destra di tale ascissa), 1 1
in cui F (s) è definita. L f (τ )dτ = L[f (t)] = F (s).
0 s s
Perché nel procedimento inverso l’antitrasformata di una funzione F (s)
sia determinabile univocamente, si considererà l’ipotesi aggiuntiva che la P8) Trasformata della derivata. Data la derivata di una funzione f (t)
funzione f (t) sia nulla per t < 0. risulta:
Di seguito sono riportate le proprietà fondamentali della trasformata
di Laplace, basate sull’ipotesi di esistenza delle trasformate utilizzate negli L[f (n) (t)] = sn F (s) − sn−1 f (0) + · · · − sf (n−2) (0) − f (n−1) (0).
enunciati.
Si noti che in particolare la proprietà di linearità è facilmente dimostrabile
P1) Linearità. La trasformata di Laplace è lineare:
in base alla linearità dell’integrale.
L[c1 f1 (t) + c2 f2 (t)] = c1 L[f1 (t)] + c2 L[f2 (t)] = c1 F1 (s) + c2 F2 (s). Dalla definizione (4.21) è facile calcolare le seguenti trasformate ele-
mentari, valide per opportuni valori dell’ascissa di convergenza.
P2) Teorema del valore iniziale. Se esiste F (s) con ascissa di conver- T1) Trasformata della “funzione” impulso:
genza β e se lim f (t) = α allora lim sF (s) = α.  +∞
t→0+ s→∞
L[δ(t)] = δ(t)e−st dt = 1.
P3) Teorema del valore finale. Se esiste l’integrale della f (t) in ogni 0
intervallo limitato contenuto in [0, +∞) (ovvero se f (t) è localmente
sommabile in [0, +∞): f (t) ∈ Lloc [0, +∞)) e se lim f (t) = α, allora T2) Trasformata della “funzione” gradino:
t→∞
lim sF (s) = α.  +∞  +∞
−st 1 1
s→0
L[δ−1 (t)] = δ−1 (t)e dt = e−st dt = − [e−st ]+∞
0 = .
P4) Traslazione nel tempo. Risulta: 0 0 s s

L[f (t − a)δ−1 (t − a)] = e−as L[f (t)] = e−as F (s), T3) Trasformata dell’esponenziale:
 +∞  +∞
1
ove δ−1 (t) indica la “funzione” gradino. L[eαt ] = eαt e−st dt = e−(s−α)t = − [e−(s−α)t ]+∞
0 =
0 0 s−α
P5) Traslazione nella variabile complessa. Risulta: 1
 = .
 s−α
L[f (t)eαt ] = L[f (t)] = F (s − α).
s−α
T4) Trasformata del seno:
 +∞  +∞
P6) Prodotto integrale o convoluzione. Se f (t) e g(t) sono due funzioni ejωt − e−jωt 1
si definisce (sotto opportune ipotesi) prodotto integrale o convoluzione: L[sen ωt] = e−st dt = e(−s+jω)t dt +
0 2j 2j 0
 +∞
 1 ω
t − e(−s−jω)t dt = .
f ∗ g(t): = g(t − τ )f (τ )dτ 2j 0 s2 + ω 2
0
T5) Trasformata del coseno:
e, sotto ipotesi molto generali, risulta:
 +∞
ejωt + e−jωt s
L[cos ωt] = e−st dt = .
L[f ∗ g(t)] = L[f (t)]L[g(t)] = F (s)G(s). 0 2j s + ω2
2
4.11. Appendice del capitolo 4 – La trasformata z 269 270 4. Le trasformate di Laplace e z

Una relazione importante è poi la seguente: Ponendo poi f (−1) = f (−2) = · · · = f (−k) = 0 si ha anche che
1 2
tn Z[f (t − k)] = z −k Z[f (k)] = z −k F (z).
L f (t) = (−1)n F (n) (s),
n!
P5) Traslazione nella variabile complessa. Risulta:
n
con F (n)
(s) = d n F (s). In particolare se f (t) = 1: 

ds Z[f (k)ak ] = Z[f (k)] = F (a−1 z).
1 n2 −1 a z
t dn 1 1
L = (−1)n = ,
n s n+1 P6) Convoluzione. Se f (k) e g(k) sono due funzioni si definisce con-
n! ds s
voluzione:
e se f (t) = eλt : 
k
f ∗ g(k): = g(k − τ )f (τ )
1 2 τ =0
tn dn 1 1
L λt
e = (−1) n
= e, sotto opportune ipotesi, risulta:
n! dsn s−λ (s − λ)n+1
Z[f ∗ g(k)] = Z[f (k)]Z[g(k)] = F (z)G(z).
che poteva essere ricavata anche dalla proprietà di traslazione in s, ponendo
n
f (t) = t . P7) Trasformata della somma finita. Risulta che:
n!
- .

k
z z
4.11.b. La trasformata z Z f (h) = Z[f (k)] = F (z).
h=0 z−1 z−1
La funzione (4.14) è definita quando è convergente la serie al secondo
membro. Si chiama raggio di convergenza il valore ) per cui, per |z| > ),
la serie converge, mentre F (z) = Z[f (k)] viene detta trasformata z o z– Dalla definizione (4.14) è facile calcolare le seguenti trasformate ele-
trasformata della funzione f (k). mentari, valide per opportuni valori del raggio di convergenza.
Le proprietà fondamentali della trasformata z sono riportate di seguito, T1) Trasformata della “funzione” impulso:
basate sull’ipotesi di esistenza delle trasformate utilizzate negli enunciati. ∞
 δ(k)
P1) Linearità. La trasformata z è lineare: Z[δ(k)] = = δ(0) = 1.
k=0 zk
Z[c1 f1 (k) + c2 f2 (k)] = c1 Z[f1 (k) + c2 Z[f2 (k)] = c1 F1 (z) + c2 F2 (z).
 T2) Trasformata del gradino:
P2) Teorema del valore iniziale. Si ha che f (k)k=0 = lim F (z).
z→∞ ∞ ∞
 δ−1 (k)  1 z
P3) Teorema del valore finale. Se esiste il lim f (k) = α ed è finito,
k→∞
Z[δ−1 (k)] = = = .
allora lim (z − 1)F (z) = α. k=0 z k
k=0 z k z−1
z→1
P4) Traslazione nel tempo. Risulta per k intero positivo: T3) Trasformata della potenza:
- . - . ∞ ∞

k−1
f (h) 
k−1
f (h)  eαk  1 z z
Z[f (t + k)] = z k Z[f (k)] − = z k F (z) − . Z[eαk = λk ] = = = =
h=0 z h
h=0 z h
k=0 z k
k=0 (ze )α k z−e α
z−λ
4.11. Appendice del capitolo 4 – La trasformata z 271

T4) Trasformata del seno:


1 2
ejωk − e−jωk 1 z z
Z[sen ωk] = Z = − =
2j 2j z − ejω z − e−jω
z sen ω
= .
z 2 − 2z cos ω + 1

T5) Trasformata del coseno:


1 2
ejωk + e−jωk −z cos ω
Z[cos ωk] = Z = .
2 z − 2z cos ω + 1
2
5. Proprietà strutturali dei sistemi
lineari stazionari

Le proprietà geometriche dello spazio di stato sono alla base del calcolo
di quelle rappresentazioni che mettono in luce la struttura interna di un dato
sistema. Per ben comprendere i concetti legati alle proprietà strutturali è
quindi necessario aver acquisito gli elementi relativi alla rappresentazione
di uno spazio vettoriale, contenuti nel capitolo 1.

5.1. Proprietà strutturali e scomposizioni


Come è noto, con riferimento ad una rappresentazione (X, ϕ, η) di un
sistema, l’insieme degli stati raggiungibili ad un fissato istante t da uno stato
fissato x0 , è definito come l’insieme degli stati x ∈ X in corrispondenza dei
quali esiste un instante di tempo t0 ≤ t ed un segmento di funzione di
ingresso u[t0 ,t) tale che risulti:

ϕ(t, t0 , x0 , u[t0 ,t) ) = x.

Per un sistema lineare stazionario a dimensione finita, rappresentato dalle


equazioni
ẋ(t) = Ax(t) + Bu(t)
(5.1)
y(t) = Cx(t) + Du(t)
è usuale assumere x0 = 0. In tal caso si parla di raggiungibilità dallo stato
zero.
274 5. Proprietà strutturali dei sistemi lineari stazionari 5.1. Proprietà strutturali e scomposizioni 275

Nell’ambito della teoria qualitativa di analisi di sistemi, ha interesse la (5.4) sono tutti e solo quelli appartenenti al sottospazio I degli stati
poter valutare l’insieme degli stati raggiungibili da zero per il sistema (5.1) inosservabili  
con semplici manipolazioni, senza dover risolvere le equazioni stesse. A C
tale proposito sussiste l’interessante risultato in base al quale il sottospazio  CA   
I=N  .. =N O ,

vettoriale P degli stati raggiungibili dallo stato zero per il sistema (5.1) è .
dato da:     CAn−1
P = R B AB · · · An−1 B = R R ,
ossia al sottospazio nullo della matrice O, detta matrice di osservabilità.
ossia è lo spazio immagine della matrice R, detta matrice di raggiungibilità. Anche in questo caso considerando una trasformazione T tale che
È inoltre opportuno ricordare che considerando una trasformazione di  
coordinate T tale da assumere come primi vettori della nuova base dello T −1 = v1 · · · vn−r w1 · · · wr , (5.5)
spazio di stato una base {v1 , · · · , vr } dello spazio dei raggiungibili, ossia
tale che  
T −1 = v1 · · · vr w1 · · · wn−r , (5.2) in cui {v1 , · · · , vn−r } è una base di I e w1 , · · · , wr sono r vettori scelti in
modo che esista la matrice T , si ha:
in cui w1 , · · · , wn−r sono un completamento della base dei raggiungibili, si    
A11 A12 B1
ottiene: T AT −1 = , TB = , CT −1 = ( 0 C2 ) , (5.6)
    0 A22 B2
−1 A11 A12 B1
T AT = , TB = , CT −1 = ( C1 C2 ) , (5.3)
0 A22 0 in cui A22 , B2 e C2 sono rispettivamente matrici r × r, r × m e p × r.

in cui A11 , B1 , C1 sono matrici rispettivamente r × r, r × m e p × r. Le stesse considerazioni valgono per i sistemi a tempo discreto. Analoga-
La determinazione della base degli stati raggiungibili va fatta individ- mente alla differenza tra controllabilità e raggiungibilità, per tali sistemi la
uando le colonne linearmente indipendenti della matrice di raggiungibilità. proprietà di osservabilità di uno stato (duale della raggiungibilità di uno
stato) implica quella di ricostruibilità di uno stato (duale della controlla-
Identiche considerazioni possono essere ripetute per i sistemi a tempo bilità), e tali proprietà coincidono se e solo se la matrice dinamica A è non
discreto. Si ricorda però che per tale classe di sistemi la proprietà di rag- singolare.
giungibiltà è più forte di quella di controllabilità. In altre parole, la raggiun-
gibilità di uno stato dall’origine implica la sua controllabilità nell’origine, Esercizio 5.1. Studiare dal punto di vista delle proprietà strutturali il
ma la controllabilità di uno stato nell’origine implica la sua raggiungibilità sistema costituito dalla rete elettrica riportata in figura.
dall’origine se e solo se la matrice dinamica A è invertibile.
Consideramo ora la proprietà di inosservabilità. Ricordiamo che due
stati x0a , x0b si dicono indistinguibili se risulta: C
R v1 i3
    i1
η ϕ(t, t0 , x0a , u[t0 ,t) ), u(t) = η ϕ(t, t0 , x0b , u[t0 ,t) ), u(t) , ∀t ≥ t0 , ∀u. u (t) = i (t) C i5
i
v3 y (t)
Nel caso di un sistema del tipo (5.1) tali stati soddisfano la seguente re- i2 i4
v2
lazione: R
C
CeAt (x0a − x0b ) = 0, t ≥ 0. (5.4)
Utilizzando una dizione di ovvio significato, si dice anche che lo stato x0a −
x0b è inosservabile (cioè indistinguibile dallo stato zero). Facendo proprio Figura 5.1
riferimento alla indistinguibilità rispetto all’origine, gli stati che soddisfano
276 5. Proprietà strutturali dei sistemi lineari stazionari 5.1. Proprietà strutturali e scomposizioni 277

Soluzione. Considerato che come risulta peraltro intuitivo in virtù della simmetria della rete per le
scelte fatte. Per gli stati inosservabili si ha:
i3 = C v̇1 , i4 = C v̇2 , i5 = C v̇3 ,
applicando la legge dei nodi di Kirchhoff si ottiene:  
1 1 0    
   0 1 
i = i1 + i3 = i1 + C v̇1 − 1 − 1 0
I = N  RC RC  = gen  0  ,  −1  .
i3 = C v̇1 = i4 + i5 = C v̇2 + C v̇3  1 1   
0 1 0
i2 = i1 + i5 = i1 + C v̇3 R2 C 2 R2 C 2

ed utilizzando quella delle maglie:


   
Si noti che R R + N O = P + I = IR3 .
Ri1 − v1 − v3 = 0, Ri2 + v3 − v2 = 0,
Si vuole ora effettuare la scomposizione del sistema rispetto alla pro-
con y = v2 + v1 . Da queste ultime si ricava prietà di raggiungibilità. A tal fine si costruisce la matrice (5.2):
v1 + v3 v2 − v3
i1 = , i2 = ,  
R R 1 0 0
che sostituite nelle precedenti forniscono le seguenti equazioni: T −1 = 1 1 0,
1 1 0 0 1
v̇1 = − (v1 + v3 ) + i
RC C
1 1 ottenendo cosı̀ la matrice di trasformazione
v̇2 = − (v2 − v3 ) + i
RC C
1  
v̇3 = (−v1 + v2 − 2v3 ) 1 0 0
RC T =  −1 1 0.
y = v1 + v2 . 0 0 1
Assumendo x1 = v1 , x2 = v2 , x3 = v3 , u = i si ha:
    Nelle nuove coordinate x̃1 , x̃2 , x̃3 , definite dalla trasformazione T , risulta
− 1 0 − 1 1
dunque:
 RC RC  C 
ẋ = 
 − 1 1 x +  1 u
RC  C 
0
RC
1 1 2    
− − 0 − 1 0 − 1 1
RC RC RC  RC RC 
  C
y = ( 1 1 0 ) x. Ã = T AT −1 = 0 − 1 2
, B̃ = T B =  
 RC RC   0 ,
Come è immediato verificare, il sottospazio degli stati raggiungibili per 0 1 − 2
RC RC 0
il sistema in esame è:
 1  
− 12 1    C̃ = CT −1 = 2 1 0 .
 C RC RC 3
  1 
P = RC
1 − 1 1  = gen  1  ,

RC 2 RC 3  
0
0 0 0 A tale rappresentazione corrisponde il seguente schema di simulazione:
278 5. Proprietà strutturali dei sistemi lineari stazionari 5.1. Proprietà strutturali e scomposizioni 279

 ottenendo:
u 1 + ˜1
x
2
C + +
 
  − 1 − 1 0
1 + 1 0 0  RC RC 
y  1 
T = 0 0 1,
RC
1
à = T AT −1 = − 2 − 2 ,
RC
+ 1 1 0  RC RC RC 
0 0 − 1
RC
2 +  x̃ 2  
RC
1 1
+
 C   
1 B̃ = T B =  
 0 , C̃ = CT −1 = 0 0 1 .
RC 2
C


Si può costruire uno schema analogo al caso della scomposizione rispetto
+ x̃ 3 alla raggiungibilità e fare analoghe considerazioni.
+

2 Esercizio 5.2. Si calcoli l’insieme degli stato raggiungibili per il sistema:


RC    
1 0 1
Figura 5.2 ẋ = x+ u,
0 1 0

Il sotto–sistema rappresentato dalle equazioni:  


0
a partire dallo stato x0 = .
1
1 1
x̃˙1 = − x̃1 + u
RC C
y = 2x̃1 Soluzione. Come è immediato verificare risulta:
 t 
è equivalente dal punto di vista ingresso–uscita al sistema assegnato. At e 0
e = ,
Si noti che il cambiamento di coordinate effettuato corrisponde ad tet et
assumere, come nuove variabili di stato per il sistema in esame, quelle di
seguito riportate: per cui l’evoluzione libera a partire da x0 vale:
x̃1 = x1 = v1  t    
e 0 0 0
xl (t) = = .
x̃2 = −x1 + x2 = −v1 + v2 tet et 1 et
x̃3 = x3 = v3
L’insieme degli stati raggiungibili a partire da x0 è dunque pari a:
Per la scomposizione rispetto alla proprietà di inosservabilità si deve    
costruire la matrice (5.5): 0
Px0 = x | x = + R ( B AB ) ,
et
 
1 0 0
T −1 = −1 0 1 , in quanto l’insieme degli stati raggiungibili con la sola evoluzione forzata è
0 1 0 indipendente da t e pari a R ( B AB ).
280 5. Proprietà strutturali dei sistemi lineari stazionari 5.1. Proprietà strutturali e scomposizioni 281

x2 da cui risulta u1 (k) = a, u2 (k) = 1 b−a. Una base di P è ovviamente


 quella

2
C
canonica. Inoltre il sistema è tutto osservabile in quanto I = N =
Px CA
.
1
0
{0}.

La determinazione della base degli stati raggiungibili mediante l’individuazione


x1 delle colonne linearmente indipendenti della matrice di raggiungibilità può
essere difficoltosa, specialmente se la dimensione della matrice è grande (si
Figura 5.3 veda ad esempio il metodo proposto nell’esercizio 6.3). Tale base può es-
sere individuata anche applicado la seguente procedura sistematica. Siano
b1 , · · · , bm le colonne della matrice B. Si costruisce una tabella di vettori in
Esercizio 5.3. Assegnato il sistema a tempo discreto in figura, studiarne
cui ogni vettore viene inserito solo se è linearmente indipendente rispetto
la raggiungibilità e l’osservabilità.
a tutti i vettori già inseriti. La tabella viene costruita per righe, inserendo
le colonne bi nella prima riga e continuando con i vettori Abi nella sec-
onda, i vettori A2 bi nella terza, e cosı̀ via. Si hanno cosı̀ delle colonne di
vettori, in numero minore o uguale ad m. Quando nella i–esima colonna
u1 + x1 + y l’elemento Ak bi , k ≥ 0, non può essere inserito perché dipendente rispetto
z -1 2 agli elementi già presenti nella tabella, la colonna non viene ulteriormente
+ + completata (anche le potenze successive forniscono infatti vettori dipendenti
dai precedenti), e si passa all’elemento successivo da inserire. Quando non
si possono inserire ulteriori elementi, la tabella è completata, e i suoi ele-
menti sono proprio tutte e sole le colonne linearmente indipendenti della
u 2 ++ +
+ x2
2 z -1 4 matrice di raggiungibilità, ossia costituiscono una base del sottospazio di
raggiungibilità.

Figura 5.4 Esercizio 5.4. Dato il sistema


   
4 0 1 0 1 0
Soluzione. Dalla figura si ottiene:  1 −2 1 1   0 2 
ẋ =  x +  u
2 2 0 2 0 0
x1 (k + 1) = x2 (k) + u1 (k) −8 −1 −3 −4 −1 −2
   
x2 (k + 1) = x2 (k) + 2 u1 (k) + u2 (k) 2 3 2 2
y=
y(k) = 2x1 (k) + 4x2 (k). 0 1 0 0
Poiché risulta P = R(B) = IR2 , il sistema non solo è tutto raggiungi- calcolare i sottospazi raggiungibili e inosservabili ed effettuare la scompo-
bile, ma ogni stato può essere raggiunto
  in un solo passo. Ad esempio per sizione di Kalman.
a
raggiungere il generico stato x̄ = , all’istante k + 1 a partire dallo
b
stato zero all’istante k, basta utilizzare il controllo ricavabile risolvendo il Soluzione. La base del sottospazio dei raggiungibili si calcola in base alla
sistema: tabella:
     b1 b2
a 1 0 u1 (k)
x(k + 1) = x̄ = = Bu(k) = ,
b 2 2 u2 (k) – –
282 5. Proprietà strutturali dei sistemi lineari stazionari 5.1. Proprietà strutturali e scomposizioni 283

 ⊥
in cui le colonne non sono state proseguite poiché Abi sono proporzionali R(M T ) , in cui “⊥” indica il complemento ortogonale di R(M T ), ossia
agli elementi precedenti. Dunque:
l’insieme dei vettori ortogonali a quelli di R(M T ). Nel nostro caso M è
       
    la matrice di osservabilità, per cui le colonne della tabella sono le righe di


1 0   1 0 
  2     1  C T , AT C T , etc. Si trova cosı̀ una base di R(M T ). Si determinano infine i
P = gen  0    
 0  ,  0 = gen  0  ,  0
0    = gen {u1,u2 } ,
 vettori ortogonali a tale base. Si noti che in effetti sono proprio queste le

   
    operazioni che portano alla determinazione del nucleo di O.
−1 −2 −1 −1
Il sottospazio χ1 = P ∩ I è generato da quei vettori in comune a P ed
in cui la seconda base di P è leggermente più comoda della prima dal punto I, ossia da quei vettori generabili come combinazione lineare sia dei vettori
di vista del calcolo. Questi sottospazi potevano essere determinati anche di base di P sia di quelli di I:
calcolando:
α1 u1 + α2 u2 = β1 w1 + β2 w2 , (5.7)
 
1 0 4 0
 0 2 0 −6  ossia:
P = R ( B AB A2 B A3 B ) = R  ··· ,   
0 0 0 0 α 
−1 −2 −4
α1 1 0 −1 0 1
6  α   α2 
 0 1 0 0 
u1 u2 −w1 −w2    
2
come nell’esercizio 6.3. Per la base degli inosservabili si determina la ma-  β1  =  0 0 1 −1  β1  = 0.
trice di osservabilità: β2 −1 −1 0 1 β2
 
2 3 2 2 Occorre dunque calcolare una base del nucleo della matrice a primo membro
 0 1 0 0  (che ha rango 3), data da:
 
 −1 −4 −1 −1 
   
 1 −2 1   1 
 1     
O= , 0
 −2 7 −2 −2  N u1 u2 −w1 −w2 = gen   .
  
 1 
 −4 5 −4 −4 
  1
 
11 −16 11 11
13 −14 13 13 Al vettore di questa base corrispondono i coefficienti α1 = 1, α2 = 0,
β1 = 1, β2 = 1, e dunque il vettore di base di χ1 :
che ha rango 2 (in effetti già calcolando CA si vede che si ottengono righe  
 1 
ottenibili per combinazione lineare delle prime due, per cui è in realtà inutile  
completare la matrice con il calcolo di CA2 , CA3 ). Dunque I ha dimensione  0 
χ1 = gen   .
s = n − 2 = 2. Una base è 
 0 

−1
   
 1 0 
  Si noti che, più in generale, si hanno più vettori di base per il nucleo:
 0   0 
I = gen  ,  = gen {w1 , w2 } .  
 −1
 1 

0 −1 N u1 · · · ur −w1 · · · −ws = gen {v1 , · · · , vp } ,

Per inciso si nota che per determinare I si potrebbe costruire una ed ad ognuno di questi corrispondono dei coefficienti che risolvono l’equazione:
tabella analoga a quella vista per i raggiungibili. Infatti un risultato della
teoria lineare è che, data una matrice M ad elementi reali, N (M ) = α1 u1 + · · · + αr ur = β1 w1 + · · · + βs ws ,
284 5. Proprietà strutturali dei sistemi lineari stazionari 5.1. Proprietà strutturali e scomposizioni 285

e dunque corrisponde un vettore di base di χ1 . Esercizio 5.5. Effettuare la scomposizione di Kalman per il sistema:
Si osservi che si sarebbe potuto prendere anche:    
    0 −1 0 1 2
 1 0 
  ẋ =  0 −1 0  x +  −1 0u
 0   0 
I = gen  ,  , 1 1 1 −1 −2

 0 1 
  
−1 −1 y= 0 1 0 x.
 
1    
 0  1 0
per cui immediatamente si sarebbe considerato   come vettore in Soluzione. Poiché Ab1 =  1 , Ab2 =  0  sono linearmente dipen-
0
−1 −1 0
comune con P. Per poter essere però sicuri che non vi siano altri vettori in denti da b1 , b2 , il sottospazio dei raggiungibili è:
comune, occorre sempre risolvere la (5.7).        
Si ricava poi:  1 2   1 1 
      P = gen  −1  ,  0  = gen  −1  ,  0  =
 0   0   0     
      −1 −2 −1 −1
 1   0  0 
χ2 = gen   , χ3 = gen   , χ4 = gen   ,   

 0 
 
 1 
 
 0    1 0 
−1 −1 1 = gen  0 ,1 .
     
1 0 0 0 1 0 0 0 −1 0
 0 1 0 0 0 1 0 0
T −1 =  , T = , Inoltre:      
0 0 1 0 0 0 1 0 0 1 0  1 0 
−1 −1 −1 1 1 1 1 1 I = N 0 −1 0  = gen  0  ,  0  .
     
4 0 1 0 1 0 ∗ 0 1
 0 −3 0 1  0 2
T AT −1 =  , TB =  , Si noti che la matrice di osservabilità (di rango 1) non è stata completata
0 0 −2 2 0 0
in quanto si è notato che CA = −C. Dunque χ1 = P ∩ I viene determinato
0 0 0 −1 0 0
  risolvendo l’equazione:
0 1 0 2        
CT −1 = .
0 10 0 0 1 0 1 0
Si noti che le equazioni dinamiche nelle nuove variabili z = T x sono: α1  0  + α2  1  = β1  0  + β2  0  ,
−1 0 0 1
ż1 = 4z1 + z3 + u1 (sottospazio χ1 )
ż2 = −3z2 + z4 + 2u2 (sottospazio χ2 ) che si vede banalmente ha un’unica soluzione, per α1 = 1, α2 = 0, β1 = 1,
β2 = −1, per cui:  
ż3 = −2z3 + 2z4 (sottospazio χ3 )  1 
ż4 = −z4 (sottospazio χ4 ) χ1 = gen  0  .
 
y1 = z2 + 2z4 −1

y 2 = z2 Infine:
   
e queste, ovvero lo schema strutturale corrispondente, mettono in luce i  0   1   
quattro sottospazi della scomposizione di Kalman. χ2 = gen  1  , χ3 = gen  0  , χ4 = 0 ,
   
0 0
286 5. Proprietà strutturali dei sistemi lineari stazionari 5.1. Proprietà strutturali e scomposizioni 287

per cui:     Esercizio 5.7. Studiare i modi naturali del sistema


1 0 1 0 0 −1    
T −1 = 0 1 0, T = 0 1 0, 0 1 0 0
−1 0 0 1 0 1 ẋ =  0 −1 1 x + 1u
    0 0 −1 0
0 −1 −1 1 2  
 
T AT −1
= 0 −1 0  , T B =  −1 0, CT −1 = 0 1 0 .
y= 0 0 1 x
0 0 1 0 0
Si noti nella struttura di queste matrici la mancanza delle sotto–matrici
e calcolarne la funzione di trasferimento.
relative al sottospazio χ4 .

Esercizio 5.6. Dato il sistema


   
1 2 1 Soluzione. La matrice di raggiungibilità è
ẋ = x+ u
0 −1 −1  
0 1 −1
mostrare
 che il sottospazio P degli stati raggiungibili non cambia se si pone
R = 1 −1 1 ,
u = 1 −2 x + v. 0 0 0

Soluzione. Poiché per cui non tutti gli stati sono raggiungibili e il sottospazio degli stati che
     godono di tale proprietà è
1 2 1
ẋ = x+ 1 −2 x + v =        
0 −1 −1
     0 1   1 0 
2 0 1 P = R(R) = gen  1  ,  −1  = gen  0  ,  1  .
=
−1 1
x+
−1
v    
0 0 0 0
si trova che
      Inoltre
1 −1 1 2 1
P=R =R = gen .      
−1 1 −1 −2 −1 0 0 1  1 0 
Dunque P non cambia quando u è lineare nello stato. Si noti che tale O =  0 0 −1  , I = gen  0  ,  1  .
 
proprietà non vale per il sottospazio I degli inosservabili, che in generale 0 0 1 0 0
cambia.
Questo risultato è valido, più genericamente, per un qualsiasi sistema Dunque P = I. Riguardo l’eccitabilità e l’osservabilità dei modi si osservi
ẋ = Ax + Bu, quando u = F x + v, poiché è facile mostrare che che un insieme di autovettori corrispondenti agli autovalori λ1 = 0 e λ2 =
  λ3 = −1 è dato da
P̄ = R B (A + BF )B · · · (A + BF )n−1 B =
       
= R B AB · · · An−1 B BF B ABF B BF AB BF BF B · · · = 1 1 0
  u111 =  0 , u121 =  −1  , u221 =  1 .
= R B AB · · · An−1 B = P, 0 0 −1
       
in quanto R BF B = R B , R ABF B = R AB , etc. Dunque per il secondo autovalore la molteplicità geometrica è m2 = 2 (si
ha una sola catena di autovettori, di lunghezza due).
288 5. Proprietà strutturali dei sistemi lineari stazionari 5.3. Matrici Grammiane 289

Si possono calcolare allora le matrici: Soluzione. Utilizzando il criterio del rango di Popov–Belevitch–Hautus si
  può vedere che la coppia (AG , BG ) è raggiungibile perché la matrice:
1 − e−t  
H(t) = eAt B =  e−t  , (λ1 − λi )I1 · · · · · · · · 0 B1
..
   .. .. .. . 

0
  .. .. 
AG − λi I BG =  0 B .. i 
Ψ(t) = Ce = 0 0 e−t .
At  .. .. .. 
.
0 · · · · · · · · (λr − λi )Ir Br
Il modo e−t compare dunque in entrambe le matrici. Tuttavia si trova che
ha rango n per ogni autovalore λi , i = 1, · · · , r, essendo le matrici Bi
la funzione di trasferimento è nulla:
costituite da &i righe linearmente indipendenti (per
 ipotesi infatti
 &(Bi ) =
W (s) = C(sI − A)−1 B = 0 AG − λ i I
&i ). La stessa tecnica, applicata alla matrice , e lo stesso
CG
e ciò è coerente con il fatto che il sottospazio degli stati raggiungibili ed ragionamento (Ci sono costituite da &i colonne linearmente indipendenti)
osservabili è χ2 = {0}. Essendo infatti W (s) pari a C2 (sI − A22 )−1 B2 , ove prova l’osservabilità della coppia (CG , AG ).
A22 , B2 , C2 sono le matrici relative al sottospazio χ2 ottenibili mediante
la scomposizione di Kalman, e poiché nel nostro caso A22 = 0, B2 = 0,
C2 = 0, la funzione di trasferimento deve essere nulla. 5.3. Matrici Grammiane
In questa sezione vengono introdotte alcune matrici che hanno parti-
colare importanza nello studio delle proprietà di raggiungibilità ed osserv-
5.2. Criteri di Popov–Belevitch–Hautus
abilità.
Dei criteri per verificare la raggiungibilità e l’osservabilità di una re- Con riferimento al sistema (5.1), iniziamo col mostrare che una realiz-
alizzazione sono quelli del rango di Popov–Belevitch–Hautus. Si ricorda zazione è raggiungibile se e solo se la matrice grammiana di raggiungibilità:
infatti che la coppia (A, B) è raggiungibile se e solo se  t
T

  GR = eA(t−τ ) BB T eA (t−τ ) dτ
0
& λI − A B = n
è non singolare per qualche t > 0. La condizione è sufficiente in quanto,
per ogni λ, e che la coppia (C, A) è osservabile se e solo se essendo  t
  x(t) = eAt x0 + eA(t−τ ) Bu(τ ) dτ,
λI − A 0
& =n
C ed esistendo G−1
R
per qualche t > 0 finito, allora l’ingresso che forza lo stato
del sistema da x0 a x(t) è dato da:
per ogni λ.  
u(τ ) = B T eA (t−τ ) G−1
T
Ovviamente se λ non è un autovalore di A queste condizioni sono x(t) − eAt
x , (5.8)
0
soddisfatte poiché |λI −A| = 0. Quello che viene richiesto è che le condizioni R

enunciate valgano anche quando λ è un autovalore di A. come si può verificare sostituendo questo controllo nell’espressione di x(t):
Esercizio 5.8. Dimostrare che la realizzazione (AG , BG , CG ) ottenuta ap-  t  
eA(t−τ ) BB T eA (t−τ ) G−1
T
plicando il criterio di Gilbert è minima. x(t) = eAt x0 + R
x(t) − eAt x0 dτ =
0
 
= e x0 + GR G−1
At
R
x(t) − e At
x0 = x(t).
290 5. Proprietà strutturali dei sistemi lineari stazionari 5.3. Matrici Grammiane 291

Si sottolinea che il controllo (5.8) è quello che porta lo stato da x0 all’istante è non singolare per qualche T > t. La condizione è sufficiente in quanto,
iniziale a x(t) all’istante t. La condizione è poi anche necessaria. Infatti moltiplicando ambo i membri dell’equazione
se per assurdo non esistesse alcun t > 0 per cui GR fosse non singolare,
y(τ ) = Cx(τ ) = CeA(τ −t) x(t)
non esisterebbe alcun ingresso che porta lo stato da x0 a x(t). Infatti,
essendo GR sempre singolare, per il teorema di Rouchè–Capelli esisterebbe T
(τ −t)
per eA C T , e integrando su [t, T ], si ha:
un vettore v = 0 tale che v T GR = 0, ovvero, postmoltiplicando per v, tale  T  T
che: AT (τ −t) T
eA (τ −t) C T CeA(τ −t) x(t) dτ = GO x(t).
T
e C y(τ ) dτ =
 t  T t t
T
v T GR v = v T eA(t−τ ) BB T eA (t−τ ) v dτ = 0 = q T (τ )q(τ ) dτ, Ma essendo GO non singolare per qualche T > t, allora si può ricavare x(t):
0 t
T
 T
con q(τ ) = B T eA (t−τ ) v. Poiché l’integrando è q T (τ )q(τ ) ≥ 0, l’unico x(t) = GO−1
eA (τ −t) C T y(τ ) dτ.
T

modo perché un integrale sull’intervallo [0, t] sia nullo è che l’integrando, t


ossia q(τ ), sia identicamente nullo su [0, t]. Ma allora il sottospazio gen {v} In tal modo è possibile determinare lo stato x(t) a partire dai valori (futuri)
è costituito da stati non raggiungibili dall’origine, in quanto se lo fossero: dell’uscita sull’intervallo [t, T ]. Si noti che questo è coerente con quanto
 t detto a proposito dell’osservabilità di uno stato, che è proprio la proprietà di
cv = eA(t−τ ) Bu(τ ) dτ, determinare lo stato a partire dalle uscite future. Si noti che non è possibile
0
determinare x(t) in un altro modo che non implichi l’inversione della ma-
T trice grammiana di osservabilità, come mostrato nella dimostrazione della
premoltiplicando per v si troverebbe:
 t  t necessità della condizione. Infatti sia per assurdo GO sempre singolare. Ma
cv T v = v T eA(t−τ ) Bu(τ ) dτ = q T (τ )u(τ ) dτ = 0. allora, per il teorema di Rouchè–Capelli, esiste un vettore u = 0 tale che
0 0 GO u = 0. Premoltiplicando allora per uT si ha anche uT GO u = 0, ossia:
 T  T
Ma questo è assurdo in quanto il primo membro è diverso da zero. Dunque
uT eA (τ −t) C T CeA(τ −t) u dτ = 0 =
T

cv non è raggiungibile dall’origine, ossia se il grammiano di raggiungibilità uT GO u = q T (τ )q(τ ) dτ,


t t
è sempre singolare esistono degli stati non raggiungibili. Dunque GR deve
A(τ −t)
essere non singolare per qualche t > 0 perché la realizzazione sia raggiun- con q(τ ) = Ce u. Poiché l’integrando è q (τ )q(τ ) ≥ 0, l’unico modo
T

gibile. perché un integrale sull’intervallo [t, T ] sia nullo è che l’integrando, e dunque
Si noti che, ridenominando la variabile di integrazione, il grammiano q(τ ), sia identicamente nullo su [t, T ]. Ma q(τ ) è l’uscita all’istante τ > t
di raggiungibilità poteva essere scritto: quando lo stato iniziale è u, per cui quando lo stato iniziale (ossia all’istante
 t t) è u oppure cu l’uscita è identicamente nulla, e dunque gli stati del sot-
GR =
T
eAτ BB T eA τ dτ, tospazio gen {u} sono inosservabili. Dunque è assurdo che GO sia singolare
0 per ogni T > t ed è necessario che sia non singolare per qualche T > t.
e che spesso si usa anche un’altra forma, equivalente alla precedente: Si noti che il grammiano di osservabilità poteva essere scritto, sempre
in virtù della stazionarietà del sistema come:
 t  T
e−Aτ BB T e−A τ dτ.
T
ḠR = GO =
T
eA τ C T CeAτ dτ,
0
0

e che spesso si usa anche la forma:


Mostriamo ora che una realizzazione è osservabile se e solo se la matrice  T
grammiana di osservabilità:
e−A t C T Ce−At dt.
T
ḠO =
 T 0
eA (τ −t) C T CeA(τ −t) dτ
T
GO =
t
292 5. Proprietà strutturali dei sistemi lineari stazionari 5.4. Alcune proprietà delle forme compagne 293

Esercizio 5.9. Utilizzando le matrici grammiane, provare che una realiz- Si può anche verificare che l’autovettore sinistro corrispondente vale:
zazione è raggiungibile (osservabile) se e solo se la matrice di raggiungibilità  λn−1 + a
(osservabilità) ha rango pieno. i
n−2
n−1 λi + · · · + a2 λi + a1 
 λn−2 + an−2 λn−3+ · · · + a2 
 i i

Soluzione. Sia GR singolare. Allora esiste un vettore v non nullo per cui vi = 

..
.
.

 
λi + an−1
ϕ(t) = v T eAt B ≡ 0,
1
ossia tale che:
ϕ(t)|t=0 = v T B = 0 Per inciso si noti che vi = uTi M con:
T
ϕ̇(t)|t=0 = v AB = 0  a · · · an−1 1
1
ϕ̈(t)|t=0 = v T A2 B = 0  
 .. . . 
..  . .. .. 
. M =

,
 (5.10)
a . 
ϕ (n−1) T
(t)|t=0 = v A n−1
B = 0.  n−1 .. 
Queste relazioni si possono scrivere in forma compatta: 1 ··· ··· 0
 
v T B AB A2 B · · · An−1 B = v T R = 0, essendo M una matrice di Toeplitz. È poi ovvio che il vettore vi cosı̀ trovato
ed essendo v = 0 ciò comporta che R sia singolare. Se viceversa R è è autovettore destro della matrice AcO = ATcR e ui è autovettore sinistro,
singolare allora esiste v = 0 tale che v T R = 0 e questo comporta, per il corrispondenti a λi .
teorema di Cayley–Hamilton, che v T eAt B = 0. Ma allora anche GR deve Se poi AcR ha tutti autovalori distinti, e quindi è diagonalizzabile, la
essere singolare. La dimostrazione nel caso dell’osservabilità è analoga. matrice di trasformazione che la mette in forma canonica di Jordan è la
matrice T tale che:
 1 ··· 1 
5.4. Alcune proprietà delle forme compagne
 λ1 λn   
 2 
È facile verificare che l’autovettore destro di una matrice in forma T −1
= λ
 .1
λ2n  = u1
 · · · un ,
canonica compagna raggiungibile:  . .. 
. .
 
0 1 0 ··· 0 λn−1
1 · · · λn−1
n
 0 0 1 ··· 0 
 . .. .. ..  che è una matrice di Vandermonde.

AcR =  . . . .  (5.9)
. . . .  Se AcR ha solo r < n autovalori distinti, con molteplicità algebriche
 0 ··· 
0 0 1 µi ≥ 1, allora associati a λi sono i seguenti autovettori generalizzati:
−a0 −a1 −a2 · · · −an−1    
1 0  
corrispondente all’autovalore λi è: 0
 1   λi   1   
 2    
0

 λi   2λ   
 λi   3   i  
0

 2 
1  
ui = λi  , ui =2  3λi 2  , · · · u µ i
= . ,
 
.

ui =  . i .
λ
 .i   ..   ..    
 .   .   .   n−1 n−µi
.     λ
λn−1 (n − 1)λn−2 µi − 1 i
λn−1
i
i i
294 5. Proprietà strutturali dei sistemi lineari stazionari 5.5. Sul calcolo di poli e zeri 295

come si verifica calcolando (λi I − AcR )j uji , i = 1, · · · , µi . per cui


Si noti che le inverse delle matrici di raggiungibilità ed osservabilità
scritte utilizzando le matrici in forma canonica compagna, sono date dalla  a · · · an−1 1
1
stessa matrice di Toeplitz:  
    .
 .. ..
.
..
. 

  CcO
T −1
= B ··· An−1 
B   = RM,
 ..  . 
R−1
cR = BcR · · · Acn−1 BcR = O−1 cO =   = M, a .. 
R .  n−1 
n−1
CcO AcO
1 ··· ··· 0
con M data dalla (5.10) e RcR , OcO le matrici di raggiungibilità ed osserv-
abilità relative alle coppie (AcR , BcR ), (CcO , AcO ). con R la matrice di raggiungibilità relativa alla coppia (A, B) e M la matrice
È ora facilmente dimostrabile che condizione necessaria e sufficiente di Toeplitz (5.10). Dunque T esiste se e solo se R è invertibile. Poiché,
affiché esista una matrice T che trasformi la generica realizzazione (A, B, C) come precedentemente visto M −1 = RcR , risulta che T = RcR R−1 , T −1 =
in quella canonica raggiungibile (AcR , BcR , CcR ) è che la coppia (A, B) sia RR−1cR .
−1
raggiungibile. Sia  infatti T tale
 che T AT = AcR , T B = BcR , CT −1 = In maniera analoga, considerando le coppie (AT , C T ) e (AcR = ATcO , BcR =
CcR , con T −1 = t1 · · · tn . Ma allora: T
CcO ), si può provare che condizione necessaria e sufficiente affiché esista una
  matrice T che trasformi la generica realizzazione (A, B, C) in quella canon-
B = t1 · · · tn BcR = tn . ica osservabile (AcO , BcO , CcO ) è che la coppia (A, B) sia osservabile. Si
ricava cosı̀ che T = OcO O−1 , T −1 = OO−1 cO .
Inoltre si deve avere: Si vuole infine notare che l’inversa delle matrici AcR , data dalla (5.9),
 
AT −1 = At1 · · · Atn = T −1 AcR = e AcO = ATcR esiste se e solo se a0 = 0 (basti pensare alla forma canonica
  di Jordan per convincersene). In tal caso:
0 1 0 ··· 0
 
 
 .
0 0 1 ··· 0 
 −a1
a0
a
· · · − n−1
a0 − a10
.. .. ..
= t1 · · · tn 

.. ..
. =
  
. . .  1 ··· 0 0 
 0 0 0 ··· 1  A−1
cR =  .. .. .. , A−1 −T
cO = AcR .
 .
..
. . . 
−a0 −a1 −a2 · · · −an−1
  0 ··· 1 0
= −a0 tn t1 − a1 tn · · · tn−1 − an−1 tn =
  In altre parole le strutture di A−1 −1
cR , AcO sono simili a quelle di AcR , AcO , ma
= −a0 B t1 − a1 B · · · tn−1 − an−1 B . con la prima riga e la prima colonna rispettivamente ottenute spostando
Eguagliando il primo ed ultimo termine: verso sinistra e verso l’alto e dividendo per a0 l’ultima riga di AcR e l’ultima
colonna di AcO .
At1 = −a0 B t1 = An−1 B +an−1 An−2 B +· · ·+a1 B
At2 = t1 − a1 B ..
.
.. 5.5. Sul calcolo di poli e zeri
. ti = An−i B +an−1 An−i−1 B +· · ·+ai B

Ati+1 = ti − ai B .. Nel caso di sistemi ad un ingresso ed un’uscita è noto che condizione
.
.. necessaria e sufficiente perché s sia un polo della funzione di trasferimento
. tn−1 = AB +an−1 B W (s) è che risulti:
Atn = AB = tn−1 − an−1 B tn = B |sI − A| = 0,
296 5. Proprietà strutturali dei sistemi lineari stazionari 5.5. Sul calcolo di poli e zeri 297

mentre perché z un suo zero è necessario e sufficiente che sia verificata la Esercizio 5.11. Dato il sistema ad un ingresso ed una uscita:
seguente condizione:
 
 zI − A −B  ẋ = Ax + Bu
  = 0. (5.11)
 C D  y = Cx + Du
Quest’ultima condizione si ricollega all’espressione della funzione di mostrare che se l’ingresso è una controreazione dallo stato, ossia una con-
trasferimento W (s) data nella proprietà P. 13.27 del capitolo 1, e qui troreazione statica u = F x+v, allora gli zeri della funzione di trasferimento
ripetuta per chiarezza: non cambiano, mentre cambiano i poli.
 
 sI − A −B 

 C D  Soluzione. Gli zeri sono le soluzioni della (5.11). Poiché:
W (s) = C(sI − A)−1 B + D = , (5.12)
|sI − A|
x(s) = (sI − A)−1 Bu(s),
e si comprende meglio perché per determinare gli zeri di W (s) occorre
trovare le soluzioni della (5.11). si ricava:
u(s) = F (sI − A)−1 Bu(s) + v(s),
Esercizio 5.10. Determinare gli zeri e la funzione di trasferimento del e dunque:
sistema: 1
    u(s) = v(s).
5 −1 3 1 − F (sI − A)−1 B
ẋ = x+ u
−2 −1 4
  Infine:
y = 0 −2 x + 3u.   C(sI − A)−1 B + D
y(s) = C(sI − A)−1 B + D u(s) = v(s),
1 − F (sI − A)−1 B
Soluzione. Utilizzando la (5.11), gli zeri sono le radici dell’equazione:
ossia:
 
  s − 5 1 −3   
 sI − A 
−B     sI − A −B 
 = 2 s + 1 −4  = 3s2 − 20s + 31 = 0, 
 C D   C(sI − A)−1 B + D  C D 
0 −2 3 y(s)
= = ,
v(s) 1 − F (sI − A)−1 B |sI − A| |1 − F (sI − A)−1 B|

ossia s = 10 ± 7 . Poiché poi: per cui gli zeri non cambiano, ma i poli sı̀.
3 3
 
s − 5 1  Esercizio 5.12. Cambiare i poli della funzione di trasferimento:
|sI − A| =  = s2 − 4s − 7,
2 s + 1
3s2 − 5s + 2
W (s) =
si ha: s3 − 3s + 4
3s2 − 20s + 31 = 0 mediante un ingresso u = F x + v. Verificare che gli zeri non vengono
W (s) = .
s − 4s − 7
2 modificati.
298 5. Proprietà strutturali dei sistemi lineari stazionari 5.6. Esercizi e problemi 299

 
Soluzione. Sia: ottenendo F = 3 −5 −2 . Infine si verifica che gli zeri non sono
    cambiati. Utilizzando la (5.11):
0 1 0 0  
A= 0 0 1, B = 0, C= 2 −5 3 ,  
−4    s −1 0 0

3 0 1  sI − A − BF −B   0 s −1 0
 =  = −(3s2 − 5s + 2) = 0,
 D  1 s + 2 1
  C

2

una realizzazione della W (s). Posto F = f1 f2 f3 , si ha la nuova 2 −5 3 0
matrice dinamica:
che, a parte il segno, è proprio il numeratore della W (s).
 
0 1 0
à = A + BF =  0 0 1 ,
f1 − 4 f2 + 3 f3 5.6. Esercizi e problemi

e si impone ad esempio che i poli siano scelti secondo la nota configurazione


di Butterworth. Essa corrisponde a scegliere gli n poli come soluzioni Esercizio 5.13. Assegnato il sistema
dell’equazione:    
 2n −1 2 0 0 2
s  0 3 0 0  0
= (−1)n+1 , ẋ =  x +  u
ω0 1 1 −4 2 1
0 −1 0 −2 0
ove ω0 indica la distanza delle radici dall’origine. I polinomi caratteristici
di Butterworth risultanti da tale scelta sono: y = (3 2 0 0)x

p1 (z) = z + 1, si effettui la scomposizione di Kalman e si studi l’eccitabilità e l’osservabilità


√ dei modi naturali.
p2 (z) = z 2 + 2z + 1,
p3 (z) = z 3 + 2z 2 + 2z + 1,
√ Soluzione. Per la scomposizione di Kalman si calcola:
p4 (z) = z 4 + 2.613z 3 + (2 + 2)z 2 + 2.613z + 1,
 
1 −1  
e cosı̀ via, ove z = ωs0 . 0 0  6 1 0 0
R=
 5 −9 ∗ ,
 O =  −6 15 0 0 ;
Scelto ad esempio ω0 = 1, nel nostro caso:

0 0
p3 (s) = s3 + 2s2 + 2s + 1,
ove “*” indica altre colonne o righe (non calcolate poiché è chiaro che esse
e dunque si deve imporre: introducono altre colonne o righe dipendenti dalle precedenti). Esse hanno
entrambe rango pari a due. Dunque
 
 s −1 0         
 1 0  0 0 
|sI − (A + BF )| =  0 s −1  = 
  
 
 −f1 + 4 −f2 − 3 s − f3  0 0 0 0
P = gen   ,   , I = gen   ,   .

 0 1 
 
 1 0 

= s3 − f3 s2 − (f2 + 3)s − f1 + 4 = s3 + 2s2 + 2s + 1, 0 0 0 1
300 5. Proprietà strutturali dei sistemi lineari stazionari 5.6. Esercizi e problemi 301

   
 0   1  Soluzione. Le matrici di raggiungibilità ed osservabilità sono:
   
0 0    
Ovviamente χ1 = P ∩ I = gen   , χ2 = gen   , χ3 = −1 −1 −1 0 0 3

 1   
 0  
0 0 R= 0 2 −2  , O = 0 0 6 ,
    0 0 0 0 0 12
 0   0 
   
0 1 per cui
gen   , χ4 = gen   , sicché considerata la matrice di trasfor-

 0   
 0          
1 0  −1 −1   −1 −1 
P = gen  0  ,  2  , I = gen  0  ,  2  .
   
mazione T tale che 0 0 0 0
       
0 1 0 0 0 0 1 0  1 0 
−1
T =
0 0 0 1 1 0 0 0 −T Si ha quindi che P = I = χ1 = gen  0  ,  1  . Inoltre χ2 = χ3 =
, T = =T ,  
1 0 0 0 0 0 0 1 0 0
 
0 0 1 0 0 1 0 0
   0 
0 , mentre χ4 = gen  0  . La matrice di trasformazione che mette
si ricava:  
1
   
−2 1 2 1 5
 0 −1 0 2  1
T AT −1 = , TB =  , in luce la scomposizione di Kalman è dunque l’identità, ossia A, B, C sono
0 0 −3 −1 0 già in forma canonica. Si vede allora immediatamente che la dinamica
0 0 0 3 0 corrispondente a λ = 2 non è modificabile perché non raggiungibile.
CT −1 = ( 0 6 0 1). Problema 5.1. Studiare dal punto di vista della raggiungibilità la seguente
rete elettrica:
Quindi il modo corrispondente a
– λ = −2 è eccitabile e non osservabile;
– λ = −1 è eccitabile e osservabile; + R R
– λ = −3 non è eccitabile e non è osservabile;
x1 (t)
– λ = 3 non è eccitabile ed è osservabile. C x2 (t)
L
Esercizio 5.14. Dato il sistema
   
−1 0 3 −1 L=C
ẋ =  2 0 1x +  0 u
Figura 5.5
0 0 2 0
y = (0 0 3)x
Problema 5.2. Studiare, rispetto ai parametri, la raggiungibilità e l’osservabilità
studiarne le proprietà strutturali ed effettuare la scomposizione di Kalman. del sistema rappresentato dalle seguenti matrici:
Inoltre verificare se e come è possibile modificare, mediante un controllo del      
0 6 a 1 c 1
tipo u = kx, l’autovalore λ = 2 e darne una spiegazione. A= , B= , C= , D = 0.
1 −1 1 b 1 d
302 5. Proprietà strutturali dei sistemi lineari stazionari 5.6. Esercizi e problemi 303

Problema 5.3. Mostrare che se uno stato del sistema (5.1) è raggiungibile per cui è possibile determinare (osservare) solo una combinazione lineare
allora può essere raggiunto in un intervallo di tempo finito qualsiasi (si è delle componenti di x0 , ossia solo x1 (0) + x2 (0). Inoltre si faccia vedere che
soliti indicare questo fatto dicendo che la raggiungibilità dallo stato zero viceversa, utilizzando le uscite passate, è possibile determinare (ricostruire)
per un sistema del tipo (5.1) è differenziale). lo stato iniziale e che, se si disponesse di

Problema 5.4. Mostrare che l’insieme degli stati raggiungibili del seguente   
x1 (−1)
sistema:     y(−1) = 1 1 = x1 (−1) + x2 (−1),
x2 (−1)
2 1 1
x(k + 1) = x(k) + u(k)
−2 −1 −1 si potrebbe determinare
è dato da tutti i vettori proporzionali ad         
  x1 (0) 1 1 x1 (−1) x1 (−1) + x2 (−1) y(−1)
1 x0 = = = = .
x= , x2 (0) 1 1 x2 (−1) x1 (−1) + x2 (−1) y(−1)
−1
 
a Verificare infine che, se le uscite disponibili sono quelle per k ≥ 0, è possibile
mentre qualsiasi stato x = è controllabile in un solo passo allo stato determinare lo stato futuro (ma non x0 , come già dimostrato) mostrando
b  
zero mediante l’ingresso u(k) = −(2a + b)δ(k). x1 (k + 1)
che = y(k).
x2 (k + 1)
Problema 5.5. Mentre il duale della raggiungibilità di uno stato (dall’origine,
utilizzando ingressi passati) è l’osservabilità di uno stato (a partire dalle us- Problema 5.6. Mostrare che se la matrice di raggiungibilità R è singolare
cite future), il duale della controllabilità di uno stato (nell’origine, usando allora esiste uno stato x̄ non raggiungibile.
ingressi futuri) è la ricostruibilità di uno stato (usando uscite passate). Per
un sistema a tempo discreto queste due proprietà coincidono se e solo se la Soluzione. Essendo R singolare, esiste un vettore x̄ = 0 tale che x̄T R = 0.
matrice dinamica A è non singolare. Dato dunque il seguente sistema: Questo, assieme al teorema di Cayley–Hamiton, implica che x̄T Ak B = 0,
  ∀k ≥ 0. Se ora per assurdo x̄ fosse raggiungibile, dovrebbero esistere un
1 1 istante finito t̄ ed un segmento di ingresso ū|[0,t̄) tali che:
x(k + 1) = x(k) + Bu(k)
1 1
   t̄
y(k) = 1 1 x(k),
x̄ = eA(t̄−τ ) B ū(τ ) dτ. (5.13)
0
mostrare che non tutti gli stati sono osservabili, poiché
      Ma
C 1 1 1 (t̄ − τ )k
O= = , I = gen ,
CA 2 2 −1 eA(t̄−τ ) B = B + (t̄ − τ )AB + · · · + Ak B + · · ·
k!
e che, in effetti, dalle uscite future (ossiada k = 0 in poi) non è possibile per cui
x01  t̄
determinare lo stato iniziale x0 = . In particolare mostrare che si x̄T x̄ = x̄T eA(t̄−τ ) B ū(τ ) dτ = 0,
x02
0
ha:
y(0) = x1 (0) + x2 (0), e questo contraddice che x̄ = 0. Dunque è assurdo che valga la (5.13), ossia
y(1) = 2x1 (0) + 2x2 (0), che x̄ sia raggiungibile.
..
.
y(k) = 2k−1 x1 (0) + 2k−1 x2 (0),
6. Modelli ingresso–uscita lineari
e rappresentazioni con lo stato

In questo capitolo vengono svolti alcuni esercizi inerenti la teoria dell’associazione


dello stato ad un sistema connesso, lineare, stazionario a dimensione finita.
Come è noto tale teoria è fortemente legata alla teoria strutturale dei
sistemi lineari che verrà trattata nel capitolo 6.

6.1. Richiami sulla teoria dell’associazione di una


rappresentazione con lo stato e della realizzazione

Per quanto riguarda la teoria dell’associazione di una rappresentazione


con lo stato ad un sistema connesso, ossia ad un sistema per il quale il
legame ingresso–uscita è descritto da un funzionale del tipo
 t
y(t) = K(t − τ )u(τ ) dτ, (6.1)
−∞

dove K(·) è una matrice p × m di funzioni detta nucleo dell’integrale di


convoluzione o matrice delle risposte impulsive, è noto che una rappre-
sentazione lineare stazionaria, a dimensione finita, regolare e implicita del
sistema descritto dalla (6.1) è costituita dalle equazioni (5.1), o equivalen-
temente dalle quattro matrici A, B, C, D che in essa compaiono.
306 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.1. La teoria della rappresentazione e della realizzazione 307

D che soddisfano le (6.3), (6.4), e che quindi costituiscono una rappresen-


ẋ(t) = Ax(t) + Bu(t) tazione con lo stato del sistema (6.1) associato al nucleo K(t), se e solo se
(6.2)
y(t) = Cx(t) + Du(t) esistono quattro matrici A, B, C, D per cui vale la (6.3) ovvero la (6.5),
secondoché il sistema sia a tempo continuo o a tempo discreto.
Le matrici (A, B, C, D) costituiscono una rappresentazione con lo stato Pertanto la (6.3) (ovvero la (6.5)) è condizione necessaria e sufficiente
del sistema (6.1) se e solo se sono verificate le due seguenti condizioni: per l’esistenza di una rappresentazione con lo stato del sistema (6.1).
CeAt B + Dδ(t) = K(t), t ∈ [0, ∞), (6.3) È ovvio che data una matrice W (s) di funzioni di trasferimento proprie
  di cui si vuole determinare una rappresentazione, poiché W (s) = D + K(s),
C con D matrice costante p × m rappresentante il legame diretto ingresso–
   CA 
P +I =R B AB · · · An−1 B + N 
 ..  = IRn . (6.4)

uscita, il problema si riduce alla determinazione delle tre matrici A, B C
. tali che, assieme a D soddisfano le (6.3),(6.4).
CAn−1 Il problema della realizzazione è poi quello dell’esistenza e del calcolo di
una rappresentazione con lo stato che permetta di associare ad un sistema
Nella (6.4) P e I indicano due importanti sottospazi, quello degli stati
connesso il seguente legame ingresso–uscita:
raggiungibili e quello degli stati inosservabili, che saranno più estesamente  t
trattati nel capitolo 6. Le matrici
y(t) = K(t − τ ) u(τ ) dτ,
  t0
C
   CA  in cui K(t) è una matrice p × m di funzioni. Ciò comporta che il sistema è
R = B AB · · · An−1 B , O=  .. ,
 strettamente causale (y(t) non dipende infatti da u(t)).
.
La condizione necessaria e sufficiente per l’esistenza di una realiz-
CAn−1
zazione è data dalla (6.3) in cui D = 0, ovvero in termini di trasformata di
sono dette matrice di raggiungibilità e matrice di osservabilità, anch’esse Laplace se e solo se la trasformata K(s), è una matrice di funzioni razionali
trattate nel capitolo 6. strettamente proprie, ovvero in termini di matrice di Hankel H se e solo se
Per i sistemi a tempo discreto valgono considerazioni analoghe, avendo il rango di H è finito. Queste condizioni sono tra loro equivalenti.
sostituito la prima di queste condizioni con La condizione (6.3) si traduce nel fatto che tutti gli elementi di K(t)
k
CAt−1 B + Dδ(t) = K(t), t ∈ [0, ∞). (6.5) devono essere combinazioni lineari di termini del tipo t eλi t , come può
k!
essere facilmente constatato per ispezione. La condizione data su K(s) poi
Lo spazio di stato X = IRn associato a tale rappresentazione si dice si traduce nel fatto che si può scrivere:
poi ridotto ad ogni istante, ovvero la rappresentazione si dice ridotta, se e
solo se risulta:   Bn−1 sn−1 + · · · + B0
C K(s) = , (6.8)
sn + an−1 sn−1 + · · · + a0
 CA   
N  .. = 0 .
 (6.6) per cui una terna di matrici soddisfacente la (6.3), ove D = 0 può ottenersi
. nel modo seguente:
CAn−1    
0 Im 0 ··· 0 0
Ne segue in particolare che in una rappresentazione ridotta risulta:  0 0 Im ··· 0   .. 
  AcR =  .
.. .
.. .
.. . .. .
..
 , Bc =  .  ,
 R  0 
R B AB · · · An−1 B = IRn . (6.7)
−a0 Im −a1 Im −a2 Im · · · −an−1 Im Im
 
Passando alle condizioni di esistenza di una rappresentazione del tipo CcR = B0 B1 B2 · · · Bn−1 ,
(6.2) per il sistema (6.1), si ricorda che esistono quattro matrici A, B, C, (6.9)
308 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.1. La teoria della rappresentazione e della realizzazione 309

dove i blocchi 0 ed Im hanno dimensione m × m, essendo m il numero Si osservi inoltre che supponendo verificata la (6.3) e ricordando la definizione
di ingressi. Questa rappresentazione è detta forma canonica compagna dell’esponenziale di matrice:
raggiungibile. Questa dizione è dovuta al fatto che la coppia (AcR , BcR ) è
raggiungibile, come sarà spiegato nel capitolo 6. Si = CAi B, ∀i ≥ 0. (6.15)
Alternativamente si possono costruire le seguenti matrici:
Ne segue in particolare che se due terne di matrici (A1 , B1 , C1 ) e (A2 , B2 , C2 )
0 0 ··· 0 −a0 Ip    soddisfano entrambe la (6.3) risulta necessariamente:
B0
 Ip 0 ··· 0 −a1 Ip   B1 
    C1 Ai1 B1 = C2 Ai2 B2 , ∀i ≥ 0, (6.16)
AcO = 0 Ip ··· 0 −a2 Ip , BcO = B2 ,
 .   .. 
 . .. ..
.
.. ..   .  (6.10) e viceversa. In effetti se esiste una trasformazione T per cui A2 = T A1 T −1 ,
. . . .
0 0 · · · Ip −an−1 Ip Bn−1 B2 = T B1 , C2 = C1 T −1 , allora deve essere:
CcO = ( 0 0 ··· 0 Ip ) , C2 Ai2 B2 = C1 T −1 (T A1 T −1 )i T B1 = C1 T −1 T Ai1 T −1 T B1 = C1 Ai1 B1 .

in cui blocchi 0 ed Ip hanno dimensione p × p, con p il numero di us- Questo fatto, come sarà meglio messo in evidenza nel seguito, è legato al
cite. Questa rappresentazione è detta forma canonica compagna osserv- fatto che una trasformazione dello spazio di stato lascia invariata la funzione
abile, poiché la coppia (CcR , AcR ) è osservabile, come spiegato nel capitolo di trasferimento. Le quantità CAi B sono chiamate parametri di Markov,
6. che sono dunque gli stessi per la classe di rappresentazioni associabili ad
un dato sistema.
La verifica del fatto che K(s) sia una matrice razionale strettamente
Inoltre la matrice di Hankel (6.11) assume, in virtù della (6.15), la
propria può essere effettuata osservando semplicemente che ciascun ele-
forma:
mento sia un rapporto di polinomi avente grado del numeratore inferiore a
   
quello del denominatore. CB CAB CA2 B · · · C
Riguardo infine la condizione (come detto equivalente alle precedenti)  CAB CA B CA B · · ·   CA 
2 3 
che la matrice di Hankel: H =  CA B CA B CA B · · ·   CA 
2 3 4 = 2 B AB A 2
B · · · .
  .. .. .. .. ..
S0 S 1 S 2 · · · . . . . .
 S1 S2 S 3 · · ·  (6.17)
H=  S2 S3 S 4 · · ·  ,
 (6.11) Le considerazioni riguardo i sistemi a tempo discreto sono analoghe. Le
.. .. .. . . condizioni equivalenti di esistenza di una realizzazione sono la condizione
. . . . (6.5), ovvero che la trasformata K(z) sia una matrice di funzioni razionali
ove strettamente proprie, ovvero che la matrice di Hankel abbia rango finito
di  con
Si = , K(t) (6.12) Si = K(i + 1). (6.18)
t=0i
dt
abbia rango finito, si noti che i coefficienti Si sono pari ai coefficienti della Se ora si dispone di una rappresentazione non ridotta del sistema
serie di Mc Laurin di K(t): (6.1), data dalle matrici (A, B, C, D), se ne può ottenere una ridotta con-
siderando la trasformazione (5.5), ottenendo cosı̀ le relazioni (5.6). Le ma-
t2
K(t) = S0 + S1 t + S2 + ··· (6.13) trici (A22 , B2 , C2 , D) cosı̀ determinate costituiscono una rappresentazione
2! ridotta del sistema (6.1). Essa è anche minima poiché la dimensione r del
ovvero pari ai coefficienti della serie di Laurent suo spazio di stato è la più piccola possibile. Infine poiché i parametri di
Markov (6.15) sono pari ad Si = C2 Ai22 B2 , dalla (6.17) si comprende che
1 1 1
K(s) = S0 + S 1 + S2 + · · · . (6.14) &(H) = r, (6.19)
s s2 s3
310 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.2. Nuclei e rappresentazioni 311

ove & indica il rango, per cui l’ordine delle rappresentazioni ridotte può Determinate cosı̀ delle basi nei sottospazi di interesse, la (6.4) richiede che
essere calcolato a partire dal nucleo K(t) senza che una di queste debba questi vengano sommati. Ricordando che per definizione la somma di due
essere esplicitamente costruita. sottospazi Y1 , Y2 è il sottospazio Y1 + Y2 : = {y | y = y1 + y2 , y1 ∈ Y1 e y2 ∈
Y2 }, il sottospazio somma è quello generato dall’unione dei vettori di base
Poiché una realizzazione di K(t) soddisfa la (6.3), è chiaro che ogni
degli addendi. La (6.4) si riduce pertanto a verificare che risulti:
rappresentazione è anche una realizzazione, mentre è possibile provare che
il viceversa è vero soltanto per le realizzazioni minime, le quali sono anche    
−1 1
rappresentazioni ridotte. gen , = IR2 .
1 2
Qualora si disponga di una realizzazione (A, B, C) e si voglia passare
ad una rappresentazione, occorre applicare la trasformazione (5.2), rica-
Ma tale condizione è soddisfatta perché i vettori trovati sono linearmente
vando cosı̀ le matrici (5.3). Le matrici A11 , B1 , C1 , D = 0 costituiscono la
indipendenti. Pertanto le matrici date costituiscono una rappresentazione
rappresentazione cercata. Naturalmente nulla assicura che sia ridotta.
del sistema individuato da K(t). Si osservi tuttavia che tale rappresen-
tazione non è ridotta poiché la (6.6) non è soddisfatta.

6.2. Nuclei e rappresentazioni Esercizio 6.2. Assegnato il nucleo K(t) = 2et + e−t − 2, t ∈ [0, ∞), e le
matrici:
Assegnati un nucleo K(t) e una terna di matrici (A, B, C), la verifica    
che quest’ultima costituisca una rappresentazione del primo va effettuata 1 0 1 1  
applicando le (6.3), (6.4), che implicano il calcolo di due sottospazi, im- A =  −2 −1 −1  , B = 0, C= 1 0 0 ,
magine e nucleo di opportune matrici. 2 2 0 0

Esercizio 6.1. Assegnato il nucleo K(t) = 3e−2t , t ∈ [0, ∞), e le matrici: verificare che le matrici A, B, C, D = 0 costituiscono una rappresentazione
del sistema connesso individuato da K(t).
     
−2 0 −1
A= , B= , C= −2 1 ,
0 −2 1
Soluzione. La matrice eAt vale (cfr. esercizio 3.1):
verificare che le matrici A, B, C, D = 0 costituiscono una rappresentazione  
del sistema connesso individuato da K(t). 2et + e−t − 2 et + e−t − 2 et − 1
eAt =  −2et + 2 −et + 2 −et + 1 .
−2e−t + 2 −t
−2e + 2 1
Soluzione. Si inizia col verificare che la (6.3) è verificata:
È allora immediato constatare che la condizione (6.3) è soddisfatta. Pas-
 −2t
 
e 0 −1 sando alla (6.4), si tratta di verificare che risulti:
CeAt B = ( −2 1) = 3e−2t .
0 e−2t 1    
1 1 3 1 0 0
Passando alla (6.4), si ha: P + I = R0 −2 −2  + N  1 0 1  = IR3 .
0 2 −2 3 2 1
     
−1
−1 2
R B AB = R = gen , Ma tale condizione è soddisfatta poiché entrambe le matrici trovate sono
1
1 −2
non singolari. Ne segue che sono soddisfatte anche le (6.6), (6.7) e quindi
     
C −2 1 1 le matrici assegnate costituiscono una rappresentazione ridotta.
N =N = gen .
CA 4 −2 2
312 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.3. Costruzione di una rappresentazione 313

Esercizio 6.3. Assegnate le matrici: costituenti la prima e seconda colonna (cambiata di segno), dal vettore
        
1 0 −1 −1 1 0 0 0
 0 2 2 1 0 0 1 1  2   0
A= , B= , v3 = [c5 − 2v2 ] =   − 2v2  =   ,
1 2 1 0 0 −1 2 2 2 1
0 1 0 0 0 0 0 0
 
1 1 −1 0 ove c5 indica la quinta colonna, e dal vettore
C= , D = 0,
−1 −1 1 0  
0
studiare se possono costituire la rappresentazione di un sistema connesso 1 0
v4 = − [c6 − 2v1 + 6v3 + 4v2 ] =   ,
del tipo (6.1). 2 0
1

con c6 = ( 2 −6 −4 −2 ) la sesta colonna. Questo risultato assicura


T
Soluzione. È chiaro che in questo caso la condizione (6.3) perde di si-
gnificato, poiché non è assegnato alcun nucleo. Quindi resta da verificare da solo che la (6.4) è soddisfatta e quindi che le matrici assegnate rappresen-
soltanto la (6.4). Si ottiene: tano un sistema connesso. Tale rappresentazione potrebbe essere ridotta,
poiché la (6.7) è a sua volta soddisfatta; per la verifica della (6.6) occorre
 
1 0 1 1 0 2 −2 −8 appurare se abbia rango pieno la matrice:
 
0 0 0 −2 2 −6 8 −22     
B AB A2 B A3 B = . C 1 1 −1 0
0 −1 1 −1 2 −4 6 −14
 CA   −1 −1 1 0
0 0 0 0 0 −2 2 −6  = 
CA2 ..
CA3 .
Per determinare una base nell’immagine di questa matrice si possono pren-
dere le sue colonne linearmente indipendenti, ovvero, equivalentemente, loro
(le altre righe di questa matrice sono ovviamente nulle).
combinazioni lineari ottenute applicando le trasformazioni elementari, ap-
Questa condizione non è evidentemente soddisfatta e quindi la rappre-
plicate alla matrice trovata. In tal modo, infatti, i vettori di base risultano
sentazione assegnata non è ridotta.
avere un’espressione più semplice. Si ottiene allora:
 
1 0 0 0 0 0 0 0
 0 −2 0 0 0 0 0 0 6.3. Costruzione di una rappresentazione a partire
 .
0 −1 1 0 0 0 0 0 da un nucleo assegnato
0 0 0 −2 0 0 0 0
Se un nucleo assegnato soddisfa le condizioni di esistenza di una rapp-
Ovviamente questo procedimento non è unico. Le prime quattro colonne di resentazione (6.2), le matrici che verificano la (6.3) possono essere costruite
questa matrice costituiscono una base per il sottospazio immagine cercato, con le (6.9) o (6.10). Tale terna di matrici costituisce assieme alla matrice
che pertanto coincide con IR4 . Allo stesso risultato si arrivava considerando D = 0, in generale, soltanto una realizzazione del nucleo dato, non una
come base quella costituita dai vettori rappresentazione. Per ottenere quest’ultima occorre considerare la trasfor-
mazione di coordinate definita dalla matrice (5.2). La verifica del fatto
   
1 0 che il nucleo assegnato soddisfa le condizioni per l’esistenza delle rappre-
0 0 sentazioni (6.2) può essere eseguita, qualora non sia immediata, tramite la
v1 =   , v2 =   ,
0 1 matrice di Hankel.
0 0
314 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.3. Costruzione di una rappresentazione 315

Esercizio 6.4. Costruire una rappresentazione a partire dal nucleo K(s) = Esercizio 6.6. Determinare la rappresentazione per il sistema individuato
5s + 3 . dal nucleo:
s3 + 2s2 + 4s + 2 $     %
1 0 0 2 0 0 0 0
K(s) = s + s+ ,
d(s) 1 1 2 3 1 −2
Soluzione. Chiaramente K(s) è una funzione razionale strettamente pro-
con d(s) = s3 + 6s2 + 11s + 6.
pria, per cui D = 0 e si possono applicare, ad esempio, le (6.9) ottenendo:
   
0 1 0 0   Soluzione. Applicando ad esempio le (6.10) si ottiene:
A= 0 0 1 , B = 0, C= 3 5 0 .    
0 0 0 0 −6 0 0 0
−2 −4 −2 1
0 0 0 0 0 −6   1 −2 
   
 1 0 0 0 −11 0  0 0 
Perché le matrici cosı̀ trovate costituiscano una rappresentazione, occorre A= , B =  ,
0 1 0 0 0 −11  2 3 
che sia soddisfatta la (6.4). Si nota immediatamente che la matrice:    
0 0 1 0 −6 0 0 0
  0 0 0 1 0 −6 1 1
  0 0 1  
B AB A2 B = 0 1 −2  C=
0 0 0 0 1 0
.
1 −2 0 0 0 0 0 0 1
Per verificare la (6.4) si calcolano:
ha rango pieno. Pertanto tali matrici costituiscono una rappresentazione.  
0 0 0
 1 −2 −6 
Esercizio 6.5. Determinare
 una rappresentazione
 per il sistema individu-  
0 0 0 
ato dal nucleo K(s) = 1 1 . P = R 2 · · · · · · · · =

s+1 s+2  3 −10 
0 0 0 
1 1 −4
Soluzione. Si tratta di una funzione razionale strettamente propria, riscriv-
           
ibile nella forma: 

 0 0 0 
 
 0 0 0 

      
1   −6
 −2  
  0  0 


   1    
s+2 s+1 1 1 s+ 2 1 
0
  
  0
 0 
 

0  0

 0 
= gen   ,   = gen  , 
   ,
K(s) = = .
 2 ,   −10
 3  2  1  
,  0 
s2 + 3s + 2 s2 + 3s + 2 
     
     

 0    0
 0  
0  0   0 



 
 
 3 

Conviene applicare le (6.10), poiché danno luogo in questo caso (p = 1 < 1 1 −4  1 1 
7
m = 2) ad una realizzazione di ordine inferiore. Si ottiene cosı̀:  
0 0 0 0 1 0
   
0 −2 2 1    0 0 0 0 0 1 
A= , B= , C = (0 1), D = 0, C 0 0 1 0 
1 −3 1 1  CA   ∗ 
 0   
I=N
 ...  = 
0 0 1 = 0 ,
1 
e si verifica immediatamente che costituiscono una rappresentazione ridotta  0
∗ ∗ 
CA5  
del sistema assegnato, in quanto è soddisfatta la (6.4). 0 1 
..
.
316 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.3. Costruzione di una rappresentazione 317

in cui “∗ ” indica quantità genericamente non nulle; si noti che non si è


completato il calcolo delle altre colonne e righe delle matrici in quanto per  
la prima è chiaro che la 1a , 3a e 5a componente sono sempre nulle, mentre −6 − 18 −6   & '
per la seconda si sono ottenute sei righe linearmente indipendenti (e dunque  7  1 −2 0 0 0
 
 , B1 =  0 7  , C1 =
A11 = 2 3 1 .
si è avuta una matrice a rango pieno).  7  1 3 1
8 40 0 0 7
Poiché la (6.4) non è soddisfatta le matrici trovate assieme a D = 0 −3
costituiscono solo una realizzazione. Per estrarne una rappresentazione si 7 49 7
costruisce la matrice (5.2):
 
0 0 0 1 0 0 Esercizio 6.7. Si supponga nota per un sistema lineare stazionario a
1 0 0 0 0 0 tempo discreto con un ingresso e due uscite la risposta forzata riportata
 
0 0 0 0 1 0 nei seguenti grafici.
T −1 = 2 1 0 0 0 0,

  y 1( t )
0 0 0 0 0 1
1 3 1 0 0 0 . . .
7 u( t )
per cui la matrice di trasformazione vale: 1 . . .
1
. 2
.
3
.
4
.t
 
0 1 0 0 0 0 . . . . .
 0 −2 0 1 0 0 1 2 3 t
 
 0 −1 0 −3 0 1
  y2 ( t)
T = 7 7 ,
1
 0 0 0 0 0
.
0 0 1 0 0 0
0 0 0 0 1 0
. 1
. .
2
.
3
.
4
.t
5

e dunque: .
 
−6 − 18 −6 0 0 0
 7    Figura 6.1
 3  1 −2
 2 1 0 0 0  0 7 
 7   
 8 40 −3 0  0 0 
Determinare l’ordine delle realizzazioni minime del sistema che ammette la
T AT −1 =
 7 49 7
0 0 ,
 TB =  , risposta forzata assegnata.
 0 0 
 0 0 0 0 0 −6   
  0 0
 0 0 0 1 0 −11  0 0
0 0 0 0 1 −6 Soluzione. Poiché il sistema è lineare stazionario, la risposta all’ingresso
  indicato (un impulso traslato di 1) è la risposta impulsiva traslata di 1.
0 0 0 0 0 1 Dunque la matrice delle risposte implusive W (k) è numericamente
  deter-
CT −1 = 1 3 1 0 0 0 . y1 (k)
7 minabile dai grafici, prendendo le coppie di valori per k ≥ 1.
y2 (k)
Si noti la struttura diagonale a blocchi della matrice T AT −1 e quella a bloc- Ora l’ordine delle realizzazioni minime coincide con il rango della matrice
chi di T B. Pertanto la rappresentazione cercata è formata dalle seguenti di Hankel, in cui gli elementi sono dati dalla (6.18), in cui K(k) = W (k).
matrici: Risulta quindi per semplice ispezione delle figure:
318 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.4. Costruzione di una rappresentazione ridotta 319

 −1 .. 1 .. 1 .. 0 ..  6.4. Costruzione di una rappresentazione ridotta a


.. .. .. .. · · · partire da una assegnata
 1 .. 0 .. 0 .. 0 .. 
 · · · · · . · · · · · . · · · · · . · · · · · . ·· 
 . . . .. 
 1 .. 1 .. 0 .. .  La riduzione di una rappresentazione assegnata può essere ottenuta me-
 .. .. .. . . 
 0 . 0 . 0 .  diante la matrice (5.5). Qualora invece interessi soltanto la determinazione
 
 · · · · · ... · · · · · ... · · · · · ... ··  dell’ordine delle rappresentazioni ridotte si può applicare direttamente la
 . . .  (6.19), costruendo la matrice di Hankel a partire dal nucleo assegnato.
 
H =  1 ... 0 ... . . . 
 0 . 0 . 
 . .  Esercizio 6.8. Determinare una rappresentazione ridotta per il sistema
 · · · · · .. · · · · · .. ·· 
 . .  dell’esercizio 6.1.
 0 .. . . 
 . 
 0 ... 
 · · · · · . ·· 
 . 
.. . Soluzione. La matrice T −1 , costruita secondo la (5.5), e l’inversa T sono:
.    
1 0 1 0
La dimensione cercata è dunque pari a tre. Una sua realizzazione si può T −1 = , T = .
ricavare determinando innanzitutto la funzione di trasferimento 2 1 −2 1
& '    
y1 (z) = 1 − z1 + 12 + 13 1 1 −z 2 + z + 1
W (z) = z z = + = Pertanto applicando la (5.6) si ottiene:
y2 (z) = −1 + z1 −1 z3 z2
     
−1 −2 0 −1
= D + K(z), T AT = , TB = , CT −1 = 0 1 .
0 −2 3
in quanto, come detto, i grafici danno la risposta impulsiva traslata di 1
calcolo delle yi (z) si considerano i valori yi (k) per k ≥ 1).
(quindi per il  La rappresentazione ridotta cercata è quindi:
1
Dunque D = , mentre utilizzando la (6.9) per avere una realiz-
−1 A22 = −2, B2 = 3, C2 = 1.
zazione per K(z) (più adatta della (6.10) in quanto m = 1 < p = 2), si
trova:
   
0 1 0 0   Esercizio 6.9. Si determini una rappresentazione ridotta per il sistema la
1 1 −1
A = 0 0 1, B = 0, C= . cui rappresentazione è stata data nell’esercizio 6.3.
0 0 1
0 0 0 1
Le equazioni del sistema sono dunque:  
C
x1 (k + 1) = x2 (k)  CA 
Soluzione. Prendendo in considerazione la matrice   calcolata per
CA2
x2 (k + 1) = x3 (k) 3
CA
x3 (k + 1) = u(k) l’esercizio 6.3, di rango 1 e nullità 3, si trova che una base nel suo nucleo è
y1 (k) = x1 (k) + x2 (k) − x3 (k) + u(k) formata dai vettori:
y2 (k) = x3 (k) − u(k)     
0 1 0
0  −1  1
da cui è facile trovare il relativo schema di simulazione. v1 =   , v2 =  , v3 =   .
0 0 1
1 0 0
320 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.5. Realizzazioni mediante il criterio di Gilbert 321

Pertanto si costruisce la matrice (5.5) e la sua inversa: Esercizio 6.11. Si determini l’ordine delle rappresentazioni ridotte del
    sistema individuato dalla seguente terna di matrici:
0 1 0 0 0 0 0 1
   
 0 −1 1 0  1 0 0 0 1 −1  
T −1 =  , T = , 0 0 0
1 2 1
0 0 1 1 1 1 0 0 A=  2 2 −1  , B= 0  1  , C= .
−1 −1 −4 2 1
1 0 0 0 1 0 −4 −4 2 0 0
ottenendo:
   
0 −1 1 0 0 0
 −1 1 −1 −1   1 0 
T AT −1 = , TB =  , Soluzione. Ovviamente qui D = 0. La determinazione dell’ordine richiesto
0 −1 3 1 1 0 può essere fatta applicando le (6.11), (6.19). Prima però occorre accertarsi
0 0 0 0 −1 −1
  che queste matrici costituiscano effettivamente la rappresentazione di un
0 0 0 −1 sistema connesso, ossia che valga la (6.4); in caso contrario, infatti, la teoria
CT −1 = .
0 0 0 1 che porta a stabilire la (6.19) cessa di essere valida. In questo caso risulta:
La rappresentazione ridotta è pertanto:  
1 −1 0
  P = R0 1 2 · · ·  = IR3 ,
−1
A22 = 0, B2 = ( −1 −1 ) , C2 = , D = 0. 0 0 −4
1
per cui la (6.4) è soddisfatta. Costruendo la matrice di Hankel in base alla
Esercizio 6.10. Si determini l’ordine delle rappresentazioni ridotte del (6.15) si ottiene:
nucleo K(t) = t + et , t ∈ [0, ∞).
 
1 1 0 0
 −4 ···
Soluzione. Sviluppando K(t) in serie di Mc Laurin si ottiene:  6 0 0 
 0 
 0 
∞ k
( H= .. .
t  0 0 . 
K(t) = 1 + 2t + .  
k!  
k=2 ..
.
Pertanto, confrontando con la (6.13), la matrice di Hankel (6.11) è
  Pertanto l’ordine delle rappresentazioni ridotte del sistema assegnato è pari
1 2 1 1 1 ···
 ..  a due.
2 1 1 1 . 
 .. 
1 1 . 
 1 
H= .. .
1 1 .  6.5. Realizzazioni mediante il criterio di Gilbert
 
 .. 
1 .  Sia W (s) = D+K(s) una matrice di funzioni di trasferimento razionali
..
. proprie, relativa ad un sistema a più ingressi e più uscite, con r poli distinti.
Qui K(s) è data dalla (6.8) e può essere espansa in frazioni parziali:
Poiché il rango di H è uguale a tre, dalla (6.19) segue che tale è anche
l’ordine cercato delle rappresentazioni ridotte. R1 Rr
W (s) = D + K(s) = D + +· · ·+ , Ri = lim (s − λi )K(s).
s − λ1 s − λr s→λi
322 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.5. Realizzazioni mediante il criterio di Gilbert 323

Si indichi con &i il rango di Ri . Allora è noto dalla teoria che esiste sempre con &1 = &(R1 ) = 2, &2 = &(R2 ) = 1. Dunque, considerate le fattoriz-
una fattorizzazione Ri = Ci Bi , con Ci , Bi matrici p × &i , &i × m, ossia tali zazioni:
che la dimensione interna sia proprio &i . Una realizzazione minima di W (s)     
è allora data dalle matrici: 
1 0 1 2 0
    R1 = C1 B1 = , R2 = C2 B2 = 1 1 ,
λ1 I1 · · · 0 B1 0 1 −1 0 1
 
 ..  , B =  ..  , C = C · · · C ,
AG =  ... ..
. .  G  .  G 1 r
ovviamente non uniche, si ha:
0 · · · λr Ir Br
   
assieme alla matrice D, in cui Ii sono matrici identità di dimensione &i ×&i . −1 0 0 1 2  
) r
AG =  0 −1 0 , BG =  −1 0  , CG =
1 0 0
,
La dimensione della realizzazione minima è pari a n = &i . 0 1 1
i=1 0 0 −2 1 1
Si sottolinea il fatto che questo criterio può essere applicato solo se i
poli della funzione di trasferimento sono tutti distinti. oltre alla matrice D già calcolata. Si noti che n = 3 è la dimensione minima
Esercizio 6.12. Determinare una realizzazione della funzione di trasferi- della realizzazione. Tale dimensione non si sarebbe potuta ottenere appli-
cando le forme canoniche compagne, con le quali si ottengono realizzazioni
mento:   di dimensione 4, riducibili poi a quella minima.
3s + 4 2
 s+1 s+1 
W (s) = 
−2s − 3 
.
−1 Esercizio 6.13. Determinare una realizzazione minima della funzione di
(s + 1)(s + 2) s + 2
trasferimento
 
0 −9s − 12
Soluzione. Si osserva che le funzioni di trasferimento non sono stretta-  s(s + 1)(s − 2) 
W (s) =  .
mente proprie a causa di un legame diretto ingresso–uscita. Determinando 1 10
la matrice D ed applicando il criterio di Gilbert: s(s + 1) s(s − 2)
 
  1 2
3 0  s+1 s+1 R1 R2
+
1  Soluzione. Il polinomio caratteristico è p(s) = s(s + 1)(s − 2), per cui i
W (s) = =D+ + =
0 −2 −1 s+1 s+2
(s + 1)(s + 2) s + 2 poli sono λ1 = 0, λ1 = −1, λ1 = 2, tutti con molteplicità unitaria. Si può
allora applicare il criterio di Gilbert. I residui sono:
   
1 2 0 0 
 
−1 0 1 1 6 0
=D+ + , R1 = sW (s) = ,
s+1 s+2 s=0 −5 1
come è facile calcolare:    
& '   0 −1
1 2 R2 = (s + 1)W (s) = ,
1 2 s=−1 −1 0
R1 = [(s + 1)W (s)]s=−1 = −1 s+1 =
−1
,
s + 2 s + 2 s=−1
0
   
0 −5
  R3 = (s − 2)W (s) = ,
s=2 0 5
s + 2 2s + 2  
 s+1 0 0
R2 = [(s + 2)W (s)]s=−2 =  s + 1  = , con µ1 = rank (R1 ) = 2, µ2 = rank (R2 ) = 2, µ3 = rank (R3 ) = 1. La
−1 1
1 1
s+1 s=−2 dimensione di una realizzazione minima è quindi 2 + 2 + 1 = 5. La matrice
324 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.6. La formula di Mason 325

dinamica è A = diag {0, 0, −1, −1, 2}, mentre, considerate ad esempio le sono una realizzazione a coefficienti non reali. Considerando però la trasfor-
fattorizzazioni (con dimensione interna µi ): mazione
    
1 0 0 6     1+j

j
R1 = C1 B1 = , 1 1 1 1
0 1 1 −5 T = = , T −1 = 2 2 ,
λ1 λ2 1+j 1−j 1−j j
   2 2
1 0 0 −1
R2 = C2 B2 = ,
0 1 −1 0 si ha:
     
−1  
−1 0 1 2
R3 = C3 B3 =
1
(0 5), T AT = , TB = , CT −1 = 1 0 , D = 0.
−2 2 6 2
si ricavano le matrici:
 
0 6
 1 −5  6.6. La formula di Mason
 
B = ( B1 B2 B3 ) =  0 −1  ,
 
−1 0 Nel caso in cui tutti i sistemi, in cascata e in parallelo, di un grafo ab-
0 5 biano ingresso e uscita monodimensionali, è possibile risolvere il problema
    di determinare la funzione di trasferimento del grafo in modo rapido ap-
1 0 1 0 −1 plicando la formula di Mason. A tale scopo si inizia col determinare tutti
C= C1 C2 C3 = , D = 0.
0 1 0 1 1 i cammini che, nel grafo assegnato, vanno dall’ingresso all’uscita e siano
Pi (s) le rispettive funzioni di trasferimento, pari al prodotto delle funzioni
di trasferimento dei sottosistemi in cascata che costituiscono i rispettivi
Esercizio 6.14. Determinare una realizzazione minima a coefficienti reali cammini (trasferenze).
Si individuano poi i cicli presenti nel grafo e se ne determinano le fun-
di W (s) = 2 s + 1 .
s − 2s + 2 zioni di trasferimento Lj (s), pari al prodotto delle funzioni di trasferimento
dei rami che costituiscono i rispettivi cicli (trasferenze). Questi cicli ven-
gono suddivisi in cicli che non si toccano a due a due (ossia tali che presi
Soluzione. Ovviamente p(s) = s2 − 2s + 2, e i poli λ1,2 = 1 ± j hanno due cicli, non hanno nodi in comune), a tre a tre, etc.
molteplicità unitaria. Applicando il criterio di Gilbert, si calcolano i residui: I cammini e i cicli vengono numerati e siano P ed J1 l’insieme dei loro
  1   1 indici. Inoltre siano J2 , J3 , · · ·, gli insiemi di coppie, terne, etc., di indici
R1 = (s−1−j)W (s) = −j, R2 = (s−1+j)W (s) = +j, dei cicli che a due a due, a tre a tre, etc., non si toccano. Infine siano
s=1+j 2 s=1−j 2 J1i , J2i , J3i , etc., gli insiemi di indici, coppie di indici, terne di indici, etc.,
aventi ovviamente rango 1 e, ad esempio, con fattorizzazioni: appartenenti a J1 , J2 , J3 , etc., i cui cicli non hanno nodi in comune con
l’i–esimo percorso. La funzione di trasferimento del grafo è allora data da
R1 = C1 B1 =
1
· (1 − 2j), R2 = C2 B2 =
1
· (1 + 2j). * +
2 2 ) ) ) )
Pi (s) 1− Lj (s)+ Lj (s)Lk (s)− Lj (s)Lk (s)Lh (s)+· · ·
Dunque: i∈P j∈J1i (j,k)∈J2i (j,k,h)∈J3i
W (s) = ) ) ) .
      1− Lj (s) + Lj (s)Lk (s) − Lj (s)Lk (s)Lh (s) + · · ·
1+j 0 1 − 2j 1 1 , j∈J1 (j,k)∈J2 (j,k,h)∈J3
A= , B= , C= D = 0,
0 1−j 1+j 2 2 (6.20)
326 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.6. La formula di Mason 327

Tale espressione è nota come formula di Mason. Si noti che se un insieme K5


di indici Jj è vuoto allora sono vuoti tutti gli altri insiemi Jk con k > j,
e nella formula di Mason non compaiono le corrispondenti sommatorie. Lo u K1 K2 K3 K4 y
stesso dicasi per gli insiemi Jji .
K6
K7
Esercizio 6.15. Determinare la funzione di trasferimento relativa al grafo
in figura.

K4 K8
Figura 6.3
u K1 K2 K3 1 y
4 3 2 1 Soluzione. Si hanno tre cammini e quattro cicli:
K5
P = {1, 2, 3}, J = {1, 2, 3, 4},
K6
e le trasferenze sono:
Figura 6.2
P1 (s) = K1 (s)K2 (s)K3 (s)K4 (s)
Soluzione. Si hanno due cammini (P = {1, 2}), i quali hanno trasferenze:
P2 (s) = K1 (s)K5 (s)K4 (s)
P1 (s) = K1 (s)K2 (s)K3 (s), P3 (s) = K1 (s)K2 (s)K6 (s)
P2 (s) = K4 (s). L1 (s) = K7 (s)
L2 (s) = K3 (s)K4 (s)K6 (s)
I cicli sono due (J1 = {1, 2}) e hanno trasferenze: L3 (s) = K5 (s)K4 (s)K8 (s)
L4 (s) = K2 (s)K3 (s)K4 (s)K8 (s).
L1 (s) = K2 (s)K5 (s),
L2 (s) = K1 (s)K2 (s)K3 (s)K6 (s). Ovviamente:
J2 = {(1, 4)}, Jj = ø, j ≥ 3,
Il primo cammino tocca entrambi i cicli mentre il secondo tocca solo il Jj1 = ø, j ≥ 1,
secondo ciclo; infine i due cicli si toccano. Dunque Jj = ø, j ≥ 2, Jj1 = ø, Jj2 = ø, j ≥ 2,
J12 = {1},
j ≥ 1, e J12 = {1}, Jj2 = ø, j ≥ 2. Pertanto si ha:
Jj3 = ø, j ≥ 1.
 
K1 K 2 K 3 + K 4 1 − K 2 K 5 Pertanto:
W (s) = .  
1 − K2 K5 − K1 K2 K3 K6 P1 (s) + P2 (s) 1 − L1 (s) + P3 (s)
W (s) =    .
1 − L1 (s) + L2 (s) + L3 (s) + L4 (s) + L1 (s)L2 (s)
Esercizio 6.16. Si determini la funzione di trasferimento relativa al grafo
in figura.
328 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.7. Trasformazioni tra realizzazioni 329

Esercizio 6.17. Si determini la funzione di trasferimento relativa al grafo il primo cammino tocca solo il primo ciclo:
in figura.
u 1 K1 y J11 = {2, 3}, J21 = {(2, 3)}, Jj1 = ø, j ≥ 3,

mentre il secondo cammino tocca i cicli 2 e 3:


- K2

Figura 6.4 J12 = {1}, Jj2 = ø, j ≥ 2.

Soluzione. Ovviamente: Si ottiene pertanto:


   
P = {1}, J1 = {1}, P1 (s) = K1 (s), L1 (s) = −K1 (s)K2 (s), K1 K2 K3 1−(K8 +K9 )+(K8 K9 ) +K4 K5 K6 1−(K2 K7 )
W= .
con Jj1 = ø, j ≥ 1. Dunque: 1−(K2 K7 +K8 +K9 )+(K2 K7 K8 +K2 K7 K9 +K8 K9 )−(K2 K7 K8 K9 )

P1 (s) K1 (s)
W (s) = = .
1 − L1 (s) 1 + K1 (s)K2 (s) 6.7. Trasformazioni tra realizzazioni

Esercizio 6.18. Si determini la funzione di trasferimento del grafo in figura. Due qualsiasi realizzazioni (A1 , B1 , C1 ), (A2 , B2 , C2 ), genericamente
non minime, dello stesso ordine n e corrispondenti alla stessa funzione di
K2 trasferimento (scalare), sono correlate da una trasformazione T univoca-
K1 K3 mente determinata se valgono contemporaneamente le seguenti condizioni:
1) det(sI − A1 ) = p1 (s) = p2 (s) = det(sI − A2 ), ossia i polinomi carat-
u K7 teristici coincidono, ovvero gli autovalori sono gli stessi;
K4 K6 2) entrambe le realizzazioni sono raggiungibili ovvero sono entrambe os-
K5 servabili.
K8 K9 Allora e allora soltanto, se entrambe le realizzazioni sono raggiungibili, tale
trasformazione è data da:
Figura 6.5 T = R1 R−12 , (6.21)
Soluzione. I cammini e i cicli sono: ove Ri , i = 1, 2 sono le matrici di raggiungibilità, ovvero, se entrambe le
realizzazioni sono osservabili:
P = {1, 2}, P1 (s) = K1 (s)K2 (s)K4 (s), L1 (s) = K2 (s)K7 (s),
J1 = {1, 2, 3}, P2 (s) = K4 (s)K5 (s)K6 (s), L2 (s) = K8 (s), T = O−1
1 O2 , (6.22)
L3 (s) = K9 (s). ove Oi , i = 1, 2 sono le matrici di osservabilità.
Si noti che si è parlato di autovalori anziché di poli, pur costituendo
I cicli non si toccano:
in generale questi ultimi solo un sottinsieme dell’insieme degli autovalori
J2 = {(1, 2), (1, 3), (2, 3)}, ed essendo quindi imprecisa questa affermazione. Poiché però si considera
qui il problema della realizzazione di una funzione di trasferimento, che si
J3 = {(1, 2, 3)}, assume significativa ai fini della descrizione dinamica del processo, questa
Jj = ø, j ≥ 4, imprecisione è accettabile.
330 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.7. Trasformazioni tra realizzazioni 331

Dimostriamo ora le (6.21) e (6.22). Supponiamo che entrambe le real- Infine ricordando che sotto trasformazione i parametri di Markov restano
izzazioni siano raggiungibili. Prima di tutto sia: invariati, ossia deve valere la (6.16), e dunque si deve avere:

A2 = T A1 T −1 , B2 = T B1 , C2 = C1 T −1 . C1 B1 = C2 B2 , C1 A1 B1 = C2 A2 B2 , ··· C1 A1n−1 B1 = C2 An−1


2 B2 ,
e quindi:
Ma allora:
    C1 R1 = C2 R2 ⇒ C1 T −1 = C1 R1 R−1
2 = C2 .
R2 = B2 A2 B2 · · · An−1
2 B2 = T B1 A1 B1 · · · An−1
1 B1 = T R1 , Stessa dimostrazione può essere fatta per la (6.22) nel caso di realizzazioni
osservabili.
e quindi, poiché esiste R−1 −1
1 , deve essere T = R2 R1 . Tale matrice è unica Consideriamo ora le trasformazioni che legano tra loro le realizzazioni
−1
poiché è unica l’inversa R1 . minime. Vale per esse un risultato che è la particolarizzazione al caso
Viceversa se T = R2 R−1 −1
1 (ben definita in quanto esiste R1 ), mostri- di dimensione minima del risultato precedente. Infatti due realizzazioni
amo che (A1 , B1 , C1 ) e (A2 , B2 , C2 ) si ottengono una dall’altra attraverso (A1 , B1 , C1 ), (A2 , B2 , C2 ) minime sono legate da una trasformazione T uni-
la trasformazione T . Poiché si nota che: vocamente definita, data dalla (6.21) oppure dalla (6.22) (queste coincidono
  poiché le realizzazioni minime sono raggiungibili ed osservabili). Per eser-
R−1
1 R 1 = I = R−1
1 B 1 A B
1 1 · · · A n−1
1 B 1 = cizio si riporta qui una dimostrazione leggermente diversa. Poiché le due
  realizzazioni sono minime, esistono le inverse delle matrici Ri , Oi , i = 1, 2
= R−1 1 B1 R−11 A1 B1 · · · R−1
1 A1
n−1
B1 , relative alle due realizzazioni. Ora, considerando la sotto–matrice H̄ della
    matrice (di dimensioni infinite) H di Hankel costituita dalle prime n righe
1 1 ed n colonne di H:
 0   0  
ne segue che R−1   −1   CB · · · CAn−1 B
1 B1 =  .. , e dunque T B1 = R2 R1 B1 = R2  ..  = . . .
. . H̄ =  .. .. .. =
0 0 CA n−1
B · · · CA2n−2
B
B2 . Inoltre:  
T A1 T −1 = R2 R−1 −1
1 A1 R1 R2 ,
C
 CA   
ove: =  .
..
 B AB · · · An−1 B = OR,

 
CAn−1
R−1
1 A1 R1 = R1
−1
A1 B1 · · · An−1
1 B1 An1 B1 =
  ed essendo i parametri di Markov CAi B invarianti rispetto a trasformazioni,
= R−1
1 A1 B1 · · · An−1
1 B1 (−an−1 A1n−1 + · · · − a1 A1 − a0 I)B1 = per cui vale la (6.16):
 
0 · · · 0 −a0 H̄ = O1 R1 = O2 R2 ⇒ O−1 −1
2 O1 = R2 R1 .
   1 · · · 0 −a1 
= R−1 B1 · · · An−1 B1   ... . . . ..  = R−1 T T
1 R1 AcR = AcR . Dunque si può definire la matrice non singolare T = O−1 −1
.  2 O1 = R2 R1 (si
1 1
confronti questa espressione con le (6.21), (6.22)). Inoltre si noti che:
0 · · · 1 −an−1  
  C
CAB · · · CAn B
Si ha cosı̀:  CA   
 ... ..
. ... = ..  A B AB · · · An−1 B =
 . 
T A1 T −1 = R2 R−1 −1 T −1
1 A1 R1 R2 = R2 AcR R2 = CAn B · · · CA2n−1 B
  CAn−1
−1 −1
= A2 B2 · · · An−1
2 B2 A n
2 2 R2 = A2 R2 R2 = A2 .
B = OAR,
332 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.7. Trasformazioni tra realizzazioni 333

e sempre per le (6.16): Infatti:


 −1 T  −1
O1 A1 R1 = O2 A2 R2 , T T −1 = OT2 O2 O2 O1 R1 RT2 R2 RT2 =
 T −1 T   −1
= O2 O2 O2 O2 R2 RT2 R2 RT2 = I · I = I.
per cui:
A2 = O−1 −1
2 O1 A2 R1 R2 = T A1 T
−1
. Inoltre si trova che:
Infine, sempre per le (6.16):  −1 T  −1
T A1 T −1 = OT2 O2 O2 O1 A1 R1 RT2 R2 RT2 =
     T −1 T T
 
T −1
C1 B1 C2 B2 = O2 O2 O2 O2 A2 R2 R2 R2 R2 = A2 ,
−1  ..  = O−1  .. =  T −1 T  T −1 T
T B1 = O−1
2 O1 B1 = O2 . 2 . T B1 = O2 O2 O2 O1 B1 = O2 O2 O2 O2 B2 = B2 ,
C1 An−1 B1 C2 A2n−1 B2 −1 T
 
T −1
 −1
1 C1 T = C1 R1 R2 R2 R2 = C2 R2 R2 R2 RT2
T
= C2 .
= O−1
2 O2 B2 = B2 ,
 
L’unicità di T si mostra come nel caso di sistemi ad un ingresso ed una
C1 T −1 = C1 R1 R−1
2 = C1 B1 · · · C1 An−1
1 B1 R−1
2 = uscita.
 
= C2 B2 · · · C2 An−1
2 B2 R−1 −1
2 = C2 R2 R2 = C2 . Mostriamo infine per altra via che i parametri di Markov (6.15) sono
invarianti nell’ambito della classe di rappresentazioni associabili ad un dato
sistema. Si ricorda innanzitutto che una generica matrice Φ(s) può essere
Si noti che tale matrice T è unica. In effetti se esistesse un’altra matrice T̃
scritta nella seguente maniera:
di trasformazione si dovrebbe avere:
    En−1 sn−1 + · · · + E1 s + E0
T B1 · · · An−1 B 1 = B 2 · · · An−1
B 2 , Φ(s) = (sI − A)−1 = ,
1 2
    sn + an−1 sn−1 + · · · + a1 s + a0
T̃ B1 · · · An−11 B1 = B2 · · · An−1 2 B2 , in cui i coefficienti Ei sono dati da (6.1)
E  1  0 ··· 0 1 
e dunque T R1 = T̃ R1 , ossia (T − T̃ )R1 = 0. Poiché però R1 è non n−1
 En−2   an−1 1 0 λ 
singolare, ciò implica T = T̃ .  . = . ..    = M uc |λ=A , (6.23)
Nel caso di sistemi a più ingressi e più uscite, per i quali le matrici  .   . ..
.
..
.   ... 
. . .
Ri , Oi , i = 1, 2, di raggiungibilità ed osservabilità non sono quadrate, E0 a1 · · · an−1 1 λn−1 λ=A
la dimostrazione è solo leggermente diversa. Poiché le realizzazioni sono
minime, e dunque raggiungibili ed osservabili, detta n tale dimensione min- dove M è una matrice di Toeplitz ed uc ha la forma di un generico autovet-
ima, risulta &(Ri ) = &(Oi ) = n, i = 1, 2, e pertanto Ri RTi e OTi Oi (en- tore di una forma canonica compagna raggiungibile (si veda il capitolo 5).
trambe n × n) sono invertibili. Poiché, come visto prima, O1 R1 = O2 R2 , Pertanto una generica matrice di funzioni di trasferimento W (s) si può
O1 AR1 = O2 AR2 , O1 B1 = O2 B2 e C1 R1 = C2 R2 , definita la trasfor- scrivere come segue:
mazione:  −1 T
T = OT2 O2 O2 O1 CEn−1 Bsn−1 + · · · + CE1 Bs + CE0 B
W (s) = C(sI − A)−1 B + D = + D.
si verifica facilmente che la sua inversa (unica) è: sn + an−1 sn−1 + · · · + a1 s + a0

 −1 Per ricavarne l’espressione basta moltiplicare ambo i membri di Φ(s) = (sI − A)−1 per
(6.1)

−1
T = R1 RT2 R2 RT2 . (s + an−1 sn−1 + · · · + a1 s + a0 )(sI − A) ed eguagliare le stesse potenze in s.
n
334 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 335

Considerato un cambio di coordinate, per cui T AT −1 = Ã, T B = B̃, Soluzione. Considerata la trasposta W T (s) = B T (sI −AT )−1 C T = W (s),
CT −1 = C̃, D = D̃, si deve avere: si comprende che anche le matrici AT , B T , C T , D = 0 costituiscono una
realizzazione di W (s). Ma allora la trasformazione T per cui valgono le
C̃ Ẽn−1 B̃sn−1 + · · · + C̃ Ẽ1 B̃s + C̃ Ẽ0 B̃ (6.24) è unica. Trasponendo le (6.24) si ha:
W (s) = C̃(sI − Ã)−1 B̃ + D̃ = + D̃,
sn + ãn−1 sn−1 + · · · + ã1 s + ã0
T −T AT T T = A, B T T T = C, T −T C T = B,
in cui occorre che ãi = ai e che:
e dunque:
C̃ Ẽi B̃ = CT −1 Ẽi T B = CEi B, i = 0, 1, · · · , n − 1.
AT = T T AT −1 , B T = CT −T , C T = T T B,
Questo è verificato per Ẽi = T Ei T −1 .
Infine se si hanno due matrici di funzioni di trasferimento: che mostrano come anche T T è una trasformazione tra le due realizzazioni.
C1 E1,n−1 B1 sn−1 + · · · + C1 E1,1 B1 s + C1 E1,0 B1 Poiché tale trasformazione deve essere unica, occorre che T = T T , ossia T
W1 (s) = + D1 , deve essere simmetrica.
sn + a1,n−1 sn−1 + · · · + a1,1 s + a1,0
C2 E2,n−1 B2 sn−1 + · · · + C2 E2,1 B2 s + C2 E2,0 B2 Esercizio 6.20. Mostrare che il numeratore di una matrice di funzioni di
W2 (s) = + D2 , trasferimento strettamente proprie W (s) ha grado m se e solo se CAk B = 0
n
s + a2,n−1 s n−1
+ · · · + a2,1 s + a2,0 per k = 0, 1, · · · , r − 2, e CAr−1 B = 0 ove r = n − m.
esse possono coincidere se e solo se D1 = D2 , a1,i = a2,i = ai , C1 E1,i B1 =
C2 E2,i B2 , i = 0, 1, · · · , n − 1. Ma per le (6.23) ciò comporta:
Soluzione. Se CAk B = 0, k = 0, 1, · · · , r − 2, e CAr−1 B = 0, allora:
i = n − 1) C1 B1 = C2 B2
i = n − 2) C1 (A1 + an−1 I)B1 = C2 (A2 + an−1 I)B2 CEn−1 B = CB = 0

⇒ C1 A1 B1 = C2 A2 B2 CEn−2 B = CAB + an−1 CB = CAB = 0


..
.
e cosı̀ via fino ad i = 0, per cui si ha C1 A1n−1 B1 = C2 An−1
2 B2 . Usando
il teorema di Cayley–Hamilton, è facile vedere che devono valere le (6.16). CEn−r+1 B = CAr−2 B + · · · = CAr−2 B = 0
Alternativamente, allo stesso risultato si arriva eguagliando gli sviluppi in CEn−r B = CAr−1 B + · · · = CAr−1 B = 0
serie:

( ∞
( (in cui si sono usate le (6.23)) e dunque il numeratore di W (s) ha grado m.
C1 Ai B1 1 C2 Ai B2 2
W1 (s) = + D1 , W2 (s) = + D2 . Il viceversa si prova invertendo il ragionamento.
s s
i=0 i=0

Esercizio 6.19. Considerata una funzione di trasferimento scalare W (s) = 6.8. Schemi di simulazione associati alle realizzazione
C(sI − A)−1 B, mostrare che la trasformazione T tale che:
L’associazione di una realizzazione ad un nucleo K(s) costituito da
T AT −1 = AT , T B = CT , CT −1 = B T , (6.24) funzioni razionali strettamente proprie è particolarmente significativa e in-
tuitiva nel caso di sistemi ad un ingresso ed una uscita, in cui cioè K(s)
è simmetrica. si riduce ad una funzione razionale strettamente propria. In tali casi, in-
fatti, è particolarmente semplice costruire uno schema di simulazione cor-
rispondente al sistema avente una data funzione di trasferimento. Si noti
336 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 337

che un tale schema non fornisce una “rappresentazione fisica” del sistema ovvero:
reale, ma solo una sua “rappresentazione matematica”. Infatti non è detto x(n) = −an−1 x(n−1) + · · · − a0 x + u.
né che tale schema rappresenti la costituzione interna del sistema né che
Si consideri ora una catena di n integratori, in cui l’ingresso al primo è x(n)
non ci siano altre dinamiche (non raggiungibili e/o inosservabili), di cui
e l’uscita dell’ultimo è x (figura 6.6). L’ingresso dell’i–esimo integratore è
non si possono avere informazioni a partire dalla funzione di trasferimento.
ovviamente x(n−i+1) e l’uscita è x(n−i) . Dunque lo schema di figura 6.6 for-
Lo schema proposto fornisce soltanto una realizzazione del sistema ai fini
nisce una realizzazione della funzione di trasferimento (6.26). Per ottenere
dell’analisi e della sintesi di un sistema di controllo basato sulle tecniche con
una realizzazione con lo spazio di stato si ponga:
lo spazio di stato, ed eventualmente della simulazione del sistema stesso.
In effetti l’assegnazione ad un sistema, descritto mediante una funzione di x1 = x
trasferimento, di una realizzazione compagna raggiungibile o osservabile è
arbitraria. x2 = ẋ
Come ulteriore osservazione si noti che si evita di costruire schemi di ..
simulazione contenenti dei blocchi di derivazione del segnale in quanto in .
tal caso lo schema avrebbe il difetto di essere affetto da rumore. Infatti xn−i+1 = x(n−i) (6.28)
quando il segnale è derivato, la derivata del rumore, usualmente grande, ..
supera di gran lunga quella del segnale. Per realizzare dunque schemi di .
simulazione vengono utilizzati solo blocchi di integrazione.
xn−1 = x(n−2)
Forma canonica compagna raggiungibile. Sia W (s) = K(s) + d la funzione
di trasferimento (razionale propria) di un sistema, in cui lo scalare d rap- xn = x(n−1) .
presenta il legame diretto ingresso–uscita e K(s) è una funzione razionale Questo corrisponde ad identificare l’uscita di ogni integratore con una vari-
strettamente propria, la cui espressione, ottenuta particolarizzando la (6.8), abile di stato, a partire da destra e procedendo verso sinistra. Le equazioni
è del tipo: differenziali corrispondenti sono:
bn−1 sn−1 + · · · + b0
K(s) = . (6.25)
sn + an−1 sn−1 + · · · + a0 ẋ1 = ẋ = x2
Si ponga: ẋ2 = ẍ = x3
y(s) y(s) x(s) ..
K(s) = = , .
u(s) x(s) u(s) ẋn−i+1 = x(n−i+1) = xn−i+2 (6.29)
x(s) 1 ..
= , (6.26)
.
u(s) sn + an−1 sn−1 + · · · + a0
y(s) ẋn−1 = x(n−1) = xn
= bn−1 sn−1 + · · · + b0 , (6.27)
x(s) ẋn = x(n) = −an−1 xn + · · · − a0 x1 + u.
e si realizzi innnanzitutto la funzione di trasferimento (6.26) da u ad x, Si consideri ora la funzione di trasferimento (6.27) da x ad y. Da essa si
riscrivibile come: ha:
y(s) = (bn−1 sn−1 + · · · + b0 )x(s),
(sn + an−1 sn−1 + · · · + a0 )x(s) = u(s).
e supponendo nulle le condizioni iniziali:
Supponendo nulle le condizioni iniziali, essa corrisponde all’equazione dif-
ferenziale: y = bn−1 x(n−1) + · · · + b0 x.
x(n) + an−1 x(n−1) + · · · + a0 x = u,
338 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 339

Dunque l’uscita risulta la combinazione lineare delle variabili che appaiono


nella catena di integratori di figura 6.6. Utilizzando la numerazione (6.28)

x1= x

a0
si ha quindi:
y = bn−1 xn + · · · + b0 x1 . (6.30)

n


+
x2= x

+
.
Le (6.29), (6.30) possono essere messe in forma matriciale:

a1
      
n -1
ẋ1 0 1 0 ··· 0 x1 0


   ···   0

+
ẋ2 0 0 1 0 x2
     .
x3= x

+
..

a2
 .. = .. .. .. .. ..  ..  +  ..  u
 .   . . . . .  .   
 ẋ   0 0 0 ··· 1 x  0
n−1 n−1
ẋn −a0 −a1 −a2 · · · −an−1 xn 1
 
(n - i )

x1
xn - i+1= x

 
+
   x2 
+
an-i

bn−1  ,
.
y= b0 b1 · · · bn−2  .. 
x 
n−1
i


xn
+
(n - i +1)

+
an-i 1
+
xn - i +2= x

in cui le matrici A, B, C coincidono con AcR , BcR , CcR date dalle (6.9),
particolarizzate al caso di un solo ingresso (m = 1). Si noti che y è
l’uscita del sistema caratterizzato dalla funzione di trasferimento K(s),
mentre l’uscita del sistema con funzione di trasferimento W (s) è ovvia-
(n - 2)

mente ȳ = y + du = CcR x + du. Lo schema a blocchi complessivo, che tiene


+
xn-1 = x

+
an-2

conto anche del legame diretto ingresso–uscita, è dato in figura 6.7.

Gli n integratori della catena vista potevano essere numerati anche in


2


maniera diversa. Ad esempio potevano essere numerati in modo casuale;


(n - 1)

questo avrebbe portato però ad una struttura meno regolare delle matrici
+
an-1
xn=x

A, B, C. Un’altra numerazione comoda degli integratori è da sinistra verso


destra:
1


x1 = x(n−1)
(n)

x2 = x(n−2)
x

... (6.31)
-
u +

xn−1 = ẋ
xn = x
Figura 6.6
che porta alle equazioni:
340 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 341

ẋ1 = −an−1 x1 + · · · − a0 xn + u
ẋ2 = x1
..
.

y
ẋn−1 = xn−2

+
ẋn = xn−1
+

y
y = bn−1 x1 + · · · + b0 xn ,

a0
b0
e dunque

x1
+
+

      
ẋ1 −an−1 −an−2 · · · −a1 −a0 x1 1


 ẋ2   1 0 ··· 0 0   x2   0 
      
 ẋ3  =  ···   x3  +  0  u

+
x2 x1 0 1 0 0
 .    .   . 

+
.

 ..   .. .. .. .. ..   ..   .. 

a1
b1

. . . . .
+
+

ẋn 0 0 ··· 1 0 xn 0
 
x1


  x 
 2
+
x3 x2

+ · · · b0  x3 

.

a2
b2

y= bn−1 bn−2 bn−3 .


d

 ... 
+
+

xn

Anche questa terna di matrici viene detta forma canonica compagna rag-
giungibile (cfr. capitolo 1), anche se è meno usata della precedente.
xn-1 xn-2

+
+
bn-2

an-2
.

La struttura della forma canonica compagna raggiungibile è facile da


+

ricordare, ed è facilmente generalizzabile al caso (6.9) di più ingressi e più


+

uscite.


Nello schema di figura 6.7, in cui è messo in evidenza anche il legame


diretto ingresso–uscita, si può notare che l’ingresso entra solo nel primo
xn xn-1

+
+
bn-1

an-1

integratore e l’uscita è data dalla combinazione lineare delle uscite di tutti


.

gli integratori. Una variante di questo schema, in cui l’ingresso entra in


tutti gli integratori e l’uscita è presa dall’uscita dell’ultimo integratore, è
mostrato in figura 6.8, in cui i guadagni pi in generale non sono uguali ai


coefficienti bi , ma sono ottenibili da essi come soluzione di un’equazione


algebrica lineare. Dallo schema di figura 6.8 si trova:
xn
.

ẋ1 = x2 + p1 u
-
+

ẋ2 = x3 + p2 u
u

..
.
Figura 6.7 ẋn−1 = xn + pn−1 u
342 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 343

ẋn = −a0 x1 + · · · − an−1 xn + pn u


y = x1

y
e derivando n volte l’uscita si ha:

+
+
y = x1

x1= y

a0
ẏ = x2 + p1 u
ÿ = x3 + p2 u + p1 u̇


..
.

x1
.
y (n−1) = xn + pn−1 u + pn−2 u̇ + · · · + p1 u(n−2)

p1

+
+
y (n) = −a0 x1 + · · · − an−1 xn + pn u + pn−1 u̇ + pn−2 ü + · · · + p1 u(n−1)

x2 +

+
a1
per cui:


y (n) + an−1 y (n−1) + · · · + a2 ÿ + a1 ẏ + a0 y =

x2
= (a1 p1 + a2 p2 + · · · + an−1 pn−1 + pn )u+

.
p2
+ (a2 p1 + · · · + an−1 pn−2 + pn−1 )u̇+

+
+
x3 +

+
a2
+ · · · + p1 u(n−1) .
Considerando la trasformata di Laplace di ambo i membri, con condizioni
iniziali al solito nulle, e confrontando i coefficienti del secondo membro con

xn- 2
il numeratore della (6.25), è necessario che:

.
pn -1

+
p1 = bn−1

xn-1+

+
an- 2
an−1 p1 + p2 = bn−2
..


.
a2 p1 + · · · + an−1 pn−2 + pn−1 = b1

xn -1
.
a1 p1 + a2 p2 + · · · + an−1 pn−1 + pn = b0

pn-1

+
+

+
xn +

an- 1
che rappresenta un sistema di n equazioni nelle n incognite p1 , · · · , pn ,
riscrivibile in forma matriciale:
 1 0   p1   bn−1 


0 ··· 0
 an−1 1 · · · 0 0   p2   bn−2 
 . ..     

xn
.
 . .. . . ..  .   . 
 . . . . .   ..  =  ..  ,

pn
    

-
a3 · · ·

u
a2 1 0 pn−1 b1
a1 a2 · · · an−1 1 pn b0 Figura 6.8
344 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 345

in cui la matrice dei coefficienti, che è una forma particolare della cosiddetta
matrice di Toeplitz, e in cui le colonne sono ottenute dai coefficienti del

y
polinomio caratteristico spostando in basso di uno la colonna precedente,

+
d
ha determinante pari ad uno ed è quindi invertibile. In tal modo si possono

+
calcolare i coefficienti che compaiono nello schema 6.8. È ovvio che, sebbene

xn = y
indicate con lo stesso simbolo, le variabili di stato negli schemi 6.7 e 6.8 non
sono le stesse. Le matrici dinamiche A sono le stesse, ma le matrici B e C
sono diverse, e le variabili (6.28) sono legate a quelle dello schema 6.8 da
una matrice di trasformazione T che lascia inalterata la matrice dinamica,


ossia tale che
T AT −1 = A = AcR ,

xn
.
bn-1

an-1
+

-
ossia tale che commuti con la matrice dinamica:

xn
T A = AT.


Per calcolare T si può utilizzare la (6.21), per cui T = Rc R−1 , con Rc

xn-2 + xn-1
.
la matrice di raggiungibilità relativa alla realizzazione (AcR , BcR , CcR ) e R

bn-2

an-2
quella relativa ad (A, B, C).

-
Forma canonica compagna osservabile. Si riconsideri la funzione di trasfe-
rimento (6.25), che può essere riscritta nella seguente maniera:

(sn + an−1 sn−1 + · · · + a0 )y(s) = (bn−1 sn−1 + · · · + b0 )u(s),

x3
.

a2
b2

x2 +
-
ovvero:
   
sn y(s) + an−1 y(s) − bn−1 u(s) sn−1 + · · · + a0 y(s) − b0 u(s) .


Dividendo per sn e risolvendo rispetto a y(s):

x2
.
b1

a1
1  1 

x1 +
-
y(s) = bn−1 u(s) − an−1 y(s) + · · · + b0 u(s) − a0 y(s) , (6.32)
s sn


in cui si nota che i termini 1i rappresentano le funzioni di trasferimento di
s
catene di i integratori. Si costruisce dunque immediatamente uno schema

x1
.
di simulazione associato alla (6.32).

a0
b0
u

-
L’uscita y è riportata indietro ad ogni integratore, mentre l’ingresso
u viene portato in avanti. Il segnale bi u − ai y passa poi attraverso n − i
integratori, come richiede la (6.32). Numerando le variabili di stato in Figura 6.9
figura 6.9 da sinistra a destra, si ottengono le equazioni differenziali:
346 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 347

ẋ1 = −a0 xn + b0 u  
x1
ẋ2 = x1 − a1 xn + b1 u  

x2 

··· 0 0  .
..
.. y= 1 0  . 
. x 
n−1
ẋn−1 = xn−1 − an−2 xn + bn−2 u xn
ẋn = xn−1 − an−1 xn + bn−1 u
y = xn . Forma canonica di Jordan. Un’altra realizzazione di una funzione di trasfe-
rimento è la forma canonica di Jordan, cosı̀ chiamata perché si basa sulla
In forma matriciale esse si scrivono: matrice di Jordan. Nel caso semplice di autovalori reali e distinti la funzione
       di trasferimento può essere espansa in funzioni parziali:
ẋ1 0 ··· 0 0 −a0 x1 b0
 ẋ2   1 · · · 0 0 −a1   x2   b1  r1 rn
 .  . . ..      W (s) = K(s) + d = + ··· + + d,
 . =. . .. ..  .   .  s − λ1 s − λn
 .  . . . . .   ..  +  ..  u
 ẋ   0 · · · 1 0 −a x  b 
n−1 n−2 n−1 n−2 con ri i residui della funzione di trasferimento K(s).
ẋn 0 · · · 0 1 −an−1 xn bn−1 Lo schema a blocchi è dato in figura 6.10. I residui ri sono stati fattor-
 
x1 izzati nei prodotti ci−1 bi−1 = ri , i = 1, · · · , n. Identificando le uscite degli
  x 
 .2 
integratori con le variabili del sistema, si hanno le equazioni:
y = 0 0 · · · 0 1  ..  

x  ẋ1 = λ1 x1 + b0 u
n−1
..
xn .
essendo le matrici A, B, C la particolarizzazione delle (6.10) al caso p = 1. ẋn = λn xn + bn−1 u
Numerando viceversa le variabili di stato da destra a sinistra si otten- y = c0 x1 + · · · + cn−1 xn
gono le equazioni:
per cui si ottiene:
ẋ1 = x2 − an−1 x1 + bn−1 u    
ẋ2 = x3 − an−2 x1 + bn−2 u λ1 · · · 0 b0  
. . .
.. AJ =  .. . . . ..  , BJ =  ..  , CJ = c0 · · · cn−1 ,
. 0 · · · λn bn−1
ẋn−1 = xn − a1 x1 + b1 u
assieme ovviamente allo scalare d.
ẋn = −a0 x1 + b0 u
y = x1 Se qualche autovalore è complesso (e coniugato): λi = −αi + jωi ,
λi+1 = −αi − jωi , la realizzazione di figura 6.10 è solo concettuale, ma non
e dunque: fisicamente realizzabile. In effetti quello che è realizzabile è la funzione di
trasferimento:
   −a 1 0 ··· 0   x1   bn−1 
ẋ1 n−1
ri ri+1 rai + jrbi rai − jrbi
 ẋ2   −an−2 0 1 ··· 0   x2   bn−2  Hi (s) = + = + =
   . ..      s − λi s − λi+1 s + αi − jωi
 .. = . .. .. . .  .   .  s + αi + jωi
 .   . . . . .   ..  +  ..  u
 ẋ   x    2[rai s + (rai αi − rbi ωi )]
n−1 −a1 0 0 ··· 1 n−1 b1
= ,
ẋn −a0 0 0 ··· 0 xn b0 s2 + 2αi s + (αi2 + ωi2 )
348 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.8. Schemi di simulazione associati alle realizzazione 349

 
1 1
ri+1 ), la trasformazione di coordinate Ti = , per cui Ti−1 =
  j −j
d 1/2 −j/2
.
1/2 j/2
+
.
x1  x1 Nel caso poi di autovalori non tutti distinti, lo sviluppo in frazioni
b0 c0
+
parziali è del tipo:

λ1
+
+ (
r
ri1 ri2 riµi
u y y W (s) = K(s)+d = Ki (s), Ki (s) = + +· · ·+ ,
.. +
i=1 s − λi (s − λi )2 (s − λi )µi
.. +
.
+ xn
.  xn essendo r gli autovalori distinti e µi la loro molteplicità algebrica.
bn-1 cn-1 A ciascuna funzione di trasferimento Ki (s) corrisponde uno schema
+
realizzativo del tipo in figura 6.11, costituito da µi integratori. Ogni inte-
gratore è un sistema del primo ordine, con una funzione di trasferimento
λn 1 .
s − λi
Con una numerazione da destra a sinistra, si ottengono le seguenti
Figura 6.10 equazioni:
ẋi1 = λi xi1 + xi2
ad esempio con uno schema a blocchi corrispondente alla realizzazione:
ẋi2 = λi xi2 + xi3
       ..
ẋi 0 1 xi 0 .
= + u
ẋi+1 −(αi2 + ωi2 ) −2αi xi+1 1
   ẋiµi = λi xiµi −1 + u
xi
y= 2(rai αi − rbi ωi ) 2rai y = ri1 xi1 + · · · + riµi xiµi
xi+1
e dunque la realizzazione:
ovvero:       
ẋi −αi −ωi xi 2rai
ẋi+1
=
ωi −αi xi+1
+
−2rbi
u
   
λi 1 ··· 0 0
  
0
xi  .. .. 
.  
y= 1 0  0 λi . . 
xi+1 AJ i =  .. , BJ i = .
 . , CJ i = ri1 · · · riµi .
 .
..
. 1 0
quest’ultimo ottenuto applicando alla terna che fornisce la realizzazione: 0 ··· 0 λi 1
     
−αi + jωi 0 rai + jrbi
AJ i = , BJ i = , CJ i = 1 1 ,
0 −αi − jωi rai − jrbi Con una numerazione da sinistra verso destra AJ i avrebbe avuto gli 1
 T
sotto la diagonale principale e BJ i = 1 0 · · · 0 0 , mentre CJ i =
in forma di Jordan della funzione Hi (s) (si noti che BJ i , CJ i potevano  
essere definite diversamente, operando qualsiasi altra fattorizzazione di ri , riµi · · · ri1 .
6.9. Esercizi e problemi 351

6.9. Esercizi e problemi

Esercizio 6.21. Mostrare che la funzione di trasferimento corrispondente


alla realizzazione:
     
A11 0 0 C1
, , ,
A21 A22 B C2
non dipende da A11 , A21 , C1 , mentre quella relativa a
     
A11 A12 B1 0
, , ,
0 A22 B2 C
non dipende da A11 , A12 , B1 .

Soluzione. Nel primo caso la funzione di trasferimento vale:


 −1  
sI − A11 0 0
W (s) = ( C1 C2 ) =
−A21 sI − A22 B
  
(sI − A11 )−1 0 0
= ( C1 C2 )
(sI − A22 )−1 A21 (sI − A11 )−1 (sI − A22 )−1 B
= C2 (sI − A22 )−1 B

e non dipende da A11 , A21 , C1 . Si noti che nell’inversa (sI − A)−1 gli
elementi di posto (1, 1), (2, 2) e (1, 2) si calcolano immediatamente, mentre
non è necessario calcolare quello di posto (2, 1).
Analogamente nel secondo caso si trova W (s) = C(sI − A22 )−1 B2 che
non dipende da A11 , A12 , B1 .

Problema 6.1. Verificare che la seguente terna di matrici:


   
0 1 2 0
A = 0 0 −2  B =  −1  C = (1 1 1)
0 0 0 1

costituisce una rappresentazione del sistema connesso individuato da

K(t) = −t(t + 1) t ∈ [0, ∞).


Figura 6.11
352 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato 6.9. Esercizi e problemi 353

Problema 6.2. Verificare che la seguente terna di matrici: Problema 6.4. Determinare quali tra le seguenti terne di matrici (D = 0)
    rappresentano dei sistemi connessi:
1 1 0 0    
A = 0 1 0 B = 1 C = (1 0 1) 0 0 0 1  
1 0 0
0 0 −2 1 A= 1 1 1 , B =  1 , C= ,
0 2 1
−2 −2 −2 −2
costituisce una rappresentazione del sistema connesso individuato da    
1 0 0 0  
 t  A= 0 0 1 , B = 1, C=
1 1 1
,
e (t + 1) 1 1 1
K(t) = t ∈ [0, ∞). −2 −1 1 1
tet + e−2t
   
0 1 1 1 0 0
Problema 6.3. Determinare una rappresentazione per i sistemi individuati A =  −1 2 −1  , B =  0 1 1, C = (0 1 0),
dai nuclei seguenti: −1 −1 3 0 0 1
     
s+2 1 1 1 1 0 1 0 0
K(s) =
s2 + 3s + 2 A =  −1 −1 −1  , B =  −1 1 , C = 0 1 0 .
1 2 2 2 0 −1 0 0 2
K(s) =
s3 + 2s + 2
  Problema 6.5. Determinare l’ordine delle rappresentazioni ridotte del sis-
1 tema connesso individuato dal nucleo seguente:
 (s + 1)(s + 2) 
K(s) =      
s+3
1 −1 1 0 1 1
s(s + 1) K(s) = +
−2 2 s 1 −3 s2
 
1 1
K(s) =  s + 1 s+2
1 0 Problema 6.6. Determinare l’ordine delle rappresentazioni ridotte del sis-
s tema connesso individuato dal nucleo seguente:
 
K(s) = s2 + 1 s K(t) = et + e−t
s(s2 + 3s + 2) s2 + 3s + 2

K(t) = ( e−t sen 4t )


Problema 6.7. Determinare l’ordine delle rappresentazioni ridotte del sis-
  tema individuato dalla seguente terna di matrici:
2
K(t) = t3 t4    
t t
1 1 −1 1
2 1 A =  −2 −2 2  B = 1 C = (2 1 0)
K(t) = 1 + 2t + 2t2 + t3 + t4 + . . . 0 1 0 0
3 3
354 6. Modelli ingresso–uscita lineari e rappresentazioni con lo stato

Problema 6.8. Determinare una rappresentazione ridotta del sistema del


problema precedente.

Problema 6.9. Determinare una rappresentazione ridotta per il sistema


connesso individuato dal nucleo seguente:
 
s+1 1
 s2 + s + 1 s(s + 2) 
K(s) =  
0 0
0 0

Problema 6.10. Determinare una rappresentazione ridotta per il sistema


connesso individuato dal nucleo seguente:
7. La stabilità dei sistemi dinamici
 
1 s
 s+2 s +1 
2
K(s) =  
s 1
s2 + 1 s(s + 2)
La teoria della stabilità dei sistemi di equazioni differenziali rappre-
senta storicamente un primo esempio di analisi qualitativa, ossia di analisi
Problema 6.11. Determinare una rappresentazione ridotta per il sistema che studia le proprietà di un sistema senza utilizzare la descrizione quanti-
connesso individuato dal nucleo seguente: tativa delle soluzioni.
Con riferimento alla descrizione ingresso–stato–uscita di un sistema
K(t) = −2t3 e−t sen 2t dinamico, si possono definire problemi di stabilità interna, relativi alle
evoluzioni nello spazio di stato, e di stabilità esterna, relativi alle uscite.
Quando la rappresentazione in esame è il modello di sistema fisico reale,
Problema 6.12. Determinare una rappresentazione ridotta per il sistema la proprietà di stabilità interna è quella significativa, in quanto le variabili
connesso individuato dal nucleo seguente: fisiche rappresentano delle grandezze fisiche che debbono soddisfare requi-
  siti di limitatezza, indipendentemente dai valori osservati delle uscite.
K(t) = 1 + −3tt + t2 t3 (sen 3t + cos 3t)
e
7.1. Sistemi a tempo continuo
Problema 6.13. Determinare una rappresentazione per il sistema individ-
uato dal nucleo seguente: Assegnata una dinamica non lineare
   
K(t) = t2 e−2t + 1 4 ẋ(t) = f x(t), u(t)

ed uno stato di equilibrio xe ∈ X, tale cioè che


Problema 6.14. Determinare una rappresentazione per il sistema individ-
uato dal nucleo seguente: f (xe , 0) = 0, (7.1)
 
K(t) = t2 e−2t + 1 42 come noto la stabilità semplice di xe rappresenta una proprietà che valuta
t
se le evoluzioni perturbate, ossia che partono da stati x0 prossimi ad xe ,
356 7. La stabilità dei sistemi dinamici 7.1. Le funzioni di Lyapunov 357

risultano essere confinati in un intorno di xe per tutti gli istanti di tempo L’idea di introdurre una funzione scalare dello stato e di valutarne la
successivi a quello iniziale. La stabilità asintotica di xe è poi quella pro- variazione lungo il moto per trarre informazioni sulla stabilità di uno stato
prietà che valuta non solo se le evoluzioni perturbate rimangono confinate, d’equilibrio, è legata a considerazioni di carattere energetico.
ma se convergono ad xe per tempi infinitamente grandi. Se queste pro-
L
prietà non dipendono dall’istante di tempo iniziale, al quale si fa iniziare
l’evoluzione del sistema, si parla di uniformità rispetto al tempo. Infine
la stabilità esponenziale di un punto di equilibrio è quella proprietà per i( t )
la quale, se verificata, le evoluzioni perturbate sono confinate e tendono a R(i)
xe secondo una legge maggiorabile da un esponenziale. Si ricorda poi che
per le rappresentazioni lineari quest’ultima proprietà equivale alla stabilità
asintotica uniforme; in generale però essa è una proprietà più forte della CT
stabilità asintotica. Figura 7.1 – Rete elettrica RLC

7.1.a. Studio della stabilità mediante le funzioni di Lyapunov Si consideri ad esempio la rete elettrica di figura 7.1, in cui L e C sono
costanti, mentre la resistenza è una funzione non lineare dell’intensità di
Consideriamo ora una rappresentazione differenziale di un sistema re- corrente i. Assumendo come variabili di stato la carica x1 = q e l’intensità
golare a dimensione finita e stazionario del tipo: di corrente x2 = i = q̇ nel circuito, le equazioni che descrivono il sistema
sono:
  ẋ1 = x2
ẋ(t) = f x(t) . (7.2)
1 1
ẋ2 = − x1 − R(x2 )x2 .
Il metodo di Lyapunov, come noto, fornisce condizioni sufficienti per l’analisi LC L
della stabilità dei punti di equilibrio di questa rappresentazione differenziale
Questa è una rappresentazione differenziale non lineare. Si voglia ora stu-
stazionaria non lineare. Esso si basa sulla determinazione di una funzione
diare la stabilità dell’origine dello spazio di stato associato a tale rapp-
scalare V : IRn → IR, definita positiva in un opportuno intorno della stato
resentazione. A tal fine si consideri la funzione che rappresenta l’energia
di equilibrio xe , e nel calcolo della sua derivata V̇ (x) lungo le traiettorie
immagazzinata nel circuito:
del sistema avente rappresentazione (7.2). È noto che se in un tale intorno
V̇ (x) è semidefinita (definita) negativa allora xe è stabile (asintoticamente 1 1
stabile). E(x) = x21 + Lx22 .
2C 2
Si sottolinea il fatto che V̇ (x) viene calcolata lungo le traiettorie del
sistema avente la rappresentazione (7.2), ossia: Essa è definita positiva, com’è ovvio essendo una funzione energia, e la sua
derivata lungo il moto è:
dV (x) (
n
∂V (x) ∂V (x)  
V̇ (x) = = ẋi = f x(t) . (7.3) 1
dt i=1 ∂xi ∂x Ė = x1 ẋ1 + Lx2 ẋ2 = −R(x2 )x22 .
C
Si osservi inoltre che, in assenza di ulteriori proprietà, xe risulta solo Si vede allora che se R(x2 ) è positiva per ogni x2 , allora l’energia decresce
localmente stabile (asintoticamente o meno). Se però le funzioni V (x) e lungo ogni traiettoria non identicamente nulla, e tende dunque a zero per
V̇ (x) sono definite rispettivamente positive e negative in tutto lo spazio di t tendente all’infinito. In tal caso lo stato tende all’origine dello spazio di
stato X, e se V (x) è radialmente illimitata,(7.1) allora xe risulta essere stabile stato, che quindi risulta essere un punto di equilibrio globalmente asintoti-
globalmente asintoticamente. camente stabile.
Se invece R(x2 ) è nulla per ogni x2 , ossia se il sistema non presenta
(7.1)
Una funzione scalare V (x) si dice radialmente illimitata se lim V (x) = ∞.
x→∞ dissipazioni, l’energia rimane costante e le traiettorie nello spazio di stato
358 7. La stabilità dei sistemi dinamici 7.1. Le funzioni di Lyapunov 359

sono ellissi, e l’origine risulta essere un punto d’equilibrio (semplicemente) Soluzione. Applicando la definizione (7.1), i punti d’equilibrio sono le
stabile. soluzioni del seguente sistema:
Se infine R(x2 ) è negativa per ogni x2 , ossia se la rete è un circuito
attivo, l’energia aumenta col tempo e le traiettorie divengono illimitate per 0 = k1 (x21 − 1)
t → ∞, e l’origine è instabile. 0 = k2 x32
Dunque le proprietà di stabilità dell’origine dello spazio di stato pos-
   
sono essere dedotte dall’analisi della funzione energia e della sua derivata 1 −1
lungo il moto. Questo metodo presenta due difficoltà. La prima è che date da xe1 = , xe2 = . Per lo studio della stabilità di xe1 si
0 0
per sistemi complessi è difficile valutare la funzione energia. La seconda scelga come funzione di Lyapunov la (7.4) con P = I:
è che spesso si conosce solo una rappresentazione matematica del sistema.
D’altra parte la teoria di Lyapunov mostra che non occorre utilizzare pro- V1 (x) = (x − xe1 )T (x − xe1 ) = (x1 − 1)2 + x22 ,
prio la funzione energia, ma che basta considerare funzioni V (x) che godono
delle proprietà della funzione energia. In effetti lo studio della stabilità definita positiva su tutto IR2 e tale che, per u = 0:
dell’origine dello spazio di stato può essere fatto considerando la funzione  
E(x) ignorandone il suo significato in termini di energia. V̇1 (x) = 2(x − xe1 )T ẋ = 2 (x1 − 1)ẋ1 + x2 ẋ2 =
Nell’applicazione del metodo di Lyapunov per lo studio della stabilità    
di un punto d’equilibrio xe , le maggiori difficoltà riguardano la scelta della = 2 k1 (x1 − 1)(x21 − 1) + k2 x42 = 2 k1 (x1 − 1)2 (x1 + 1) + k2 x42
funzione V (x). Una funzione candidata che spesso si rivela adatta in tale
studio è una forma quadratica del tipo: è definita negativa per x1 > −1 se e solo se k1 e k2 sono negativi. Tale
condizione è sufficiente per assicurare la stabilità asintotica locale dello
V (x) = (x − xe )T P (x − xe ), (7.4) stato xe1 .
In maniera analoga, per studiare la stabilità di xe2 si consideri la fun-
zione:
in cui la matrice P è assunta simmetrica e definita positiva. Infatti la forma
V2 (x) = (x − xe2 )T (x − xe2 ) = (x1 + 1)2 + x22 ,
quadratica è definita positiva se e solo se tale è la matrice P corrispondente.
A sua volta P è definita positiva se e solo se la condizione di Sylvester è definita positiva su tutto IR2 . Risulta:
verificata, ossia se e solo se gli n minori principali di ordine 1, 2, · · · , n sono  
positivi: V̇2 (x) = 2(x − xe2 )T ẋ = 2 (x1 + 1)ẋ1 + x2 ẋ2 =
     
   p11 p12 p13  = 2 k1 (x1 + 1)(x21 − 1) + k2 x42 = 2 k1 (x1 + 1)2 (x1 − 1) + k2 x42
 p11 p12  
p11 > 0,  > 0,  p12 p22 p23  > 0, ···, det P > 0.
 p12 p22  
 p13 p23 p33  e la condizione sufficiente per la stabilità asintotica locale di xe2 è che k1 > 0
e k2 < 0.

Esercizio 7.1. Si studi la stabilità degli stati d’equilibrio del sistema: Esercizio 7.2. Studiare la stabilità dell’origine per il seguente sistema non
lineare:
ẋ1 = k2 x1 + x2 u2
ẋ1 = k1 (x21 − 1) + u2
ẋ2 = k1 x3 − x32 + x1 x3 u21
ẋ2 = k2 x32 − x1 u.
ẋ3 = −2x2 − x33 .
360 7. La stabilità dei sistemi dinamici 7.1. Cenni sulla costruzione delle funzioni di Lyapunov 361

Soluzione. Applicando la definizione


  (7.1), si calcolano gli stati di equilib- ma che sotto opportune ipotesi aggiuntive
 diventa sufficiente,
 affinché un
0 vettore di funzioni continue g T (x) = g1 (x) · · · gn (x) sia il gradiente
rio, che risultano essere xe1 =  0 , per qualsiasi valore dei parametri k1 di una funzione scalare è che la matrice:
  0
0  ∂g ∂g1 
 3  8
1
···
e k2 , e xe2 = − α , per k1 = − α , con α ∈ IR, e qualsiasi valore di k2 .  ∂x1 ∂xn 
2 8  . 
 . .. .. 
α  . . . 
Per lo studio della stabilità di xe1 si prenda V (x) = xT x, definita ∂gn
···
∂gn
∂x1 ∂xn
positiva su tutto IR3 , radialmente illimitata e per la quale, con u = 0
risulta:   sia simmetrica(7.2) . Le funzioni g1 (x), · · · , gn (x) dovranno quindi essere scelte
V̇ (x) = 2xT ẋ = 2 k2 x21 + (k1 − 2)x2 x3 − x42 − x43 . in accordo a questo criterio. Ad esempio possono essere scelte del tipo:

Per k1 = 2 e k2 negativo questa funzione è definita negativa su tutto IR3 e gi (x) = ai1 x1 + · · · + ain xn
dunque per tali valori dei parametri lo stato zero è asintoticamente global-  
mente stabile. con aij parametri da fissare. Si calcolano poi V̇ (x) = g T (x)f x(t), 0 e
Si noti che una diversa funzione di Lyapunov permette di effettuare V (x), osservando per quest’ultima che, essendo g T (x) dx = dV (x) e poiché
un’analisi più precisa. Se infatti si sceglie: g1 (x) dx1 + · · · + gn (x) dxn è una forma differenziale esatta, allora
 x
2
V (x) = x21 + x22 + x23 V (x) = g(x) dx (7.5)
k1 0

si ha:   indipendentemente dal percorso scelto per andare dallo stato 0 allo stato
2
V̇ (x) = 2 k2 x21 − x42 − x43 , x. Una volta calcolate V (x) e V̇ (x) si cerca di fissare i parametri in modo
k1 da soddisfare il teorema di Lyapunov.
da cui risulta che per ogni valore di k2 negativo e k1 positivo l’origine dello
spazio di stato è asintoticamente globalmente stabile. Esercizio 7.3. Studiare la stabilità dell’origine dello spazio di stato del
seguente sistema del secondo ordine:
7.1.b. Cenni sulla costruzione delle funzioni di Lyapunov ẋ1 = x2
La scelta di un’opportuna funzione (7.4) che permetta di decidere ẋ2 = −x2 − x31 .
se un punto di equilibrio è stabile dipende fortemente dalle capacità in-  
0
dividuali. Tuttavia il metodo del gradiente variabile (Schultz e Gibson, Soluzione. Si verifica subito che xe = è l’unico stato di equilibrio. Si
  0
1962) può fornire risultati utili in molti casi pratici, in quanto permette
di costruire un’opportuna funzione di Lyapunov. Questo metodo si basa a1 x1 + a2 x2
scelga g(x) = , con a1 , a2 , a3 e a4 genericamente funzioni
sull’osservazione che la derivata di V (x) lungo le traiettorie del sistema può a3 x1 + a4 x2
∂V (x) di x1 ed x2 . Si vede che la condizione di simmetria:
essere scritta nella forma (7.3), in cui = grad V (x), e consiste nel fis-
∂x ∂a1 ∂a2 ∂a3 ∂a4
sare una funzione gradiente avente alcuni parametri da fissare in modo tale x1 + a2 + x2 = a3 + x1 + x2
che V (x) e V̇ (x) godano delle proprietà richieste dal teorema di Lyapunov. ∂x2 ∂x2 ∂x1 ∂x1
Per fissare un vettore di funzioni che rappresenti il gradiente di una (7.2)
A. Ghizzetti e F. Rosati, Lezioni di Analisi Matematica, Vol. 2, Veschi Editore, pp. 203
funzione scalare, si ricorda che la condizione, in generale solo necessaria e ss., 220 e ss., 235 e ss., Roma, 1982.
362 7. La stabilità dei sistemi dinamici 7.1. Studio della stabilità mediante l’approssimazione lineare 363

e quella: Esercizio 7.4. Assegnato il sistema


T
V̇ (x) = g (x)f (x) = a1 x1 x2 + − (x2 + x31 )(a3 x1 +
a2 x22 a4 x2 ) = 1
ẋ1 = cos x1 − √
= x1 x2 (a1 − a3 − a4 x21 ) − (a4 − a2 )x22 − a3 x41 < 0 2
sono contemporaneamente soddisfatte scegliendo a1 = a3 + a4 x21 e a2 , a3 e ẋ2 = x22 + 2cos 2 x1
a4 costanti tali che a4 > a2 = a3 > 0. studiare la stabilità degli stati di equilibrio.
x2
Soluzione. Gli stati di equilibrio sono tutti i vettori la cui prima compo-
nente è pari a ± π + 2kπ (k intero) e la seconda è pari a ±1, cioè tutti i
4
vettori del tipo:
π   π 
+ 2kπ − + 2kπ
x1 xke1 = 4 , xke2 = 4 ,
1 1
π   π 
Figura 7.2 – Percorso di integrazione + 2kπ − + 2kπ
xke3 = 4 , xke4 = 4 .
−1 −1
Per il calcolo di V (x) si applica la (7.5) avendo scelto come percorso
quello in figura 7.2: Il calcolo dell’approssimazione lineare della funzione non lineare nell’intorno
 x1  x2 del generico stato di equilibrio, fornisce:
V (x) = 3
(a3 x1 + a4 x1 ) dx1 + (a3 x1 + a4 x2 ) dx2 =    
˙ξ = J(x) ξ = −sen x1 0 
0 0
 ξ,
1 xei −4 sen x1 cos x1 −2x2 
= (a4 x41 + 2a3 x21 + 4a3 x1 x2 + 2a4 x22 ) = xei
4 
1 i = 1, · · · , 4, dove J(x) è la matrice jacobiana.
= a4 x41 + 2a3 (x1 + x2 )2 + 2(a4 − a3 )x22 , Con riferimento ai quattro insiemi di stati di equilibrio si ottengono i
4
seguenti sistemi lineari stazionari:
definita positiva su tutto IR2 . Inoltre risulta radialmente illimitata e V̇ (x)  √   √ 
è definita negativa in tutto IR2 . Quindi l’origine dello spazio di stato è −2 2 0 2 2 0
ξ˙1 = ξ1 , ξ˙2 = ξ2 ,
stabile asintoticamente globalmente. −2 −2 2 −2
 √   √ 
−2 2 0 2 2 0
7.1.c. Studio della stabilità mediante l’approssimazione ξ˙3 = ξ3 , ξ˙4 = ξ4 .
−2 2 2 2
lineare
Poiché la stabilità asintotica (instabilità) del sistema lineare approssimante
La stabilità locale degli stati di equilibrio della rappresentazione (7.2) implica la stabilità (instabilità) asintotica locale dello stato di equilibrio
può essere studiata, nel caso di esistenza di derivate parziali prime della corrispondente, per il caso in esame si ha che:
funzione f , analizzando gli autovalori del sistema lineare
– gli stati di equilibrio xke1 sono stabili localmente asintoticamente, es-
˙ = Aξ(t),
ξ(t) sendo gli autovalori della matrice dinamica √del sistema lineare approssi-
in cui la matrice A è lo jacobiano della matrice f calcolato nel punto di mante, nell’intorno di tali stati, pari a −2 2 e −2 e quindi a parte reale
equilibrio xe . Infatti se tutti gli autovalori di A sono a parte reale minore di negativa;
zero, xe è stabile asintoticamente (localmente). Se viceversa ve n’è almeno – gli stati di equilibrio dei tipi xke2 , xke3 e xke4 sono instabili in quanto
uno a parte reale maggiore di zero, xe è instabile. sono instabili i sistemi lineari approssimanti.
364 7. La stabilità dei sistemi dinamici 7.1. Ulteriori considerazioni sulla stabilità asintotica globale 365

 
Esercizio 7.5. Si studi la stabilità dei punti di equilibrio del sistema (2.11), 0
 α3  8
che rappresenta l’interazione preda–predatore tra due specie di densità x1 Soluzione. Come già notato xe =  − , con k1 = − α8 , α ∈ IR,
e x2 . 2
α
Soluzione. Com’è immediato verificare risulta: sono punti di equilibrio. Si calcola poi:
   
  a2 k2 0 0
0
xe2 =  a a ηb
.  0
J(xe ) =  3
− α6 −α
8 
8 ,
xe1 = ,
0 1 2 1− 1 4
ηb k 0 −2 −3α2

I vari coefficienti che compaiono nelle (2.11) sono tutti positivi. Si noti e dunque gli autovalori sono dati dall’equazione:
che perché esista uno stato di equilibrio significativo per il modello è ne-
cessario che k > xe21 = a2 , ossia che la capacità portante della preda sia * +
ηb  α4 
sufficientemente alta per poter resistere al predatore. (λ − k2 ) λ2 + 3α2 + 1 λ + 2α8 = 0.
4
Lo studio della stabilità locale dei punti di equilibrio può essere con-
dotto con la tecnica della linearizzazione. Poiché:
Qui si può constatare che se k2 è negativo, un autovalore è a parte reale
  minore di uno; gli altri due autovalori, però,
  − a1 a2 − aη2  sono
4
sempre
 a parte reale
J(xe1 ) =
a1 0
, J(xe2 ) =   kηb  , minore di zero, in quanto i coefficienti 3α2 α + 1 , 2α8 sono sempre
−a2 4
0 a1 η 1 − 1 a2 0 positivi (criterio di Cartesio). Dunque xe è stabile.
k ηb

si vede immediatamente che xe1 è instabile. Per quanto riguarda xe2 si 7.1.d. Ulteriori considerazioni sulla stabilità asintotica globale
trova che

a1 a2  1 a2 
Un altro valido e semplice strumento di analisi della stabilità di un
|λI − J(xe2 )| = λ2 + λ + a1 a2 1 − = 0. punto di equilibrio è il teorema di Krasovskii, il quale fornisce una con-
kηb k ηb dizione sufficiente di stabilità asintotica globale dell’origine dello spazio di
stato. Inoltre, accanto a risultati riguardanti la stabilità, si ricorda che
Le soluzioni di tale equazione hanno parte reale negativa in quanto (criterio esistono risultati, come il teorema di Chetaev, che permettono di dedurre
di Cartesio): l’instabilità di un punto di equilibrio.
a1 a2  1 a2 
>0 e a1 a2 1 − >0
kηb k ηb Esercizio 7.7. Studiare la stabilità asintotica globale dello stato zero del
seguente sistema non lineare:
sono verificate in virtù della condizione k > a2 . Si ha quindi stabilità
ηb
asintotica locale per lo stato di equilibrio xe2 . ẋ1 = −x1 + x3 u1 u2
ẋ2 = −x2 − x32 + k1 x3 + u1
Esercizio 7.6. Si consideri nuovamente l’esercizio 7.2. Studiare la stabilità ẋ3 = k2 x2 − x3 − x33 .
dei punti di equilibrio diversi dall’origine.
366 7. La stabilità dei sistemi dinamici 7.1. Ulteriori considerazioni sulla stabilità asintotica globale 367

Soluzione. Lo stato zero è uno stato d’equilibrio isolato, poiché lo jaco- Inoltre V (x) risulta positiva nei punti della retta x2 = 0 che hanno xe2 come
biano J(x)x=0 è non singolare. Inoltre lo stato zero è l’unico stato di punti di accumulazione. Ora il teorema di Cetaev afferma che uno stato di
equilibrio. Un primo studio della sua stabilità può essere condotto utiliz- equilibrio xe della rappresentazione (7.2) è instabile se esiste una funzione
zando il teorema di Krasovskii. In base ad esso data una rappresentazione V (x) (non necessariamente definita positiva) differenziabile con continuità e
(7.2), con f (x) dotata di derivate parziali prime continue, se esiste una tale che V (xe ) = 0, V (x0 ) > 0 per qualche x0 con xe −x0  arbitrariamente
costante α > 0 tale che per ogni x gli autovalori della matrice J(x) + J T (x) piccolo, per cui risulta V̇ > 0 nell’insieme U = {x ∈ Br |V (x) > 0}, essendo
hanno parte reale inferiore a −α, allora lo stato di equilibrio xe = 0 è stabile Br = {x ∈ IRn tale che x < r}, r > 0. Le precedenti due condizioni su
asintoticamente globalmente. Per il sistema in esame si ha: V (x) e sulla sua derivata sono pertanto condizioni sufficienti perché xe2 sia
  instabile.
−1 0 0
J(x) =  0 −3x22 − 1 k1 
Esercizio 7.9. Mostrare che per k1 < 0 l’origine dello spazio di stato è un
0 k2 −3x23 − 1 punto di equilibrio instabile per il sistema considerato nell’esercizio 7.2.
e dunque
  Soluzione. Considerata la funzione
−2 0 0
J(x) + J T (x) =  0 −6x22 − 2 k1 + k2  1 2
0 k1 + k2 −6x23 − 2 V (x) = x21 + x22 + x23 ,
k2 k1
ha un autovalore indipendente da x e pari a λ1 = −2, mentre gli altri, per
k1 = −k2 , risultano essere λ2 = −6x22 − 2, λ3 = −6x23 − 2, i quali hanno tale che V (0) = 0 e positiva in tutto IR3 = U , poiché:
parte reale inferiore a −α = 2 > 0. Questa ovviamente è una condizione * +
sufficiente di stabilità asintotica globale. 2
V̇ (x) = 2 x21 − x42 − x43 ,
k1
Esercizio 7.8. Verificare che nell’esercizio 7.1 il punto xe2 risulta instabile
quando si pone k1 = −k̄1 < 0 e k2 = −k̄2 < 0.
si trova che V̇ (x) > 0 in alcuni settori del piano x2 , x3 .
x3
Soluzione. Si consideri la funzione

V (x) = (x − xe2 )T P (x − xe2 ) = (x1 + 1)2 + αx22


+ +
 
1 0 tg ϕ = α
ove P = , α = k̄1 . Si ha allora:
0 α k̄2 x2
  + +
V̇ (x) = −2k̄1 (x1 + 1)2 (x1 − 1) + x42 ,

che risulta definita positiva


 in unopportuno intorno di xe2 . Infatti, preso
−1 ± ε1 Figura 7.3
un generico stato x̄ = nell’intorno di xe2 , si vede che per ε1 ,
±ε2
ε2 sufficientemente piccoli risulta: ,
Più precisamente, posto α = 42 , si ha la situazione illustrata in figura 7.3.
  k1
V̇ (x̄) = 2k̄1 ε21 (2 ∓ ε1 ) − ε42 > 0. Poiché V̇ > 0 in U , per il teorema di Cetaev ne segue che xe = 0 è instabile.
368 7. La stabilità dei sistemi dinamici 7.1. Cenni sulla stabilità dei sistemi lineari non stazionari 369

7.1.e. Cenni sulla stabilità dei sistemi lineari non stazionari ove a1 , a2 sono costanti dipendenti
-  da .x0 .
In effetti la condizione IRe σ A(t) < −ε, ∀t e con ε > 0, è sufficiente
Quando la funzione generatrice del sistema ha una struttura lineare: per la stabilità asintotica uniforme del sistema (7.6) se A(t) è uniformemente
 
 
limitata ed è a variazione limitata, ossia se esiste un δ tale che  d aij (t) < δ.
ẋ(t) = A(t)x(t) + B(t)u(t), dt
Con il termine uniforme si intende, come noto, che le costanti che compaiono
gli stati di equilibrio risultano essere quelli per cui risulta: non dipendono da t0 .
Nel caso generale non esistono condizioni necessarie e sufficienti per
A(t)xe = 0, ∀t.
la stabilità dell’origine dello spazio di stato del sistema (7.6) valutabili a
Se poi la rappresentazione, oltre ad essere lineare, è anche a dimensione partire dalla rappresentazione esplicita. Nel caso particolare, ma di notevole
finita, la condizione necessaria e sufficiente di stabilità dell’origine dello interesse nelle applicazioni, in cui A(t) è periodica con periodo T : A(t +
spazio di stato è, come noto, la limitazione della norma della matrice di kT ) = A(t), ∀t e per ogni intero k, allora è possibile dare delle condizioni
transizione dello stato da parte di una costante, eventualmente dipendente relativamente semplici. Infatti la matrice di transizione può essere scritta:
dall’istante iniziale:
Φ(t, t0 ) < kt0 , ∀t ≥ t0 , Φ(t, t0 ) = P (t)eR(t−t ) P −1 (t0 ),
0

mentre la condizione necessaria e sufficiente di stabilità asintotica è che dove R è una matrice costante e P (t) è periodica con periodo T . Inoltre
valga la relazione precedente e che la matrice di transizione converga a zero risulta:
per t → ∞: eRT = Φ(T, 0), P (t) = Φ(t, 0)e−Rt
lim Φ(t, t0 ) = 0.
t→∞
e da queste risulta che le matrici P ed R sono definite a partire dalla
Queste due condizioni sono scarsamente significative dal punto di vista matrice di transizione (esistono comunque degli algoritmi di calcolo di P
delle applicazioni in quanto la loro verifica richiede la conoscenza della e Q a partire dalla soluzione, eventualmente numerica, del sistema (7.6)
matrice di transizione dello stato del sistema su di un periodo). Inoltre la condizione di stabilità in un sistema lineare
periodico, se sussiste, è sempre uniforme. Sotto l’ipotesi di periodicità
ẋ(t) = A(t)x(t). (7.6) il sistema (7.6) è uniformemente (asintoticamente) stabile se e solo se gli
autovalori di R con molteplicità geometrica maggiore di uno hanno parte
Inoltre, mentre per le rappresentazioni lineari e stazionarie esse si traducono reale negativa, mentre quelli a molteplicità unitaria hanno parte reale non
in condizioni sugli autovalori, per i sistemi lineari non stazionari la con- positiva (sempre negativa per la stabilità asintotica). La condizione, in
dizione che la parte reale degli autovalori di A(t) sia negativa per ogni is- modo equivalente, può essere formulata con riferimento agli autovalori di
tante t non è sufficiente per la stabilità. Si consideri ad esempio il seguente eRT ; in tal caso è necessario e sufficiente che il loro modulo sia minore di
sistema: uno). In effetti, come già osservato, anche la verifica di questa condizione, è
subordinata alla integrazione, sia pure su un solo periodo [0, T ] della (7.6).
ẋ1 = (−1 − 9cos 2 6t + 12sen 6tcos 6t)x1 + (12cos 2 6t + 9sen 6tcos 6t)x2
Le cose si semplificano ulteriormente per i sistemi periodici in cui A(t)
ẋ2 = (−12sen 2 6t + 9sen 6tcos 6t)x1 − (1 + 9sen 2 6t + 12sen 6tcos 6t)x2
è costante a tratti in ogni periodo, cioè:
i cui autovalori, soluzioni dell’equazione caratteristica λ2 + 9λ + 10 = 0,
A(t) = A1 t0 + kT ≤ t ≤ t1 + kT
sono indipendenti dal tempo e con parte reale negativa. Nonostante ciò il
sistema è instabile, come risulta dall’espressione della soluzione: A(t) = A2 t1 + kT ≤ t ≤ t2 + kT
.. ..
x1 (t) = a1 (cos 6t + 2sen 6t)e2t + a2 (sen 6t − 2cos 6t)e−13t . = .
x2 (t) = a1 (2cos 6t + sen 6t)e2t + a2 (2sen 6t + cos 6t)e−13t A(t) = Am tm−1 + kT ≤ t ≤ tm + kT
7.1. Cenni sulla stabilità dei sistemi lineari non stazionari 371

L’applicazione della condizione enunciata al sistema dinamico lineare


stazionario  
0 1
ẋ = x,
−1 0
con matrice di perturbazione
Figura 7.4  
−k + e−t 0
B(t) = ,
0 e−t cos t
e in tal caso si ha:
consente di verificare in modo molto semplice che si ha stabilità asintotica
Φ(t, t0 ) = eA1 (t−t0 ) t0 ≤ t < t1 per 0 < k < 1. Infatti posto
*   −t +
Φ(t, t0 ) = eA2 (t−t1 ) eA1 (t1 −t0 ) t1 ≤ t < t2
−k 1 e 0
ẋ = + x
.. .. −1 0 0 e−t cos t
. .
il sistema è asintoticamente costante e la condizione di stabilità della parte
ossia:
/
m costante è quella nota.
Φ(t0 + T, t0 ) = eAi (ti −ti−1 ) . Per concludere questo breve esame del caso non stazionario sembra
i=1
utile riportare alcune condizioni sufficienti di stabilità per il caso generale
Per il sistema (7.6) con A(t) periodica costante a tratti si ha stabilità asin- con riferimento alla matrice dinamica A(t). Tali condizioni sono fondate
totica uniforme se e solo se gli autovalori della matrice: sul fatto che, detti λmax (t) e λmin (t) il più piccolo e il più grande auto-
valore di A(t) + AT (t), ogni soluzione della (7.6), soddisfa alla seguente
/
m
diseguaglianza:
eAi (ti −ti−1 ) 0t 0t
λ min (τ ) dτ 1  1 λ max (τ ) dτ
≤ 1x t, x0 , t0 1 ≤ x0 e 2 t
1 1
i=1
x0 e 2 t
0 0 .
hanno modulo inferiore ad uno. Si ha instabilità se ci sono autovalori con Si ha quindi che il sistema sistema (7.6) è
modulo maggiore di uno.
– asintoticamente stabile se:
Una ulteriore situazione di interesse nelle applicazioni è rappresentata  t
dai sistemi del tipo:   lim λ max (τ ) dτ = −∞;
t→∞ t0
ẋ = A(t) + B(t) x
la stabilità è inoltre uniforme se la precedente relazione vale uniforme-
in cui A(t) è o periodica o costante. L’interesse è evidente in quanto B(t) mente rispetto a t0 ;
assume il ruolo di una matrice di perturbazione nei confronti della matrice – stabile se per ogni t0 , esiste M (t0 ):
dinamica A(t) del sistema. Se risulta  t
lim λ max (τ ) dτ < M (t0 ),
lim B(t) = 0 t→∞ t0
t→∞
se M non dipende da t0 la stabilità è uniforme;
il sistema è detto asintoticamente costante se A(t) = A costante; asintot-
icamente periodico se A(t) = A(t + T ) cioè A(t) è periodica. In tal caso – instabile se risulta:
 t
si dimostra che si ha stabilità asintotica se gli autovalori di A hanno parte
reale negativa (caso costante) oppure gli autovalori di eRT hanno modulo lim λ min (τ ) dτ = ∞.
t→∞ t0
minore di uno (caso periodico).
372 7. La stabilità dei sistemi dinamici 7.1. I criteri di Routh e di Hurwitz 373

7.1.f. I criteri di Routh e di Hurwitz Mediante la tabella di Routh cosı̀ costruita, si può determinare il numero
di zeri a parte reale positiva del polinomio d(λ). Infatti il numero di zeri a
I criteri di Routh ed Hurwitz sono metodi algebrici che consentono di parte reale positiva (comprensivo di molteplicità) del polinomio d(λ) è pari
studiare le caratteristiche degli autovalori di una rappresentazione lineare e al numero di variazioni di segno degli elementi della prima colonna della
stazionaria. Il criterio di Routh permette di stabilire se le radici di un dato tabella di Routh.
polinomio Si ricorda infine che nella costruzione della tabella di Routh è pos-
d(λ) = an λn + an−1 λn−1 · · · + a1 λ + a0 (7.7) sibile moltiplicare tutti i coefficienti di una riga per una stessa costante
positiva. Ciò non modifica il criterio e consente di semplificare i calcoli.
sono tutte a parte reale negativa ovvero quante radici sono a parte reale Analogamente, agli stessi risultati si arriva se la variabile λ è sostituita
positiva e quante a parte reale negativa, e quindi può essere soddisfacente- dalla variabile µλ (cambio di scala).
mente applicato al polinomio caratteristico di un sistema per studiarne gli
autovalori senza doverli calcolare esplicitamente. Si supporrà che il termine Esercizio 7.10. Studiare gli zeri del polinomio d(λ) = −2λ3 − λ2 − 4λ − 11.
noto a0 del polinomio (7.7) sia non nullo; in caso contrario è sempre possi-
bile scrivere d(λ) = d1 (λ)λr (essendo a0 = a1 = · · · ar−1 = 0) ed applicare
i ragionamenti che seguono al polinomio d1 (λ), avendo cosı̀ informazioni su Soluzione. La condizione necessaria è soddisfatta. La tabella di Routh è
n − r radici (essendo le altre r radici in zero). poi:
È noto che una condizione necessaria (ma in generale non sufficiente) 3 -2 -4
perché gli zeri del polinomio (7.7) abbiano tutte parte reale negativa, è che 2 -1 -11
i suoi coefficienti abbiano tutti lo stesso segno (ad esempio se an > 0, tutti 1 18
devono essere positivi). Per avere delle condizioni necessarie e sufficienti si 0 -11
deve procedere alla costruzione della tabella di Routh:
per cui d(λ) ha degli zeri a parte reale maggiore di zero (due).

n an an−2 an−4 . . . Esercizio 7.11. Assegnato il polinomio d(λ) = λ5 +λ4 +2λ3 +2λ2 +3λ+15,
. . . ... . .. studiarne gli zeri.
n−1 an−1 an−3 an−5 . . .

n−2 bn−2 bn−4 ···


Soluzione. La tabella di Routh è:
n−3 cn−3 ··· ···
.. .. 5 1 2 3
. . 4 1 2 15
1 3 1 -1
0 2 3 15
1 -4
con 0 15
   
 an an−2   an an−4 
    per cui si ha uno zero a parte reale maggiore di zero.
an−1 an−3 an−1 an−5
bn−2 = , bn−4 = , ···
−an−1 −an−1
Esercizio 7.12. Studiare gli zeri del polinomio d(λ) = λ4 + 2λ3 + 11λ2 +
 
 an−1 an−3  18λ + 18.
 
bn−2 bn−4
cn−3 = , ···
−bn−2
374 7. La stabilità dei sistemi dinamici 7.1. I criteri di Routh e di Hurwitz 375

Soluzione. Nella costruzione della tabella di Routh si noti che la riga 1 Soluzione. Poiché d(λ) è la fattorizzazione dei polinomi λ2 + 1, è facile
risulta nulla. Si ricorda che nel caso in cui la p–esima riga ha elementi tutti vedere che si hanno gli zeri in ±j, con molteplicità doppia.
nulli (p è sempre dispari), la tabella di Routh può essere completata sos- Volendo costruire la tabella di Routh per d(λ) = λ4 + 2λ2 + 1, si noti
tituendo la p–esima riga con i coefficienti del polinomio ottenuto derivando, che la riga 2 risulta nulla. La tabella di Routh è:
rispetto a λ, il polinomio
4 1 2 1
d1 (λ) = αp+1 λp+1 + αp−1 λp−1 + αp−3 λp−3 + · · · , 3 1 1
2 1 1
ove αp+1 , αp−1 , αp−3 , · · ·, sono i coefficienti della riga (p + 1)–esima (ossia 1 1
di quella precedente a quella tutta nulla). In altre parole la riga nulla è 0 1
sostituita con quella avente coefficienti (p+1)αp+1 , (p−1)αp−1 , (p−3)αp−3 ,
etc. Tale situazione corrisponde al fatto che d(λ) può essere fattorizzato in cui il numero di variazioni di segno è nullo. Ciò è concorde con il fatto che
nel prodotto del polinomio d1 (λ) per un altro polinomio d0 (λ): gli zeri sono sull’asse immaginario e non ve ne sono a parte reale positiva.
d(λ) = d1 (λ) d0 (λ). Il criterio di Routh può essere vantaggiosamente applicato per studi-
are polinomi caratteristici i cui elementi dipendono da un parametro, come
La tabella di Routh costruita fino alla riga p + 1 dà informazioni sugli zeri ad esempio il guadagno k. In tal caso, se le condizioni necessarie sono
di d0 (λ), mentre le restanti righe (dalla p–esima in poi) danno informazioni soddisfatte, si otterrà una tabella di Routh in cui gli elementi della prima
sugli zeri di d1 (λ). In particolare, poiché d1 (λ) ha solo potenze pari, i colonna possono dipendere da tale parametro. Occorrerà dunque imporre
suoi zeri sono simmetrici rispetto all’origine. Se il grado di d1 (λ) è basso, che questi elementi siano positivi (se an > 0) ottenendo cosı̀ delle con-
questi zeri possono anche essere direttamente calcolati. È ovvio che se dizioni (necessarie e sufficienti) sul parametro perché il sistema sia stabile
p + 1 = 2 allora d1 (λ) ha gli zeri sull’asse immaginario, mentre se p + asintoticamente (o meglio che tale sia l’origine).
1 > 2 ci sono zeri a parte reale maggiore di zero ovvero sono sull’asse Ricordando la regola per cui gli elementi di una stessa riga si possono
immaginario, con molteplicità algebrica eventualmente superiore ad uno. moltiplicare per una costante positiva, in particolare si nota che non occorre
Queste considerazioni sono importanti in vista dello studio della stabilità dividere, nella costruzione della tabella, per l’elemento della prima colonna
dell’origine dello spazio di stato. Nel nostro caso, applicando la ricordata (se esso è parametrico). Infatti si imporrà che esso sia positivo (come an ).
regola, si ottiene la seguente tabella di Routh:
Esercizio 7.14. Assegnato il sistema
4 1 11 18
 
3 1 9 0 1 0 0
2 1 9  0 0 1 0
ẋ(t) =   x(t), k > 0,
1 2 0 0 0 1
0 9 −k −6 −11 −6

in cui la riga 1 è stata costruita mediante i polinomi d1 (λ) = λ2 + 9 e si vuole determinare per quali valori di k il sistema è stabile.
d 1 (λ) = 2λ. Dunque esistono radici a parte reale non negativa simmetriche
in ±3j.
Soluzione. Poiché la matrice dinamica è assegnata in forma canonica, il
Esercizio 7.13. Studiare gli zeri del polinomio d(λ) = (λ2 + 1)2 . polinomio caratteristico è immediatamente individuato e risulta:

d(λ) = λ4 + 6λ3 + 11λ2 + 6λ + k.


376 7. La stabilità dei sistemi dinamici 7.1. I criteri di Routh e di Hurwitz 377

Essendo k > 0, è soddisfatta la condizione necessaria affinché i suoi zeri eliminando tutti gli zeri) e cambiando di segno se h è dispari. Operando
abbiano parte reale negativa. La tabella ottenuta applicando il criterio di in tal modo, si somma la riga 6 con la riga 1 1 0 0. Stesso problema si
Routh è la seguente presenta nel costruire la riga 5 (somma di 0 − 1 − 1 e 1 1 0). Infine la riga
1 risulta nulla, per cui è necessario considerare il polinomio d1 (λ) = λ2 + 1
4 1 11 k e la sua derivata d 1 (λ) = 2λ.
3 6 6 Quindi la tabella di Routh è data da:
2 10 k
1 10 − k 8 1 1 0 1 1
0 k 7 1 1 0 0
6 1 1 1 1
(la prima riga è stata moltiplicata per 10/6). La condizione di stabilità
5 1 0 -1
asintotica è verificata se risulta
4 1 2 1
k > 0, 10 − k > 0, 3 -2 -2
2 1 1
che sono contemporaneamente verificate per k ∈ (0, 10). Per k = 0 si 1 2
ha stabilità semplice, come è immediato verificare, corrispondente ad un 0 1
autovalore in λ = 0. Per k = 10 si ha invece che d(λ) = d0 (λ)10(λ2 + 1),
ossia si hanno due autovalori sull’asse immaginario (λ = ±j). Per k > 10 Essendoci due variazioni di segno si hanno altrettanti zeri a parte reale
vi sono due autovalori a parte reale positiva, mentre per k < 0 vi è un solo positiva.
autovalore a parte reale positiva.
È noto che vi sono altri metodi per evitare o per superare le difficoltà
Esercizio 7.15. Si studi la stabilità dell’origine dello spazio di stato del dovute alla presenza di zeri nei primi elementi di una riga p. Infatti si
sistema caratterizzato dal seguente polinomio caratteristico: potrebbe costruire la tabella di Routh di d(λ) ¯ = d(λ)(λ + α), con α >
0. Infatti in tal modo il numero di radici a parte reale positiva rimane
d(λ) = λ8 + λ7 + λ6 + λ5 + λ2 + 1. inalterato. Un altro sistema è quello di sostituire alla variabile λ la variabile
1/λ. Infine è anche possibile sostituire al primo elemento della riga p una ε
infinitesima (positiva o negativa) e proseguire la costruzione della tabella,
Soluzione. In primo luogo si nota che i coefficienti di λ4 , λ3 e λ sono nulli. che verrà discussa considerando che ε → 0+ ovvero ε → 0− , secondo che
Poiché le condizioni necessarie non sono verificate, l’origine non può essere ε sia stato supposto positivo o negativo. Questo ultimo metodo, però, a
stabile asintoticamente, e potrà al più essere stabile semplicemente. rigore è giustificato solo quando d(λ) non ha zeri sull’asse immaginario, per
Durante la costruzione della tabella di Routh si ha una riga con i primi cui la sua applicazione può dar luogo (in casi particolari) a risultati inesatti,
due elementi nulli: come mostrato nel seguente esercizio.
8 1 1 0 1 1
7 1 1 0 0 Esercizio 7.16. Studiare gli zeri del polinomio caratteristico
6 0 0 1 1
d(λ) = λ6 + λ5 + 3λ4 + 3λ3 + 3λ2 + 2λ + 1.
Il loro annullarsi non permette di terminare la costruzione della tabella. Per
poterla proseguire si ricorda che se la p–esima riga ha i primi h elementi
nulli (ma non tutti), la tabella di Routh può essere completata sostituendo Soluzione. Le condizioni necessarie perché d(λ) abbia gli zeri a parte reale
la p–esima riga con quella ottenuta sommando la p–esima riga con la riga ot- negativa sono verificate. La tabella di Routh realizzata utilizzando una
tenuta da questa traslando di h volte verso sinistra i suoi elementi (e quindi quantità ε è la seguente:
Figura 7.5

dove k è un parametro positivo.

Soluzione. Il parametro k può essere interpretato, da un punto di vista


fisico, come il guadagno di un amplificatore. Per condurre lo studio è in-
nanzitutto necessario individuare la rappresentazione differenziale comp-
lessiva del sistema S2 di figura 7.5. Dallo schema risulta:

e = v − y = v − Cx
u = ke = kv − kCx
ẋ = Ax + Bv − kBCx = (A − kBC)x + kBv
y = Cx.

Le due ultime equazioni sono una rappresentazione del sistema S2 in fun-


zione delle matrici A, B e C che rappresentano il sistema S1 . La matrice
380 7. La stabilità dei sistemi dinamici 7.1. I criteri di Routh e di Hurwitz 381

dinamica del sistema S2 risulta dunque essere: e alle seguenti conclusioni.


  – Per 1 < k < 1 non si hanno variazioni e quindi radici a parte reale
0 1 0 0 0 0 2
 0 0 1 0 0 0  maggiore di zero; si ha però solo stabilità semplice in quanto le righe 2
  e 3, essendo proporzionali, determinano l’annullarsi della riga 1, e ciò
 0 0 0 1 0 0 
(A − kBC) =  , corrisponde a radici sull’asse immaginario (λ2 + 1 = 0).
 0 0 0 0 1 0 
 
0 0 0 0 0 1 – Per k = 1 si annulla la terza riga evidenziando la presenza di quattro
2
−4(1 − k) −4 −(8 − 3k) −5 −(5 + k) −1 radici complesse coniugate sull’asse immaginario. Le altre radici sono
invece a parte reale minore di zero. Essendo le radici immaginarie
ed il polinomio caratteristico è: distinte (λ = ∓j, λ = ∓j2), il sistema è semplicemente stabile.
λ6 + λ5 + (5 + k)λ4 + 5λ3 + (8 − 3k)λ2 + 4λ + 4(1 − k). – Per k = 1 il polinomio si fattorizza in λ(λ5 + λ4 + 6λ3 + 5λ2 + 5λ + 4)
e presenta oltre alla radice in λ = 0 due radici complesse coniugate
Per concludere l’analisi non resta che studiare il segno delle radici in fun- sull’asse immaginario, λ = ∓j. Le altre radici sono invece a parte
zione del parametro k > 0. La tabella di Routh risulta: reale minore di zero. Quindi il sistema è ancora semplicemente stabile.
– Per k < 1 e k > 1 il sistema è instabile, come evidenziato dalla
6 1 5+k 8 − 3k 4(1 − k) 2
presenza di variazioni di segno nella prima colonna della tabella.
5 1 5 4
4 k 4 − 3k 4(1 − k)
3 2k − 1 2k − 1 Esercizio 7.18. Considerato lo schema di figura 7.5, in cui il sistema S1 è
2 (1 − k) (1 − k) s+1
descritto dalla funzione di trasferimento F (s) = , studiare
1 (1 − k) s(s − 2)(s + p)
0 (1 − k) la stabilità dell’origine dello spazio di stato del sistema S2 al variare dei
parametri k e p.
in cui la riga 1 è stata ottenuta derivando il polinomio (1 − k)λ2 + (1 − k)
e dividendo per 2. Studiando il segno degli elementi della prima colonna si  
arriva alla seguente tabella: Soluzione. Poiché y(s) = kF (s) v(s)−y(s) , si ricava per S2 la funzione di
1
0 1 kF (s) k(s + 1)
2 trasferimento W (s) = = , ove il polinomio caratteristico
k 1 + kF (s) d(s)
1 >0

d(s) = s3 + (p − 2)s2 − 2ps + k(s + 1).
1 >0
Dalla tabella di Routh
k >0
3 1 k − 2p
2k 1 >0 2 p−2 k
1 k >0
k(p − 3) − 2p(p − 2)
1
p−2
1 k >0 0 k
1 k >0 si può ricavare che occorre che sia p > 2 e k > 0. Inoltre si deve avere

k(p − 3) − 2p(p − 2) > 0


7.1. I criteri di Routh e di Hurwitz 383

Soluzione. È noto come questo equivale a richiedere una certa velocità di


risposta contenendo entro limiti voluti i fenomeni di oscillazione. Affinché
le radici abbiano parte reale minore di −1 le radici del polinomio:
˜ = (λ − 1)3 + 6(λ − 1)2 + (12 + k)(λ − 1) + 2k + 8
d(λ)
devono avere parte reale minore di zero. Si ha quindi:
˜ = λ3 + 3λ2 + (k + 3)λ + (k + 1),
d(λ)
e la tabella:
3 1 k+3
2 3 k+1
1 k+4
0 k+1
dalla quale risulta che la condizione cercata è k > −1. Per imporre il voluto
smorzamento bisogna studiare il polinomio:
¯ = d(λe
d(λ) ˜ −jπ/4 ),
˜ jπ/4 ) d(λe
che risulta essere:
     
¯ =λ6 + 3λ5 ejϕ0 + e−jϕ0 + (k + 3) ej2ϕ0 + e−j2ϕ0 + 9 λ4 +
d(λ)
    
+ (k + 1) ej3ϕ0 + e−j3ϕ0 + 3(k + 3) ejϕ0 + e−jϕ0 λ3 +
   
+ 3(k + 1) ej2ϕ0 + e−j2ϕ0 + (k + 3)2 λ2 +
 
+ (k + 1)(k + 3) ejϕ0 + e−jϕ0 λ + (k + 1)2 =
√ √
=λ6 + 3 2 λ5 + 9λ4 + 2 2 (k + 4)λ3 + (k + 3)2 λ2 +

+ 2 (k 2 + 4k + 3)λ + (k + 1)2 .
L’applicazione del criterio di Routh al polinomio ora individuato consente
di individuare le condizioni cui deve soddisfare il parametro k perché il
sistema risulti stabile.

Esercizio 7.20. Studiare in modo parametrico rispetto a k la stabilità


dell’origine dello spazio di stato del seguente sistema non lineare:
ẋ1 = x2 + x21
ẋ2 = x3 − x34
Figura 7.6 ẋ3 = x4 + x33
ẋ4 = −kx1 − x2 − sen kx2 − 2x3 − sen x4 .
384 7. La stabilità dei sistemi dinamici 7.1. I criteri di Routh e di Hurwitz 385


Soluzione. L’origine dello spazio di stato è punto di equilibrio e si ha: – per k ≤ 1 e k > 1 + 5 si ha instabilità.
  2
2x1 1 0 0  In conclusione lo stato zero del sistema√non lineare in esame è:

 0 0 1 −3x4  
2
– instabile per k ≤ 1 e per k > 1 + 5 ,
J(xe ) =   = √
0 0 3x32
1  2
1 + 5,
−k −(1 + k cos kx2 ) −2 −cos x4
xe =0
– stabile asintoticamente localmente per 1 < k <
2
  mentre
√ non è possibile col metodo usato giudicare della stabilità per k =
0 1 0 0
1 + 5.
 0 0 1 0 
= . 2
0 0 0 1
−k −(1 + k) −2 −1 Il criterio di Routh, assieme a quello di Krasovskii, può essere utilizzato
per studiare la stabilità dell’origine di una rappresentazione non lineare.
Inoltre J(xe ) è non singolare per k = 0, dunque tale stato di equilibrio è iso-
lato. L’esame della stabilità della rappresentazione lineare approssimante, Esercizio 7.21. Si riconsideri il sistema dell’esercizio 7.7 e si studi la sta-
che coincide con l’analisi della stabilità della matrice J(xe ), può essere con- bilità dell’origine al variare di k1 e k2 .
dotta utilizzando il criterio di Routh ed osservando che la matrice è nella
forma canonica raggiungibile; quindi il polinomio caratteristico è:
Soluzione. Si calcola il polinomio caratteristico:
d(λ) = λ4 + λ3 + 2λ2 + (1 + k)λ + k.
  
 
Affinché tutti i coefficienti abbiano lo stesso segno (positivo nel nostro caso) d(λ) = λI − J(x) + J T (x)  = (λ + 2)d1 (λ)
deve risultare k > 0 (condizioni necessarie). Costruiamo poi la tabella di   
Routh: con d1 (λ) = λ2 +(6x22 +6x23 +4)λ+ 36x22 x23 +12x22 +12x23 +4−(k1 +k2 )2
4 1 2 k
3 1 1+k e si studia quando esso ha tutte le radici a parte reale minore di −α. Poiché
in tale studio ci si può restringere al solo polinomio d1 (λ), si può calcolare
2 k−1 k il polinomio
1 −k 2 + k + 1
k−1 d1 (λ − α) = λ2 + (6x22 + 6x23 + 4 − α)λ+
0 k  
+ 36x22 x23 + 12x22 + 12x23 + 4 − (k1 + k2 )2 − α(6x22 + 6x23 + 4) + α2
Lo studio del segno dei coefficienti della prima colonna conduce ad affermare
che: e vedere quando esso ha radici a parte reale minore di zero. Le condizioni
necessarie del criterio di Routh, che qui sono anche sufficienti, di stabilità
– si ha stabilità asintotica per i valori di k tali che:
asintotica globale per lo stato zero sono:
k−1>0 e − k 2 + k + 1 > 0,
6x22 + 6x23 + 4 − α > 0
e tali condizioni risultano simultaneamente soddisfatte per 36x22 x23 + 12x22 + 12x23 + 4 − (k1 + k2 )2 − α(6x22 + 6x23 + 4) + α2 > 0.

1+ 5
1<k< ; A queste stesse condizioni si giunge imponendo che i coefficienti di d1 (λ)
2 siano maggiori di quelli di (λ − α)2 , come è ovvio. In entrambi i casi si
√ ottengono le condizioni:
– per k = 1 + 5 si ha stabilità semplice (si hanno due radici immagi-
2 2
√ 6x22 + 6x23 + 4 > α
narie in λ = ± √5 + 1 ); 36x22 x23 + 12x22 + 12x23 + 4 − (k1 + k2 )2 > α2
5−1
386 7. La stabilità dei sistemi dinamici 7.2. Studio della stabilità mediante le funzioni di Lyapunov 387

che devono valere per ogni stato x. Considerando α = 2 − ε > 0, ε ∈ (0, 2) 7.2. Sistemi a tempo discreto
(in effetti λ1 = −2) si vede che dalla prima, per x = 0 (che rappresenta il
caso peggiore), risulta 2 > −ε, mentre dalla seconda si ha 7.2.a. Studio della stabilità mediante le funzioni di Lyapunov
(k1 + k2 ) < 2ε − ε ,
2 2

che ha soluzione per opportuni valori di k1 , k2 . Per i sistemi a tempo discreto si può dare una formulazione analoga al
teorema di Lyapunov ricordato per i sistemi  a tempo
 continuo, sostituendo
Un criterio alternativo al criterio di Routh per lo studio qualitativo al posto di V̇ (x) la variazione ∆V (x) = V f (x) − V (x).
delle radici del polinomio (7.7) è il criterio di Hurwitz. Considerato il
polinomio caratteristico (7.7), si costruisce la seguente matrice di Hurwitz
di dimensioni n × n: Esercizio 7.23. Si studi la stabilità dello stato zero del sistema:
 
an−1 an−3 ··· ··· ···
 1 a ··· ··· ···  x1 (k + 1) = x1 (k) + x2 (k) + u(k)
 − − − − n−2 − − − − − − − − − − −
 
 0 an−1 an−3 ··· ···  1
x2 (k + 1) = ax31 (k) + x2 (k) + x2 (k)u(k).
 
 0 1 an−2 ··· ···  2
H= − − − − − − − − − − − − − − −

 · · · 
 0 0 a n−1 an−3 
 ··· 
 0 0 1 an−2 
− − − − − − − − − − − − − − − Soluzione. Considerata la funzione di Lyapunov
.. .. .. .. ..
. . . . .
& '
in cui si è supposto che an sia positivo e pari ad 1. Le prime due righe 1 1 1
T
sono date dai coefficienti del polinomio caratteristico mentre le altre sono V (x) = x 2 x= x21 + 2x1 x2 + 4x22 ,
1 4 2
ottenute traslando di un passo verso destra la coppia di righe precedenti
e mettendo degli zeri nei posti lasciati vuoti. Ciò viene ripetuto fino a
completare la matrice n × n. Le soluzioni di d(λ) sono a parte reale minore la variazione prima lungo il moto del sistema con u = 0 risulta essere:
di zero se e solo se gli n − 1 minori principali consecutivi ∆i sono tutti
strettamente positivi. 3  
∆V (x) = − x22 + 2a x21 + 3x1 x2 + 2ax41 x21
Esercizio 7.22. Assegnato un sistema il cui polinomio caratteristico è 2
d(λ) = λ3 + 8λ2 + 14λ + 24, stabilire se l’origine dello spazio di stato è
stabile asintoticamente. e l’analisi parametrica rispetto ad a consente di concludere per l’origine
della rappresentazione non lineare:
Soluzione. I minori principali consecutivi della matrice di Hurwitz sono: – se a = 0, ∆V (x) risulta semidefinita negativa il che prova la stabilità
  dello stato zero (non ci potrebbe essere stabilità asintotica in quanto
  8 24 0
8 24 ogni stato sull’asse x1 è di equilibrio);
∆1 = 8, ∆2 = = 88, ∆3 =  1 14 0  = 2112,
1 14 – se a < 0, ∆V (x) è definita negativa in un qualche intorno dello stato
0 8 24
zero, il che prova la stabilità asintotica locale;
e quindi si ha stabilità asintotica.
– se a > 0, ∆V (x) assume valori positivi arbitrariamente vicino allo
stato zero sull’asse x1 il che non consente di trarre alcuna conclusione.
388 7. La stabilità dei sistemi dinamici 7.2. Il metodo di Kalman e Beltram 389

7.2.b. Il criterio di Jury


1 −1 k −1 2
Per i sistemi a tempo discreto lineari e stazionari la condizione di sta- 2 −1 k −1 1
bilità fa riferimento al modulo degli autovalori della matrice dinamica. Un 3 −1 k −1
criterio per valutare se tutti gli zeri del polinomio caratteristico −1 k −1 3
−8 3−k 1 − 3k
d(z) = an z n + an−1 z n−1 + · · · + a1 z + a0 1 − 3k 3−k −8
per cui affinché si abbia stabilità asintotica è necessario e sufficiente che
abbiano modulo inferiore ad uno è il criterio di Jury. Esso si basa sulla risulti
costruzione della seguente tabella: |1 − 3k| > 8, k > −1.
Tali disuguaglianze sono simultaneamente soddisfatte per −1 < k < 3.
a0 a1 ··· ··· ··· an
an an−1 ··· ··· ··· a0  
 a an−k  7.2.c. Il metodo di Kalman e Beltram
b0 ··· ··· ··· bn−1 con bk =  0 ,
bn−1 ··· ··· ··· b0 an ak 
Per i sistemi a tempo discreto autonomi:
 
c0 ··· ··· cn−2  b0 bn−k−1   

cn−2 ··· ··· c0 ck = 
bn−1 bk 
, x(k + 1) = f x(k)
.. .. ..
. . . etc. con f (0) = 0 lo studio della stabilità dell’origine può essere effettuato me-
t0 t1 t2 diante un metodo dovuto a Kalman e Bertram (1960), fondato sul risultato
t2 t1 t0 (intuitivo) in base al quale si ha stabilità asintotica globale dell’origine se
f (x) è una contrazione in un qualche intorno dell’origine dello spazio di
ed afferma che si ha stabilità asintotica se e solo se risulta: stato (nell’intero spazio di stato). Una contrazione in una fissata regione
D è una funzione che, rispetto ad una qualsiasi norma  · , soddisfa la
d(1) > 0, condizione f (x) < x, per ogni x ∈ D diverso dall’origine.
(−1)n d(−1) > 0, La difficoltà nell’applicazione di questo metodo risiede nel fatto che una
funzione può risultare una contrazione rispetto ad una norma e non rispetto
|an | > |a0 |, |b0 | > |bn−1 |, · · · |t0 | > |t2 |. ad un’altra. Una notevole semplificazione si ha nel caso in cui risulti f (x) =
ϕ(x)x, in quanto si può fare la verifica indipendentemente dalla norma.
Infatti una tale funzione risulta essere una contrazione se esistono delle
Esercizio 7.24. Si studino le radici del seguente polinomio caratteristico: costanti positive c1 , · · · , cn tali che è verificata una delle seguenti condizioni

d(z) = 2z 4 − z 3 + kz 2 − z + 1. (
n
ci (
n
cj
a) |ϕij (x)| < 1, ∀i, b) |ϕij (x)| < 1, ∀j.
cj ci
j=1 i=1
Soluzione. Si controlla innanzitutto che

d(1) = 1 + k > 0, Esercizio 7.25. Si studi la stabilità dello stato zero per il sistema
(−1)n d(−1) = 5 + k > 0. x1 (t + 1) = x22 (t)
x2 (t + 1) = kx1 (t) + x32 (t).
Ciò si ha per k > −1. La tabella di Jury risulta poi:
390 7. La stabilità dei sistemi dinamici 7.3. La stabilità esterna 391

Soluzione. Si osservi che il sistema dato è della forma: Esercizio 7.26. Assegnato il sistema lineare e stazionario caratterizzato
     dalla matrice dinamica:
x1 (t + 1) 0 x2 (t) x1 (t)
= .  
x2 (t + 1) k x22 (t) x2 (t) −1 0 0 0 0
 0 0 1 0 0
 
È semplice verificare che per ogni valore di k, due costanti c1 e c2 tali che A= 0 0 0 0 0
c1 > c2 k soddisfano le condizioni volute perché f (x) sia una contrazione  
1 1 1 2 1
in un opportuno intorno dell’origine (tale intorno dipende da k). Dunque 1 0 −1 −1 0
x = 0 è stabile asintoticamente globalmente.
esaminare come la variazione delle matrici B e C influenzino la proprietà
di stabilità esterna.
7.3. La stabilità esterna
Per un sistema lineare stazionario le condizioni di stabilità esterna, in Soluzione. Bisogna determinare gli autovalori ed autovettori, e quindi
cui si richiede che ad un ingresso limitato l’uscita sia limitata, come è noto, vanno esaminati i diversi casi corrispondenti a diverse scelte delle matrici
fanno riferimento alla limitatezza dell’integrale della norma della matrice degli ingressi o delle uscite.
delle risposte impulsive W (t) ed alla limitatezza della norma della matrice Gli autovalori di A sono
Ψ(t). Infatti una rappresentazione lineare, a dimensione finita, stazionaria,
è stabile esternamente se e solo se esistono due costanti k1 , k2 tali che per
λ1 = −1, λ2 = 0, λ3 = 1,
∀t ≥ 0 si ha  t
Ψ(t) < k1 , W (τ  dτ < k2 . con molteplicità algebriche µ1 = 1, µ2 = 2, µ3 = 2, ed una corrispondente
0 base di autovettori generalizzati è:
Nel caso in cui x0 = 0 (stabilità esterna nello stato zero) la condizione
(necessaria e sufficiente) è solo          
1 0 0 0 0
  0   1   0   0  0
t          
W (τ  dτ < k2 . u11 =  0 , u12 =  0 , u22 =  1 , u13 =  0 , u23 =  0  ,
         
0 0 0 0 1 0
−1 −1 −1 −1 1
Ricordando che gli elementi delle matrici W (t) e Ψ(t) sono combinazioni
lineari di modi naturali eccitabili ed osservabili, le condizioni necessarie e con leggi temporali rispettivamente e−t , 1, 1+t, et , et +tet . La molteplicità
sufficienti di stabilità esterna per un’assegnata rappresentazione differen- geometrica di λ1 è m1 = 1, quelle di λ2 e λ3 sono m2 = m3 = 2. Con
ziale possono essere cosı̀ formulate: un abuso di termini, nel seguito, per semplicità, si farà riferimento ai modi
a) gli autovalori associati a modi naturali eccitabili ed osservabili devono naturali del sistema richiamandone la relativa legge di evoluzione temporale.
avere parte reale negativa; Si considerino i seguenti casi.
b) gli autovalori associati a modi naturali osservabili devono avere parte 1) Siano:
reale non positiva se sono semplici e parte reale negativa se sono mul-
tipli.  
1 0 0
La a) è condizione necessaria e sufficiente di stabilità esterna nello stato  0 1 0  
 
zero; la a) e la b) simultaneamente sono le condizioni necessarie e sufficienti B= 0 0 0, C= 1 −1 0 0 0 ,
per la stabilità esterna in qualsiasi stato.  
0 0 1
−1 −1 −1
392 7. La stabilità dei sistemi dinamici 7.4. Il criterio di stabilità di Nyquist 393

le matrici degli ingressi e delle uscite. Per studiare l’eccitabilità e l’osservabilità allora:  
dei modi si noti che, preso genericamente R(B) ⊂ gen u11 , u22 ,

x0 = c1 u11 + c2 u12 + c3 u22 + c4 u13 + c5 u23 , e sono eccitabili i modi e−t , 1, ed 1 + t; ma poiché però:

si ha: Cu22 = 0, Cu12 = 0,


         
xl (t) = c1 e−t u11 + c2 u12 + c3 u22 + tu12 + c4 et u13 + c5 et u23 + tu13 . il sistema è stabile esternamente nello stato zero in quanto l’unico modo
eccitabile ed osservabile (cioè in W (t)) è e−t , mentre non è stabile esterna-
mente in qualsiasi stato come è semplice verificare, risultando ad esempio
Dunque:
          Cu13 = 0.
Ψ(t) = Cxl (t) = c1 e−t + − c2 + c3 0 − t + 0 c4 + c5 et 0 + 0 t =
= c1 e−t − c2 − t c3 ,
    3) Indipendentemente dalla matrice C si può avere stabilità esterna nello
H(t) = eAt B = eAt u11 u12 u13 = e−t u11 u12 et u13 , stato zero per una qualsiasi matrice B tale che:
   
W (t) = CeAt B = e−t − 1 0 . R(B) ⊂ u11 ,
 cioè tale che consenta di eccitare solo il modo associato all’autovalore a
Da questo si vede che i modi e−t , 1 ed et sono eccitabili d’altra parte parte reale negativa.
 
R(B) = gen u11 , u12 , u13 , mentre di questi quelli che sono anche os- 4) Indipendentemente dalla matrice B si può avere stabilità esterna in ogni
 stato per una qualsiasi matrice C tale che
servabili, e che quindi compaiono in W (t), sono e−t ed 1 d’altra parte
   
N (C) = gen u22 , u13 , u23 . Questo implica che N (C) ⊂ gen u12 , u22 , u13 , u23 ,

 ∞ cioè tale che consenta di osservare solo il modo associato all’autovalore a


W (t)dt parte reale negativa.
0

è non limitato, e quindi si ha instabilità esterna nello stato zero. Si noti


inoltre che gli stessi modi sono presenti in Ψ(t); quindi 7.4. Il criterio di stabilità di Nyquist

Ψ(t) < k1 Come noto lo studio della stabilità di un sistema lineare interconnesso
controreazionato può essere ricondotto allo studio della stabilità di un sis-
con k1 costante positiva, e ciò implica la limitatezza in uscita delle evoluzioni tema a controreazione unitaria. Tale studio, infine, può essere effettuato
libere. utilizzando il criterio di Nyquist.
Il criterio di Nyquist consente di valutare la stabilità di un sistema
2) Se le matrici sono
a controreazione unitaria contando il numero di giri che il diagramma di
  Nyquist della funzione di trasferimento del sistema in catena diretta compie
1
intorno al punto critico (−1, j0) al variare di ω da −∞ a +∞, ovvero attorno
 0   
  al punto critico − 1 se nel ramo diretto è presente un guadagno variabile
B =  −1 , C= 1 −1 −1 0 −1 , k
  k. In tal caso il punto critico giace sul semiasse reale sinistro se k > 0, e su
0
0 quello destro se k < 0.
394 7. La stabilità dei sistemi dinamici 7.4. Il criterio di stabilità di Nyquist 395

Per il calcolo del numero di giri, specie nel caso di diagrammi di Nyquist H(s) = 1/kd . Tale situazione si presenta nella pratica quando la dinamica
complessi, si noti che presa una qualsiasi semiretta uscente dal punto critico, del processo è più lenta relativamente a quella del sensore. Può anche
N è pari alle intersezioni del diagramma con la semiretta, contate algebri- accadere che il sensore introduca un ritardo, per cui H(s) = e−τ s con τ il
camente (intersezioni positive se in senso antiorario e negative se in senso ritardo introdotto.
orario). In particolare possono essere prese semirette che presentano il
minimo numero di intersezioni con il diagramma. Questo metodo è parti- Esercizio 7.27. Sia dato un processo descritto dalla funzione di trasfe-
colarmente efficiente quando il punto critico è (− 1 , j0) e si hanno più tratti rimento G(s) = k 1 + 10s . Si considera una controreazione dall’uscita.
k s(1 − 10s)
dell’asse reale in cui esso può trovarsi al variare di k. Il sensore che misura l’uscita y è descritto dalla funzione di trasferimento
È bene osservare inoltre che se Pp > 0 non si può avere stabilità se non H(s) = e−τ s . Determinare il valore massimo del ritardo τ tale da assicurare
stabilità asintotica per opportuni valori del guadagno k. Fissato poi τ = 3,
sono presenti tratti del diagramma di Nyquist che formino delle rotazioni in
determinare per quali valori di k si ha stabilità asintotica.
senso antiorario. Ciò corrisponde ad intervalli di ω in cui si hanno aumenti
della fase. Inoltre se la funzione di trasferimento da studiare è data dal
prodotto di funzioni di trasferimento e in questo prodotto si hanno can-
Soluzione. Lo schema considerato è quello di figura 7.7.a. Si nota che se
cellazioni tra poli e zeri a parte reale maggiore di zero, il sistema a ciclo
τ fosse nullo (sensore istantaneo) il diagramma di Nyquist mostra che si ha
chiuso è instabile e non è necessario applicare il criterio di Nyquist (che
stabilità per k negativo ed appartenente al segmento AB, in quanto Pp = 1.
confermerebbe tale instabilità). Infatti la funzione di trasferimento W (s)
a ciclo chiuso presenta al denominatore questi poli cancellati a parte reale In tal caso, applicando il criterio di Routh al polinomio caratteristico a ciclo
positiva. chiuso:
Molto spesso nelle applicazioni lo studio della stabilità di un sistema a dCH = s(1 − 10s) + k(1 + 10s) = −10s2 + (10k + 1)s + k,
controreazione, caratterizzato dall’avere una funzione di trasferimento H(s)
diversa da 1 nella catena di controreazione, viene effettuato applicando il
si trova che deve essere k < −0.1.
criterio di Nyquist alla funzione di trasferimento di anello F (s) = G(s)H(s).
IIm
u + y +
G(s) F (s)
- -
a) b)

H(s)

A B
IRe
Figura 7.7

Tale procedimento è giustificato dal fatto che il sistema di figura 7.7.a


è equivalente, da un punto di vista complessivo, ad un sistema che ha la
N (s)
struttura indicata in figura 7.7.b. Infatti, posto G(s) = G , H(s) =
DG (s)
NH (s)
, entrambi i sistemi a ciclo chiuso hanno polinomio caratteristico
DH (s)
Figura 7.8
dCH (s) = DG (s)DH (s) + NG (s)NH (s).
La presenza della funzione di trasferimento H(s) può essere ad esempio Se il sensore introduce un ritardo τ nel ramo di controreazione, il dia-
legata alla dinamica del sensore. Se questo fosse istantaneo si avrebbe gramma di Nyquist si modifica come descritto dalla seguente figura.
396 7. La stabilità dei sistemi dinamici 7.4. Il criterio di stabilità di Nyquist 397

IIm B corrispondono alle soluzioni ω1  0.171, ω2  0.324. Inserendo tali valori


nell’espressione di F̄ (jω) si ottiene:
1 1
F̄ (jω1 ) = 5.839 = − , F̄ (jω2 ) = 3.086 = − ,
k1 k2
e dunque per avere stabilità asintotica occorre che k ∈ (−0.324, −0.171).

A B
IRe Esercizio 7.28. Si studi la stabilità, rispetto al parametro k, del sistema
ottenuto effettuando una controreazione unitaria dall’uscita del seguente
sistema lineare stazionario:
   
0 1 0 0 0
0 0 1 0  0
ẋ =   x +   k u(t), k > 0,
0 0 0 1 0
0 0 −1000 −110 1
y(t) = ( 10 10 0 0 ) x(t).
Figura 7.9 Soluzione. Poiché la rappresentazione assegnata è nella forma canonica
controllabile, è immediato il calcolo della funzione di trasferimento che
Se il punto critico si trova sul segmento AB si ha ancora stabilità risulta essere
asintotica. Al crescere di τ , però, tale segmento diventa sempre più piccolo 10k (1 + s) 10k (1 + s)
fino a che, a causa della diminuzione di fase dovuta al termine e−jωτ , la F (s) = C(sI − A)−1 B = = ,
4 3 2 2
fase non potrà superare gli zero radianti. In questo caso non si potrà avere s +110s +1000s 1000s (1 + 0.01s)(1 + 0.1s)
stabilità asintotica per alcun valore di k. dove s4 + 110s3 + 1000s2 è il polinomio caratteristico di A. Il sistema in
La situazione limite si ha quando A e B coincidono (la curva è tangente catena diretta è quindi instabile avendo la matrice A due autovalori pari a
al semiasse reale positivo). Posto allora: zero.
Per lo studio della stabilità del sistema complessivo si tracci ora il
1 + 10s diagramma di Nyquist relativo a
F̄ (s) = e−τ s ,
s(1 − 10s) F̄ (s) =
10(1 + s)
.
2
si trova: 1000s (1 + 0.01s)(1 + 0.1s)
Come è semplice verificare, ad esempio sulla base dei diagrammi di Bode
20cos τ ω + (100ω 2 − 1)sen τ ω (100ω 2 − 1)cos τ ω − 20ωsen τ ω della F̄ (jω), l’andamento qualitativo dei diagrammi di Nyquist è quello
F̄ (jω) = +j , riportato in figura.
ω(100ω 2 + 1) ω(100ω 2 + 1) IIm
avendo posto e−jωτ = cos τ ω − jsen τ ω. Per determinare le intersezioni
del diagramma con l’asse reale occorre imporre che la parte immaginaria si
annulli, ricavando cosı̀:
0- A IRe
100ω − 1
2
(-1 , j 0 )
tan τ ω = . 0+
20ω
Numericamente si può trovare che la situazione limite corrisponde a τ̄ 
3.264. Dunque per τ < τ̄ si può avere stabilità asintotica quando il punto
critico − 1 è compreso tra A e B. In particolare per τ = 3 si trova che A e Figura 7.10
k
398 7. La stabilità dei sistemi dinamici 7.4. Il criterio di stabilità di Nyquist 399

Il numero di poli a parte reale maggiore di zero è Pp = 0. Contando IIm


come solito positivamente i giri in senso antiorario, per k tale che il punto
critico è a sinistra di A il numero di giri è N = 0, e dunque si ha stabilità
asintotica, mentre se è a destra di A il numero di giri è -2 (se k > 0)
oppure -1 (se k < 0), e quindi si ha instabilità. Indicato con k̄ il valore
del guadagno corrispondente ad A, si ha stabilità asintotica per k ∈ (0, k̄) IRe
e instabilità per k ∈ (−∞, 0) ∪ (k̄, +∞). Si tratta di un sistema a stabilità
(-1 , j 0 )
regolare rispetto alle variazioni di k.
Il valore di k̄ può ricavarsi dai diagrammi di Bode di F̄ (jω) valutandone
il valore mg del modulo quando la fase vale −π, ossia valutando il margine
di guadagno. Posto mg = − 1 si trova k̄. Alternativamente si può applicare

il criterio di Routh al polinomio caratteristico a ciclo chiuso dCH (s) =
NF (s) + DF (s) = s4 + 110s3 + 100s2 + 10ks + 10k, essendo NF (s) e DF (s) Figura 7.11
in numeratore e il denominatore di F (s).
Si tratta quindi di un sistema a stabilità regolare rispetto alle variazioni
4 1 1000 10k di k. Il numero di giri in senso antiorario è nullo e pari a Pp = 0 se il punto
3 110 10k critico − 1 è a sinistra del punto A, mentre è pari a -2 (se k > 0) oppure -1
2 11000 − k 110k k
1 (9790 − k)k (se k < 0) se è a destra di A.
0 110k Il valore limite k̄ del guadagno si può trovare applicando il criterio di
Routh al polinomio caratteristico a ciclo chiuso dCH (s) = τ1 τ2 s3 + (τ1 +
τ2 )s2 + s + k, ricavando cosı̀ che k̄ = τ1τ1+τ2τ2 . Dunque si ha stabilità
Dalla discussione della tabella di Routh si trova che k̄ = 9790. Inoltre se
k = 0 si annulla la riga 1, e si hanno due poli nell’origine, e dunque il asintotica per k ∈ (0, k̄); inoltre per k = 0 si ha un polo in s = 0 e per
sistema è instabile. Se infine k = k̄ il sistema è semplicemente stabile a k = k̄ due poli in s = ∓j √ 1 (stabilità semplice). Un modo alternativo
causa della presenza di poli complessi coniugati sull’asse immaginario. τ1 τ2
per il calcolo di k̄ è di imporre che il modulo di F (jω) sia minore di 1
quando la fase è pari a −π. Il valore di ω in corrispondenza del quale la
Esercizio 7.29. Studiare la stabilità, rispetto ai parametri k, τ1 e τ2 , del fase è pari a −π può essere calcolato imponendo l’annullarsi della parte
sistema a controreazione in figura 7.7.a, dove G(s) = k , H(s) = immaginaria. Si ha:
s(1 + τ1 s) 
1 , τ > 0 e τ > 0. 
1 + τ2 s 1 2 k  k
F (jω) =  = =
τ τ s3 + (τ + τ )s2 + s  −(τ + τ )ω 2 + j(ω − τ τ ω 3 )
1 2 1 2 jω 1 2 1 2

Soluzione. Lo studio può essere effettuato sulla base del diagramma di −(τ1 + τ2 )ω 2 − j(ω − τ1 τ2 ω 3 )
=k ,
Nyquist della funzione (τ1 + τ2 )2 ω 4 + (ω − τ1 τ2 ω 3 )2
e dunque posto
1 ω − τ1 τ2 ω 3 = 0,
F̄ (s) = ,
s(1 + τ1 s)(1 + τ2 s)
si ricava, oltre al valore ω = 0, il valore ω = √ 1 (il valore negativo
τ1 τ2
il cui diagramma di Nyquist è riportato in figura. viene scartato). In corrispondenza a tale valore di ω si calcola il valore del
Figura 7.13

ovviamente N1 + N2 = 0. Essendo poi il numero di poli a parte reale


maggiore di zero della rappresentazione pari a Pp = 1, non è verificata la
condizione del teorema di Nyquist, e dunque il sistema controreazionato è
instabile.
402 7. La stabilità dei sistemi dinamici 7.5. Esercizi e problemi 403

7.5. Esercizi e problemi La funzione di trasferimento del sistema a ciclo chiuso con un guadagno k
sulla catena diretta è:
G(s) −s2
Esercizio 7.31. Si riconsideri il pendolo invertito descritto dalle equazioni 2.16, W (s) = =    .
in cui Jp = ml2 . Tenendo in conto anche dell’attrito viscoso, proporzionale 1 + kG(s) M ls s + F s −
2 g
− ks2
alla velocità ẋ mediante un coefficiente F , e supponendo che sia solo la forza M l
f = u agente sul carrello (τ = 0), è possibile rendere asintoticamente stabile I poli del sistema controreazionato sono dati dall’equazione:
il sistema con una reazione statica dall’uscita (ossia del tipo u = k(v −y))? * & ' +
F 3 g k F
4
d(s) = M l s + s − + s −
2
gs .
M l Ml Ml
Soluzione. Le equazioni che descrivono la dinamica del pendolo invertito
sono:
F mg 1 Non essendo verificata la condizione necessaria del criterio di Routh (ai > 0,
ẍ = − ẋ − ϑ+ u
M M M i = 0, · · · , 3), non è possibile stabilizzare il sistema mediante un semplice
F g 1 guadagno.
ϑ̈ = ẋ + (M + m) ϑ− u.
Ml Ml Ml Esercizio 7.32. Si riconsideri l’esercizio 2.1. La puleggia di rinvio del
Posto
plotter ha un raggio r2 = 0.5 m ed è calettata su un potenziometro P.
x1 = x, x2 = ẋ, x3 = lx + ϑ, x4 = lẋ + ϑ̇, 2π
θ2
dalla prima equazione si ricava: θ
 F  1 r r2
s2 + s x1 (s) = u(s),
M M
e quindi: y
1 1 M d
x1 (s) =   u(s), v
M s s+ F
M
mentre dalla seconda: v A u
- . 1 g 
s2 x3 (s) − lx1 (s) = − s2 x1 (s) + x3 (s) − lx1 (s) . Figura 7.14
l l
e quindi:   Un amplificatore, avente funzione di trasferimento R(s) = k , con k ∈
1 −g 1+s
1 s2
l − [0, ∞) un guadagno variabile, è pilotato dalla differenza tra la tensione
l
x3 (s) =    u(s). prelevata dal cursore del potenziometro ed una tensione d’ingresso u. La
M s s+ F g
s2 − tensione applicata ai capi del potenziometro è v = 10 V.
M l
Poiché: 1. Determinare i valori di k per cui il sistema è asintoticamente stabile;
y(s) = Cx(s) = −lx1 (s) + x3 (s), 2. ponendo k = 4, calcolare la risposta forzata del sistema per un ingresso
a gradino di ampiezza 8 V;
si ricava: 3. ponendo k = 2, calcolare la risposta a regime permanente per l’ingresso
1 s2
G(s) = −   . u(t) = 30 sen 4t.
Ml s s + F g
s2 −
M l
7.5. Esercizi e problemi 405

sicché:
* +
8 
−1
y(t) = L W (s) = 40 − 51.1 e−0.123t+
s

+ 12.9 e−0.771t − 1.81 e−2.11t + 0.0111 e−10t δ−1 (t).

3. Per k = 2:
5
W (s) = ,
s + 13s + 32s2 + 20s + 1
4 3

3
e per u(t) = 30 sen 4t: |W (j4)| = 6.3 10−3 , W (j4) = 1.9 rad, e quindi:

y(t) = 6.3 10−3 sen (4t + 1.9).

Esercizio 7.33. Individuare una rappresentazione linearizzata del sistema


Figura 7.15 ẋ1 = x1 + sen x2
la cui funzione di trasferimento vale: ẋ2 = x21
R(s)G(s) R(s)G(s) k ẋ3 = x1 x2 + x21 + x2 x3
W (s) = , con = .
R(s)G(s) 5 2s(s + 1)(s + 2)(s + 10) y = x2 .
1+
5
1. L’equazione caratteristica è:
d(s) = 2s(s + 1)(s + 2)(s + 10) + k = Soluzione. I punti di equilibrio del sistema non lineare sono individuati
dal sistema
= 2s4 + 26s3 + 64s2 + 40s + k = 0, x1 + sen x2 = 0
e la tabella di Routh è: x21 = 0
4 2 64 k x1 x2 + x21 + x2 x3 = 0
3 26 40  
0
2 792 13k
e quindi sono xek =  kπ  , k = 0, ±1, ±2, · · ·. La matrice jacobiana
1 15840 − 169k
0
0 13k
calcolata nei punti di equilibrio è pari a:
per cui il sistema è asintoticamente stabile per 0 < k < 93.7.    
1 cos x2 0  1 (−1)k 0
2. Per k = 4: 
Ak = J(xek ) =  2x1 0 0  = 0 0 0.
10 x=xek
W (s) = = 2x1 + x2 x1 + x3 x2 kπ 0 0
s + 13s + 32s2 + 20s + 2
4 3

10 Inoltre B = 0 e C = ( 0 1 0 ).
= ,
(s + 0.123)(s + 0.771)(s + 2.11)(s + 10)
406 7. La stabilità dei sistemi dinamici 7.5. Esercizi e problemi 407

Esercizio 7.34. Mostrare che nella costruzione della tabella di Routh nel Il diagramma polare per ω ∈ [0, ∞) è dunque una spirale che compie infinite
caso di un polinomio con autovalori immaginari puri, con molteplicità uni- volute prima di arrivare all’origine, mentre quello di Nyquist è ottenuto
taria, deve necessariamente annullarsi una riga. mediante ribaltamento rispetto all’asse reale.
4
e−j ω̄ 3
Si noti che per j ω̄ = −π, ossia per e−j ω̄ = −ω̄ = − π ( 1 ha
Soluzione. Senza perdita di generalità si consideri il polinomio 2 jω
infatti sempre fase − π ) in corrispondenza risulta:
d(λ) = (λ2 + a)(λ3 + b2 λ2 + b1 λ + b0 ), 2

in cui a > 0 e b0 = 0. Allora  −j ω̄   −j π 


e  e 2 
  =    0, 637.
5 4 3 2
d(λ) = λ + b2 λ + (b1 + a)λ + (b0 + ab2 )λ + ab1 λ + ab0 ,  j ω̄   jπ 
ω=ω̄ 2
e la tabella di Routh è
5 1 b1 + a ab1 Dunque il diagramma passa a destra del punto critico (−1, j0) e pertanto il
4 b2 b0 + ab2 ab0 sistema controreazionato è stabile asintoticamente, in quanto N = Pp = 0.
3 b1 b2 − b0 a b1 b2 − b0
b2 b2
2 b0 ab0
1 0 Esercizio 7.36. Sia dato il sistema descritto dalla seguente funzione di
0 trasferimento F (s) = s + 1 . Utilizzando il criterio di Nyquist, studiare e
s(s − 2)
ossia la riga 1 si annulla. discutere la stabilità del sistema controreazionato al variare del parametro
k posto nel ramo di controreazione.
Esercizio 7.35. Studiare la stabilità del sistema caratterizzato dalla fun-
−s
zione di trasferimento e s , controreazionato con controreazione unitaria.
+
F (s)
3 +
Soluzione. Poiché |e−jω |dB = 0 e e−jω = −ω, al diagramma di Nyquist
relativo ad 1s (coincidente con il semiasse immaginario negativo) occorre
sommare quello dell’esponenziale, costituito da una circonferenza, percorsa k
in senso orario (in quanto al crescere di ω, la fase decresce).
IIm Figura 7.17

Calcolare inoltre per un opportuno valore di k, la risposta a regime perma-


-1+j 0 IRe nente all’ingresso u(t) = (1 + sin 3t)δ−1 (t) del sistema ad anello chiuso.

0+ Soluzione. Bisogna ricondurre lo schema a quello con una controreazione


unitaria negativa ponendo F̃ (s) = −kF (s) = k̃ 1 + s  , ove k̃ = k . Il
2
s 1− s
Figura 7.16 diagramma di Nyquist è dato da: 2
Figura 7.19

Il numero di giri in senso antiorario è zero se il punto critico − 1 è a


k
sinistra di A, 1 se è compreso tra A e B, -1 se è tra B e C e -2 se è a destra
di C. Dunque si ha stabilità asintotica per k ∈ (−∞, −|k̄|), ove k̄ si può
determinare applicando il criterio di Routh a

dCH (s) = (s − 1)(s2 + 1) − k(s2 + 11s + 10) =


= s3 − (k + 1)s2 + (1 − 11k)s − (10k + 1).

La tabella risulta essere:

3 1 1 − 11k
2 −(k + 1) −(10k + 1)
1 (11k + 20)k
0 −(10k + 1)

e si ricava cosı̀ che k̄ = − 20 . È chiaro che per k = 0 e k = k̄ il sistema è


11 √
semplicemente stabile, avendo i poli rispettivamente in λ = ∓j e λ = ∓ 21.
410 7. La stabilità dei sistemi dinamici 7.5. Esercizi e problemi 411

Esercizio 7.38. Stabilire se esistono valori di k per i quali gli autovalori Applicando il criterio di Routh si determina la seguente tabella:
del sistema interconnesso dato da
   
0 0 0 6 4 1 17k − 25 72k
ẋ1 =  1 0 −7  x1 +  5  u1 ẋ2 = −8x2 − 4ku2 3 k+4 66k + 56
0 1 4 1 2 17k 2 − 23k − 156 72(4 + k)
  y2 = x2 + ku2 1 561k 3 − 319k 2 + 4216k + 3792
y1 = 0 0 1 x1 0 72k
con u1 = v − y2 , u2 = y1 , hanno autovalori a parte reale minore di -1.
che comporta la seguente tabella di discussione degli elementi della prima
colonna:
Soluzione. Posto:
    4 2.42
66
0.78
25
3.78
0 0 0 6 56 17
k
A1 =  1 0 −7  , B1 =  5  , C1 = ( 0 0 1),
0 1 4 1 1 >0

A2 = −8, B2 = −4k, C2 = 1, D2 = k, k +4 >0

17 k 25 > 0
le equazioni dei due sistemi diventano:
2
17 k 23k 156 > 0
ẋ1 = A1 x1 + B1 u1 ẋ2 = A2 x2 + B2 u2
561 k 3 319 k2+ 4216 k + 3792 >0
y1 = C1 x1 y2 = C2 x2 + D2 u2
ed essendo u1 = v − C2 x2 − D2 C1 x1 , u2 = C1 x1 , si ha:
e si osserva che per k > 3.78 si ha stabilità asintotica.
        
ẋ1 A1 − B1 D2 C1 −B1 C2 x1 B1 x1 Il problema può essere anche risolto applicando il criterio di Nyquist.
= + v = Ā + B̄v Le funzioni di trasferimento dei due sistemi sono:
ẋ2 B2 C1 A2 x2 0 x2
     
x1 x1
y = C1 0 = C̄ . s2 + 5s + 6 s+4
x2 x2 P1 (s) = , P2 (s) = k .
s(s − 4s + 7)
2 s+8
La matrice Ā è data da:
 
0 0 −6k 6 Si noti che P2 (s) ha un solo zero a parte reale negativa. Dunque il sis-
1 0 −7 − 5k 5 tema interconnesso è stabile asintoticamente se tale è il sistema dato dalla
Ā =  
0 1 4−k 1 funzione di trasferimento:
0 0 −4k −8
(s2 + 5s + 6)(s + 4)
e gli autovalori sono le soluzioni del polinomio: F (s) = P1 (s)P2 (s) = k = k F̄ (s),
  s(s2 − 4s + 7)(s + 8)
 λ 0 6k −6 
 
 −1 λ 7 + 5k −5 
|λI − Ā| =  = controreazionato con controreazione unitaria. Si noti che F (s) ha due poli
 0 −1 λ − 4 + k −1  in s = 2 ∓ 3j, sicché Pp = 2. Il diagramma di Nyquist relativo a F̄ (s)
 
0 0 4k λ+8 presenta una zona (tra i punti A e B) in cui N = Pp = 2. Ciò è in accordo
= λ4 + (k + 4)λ3 + (17k − 25)λ2 + (66k + 56)λ + 72k. con quanto trovato applicando il criterio di Routh.
412 7. La stabilità dei sistemi dinamici 7.5. Esercizi e problemi 413

IIm Problema 7.4. Studiare la stabilità dello stato zero del seguente sistema
& '
x31
ẋ1 = x2 − β − x1
β

A B C IRe ẋ2 = −x1 .

Problema 7.5. Assegnato il sistema

ẋ1 = x2
ẋ2 = sen α − sen (α + x1 )
Figura 7.20
studiare la stabilità dello stato zero con la seguente funzione:
Problema 7.1. Studiare la stabilità dello stato zero dei seguenti sistemi
non lineari: V (x) = x22 + cos α − 2cos (α + x1 ) − 2x1 sen α.
ẋ1 = −x1 + x2 ẋ1 = −x1 + x2
a) b)
ẋ2 = −x1 − x2 + x32 ẋ2 = −x1 − x2 − x32
Problema 7.6. Applicare il metodo del gradiente variabile per la costruzione
di funzioni di Lyapunov da utilizzare per lo studio proposto nei problemi
ẋ1 = h2 x21 ẋ1 = −x1 precedenti.
c) d)
ẋ2 = −x1 − x22 ẋ2 = x21 + x22
Problema 7.7. Applicare il metodo del gradiente variabile per studiare la
Allo scopo si utilizzi la funzione di Lyapunov V (x) = x21 + x22 . stabilità asintotica globale del seguente sistema:

Problema 7.2. Si dimostri che lo stato zero del sistema: ẋ1 = x2


ẋ1 = −x21 − x22 df (x1 )
ẋ2 = −x2 − x2 f (x1 ) − x1 f (x1 ) − x1 x2
ẋ2 = −2x1 x2 dt

è instabile (utilizzare la funzione V (x) = 3x1 x22 − x31 ). df (x1 )


in cui f (x) > 0, ∀x1 , e è continua.
dt
Problema 7.3. Verificare che lo stato del sistema:
Problema 7.8. Applicare il metodo del gradiente variabile per lo studio
ẋ1 = x2 del seguente sistema:
ẋ2 = −a1 x2 − a2 x1 − (b1 x2 + b2 x1 )2 x2 ẋ1 = −x1 + 2x21 x2
è stabile asintoticamente globalmente per ogni a1 e a2 positive (si utilizzi ẋ2 = −x2 .
la funzione V (x) = a2 x21 + x22 ).
414 7. La stabilità dei sistemi dinamici 7.5. Esercizi e problemi 415

Problema 7.9. Trovare le condizioni necessarie e sufficienti per la stabilità Problema 7.13. Mostrare che la verifica della condizione del problema
asintotica del seguente sistema: 7.12 implica che ∃h tale che per t ≥ t0 , si ha:

ẋ1 = x2 x(t) ≤ h ek(t−t0 ) x0 .


 
ẋ2 = − a + b + a − b f (t) x1
2 2 2 2
2 2 Problema 7.14. Studiare la stabilità esterna del seguente sistema:
con    
T 0 1 0
ẋ = x+ u, y = x.
f (t) = 1, nT ≤ t ≤ (2n + 1) −a2 0 1
2
T
f (t) = −1, (2n + 1) ≤ t ≤ (n + 1)T.
2 Problema 7.15. Studiare la stabilità e la stabilità esterna del seguente
sistema:    
0 1 0 0
Problema 7.10. Assegnata l’equazione differenziale: ẋ =  −1 0 0  x +  0  u, y = x.
0 0 −1 1
ÿ + 3ẏ + (2 + a cos t)y = 0
Problema 7.16. Mostrare che condizione necessaria e sufficiente affinché
trovare i sistemi differenziali equivalenti ponendo:
una matrice Q, simmetrica e con autovalori distinti, sia definita positiva
    (negativa) è che abbia autovalori positivi (negativi).
y 2y + ẏ
x= e x̄ = .
ẏ −y − ẏ Problema 7.17. Studiare dal punto di vista della stabilità le seguenti
equazioni caratteristiche:
Mostrare che solo nel secondo caso, utilizzando condizioni sufficienti di
stabilità, è possibile provare la stabilità asintotica del sistema per |a| < λ3 + 8λ2 + 14λ + 24
1/2 cos θ, dove θ è tale che 0 ≤ θ ≤ π/2 e tan θ − θ = π. λ4 + 3λ3 + 6λ2 + 9λ + 12
λ4 + 3, 2λ3 + 13, 7λ2 + 21, 1λ + 18, 7
Problema 7.11. Con riferimento alla stabilità, in che differiscono i due
seguenti sistemi: λ6 + λ5 + 3λ4 + 4λ3 + 3λ2 + 2λ + 1
    λ6 + 3λ5 + 2λ4 + 9λ3 + 5λ2 + 12λ + 2.
0 0 0 0
ẋ = x, x̄˙ = x̄ ?
0 0 1 0
Problema 7.18. Studiare dal punto di vista della stabilità, e rispetto ai
parametri, le seguenti equazioni caratteristiche:
Problema 7.12. Mostrare che tutti gli autovalori di A hanno parte reale λ3 + (4 + k)λ2 + 6λ + 16 + 8k
minore di k se e solo se per ogni matrice P simmetrica e definita positiva es-
iste una matrice Q, simmetrica e definita positiva, soluzione dell’equazione: λ3 + 14λ2 + 56λ + k
λ4 + 7λ3 + 15λ2 + (25 + k)λ + 2k
−2kQ + A Q + QA = −P.
T
λ4 + 8λ3 + 24λ2 + 32λ + k.
416 7. La stabilità dei sistemi dinamici 7.5. Esercizi e problemi 417

Problema 7.19. Dimostrare che se i coefficienti di un polinomio non hanno Problema 7.23. Studiare la stabilità degli stati di equilibrio dei seguenti
tutti lo stesso segno allora gli zeri non hanno tutti parte reale negativa. sistemi non lineari
ẋ1 = 2x21 − 2 ẋ1 = 2sen x1 − x21 + x3 − 1
x1
Problema 7.20. Assegnata la rete: a) ẋ2 = x31 − x2 + x3 b) ẋ2 = −2 − x22 + x3
x2
ẋ3 = x23 − 2x21 + 1 ẋ3 = x1 − x23 + 1
R1

C1
ẋ1 = x2 − 1
u( t ) R2 C2 y( t) ẋ2 = x3 + cos x4
c)
ẋ3 = x4
ẋ4 = kx1 − x32 + 2x23 − x4 .

Figura 7.21
Problema 7.24. Mostrare che nella costruzione della tabella di Routh si
può avere una riga nulla solo quando il suo indice p è dispari.
trovarne una rappresentazione differenziale e studiare la stabilità e la sta-
Problema 7.25. Studiare la stabilità dei sistemi a controreazione unitaria
bilità esterna.
caratterizzati da una funzione di trasferimento in catena diretta pari a:
−3 10(s + 1)
a) , b) ,
Problema 7.21. Trovare le condizioni necessarie e sufficienti per la sta- (s + 1)(s + 2) (s + 2)(s + 5)
bilità asintotica di:
5(s + 1)(s + 2) 10
a) y(k + 3) + a1 y(k + 2) + a2 y(k + 1) + a3 y(k) = 0 c) , d) .
2 s(s + 1)(s + 3)
s (s + 1.5)(s + 3)
b) y(k + 4) + a1 y(k + 3) + a2 y(k + 2) + a3 y(k + 1) + a4 y(k) = 0
Problema 7.26. Studiare in modo parametrico rispetto a k la stabilità
dei sistemi a controreazione unitaria caratterizzati dalle seguenti funzioni
di trasferimento in catena diretta:
Problema 7.22. Dimostrare che per un sistema a tempo discreto del sec- k k
a) , d) ,
ondo ordine si ha stabilità asintotica se e solo se sono simultaneamente (s + 1)(s + 2) s(s2 + 3.2s + 64)
verificate le seguenti condizioni:
k k(s + 1)
|1 + det(A)| > |tr(A)|, | det(A)| < 1, b) , e) ,
s(s + 1) s2 (s + 2)

one tr(A) indica la traccia di A, ossia la somma degli elementi sulla diago- k(s + 2) k
nale principale. c) , f) .
2 2
s (s + 5) s(s + s + 4)
7.5. Esercizi e problemi 419

Problema 7.30. Studiare la stabilità al variare del parametro k, del sis-


tema caratterizzato dal seguente diagramma di Nyquist:
IIm

+∞ 0-
-∞ +
0 IRe

Figura 7.24

Figura 7.23

essendo
k1
G(s) = , H(s) = k2 s.
s(s + a)
Bibliografia

I seguenti testi trattano questioni matematiche di particolare rilievo per


la Teoria dei Sistemi. Si segnalano in particolare i numeri 22, 29, ottimi per
una preparazione generale in Algebra e per l’inquadramento in un contesto
più generale della teoria degli spazi vettoriali, nonché il numero 3 di notevole
validità e completezza per tutte le questioni relative alle matrici.

1. M. R. Spiegel, Theory and Problems of Laplace Transforms, Schaum’s


Outline Series, Mc Graw–Hill, 1965.

2. F. Ayres, Theory and Problems of Matrices, Schaum’s Outline Series,


Mc Graw–Hill, 1962.

3. F. R. Gantmacher, The Theory of Matrices, Voll. I e II, Chelsea, 1960;


edizione francese: Theorie des Matrices Voll. I e II, Dunoc, 1966.

4. P. R. Halmos, Finite Dimensional vector Spaces, Springer, 1974.

5. E. A. Coddingtomn, N. Levinson, Theory of Ordinary Differential


Equations, Mc Graw–Hill, 1955.

6. H. K. Wilson, Ordinary Differential Equations, Addison, 1971.

7. M. R. Spiegel, Theory and Problems of calculus of finite differences and


difference equations, Schaum’s Outline Series, Mc Graw–Hill, 1971.
422 Bibliografia Bibliografia 423

8. R. Bellman, Introduction to Matrix Analysis, Mc Graw–Hill, 1970. 25. L. A. Pipes, S. A. Hovanessian, Matrix–Computer Methods in Engi-
neering, Wiley, 1969.
9. E. C. Nering, Linear Algebra and Matrix Theory, Wiley, 1970.
26. T. L. Boullion, P. L. Odell, Generalized Inverse Matrices, Wiley, 1971.
10. C. C. Mac Duffee, The Theory of Matrices, Chelsea.
27. S. Lang, Algebra Lineare, Boringhieri.
11. J. A. Eisele, R. M. Mason, Applied Matrix and Tensor Analysis, Wiley,
1970. 28. G. F. Feeman, N. R. Grabois, Linear Algebra and Multivariable Cal-
culus, Mc Graw–Hill, 1970.
12. B. Noble, Applied Linear Algebra, Prentice Hall, 1969.
29. L. Lombardo Radice, Algebra, Feltrinelli.
13. F. Ayres, Modern Algebra, Schaum’s Outline Series, Mc Graw–Hill, 30. A. Ghizzetti, F. Rosati, Lezioni di Analisi Matematica, Voll. I e II,
1965. Veschi.
14. F. Treves, Topological Vector Space, Distributions and Kernels, Aca- 31. Ghizzetti, Marchetti, Ossicini, Complementi di Analisi Matematica,
demic Press, 1967. Veschi.

15. S. Lipschutz, Theory and Problems of Linear Algebra, Schaum’s Out-


line Series, Mc Graw–Hill, 1968.
I seguenti riferimenti sono relativi alla Teoria dei Sistemi. Poiché la
16. O. Zariski, P. Samuel, Commutative Algebra, Voll. I e II, Van Nos- teoria è in rapido sviluppo, alcuni testi hanno prevalentemente interesse
trand, 1960. storico e sono stati segnalati principalmente perché contengono applicazioni
interessanti. I numeri 1, 2, 6, 8, 9, 10, 13, 24 sono forse i più significativi.
17. S. Barnett, Matrices in Control Theory, Van Nostrand, 1971.

18. A. W. Naylor, G. R. Sell, Linear Operator Theory in Engineering Sci- 1. A. Ruberti, A. Isidori, Teoria dei Sistemi, Boringhieri, 1979.
ence, Holt, 1971.
2. A. Ruberti, A. Isidori, Elementi di Teoria della Stabilità, Siderea, 1979.
19. L. Schwartz, Methodes Matematiques pour les SciencecPhysiques, Her-
mann, 1965. 3. R. Hermann, Linear System Theory and Introductory Algebraic Geom-
etry, Interdisciplinary Mathematics, I–VIII, Rutgers University, 1974.
20. S. A. Gall, Linear Analysis and Representation Theory, Springer, 1973.
4. D. M. Wiberg, Theory and Problems of State Space and Linear Sys-
tems, Shaum’s Outline Series, McGraw–Hill, 1971.
21. J. Courbon, Introduction au calcul matriciel, Dunod, 1971.
5. L. Von Bertalanffy, Teoria Generale dei Sistemi, ILI, 1968.
22. S. Mc Lane, G. Birkhoff, Algebra, Mc Millan, 1967.
6. M. D. Mesarovic, Y. Takahara, General System Theory Mathematical
23. S. Lang, Algebra, Addison–Wesley, 1971. Foundations, Academic, 1975.

24. H. H. Rosenbroch, C. Storey, Mathematics of Dynamical Sysems, Nel- 7. R. A. Roher, Circuit Theory: An introduction to the state variable
son, 1970. approach, McGraw–Hill, 1970.
424 Bibliografia Bibliografia 425

8. L. Padulo, M. A. Arbib, System Theory, Saunders, 1974. 26. C. Gori Giorgi e S. Monaco, Teoria dei Sistem: Complementi ed Eser-
cizi, Editrice Universitaria di Roma – La Goliardica, 1988.
9. R. E. Kalman, P. L. Falb, M. A. Arbib, Topics in Mathematical System
Theory, McGraw–Hill, 1969. 27. B. Friedland, Control System Design: An Introduction to State–Space
Methods, McGraw–Hill, 1987.
10. L. A. Zadeh, E. Polak, System Theory, McGraw–Hill, 1969.
28. T. Kailath, Linear Systems, Prentice Hall, 1980.
11. G. J. Klir, Trends in General System Theory, Wiley, 1972.
29. J. J. D’Azzo e C. H. Houpis, Linear Control System Analysis and
12. J. E. Rubio, The Theory of Linear Systems, Academic, 1971. Design: Conventional and Modern, McGraw–Hill, 1988.

13. C. T. Chen, Introduction to Linear Systems, Holt, 1970. 30. H. K. Khalil, Nonlinear Systems, Prentice Hall, 1996.

14. L. M. K. Timothy, B. E. Boa, State space analysis: an introduction, 31. R. C. Dorf, Moder Control Systems, Addison–Wesley Publishing Com-
McGraw–Hill, 1968. pany, 1989.

15. T. G. Windeknecht, General dynamical processes, Academic, 1971. 32. G. Franklin, J. D. Powell e A. Emami–Naeini, Feedback Control of
Dynamic Systems, Addison–Wesley Publishing Company, 1986.
16. D. K. Frederic, A. B. Carlson, Linear systems in Communication and
Control, Wiley, 1971.

17. L. A. Zadeh, C. A. Desoer, Linear System Theory, McGraw–Hill, 1963.

18. S. R. Searle, Linear Models, Wiley, 1971.

19. J. Lifermann, Systemes Lineares, variables d’etat, Masson, 1972.

20. R. J. Schwartz, B. Friedland, Linear Systems, McGraw–Hill, 1967.

21. B. C. Kuo, Linear Networks and Systems, McGraw–Hill, 1967.

22. H. R. Martens, D. R. Allen, Introduction to System Theory, Merrill,


1969.

23. C. A. Desoer, Notes for a Second Course on Linear Systems, Van Nos-
trand, 1970.

24. R. W. Brockett, Finite Dimensional Linear Systems, Wiley, 1970.

25. D. G. Luenberger, Introduction to dynamic Systems theory, models


and applications, J. Wiley & Sons, 1979.

Potrebbero piacerti anche