Sei sulla pagina 1di 310

1

CONTROLLI AUTOMATICI
A.A. 2017/2018

Introduzione al Corso

Due problemi di notevole interesse ingegneristico sono quelli dell’analisi di un generico


sistema reale, naturale o artificiale, per acquisire informazioni sul suo comportamento, e della
sintesi di un adatto dispositivo, denominato controllore, da connettere a tale sistema in grado
di forzare l’intero sistema a comportarsi nel modo desiderato.
Un sistema reale può essere definito come quell' ente che evolve nel tempo a seguito di
azioni esercitate su di esso dall'esterno. In generale, esso è costituito da un insieme di
componenti che interagiscono fra loro al fine di conseguire obiettivi prefissati.
Alcuni esempi di sistemi reali sono i seguenti.

 Un insieme massa-molla-smorzatore che costituisce, ad esempio, un modello fisico di


una sospensione passiva di un autoveicolo; se si inserisce anche un dispositivo in
grado di generare forze meccaniche, denominato attuatore, si ottiene una sospensione
attiva.
 Un motore che è un sistema il cui scopo è quello di imporre un movimento a un dato
carico in accordo a una legge ben precisa che impone un certo andamento temporale,
ad esempio, per la posizione lineare o angolare o per la velocità o per la coppia
motrice.
 Un manipolatore robotico è un sistema i cui scopi sono quelli di manipolare oggetti o
di forzare la parte terminale, l’end effector, a seguire particolari traiettorie, ad
esempio, per operazioni di verniciatura di parti di autoveicoli, per operazioni nello
spazio o in ambienti che l’uomo non può frequentare, come il nocciolo di un reattore
nucleare.
 Un aeromobile.
 Una navicella spaziale.
 Una nave.
 Un veicolo autonomo marino o aereo.
 Uno scaldabagno il cui obiettivo è quello di portare la temperatura dell’acqua a un
prefissato valore.
 Una centrale elettrica il cui obiettivo è quello di produrre energia elettrica con valori
della tensione e della frequenza ben definiti.
 Una raffineria di petrolio.
 Una batteria lanciarazzi sistemata sopra un veicolo mobile, che può essere assimilata
a un pendolo inverso.
Analisi
L'analisi ingegneristica di un sistema reale ha come obiettivo quello di migliorare e, se
possibile, ottimizzare il comportamento del sistema stesso dal punto di vista dell'affidabilità e
dell’efficienza.
Per effettuare l’analisi di un sistema occorre, anzitutto, individuare le grandezze mediante
le quali è possibile stimolare l’evoluzione del sistema, denominate grandezze di ingresso, e le
grandezze il cui andamento temporale è di particolare interesse per giudicare le prestazioni del
sistema, denominate grandezze di uscita.
2

Per valutare le prestazioni del sistema è, allora, possibile sollecitarlo con opportuni
andamenti temporali delle grandezze di ingresso e rilevare i corrispondenti andamenti
temporali delle grandezze di uscita.
Tale valutazione può essere condotta nei seguenti due modi:

a) utilizzando un approccio teorico;


b) utilizzando un approccio sperimentale.

L'approccio teorico si basa sulla conoscenza di un modello matematico del sistema reale,
costituito da un insieme di grandezze e dalle relazioni matematiche far tali grandezze, che sia
in grado di riprodurre il comportamento del sistema reale, entro prefissati margini di
tolleranza, quando il modello e il sistema reale sono sollecitati con gli stessi ingressi ed
evolvono a partire dalle stesse condizioni iniziali.
In tali ipotesi, è possibile effettuare lo studio del sistema reale utilizzando il modello
matematico ad esso associato. Un aspetto importante riguarda la determinazione degli
andamenti temporali delle grandezze di uscita corrispondenti a certi andamenti temporali delle
grandezze di ingresso, risolvendo le equazioni che costituiscono il modello stesso. L’altro
aspetto, ancora più importante, riguarda la individuazione di proprietà del modello che si
riflettono sulle prestazioni che il sistema reale è in grado di fornire.
Per quanto concerne la determinazione della soluzione delle equazioni che costituiscono il
modello matematico, si osservi che, in molti casi, risulta impossibile o oneroso dal punto di
vista computazionale, risolvere analiticamente tali equazioni per via analitica. In generale,
conviene determinare una soluzione numerica delle equazioni stesse avvalendosi dell’ausilio
di un computer. A tal fine occorre implementare il modello sul computer stesso. Poiché, di
solito, il modello matematico che viene associato ad un sistema reale è costituito da equazioni
differenziali mentre i computer sono in grado di eseguire solamente operazioni logiche e
aritmetiche, l'implementazione del modello richiede l'impiego di opportuni metodi che
dipendono dalla sua struttura.
La costruzione di un adeguato modello matematico può essere effettuata:

1. utilizzando tecniche di identificazione che permettono di costruire un modello del


sistema a partire da dati sperimentali relativi alle grandezze di ingresso e di uscita in
un certo intervallo temporale;
2. utilizzando le leggi della fisica, chimica, economia, etc. che descrivono il
comportamento dei componenti del sistema.

In entrambi i casi risulta opportuno validare sperimentalmente il modello matematico


costruito sottoponendo, ad esempio, il modello stesso e il sistema reale agli stessi ingressi e
rilevando e confrontando le corrispondenti risposte.
I vantaggi dell'approccio teorico sono connessi al fatto che non è necessario disporre del
sistema reale per la sua analisi che, pertanto, risulta relativamente poco costosa e priva di
rischi. Inoltre, è possibile determinare anche l’andamento delle grandezze che non sono
accessibili per la misura.
Infine, risulta di fondamentale importanza individuare delle proprietà del modello che si
riflettono sul comportamento del sistema reale, e di poter verificare se tali proprietà sono
soddisfatte, o meno, senza alcuna necessità di risolvere le equazioni che costituiscono il
modello stesso.
Gli svantaggi sono connessi al fatto che il modello matematico che può essere associato al
sistema costituisce una descrizione approssimata del sistema stesso; inoltre,
3

l’implementazione del modello e il metodo impiegato per la soluzione numerica delle


equazioni richiedono sempre il ricorso a certe approssimazioni.
L'approccio sperimentale consiste nell'effettuare alcune prove sperimentali sul sistema
reale, sollecitandolo con opportuni andamenti temporali delle grandezze di ingresso e
rilevando mediante apposita strumentazione gli andamenti temporali delle grandezze di uscita.
I vantaggi di tale approccio sono connessi al fatto che i risultati ottenuti sono relativi al
sistema reale e non a una sua rappresentazione matematica approssimata. Gli svantaggi sono
connessi al fatto che è necessario disporre di un prototipo del sistema su cui eseguire gli
esperimenti, il che risulta notevolmente costoso e rischioso per l'integrità del prototipo stesso.
Inoltre, occorre generare con adeguata strumentazione le grandezze di ingresso con
andamento temporale prefissato. Infine, particolare cura deve essere posta nella scelta della
strumentazione impiegata per misurare le grandezze di uscita e nell'interpretazione dei
risultati ottenuti, poiché i dati rilevati sperimentalmente sono, in generale, corrotti da segnali
di rumore cioè segnali aleatori sovrapposti a quelli reali introdotti dalla modalità con cui
opera la strumentazione o da fenomeni di varia natura.
Dalle precedenti considerazioni emerge che un approccio misto teorico-sperimentale
fornisce i migliori risultati. Più precisamente, il modello ottenuto utilizzando le leggi che
descrivono i componenti che costituiscono il sistema reale, viene anzitutto validato
sperimentalmente su di un prototipo del sistema stesso. L’analisi viene effettuata sul modello
per via teorica, verificando anche se sono soddisfatte o meno le proprietà del modello che si
riflettono sulle caratteristiche di funzionamento essenziali del sistema reale. Se il modello
viene ottenuto mediante procedimenti di identificazione, occorre ovviamente disporre di un
prototipo sul quale eseguire esperimenti adeguati, rilevando le corrispondenti grandezze di
ingresso e di uscita, processando, poi, tali dati sperimentali in accordo all’approccio di
identificazione che si intende utilizzare.

Sintesi
In generale, i sistemi reali sono solo “potenzialmente” in grado di conseguire gli obiettivi
prefissati (ovvero di comportarsi nella maniera desiderata), nel senso che il conseguimento di
tali obiettivi è possibile solamente se su tali sistemi vengono esercitate adatte azioni
dall’esterno denominate azioni di controllo. Il controllo può esercitarsi con o senza
l’intervento diretto dell’uomo; il controllo che si esercita senza l’intervanto diretto dell’uomo
viene denominato controllo automatico. Le succitate azioni di controllo vengono generate dal
un secondo sistema, denominato sistema controllante o controllore, che viene
opportunamente interconnesso con il sistema al quale si desidera imporre il comportamento
desiderato, denominato sistema controllato.

Esempio 1.1.1
Per illustrare gli aspetti fondamentali di un problema di controllo si consideri il seguente
problema analogo a quello del controllo di un pendolo inverso. Il sistema controllato è un’asta
poggiata sul palmo della mano di un uomo e il comportamento desiderato è mantenere
verticale l’asta stessa muovendo solamente la mano (modalità di controllo 1); altre modalità
che potrebbero essere utilizzate sono quelle di mantenere ferma la mano (modalità di
controllo 2) e spostarsi nello spazio circostante, oppure muovere nel contempo la mano e
spostarsi nello spazio circostante (modalità di controllo 3). Ovviamente, il controllo avviene
con l’intervento dell’uomo ed è quindi manuale, cioè non automatico.
E’ facile verificare che quale che sia la modalità di controllo si riesce sempre a conseguire
l’obiettivo prefissato. Naturalmente, è più facile conseguire il succitato obiettivo utilizzando
la terza modalità di controllo poiché non esistono vincoli sulle azioni di controllo che possono
4

essere esercitate sull’asta dall’uomo. E’ anche abbastanza semplice mettere in evidenza i


meccanismi che portano a conseguire l’obiettivo prefissato.

 L’uomo spostandosi in varie direzioni o spostando il palmo della mano esercita delle
azioni sul sistema controllato; gli organi motori dell’uomo agiscono come attuatori.
 La decisione delle azioni più idonee vengono prese dal cervello dell’uomo che agisce
da controllore.
 Le decisioni vengono prese sulla base delle osservazioni della posizione attuale
dell’asta e della sua tendenza che esprimono il comportamento effettivo del sistema e
sulla posizione desiderata dell’asta che esprime il comportamento desiderato o set-
point. Più precisamente, le decisioni vengono elaborate a partire dal confronto fra set-
point e comportamento effettivo. Il dispositivo di confronto viene denominato
comparatore.
 Le osservazioni della posizione attuale dell’asta e della sua tendenza futura vengono
catturate dagli occhi che agiscono da sensori di misura e vengono trasmesse al
cervello mediante il sistema nervoso.
 Il risultato delle elaborazioni del controllore (il cervello), costituisce la legge di
controllo che viene trasmessa agli organi motori dal sistema nervoso centrale. Tale
legge viene elaborata a partire dai risultati del confronto fra comportamento effettivo e
desiderato. L’insieme costituito dal comparatore e dal compensatore viene denominato
controllore.

Uno schema a blocchi strutturale che evidenzia i meccanismi succitati è illustrato nella Fig.
1. Lo schema a blocchi di Fig. 1 ha validità del tutto generale.
Gli obiettivi considerati nell’esempio illustrato sono analoghi a quelli che è chiamato a
perseguire un pendolo inverso il cui schema è riportato nella Fig. 2. Il pendolo è incernierato
alla sommità di un carrello che è azionato da motori elettrici; il movimento del carrello che
trasporta il pendolo può avvenire solamente in una direzione e l’obiettivo che si pone è quello
di mantenere il pendolo in posizione verticale. Con riferimento allo schema di Fig. 1, valgono
le seguenti considerazioni.

Set-point disturbo

Compensato sistema
Comparator Attuatore
re controllato
e

Sensori di
misura

Fig. 1 Schema a blocchi strutturale del sistema di controllo in esame.

 Le informazioni sul comportamento effettivo vengono acquisite misurando l’angolo


formato dal pendolo con la direzione verticale attuale. Il sensore di misura potrebbe
essere un encoder assoluto che fornisce la misura dell’angolo direttamente in formato
digitale.
5

 Il comparatore e il compensatore possono essere realizzati, rispettivamente, mediante


un amplificatore elettronico differenziale e un dispositivo elettronico di tipo analogico.
 L’attuatore è costituito dall’insieme dei motori elettrici che sono calettati sulle ruote e
forzano il carrello a muoversi in una delle due direzioni ammissibili.

Fig. 2 Pendolo inverso.

Esempio 1.1.2 Si desidera mantenere costante la temperatura all’interno della cabina di un


aeromobile a terra e in volo.
Il sistema reale è costituito dai dispositivi di riscaldamento-condizionamento, dalla cabina
dell’aeromobile e dall’ambiente esterno. Ovviamente, da solo tale sistema non è in grado di
conseguire l’obiettivo prefissato. Infatti, se il dispositivo di riscaldamento-condizionamento
fosse mantenuto sempre in funzione nello stato di riscaldamento, la temperatura all’interno
della cabina aumenterebbe fino a un certo valore massimo, mentre se il succitato dispositivo
fosse mantenuto sempre in funzione nello stato di condizionamento la temperatura della
cabina tenderebbe a un certo valore minimo.
Per conseguire l’obiettivo prefissato occorre interconnettere il succitato sistema con un
controllore che decida lo stato del dispositivo di riscaldamento-condizionamento in funzione
della temperatura desiderata e di quella attuale nella cabina. 

Per quanto concerne la determinazione della legge di controllo, o ciò che è lo stesso, la
progettazione o la sintesi del controllore, esistono vari approcci fra i quali l’approccio basato
su modello, quello basato su regole e l’approccio basato sulle reti neurali. L’approccio basato
su modello utilizza informazioni a priori sul sistema fornite dal modello matematico, e
consente di tener conto a priori delle incertezze con cui il modello rappresenta il sistema reale.
L’approccio basato su regole richiede la conoscenza di una descrizione linguistica del
comportamento del sistema. Un esempio tipico di controllori basati su regole che coinvolgono
variabili linguistiche è costituito dai controllori fuzzy. Infine, l’approccio basato su reti neurali
permette l’apprendimento on-line del comportamento del sistema in presenza di certe azioni
di controllo, e di adattare il controllore on-line in funzione delle informazioni rilevate.
6

Notazioni sulle funzioni del tempo

Sia T l’insieme dei valori del tempo, che può coincidere, o meno, con (, +). Una funzione
del tempo v definita su T verrà indicata con v () . Il valore che essa assume all’istante generico
t sarà invece indicato con v (t ) .
Si consideri ora un intervallo di osservazione contenuto in T, definito come segue:

t0 , t    : t0    t; t0 , t  T 
e una funzione del tempo v () . Dicesi restrizione di v () nell’intervallo t0 , t  , o segmento
della funzione v () , l’insieme delle coppie ordinate  , v( )  con   t0 , t  . In simboli:

v  vt ,t   ( , v( )) : t 0    t; t 0 , t T , v( )  v() .


0

La fig. 1 chiarisce le definizioni precedenti nel caso in cui v () sia scalare.

v () vt0 ,t 

v (t)

 
t t0 t
Fig. 1

Una classe di funzioni scalari del tempo si indica con R[v ()] . Con R[v (t )] invece si indica
l’insieme dei valori che le funzioni v () assumono nei vari istanti di tempo t (codominio) e, in
genere, è un insieme indipendente dal tempo. La classe delle restrizioni delle funzioni v ()
nell’intervallo t0 , t  si indica infine con R vt ,t   o, in maniera più sintetica, con R  v  .
 0 
Quanto detto può facilmente essere esteso al caso di funzioni vettoriali, definite come n–pla di
funzioni scalari del tempo. Una generica funzione vettoriale si indica con v () e può essere
rappresentata mediante notazione matriciale, come segue:

 v1 () 
 v () 
v ()   2 
 
 
 v n () 

Il valore che la funzione v () assume all’istante generico t è dato da:


7

 v1 (t ) 
 v (t ) 
v (t )   2  .
 
 
 v n (t ) 
Inoltre, si ha:
v  vt ,t   ( , v ( )) : t 0    t; t 0 , t  T , v( )  v() .
0

Classificazione matematica delle grandezze

Le grandezze sono matematicamente caratterizzate dai loro valori numerici variabili, in


genere, nel tempo. Esistono sostanzialmente due criteri per classificare le grandezze: quello
basato sulla natura dei valori del tempo in cui sono definite e quello basato sulla natura dei
valori che esse assumono nel tempo.
In base all’insieme T dei valori del tempo, le grandezze si distinguono in:
 grandezze a tempo continuo, se T coincide con l’insieme, o un sottoinsieme, dei
numeri reali (cfr. fig. 2);
 le grandezze a tempo discreto, se T coincide o è in corrispondenza biunivoca con
l’insieme Z dei numeri interi

t t
T -2 -1 0 1 2 3 4 5
T
Fig. 2 Fig. 3

Una grandezza a tempo discreto è costituita da una sequenza di valori assunti dalla
grandezza in corrispondenza a valori discontinui del tempo, indicati usualmente con t k , con
k  Z . Esse si possono rappresentare graficamente tramite diagrammi costituiti da sequenze
di punti (cfr. fig. 3).
Per gli scopi di questo corso, è importante considerare grandezze a tempo continuo, alla cui
classe appartengono le grandezze continue a tratti (cfr. fig. 4). In breve, si considerano
continue quelle grandezze che, in un dato intervallo temporale di definizione, sono funzioni
univoche del tempo, salvo in un insieme numerabile di istanti, in cui la grandezza medesima
risulta discontinua.

t1 t2 t
Fig. 4 Grandezza continua a tratti.
8

In base ai valori numerici, invece, le grandezze sono classificabili in:


 grandezze a valori continui, se esse possono assumere valori qualsiasi in un dato
intervallo di valori ammissibili;
 grandezze quantizzate, se possono assumere solo valori appartenenti a un insieme
finito di valori.
Le grandezze quantizzate possono essere sia a tempo continuo che a tempo discreto, come
illustrato nella fig. 6.
Una grandezza a tempo continuo e a valori continui viene denominata grandezza
analogica; una grandezza a tempo discreto e quantizzata viene denominata grandezza
digitale.

t
t

a) grandezza quantizzata b) grandezza quantizzata


a tempo continuo a tempo discreto

Fig. 6 Esempio di grandezza quantizzata.

Con l’avvento dei dispositivi digitali di elaborazione dell’informazione, al fine di utilizzare


tali dispositivi per il trattamento delle grandezze analogiche si è reso necessario trasformare
tali grandezze in formato digitale. In proposito, si noti, anzitutto, che le informazioni vengono
codificate in segnali elettrici, usualmente segnali di tensione. Ne consegue che le grandezze di
interesse in un generico sistema vengono codificate in segnali elettrici e quindi possono essere
manipolati da dispositivi elettronici.
L’obiettivo di trasformazione di un segnale analogico in formato digitale viene conseguito
in due passi successivi.

 Nel primo passo il segnale viene sottoposto alla operazione di campionamento. Nel
caso ideale, tale operazione consiste nel prelevare valori del segnale (campioni) in
corrispondenza a istanti discreti del tempo, generalmente ugualmente spaziati di
T s (periodo di campionamento) (cf. Fig. 7).
 Nel secondo passo tali campioni vengono convertiti in formato digitale (sequenza di
bit) da un convertitore analogico digitale (ADC, Analog-to-Digital Converter). Poiché
un ADC fornisce in uscita una configurazione precisa di bit (12, 14, 16 bit), la
grandezza digitale di uscita appare anche quantizzata.
9

a) grandezza analogica

b) grandezza campionata
Fig. 7 Campionamento di un segnale analogico
10

Cap. 1 Approccio basato su modello per lo studio dei sistemi reali

1.1 Introduzione

Come già detto nell’introduzione al corso, lo studio di un sistema reale verrà effettuato a
partire dalla costruzione di un modello matematico del sistema stesso, validato
sperimentalmente, ed effettuando lo studio del modello stesso.
Lo studio dei modelli matematici si è evoluto come segue:

 sono state individuate classi generali di modelli matematici;


 sono stati messi a punto metodi di studio per ognuna delle classi individuate.

Tale approccio consente di effettuare lo studio dei sistemi reali prescindendo dalla loro natura
fisica, chimica, etc. Infatti, se sono noti i metodi di studio per una certa classe di modelli
matematici si è in grado di effettuare lo studio di tutti quei sistemi reali che possono essere
rappresentati da modelli appartenenti a tale classe.

1.2 Modello matematico

Il modello matematico di un sistema reale costituisce una rappresentazione matematica del


sistema stesso. Tale rappresentazione è un ente astratto, o sistema astratto, costituito da un
insieme di grandezze e dalle relazioni matematiche fra tali grandezze. Ad un sistema reale
possono essere associati diversi modelli matematici dipendentemente dalla scelta delle
grandezze che in essi figurano.
Un punto di vista che si assume per associare un modello matematico ad un sistema reale è
quello ingresso-uscita che consiste nella scelta, fra tutte le grandezze associate al sistema, di
quelle mediante le quali è possibile stimolare l’evoluzione del sistema, denominate come
detto grandezze di ingresso, e di quelle giudicate di particolare interesse per lo studio del
sistema, denominate grandezze di uscita. Le grandezze di ingresso e quelle di uscita vengono
denominate grandezze terminali.
Le grandezze di ingresso giocano il ruolo di grandezze indipendenti e vengono suddivise in
grandezze manipolabili e grandezze non manipolabili. Le grandezze manipolabili sono quelle
grandezze il cui andamento temporale può essere imposto dallo sperimentatore e, quindi,
consentono di guidare l’evoluzione del sistema. Le grandezze non manipolabili sono quelle il
cui andamento temporale non è noto a priori; tali grandezze stimolano l’evoluzione del
sistema in maniera indesiderata e, pertanto, vengono denominate grandezze di disturbo o
disturbi. Al fine di contrastare gli effetti di tali disturbi, è necessario esercitare sul sistema
opportune azioni di controllo con l’obiettivo di modificare gli ingressi manipolabili
Le grandezze di uscita sono quelle grandezze di particolare interesse per lo studio del
sistema. Esse giocano il ruolo di grandezze dipendenti.
L’insieme delle grandezze di ingresso e di uscita e le relazioni matematiche fra tali
grandezze costituiscono un ente astratto che appare orientato dall’ingresso verso l’uscita. Lo
studio dei sistemi astratti orientati è oggetto della Teoria dei Sistemi, nell’ambito della quale
esso viene definito in maniera rigorosa.
Al fine di generalizzare il concetto di modello matematico, si assuma che il sistema reale
sia caratterizzato da p grandezze di ingresso e q grandezze di uscita e si indichino con
u j (t ) e y k (t ) i valori assunti all'istante t dalle funzioni che esprimono l'andamento temporale,
rispettivamente dell'ingresso j-esimo e dell'uscita k-esima. La p-pla di numeri u1 (t ), , u p (t )
11

T
può essere rappresentata mediante la matrice colonna o vettore u(t )  u1 (t ) u p (t ) 
appartenente ad un insieme U che coincide con R p o con un suo sottoinsieme. In maniera
analoga la q-pla di numeri y1 (t ), , y q (t ) può essere rappresentata mediante la matrice
T
colonna o vettore y(t )   y1 (t ) y q (t )  appartenente a un insieme Y che coincide con
R q o con un suo sottoinsieme.
Si assuma l'insieme dei valori del tempo T  ( , ) e siano:
 R u() e R  y() due insiemi costituiti, rispettivamente, di tutte le possibili funzioni
di ingresso e di uscita definiti sull’insieme dei valori del tempo T, con le quali è
possibile sollecitare il sistema astratto e che tale sistema è in grado di generare
 ut0 ,t  e yt0 ,t  , rispettivamente, un segmento di ingresso e un segmento di uscita
nell'intervallo di osservazione t0 , t  , così definiti:


u[t0 ,t ]  ( , u( )) :  [t 0 , t ], u( )  u(), t 0 , t  T 
y[t ,t ]  ( , y( )) :  [t
0 0
, t ], y( )  y(), t 0 , t T

Il modello matematico è costituito da un meccanismo, indicato sinteticamente come segue:

R( ut0 ,t  , yt0 ,t  )  0 , (1.2.1)

che permette di generare un insieme costituito da infinite coppie ingresso uscita in un


generico intervallo di osservazione t0 , t  . Ovviamente, tali coppie corrispondono in maniera
approssimata a quelle generate dal sistema reale poiché nella costruzione di tale meccanismo
occorre introdurre opportune ipotesi semplificative.
Gli insiemi R u() e R  y() vengono denominati, rispettivamente, spazio delle funzioni
di ingresso e spazio delle funzioni di uscita. Gli insiemi di tutti i segmenti di
ingresso ut ,t  e yt ,t  , appartenenti, rispettivamente, agli insiemi R u e R  y vengono
0 0

denominati spazio dei segmenti di ingresso e spazio dei segmenti di uscita. Gli insiemi U e Y
dei valori che tutte le funzioni u() e y() assumono all’istante t sono, per ipotesi,
indipendenti da t e vengono denominati spazio di ingresso e spazio di uscita. Nel seguito si
supporrà che U  R p e Y  R q .
Il modello (1.2.1) si dice statico se l’uscita all’istante t dipende solamente dall’ingresso
allo stesso istante t. Il modello si dice dinamico se l’uscita all’istante t dipende dai valori
passati dell’ingresso ed, eventualmente, anche dall’ingresso all’istante t. Nel seguito si
supporrà che il modello matematico associato a un generico sistema reale sia sempre di tipo
dinamico.
Un modello matematico dinamico può essere rappresentato in due modi: il modello
matematico ingresso-uscita (i-u) e il modello matematico ingresso-stato-uscita (i-s-u).

1.2.1 Modello ingresso-uscita

Il modello i-u è costituito, in generale, da un sistema di equazioni differenziali che legano


variabili di ingresso e loro derivate e variabili di uscita e loro derivate. Un modello i-u si dice
12

lineare se le equazioni differenziali sono lineari, altrimenti viene detto non lineare. Un
modello i-u si dice stazionario o tempo-invariante se i coefficienti che figurano nelle
equazioni differenziali sono costanti, altrimenti viene detto non stazionario o tempo-variante.
Una caratteristica del modello dinamico i-u è che la corrispondenza ingresso-uscita non è
univoca nel senso che a una generica funzione di ingresso applicata a partire dall’istante t 0
incluso possono corrispondere infinite funzioni di uscita dipendentemente dalla storia passata
del sistema fino all’istante t 0 , prodotta dai valori passati dell’ingresso fino all’istante t 0
escluso. Si noti che t 0 viene escluso poiché si è ammesso che l'intervallo di osservazione
comprenda tale istante.

Esempio 1.2.1 Si desidera mantenere costante il livello di un liquido in un serbatoio.

qi
qi l
qu
qu

Fig. 1.1.1 Serbatoio.

Il sistema reale è illustrato schematicamente in Fig. 1. Se qi  qu il serbatoio si riempie


totalmente; se qi  qu il serbatoio si svuota completamente. La grandezza di interesse è il
livello l di liquido nel serbatoio e viene assunta come grandezza di uscita. La grandezza qu si
qualifica come disturbo poiché dipende dalle richieste dell’utenza e, quindi, non può essere
manipolata; tuttavia, essa stimola una evoluzione indesiderata del sistema. La grandezza qi
rappresenta la grandezza che consente di guidare l’evoluzione del sistema e, pertanto, si
qualifica come grandezza di ingresso manipolabile.
Una relazione matematica approssimata che descrive il sistema reale è data da:

(qi  qu )dt  Adl

da cui si ottiene il modello matematico ingresso-uscita:

dl 1
 ( qi  q u ) ,
dt A

che genera, in maniera approssimata, le coppie ingresso-uscita (q , l ) del sistema reale in un


generico intervallo di osservazione [t0 , t ] , dove q  [qi qu ]T è il vettore degli ingressi. 

Esempio 1.2.3 Pendolo semplice

Si consideri il pendolo semplice illustrato nella Fig. 2, dove m, l, f e  sono,


rispettivamente, la massa concentrata alla estremità, la lunghezza del braccio, la forza
13

applicata e la posizione angolare istantanea valutata rispetto alla verticale e positivamente in


verso antiorario.
L'equazione che descrive il comportamento del sistema di Fig. 2 si ottiene dal bilancio
delle coppie all'asse di rotazione ed è data da:

ml 2  b  mgl sin( )  fl ,

dove il termine b rappresenta la coppia di attrito viscoso. Tale equazione costituisce il


modello matematico ingresso-uscita del sistema meccanico di Fig. 1. Essa genera tutte le
possibili coppie ingresso-uscita ( f ,  ) del sistema stesso in un generico intervallo di
osservazione t0 , t  . Il modello in questione è non lineare per la presenza del terzo termine al
primo membro che dipende da sin( ) .

 l f
m

Fig. 1.1.2 Pendolo semplice

1.3 Modello matematico i-s-u

Una ulteriore forma in cui può essere rappresentato il meccanismo R( ut0 ,t  , yt0 ,t  )  0
nell’intervallo di osservazione [ t 0 ,t ] è il modello matematico ingresso-stato-uscita.
Tale modello trae origine dalla osservazione che per i sistemi dinamici è possibile, in molti
casi, definire una nuova variabile ausiliaria vettoriale, denotata con x () , che evolve nel
tempo unitamente alle variabili di ingresso e di uscita, il cui valore all'istante t,
x (t )  X  C n , unitamente a quello dell'ingresso nello stesso istante t, u( t ) , consente di
determinare univocamente l'uscita all'istante t, y( t ) , in accordo alle relazioni:

y1 (t )  g1 ( x1 (t ), x2 (t ), , xn (t ); u1 (t ), u2 (t ), , u p (t ); t ),
y2 (t )  g2 ( x1 (t ), x2 (t ), , xn (t ); u1 (t ), u2 (t ), , u p (t ); t ),

yq (t )  g q ( x1 (t ), x2 (t ), , xn (t ); u1 (t ), u2 (t ), , u p (t ); t ),

che in forma matriciale diventano:

y(t )  g ( x (t ), u(t ), t ) , (1.3.1)

dove x ( t ) , u( t ) , y( t ) e g (, , ) sono funzioni vettoriali di ordine appropriato, date da:


14

x (t )   x1 (t ) xn (t )  , u(t )  u1(t ) u2 (t )
T
u p (t )  ,
T
x2 (t )
T T
y(t )   y1 (t ) y2 ( t ) yq (t )  , g   g1 g2 g q  .

Le variabili x1(t ), x2 (t ), , xn (t ) , nell’intervallo [t0 , t ] , dipendono dai valori iniziali


x1(t0 ), x2 (t0 ), , xn (t0 ) delle variabili stesse, e dai segmenti delle variabili di ingresso
u1,[t0 ,t ) , , u p,[t0 ,t ) , in accordo alle equazioni:

x1(t )  1(t , t0 ; x1(t0 ), , xn (t0 ); u1,[t0 ,t ) , , u p,[t0 ,t ) ),


x2 (t )   2 (t , t0 ; x1(t0 ), , xn (t0 ); u1,[t0 ,t ) , , u p,[t0 ,t ) ),

xn (t )   n (t , t0 ; x1(t0 ), , xn (t0 ); u1,[t0 ,t ) , , u p,[t0 ,t ) ),

che in forma matriciale diventano:

x(t )   (t, t0 , x0 , ut ,t  ) , (1.3.2)


0

dove   [1 n ]T è una funzione vettoriale di ordine n, e x0  [ x1(t0 ) xn (t0 )]T .


Si osservi che x ( t ) , se esiste, riassume tutta la storia passata del sistema fino all’istante t
escluso, prodotta dai valori dell’ingresso fino all’istante t escluso, ai fini della previsione dei
valori dell’uscita per t  t0 .
Se la variabile x () esiste, x 0 e x ( t ) vengono denominati, rispettivamente, stato iniziale e
stato all'istante t, X viene denominato spazio di stato. Le funzioni  (, , , ) e g (, , ) vengono
denominate, rispettivamente, funzione di transizione di stato e trasformazione di uscita. Il
modello (1.3.2) e (1.3.1) viene denominato modello i-s-u in forma esplicita.
Nella maggioranza dei casi, la funzione  (t, t0 , x0 , ut ,t  ) è la soluzione unica di un
0

sistema di equazioni differenziali del tipo:

x1 (t )  f1 ( x1 (t ), x2 (t ), , xn (t ); u1 (t ), u2 (t ), , u p (t ); t ),
x2 (t )  f 2 ( x1 (t ), x2 (t ), , xn (t ); u1 (t ), u2 (t ), , u p (t ); t ),

xn (t )  f n ( x1 (t ), x2 (t ), , xn (t ); u1(t ), u2 (t ), , u p (t ); t ),

che in forma matriciale si scrivono:

x (t )  f ( x (t ), u(t ), t ) , (1.3.3)

La funzione vettoriale f  [ f1 f n ]T viene denominata funzione generatrice e le


equazioni (1.3.3) e (1.3.1) vengono denominate equazioni di stato in forma normale. Tali
equazioni costituiscono un modello a tempo continuo, differenziale e proprio (nel senso che
15

la funzione generatrice dipende dall’ingresso e non dalle sue derivate). Il modello (1.3.3) e
(1.3.1) viene denominato modello i-s-u in forma implicita.
Nel seguito verrà considerato il caso in cui X  C n . I modelli (1.3.3) e (1.3.1) per i quali
U  R p , Y  R p e X  C n vengono denominati sistemi a stato vettore o a dimensione finita.

1.4 Proprietà del modello i-s-u.

 
La funzione  t , t0 , x0 , u[t0 ,t ) gode delle seguenti proprietà

Consistenza:  (t0 , t0 , x0 , u(t0 ))  x0 , t0  T , x0  X , u()  R[u()] ;


Composizione:  (t , t0 , x0 , u[t0 ,t ) )   (t , t1, x(t1 ), u[t1,t ) ) , t0 , t  t0 , t1 [t0 , t ) , u()  R[u()] ,
con x(t1 )   (t1, t0 , x0 , u[t0 ,t1) ) ;
Causalità: lo stato x(t )   (t , t0 , x0 , u[t0 ,t ) ) dipende dall’ingresso nell’intervallo [t0 , t ) .

Osservazione 1.3.1

Si noti che x ( t ) non dipende dall'ingresso all'istante t, poiché riassume l'evoluzione


passata del sistema fino all'istante t escluso. Inoltre, x ( t ) non dipende dall’ingresso per t  t 0
poiché l’evoluzione del sistema per t  t 0 è riassunta dallo stato iniziale x 0 . Infine, x ( t ) non
dipende dall'ingresso negli istanti di tempo futuri rispetto all'istante t poiché i modelli che
descrivono i sistemi reali soddisfano la proprietà di causalità, illustrata nella fig. 1.3.1, in
accordo alla quale l'uscita all'istante t non può dipendere dai valori dell'ingresso futuri a t. E’
utile, però, considerare, per certe applicazioni, modelli non causali per i quali la succitata
proprietà non è valida, ma tali sistemi non sono fisicamente realizzabili on-line.

Osservazione 1.3.2

Com’è noto, condizione sufficiente affinché la succitata equazione differenziale ammetta


soluzione unica è che la f (, , ) soddisfi la condizione di Lipschitz in accordo alla quale:

M (u) : x(t )  X , z(t )  X  f ( x(t ), u(t ), t )  f ( z(t ), u(t ), t )  M x(t )  z(t ) , t .

Conviene osservare che non è sempre possibile riassumere la storia passata di un sistema
con una n-pla di numeri. In alcuni casi occorre definire lo stato come una funzione di una o
più variabili piuttosto che una n-pla di numeri. In tali casi, la determinazione di un modello i-
s-u può risultare molto complessa. Un esempio è costituito da un elemento di puro ritardo
descritto dal modello i-u:

y (t )  u (t   ) .

Un modello di tale tipo si ha nella descrizione matematica di un nastro trasportatore di


lunghezza L che si muove a velocità costante V (  L V ) o di una linea di trasmissione di
segnali. Nel caso in questione, l’uscita nell’intervallo [n , (n  1) ) richiede la conoscenza
dell’intera funzione di ingresso nell’intervallo [(n  1) , n ) , piuttosto che una semplice n-pla
di numeri.
16

L'esame delle (1.3.1) e (1.3.3) mette in luce l'esistenza di una funzione  (, , , ) tale che:

y(t )  g ( (t, t0 , x0 , ut ,t  ), u(t ), t )   (t, t0 , x0 , ut0 ,t  ) . (1.3.4)


0

Le equazioni (1.3.2) e (1.3.3) costituiscono un modello in forma esplicita del sistema.


Se le funzioni f e g non dipendono esplicitamente dal tempo il modello (1.3.2) e (1.3.1)
si dice stazionario o tempo-invariante. Se le funzioni f e g sono lineari rispetto a
x (t ) e u(t ) cioè del tipo:

f  A(t ) x (t )  B(t ) u(t ) ,


g  C (t ) x (t )  D(t ) u(t ) ,

dove A(t ), B(t ), C (t ) e D(t ) sono matrici dipendenti dal tempo, rispettivamente di ordine
n  n, n  p, q  n e q  p , il modello risultante dato da:

x (t )  A(t ) x (t )  B(t )u(t ) , (1.3.5)


y(t )  C (t ) x (t )  D(t ) u(t ) , (1.3.6)

si dice lineare e non stazionario (o tempo-variante). Se le succitate matrici


A(t ), B(t ), C (t ) e D(t ) sono indipendenti dal tempo, il modello (1.3.5) - (1.3.6) si dice
stazionario (o tempo-invariante).

u
y

t0
a)

u
y

t0
b)
Fig. 1.3.1 Principio di causalità: a) sistema causale; b) sistema non causale.
17

Esempio 2.4 Rappresentazione con lo stato per un sistema reale costituito da un insieme
massa-molla-smorzatore.

molla, k f
carrello, m
smorzatore, b

Fig. 1.3.2 Sistema massa-molla-smorzatore

Indicando con s lo spostamento del carrello, valutato positivamente verso destra, il modello
del sistema di Fig. 1.3.2 è dato da:

ms bs ks  f .

Assumendo:
x1  s, x 2  s ,

si ha:
x1  x 2 ,
k b 1
x 2   x1  x 2  f .
m m m

In forma matriciale, il modello diviene:

 0 1  0
 x1    x 
 x    k b   1 u ,
1

 2    x 2   
 m m m

dove u(t )  f (t ) . Ponendo:

 0 1  0
 x1 
x   , A   k b , b   1  , c  1 0 ,
 T

 x2      
 m m m

e scegliendo come uscita y  s , si ottiene il modello i-s-u lineare e stazionario dato da:

x  Ax  b u .
y (t )  cT x .
Osservazione 1.3.4

La stazionarietà di un modello comporta che le risposte nello stato e nell’uscita ad un


ingresso traslato di h secondi lungo l’asse dei tempi e a un arbitrario stato iniziale, sono pari
alle risposte corrispondenti allo stesso ingresso non traslato e allo stesso stato iniziale traslate
anch’esse di h secondi lungo l’asse dei tempi, come illustrato nella fig. 1.3.2, dove Th è
18

l’operatore di traslazione che applicato a una funzione f () : T  F produce una funzione
Th f () : T  F tale che:

Th f (t )  f (t  h) .

Pertanto, per lo studio dei sistemi stazionari è possibile porre t 0  0 , senza ledere la generalità.

Osservazione 1.3.5

La linearità implica il seguente principio generalizzato di sovrapposizione degli effetti:

Siano x1() e y1() ( x2 () e y2 () ) le risposte corrispondenti all’ingresso u1 () (u2 ()) e allo
stato iniziale x10 (x 20 ) . Allora, le risposte all’ingresso k1u1()  k 2u2 () e allo stato iniziale
k1 x10  k 2 x20 sono date, rispettivamente, da k1 x1()  k 2 x2 () e k1 y1()  k 2 y2 () .

Tale principio verrà dimostrato successivamente con riferimento ai modelli lineari e


stazionari.

Th u Th y
u y
Th y
t
t0 t0  h

Fig. 1.3.2 Implicazione della proprietà di stazionarietà dei modelli.

Osservazione 1.3.6

Non esistono sistemi reali che possano essere rappresentati da modelli rigorosamente
stazionari. Infatti, tutti i sistemi reali modificano il loro comportamento nel corso del loro
funzionamento. A titolo di esempio, tutti i sistemi realizzati mediante dispositivi elettronici
modificano le proprie caratteristiche e prestazioni con il tempo a causa dell’invecchiamento
dei componenti, o delle modifiche di condizioni ambientali; un missile che viaggia nello
spazio modifica il suo comportamento a causa del consumo di carburante che produce
variazioni di pesi, momenti di inerzia, etc.
Tuttavia, dal punto di vista ingegneristico e per assegnato intervallo di osservazione, se le
caratteristiche del sistema variano lentamente rispetto all’intervallo di osservazione, al sistema
stesso è possibile associare un modello stazionario.

Osservazione 1.3.7
19

Analogamente alla proprietà di stazionarietà, non esistono sistemi reali che possano essere
rappresentati da modelli rigorosamente lineari. Se le escursioni delle grandezze in gioco non
superano determinati livelli è possibile associare al sistema reale un modello lineare.

I vantaggi del modello i-s-u rispetto al modello i-u sono i seguenti:

1. La struttura del modello i-s-u è indipendente dal numero delle variabili di ingresso e di
uscita, e quindi è la stessa sia per sistemi SISO (single input, single output) che per i
sistemi MIMO (multi inputs, multi outputs).
2. La conseguenza di 1 è che le proprietà di tali modelli possono essere definite e studiate
utilizzando le stesse metodologie, nei casi SISO e MIMO.
3. Il modello i-s-u consente di studiare in modo semplice la classe di sistemi reali a struttura
variabile, che possono essere descritti da una famiglia di modelli, ognuno dei quali
descrive il sistema reale in certe condizioni di funzionamento (vedi ad esempio i
convertitori DC/DC).
20

Cap. 2 Studio nel dominio del tempo di modelli i-s-u, lineari, stazionari, differenziali,
propri, a dimensioni finite e a tempo continuo.

2.1 Risposte nello stato e nell’uscita.

I modelli lineari, stazionari, differenziali, propri, a dimensioni finite e a tempo continuo,


come già detto, hanno la seguente struttura:

x (t )  Ax (t )  Bu(t ) , (2.1.1)
y(t )  Cx (t )  Du(t ) , (2.1.2)

dove le matrici A, B, C e D hanno dimensioni:

A : n  n, B : n  p, C : q  n, D : q  p .

Se risulta D  0 , cioè se manca il legame diretto ingresso–uscita all’istante t, il modello


(2.1.1) - (2,1,2) si dice puramente dinamico o strettamente proprio.
Si osservi che il modello in questione viene anche denominato sistema astratto. Nel seguito,
per sistema si intenderà il sistema astratto.
Ci si pone, adesso, il seguente problema: determinare la risposta nello stato e nell’uscita
all’istante t  t0 corrispondente allo stato iniziale x 0 all’istante t 0 e all’ingresso u[t0 ,t ] .
La soluzione di tale problema è data dalla seguente asserzione.

Asserzione 2.1.1 Le risposte nello stato e nell’uscita all’istante t  t0 corrispondente allo stato
iniziale x 0 all’istante t 0 e all’ingresso u[t0 ,t ] sono date da:

t
x (t )   (t, t0 , x0 , u[t0 ,t ) )   (t  t0 ) x0   H (t   )u( )d , (2.1.3)
t0
t
y(t )   (t, t0 , x0 , u[t0 ,t ] )   (t  t0 ) x0   W (t   )u( )d , (2.1.4)
t0

dove:

 (t )  e At , H (t )  e At B,  (t )  Ce At , W (t )  Ce At B  D (t ) . (2.1.5)

Prova. Dalla (2.1.1), premoltiplicando per e  At si ottiene:

e  At [ x (t )  Ax (t )]  e  At Bu(t ) . (2.1.6)

Il primo membro della (2.1.6) è la derivata rispetto al tempo di e  At x (t ) . Infatti, si ha (cfr.


Appendice 2.1.1):

d  At
e x (t )  e  At x (t )  e  At Ax (t ) .
dt

Ne consegue che la (2.1.6) può essere scritta come segue:


21

d  At
e x (t )  e  At Bu(t ) . (2.1.7)
dt

Integrando la (2.1.7) fra t 0 e t, si ha:

t d  A t
t e x ( )d   e  A Bu( )d ,
0 d t0

la cui soluzione è:

t
e  At x (t )  e  At0 x (t0 )   e  A Bu( )d .
t0

Premoltiplicando per e At si ottiene:

t
x (t )  e A( t t0 ) x (t 0 )   e A( t  ) Bu( )d , (2.1.8)
t0

che, tenendo conto delle (2.1.5) assume la forma (2.1.3).


Sostituendo nella (2.1.2) la (2.1.8), si ottiene:

y(t )  C e A(t t0 ) x(t0 )   e A(t ) Bu( )d   Du(t ) .


t
(2.1.9)
 t0 

Osservando che, per la proprietà campionatrice dell’impulso, Du(t ) può essere scritto come
segue:

t
Du(t )   Du( ) (t   )d ,
t0

la (2.1.9) diviene:

t
y(t )  Ce A(t t0 ) x(t0 )   Ce A(t  ) B  D (t   ) u( )d ,
t0

che, tenendo conto delle (2.1.5), coincide con la (2.1.4).

Si noti che la conoscenza della matrice esponenziale permette il calcolo di tutte le matrici
del modello esplicito. Inoltre, al fine di tenere conto di eventuali discontinuità e della presenza
di impulsi all’istante t 0 nella funzione d’ingresso, il limite inferiore di entrambi gli integrali è
esteso a t 0  , cioè a t0   con  piccolo a piacere.
La matrice  ( t ) viene denominata matrice di transizione di stato, mentre le matrici H (t )
e W (t ) vengono denominate, rispettivamente, matrice delle risposte impulsive nello stato e
matrice delle risposte impulsive nell’uscita o, più semplicemente, matrice delle risposte
impulsive.
22

Ponendo u(t )  0 t  t0 nelle (2.1.3) e (2.1.4), si ottengono le risposte in evoluzione


libera nello stato e nell’uscita date, rispettivamente da:

xl (t )   (t, t0 , x0 , 0[t0 ,t ) )   (t  t0 ) x0 , (2.1.10)


yl (t )   (t, t0 , x0 , 0[t0 ,t ] )  (t  t0 ) x0 . (2.1.11)

Ponendo x0  0 nelle (2.1.3) e (2.1.4) si ottengono le risposte in evoluzione forzata nello


stato e nell’uscita date, rispettivamente, da:

t
x f (t )   (t, t 0 , 0, u[t0 ,t ) )   H (t   )u( )d , (2.1.12)
t0
t
y f (t )   (t, t0 , 0, u[t0 ,t ] )   W (t   )u( )d , (2.1.13)
t0

Osservazione (2.1.1). Le relazioni (2.1.3) e (2.1.4) mostrano che la linearità del modello
matematico implica che le due cause di evoluzione del sistema, cioè lo stato iniziale x 0 e
l’ingresso ut ,t  danno luogo a due evoluzioni indipendenti fra loro, le risposte libera e
0

forzata, la cui somma determina l’evoluzione completa del sistema.

Osservazione (2.1.2). Dalle relazioni (2.1.3) e (2.1.4) si evince che la stazionarietà del
modello matematico implica che la risposta corrispondente allo stato iniziale x 0 all’istante t 0
e all’ingresso ut ,t  si ottiene traslando di t 0 la risposta corrispondente allo stato x 0
0

all’istante 0 e all’ingresso Tt0 ut ,t  . Infatti, con riferimento alla risposta nello stato, si ha:
o

t
 (t ,0, x0 , Tt0 u[t0 ,t ) )   (t ) x 0   H (t   )u(  t 0 )d , (2.1.14)
0
t  t0
Tt0 (t ,0, x0 , T t0 u[t0 ,t ) )   (t  t 0 ) x0   H (t  t 0   )u(  t 0 )d , (2.1.15)
0

Ponendo     t0 la (2.1.15) diviene:

t
Tt0 (t ,0, x0 , Tt0 u[t0 ,t ) )   (t  t0 ) x0   H (t   )u( )d   (t, t 0 , x0 , u[t0 ,t ) ) . (2.1.16)
t0

Osservazione (2.1.3). La struttura delle (2.1.3) e (2.1.4) rende immediata la verifica del
principio generalizzato di sovrapposizione degli effetti.

2.2 Interpretazione delle matrici  (t ), H (t ),  (t ) e W (t ) .

Per quanto concerne la matrice  ( t ) , assumendo t 0  0 e x0   k , dove:

 k  [0 0 1 0 0]T
, (2.2.17)
 k -esimo
23

la risposta libera nello stato, x lk diviene:

xlk (t )   (t ) k  k (t ) , (2.2.18)

dove k (t ) è la k-esima colonna della matrice  ( t ) . Ne consegue che la k-esima colonna


della matrice  ( t ) è la risposta libera nello stato corrispondente allo stato iniziale  k avente
componenti tutte nulle eccetto la k-esima che è pari a 1.
Con riferimento alla matrice H (t ) , assumendo t 0  0 , x0  0 e:

u(t )   k (t ) , (2.2.19)

la risposta forzata nello stato, x f  k (t ) , per la proprietà campionatrice dell’impulso, è data da:

t
x f  k (t )   H (t   ) k  ( )d  H (t ) k  hk (t ) , (2.2.20)
0

dove hk (t ) è la colonna k-esima della matrice H (t ) . Ne consegue che la colonna k-esima


della matrice H (t ) è la risposta forzata nello stato, corrispondente a un ingresso avente
componenti tutte nulle eccetto la k-esima che è pari a un impulso di Dirac localizzato
nell’origine.
Tale interpretazione giustifica la denominazione della matrce H (t ) e mette in evidenza il
seguente vincolo su H (t ) :

H (t )  0, t  0 , (2.2.21)

che è una conseguenza della proprietà di causalità del modello con lo stato. Infatti, tale
proprietà implica che l’effetto segue sempre la causa e, di conseguenza, la generica colonna k-
esima di H (t ) deve risultare nulla per tempi negativi che precedono l’applicazione
dell’ingresso.
In maniera del tutto analoga, la risposta libera nell’uscita corrispondente allo stato iniziale
(2.2.17), ylk (t ) , e la risposta forzata nell’uscita corrispondente all’ingresso (2.2.19), y f  k (t ) ,
sono date da:

ylk (t )   (t ) k   k (t ) , (2.2.21)
t
y f  k (t )   W (t   ) k  ( )d  W (t ) k  w k (t ) . (2.2.22)
0

Tale interpretazione mette in evidenza il vincolo su W (t ) :

W (t )  0, t  0 .

2.3 Trasformazioni di coordinate e forme canoniche.


24

2.3.1 Trasformazione di coordinate.

Com’è noto, in uno spazio vettoriale C n è possibile rappresentare geometricamente i suoi


elementi scegliendo una base Bt  ti i 1 i cui vettori ti , i =1,
n
,n , linearmente indipendenti,
sono elementi dello spazio vettoriale stesso. La rappresentazione geometrica di un generico
elemento x(t )  C n nella base B t è unica ed è data da:

n
x(t )   ti xˆi (t ) ,
i 1

la quale, in forma matriciale, può essere scritta come segue:

x(t )  Txˆ (t ) , (2.3.1)

dove T è una matrice n  n non singolare le cui colonne sono costituite dai vettori della base.
Gli elementi xˆ i (t ) di xˆ (t ) sono le componenti di x ( t ) nella base t i  . Tali componenti
n
i1

possono essere determinate conoscendo la base reciproca Btr   


n
rti i 1 della base data,
definita dalle relazioni:

1, i  j
( rtj , ti )  rtjT ti   , (2.3.2)
 0, i  j

dove i simboli (*) e ( T ) indicano, rispettivamente, le operazioni di coniugazione di vettori ad


elementi complessi e di trasposizione. Infatti, si ha:

n n
( rtj , x(t ))  (rtj ,  ti xˆi (t ))   ( rtj , ti xˆi (t ))  ( rtj , t j xˆ j (t ))  xˆ j (t )( rtj , t j )  xˆ j (t ) .
i 1 i 1

Osservazione (2.2.1) Si ricorda che se X è uno spazio vettoriale a dimensione finita, a tale
spazio si può associare l’operatore prodotto scalare, denotato con ( xi , x j ) , con
xi , x j  X  C n , che soddisfa le seguenti proprietà:

( x, x )  0, x  0 ,
( xi , x j )  ( x j , xi )* ,
( xi , x j )   * ( xi , x j ) ,
( xi  x j , xk )  ( xi , x j )  ( x j , xk ) .

Dalla seconda e dalla terza proprietà si ottiene:

( xi ,  x j )  ( x j , xi )*  [ * ( x j , xi )]*   ( x j , xi )*   ( xi , x j ) .
25

Il prodotto scalare viene calcolato mediante l’espressione ( xi , x j )  ( xi* )T x j , che soddisfa


tutte le proprietà precedentemente illustrate.

Sussiste la seguente Asserzione

Asserzione 2.3.1 Sia dato il modello (2.1.1) e (2.1.2) e si consideri la trasformazione di


coordinate nello spazio di stato (2.3.1), dove T è una matrice n  n , non singolare e a elementi
costanti la cui j-esima colonna è il vettore j-esimo della base scelta. In tale base, il modello
matematico è costituito dalle equazioni:

ˆ ˆ (t )  Bu
xˆ (t )  Ax ˆ (t ) , (2.3.3)
y(t )  Cxˆ ˆ (t )  Du(t ) , (2.3.4)

dove:

Aˆ  T 1 AT , Bˆ  T 1B, Cˆ  CT , Dˆ  D . (2.3.5)

Inoltre, i modelli (2.1.1) - (2.1.2) e (2.3.3) - (2.3.4) sono equivalenti, nel senso che generano
le stesse coppie ingresso-uscita, e fra gli stati iniziali x0 e x̂0 vale la relazione invertibile
x0  Txˆ 0 .

Prova. Sostituendo la (2.3.5) nelle (2.1.1) e (2.1.2), si ottiene:

Txˆ (t )  ATxˆ (t )  Bu(t ) . (2.3.6)


y(t )  CTxˆ (t )  Du(t ) (2.3.7)

Premoltiplicando per T 1 la (2.3.6), si ottiene:

xˆ (t )  T 1 ATxˆ (t )  T 1Bu(t ) . (2.3.8)

Le (2.3.8) e (2.3.7) hanno la struttura (2.3.3) e (2.3.4) con le posizioni (2.3.5).


Per mostrare che i due modelli sono equivalenti, basta osservare che il modello in forma
esplicita corrispondente alle (2.3.3) e (2.3.4) è dato da:

t
xˆ (t )  ˆ (t, t0 , xˆ 0 , u[t0 ,t ) )  ˆ (t  t0 ) xˆ 0   Hˆ (t   )u( )d , (2.3.9)
t0
t
y(t )  ˆ (t, t0 , xˆ 0 , u[t0 ,t ] )  ˆ (t  t0 ) xˆ 0   Wˆ (t   )u( )d , (2.3.10)
t0

dove:

ˆ 1 ˆ2 2 1
ˆ (t )  e At  I  Aˆ t  A t   T 1T  T 1 AT  T 1 ATT 1 ATt 2  
2! 2!
1
=T 1 ( I  At  A 2t 2  )T  T 1e AtT ,
2!
26

(2.3.11)
Aˆ t
Hˆ (t )  e Bˆ  T 1e AtTT 1B  T 1e At B , (2.3.12)
ˆ
ˆ (t )  Cˆe At  CTT 1e AtT  Ce AtT , (2.3.13)
Aˆ t
Wˆ (t )  Cˆe Bˆ  Dˆ  (t )  CTT 1e AtTT 1B  D (t )  Ce At B  D (t )  W (t ) . (2.3.14)

La (2.3.10) mostra che x0 xˆ 0  T 1x0 tale che l’uscita del modello (2.1.1) e (2.1.2)
coincide con quella del modello (2.3.3) e (2.3.4) per tutte le funzioni di ingresso. Ovviamente,
vale anche il viceversa, cioè xˆ 0 x0  Tx0 tale che l’uscita del modello (2.1.1) e (2.1.2)
coincide con quella del modello (2.3.3) e (2.3.4) per tutte le funzioni di ingresso. Ciò implica
che la due rappresentazioni sono equivalenti.

2.3.2 Forme canoniche

Nel paragrafo precedente è stato mostrato che una trasformazione di coordinate nello
spazio di stato porta a un nuovo modello con lo stato equivalente a quello di partenza ma con
matrici Aˆ , Bˆ e Cˆ diverse dalle matrici A, B e C del modello di partenza. Scegliendo
opportunamente la base nello spazio di stato è possibile, in certe condizioni, pervenire a un
modello le cui matrici Aˆ , Bˆ e Cˆ aventi struttura conveniente per risolvere alcuni problemi di
analisi e sintesi. Tali modelli vengono denominati forme canoniche.
Nel caso di modelli con ingresso e uscita unidimensionali, le forme canoniche di interesse
sono la forma canonica di controllo, la forma canonica di osservazione e la forma canonica
diagonale.

Forma canonica di controllo. Le matrici A e b sono date da:

 0 1 0 0 0   0
 0 0 1 0 0   0
   
A , b    , (2.3.15)
   
 0 0 0 0 1   0
 a 0 a1 a 2 a n  2 a n 1  1

mentre la matrice c T è arbitraria. Gli elementi dell’ultima riga della matrice A sono i
coefficienti del polinomio caratteristico ( ) della matrice A, dato da:

( )   n  an 1 n 1  a1  a0 (2.3.16)

Forma canonica di osservazione. Le matrici A e c sono date da:


27

 a n 1 1 0 0 0 1 
 a 0 1 0 0   0
 n 2   
A , c    , (2.3.17)
   
 a1 0 0 0 1  0
 a 0 0 0 0 0 0

mentre la matrice b è arbitraria. Gli elementi della prima colonna sono i coefficienti del
polinomio caratteristico ( ) dato dalla (2.3.16).

Forma canonica diagonale.

La matrice A è data da:

1 0 0
0  0
A 2 , (2.3.18)
 

0 0 n 

mentre le matrici b e c T sono arbitrarie. Gli elementi della diagonale principale della matrice
(2.3.18) sono gli zeri del polinomio caratteristico (2.3.16), ovvero gli autovalori della matrice
A.

Osservazione 2.3.1 Come verrà illustrato nel seguito, l’esistenza di una trasformazione di
coordinate nello spazio di stato, che permetta di passare dal modello assegnato a una delle
forme canoniche mostrate in precedenza, è condizionata dal soddisfacimento di ben precise
condizioni sul modello di partenza.

2.4 Analisi modale

Le espressioni (2.1.3) e (2.1.4) consentono di determinare le risposte nello stato e


nell’uscita ma non mettono in evidenza il modo in cui evolve il sistema. Verrà adesso
mostrato che scegliendo in maniera opportuna la base nello spazio di stato è possibile
individuare modi elementari di evoluzione del sistema che dipendono dalla struttura del
modello e quindi dalle matrici A, B, C e D. Tali modi godono delle proprietà: a) le risposte
libere nello stato e nell’uscita possono essere espresse mediante combinazione lineare dei
modi; b) le risposte forzate nello stato e nell’uscita possono essere ottenute a partire dai modi
elementari stessi.
Nel seguito verrà sviluppata l’analisi modale nel caso di autovalori distinti, rimandando
quella corrispondente ad autovalori multipli che verrà sviluppata nell’ambito dello studio nel
dominio di s.

2.4.1 Risposta nello stato

Si ammetta che la matrice A abbia autovalori distinti. Ne consegue che il suo polinomio
caratteristico ( ) , ossia il determinante della matrice  I  A , è dato da:
28

n
 (  )   (   i ) ,
i1

dove le costanti i (i  1, , n) , cioè gli zeri del polinomio caratteristico, sono gli autovalori.
In tali condizioni, gli autovettori vi associati agli autovalori i , definiti come quei vettori non
nulli tali che:
Avi  i vi , (2.4.1)
risultano linearmente indipendenti e possono quindi essere scelti come base per lo spazio di
stato X.
Ne consegue che il generico elemento x ( t ) dello spazio di stato può essere rappresentato
geometricamente come combinazione lineare degli autovettori, come segue:

n
x (t )   xˆ i (t )vi , (2.4.2)
i 1

dove xˆ i (t ) rappresenta la componente di x ( t ) lungo l’autovettore vi . La (2.4.2) può essere


scritta come segue:

 xˆ1 
 xˆ 
x (t )  v1 v 2 v n   2   Txˆ (t ) , (2.4.3)
 
ˆ 
 xn 

dove la matrice T data da:

T  v1 v2 vn  , (2.4.4)

è una matrice n  n non singolare essendo gli autovettori linearmente indipendenti e:

xˆ (t )   xˆ1 xˆ 2 xˆ n  .
T

La (2.4.3) stabilisce una trasformaione di coordinate dalla base arbitraria di partenza alla
base costituita dagli autovettori. La matrice T viene denominata matrice modale. Dal par.
(2.3.2) è noto che il modello matematico del sistema nella nuova base è dato dalle (2.3.6) e
(2.3.7) dove le matrici Aˆ , Bˆ e Cˆ assumono le espressioni seguenti.

Matrice Â

Per il calcolo della matrice  occorre determinare la matrice T 1 . A tale proposito,


ponendo:
29

 q1T 
 
T 1    ,
q T 
 n

e tenendo presente la (2.4.4), si ha:

 q1T   q1T v1 q1T v n 


   
T 1T    v1 v 2 vn    I ,
q T  q Tv qnT v n 
 n  n 1

da cui deriva:

1, i  j
qiT v j   .
0, i  j

Ne consegue che i vettori qi coincidono con i vettori coniugati della base reciproca della base
costituita dagli autovettori. Più pecisamente, denotando con ri i vettori della base reciproca, si
ha ri*  qi i  1, , n , e quindi:
 r1*T 
 
T 1    . (2.4.5)
 r *T 
n 

La matrice  , per la (2.4.5), risulta:

Aˆ  T 1AT  T 1Av1 vn   T 1  Av1 Avn   T 1 1v1 nvn    ,


(2.4.6)

dove   diag(1, n , , n ) .

Matrice B̂

Adesso, partizionando la matrice B come segue:

B   b1 b p  ,

si ha:
 ( r1, b1 ) ( r1, b p ) 
 
Bˆ  T 1B   . (2.4.7)
( rn , b1 ) ( rn , b p ) 

30

Le (2.4.5) e (2.4.7) mostrano che la dinamica delle componenti di x ( t ) lungo gli auovettori
vi è espressa dalla relazione:
p
xˆ i (t )  i xˆ i (t )   ( ri , b j )u j (t ) , (2.4.8)
j 1

la quale mostra che le componenti del vettore di stato lungo gli autovettori evolvono
indipendentemente l’una dall’altra risultando, quindi, disaccoppiate. Tale evoluzione,
corrispondente allo stato iniziale xˆ 0  T 1x0 , è descritta dalla relazione:
p
xˆ i (t )  e it xˆ i 0   ( ri , b j )  e i ( t  )u j ( )d ,
t
0
j 1
dove xˆ i 0 , componente di x 0 lungo vi , è data da xˆ i 0  ( ri , x0 ) . Ne consegue che:

p
xˆ i (t )  e it ( ri , x0 )   ( ri , b j )  e i (t  )u j ( )d .
t
(2.4.9)
0
j 1

Infine, dalla (2.4.2), si ottiene:

n n p
x (t )   e it ( ri , x0 )vi   ( ri , b j )vi  e i ( t  )u j ( )d .
t
(2.4.10)
0
i 1 i 1 j 1

Ponendo nella (2.4.10) u(t )  0 t , si ottiene la seguente espressione della risposta libera
nello stato:

n
xl (t )   e it ( ri , x0 )vi . (2.4.11)
i 1

La (2.4.11) mette in evidenza che la risposta libera nello stato corrispondente a un generico
stato iniziale x 0 è una combinazione lineare di modi elementari di evoluzione del sistema dati
da e it vi . I coefficienti di tale combinazione sono le componenti di x 0 lungo gli autovettori
vi . Il generico coefficiente ( ri , x0 ) viene denominato eccitazione del modo i dovuta allo stato
iniziale.

Osservazione 2.4.1 I modi elementari di evoluzione del sistema dipendono esclusivamente


dalla matrice dinamica A. Inoltre, l’eccitazione del modo i è indipendente da quella degli altri
modi e dipende solo dallo stato iniziale.

Ponendo nella (2.4.10) x 0  0 si ottiene la seguente espressione della risposta forzata nello
stato:

n p n p
x f (t )     e vi  ( ri , b j )  ei u j ( )d , (2.4.12)
t t
( ri , b j )vi e i ( t  )u j ( )d

i t
0 0
i 1 j 1 i 1 j 1
31

che mette in evidenza che i modi elementari del sistema influiscono anche sulla risposta
forzata ma in modo non lineare.
Sollecitando, adesso, il sistema con un ingresso u(t) avente componenti tutte nulle eccetto
la componente k-esima pari a un impulso localizzato nell’origine, si ha:

n n
x f  k (t )  hk (t )   ( ri , bk )vi  e i ( t  ) ( )d   ( ri , bk )e it vi ,
t
(2.4.13)
0
i 1 i 1

dove hk (t ) è la k-esima colonna della matrice H (t ) . La (2.4.13) mostra che la colonna k-


esima della matrice delle risposte impulsive nello stato è data da una combinazione lineare di
quei modi elementari del sistema per i quali risulta (ri , bk )  0 , che sono eccitati da un
impulso applicato all’ingresso k-esimo quando tutti gli altri ingressi sono nulli. Sussistono, in
proposito, la seguente definizione e il seguente teorema.
Definizione 2.4.1 Un modo si dice eccitabile mediante impulsi in ingresso se compare in
almeno una colonna della matrice H (t ) .

Teorema 2.4.1 Condizione necessaria e sufficiente affinché il modo i–esimo sia eccitabile
mediante impulsi in ingresso è che esista almeno una colonna della matrice B tale che risulti
(ri , bk )  0 , ovvero si abbia ri*T B  0 .

Osservazione 2.4.2 I vettori della base reciproca dipendono dalla matrice A e, pertanto, la
condizione di eccitabilità dei modi è una proprietà di tipo strutturale che dipende, cioè, dalla
struttura del modello.

2.4.2 Risposta nell’uscita

Sostituendo la (2.4.10) nella (2.1.2), si ottiene:

n n p  p
y(t )    e it ( ri , x0 )   ( ri , b j )  e i (t  )u j ( )d  Cvi   d j u j (t ) .
t
(2.4.14)
 i 1 i 1 j 1
0
 j 1

Ponendo nella (2.4.14) u(t )  0 t , si ottiene la seguente espressione della risposta libera
nell’uscita:

n
yl (t )   e it ( ri , x0 )Cvi . (2.4.15)
i 1

La (2.4.15) mostra che assumendo che il modo i-esimo sia eccitato dallo stato iniziale x 0 ,
esso figurerà nella risposta libera nell’uscita se Cvi  0 . Tale modo evolve lungo il vettore
Cvi che può essere considerato come la proiezione di vi nello spazio di uscita.
Sussistono, in proposito, la seguente definizione e il seguente teorema.

Definizione 2.4.2 Un modo si dice osservabile attraverso l’uscita se compare nella espressione
della risposta libera nell’uscita.
32

Teorema 2.4.2 Condizione necessaria e sufficiente affinché il modo i–esimo sia osservabile
attraverso l’uscita è che risulti Cvi  0 .

Osservazione 2.4.2 I vettori della base dipendono dalla matrice A e, pertanto, la condizione di
osservabilità attraverso l’uscita è una proprietà di tipo strutturale che dipende, cioè, dalla
struttura del modello.

Ponendo x 0  0 nella (2.4.14), si ha la seguente espressione della risposta forzata


nell’uscita:

n p p
y f (t )   ( ri , b j )Cvi  e i ( t  )u j ( )d   d j u j (t ) 
t
0
i 1 j 1 j 1
n p p
  e itCvi  ( ri , b j )  ei u j ( )d   d j u j (t ) ,
t
(2.4.16)
0
i 1 j 1 j 1

da cui emerge che la risposta forzata nell’uscita dipende dai modi elementari del sistema in
maniera non lineare. Assumendo che l’ingresso abbia la forma u(t )   k (t ) , la (2.4.16) si
particolarizza come segue:
n
y f  k (t )  wk (t )   ( ri , bk )e itCvi  d k  (t ) , (2.4.17)
i 1

la quale mostra che la k-esima colonna della matrice delle risposte impulsive, per t  0 , è una
combinazione linere di quei modi che risultano nel contempo eccitabili mediante impulsi in
ingresso e osservabili attraverso l’uscita. Inoltre, per t  0 , tal colonna contiene un impulso
nell’origine se d k  0 .

2.4.3 Interpretazione geometrica dei modi

Se la matrice dinamica ha elementi reali, i coefficienti del suo polinomio caratteristico


sono reali e gli autovalori possono essere reali o, a coppie, complessi e coniugati. Si ammetta,
inoltre, che anche lo stato iniziale sia reale. In queste condizioni è possibile individuare modi
naturali di evoluzione corrispondenti ad autovalori reali, denominati modi aperiodici, e
combinare i modi elementari relativi alle coppie di autovalori complessi e coniugati ottenendo
funzioni pseudoperiodiche, denominate modi pseudoperiodici.
Per calcolare tali modi si noti che:

a) gli autovettori associati ad autovalori reali,  i , sono reali;


b) gli autovettori associati ad autovalori complessi sono complessi. In particolare,
l’autovettore associato al generico autovalore k   k  jk verrà denotato con
vk  vka  jvkb , dove vka e vkb sono vettori reali;
c) se k 1   k  jk l’autovettore ad esso associato è dato da vk 1  vk  vka  jvkb ;
d) i vettori della base reciproca corrispondenti a vk e vk 1 , rk e rk 1 , sono dati da
rk  rka  jrkb e rk 1  rk  rka  jrkb , rispettivamente, dove rka e rkb sono vettori reali.
33

Ciò premesso, si consideri la risposta libera nello stato data da:


n
xl (t )   ( ri , x0 ) e it vi . (2.4.18)
i 1

I modi aperiodici sono dati da:

(ri , x0 )e it vi .

Per determinare il generico modo pseudoperiodico, indicati con k e k 1 due autovalori


complessi e coniugati, il loro contributo al calcolo della risposta libera è dato da:

ak (t )  (rk , x0 ) e k t vk  (rk 1, x0 ) e k 1t vk 1 ,

dove:

(rk , x0 )  (rka  jrkb , x0 )  (rka , x0 )  j(rkb , x0 )  M k e jk ,


con:

M k  ( rka , x0 ) 2  ( rkb , x0 ) 2
 (rk b ,x0 ) 
k  arctg  
 (rk a ,x0 )
 

Ne consegue che:

ak (t )  M k e k t [e j (k t k ) (vka  jvkb )  e  j (k t k ) (vka  jvkb )] 


= C k e k t [cos(k t  k )vka  sin(k t  k )vkb ]

avendo posto Ck  2 M k .
Se si ammette allora che, degli n autovalori della matrice A,  siano reali e  siano a coppie
complessi e coniugati, si ottiene:

 
x l (t )   Ri e it vi   C k e k t [cos(k t  k )v ka  sin(k t  k )vkb ] , (2.4.19)
i 1 k 1

È utile, a questo punto, interpretare geometricamente i modi appena presentati.

t
 Il modo aperiodico (ri , x0 )e i vi evolve lungo una traiettoria rettilinea, adagiata
t
sull’autovettore vi , con legge oraria definita dalla funzione aperiodica Ri e i , con
Ri  ( ri , x0 ) . Tale traiettoria converge all’origine dello spazio di stato, degenera in un
34

punto o diverge, a seconda che risulti  i  0,  i  0 e  i  0 , rispettivamente. La


traiettoria e la legge oraria sono illustrate nella Fig. 2.4.1.

i  0 i  0
i  0
i  0
Ri i  0
i  0
x 0
vi t

a) traiettoria b) legge oraria

Fig. 2.4.1 Traiettoria e legge oraria relative al modo aperiodico.

Sovente, il modo aperiodico viene espresso in funzione della costante di tempo Ti   1  i . Il


caso di maggiore interesse è quello in cui  i  0 , in corrispondenza al quale Ti  0 e il modo
aperiodico converge a zero; esso converge a zero tanto più rapidamente quanto minore risulta
Ti . Dopo un tempo pari a 4-5 volte Ti , il modo si riduce a 1.8% e 0.67% del valore iniziale,
rispettivamente, e si considera estinto.

 Il modo pseudoperiodico:

ak (t )= Ck e k t [cos(k t  k )vka  sin(k t  k )vkb ] ,

evolve nel piano individuato dai vettori reali vka e v kb ; le componenti del modo lugo tali
vettori evolvono con leggi orarie date dalle funzioni pseudoperiodiche:

Ck e k t cos(k t  k ), Ck e k t sin(k t  k )

che assumono l’andamento illustrato nella Fig. 2.4.1. Si osserva che il modo converge a zero,
diverge o oscilla in maniera persistene a seconda che  k risulti minore di zero, maggiore di
zero o zero, rispettivamente. Inoltre, è facile verificare che il modo converge a zero o diverge
tanto più rapidamente quanto più risulta elevato il modulo di  k .

2 2 10

8
1.5 1.5
6
1 1
4
0.5 0.5
2

0 0 0

-0.5 -0.5 -2

-4
-1 -1
-6
-1.5 -1.5
-8

-2 -2 -10
0 0.5 1 1.5 2 0 0.1 0.2 0.3 0.4 0.5 0 0.5 1 1.5 2
t [s] t [s] t [s]

 k  2 k  0  k  0.8

Fig. 2.4.1 Leggi orarie relative al modo aperiodico 2e k t cos(k t ) .


35

Le traiettorie del modo corrispondenti sono illustrate nella Fig. 2.4.2.

vkb

k  0 k  0 k  0

Fig. 2.4.2 Traiettorie relative al modo pseudoperiodico

Analogamente al modo aperiodico, il modo pseudoperiodico viene di solito espresso in


termini della pulsazione naturale non smorzata  nk e del coefficiente di smorzamento  k ,
dati da:

nk   k2  k2  k , (2.4.20)


k
k   . (2.4.21)
nk

In termini ti questi ultimi parametri, il modo pseudoperiodico si esprime come segue:

ak (t )= Ck e  knk t [cos(nk 1   k2 t  k )vka  sin(nk 1   k2 t  k )vkb ] (2.4.22)

In Fig. 2.4.3 son illustrati i parametri  k , k ,  k e nk assumendo che


 k  0 e  k  (0,1) . A parità di  nk e al crescere di  k si nota una riduzione di k e un
incremento di  k cui corrisponde una maggiore rapidità con cui il modo tende a zero e una
minore frequenza dell’oscillazione smorzata. In Fig. 2.4.4 sono illustrati gli andamenti della
componente del modo lungo v kb per  k pari a 0.1 e 0.7.

 nk
jk
k
 k  sin( k )

k

Fig. 2.4.3
36

1
0.1
0.7
0.5

ampiezza 0

-0.5

-1
0 2 4 6 8 10
t [s]

Fig. 2.4.4 Andamento della funzione e  knk t sin(nk 1   k2 t ) per  k pari a 0.1 e 0.7.

2.4.4 Autovalori di A multipli

Il caso di autovalori multipli sarà trattato successivamente, nell’ambito dello studio dei
sistemi LTI nel dominio di s.

2.5 Risposte canoniche

Le risposte canoniche sono particolari risposte forzate nell’uscita corrispondenti a


particolari ingressi, detti ingressi canonici, la cui conoscenza, unitamente a quella di un
generico ingresso, consente di determinare la risposta forzata nell’uscita corrispondente
all’ingresso stesso.
Considerando per semplicità sistemi unidimensionali, ossia a un solo ingresso e una sola
uscita, l’espressione della risposta forzata nell’uscita è data da (cfr. (2.1.4)):

t
y f ( t ) =  w( t   ) u(  ) d , (2.5.1)
0

dove w( t ) denota la risposta impulsiva che, come detto, è la risposta forzata nell’uscita
corrispondente a un ingresso costituito da un impulso di Dirac. La (2.5.1) mostra che la
risposta impulsiva è una risposta canonica poiché permette di calcolare la risposta forzata
nell’uscita corrispondente all’ingresso u ( t ) .
Si può dimostrare che i segnali ottenuti integrando ripetutamente l’impulso di Dirac, dati
da:

tk
  ( k 1) ( t ) =  1 ( t ) , (2.5.2)
k!
37

sono segnali canonici. Questi segnali, a differenza dell’impulso, sono realizzabili fisicamente
o approssimabili con segnali reali.
A titolo di esempio verrà considerata la risposta indiciale.

2.5.1 Risposta indiciale

La risposta indiciale è la risposta forzata nell’uscita corrispondente a un gradino unitario il


cui andamento è illustrato in fig. 2.5.1. Tale risposta, denotata con w 1( t ) , è data da (cfr.
(2.5.1)):

t t
w  1 ( t ) =  w( t   )  1 (  ) d   w(  )d , (2.5.3)
0 0

0 t
poiché   1(  ) = 1 per   0 e 0  w(t   ) 1 ( )d è un infinitesimo rispetto a 0 w(  )d .

  1( t )

t
Fig. 2.5.1 Segnale a gradino unitario localizzato nell’origine.

La (2.5.3) mette in luce che la risposta impulsiva è la derivata (nel senso delle distribuzioni)
della risposta indiciale. Ne consegue che la (2.5.1) può essere scritta come segue:

d w 1( t   )
t t d u(  )
y f ( t) = u(  ) d   w  1( t   ) d , (2.5.4)
0 d ( t  ) 0 d

che mostra che è una risposta canonica poiché la sua conoscenza e quella dell’ingresso
permettono di determinare univocamente la risposta forzata nell’uscita corrispondente
all’ingresso. La derivata dell’ingresso che figura nella (2.5.4) va considerata “nel senso delle
distribuzioni”, il che implica che eventuali discontinuità nell’ingresso devono essere
considerate esplicitamente.

Esempio 2.5.1

Si consideri la funzione d’ingresso mostrata in fig. 2.5.2, avente una discontinuità nell’origine. In
accordo alla fig. 2.5.2, essa si può scomporre come segue:

u1( t )
u( t ) u(0  )   1( t )

Fig. 2.5.2
38

u( t ) = u(0  )   1( t ) + u1( t ) .

La sua derivata è data da:

d u( t ) d u ( t)
= u(0  )  ( t ) + 1 .
dt dt

Ne consegue che la risposta forzata nell’uscita risulta:

t d u(  ) t  d u ( t) 
y f ( t )   w 1( t   ) d   w  1 ( t   ) u(0  )  ( t ) + 1  d =
0 d 0  dt 
t d u ( t)
 u (0  ) w 1 ( t ) +  + w 1 ( t   ) 1 d .
0 dt

2.6 Linearizzazione

Si consideri il seguente modello non lineare e tempo-invariante:

x (t )  f ( x (t ), u(t )) , (2.6.1)
y (t )  g ( x (t ), u(t )) . (2.6.2)

Nell’ipotesi che esista il punto di equilibrio x corrispondente all’ingresso costante u , così


definito:

0  f ( x, u) , (2.6.3)

e che si desideri studiare il comportamento del sistema nell’intorno del succitato punto di
equilibrio. Tale studio può essere effettuato linearizzando il modello non lineare (2.6.1) -
(2.6.2) nell’intorno di esso e utilizzando le metodologie di studio per sistemi lineari.
Il sistema linearizzato corrispondente al sistema non lineare (2.6.1) - (2.6.2), si ottiene
come segue. Si assuma:

x (t )  x   x (t ) , (2.6.4)
u(t )  u   u(t ) , (2.6.5)
y (t )  y   y (t ) . (2.6.6)

dove y  g ( x , u ) , e  x (t ) ,  u(t ) e  y (t ) sono piccole variazioni dello stato, dell’ingresso e


dell’uscita nell’intorno del punto di funzionamento del sistema caratterizzato da x (t )  x ,
u(t )  u e y (t )  y .
Dalla (2.6.1), considerando la (2.6.4) e sviluppando le funzioni f ( x, u) e g ( x , u) in serie
di Taylor, si ha:
39

f f
 x(t )  f ( x , u )   x  x   u  u   O f ( x,  u) , (2.6.7)
x x x u x  x
uu uu
g g
y   y (t )  g ( x , u )  x  x  u  u   Og ( x,  u) , (2.6.8)
x x x u x x
u u u u

dove O f ( x ,  u) e Og ( x,  u) sono infinitesimi di ordine superiore rispetto a  x e  u .


Trascurando tali infinitesimi, tenendo conto della (2.6.3) e ponendo:

f f g g
A( x , u )  , B( x , u )  , C ( x, u)   x  x , D( x , u )  ,
x x x u x x x x x u x  x
u u u u u u u u

il modello linearizzato risultante è dato da:

 x (t )  A( x , u ) x  B( x , u ) u , (2.6.9)
 y (t )  C ( x , u ) x  D( x , u ) u . (2.6.10)
40

APPENDICE A

Integrale di convoluzione

Siano f1 () e f 2 () due generiche funzioni del tempo definite nell’intervallo (, +). Si
definisce convoluzione delle due funzioni, o integrale di convoluzione, la funzione del tempo
data da:


f1  f 2   f1( ) f 2 (t   ) d (A.1)


Se l’integrale esiste, esso si calcola moltiplicando la funzione f1 per la funzione f 2 traslata


di t e ribaltata di  rispetto all’asse verticale (cfr. Fig. A.1). L’integrale di convoluzione gode
delle seguenti proprietà:

 
f1  f 2   f1 ( ) f 2 (t   ) d  f 2  f1   f1(t   ) f 2 ( ) d , (A.2)
 
 dk  d k
f1  f 2( k )   f1( ) [ f ( t   )] d  f (k )
 f   d k [ f1( )] f 2 (t   ) d (A.3)
d (t   ) k
 2 1 2

Se le due funzioni f1 e f 2 sono nulle per tempi negativi, si ha:

 t
f1  f 2   f1 ( ) f 2 (t   ) d   f1 ( ) f 2 (t   ) d (A.4)
 0

Impulso di Dirac

La definizione rigorosa dell’impulso di Dirac è data nell’ambito delle funzioni


generalizzate. In questa sede conviene definire l’impulso di Dirac di area unitaria e
localizzato all’istante t 0 come quell’ente matematico tale che:

 (t  t0 )  0 t  t0 , (A.5)

  (t  t0 )dt  1 . (A.6)

L’impulso di Dirac si rappresenta come indicato nella Fig. A.2.

t0
Fig. A.2 Rappresentazione grafica di  (t  t0 ) .
41

Esso non è un segnale fisicamente realizzabile in laboratorio; infatti, ha durata infinitesima


e ampiezza infinitamente grande. Un segnale che può essere generato in laboratorio, seppure
in maniera approssimata, è l’impulso rettangolare di area unitaria,  (t  t0 ,  ) , di Fig. A.3,
dato da:

 1 (t  t 0 )   1 (t  (t 0   ))
 (t  t 0 ,  )  . (A.7)

1
 1 (t  t0 )

t
t0
1
 1 (t  (t 0   ))
1/ 
t
t0 t0+
 (t  t 0 ,  )
1/
t
t0 t0+

Fig. A.3 Impulso rettangolare  (t  t0 ,  ) .

Com’è facile verificare dall’esame della Fig. A.4, si ha:

lim  (t  t0 ,  )   (t  t0 ) . (A.8)
 0

t0 t0+

Fig. A.4 Limite dell’impulso rettangolare di Fig. 3 al tendere di  a zero.

Si noti che la proprietà (A.6) vale anche per limiti di integrazione finiti, purché t0 sia
contenuto entro tali limiti. In particolare, si ha:

t 0 t  t0
  (t t0 )dt  1 t  t0
,

da cui si ottiene:
42

t
  (t t0 )dt   1(t  t0 ) . (A.9)

Per mostrare che l’impulso è la derivata (nel senso delle distribuzioni) del segnale a
gradino, si può procedere nel modo seguente (vedi Giovanni Marro, Controlli Automatici, Ed.
Zanichelli). Nella Fig. A.5 e A.6 sono riportati gli andamenti dell’impulso rettangolare
 (t  t0 ,  ) di Fig. A.3 per   2 e   0.5 , rispettivamente. Inoltre, com’è facile verificare,
 (t  t0 ,  ) è la derivata del segnale a rampa lineare saturata. Ne consegue che, al tendere di
 a zero, la rampa lineare saturata tende al gradino unitario e la sua derivata tende all’impulso
di Dirac. Quindi, si ha:

Fig. A.5 Andamento di  (t  t0 ,  ) per   2 .

Fig. A.6 Andamento di  (t  t0 ,  ) per   0.5 .

d
 1 (t  t0 )   (t  t0 ) . (A.10)
dt

Generalizzando la (A.10), data la funzione discontinua di Fig. A.5 a), decomponendola


nella somma delle due funzioni di Fig. A.5 b) e c), si ha:
43


f (t )  f1(t )  [ f (t 0 )  f (t0 )] 1(t  t0 ) ,
 
f (1) (t )  f1(1) (t )  [ f (t0 )  f (t0 )] (t  t 0 ) .

f (t )

t
t0

f 1 (t )
t

[ f (t 0 )  f (t 0 )] 1(t  t 0 )

Fig. A.7

Integrando la (A.10), si ha:

t t t
 2 (t  t0 )    1(  t0 )d  
 
 (  t0 )d , (A.11)


che è la funzione a rampa lineare localizzata all’istante t 0 ; integrando la (A.11) si ottiene una
funzione la rampa parabolica:

t t t t t
 3 (t  t0 )  
  1
 (  t0 )d      (  t0 )d , (A.12)
  

Le funzioni a gradino, a rampa lineare e a rampa parabolica sono illustrate nella Fig. A.6,
assumendo t 0  0 .

Adesso, data una funzione f (t ) continua all’istante t 0 , per la (A.5), si ha:

f (t ) (t  t0 )  f (t0 ) (t  t 0 ) ,

da cui, per la (A.6), si ottiene:

  
 f (t ) (t  t0 )dt  

f (t 0 ) (t  t 0 )dt  f (t 0 ) 

 (t  t 0 )dt  f (t 0 ) , (A.13)
44

che esprime la proprietà campionatrice dell’impulso. Tale proprietà vale anche se i limiti di
integrazione sono finiti, purché contengano l’istante t 0 . Inoltre, essa vale anche per la
convoluzione di una funzione f (t ) continua in t e della funzione generalizzata  ( t ) . Infatti,
si ha:

  
f    f ( ) (t   )d   f (t   ) ( )d  f (t )   ( )d  f (t ) (A.14)
  

a) b) c)

Fig. A.6 a) segnale a gradino; b) segnale a rampa lineare; c) segnale a rampa parabolica.

Oltre alla funzione a gradino a gradino, anche la funzione di Gauss data da:

1  (t  t 0 ) 2 
 (t  t 0 ,  )  exp   2 
, (A.15)
2  2 

soddisfa la (A.8) e può essere utilizzata per definire l’impulso di Dirac (cfr. Fig. A.7). Il
vantaggio di tale funzione è connesso al fatto che a partire dalle sue derivate e facendo
tendere  a zero è possibile definire le derivate successive dell’impulso, come illustrato nella
Fig. A.8.

Fig. A.7 Funzione di Gauss al diminuire di  .

Matrice esponenziale

Com’è noto, data una funzione esponenziale e  t con  scalare, si ha:


1 22 1 33 1 k k 1
e t  1   t 
2!
 t   t 
3!

k!
 t    k ! kt k . (A.16)
k 0
45

In modo analogo, data una matrice A n  n ad elementi costanti, si definisce matrice


esponenziale la seguente serie:


1 22 1 33 1 k k 1
e At  I  At 
2!
At  At 
3!

k!
A t    k ! Ak t k , (A.17)
k 0

che risulta convergente per tutti i t finiti. La matrice esponenziale soddisfa le proprietà:

1. det(e At )  0, t ;
2. e A( t1  t2 )  e At1 e At2 , t1, t 2 ;
3. (e At ) 1  e  At ;
d At 1 1
4. e  A  A 2t  A3t 2   A k t k 1   Ae At  e At A
dt 2! (k  1)!
5. e At e Bt  e( A B)t , se AB  BA .
1

Cap. 3 Studio dei modelli lineari e stazionari nel dominio di s

3.1 Introduzione

Lo studio di un modello matematico nel dominio di s è di gran lunga più semplice di quello
nel dominio del tempo in quanto, con opportune operazioni, si riesce a trasformare il modello
costituito, in generale, da equazioni differenziali nel dominio del tempo in un modello costituito
da equazioni algebriche nel dominio della variabile complessa s. Tali equazioni possono essere
manipolate mediante operazioni algebriche. Poiché però il dominio in cui si riesce a interpretare
fisicamente un fenomeno è il dominio del tempo, occorrerà dopo adeguate manipolazioni
algebriche effettuare l’operazione inversa di trasformazione nel dominio del tempo (cf. Fig.
3.1.1)
Si considera insomma un sistema di equazioni differenziali, da cui, mediante particolari
funzioni come l’operatore trasformata di Laplace, si passa a un sistema di equazioni algebriche
nella variabile s, a cui corrisponde un insieme di risposte in t, ricavabile mediante l’operatore
inverso (fig. 37).

MODELLO
L [⋅] L−1 [⋅]
sistema di risposte
(equazioni equazioni in t
algebriche in

Fig. 3.1.1 Fasi dello studio nel dominio di s.

3.2 Studio nel dominio di s dei modelli lineari a stazionari

In questa Sezione viene illustrato un metodo di studio basato sull’impiego della trasformata
di Laplace, i cui elementi vengono presentati in Appendice 2, considerando modelli lineari e
stazionari dati da:

ɺx (t ) = Ax (t ) + Bu(t ) , (3.2.1)
y(t ) = Cx (t ) + Du(t ) . (3.2.2)

Trasformando secondo Laplace le (3.1.1) e (3.1.2), assumendo t 0 = 0 , si ottiene:

sX (s) − x 0 = AX (s) + BU ( s ) , (3.2.3)


Y ( s ) = CX ( s) + DU ( s ) , (3.2.4)

dove x (0) = x 0 .

Dalla (3.2.3) si ottiene:

( sI − A) X ( s ) = x 0 + BU ( s ) ,

da cui, premoltiplicando per ( sI − A) −1 , si ottiene:

X ( s ) = ( sI − A) −1 x 0 + ( sI − A) −1 BU ( s )
(3.2.5)
2

che sostituita nella (3.2.4) fornisce la seguente espressione della trasformata di Laplace
dell’uscita:

Y ( s ) = C ( sI − A) −1 x 0 + [C ( sI − A) −1 B + D]Us) . (3.2.6)

Trasformando, adesso, secondo Laplace le risposte nello stato e nell’uscita date da:

x (t ) = Φ (t ) x0 + 0t H (t − τ )u(τ )dτ , t ≥ 0 ,


y(t ) = Ψ (t ) x0 + 0t W (t − τ )u(τ )dτ , t ≥ 0 ,

si ottiene:

X ( s ) = Φ ( s ) x 0 + H ( s )U ( s ) , (3.2.7)
Y ( s ) = Ψ ( s ) x 0 + W ( s )U ( s ) .
(3.2.8)

Confrontando le (3.2.7) e (3.2.8) con le (3.2.5) e (3.2.6), si ha:

Φ ( s ) = ( sI − A) −1 ,
H ( s ) = ( sI − A) −1 B ,
Ψ ( s ) = C ( sI − A) −1 ,
W ( s ) = C ( sI − A) −1 B + D .

La matrice W(s) data dalla trasformata di Laplace della matrice delle risposte impulsive viene
denominata “matrice di trasferimento”

3.3 Calcolo della matrice di transizione di stato.

Dall’analisi precedente emerge che per il calcolo delle risposte libere e forzate nello stato e
nell’uscita occorre calcolare la matrice di transizione di stato Φ (t ) . Dalla formula di inversione
delle matrici, si ha:

( sI − A) a P ( s )
Φ ( s) = ( sI − A) −1 = = , (3.3.1)
∆( s) ∆( s)

dove:

∆ ( s ) = s n + a n −1s n −1 +⋯ a 0 ,

è il polinomio caratteristico della matrice A. Poiché gli elementi della matrice P(s) minori di
ordine n-1 della matrice (sI-A), essi sono polinomi di grado al più n-1. Ne consegue che P(s)
può esse scritto come segue:

P ( s) = Pn −1s n −1 +⋯ + P0 ,
3

dove le Pi ( s ) sono matrici di ordine n × n ad elementi costanti. Ne consegue che gli elementi
della matrice Φ ( s) sono funzioni razionali strettamente proprie di s e, come tali, possono essere
sviluppati in frazioni parziali.
Conviene osservare che il calcolo manuale di tali elementi risulta difficile per n ≥ 3 .
Pertanto, per valori elevati di n conviene eseguire il calcolo utilizzando adatti algoritmi. Un
algoritmo diffuso è quello di Souriaux-Faddeeva basato sulle seguenti formule ricorsive:

Pn − k = a n − k +1 I + APn − k +1 ,
1
a n − k = − tr ( APn − k ) ,
k
k = 2,⋯ , n ,

che viene inizializzato ponendo:

Pn −1 = I , a n-1 = −tr ( A) ,

essendo tr(Q) la traccia della matrice Q che è pari alla somma degli elementi della diagonale
principale. La correttezza dei risultati ottenuti può essere valutata verificando il
soddisfacimento della equazione:

a 0 I + AP0 = 0 .

L’algoritmo in questione è facilmente implementabile su PC.


Ciò premesso, il calcolo della matrice di transizione di stato può essere effettuato in due
modi dipendentemente dagli autovalori della matrice A.

3.3.1 Caso di autovalori distinti.

Nel caso di autovalori, λi , tutti distinti il polinomio caratteristico è dato da:

n
∆ ( s ) = ∏ ( s − λi ) .
i =1

Lo sviluppo in frazioni parziali di Φ ( s) è dato da:

n Ri
Φ ( s) =  , (3.3.2)
i =1 ( s − λi )

dove le matrici dei residui Ri sono date da:

Ri = lim ( s − λi )Φ ( s ) .
s → λi

Antitrasformando la (3.3.2), si ottiene:

n
Φ (t ) =  Ri e λit , (3.3.3)
i =1
4

e, di conseguenza, la risposta libera nello stato risulta:

n
x l (t ) =  Ri x 0e λit , t ≥ 0 ,
i =1
(3.3.4)
dove i termini Ri x0e λit vengono ancora denominati modi elementari di evoluzione.
Nell’ipotesi, adesso, che i coefficienti del polinomio caratteristico siano reali, gli autovalori
sono reali e a coppie complessi e coniugati. Assumendo che gli autovalori reali e complessi
siano, rispettivamente, µ e 2ν , separando il contributo dei modi corrispondenti ad autovalori
reali, σ i , da quello dei modi corrispondenti alle coppie di autovalori complessi e coniugati,
λk = σ k + jωk e λk +1 = λk* = σ k − jωk , la (3.3.4) diviene:

µ ν
x l (t ) =  Ri x 0eσ it +  ( Rk x 0e λk t + Rk* x 0e λk t ),
*
(3.3.5)
i =1 k =1

dove si è tenuto conto del fatto che le matrici dei residui corrispondenti ad autovalori complessi
e coniugati sono a loro volta complesse e coniugate. Ponendo:

Rk = Rka + jRkb ,

con Rka e Rkb matrici reali, la (3.19) diviene:

µ ν
x l (t ) =  Ri x 0eσ it +  eσ k t [2 Rka x 0 cos(ωk t ) − 2 Rkb x 0 sin(ωk t )] . (3.3.6)
i =1 k =1

I termini:

Ri x 0eσ it ,
eσ k t [2 Rka x 0 cos(ω k t ) − 2 Rkb x0 sin(ω k t )] ,

vengono ancora denominati, rispettivamente, “modi aperiodici” e “modi pseudoperiodici”. La


(3.3.6) mostra che la m-esima componente di x l (t ) è una combinazione lineare di funzioni
aperiodiche e pseudoperiodiche date, rispettivamente, da:

e σ it ,
eσ k t cos(ωk t + ϕ k ) ,

3.3.2 Caso di autovalori multipli.

Il polinomio caratteristico di A e la matrice Φ ( s) possono essere scritte come segue:

r
∆(s) = ∏ (s − λi ) M i (3.3.7)
i =1
5

( sI − A) a
Φ ( s) = . (3.3.8)
∆( s )

Nel caso di autovalori multipli può accadere che esistano fattori comuni fra tutti gli elementi
della matrice ( sI − A) a e il polinomio caratteristico ∆(s) . Cancellando tali fattori, si ha:

Q( s)
Φ ( s) = , (3.3.9)
ψ ( s)

dove Q( s ) è una matrice n × n e ψ ( s ) è un polinomio, denominato polinomio minimo di A,


dato da:

∆( s )
ψ ( s) = . (3.3.10)
m.c.d di tutti gli elementi di (sI − A) a

Il polinomio minimo ha gli stessi zeri del polinomio caratteristico ma con molteplicità inferiore
o, al più, uguale:

r
ψ ( s) = ∏ ( s − λi ) mi , (3.3.11)
i =1
dove mi ∈ [1, M i ] .
Lo sviluppo in frazioni parziali della matrice Φ ( s) è dato da:

r mi −1 Rik
Φ ( s) =   ,
i =1 k = 0 ( s − λi ) k +1
(3.3.12)
dove:

1 d mi −1− k Q( s)
Rik = lim [( s − λi ) mi ].
s → λi ( mi − 1 − k )! ds i
m −1− k
ψ ( s)

L’antitrasformata della funzione Φ ( s) risulta:

r mi −1 t k λit
Φ (t ) =   Rik e . (3.3.13)
i =1 k = 0 k!

Postmoltiplicando per x0 , si ottiene la risposta libera nello stato data da:

r mi −1 t k λi t
xl (t ) =   Rik x 0 e . (3.3.14)
i =1 k = 0 k!
Il generico termine:
mi −1 t k λit
xli (t ) =  Rik x0 e , (3.3.15)
k =0 k!
6

costituisce il modo associato all’autovalore λi . Conseguentemente, la risposta libera nello stato


è data dalla sovrapposizione di r modi elementari di evoluzione del sistema.

3.3.3 Struttura delle matrici Φ (s), H (s), Ψ (s), W (s)

Le matrici che compaiono nella rappresentazione esplicita del sistema nel dominio di s hanno
tutte struttura razionale fratta. In particolare:

Φ ( s ) = ( sI − A) −1 è strettamente propria;
H ( s ) = ( sI − A) −1 B è strettamente propria;
Ψ ( s ) = C ( sI − A) −1 è strettamente propria;
strettamente propria per D = 0
W ( s ) = C ( sI − A) −1 B + D è  .
 propria per D ≠ 0
Inoltre, si ha:

 (sI − A) a
 ∆( s ) per autovalori distinti o multipli ma in assenza di fattori comuni

Φ ( s) =  .
 Q ( s )
per autovalori multipli e in presenza di fattori comuni
 ψ ( s )

Conseguentemente, denominando poli di una matrice di funzioni di s gli zeri del minimo
denominatore comune di tutti gli elementi della matrice stessa, si ha che:

• i poli di Φ ( s) sono gli autovalori di A con molteplicità algebrica o geometrica;


• i poli della matrice W ( s ) coincidono, in generale, con un sottoinsieme degli autovalori
di A a causa di cancellazioni che possono avvenire fra fattori comuni in tutti gli elementi
della matrice stessa.

Risulta chiaro, quindi, che la matrice di trasferimento non contiene, in generale, tutte le
informazioni sul sistema.
In proposito, nel caso di autovalori distinti, si dimostra che fra i poli della matrice W ( s ) non
figurano gli autovalori di A che corrispondono a modi inosservabili attraverso l’uscita o non
eccitabili mediante impulsi in ingresso. Infatti, trasformando secondo Laplace la risposta
forzata nell’uscita (2.4.16), si ha:

n p p
1
Y f ( s ) =  ( ri , b j )Cvi U j ( s ) +  d jU j (t ) =
i =1 j =1 s − λi j =1
(3.3.1)
n
Cvi  n (Cvi )( ri*T B) 
 s − λ ( ri , b1 ) ⋯ (ri , b p ) U ( s) + DU ( s) =   s − λ + D  U ( s)
 
i =1 i  i =1 i 

da cui si ottiene:
7

n
(Cvi )( ri*T B)
W ( s) =  + D, (3.3.2)
i =1 s − λi

Quindi, se Cvi = 0 (modo i inosservabile) o ri*T B = 0 (modo i non eccitabile mediante impulsi
in ingresso) l’autovalore λ i non figura fra i poli di W(s).
2017/2018 1

Cap. 4

Rappresentazioni grafiche delle funzioni di s e 

Le funzioni di trasferimento che derivano da modelli matematici associati a sistemi reali


sono al più funzioni proprie. Tuttavia, poiché nel presente capitolo verranno illustrate le
rappresentazioni grafiche di funzioni di s di tipo generale (non necessariamente funzioni di
trasferimento), verranno considerate funzioni razionali di s anche improprie.
Successivamente, verranno illustrate le rappresentazioni grafiche delle funzioni complesse
di variabile reale  ottenute dalle funzioni di s mediante la sostituzione s = j . Le risultanti
funzioni di variabile reale , come detto, non sono in generale trasformate di Fourier di
funzioni del tempo.

4.1 Rappresentazioni grafiche di funzioni razionali fratte della variabile complessa s

Le funzioni di s razionali fratte possono essere scritte, com’è noto, come segue:

l l −1

L( s )
 bi s i L' ( s )
s l +  bi' s i
i =0 i =0
W (s) = = n
= Kw = Kw n −1
, (4.1.1)
N ( s) N ' ( s)
 ai s i s n +  ai' s i
i =0 i =0
dove:
bl b ai
Kw = , bi' = i i = 1, l − 1, ai' = i = 1, l −1 .
an bl an

Si assumerà che entrambi i polinomi a numeratore e denominatore abbiano coefficienti reali.

Le rappresentazioni più significative di tali funzioni sono:

a) rappresentazione mediante poli e coefficienti;


b) rappresentazione mediante poli e zeri e fattore di trasferimento;
c) rappresentazione mediante poli e zeri e guadagno.

4.1.1 Rappresentazione mediante poli e coefficienti

Questo tipo di rappresentazione è la più semplice ed esiste solo se la funzione di


trasferimento è strettamente propria ( l  n ). In tal caso essa può essere sviluppata in frazioni
parziali, come segue:

r mi −1
1
W ( s) =   Rik (4.1.2)
i =1 k = 0 ( s − pi ) k +1

dove si è assunto che la W(s) abbia r poli distinti p i , ciascuno di molteplicità mi . La


funzione (4.1.2) rappresentata sul piano della variabile s, indicando i poli con crocette e
riportando accanto a ciascun polo i relativi coefficienti Rik , k = 1, , mi − 1 (cfr. Fig. 4.1.1,
2017/2018 2

dove si è considerata una coppia di poli complessi e coniugati). Ovviamente, i coefficienti del
polo pi +1 sono i complessi coniugati dei coefficienti Rik , k = 1, , mi − 1 .

Ri 0 , Ri ,mi -1 j

pi

pi +1

Fig. 4.1.1 Rappresentazione poli e coefficienti relativa a una coppia di poli c.c. di molteplicità
mi .

4.1.2 Rappresentazione mediante poli e zeri

Poiché questo tipo di rappresentazione non è basato sullo sviluppo in frazioni parziali,
esiste qualunque siano l e n . Essa assume due forma diverse a seconda che venga messo in
evidenza il fattore di trasferimento o il guadagno.
Tale rappresentazione si ottiene fattorizzando i polinomi L' ( s) e N ' ( s) . Assumendo che
L' ( s ) abbia r zeri di cui  zeri reali,  i , e  coppie di zeri complessi e coniugati,
 k  jk , si ha:

r  
L' ( s) =  ( s − zi ) mi =  ( s −  i ) mi  ( s −  k − jk ) mk ( s −  k + jk ) mk =
i =1 i =1 k =1
 
=  ( s −  i ) mi  [( s −  k ) 2 + k2 ]mk . (4.1.3)
i =1 k =1

Assumendo che N ' ( s) abbia r zeri di cui  zeri reali,  i , e  coppie di zeri complessi e
coniugati,  k  jk , e assumendo che  1 = 0 , si ha:

r  
N ( s ) =  ( s − pi )
' mi
=  (s −  i ) mi
 (s −  k − jk ) m k ( s −  k + jk ) mk =
i =1 i =1 k =1
 
= s m1  ( s −  i ) mi  [( s −  k ) 2 + k2 ]mk . (4.1.4)
i =2 k =1

Assumendo che L' (s) e N ' (s) siano primi fra loro, la rappresentazione poli-zeri e fattore di
trasferimento della W(s) è allora data da:
2017/2018 3

r  
 ( s − zi ) mi
 ( s −  i ) m  [( s −  k ) 2 + k2 ]m
i k

i =1 i =1 k =1
W ( s) = K w r
= Kw  
. (4.1.5)
 ( s − pi ) mi
s m1
 ( s −  i )  [( s −  k )
mi 2
+ k2 ]mk
i =1 i =2 k =1

La (4.1.5) suggerisce una rappresentazione grafica nel piano di Gauss ottenuta denotando gli
zeri con un cerchietto, i poli con una crocetta e indicando K w in un apposito riquadro. A
titolo di esempio, nella Fig. 4.1.2 è riportata la rappresentazione della funzione:

( s − 1)( s + 5) 3
W ( s) = 10 ,
s 2 ( s + 1 + j 3)( s + 1 − j 3)

ottenuta in ambiente MATLAB.

Pole-Zero Map
3

2
K =10
w

1
Imaginary Axis

0
m=3 m=2

-1

-2

-3
-6 -5 -4 -3 -2 -1 0 1 2
Real Axis

Fig. 4.1.2

Ponendo:

1 k
Ti = − , nk =  k2 + k2 ,  k = − ,
i nk
1 
Ti = − , nk =  k2 + k2 ,  k = − k ,
i nk

la (4.1.5) diviene:
2017/2018 4

 
1
 ( s + T ) m  [s 2 + 2 knk s + nk2 ]m
i k

i =1 k =1
W ( s) = K w 
i

. (4.1.6)
1
s  ( s + ) mi  [ s 2 + 2 knk s + nk
m1 2 mk
]
i =2 Ti k =1

Definendo, adesso, guadagno di una funzione di s, avente un polo di molteplicità m1


nell’origine, la costane K gw data da:

 
1
 T m  nk2m
i
k

i =1 k =1
K gw = lim s m1W ( s ) = K w 
i

, (4.1.7)
s →0 1
Tm  i
nk
2 mk

i =1 i k =1

la (4.1.6) può essere scritta come segue:

 
2 k s2
 (1 + sTi ) mi  [1 +
nk nk
2
s+ ] mk
W ( s ) = K gw i =1 k =1

, (4.1.8)
2 s 2
s m  (1 + sTi ) m  [1 + k s + 2 ]m
1 i k

i =2 k =1 nk nk

che costituisce la rappresentazione della funzione in termini di poli, zeri e guadagno. La


rappresentazione grafica della (4.1.8) è analoga a quella della (4.1.5).
Il guadagno ha una importante interpretazione fisica assumendo che W ( s ) sia la funzione
di trasferimento di un sistema e che i suoi poli siano a parte reale negativa. In questo caso,
sollecitando il sistema, supposto nello stato zero, con un ingresso a gradino di ampiezza u 0 , la
risposta forzata converge a un valore finale y0 dato da:

1
y0 = lim su0W ( s ) = K gwu0 .
s →0 s
2017/2018 5

4.2 Rappresentazioni grafiche di funzioni razionali fratte della variabile .

La W ( j ) è una funzione complessa di variabile reale  e si ottiene identificando la W ( s )


con i valori che essa assume lungo l’asse immaginario del piano complesso:

W ( j) = W ( s) s = j .

La sua espressione analitica è data da:

W ( j ) = R( ) + jI ( ) = M ( )e j ( ) (4.2.1)

avendo posto (cfr. Fig. 4.2.1):

R( ) = Re[W ( j )],


I ( ) = Im[W ( j )],
M ( ) = W ( j ) ,
 ( ) = W ( j ).

Le relazioni fra i succitati parametri sono dati da:

R ( ) = M ( ) cos[ ( )],
I ( ) = M ( )sin[ ( )],
M ( ) = R 2 ( ) + I 2 ( ),
I ( )
 ( ) = tg −1 ( ).
R ( )

Assumendo che i polinomi a numeratore e a denominatore della W(s) abbiano coefficienti


reali, può essere facilmente verificato che R ( ) e M ( ) sono funzioni pari di , mentre
fu I ( ) e  ( ) nzioni dispari di . Si ha cioè:

R ( − ) = R ( ),
M ( − ) = M ( ),
I ( − ) = − I ( ),
 ( − ) = − ( ).

I ( ) M ( )
 ( )
R ( )

Fig. 4.2.1 Rappresentazione grafica di W ( j )


2017/2018 6

Le forme più usuali delle rappresentazioni grafiche di W ( j ) sono:


a) diagrammi logaritmici o di Bode;
b) diagrammi polari o di Nyquist;
c) diagrammi cartesiani o di Nichols.

I diagrammi di Bode sono costituiti da due curve: la prima riporta il logaritmo del modulo
di W ( j ) in funzione del logaritmo di , la seconda riporta la fase sempre in funzione del
logaritmo di .
I diagrammi di Nyquist sono curve tracciate sul piano di Nyquist, avente per ascisse la
parte reale R ( ) e per ordinate la parte immaginaria jI ( ) . La variabile  è l’ascissa
corrente sulla curva.
I diagrammi di Nichols sono delle curve tracciate sul piano di Nichols, avente per ascisse
la fase  ( ) e per ordinate il logaritmo del modulo M () : anche in questo caso  è l’ascissa
corrente sulla curva.
Di solito i moduli vengono espressi in decibel (dB) o in neper (nep), definiti come segue:

M db = 20log10 [ M ( )],
M nep = ln[ M ( )]

La fase viene misurata in gradi o in radianti.

4.2.1 Diagrammi logaritmici di Bode

È opportuno premettere che il ricorso ai logaritmi nella costruzione dei diagrammi di Bode
consente sia di risolvere il problema della rappresentazione grafica di M (),  ( ) e di  ,
che sono suscettibili di variazioni molto ampie, sia di effettuare in modo semplice la
composizione dei diagrammi dei moduli di più funzioni.
Data, infatti, il modulo della funzione:

F2 ( j )
F ( j ) = F1 ( j ) ,
F3 ( j )

è dato da:

F2 ( j )
F ( j ) = F1( j ) ,
F3 ( j )

mentre, utilizzando i logaritmi, si ottiene:

F ( j ) db = F1 ( j ) db + F2 ( j ) db − F3 ( j ) db ,

espressione analoga a quella della fase:

F ( j ) = F1 ( j ) + F2 ( j ) − F3 ( j ) .


2017/2018 7

Il ricorso ai logaritmi, infine, consente di tracciare delle rappresentazioni approssimate del


modulo e della fase di notevole utilità pratica e di immediate costruzione, denominate
diagrammi asintotici di Bode.
Al fine di illustrare il tracciamento dei diagrammi di Bode, si consideri l’espressione della
funzione W(s) in termini di poli, zeri e guadagno data dalla (4.1.8). Ponendo s = j , si ha:

 
2 m 2 k
 (1 + jTi ) mi  [1 +
nk nk
2
] j − k

i =1 k =1
W ( j ) = K gw  
. (4.2.2)
2  2
( j ) m  (1 + jTi ) m  [1 + k j − 2 ]m
1 i k

i =2 k =1 nk nk

Ponendo adesso:
Lm[W ( j )] = 20log10[ W ( j ] ,

dalla (4.2.2) si ottiene:

 
2 k 2
Lm[W ( j )] = Lm[K gw ]+  mi Lm[1 + jTi ]+  m k Lm[1 + j − ] + m1Lm( j ) -1
i =1 k =1 nk nk
2

 2 −1

2  

+  mi Lm[(1 + jTi ) ]+  m k Lm 1 + k
-1
j − 2   (4.2.3)
i =1 k =1  nk nk  

 
2 k 2
[W ( j )] = [K gw ]+  mi [1 + jTi ]+  m k [1 + j − ] + m1( j ) −1
i =1 k =1 nk nk
2

 2 −1

2  

+  mi [(1 + jTi ) ]+  mk   1 +
-1 k
j − 2   (4.2.4)
i =1 k =1  nk nk  

Le (4.2.3) e (4.2.4) mettono in luce che i diagrammi del modulo e della fase di una
funzione possono essere ottenuti costruendo i diagrammi dei fattori che compongono la
funzione e componendo tali diagrammi eseguendo le operazioni in esse indicate. I fattori in
questione sono:

1
 2 2 
K gw , ( j ) , (1 + jTi ) ,  1 + k j − 2 
1 1
(4.2.5)
 nk nk 

Osservando che:

1
Lm[ F −1 ( j )] = 20log10 = −20log10 ( F ( j ) ) , (4.2.6)
F ( j )

1
[ F −1 ( j )] =  = −F ( j ) , (4.2.7)
F ( j )
2017/2018 8

è sufficiente considerare semplicemente quattro dei fattori precedenti. In particolare, verranno


considerati i fattori:

−1
 2 2 
K gw , ( j ) , (1 + jTi ) ,  1 + k j − 2  .
−1 −1
(4.2.8)
 nk nk 

Si osservi che i diagrammi di Bode si tracciano su di un piano avente per ascisse la  al


posto di log10 ( ) e, di conseguenza, la scala sull’asse delle ascisse è logaritmica anziché
lineare. Le scale delle ordinate, sia per il modulo che per la fase, sono invece lineari. Nella
Fig. 4.2.2 viene mostrata la corrispondenza fra le scale lineare e logaritmica.

log10 ( )
0 1 2 3

1 10 100 10 3 

Fig. 4.2.2 Corrispondenza fra scale lineare e logaritmica.

Fattore guadagno K gw .

Il guadagno espresso in dB è dato da:

M dB = 20log10 (| K gw |) . (4.2.9)

La fase del fattore guadagno è data da:

0 K gw  0
= . (4.2.10)
180  K gw  0

I diagrammi del modulo e della fase del fattore guadagno per K gw  0 e K gw  0 sono
mostrati nelle Figure 4.2.3 e 4.2.4.
2017/2018 9

Bode Diagram
40

30

Magnitude (dB)
20

10

0
90

45
Phase (deg)

-45

-90

-135

-180
0 1
10 10
Frequency (rad/sec)

Fig. 4.2.3 Diagramma di Bode del fattore guadagno K gw = 10 .


Bode Diagram
40

30
Magnitude (dB)

20

10

0
270
Phase (deg)

180

90

0
0 1
10 10
Frequency (rad/sec)

Fig. 4.2.4 Diagramma di Bode del fattore guadagno K gw = −10 .

Fattore monomio, ( j ) −1 .

Il modulo del fattore monomio è dato da:

M dB = −20log10 ( ) . (4.2.11)

Nel piano (log10 ( ), M dB ) , ovvero nel piano (, M dB ) con scala delle ascisse logaritmica, la
(4.2.11) è rappresentata da una retta passante per il punto di coordinate (1,0). Al fine di
determinare la pendenza di tale retta, si osservi che nel diagramma del modulo la pendenza si
2017/2018 10

misura in decibel/decade (dB/dec), dove la decade viene definita come l’intervallo fra due

valori di  , 1 e 2  1 , tali che 2 = 10 .
1
La pendenza della retta (4.2.11) si ottiene osservando che la variazione del modulo,  M dB
corrispondente a una variazione di  da 1 a 2 = 101 risulta:

2
 M dB = −20 log10 ( 2 ) − ( −20 log10 (1 )) = −20 log( ) = −20 dB , (4.2.12)
1

e quindi è pari a −20 dB/dec .

La fase del fattore monomio ( j ) −1 è data da:

 = −90   ( 0 + , + ) . (4.2.13)

I diagrammi del modulo e della fase di n fattore monomio ( j ) −1 sono illustrati nella Fig.
4.2.5.

Bode Diagram
20

10
Magnitude (dB)

-10

-20
0

-45
Phase (deg)

-90

-135

-180
-1 0 1
10 10 10
Frequency (rad/sec)

Fig. 4.2.5 Diagrammi di Bode del fattore monomio ( j ) −1 .

Tenendo conto delle (4.2.6) e (4.2.7), i diagrammi di bode del fattore monomio al
numeratore ( j ) sono quelli illustrati nella Fig. 4.2.6. Il diagramma del modulo è costituito
da una retta passante per il punto (1,0) avente pendenza pari a +20 dB/dec . Il diagramma di
fase è costituito da un retta parallela all’asse delle  ,  = +90  .
2017/2018 11

Bode Diagram
20

10

Magnitude (dB)
0

-10

-20
180

135
Phase (deg)

90

45

0
-1 0 1
10 10 10
Frequency (rad/sec)
Fig. 4.2.6 Diagrammi di Bode del fattore monomio ( j ) .

Fattore binomio (1 + jTi ) −1 con Ti positivo o negativo.

Il modulo del fattore binomio al denominatore è dato da:

M dB = −20log10 ( 1 + (Ti ) 2 ) , (4.2.14)


e pertanto risulta indipendente dal segno di Ti .
La fase del fattore binomio al denominatore è data da:

 = −tg −1(Ti ) ,

e quindi dipende dal segno di Ti . In particolare, si ha:

− tg -1 (Ti ) Ti  0
= . (4.2.15)
+tg -1 ( | Ti |) Ti  0

Ne consegue che per Ti  0 il diagramma di fase è simmetrico rispetto all’asse delle  del
diagramma corrispondente a Ti  0 . Nella Fig. 4.2.7 è riportato il diagramma del modulo e
della fase di un fattore binomio al denominatore con Ti = 10 .
2017/2018 12

Bode Diagram
0

System: W
-10 Frequency (rad/sec): 0.101

Magnitude (dB)
Magnitude (dB): -3.06

-20

-30

-40
0
Phase (deg)

-45
System: W
Frequency (rad/sec): 0.1
Phase (deg): -45

-90
-3 -2 -1 0 1
10 10 10 10 10
Frequency (rad/sec)

Fig. 4.2.7 Diagrammi di Bode del fattore (1 + jTi ) −1 con Ti = 10 .

L’esame della Fig. 4.2.7 mostra che la curva del modulo presenta due asintoti, la retta di
1 1
equazione M dB = 0 , per   , e un’altra retta di pendenza −20 db/dec per   . Ciò
Ti Ti
può essere giustificato dalla (4.2.12), osservando che:

1
• per   , (Ti ) 2 può essere trascurato rispetto a 1 e, pertanto, la (4.2.12) diviene:
Ti
M dB = 0 ; (4.2.16)
1
• per   , 1 può essere trascurato rispetto a (Ti ) 2 e, pertanto, la (4.2.12) diviene:
Ti
M dB = −20log10 ( | Ti |) . (4.2.17)

Le (4.2.16) e (4.2.17) costituiscono le equazioni dei due succitati asintoti. La (4.2.17),


1
com’è facile verificare, è l’equazione di una retta passante per il punto ( ,0) e avente
| Ti |
1
pendenza −20 db/dec . La spezzata costituita dall’asintoto (4.2.16) per   [0 + , ] e
| Ti |
1
dall’asintoto (4.2.17) per   [ , + ] è il diagramma asintotico del modulo del fattore
| Ti |
1
binomio in esame. Il punto di coordinate ( ,0) prende il nome di punto di rottura del
| Ti |
fattore binomio
Per quanto concerne la fase, con riferimento alla Fig. 4.2.7, si nota che:

• la curva di fase presenta due asintoti paralleli di equazione:


2017/2018 13

1
 = 0  
Ti
; (4.2.18)
1
 = −90 
 
Ti

1
• la curva di fase passa per il punto di coordinate ( , −45 ) .
Ti

Al fine di associare al fattore binomio un diagramma asintotico della fase, i due asintoti
1
paralleli vengono raccordati mediante una retta passante per il punto ( , −45 ) e avente
Ti
pendenza pari a −45 / dec . I diagrammi asintotici del modulo e della fase di un fattore
binomio sono riportati nella Fig. 4.2.8.

Diagramma di Bode (asintotico)


20
Modulo M [db]

-20

-40 -3 -2 -1 0 1
10 10 10 10 10

45
Fase  [gradi]

0
-45
-90

-135 -3 -2 -1 0 1
10 10 10 10 10
Pulsazione  [rad/s]
Fig. 4.2.8 Diagrammi asintotici del fattore (1 + jTi ) −1 con Ti  0 .

Può essere facilmente verificato che (cfr. successive Figg. 4.2.18 e 4.2.19):

• lo scostamento massimo fra diagramma asintotico ed esatto del modulo si manifesta in


corrispondenza del punto di rottura ed è pari a circa −3 dB ;
• lo scostamento massimo fra diagramma asintotico ed effettivo della fase si ha in
corrispondenza a valori di  pari a una decade prima ( 0.1/ Ti ) e una decade dopo il
valore di  relativo al punto di rottura ed è pari a 6 .

Nella Fig. 4.2.9 sono riportati i diagrammi di bode del fattore (1 + jTi ) −1 con Ti = −10 .
L’esame delle Figg. 4.2.7 e 4.2.9 mostra che la curva del modulo è indipendente dal segno di
Ti , mentre la curva della fase è simmetrica, rispetto all’asse delle  , di quella relativa a
2017/2018 14

Ti = +10 . Le stesse considerazioni valgono per i diagrammi asintotici. Per questi ultimi, si
osservi che il punto di rottura ha coordinate ( (1 Ti , 0) ).
Bode Diagram
0

System: W
Magnitude (dB) -10 Frequency (rad/sec): 0.101
Magnitude (dB): -3.04

-20

-30

-40
90
Phase (deg)

45
System: W
Frequency (rad/sec): 0.101
Phase (deg): 45.3

0
-3 -2 -1 0 1
10 10 10 10 10
Frequency (rad/sec)

Fig. 4.2.9 Diagrammi di Bode del fattore (1 + jTi ) −1 con Ti = −10 .

Nella Fig. 4.2.10 soni riportati i diagrammi di bode del fattore (1 + jTi ) con Ti = +10 .
L’esame delle Figg. 4.2.7 e 4.2.10 mostra che i diagrammi di Bode del fattore binomio a
numeratore sono i simmetrici di quelli per lo stesso fattore binomio a denominatore.
L’esame delle Figg. 4.2.8 e 4.2.10 mostra che il diagramma di fase del fattore binomio a
denominatore con Ti  0 è lo stesso del diagramma di fase dello stesso fattore binomio con
Ti  0 ma a numeratore. In definitiva, un fattore binomio relativo a un polo positivo della
funzione di s, si comporta come tale con riferimento alla curva del modulo e come un fattore
relativo a uno zero negativo per quanto concerne la fase.

Bode Diagram
40

30
Magnitude (dB)

20

10

0
90
Phase (deg)

45

0
-3 -2 -1 0 1
10 10 10 10 10
Frequency (rad/sec)
Fig. 4.2.10 Diagrammi di Bode del fattore (1 + jTi ) con Ti = +10 .
2017/2018 15

−1
 2 2 
Fattore trinomio  1 + k j − 2  con  k positivo o negativo.
  nk nk 

Il modulo del fattore trinomio è dato da:

2
 2  2  ,
2
M dB = −20log10  1 − 2 
+ 4 (4.2.19)
 nk 
k 2
nk

e risulta indipendente dal segno di  k . La fase del fattore trinomio è data da:

2 k  2 
− tg −1  1 − 2 
per  k  0
nk  nk 
= , (4.2.20)
−1 2 |  k |  2 
tg   1 − 2 
per  k  0
nk  nk 

e quindi il diagramma di fase per  k  0 è simmetrico rispetto all’asse delle  del


diagramma di fase per  k  0 .
Nella Fig. 4.2.11 sono riportati i diagrammi di Bode di un fattore trinomio a denominatore
corrispondente a  k = 0.2 e nk = 10 rad/s . L’esame di tale figura mostra che la curva del
modulo presenta due asintoti, la retta di equazione M dB = 0 , per   nk , e un’altra retta di
pendenza −40 db/dec per   nk . Ciò può essere giustificato dalla (4.2.19), osservando
che:

• per   nk , (  nk ) 2 e 4 k2 (  nk ) 2 può essere trascurato rispetto a 1; pertanto,


la (4.2.19) diviene:
M dB = 0 ; (4.2.21)
• per   nk , 1 può essere trascurato rispetto a (  nk ) 2 e 4 k2 (  nk ) 2 può essere
trascurato rispetto a (  nk ) 4 ; pertanto, la (4.2.19) diviene:

M dB = −40log10 ( nk ) . (4.2.22)


2017/2018 16

Bode Diagram
20

Magnitude (dB)
-20

-40

-60

-80
0

-45
Phase (deg)

-90

-135

-180
0 1 2 3
10 10 10 10
Frequency (rad/sec)

Fig. 4.2.11 Diagrammi di bode del fattore trinomio a denominatore;


 k = 0.2 e nk = 10 rad/s .

Le (4.2.21) e (4.2.22) costituiscono le equazioni dei due succitati asintoti. La (4.2.22),


com’è facile verificare, è l’equazione di una retta passante per il punto (nk ,0) e avente
pendenza −40 db/dec . La spezzata costituita dall’asintoto (4.2.21) per   [0 + , nk ] e
dall’asintoto (4.2.22) per   [nk , +] è il diagramma asintotico del modulo del fattore
trinomio in esame. Il punto di coordinate (nk ,0) prende il nome di punto di rottura del
fattore trinomio. Nella Fig. 4.2.12 sono riportati i diagrammi asintotici del modulo e della fase
di un fattore trinomio a denominatore per  k = 0.2 e nk = 10 rad/s .
Per quanto concerne la fase, con riferimento alle Fig. 4.2.11 e 4.2.12, si nota che:

• la curva di fase presenta due asintoti paralleli di equazione:

 = 0    nk
; (4.2.23)
 = −180 
   nk

• la curva di fase passa per il punto di coordinate ( nk , −90  ) .


2017/2018 17

Diagramma di Bode (asintotico)


20

Modulo M [db]
0

-20

-40 0 1 2
10 10 10

0
Fase  [gradi]

-45
-90
-135
-180
0 1 2
10 10 10
Pulsazione  [rad/s]
Fig. 4.2.12 Diagrammi asintotici di bode del fattore trinomio a denominatore;
 k = 0.2 e nk = 10 rad/s .

Nella Fig. 4.2.13 sono riportati i diagrammi asintotici del fattore trinomio a denominatore
corrispondente a  k = 0.4 e nk = 10 rad/s . Il confronto delle Figg. 4.2.12 e 4.2.13 mostra
che:

• gli scostamenti fra diagramma asintotico e diagramma esatto, a parità di frequenza,


dipendono da  k e crescono al diminuire di  k ;
• il diagramma asintotico della fase è difficile da tracciare poiché nell’intorno di  nk i
due asintoti debbono essere raccordati con un retta la cui pendenza è funzione di  k .

Diagramma di Bode (asintotico)

0
Modulo M [db]

-20

-40
0 1 2
10 10 10

0
Fase  [gradi]

-45
-90
-135
-180
0 1 2
10 10 10
Pulsazione  [rad/s]

Fig. 4.2.13 Diagrammi asintotici di bode del fattore trinomio a denominatore;


 k = 0.4 e nk = 10 rad/s .
2017/2018 18

Inoltre, può facilmente essere verificato che:

• per  k  0.707 il modulo presenta un picco;


• la frequenza e l’ampiezza corrispondenti al valore di picco, sono dati da:

rk = nk 1 − 2 k2 , (4.2.24)


M rk = −20log10 2 |  k | 1 −  2 . (4.2.25)
k

• per  k  0.707 la curva del modulo varia con andamento monotono decrescente (cfr.
Fig. 4.2.14)

Bode Diagram
0

-20
Magnitude (dB)

-40

-60

-80
0

-45
Phase (deg)

-90

-135

-180
-1 0 1 2 3
10 10 10 10 10
Frequency (rad/sec)

Fig. 4.2.14 Diagrammi asintotici di bode del fattore trinomio a denominatore;


 k = 0.8 e nk = 10 rad/s .

Nella Fig. 4.2.15 sono riportati i diagrammi di Bode del fattore trinomio per
 k = −0.2 e nk = 10 rad/s . Il confronto delle Figg. 4.2.11 e 4.2.15 mostra che il modulo
rimane inalterato al variare del segno di  k , mentre il diagramma di fase coincide con quello
di un fattore trinomio a numeratore con gli stessi valori di  k e  nk , ma con segno di
 k opposto.
Infine, nelle Figg. 4.2.16 e 4.2.17 sono riportati i diagrammi di Bode del fattore trinomio a
denominatore i funzione di   nk per diversi valori di  k .
2017/2018 19

Bode Diagram
10

Magnitude (dB)
-10

-20

-30

-40
-180

-225
Phase (deg)

-270

-315

-360
0 1 2
10 10 10
Frequency (rad/sec)

Fig. 4.2.15 Diagrammi asintotici di bode del fattore trinomio a denominatore;


 k = −0.2 e nk = 10 rad/s .

10
0.2
0.3
0 0.4
0.5
0.6
-10 0.7
0.8
0.9
-20 1

-30

-40

-50

-60

-70

-80

-90
-2 -1 0 1 2
10 10 10 10 10

Fig. 4.2.16 Diagrammi asintotici normalizzati del modulo del fattore trinomio a
denominatore, M d B vs.   n k .

Nella Fig. 4.2.18 è riportata una famiglia di curve, parametrizzate  , che mostrano gli
scostamenti fra diagramma asintotico e diagramma effettivo per un fattore trinomio al
denominatore in funzione di  n . L’esame di tali curve mostra che l’entità degli
scostamenti cresce al diminuire di  k . La curva caratterizzata da  k = 1 fornisce il doppio
degli scostamenti relativi a un fattore binomio al denominatore. Infatti, per  k = 1 il fattore
trinomio diviene:

−1 −2
 2 k 2     −2
1 + j − 2  = 1  j  = (1 + j nk ) , (4.2.26)
  nk  nk    nk 
2017/2018 20

dove:

1 nk ,  k = 1;
Tnk = .
−1 nk ,  k = −1;

Nella Fig. 4.2.19 è riportata una famiglia di curve, parametrizzate  , che mostrano gli gli
andamenti effettivi della fase per un fattore trinomio al denominatore in funzione di  n . Si
precisa che la differenza fra le Figg. 4.2.17 e Fig. 4.2.19 è dovuta semplicemente alla diversa
risoluzione prevista per l’asse delle  .

-10 0.2
0.3
-20 0.4
0.5
-30 0.6
-40 0.7
0.8
-50 0.9
1
-60

-70

-80
fase [gradi]

-90

-100

-110

-120

-130

-140

-150

-160

-170

-180
-2 -1 0 1 2
10 10 10 10 10
omega/omega n [rad/s]

Fig. 4.2.17 Diagrammi asintotici normalizzati della fase del fattore trinomio a
denominatore,  vs.   n k .

Le curve riportate nella Fig. 4.2.18 viene utilizzata per correggere il diagramma asintotico
di una funzione costituita da uno o più fattori, al fine di ottenere un diagramma prossimo a
quello effettivo. Le curve di Fig. 4.2.19 vengono utilizzate per tracciare i diagrammi effettivi
di fase di una funzione costituita da uno o più fattori. Ovviamente, l’utilità delle curve di
Figg. 4.2.18 e 4.2.19 cessa se si dispone di software adeguato per il tracciamento dei
diagrammi di Bode.
2017/2018 21

Fig. 4.2.18 Diagramma degli scostamenti fra diagramma asintotico del modulo e diagramma
effettivo del modulo per diversi valori di  k , per un fattore trinomio al denominatore.
2017/2018 22

Fig. 4.2.19 Diagramma della fase di un fattore trinomio al denominatore per diversi valori di k .
2017/2018 23

4.2.2 Diagrammi di Bode di una generica funzione W ( j )

Il diagramma di Bode del modulo di una generica funzione W ( j ) può essere ottenuto
costruendo prima il diagramma asintotico e, successivamente, correggendo tale diagramma
utilizzando le curve di Fig. 4.2.18.

Diagramma asintotico

Il diagramma asintotico del modulo può essere ottenuto costruendo quelli dei vari fattori
che compongono la funzione e, successivamente, componendoli fra loro come indicato in
precedenza. Dal punto di vista pratico questo metodo risulta insoddisfacente. Conviene,
infatti, costruire il diagramma asintotico direttamente.
Ciò può essere fatto osservando che:

1. gli unici due fattori che contribuiscono al modulo per tutti i valori di , da 0+ a + , sono
il guadagno K gw e il fattore monomio ( j )  m1 ;
2. il fattore binomio (1 + jTi ) mi fornisce un contributo diverso da zero soltanto a partire dal
punto di rottura 1 Ti , dato da una retta passante per il punto di rottura e inclinata di
20mi dB dec ;
3. il fattore trinomio fornisce un contributo diverso da zero soltanto a partire dal punto di
rottura nk , dato da una retta passante per il punto di rottura e inclinata di 40mi dB dec ;

Le considerazioni di cui al punto 1. mettono in luce che il primo tratto del diagramma di
Bode della funzione W ( j ) giace su di una retta passante per il punto di coordinate

( = 1, 20 log ( K )) e inclinata di 20m


gw 1 dB dec , che si ottiene componendo i diagrammi
del modulo del guadagno e del fattore monomio. Al crescere di  , quando si incontra un
punto di rottura relativo a un fattore binomio di molteplicità  mi , la curva del modulo subisce
una brusca variazione di pendenza pari a 20mi dB dec , mentre quando si incontra un punto
di rottura relativo a un fattore trinomio di molteplicità  mk , la curva del modulo subisce una
brusca variazione di pendenza pari a 40mk dB dec .
Ovviamente, per  → + la curva del modulo ha una pendenza pari a 20(n − l ) db/dec,
dove l e n sono, rispettivamente, i gradi dei polinomi a numeratore e a denominatore della
W ( j ) .
Riguardo alla fase, in assenza di fattori trinomi, è possibile costruire il diagramma
asintotico con lo stesso procedimento illustrato precedentemente. Più precisamente, il primo
tratto è costituito da una retta parallela all’asse delle  e distante da esso di 90 + ( K gw ) .
Al crescere di  , a partire da una decade prima del successivo punto di rottura, relativo al
fattore binomio (1 + jTi ) mi , il diagramma di fase subisce una brusca variazione di pendenza
pari a 45mi gradi/dec per Ti  0 o 45mi gradi/dec per Ti  0 . Detto contributo, a partire da
una decade dopo il punto di rottura è costante e pari a 90mi gradi per Ti  0 o 90mi gradi
per Ti  0 .
In presenza di fattori trinomi, come già osservato in precedenza non risulta conveniente
tracciare il diagramma asintotico.
2017/2018 24

Esempio 4.2.2

Si consideri la funzione:

10 (1 + j 0.01) ,
W ( j ) =
j (1 + j 0.1)

che ha un fattore guadagno K gw = 10 , un fattore monomio con m1 = 1 al denominatore e due


fattori binomi di molteplicità uno, caratterizzati dai punti di rottura 1 T1 = 100 e 1 T1 = 10 .
Il primo tratto del diagramma asintotico del modulo giace su di una retta inclinata di −20
dB/dec, passante per il punto di coordinate (  = 1, M dB = 20log(10) = 20 dB ). Il primo tratto
giace su tale retta fino al punto di rottura 1 T1 = 10 . A partire da tale punto di rottura, il
diagramma del modulo subisce una brusca variazione di pendenza pari a −20 dB/dec; quindi,
a partire da 1 T1 = 10 e fino al successivo punto di rottura 1 T1 = 100 la pendenza del
diagramma del modulo è pari a −40 dB/dec. A partire da 1 T1 = 100 , relativo a un fattore al
numeratore, il diagramma del modulo subisce una brusca variazione di pendenza pari a +20
dB/dec e, quindi la nuova pendenza risulta pari a −20 dB/dec.
Il diagramma asintotico è riportato nella Fig. 4.2.19.

Diagramma di Bode (asintotico)


20
Modulo M [db]

0
-20
-40
-60
0 1 2 3
10 10 10 10
Fase  [gradi]

-90

-135

0 1 2 3
10 10 10 10
Pulsazione  [rad/s]
Fig. 4.2.19 Diagramma asintotico della funzione dell’esempio 4.2.2

Il diagramma asintotico del modulo può essere corretto utilizzando le curve degli
scostamenti riportate nella Fig. 4.2.18. In particolare, poiché i fattori che compongono la
funzione sono fattori binomi, viene utilizzata la curva per  k = 1 . Infatti, per  k = 1 , il
fattore trinomio si riduce a un fattore binomio di molteplicità 2:

−1 −2
 2 2   j 
 1  j − 2 
= 1  
  nk  nk    nk 
2017/2018 25

corrispondente a Ti = 1 nk . Conseguentemente, la curva per  k = 1 fornisce il doppio degli


scostamenti fra diagramma effettivo e diagramma asintotico di un fattore binomio al
denominatore. Se il fattore binomio è di molteplicità unitaria, occorre dimezzare le ordinate;
se il fattore binomio è a numeratore occorre cambiare segno agli scostamenti ottenuti. Con
riferimento all’esempio 4.2.2, si ha:
• per  = 10 ( Ti = 1 ), lo scostamento relativo al fattore binomio al denominatore, avente
punto di rottura 10 è −3 dB, mentre lo scostamento relativo all’altro fattore binomio, avente
punto di rottura 100 ( Ti = 0.1 ), distante una decade dal precedente, è trascurabile. Pertanto,
lo scostamento complessivo del diagramma effettivo da quello asintotico è −3 dB.
• per  = 50, lo scostamento relativo al fattore binomio avente punto di rottura 10 ( Ti = 5 )
vale circa -0.2 dB, da dimezzare poiché il fattore ha molteplicità 1, mentre lo scostamento
relativo all’altro fattore binomio ( Ti = 0.5 ), avente punto di rottura 100, vale +2 dB, da
dimezzare perché il fattore ha molteplicità 1 e da considerare con segno positivo perché il
fattore è al numeratore. Lo scostamento complessivo vale quindi +0.9 dB.
Il procedimento impiegato per determinare gli scostamenti relativi al modulo, può essere impiegato
per determinare i valori esatti della fase in corrispondenza a un insieme di valori di . In tal caso si
utilizza il diagramma di Fig. 4.2.18.

4.2.3 Diagrammi polari o di Nyquist

I diagrammi polari sono rappresentazioni grafiche di funzioni complesse W ( j ) della


variabile reale  sul piano di Nyquist, avente per ascissa la parte reale R() e per ordinata la
parte immaginaria I() della W ( j ) stessa. Tale funzione, come già detto, può essere scritta
nel seguente modo:

W ( j) = R( j) + j I ( j) = M ( j)e j () .

A ciascun valore di  corrisponde un punto nel piano ( R ( ) , I ( ) ), il quale può essere


interpretato come l’estremo P di un vettore applicato nell’origine del piano e avente modulo e
fase pari rispettivamente a M ( ) e  ( ) , come illustrato nella Fig. 4.2.18. Il vettore in
questione si chiama vettore rappresentativo della W ( j ) . Al variare di  da 0+ a +,
l’estremo P del vettore rappresentativo della W ( j ) descrive una curva che prende il nome di
diagramma polare diretto, in cui  è la variabile corrente. A tale curva viene associato un
verso di percorrenza che coincide con quello delle  crescenti.
Poiché il modulo e la fase della funzione W ( j ) che si considera, ottenuta da una
funzione razionale fratta con polinomi a numeratore e denominatore a coefficienti reali, sono
rispettivamente funzioni pari e dispari di  , il vettore rappresentativo di W ( − j ) è
simmetrico, rispetto all’asse reale, di quello relativo a W ( j ) . Ne consegue che il
diagramma polare della funzione W ( j ) per valori negativi di  , da −  a 0 − , è
simmetrico di quello tracciato per valori positivi di  .
Il diagramma di polare di una funzione si traccia per punti, calcolando i valori che la
W ( j ) assume in corrispondenza a un numero discreto di valori di  . In alcune
applicazioni, tuttavia, piuttosto che la conoscenza dell’andamento effettivo del diagramma
polare della funzione, è sufficiente quella di un andamento qualitativo del diagramma stesso.
Quest’ultimo può essere determinato nel modo seguente:
a) si calcolano i valori a cui tendono il modulo e la fase della funzione W ( j ) al tendere di
 a 0+ e a +;
2017/2018 26

b) si esamina la struttura della funzione (poli e zeri);


c) si determinano le intersezioni con gli assi reale e immaginario risolvendo rispetto a  ,
rispettivamente, le due equazioni:

I ( ) = 0 ,
R ( ) = 0 ,

e sostituendo nelle espressioni delle parti reale e immaginaria i valori di  ottenuti.

j I ( )

P
 ( )
M ( ) R ( )

Fig. 4.2.18 Vettore rappresentativo di W ( j ) per un dato valore di  .

Esempio 4.2.3 Tracciamento del diagramma polare della funzione W ( j) = W ( s) s = j , dove:

Kw
W ( s) = , p1, p 2 reali e negativi. (4.2.26)
( s − p1 ) ( s − p 2 )

La rappresentazione grafica di W ( s ) nella forma poli, zeri e fattore di trasferimento è


illustrata nella Fig. 4.2.19. In accordo a quanto illustrato in precedenza, vengono eseguiti i
seguenti passi.

j
j
Kw
2 1 kw
p2 p1 

Fig. 4.2.19 Rappresentazione grafica di W ( s ) : poli, zeri e fattore di trasferimento.

a) Calcolo dei limiti del modulo e della fase di W ( j ) per  → 0 + e  → +  .

Nella stessa Fig. 4.2.19 sono riportati i vettori i vettori ( j − p1 ) e ( j − p 2 ) . In


particolare, il vettore ( j − p1 ) ha modulo e fase pari, rispettivamente a j − p1 e
( j − p1 ) =  1 . Le stesse considerazioni valgono per il vettore ( j − p 2 ) . Pertanto, il
modulo e la fase della funzione (4.2.26) possono essere ottenuti graficamente a partire dalla
Fig. 4.2.19. Infatti, si ha:
2017/2018 27

Kw
W ( j ) = , (4.2.27)
( j − p1 ) ( j − p 2 )
 W ( j ) = − ( j − p1 ) − ( j − p 2 ) = − 1 −  2 , (4.2.28)

assumendo K w  0 .
Per  → 0 + , i vettori ( j − p1 ) e ( j − p 2 ) sono adagiati sull’asse reale e diretti verso il
semiasse reale positivo (cfr. Fig. 4.2.20). Ne consegue che:

l i m  W ( j ) = 0,
x →0 +
Kw . (4.2.29)
l i m+ W ( j ) = = K gw
x →0 p1 p 2

j
Kw
+
j0 kw
p2 p1 

Fig. 4.2.20 Rappresentazione grafica dei vettori ( j − p1 ) e ( j − p 2 ) per  → 0 + .

Per  → + , i vettori ( j − p1 ) e ( j − p 2 ) sono di lunghezza infinitamente grande e


fase pari a 9 0  (cfr. Fig. 4.2.21). Pertanto, si ha (cfr. (4.2.27) e (4.2.28)):

l i m  W ( j ) = − 1 8 0  ,
x →+ 
. (4.2.30)
l i m W ( j ) = 0
x →+ 

j j

Kw
+
j0 kw
p2 p1 

Fig. 4.2.21 Rappresentazione grafica dei vettori ( j − p1 ) e ( j − p 2 ) per  → + .

b) Esame della struttura della funzione W ( s ) .

La funzione W ( s ) ha soltanto due poli e, conseguentemente, il modulo e la fase decrescono


con andamento monotono dai valori K g w e 0  ai valori 0 e − 1 8 0  .

c) Intersezioni con gli assi


2017/2018 28

Le intersezioni con gli assi si ottengono a partire dalla funzione W ( j ) razionalizzata,


data da:

(1 − j 1 ) (1 − j  2 )
W ( j ) = K g w , (4.2.31)
(1 +  12 ) (1 +   22 )
dove:

T1 = − 1 p1, T2 = − 1 p 2 .

Le intersezioni con l’asse reale si ottengono annullando la parte immaginaria e sostituendo


nella parte reale i valori di  che annullano la parte immaginaria stessa. Si ha:


 (T1 + T2 ) = 0   = 0,
I ( ) = 0    2  2
(4.2.32)
(1 +  1 ) (1 +   2 ) =    = .

Le intersezioni con l’asse immaginario si ottengono annullando la parte reale e sostituendo


nella parte immaginaria i valori di  che annullano la parte reale stessa. Si ha:

  1
 (1 −  T1T 2 ) = 0   =  ,
R( ) = 0   T1T2 (4.2.33)
(1 +   2 ) (1 +   2 ) =    = .
 1 2

La (4.2.33) mostra che il diagramma polare ha intersezioni con l’asse immaginario. Più precisamente,
1
il diagramma per   0 ha intersezione per  = + , mentre quello per   0 ha intersezione
T1T2
1
per  = − . Il diagramma qualitativo è riportato nella Fig. 4.2.22.
T1T2

I m [W ( j ) ]

R e [W ( j ) ]
+
0+

Fig. 4.2.22 Diagramma polare della funzione (4.2.26).

È opportuno, adesso, analizzare come si modifica il diagramma polare di Fig. 4.2.22 aggiungendo
un altro polo alla funzione di trasferimento (4.2.26), ottenendo così la funzione:
2017/2018 29

Kw
W ( s) = , p1, p 2 , p 3 reali e negativi. (4.2.34)
( s − p1 ) ( s − p 2 ) ( s − p 3 )

Ripercorrendo i passi a), b) e c), si ottiene quanto segue.

a) Calcolo dei limiti del modulo e della fase di W ( j ) per  → 0 + e  → +  .

l i m  W ( j ) = 0,
x →0 +
Kw , (4.2.35)
l i m+ W ( j ) = = K gw
x →0 p1 p 2 p 3

l i m  W ( j ) = − 2 7 0  ,
x →+ 
. (4.2.36)
l i m W ( j ) = 0
x →+ 

b) Esame della struttura della funzione W ( s ) .

La funzione W ( s ) ha soltanto tre poli e, conseguentemente, il modulo e la fase decrescono


con andamento monotono dai valori K g w e 0  ai valori 0 e − 2 7 0  .

c) Intersezioni con gli assi

Com’è facile verificale, la funzione (4.2.34) presenta, per   0 e per valori finiti di  , una
intersezione sia con l’asse reale che con l’asse immaginario. Ne consegue che il diagramma polare
qualitativo della funzione (4.2.34) è quello di fig. 4.2.23.
L’esame della Fig. 4.2.23 mostra che l’aggiunta di un polo a una funzione comporta una rotazione
oraria di + 90 gradi per  → + .
Si consideri, adesso, la funzione data da:

K w (s − z)
W ( s) = , p1, p 2 , p 3 , z reali e negativi. (4.2.37)
( s − p1 ) ( s − p 2 ) ( s − p 3 )

che differisce dalla funzione (4.2.34) per l’aggiunta dello zero s = z . L’esecuzione dei passi
a), b) e c) porta ai seguenti risultati.

j I ( )
R ( )
 = +
 = 0+

Fig. 4.2.23 Diagramma polare della funzione (4.2.34).

a) Calcolo dei limiti del modulo e della fase di W ( j ) per  → 0 + e  → +  .


2017/2018 30

l i m  W ( j ) = 0,
x →0 +
Kw z , (4.2.35)
l i m+ W ( j ) = = K gw
x →0 p1 p 2 p 3

l i m  W ( j ) = − 1 8 0  ,
x →+ 
. (4.2.36)
l i m W ( j ) = 0
x →+ 

b) Esame della struttura della funzione W ( s ) .

La funzione W ( s ) ha tre poli e uno zero. Conseguentemente, per   0 , il modulo e la fase


hanno andamento dipendente dalla posizione reciproca fra poli e zero. Si possono manifestare
i seguenti tre casi.

b.1) z  p1 , p 2 , p 3 .

La distribuzione poli-zeri è mostrata nella Fig. 4.2.24. L’esame della Fig. 4.2.24 mostra
che per piccoli valori di  il contributo di fase fornito dallo zero è maggiore di quello fornito
dai poli. Ne consegue che per piccoli valori di  la fase della funzione è positiva, cresce a
partire da 0 + e fino a un certo valore di  e, successivamente, decresce con andamento
monotono fino a − 1 8 0  . Il diagramma qualitativo risultante, per valori positivi di  , è
quello di Fig. 4.2.25.

j
j


p3 p 2 p1 z

Fig. 4.2.24 Distribuzione poli-zeri corrispondente al caso b.1).

j I ( )

+ R ( )
+
0

Fig. 4.2.25 Diagramma polare corrispondente alla distribuzione poli-zeri di Fig. 4.2.24.

b.2) p1  p 2  z  p 3 .
2017/2018 31

La distribuzione poli-zeri è mostrata nella Fig. 4.2.26. L’esame della Fig. 4.2.26 mostra
che per piccoli valori di  il contributo di fase fornito dai poli p1 e p 2 è maggiore di
quello fornito dallo zero. Ne consegue che per piccoli valori di  la fase della funzione è
negativa e decrescente. Se non ci fossero nè lo zero z né il polo p 3 , la fase decrescerebbe con
andamento monotono fino a − 1 8 0  . Per la presenza dello zero z, la fase aumenta e se non ci
fosse il polo p 3 tenderebbe a − 9 0  . A causa del polo p 3 la fase riprende a decrescere fino a
− 1 8 0  . Il diagramma qualitativo risultante è quello di Fig. 4.2.27. Si noti che la dentatura
presente nel terzo quadrante di solito non si evidenzia in modo così netto, dipendentemente
dalla distanza dello zero dai poli.

j
j


p3 z p2 p1

Fig. 4.2.26 Distribuzione poli-zeri corrispondente al caso b.2).

j I ( )

+ 0+
R ( )

Fig. 4.2.27 Diagramma polare corrispondente al caso b.2).

b.3) p1  p 2  p 3  z .

La distribuzione poli-zeri è mostrata nella Fig. 4.2.28. L’esame della Fig. 4.2.28 mostra
che per piccoli valori di  il contributo di fase fornito dai tre poli è maggiore di quello
fornito dallo zero. Ne consegue che per piccoli valori di  la fase della funzione è negativa,
al crescere di  decresce con andamento monotono da 0 + a un valore inferiore a − 1 8 0  e,
successivamente, cresce fino al valore − 1 8 0  . Il diagramma qualitativo risultante è quello di
Fig. 4.2.29. Si noti che la parte del diagramma presente nel secondo quadrante, di solito, non
si evidenzia in modo così netto, dipendentemente dalla distanza dello zero dai poli.
2017/2018 32

j
j


z p3 p2 p1

Fig. 4.2.28 Distribuzione poli-zeri corrispondente al caso b.3).

j I ( )
+ R ( )
0+

Fig. 4.2.29 diagramma polare corrispondente al caso b.3).

Dall’esame delle Figg. 4.2.25, 4.2.27 e 4.2.29 si nota che lo zero provoca un anticipo di
fase di 90° per elevati valori di  . Nelle Figg. 4.2.30-4.2.32 sono riportati i diagrammi polari
della funzione 4.2.37 tracciati utilizzando Matlab.

-4
Nyquist Diagram x 10 Nyquist Diagram
1

0.8 2

0.6 1.5

0.4 1

0.2 0.5 System: W


Imaginary Axis

Imaginary Axis

Real: -2.2e-005
Imag: -2.97e-005
0 0
Frequency (rad/sec): 2.94e+003

-0.2 -0.5

-0.4 -1

-0.6 -1.5

-0.8 -2

-1 -2.5
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 -2.5 -2 -1.5 -1 -0.5 0
Real Axis Real Axis -4
x 10

a) diagramma completo b) particolare per elevati valori di  .

Fig. 4.2.30 Diagramma polare della funzione (4.2.37) : z = − 5 0 0, p1 = − 1 , p 2 = − 5 0 ,


p3 = − 5 0 0 0 .
2017/2018 33

Nyquist Diagram Nyquist Diagram


1

0.01
0.8 System: W
Real: 1.47
Imag: 0.469
0.6
Frequency (rad/sec): 1.09

0.4 0.005
System: W
Real: 1
0.2 Imag: 0.0315
Imaginary Axis

Imaginary Axis
Frequency (rad/sec): 0.0375
0 0
System: W
-0.2 Real: -0.00105
System: W Imag: -0.000251
Real: 0.162 Frequency (rad/sec): 2.44e+004
-0.4 Imag: -0.572 System: W -0.005
Frequency (rad/sec): 187 Real: 1.92
-0.6 Imag: -0.326
Frequency (rad/sec): 11.4

-0.8 -0.01

-1
-1 -0.5 0 0.5 1 1.5 2 -14 -12 -10 -8 -6 -4 -2 0 2 4 6
Real Axis Real Axis -3
x 10

a) diagramma completo b) particolare per elevati valori di 


Fig. 4.2.31 Diagramma polare della funzione (4.2.37) per z = − 0 . 5, p1 = − 1 , p 2 = − 5 0 ,
p3 = − 5 0 0 0 .

-5
Nyquist Diagram x 10 Nyquist Diagram
1

0.8 4

System: W
0.6 3
Real: -0.000177
Imag: 3.67e-005
2 Frequency (rad/sec): 519
0.4

1
0.2
Imaginary Axis

Imaginary Axis

0
0

-1
-0.2

-2
-0.4

-3
-0.6

-4
-0.8

-5
-1
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 -9 -8 -7 -6 -5 -4 -3 -2 -1 0
Real Axis Real Axis -4
x 10

a) diagramma completo b) particolare per elevati valori di 

Fig. 4.2.32 Diagramma polare della funzione (4.2.37) per z = − 5 0 0 0, p1 = − 1 , p 2 = − 5 0 ,


p3 = − 5 0 0 .

4.2.4 Funzioni a fase minima.

Una funzione complessa di variabile complessa s si dice a fase minima se non ha poli o
zeri sul semipiano destro. Una funzione complessa di variabile complessa si dice a fase non
minima se presenta qualche polo o zero a parte reale positiva. Corrispondentemente, un
sistema si dice a fase minima o non minima a seconda che la sua funzione di trasferimento
sia, rispettivamente, a fase minima o non minima.
Si osservi che una funzione a fase minima è tale che, fra tutte le funzioni che hanno lo
stesso modulo, ha la fase più piccola. Si consideri, in proposito, l’esempio 4.2.4.

Esempio 4.2.4

Si considerino le funzioni di trasferimento aventi la distribuzione di poli e zeri di Fig.


4.2.33 a) e b). Le funzioni corrispondenti a tali distribuzioni poli-zeri sono date da:
2017/2018 34

j j

p z  p -z 

a) b)

Fig. 4.2.33 a) funzione a fase non minima; b) funzione a fase minima.

s−z
Wa = , z  0, p  0 , (4.2.37)
s− p
s+z
Wb = , z  0, p  0 . (4.2.38)
s− p

1. denominazione

Il modulo e la fase delle funzioni (4.2.37) e (4.2.38) corrispondenti a z = 2, p = −20 sono


illustrati nelle Fig. 4.2.34 e 4.2.35. L’esame di tali figure mostra che, a parità di modulo, la
funzione con poli e zeri a parte reale negativa ha fase inferiore rispetto a quella della funzione
con lo zero a parte reale positiva.

-5
modulo [dB

-10
]

Wb
Wa
-15

-20 -3 -2 -1 0 1 2
10 10 10 10 10 10
omega [rad/s]
Fig. 4.2.34 Modulo vs.  : z = 2, p = −20 .

180
Wb
160 Wa
140

120
fase [gradi]

100

80

60

40

20

0 -3 -2 -1 0 1 2
10 10 10 10 10 10
omega [rad/s]
Fig. 4.2.35 Fase vs.  : z = 2, p = −20 .
2017/2018 35

2. Comportamento iniziale della risposta indiciale

Le risposte indiciali dei sistemi descritti dalle funzioni di trasferimento a fase minima e
non minima, Wb ( s) e Wa ( s ) , rispettivamente, sono date da:

z z
w−1,a (t ) = + (1 − )e pt , t  0 , (4.2.39)
p p

z z
w−1,b (t ) = − + (1 + )e pt , t  0 , (4.2.40)
p p

Step Response

0.8

0.6
Amplitude

0.4

0.2

-0.2
0 0.05 0.1 0.15 0.2 0.25 0.3
Time (sec)

Fig. 4.2.36 Risposta indiciale del sistema a fase minima.

Step Response
1.2

0.8

0.6
Amplitude

0.4

0.2

-0.2
0 0.05 0.1 0.15 0.2 0.25 0.3
Time (sec)

Fig. 4.2.37 Risposta indiciale del sistema a fase non minima.

L’esame delle Figg. 4.2.36 e 4.2.37 mostra che il sistema a fase non minima presenta una
risposta indiciale che inizialmente evolve nella direzione opposta a quella di regime.

3. Esistenza di un controllo perfetto

Il controllo perfetto è un controllo che consente di ottenere istante per istante la risposta
desiderata. Si supponga, ad esempio, che la risposta desiderata sia data da
2017/2018 36

yd (t ) = sin(t ) −1 (t ) , ossia da una rampa lineare, la cui trasformata di Laplace è data da


1
Yd ( s) = 2 .
s +1
Per il sistema a fase minima (4.2.38) ciò è possibile se esiste un ingresso u (t ) tale che:

1 s−z
Yd ( s) = = U (s) . (4.2.41)
s +1 s − p
2

Tale ingresso è dato da:

s− p
U (s) = . (4.2.42)
( s + 1)( s − z ) 2

Per il sistema a fase non minima (4.2.39) ciò è possibile se esiste un ingresso u (t ) tale che:

1 s−z
Yd ( s) = = U (s) . (4.2.43)
s +1 s − p
2

Tale ingresso è dato da:

s− p
U (s) = . (4.2.44)
( s + 1)( s − z )
2

Gli andamenti dell’ingresso per i due sistemi sono illustrati nelle Figg. 4.2.38 e 4.2.39.
L’esame della Fig. 4.2.38 mostra che l’ingresso che consente al sistema a fase non mimima di
inseguire perfettamente l’uscita desiderata, diverge e, quindi, non esiste. L’esame della Fig.
4.2.39 mostra che l’ingresso che consente al sistema a fase non mimima di inseguire
perfettamente l’uscita desiderata, converge a una sinusoide e, quindi, può essere costruito in
laboratorio.
9
x 10
2.5

1.5
u(t)

0.5

0
0 1 2 3 4 5 6 7 8 9 10
t [s]
Fig. 4.2.38 Andamento dell’ingresso per il sistema a fase non minima.
2017/2018 37

10

u(t)
0

-5

-10
0 1 2 3 4 5 6 7 8 9 10
t [s]
Fig. 4.2.39 Andamento dell’ingresso per il sistema a fase minima.

4. Ricostruzione della fase di una funzione a partire dal modulo della funzione stessa

Si può dimostrare che per una funzione a fase minima è possibile ricostruire la fase della
funzione a partire dal modulo della funzione stessa. Infatti sussiste il Teorema di Bode che
afferma che per tali sistemi esiste la seguente relazione fra modulo e fase:

  dQ  +  dQ   dQ     
 (0 ) =   +    −   ln  cot gh  . (4.2.45)
2  d    =0 −  d    d    =0   2 
 

   
dove Q = ln( M ( )) ,  = ln e ln  cot gh  è la funzione diagrammata qualitativamente
0  2 
dQ
nella Fig. 4.2.40. Si noti che è la pendenza del diagramma del modulo valutata per un
d
generico valore di  .


lncoth(|m|/2)


− − − −     
m

 m
Fig. 4.2.40 Andamento della funzione ln  cot gh .
 2 
2017/2018 38

La relazione (4.2.45) mette in luce che la fase in corrispondenza a un certo valore 0 è


costituita da due termini: il primo termine rappresenta il contributo della pendenza del
diagramma dei moduli proprio per  = 0 , l’altro è il contributo della variazione della
pendenza del diagramma dei moduli per tutti i valori di , rispetto a quella relativa a 0 ,
    + 0
pesata tramite la funzione ln  cot gh  = ln .
 2   − 0
Ne consegue che, se il diagramma dei moduli ha pendenza costante in un intervallo di
valori di  intorno a 0 , da una decade prima a una decade dopo 0 , il valore della fase può
essere approssimato soltanto con il primo termine. In tale caso, esprimendo le pendenze in
decibel/decade, si ha:

  dQ    d log( M ( ))    dM dB ) 
 (0 ) =   =   =   . (4.2.46)
2  d    =0 2  d log( )  = 40  d log( )  =
0 0
1
2013/2014

Cap. 5

Rappresentazioni grafiche di modelli

5.1 Schemi strutturali e schemi funzionali

Nello studio dei sistemi vengono usualmente impiegate rappresentazioni grafiche


convenzionali, denominate schemi. Questi ultimi si distinguono in schemi strutturali e schemi
funzionali.
Gli schemi strutturali sono rappresentazioni grafiche di un sistema reale, nei quali alcuni
blocchi rappresentano gli elementi costituenti il sistema, mentre altri rappresentano gli organi
di collegamento fra i suddetti elementi. Tali schemi danno, quindi, un’idea della
composizione fisica del sistema reale. Per rappresentare, ad esempio, il funzionamento di una
centrale idroelettrica, è possibile costruire lo schema strutturale di Fig. 5.1.1, dove q è la
portata d’acqua che giunge attraverso un’apposita condotta da un fiume, T è una turbina
collegata meccanicamente a un alternatore A che fornisce direttamente un sistema trifase di
tensioni.

q T A
Fig. 5.1.1 Schema di un sistema per la produzione dell’energia elettrica.

Uno schema funzionale è una rappresentazione grafica di un modello matematico di un


sistema reale, in cui alcuni simboli rappresentano le grandezze che figurano nel modello, e
altri simboli rappresentano i legami matematici fra tali grandezze.
Lo studio degli schemi funzionali viene sviluppato assumendo che il sistema reale sia
caratterizzato da k grandezze dipendenti, yi (t ) , e p grandezze indipendenti, ui (t ) , che sono le
grandezze d’ingresso. Delle k grandezze dipendenti, q sono le grandezze di uscita e k – q
sono le grandezze intermedie. Si ammette, inoltre, che il modello matematico del sistema nel
dominio del tempo sia costituito da k equazioni integro – differenziali, lineari, ordinarie e a
coefficienti costanti che legano le k grandezze dipendenti alle p grandezze indipendenti.
Al fine di associare uno schema funzionale al modello matematico del sistema, conviene
esprimere quest’ultimo nel dominio di s, trasformando secondo Laplace le k equazioni
integro-differenziali assumendo nulle le condizioni iniziali. Si ottiene, in tal modo, un sistema
costituito da k equazioni algebriche nel dominio di s, che legano le trasformate di Laplace
delle variabili dipendenti, Yi ( s ) , alle trasformate di Laplace delle grandezze indipendenti
U i ( s ) . Tali equazioni costituiscono la cosiddetta forma causa – effetto, la quale consiste
nell’esprimere la generica grandezza dipendente Yi ( s ) come combinazione lineare di tutte le
grandezze dipendenti, compresa eventualmente la stessa Yi ( s ) , e di tutte le grandezze
indipendenti U i ( s ) :

k p
Yi ( s) =  Tij (s) Y j (s) +  Tij' ( s) U j ( s), i = 1, k, (5.1.1)
j =1 j =1

Il nome di formulazione causa – effetto dipende dal fatto che la grandezza dipendente al
primo membro può essere interpretata come l’effetto delle variabili al secondo membro che
acquistano così il significato di cause. I coefficienti Tij ( s ) e Tij' ( s) si chiamano trasferenze e
2
2013/2014

sono, in genere, funzioni razionali fratte di s; le funzioni Tii ( s) prendono il nome di


autotrasferenze mentre le funzioni Tij ( s ) con i  j , vengono denominate trasferente mutue.

Esempio 5.1.1

Si consideri il seguente modello matematico di un sistema reale nel dominio del tempo:


 Ay1 + B y1 + Cy1 − Dy2 = Fu1 .
(2) (1)
 (5.1.2)
 Py2 + Hy2 + Ky1 = − Ju1
(2) (1) (1)

Trasformando secondo Laplace tale modello, assumendo nulle le condizioni iniziali, si ha il


seguente modello algebrico nel dominio di s:


 As Y1 ( s ) + BsY1 ( s ) + CY1 ( s ) − DY2 ( s ) = FU1 (s )
2
 2 (5.1.3)
 Ps Y2 ( s ) + HsY2 ( s ) + KY1 ( s ) = − JsU1 (s )

Risolvendo la prima equazione rispetto a Y1 ( s) e la seconda rispetto a Y2 (s) , si ottiene la


forma causa-effetto:

Y1 ( s) = T12 ( s) Y2 ( s) + T '11 U1 ( s)


 , (5.1.4)
Y2 ( s) = T21 ( s) Y1 ( s) + T '21 ( s) U1 ( s)

dove:

D F
T12 ( s) = '
, T11 ( s) = ,
A s + B s+ C
2
A s + B s+ C
2

K Js
T21 ( s) = − '
, T21 − .
Ps + Hs
2
Ps + Hs
2

Bisogna osservare che, data l’arbitrarietà con cui è possibile risolvere le k equazioni che
governano il sistema, si può pervenire a diverse formulazioni causa – effetto; quindi a un
modello matematico si possono associare diversi schemi funzionali. Tutti gli schemi
funzionali associabili allo stesso modello matematico sono equivalenti fra loro, nel senso che
hanno in comune le grandezze d’ingresso, le grandezze d’uscita e le relazioni che intercorrono
fra esse.
Allo scopo di rappresentare graficamente le equazioni della forma causa – effetto (5.1.1), è
necessario scegliere dei simboli per rappresentare le grandezze e i legami matematici fra esse.
Gli schemi funzionali più utilizzati sono gli schemi a blocchi e i grafi di flusso.

5.2 Schemi a blocchi

Le convenzioni adottate per rappresentare graficamente le equazioni (5.1.1)


medianteschemi a blocchi, sono:

a) a ciascuna variabile indipendente, U i ( s ) , o dipendente, Yi ( s ) , si associa un segmento


orientato (cfr. Fig. 5.1.1 a));
3
2013/2014

b) l’operazione di moltiplicazione per una trasferenza si rappresenta con un blocco,


solitamente di forma rettangolare, dotato di un solo ingresso e una sola uscita,
all’interno del quale viene indicata la trasferenza per cui va moltiplicata la variabile
associata al segmento di ingresso per ottenere quella associata al segmento di uscita
(cfr. Fig. 5.1.1 b));
c) l’operazione di somma fra più grandezze si rappresenta mediante un blocco,
generalmente di forma circolare, dotato di un solo segmento di uscita e di più segmenti
di ingresso; a ciascuno di tali segmenti si associa il segno + o − a seconda che la
variabile corrispondente debba essere sommata o sottratta (cfr. Fig. 5.1.1 c));
d) il fatto che la stessa variabile figuri in più operazioni viene rappresentato con un punto
di diramazione, dal quale partono altri segmenti, orientati in maniera coerente, che
affluiscono ad altri blocchi.

Yi (Ui) a) SEGMENTO ORIENTATO

Yj Tij Yi Yi = Tij Yj b) BLOCCO MOLTIPLICATORE

Yj−1 +
+ Yi = Yj−1 + Yj − Yj+1 c) BLOCCO SOMMATORE
Yj − Yi

Yj+1
Yi
d) PUNTO DI DIRAMAZIONE

Yi Yi
Yi
Fig. 5.1.1 Convenzioni adottate per gli schemi a blocchi.

Può essere data, infine, la seguente definizione di schema a blocchi. Si dice schema a
blocchi un insieme di blocchi moltiplicatori e di blocchi sommatori, collegati fra loro da
segmenti orientati, sui quali possono esistere dei punti di diramazione. I blocchi
moltiplicatori, i blocchi sommatori e i punti di diramazione sono denominati elementi
fondamentali dello schema a blocchi. Lo schema a blocchi corrispondente all’esempio 5.1.1 è
quelo riportato nella Fig. 5.1.2.

T12 (s)
U1 ( s ) + + Y1 ( s ) T12 (s)
T11' (s)
(s) +
+
T21 (s)
T21 (s) + Y2 ( s)

'
T21 ( s)
(s)
Fig. 5.1.2 Schema a blocchi corrispondente al modello (5.1.4).
4
2013/2014

5.2.1 Algebra degli schemi a blocchi


Lo schema funzionale associato a un modello matematico può risultare alquanto
complicato, mentre molti metodi di studio dei sistemi di controllo si riferiscono a uno schema
a blocchi avente una struttura ben definita. Un problema che spesso ricorre nelle applicazioni
è, dunque, quello di trasformare un dato schema a blocchi in uno equivalente, avente però la
struttura desiderata. Tale problema può essere risolto utilizzando un insieme di procedimenti
che costituiscono l’algebra degli schemi a blocchi. I procedimenti di trasformazione si
distinguono in:

1) procedimenti di spostamento di un elemento fondamentale rispetto a un altro elemento


fondamentale adiacente;
2) procedimenti di sostituzione di un unico blocco con più blocchi e viceversa.

PROCEDIMENTI DI SPOSTAMENTO

Nei procedimenti di spostamento si prendono in considerazione, oltre all’elemento da


spostare, anche quello rispetto al quale avviene lo spostamento, detto elemento fisso, e il
segmento che li unisce, chiamato segmento comune. Sussistono allora le seguenti tre regole
fondamentali, la cui dimostrazione è immediata sulla base dell’applicazione delle condizioni
di equivalenza.

a) spostamento di un blocco moltiplicatore

Quale che sia l’elemento fisso, il blocco moltiplicatore scompare dal segmento in cui si
trovava nello schema di partenza e compare nello schema equivalente su tutti gli altri
segmenti orientati facenti capo all’elemento fisso. La trasferenza da associare ad ogni
nuovo blocco è la stessa del blocco spostato o la sua inversa a seconda che, considerando
un percorso attraverso l’elemento fisso, il segmento comune e quello che si considera
hanno verso concorde o discorde (cfr. Fig. 5.1.3 e 5.1.4 a) e b)).

b
G1−1
− b −
a + + d a + d
G1 G1

+ +
c G1 −1
1 1
d = G1 a – b + c c d=[ c+a– b]G1
G1 G1

a) schema di partenza b) schema equivalente

Fig. 5.1.3 Spostamento di un blocco moltiplicatore rispetto a un blocco sommatore.


5
2013/2014

b b
G1

a a G1 G1−1
a a

a) schema di partenza b) schema equivalente

Fig. 5.1.4 Spostamento di un blocco moltiplicatore rispetto a un punto di diramazione.

b) spostamento di un blocco sommatore rispetto a un altro blocco sommatore

Il blocco sommatore da spostare scompare dal segmento su cui si trovava e compare su


di uno solo dei segmenti che fanno capo all’elemento fisso; i segni da associare ai segmenti
di ingresso devono rispettare le relazioni di equivalenza. Naturalmente esistono diverse
soluzioni per lo spostamento dello stesso blocco sommatore (cfr. Fig. 5.1.5).

S2
S1 S2 S2 S1
a + d a + d a + d
+   +
− + + − −
b c c b b S1
+
a–b+c=d (a + c) – b = d c

a + (c – b) = d

a) schema di partenza b) schema equivalente c) schema equivalente

Fig. 5.1.5 Spostamento di un blocco sommatore rispetto a un blocco sommatore.

c) spostamento di un blocco sommatore rispetto a un punto di diramazione

Il blocco da spostare scompare dal segmento su cui era e compare su tutti gli altri
segmenti che fanno capo al punto di diramazione (fig. 82). Anche in questo caso per
assegnare correttamente i segni ai segmenti entranti nei blocchi sommatori basta tener
conto delle condizioni di equivalenza.

+ b
+
b
+ + b
a +  +
a

Fig. 5.1.5 Spostamento di un blocco sommatore rispetto a un punto di diramazione.


6
2013/2014

PROCEDIMENTI DI SOSTITUZIONE

I procedimenti di sostituzione più comuni sono:

Sostituzione di parte dello schema costituita da soli blocchi sommatori con un unico blocco
sommatore

La sostituzione avviene con un blocco sommatore che ha tutti i segmenti d’ingresso della
parte di schema a blocchi di partenza, esclusi i segmenti comuni a due blocchi sommatori (cfr.
Fig. 5.1.6).

c
+
b c
b + e +
+ − f d +
 + f
a + −
d + +
a e
+ f=a+b+c+d–e
f = [(b + c) + (a + d)] – e

Fig. 5.1.6 Sostituzione di parte di schema costituita da blocchi sommatori con un blocco
sommatore

Sostituzione di parte dello schema costituita da soli blocchi moltiplicatori connessi in cascata
con un unico blocco moltiplicatore e viceversa

Due o più blocchi moltiplicatori si dicono connessi in cascata se il segmento di uscita di


ognuno di essi è anche il segmento di ingresso del blocco successivo. La sostituzione viene
effettuata con un blocco moltiplicatore avente trasferenza pari al prodotto delle trasferenze dei
singoli blocchi moltiplicatori dello schema di partenza (cfr. Fig. 5.1.7). Il viceversa è illustrato
nella Fig. 5.1.8.

a b  a b
G1 G2 G1G2

b = G2 (G1 a) b = (G1G2) a

Fig. 5.1.7 Sostituzione diparte dello schema costituita da blocchi moltiplicatori in cascata con
un blocco moltiplicatore

a b  a b
G1 G1/G2 G2

b = G1 a b = G2 (G1/G2) a

Fig. 5.1.8 Sostituzione di un blocco moltiplicatore con due blocchi moltiplicatori in cascata.
7
2013/2014

Sostituzione di parte dello schema costituita da uno schema elementare a controreazione con
un unico blocco moltiplicatore

Lo schema elementare a controreazione è illustrato nella Fig. 5.1.9. A tale schema è possibile
sostituire uno schema equivalente costituito da un unico blocco moltiplicatore, la cui
trasferenza W(s) è data da:

G ( s)
W ( s) = . (5.1.5)
1 G( s) H ( s)

U + Ud Y
G
 Yc
H
Fig. 5.1.9 Schema elementare a controreazione.

La (5.1.5) può essere verificata associando il seguente modello allo schema di Fig. 5.1.9:

U d = U  Yc = U  HY
(5.1.6)
Y = GU d = G (U  HY )

Dalla seconda delle (5.1.6), si ottiene:

Y (1 GH ) = GU ,

e quindi:
G
Y= U = WU .
1 GH

Sostituzione di parte dello schema costituita da moltiplicatori connessi in parallelo con un


unico blocco moltiplicatore e viceversa

Sia dato lo schema a blocchi di Fig. 5.1.10, costituito da tre blocchi moltiplicatori in
parallelo. Tale schema è equivalente a un blocco moltiplicatore avente trasferenza G(s) data
da:
G(s) = G1 ( s) + G2 ( s) − G3 ( s) . (5.1.7)

G1
a + b
G2
+

G3 -

Fig. 5.1.10 Schema costituito da tre blocchi in parallelo.


8
2013/2014

Infatti, si ha:

b = G1( s)a + G2 ( s)a − G3 ( s)a = G( s)a (5.1.8)


1
2014/2015

Cap. 6

Proprietà Strutturali dei Modelli LTI

Nell’ambito dello studio dei modelli LTI, sono di notevole interesse pratico i seguenti tre
problemi.

1) Si consideri il sistema LTI nello stato iniziale x0 all’istante iniziale t0 = 0 . Si desidera


trasferire il sistema in un generico stato x f in un intervallo di tempo finito t f , mediante
l’applicazione di un opportuno segnale d’ingresso u[t0 ,t f ] .
2) Sia dato un sistema LTI che evolva a partire da uno stato iniziale x0 non noto. Si
desidera determinare lo stato iniziale x0 a partire dalla conoscenza dei dati sperimentali
relativi alla coppia ingresso-uscita (u[t0 ,t f ] , y[t0 ,t f ] ) , acquisiti durante il funzionamento
del sistema reale nell’intervallo [t0 , t f ] .
3) Si desidera stabilire le condizioni che devono essere soddisfatte affinché un sistema LTI
possa essere descritto in maniera completa mediante la matrice delle risposte impulsive o
la matrice di trasferimento.

I tre problemi enunciati trovano soluzione nell’ambito dello studio delle proprietà
strutturali di raggiungibilità, o di interazione fra ingresso e stato, e di osservabilità, o di
interazione fra stato e uscita. In particolare, il problema 1) ammette soluzione se il modello
soddisfa la proprietà di raggiungibilità, il problema 2) ammette soluzione se il modello
soddisfa la proprietà di osservabilità e il problema 3) ammette soluzione se il modello
soddisfa le proprietà di controllabilità e osservabilità.

6.1 Proprietà di raggiungibilità

Sia dato un modello LTI descritto dalle equazioni:

x (t ) = Ax (t ) + Bu(t ) , (6.1.1)
y(t ) = Cx (t ) + Du(t ) , (6.1.2)

dove:
x(t )  C n , u(t )  R p , y(t )  Rq ,

e le matrici A, B, C e D hanno dimensioni:

A : n  n , B : n  p , C : q  n, D : q  p .

Definizione 6.1.1
Uno stato x  C n si dice raggiungibile (dallo stato zero) se esistono un istante di tempo
finito t f e un segmento di ingresso u[0,t f ] ,in grado di trasferire il sistema dallo stato zero
all’istante zero nello stato x all’istante t f . In simboli, si ha:

x (t f ) =  (t f , 0, 0, u[0,t f ] ) = x . (6.1.3)
2
2014/2015

L’insieme degli stati raggiungibili dallo stato zero, X r , è un sottospazio lineare dello
spazio di stato. L’insieme degli stati non raggiungibili, X − X r , non è un sottospazio dello
spazio di stato poiché non contiene l’elemento nullo, ossia lo stato zero. Però, per definizione,
si assume come insieme degli stati non raggiungibili il complemento ortogonale del
sottospazio X r , cioè X r⊥ che contiene lo stato zero. Lo spazio di stato è allora dato da
X = X r  X nr , dove  denota l’operatore “somma diretta”, che esprime il fatto che un
generico elemento x  X si può esprimere come x = xr + xnr , con xr  X r e xnr  X nr .

Definizione 6.1.2
Il sistema (6.1.1)-(6.1.2) si dice raggiungibile se tutti i suoi stati sono raggiungibili.

Le condizioni per la raggiungibilità del sistema sono espresse dal seguente Teorema.

Teorema 6.1.1
Il sistema (6.1.1)-(6.1.2) è raggiungibile se e solo se le righe della matrice e − At B sono
linearmente indipendenti in un intervallo arbitrario [0, t f ] .

Prova
Sufficienza Si ammetta che le righe di e − At B siano linearmente indipendenti t [0, t f ] . In
tali condizioni, esiste un ingresso u[0,t f ] che trasferisce il sistema dallo stato zero all’istante
zero nello stato x all’istante t f . In simboli, si ha:

tf A(t f − )
x= 0 e Bu( )d . (6.1.4)

Infatti, ponendo:
u( ) = (e − A B ) T k , (6.1.5)

dove k è un vettore n  1 ad elementi costanti, e sostituendo tale ingresso nella (6.1.4), si ha:

tf tf
0 e− A Bu( )d = e 0 e− A BB T e− A  kd ,
At f At f T
x=e

− At f
da cui, premoltiplicando ambo i membri per e , si ottiene:

− At f  tf 
0 e − A BB T e − A  d  k .
T
e x= (6.1.6)
 
Se le righe della matrice e− At B sono linearmente indipendenti, l’integrale entro parentesi
quadra risulta invertibile. Infatti, se l’integrale in questione fosse singolare esisterebbe un
vettore   0, n 1 , tale che:

 tf 
0 e − A BB T e − A  d   = 0 .
T

 (6.1.7)

3
2014/2015

Premoltiplicando per  T , a partire dalla (6.1.7) si ottiene:

tf tf 2
0 ( T e− A B)( T e− A B)T d = 0  T e− A B d = 0 . (6.1.8)

Ne consegue che  T e− A B = 0 T   [0, t f ) e, quindi, le righe della matrice e− At B sono


linearmente dipendenti nell’intervallo [0, t f ) . Ciò contrasta con l’ipotesi assunta.
Dalla (6.1.6), avendo dimostrato l’invertibilità del termine entro parentesi quadra, si
ottiene:

−1
 tf  − At
0 e− A BBT e− A  d  e f x .
T
k= (6.1.9)
 

Necessità Si dimostra per assurdo ammettendo che il sistema sia raggiungibile e che le righe
della matrice e− At B siano linearmente dipendenti.

Se le righe di e− At B sono linearmente dipendenti t [0, t f ] , esiste un n-vettore   0


tale che:

 T e− At B = 0 T , t  [0, t f ] . (6.1.10)

Tale vettore non può essere raggiunto dallo stato zero. Infatti, se esistesse un vettore di
ingresso in grado di trasferire il sistema dallo stato zero all’istante zero allo stato  all’istante
t f , risulterebbe:
tf A(t f − ) tf
 = e Bu( )d = 0 e A Bu(t f −  )d . (6.1.11)
0

Premoltiplicando ambo i membri per  , la (6.1.11),tenuto conto della (6.1.10), diviene:


T

tf
 T =  0 ( T e A B)u(t f −  )d = 0, t  [0, t f ] .
2
= (6.1.12)

Ovviamente, la (6.1.12) implica  = 0 .

Poiché le condizioni espresse dal precedente Teorema 6.1.1 sono difficili da verificare,
risulta utile fornire il seguente Criterio di Raggiungibilità, che si fornisce senza
dimostrazione.

Criterio di Raggiungibilità 6.1.2. Un sistema LTI è raggiungibile se e solo se la matrice di


raggiungibilità Qr n  np data da:

Qr =  B AB An −1B  , (6.1.13)
ha rango pari a n.
4
2014/2015

Asserzione 6.1.1 La proprietà di raggiungibilità è invariante rispetto a una trasformazione di


coordinate nello spazio di stato.

Prova Al fine di verificare la proprietà di raggiungibilità di un sistema descritto dalle (6.1.1) e


(6.1.2), occorre e basta utilizzare il criterio di raggiungibilità 6.1.2. Effettuando la
trasformazione di coordinate x = Txˆ , le (6.1.1) e (6.1.2) diventano:

ˆ ˆ (t ) + Bu
xˆ (t ) = Ax ˆ (t ) , (6.1.14)
y(t ) = Cxˆ ˆ (t ) + Du(t ) , (6.1.15)

dove:
ˆ = T −1 AT , Bˆ = T −1B, Cˆ = CT .
A

Per il sistema (6.1.14)-(6.1.15) la matrice di raggiungibilità risulta:

Qˆ r =  Bˆ ˆˆ
AB Aˆ n −1Bˆ  = T −1B T −1 AB T −1 An −1B  = T −1Qr . (6.1.16)

La (6.1.16) mostra che rango(Qˆ r ) = rango(Qr ) e, quindi, vale l’Asserto.

Si ammetta, adesso, che il modello (6.1.1) e (6.1.2) non sia raggiungibile. In tal caso,
sussiste il seguente Teorema.

Teorema 6.1.2 Se rank (Qr ) = nr  n , esiste una trasformazione di coordinate x (t ) = Tr xˆ (t )


tale che il nuovo modello, avente la struttura (6.1.14) e (6.1.15), ha le matrici  , B̂ e Ĉ date
da:

 Aˆ Aˆ12  ˆ  Bˆ1  ˆ
Aˆ =  1  , B =   , C = Cˆ1 Cˆ 2  ,
ˆ
 0 A2  0

con Aˆ1  C nr nr , Aˆ 2  C ( n −nr )( n −nr ) , Bˆ1  C nr  p , 0  C ( n − nr ) p , Cˆ1  C qnr , and Cˆ 2  C q( n −nr )
Inoltre, la matrice Qˆ1r =  Bˆ1 Aˆ1Bˆ1 Aˆ1nr −1Bˆ1  ha rango nr .

Per costruire la matrice Tr , basta scegliere le prime nr colonne coincidenti con nr colonne
linearmente indipendenti della matrice Qr , e le rimanenti (n − nr ) colonne ortogonali alle
precedenti e tali da formare con esse un insieme di vettori linearmente indipendenti.
T
Il Teorema 6.1.2 mette in luce che partizionando il vettore di stato xˆ =  xˆ1T xˆ 2T  con
xˆ1T  C nr e xˆ 2T  C ( n − nr ) , il modello diviene:

xˆ1 = Aˆ1 xˆ1 + Aˆ12 xˆ 2 + Bˆ1u , (6.1.17)


xˆ = Aˆ xˆ .
2 2 2 (6.1.18)
5
2014/2015

L’insieme degli stati raggiungibili è quello caratterizzato da xˆ 2 = 0 . In tal caso, infatti, risulta
ˆ
xˆ 2 (t ) = e A2t 0 = 0 , e il modello (6.1.17) si riduce al modello raggiungibile:

xˆ1 = Aˆ1 xˆ1 + Bˆ1u . (6.1.19)

Conviene, adesso, osservare che la proprietà di raggiungibilità degli stati è legata alla
proprietà di eccitabilità dei modi mediante impulsi in ingresso. Sussiste, infatti, il Teorema
che segue.
Sia dato un modello LTI nel quale la matrice dinamica abbia autovalori distinti. Allora, tutti i
modi elementari di evoluzione del modello sono eccitabili mediante impulsi in ingresso se e
solo se esso risulta raggiungibile.

6.2 Proprietà di controllabilità

Definizione 6.2.1 Uno stato x  C n si dice controllabile (allo stato zero) se esistono un
istante di tempo finito t f e un segmento di ingresso u[0,t f ] ,in grado di trasferire il sistema
dallo stato zero x all’istante zero nello stato 0 all’istante t f . In simboli, si ha:

 (t f , 0, x, u[0,t f ] ) = 0 . (6.2.1)

Definizione 6.2.2 Un sistema astratto si dice controllabile se tutti i suoi stati sono controllabili.

Criterio di controllabilità Un sistema LTI è controllabile se e solo se la matrice di controllabilità data


da:

Qc =  B AB An −1B  , (6.2.2)
ha rango n.

Dall’analisi precedente emerge che le proprietà di controllabilità e di raggiungibilità per


modelli LTI a tempo continuo si implicano a vicenda.

6.3 Proprietà di osservabilità

La proprietà di osservabilità studia le interazioni fra stato e uscita. Tale proprietà verrà
studiata con riferimento ai sistemi LTI.

Definizione 6.3.1 Uno stato x  C n si dice inosservabile se la risposta libera nello stato
corrispondente a tale stato è identicamente nulla. In simboli, si ha:

Ce At x = 0, t  0 . (6.3.1)
6
2014/2015

Definizione 6.3.2 Un sistema si dice osservabile se nessuno stato è inosservabile ad eccezione


dello stato zero.

L’insieme degli stati inosservabili, X no , è un sottospazio lineare dello spazio di stato.


L’insieme degli stati osservabili, X − X no , non è un sottospazio dello spazio di stato poiché
non contiene l’elemento nullo, ossia lo stato zero. Però, per definizione, si assume come

insieme degli stati osservabili il complemento ortogonale del sottospazio X no , cioè X no che
contiene lo stato zero. Lo spazio di stato è allora dato da X = X no  X o , dove  denota
l’operatore “somma diretta”, che esprime il fatto che un generico elemento x  X si può
esprimere come x = xo + xno , con xo  X o e xno  X no .

Teorema 6.1.2 Un sistema LTI è osservabile se e solo se le colonne della matrice Ce At sono
linearmente indipendenti nell’intervallo [0, t f ] arbitrario.

Prova
Sufficienza Se le colonne della matrice Ce At sono linearmente indipendenti nell’intervallo
[0, t f ] , con t f arbitrario, la condizione Ce At  = 0 implica  = 0 e, quindi, solo lo stato zero è
inosservabile.

Necessità Si ammetta che il modello LTI sia osservabile e che le righe della matrice Ce At
siano linearmente dipendenti. Allora, esisterebbe un n-vettore   0 tale che Ce At  = 0 , il
che contrasta con l’ipotesi di osservabilità del modello.

Le condizioni espresse dal Teorema 6.1.2 possono essere facilmente verificate mediante il
seguente criterio di osservabilità.

Criterio di osservabilità 6.1.3 Un sistema LTI è osservabile se e solo se la matrice di


osservabilità Qo nq  n data da:

 C 
 CA 
Qo =  , (6.3.2)
 
 n−1 
CA 

ha rango uguale a n.

Asserzione 6.1.4 La proprietà di osservabilità è invariante rispetto a una trasformazione di


coordinate nello spazio di stato.

Prova Al fine di verificare l’asserto occorre e basta utilizzare il criterio di osservabilità 6.1.4.
Effettuando la trasformazione di coordinate x = Txˆ , le (6.1.1) e (6.1.2) si trasformano nelle
(6.1.14) e (6.1.15). La corrispondente matrice di osservabilità è data da:
7
2014/2015

 Cˆ   CT 
 
 CAˆ ˆ   CAT 
ˆ
Qo =   =Q T .
=  o (6.3.3)
   
ˆ ˆ n−1  CAn−1T 
CA
 

Poiché T è non singolare, ne consegue che rango(Qˆ o ) = rango(Qo ) .

La seguente proprietà dei sistemi osservabili è di notevole interesse pratico.

Proprietà 6.3.1. Lo spazio di stato di un sistema osservabile è ridotto, ossia privo di coppie di
stati equivalenti.

Prima di provare la proprietà in questione, viene fornita la seguente definizione.

Definizione 6.3.1 Due stati xa e xb , con xa  xb , si dicono equivalenti all’istante t0 se le


risposte nell’uscita valutate a partire dai due stati e corrispondenti a qualsiasi ingresso sono
identiche t  t0 . In simboli, si ha:

 (t , t0 , xa , u[t0 ,t ] ) =  (t , t0 , xb , u[t0 ,t ] ), u()  R(u()), t  t0 . (6.3.4)

Prova della Proprietà 6.3.1 Si dimostra per assurdo ammettendo che il sistema sia osservabile
e che esista una coppia di stati equivalenti. Per sistemi LTI la Definizione 6.3.1, tenuto conto
del fatto che si può assumere t0 = 0 e che la risposta nell’uscita è data dalla somma delle
risposte libera e forzata, la (6.3.4) si riduce alla espressione:

Ce At xa = Ce At xb ,

da cui si ottiene:

Ce At ( xa − xb ) = 0 . (6.3.5)

Poiché il sistema risulta osservabile, la (6.3.5) implica xa = xb .

Si ammetta, adesso, che il modello (6.1.1) e (6.1.2) non sia osservabile. In tal caso, sussiste
il seguente Teorema.

Teorema 6.1.3 Se rank (Qo ) = no  n , esiste una trasformazione di coordinate x (t ) = To xˆ (t )


tale che il nuovo modello, avente la struttura (6.1.14) e (6.1.15), ha le matrici  , B̂ e Ĉ date
da:

 Aˆ 0  ˆ  Bˆ1  ˆ
Aˆ =  1  , B =   , C = Cˆ1 0  ,
 Aˆ 21 ˆ
A2   Bˆ 2 
8
2014/2015

con Aˆ1  C no no , Aˆ 2  C ( n −no )( n −no ) , Bˆ1  C no  p , Bˆ 2  C ( n − no ) p , Cˆ1  C qno . Inoltre, la matrice
Qˆ1To = Cˆ1T Cˆ1T Aˆ1T Cˆ1T Aˆ1T ( no −1)  ha rango no .
 

Per costruire la matrice To , basta scegliere le ultime (n − no ) colonne coincidenti con


(n − no ) colonne linearmente indipendenti appartenenti allo spazio nullo della matrice Qo , e
le prime no colonne ortogonali alle precedenti e tali da formare con esse un insieme di vettori
linearmente indipendenti. Si ricorda che allo spazio nullo della matrice Qo , N (Qo ) , è dato
dall’insieme dei vettori xno  X tali che Qo xno = 0 .
T
Il Teorema 6.1.2 mette in luce che partizionando il vettore di stato xˆ =  xˆ1T xˆ 2T  con

( n − no )
xˆ1  C e xˆ 2  C
T no T
, il modello diviene:

xˆ1 = Aˆ1 xˆ1 + Bˆ1u , (6.3.6)


xˆ 2 = Aˆ 21 xˆ1 + Aˆ 2 xˆ 2 + Bˆ 2u , (6.3.7)
y = Cˆ xˆ .
1 1 (6.3.8)

Le (6.3.6)-(6.3.8) mostrano che dal punto di vista ingresso-uscita il modello del sistema
potrebbe essere rappresentato dal modello osservabile (6.3.6) e (6.3.8).

Conviene, adesso, osservare che la proprietà di osservabilità degli stati è legata alla
proprietà di osservabilità dei modi attraverso l’uscita. Sussiste, infatti, il Teorema che segue.

Sia dato un modello LTI nel quale la matrice dinamica abbia autovalori distinti. Allora, tutti i
modi elementari di evoluzione del modello sono osservabili attraverso l’uscita se e solo se
esso risulta osservabile.

6.4 Teorema della decomposizione canonica di Kalman

Teorema 6.1.3 Nell’ipotesi che le matrici di raggiungibilità e osservabilità del modello


(6.1.1)-(6.1.2), abbiano rango minore di n, esiste una trasformazione di coordinate x = Txˆ ,
non unica, che trasforma il modello in questione nel modello strettamente equivalente dato da:

 xˆ1   Aˆ1 Aˆ12 Aˆ13 Aˆ14   xˆ1   Bˆ1 


     
 xˆ 2   0 Aˆ 0 Aˆ 24   xˆ 2   Bˆ 2 
 = +
2
 u, (6.1.9)
 xˆ 3   0 0 Aˆ Aˆ 34   xˆ 3   0 
3
 
ˆ    ˆ
 x4   0 0 0 Aˆ 4   x4   0 
9
2014/2015

 xˆ1 
 xˆ 
y = 0 Cˆ 2 0 Cˆ 4   2  + Du . (6.1.10)
 xˆ 3 
ˆ 
 x4 

Il modello:

xˆ 2 = Aˆ 2 xˆ 2 + Bˆ 2u , (6.1.11)
y = Cˆ xˆ + Du ,
2 2 (6.1.12)

è raggiungibile e osservabile.

Corollario del Teorema 6.1.4 La matrice di trasferimento del modello (6.1.1) - (6.1.2) è data
da:

W ( s) = C ( sI − A)−1 B = Cˆ 2 ( sI 2 − Aˆ 2 )−1 Bˆ 2 . (6.3.13)

Prova Assumendo che il modello (6.1.1) - (6.1.2) evolva a partire dallo stato x0 = 0 ,
considerando la trasformazione di coordinate x = Txˆ che trasforma il modello in questione
nel modello strettamente equivalente (6.1.9) - (6.1.10), si ha xˆ 0 = 0 . La dinamica dello stato
x̂4 , per la (6.1.9), evolve in accordo alla equazione:

xˆ 4 = Aˆ 4 xˆ 4 ,
la cui soluzione è:

ˆ
xˆ 4 (t ) = e A4t xˆ 40 = 0 , t  0 .

Sempre dalla (6.1.9) si ricava che l’evoluzione dello stato x̂3 avviene in accordo alla
equazione:

xˆ3 = Aˆ 3 xˆ3 + Aˆ 34 xˆ 4 = Aˆ 3 xˆ3 ,

la cui soluzione è data da:

ˆ
xˆ3 (t ) = e A3t xˆ30 = 0 .

La dinamica dello stato x̂2 evolve in accordo alla equazione:

xˆ 2 = Aˆ 2 xˆ 2 + Aˆ 24 xˆ 4 + Bˆ 2u = Aˆ 2 xˆ 2 + Bˆ 2u . (6.3.14)

Inoltre, l’uscita risulta:

y = Cˆ 2 xˆ 2 + Cˆ 4 xˆ 4 + Du = Cˆ 2 xˆ 2 + Du . (6.3.15)
10
2014/2015

Il modello (6.3.14) - (6.3.15) coincide con il modello raggiungibile e osservabile (6.1.11) -


(6.1.12). Pertanto, la matrice di trasferimento del modello LTI (6.1.1) - (6.1.2) coincide con la
(6.3.13).

Osservazione 6.3.1 La matrice di trasferimento di un modello LTI dipende dalla parte


raggiungibile e osservabile del modello stesso. Pertanto, la condizione necessaria e sufficiente
affinché la matrice di trasferimento di un modello LTI costituisca un modello completo del
sistema, al pari del modello ingresso-stato-uscita, è che esso risulti raggiungibile e
osservabile.
1

Cap. 7

Elementi di teoria della stabilità

7.1 Introduzione

La teoria della stabilità studia l’attitudine di un sistema (astratto) che si trova in una certa
situazione dinamica, a reagire alle perturbazioni che possono intervenire sullo stato iniziale
e/o sull’ingresso. In presenza di tali perturbazioni, il sistema può reagire in più modi diversi,
in dipendenza anche dalla loro entità.
In presenza di perturbazioni sullo stato iniziale, il caso di maggiore interesse dal punto di
vista ingegneristico è quello in cui il sistema rimane nell’intorno della situazione dinamica
preesistente, e annulla asintoticamente gli effetti della perturbazione stessa. Il caso peggiore si
ha, invece, quando il sistema si allontana dalla situazione dinamica preesistente, anche in
presenza di perturbazioni di piccola entità.
In presenza di perturbazioni sull’ingresso, il caso di maggiore interesse dal punto di vista
ingegneristico è quello in cui il sistema fornisce una risposta limitata in corrispondenza a un
ingresso limitato e quale che sia lo stato iniziale a partire dal quale evolve il sistema.
Nel seguito verrà, dapprima, affrontato lo studio della stabilità in presenza di perturbazioni
sullo stato iniziale e, successivamente, quello in presenza di perturbazioni sull’ingresso.

7.2 Studio della stabilità in presenza di perturbazioni sullo stato iniziale. Stabilità secondo
Lyapunov

Lo studio della stabilità in presenza di perturbazioni sullo stato iniziale viene effettuato
individuando preliminarmente le situazioni dinamiche di interesse e, successivamente,
studiando il comportamento del sistema in presenza di una perturbazione iniziale che lo
allontana da una delle situazioni dinamiche individuate.
Con riferimento al modello in forma implicita costituito dalle equazioni:

x (t ) =  (t , t 0 , x 0 , ut ,t ) ) , (7.2.1)
0

y(t ) = g ( x (t ), u(t ), t ) , (7.2.2)

le situazioni dinamiche di interesse sono gli stati di equilibrio, le traiettorie nominali e i


movimenti nominali.

Stati di equilibrio
Definizione 7.2.1 Uno stato xe  X si dice stato di equilibrio per il sistema (7.2.1)-(7.2.2), se
ammettendo che il sistema stesso si trovi inizialmente nello stato xe e che l’ingresso sia nullo
o, al più, costante e pari a u , esso rimarrà indefinitamente nello stato xe t  t0 . In simboli,
si ha:

x e =  (t , t 0 , x e , u ), t  t 0 . (7.2.3)

Nel seguito, si considererà il caso in cui u = 0 .


Il calcolo degli stati di equilibrio con la (7.2.3) è poco pratico, tenendo presente anche che
il modello cui si perviene quando si desidera determinare una descrizione matematica di un
sistema reale, è quello in forma implicita, dato dalla equazione:
2

x (t ) = f ( x (t ), u(t ), t ) , (7.2.4)

e dalla (7.2.2). Supponendo nullo l’ingresso e tenendo conto della Definizione 7.2.1, gli stati
di equilibrio sono le soluzioni costanti della equazione vettoriale:

0 = f ( x e , 0, t ) . (7.2.5)

Per quanto concerne gli stati di equilibrio, conviene rilevare che il comportamento dei
sistemi lineari e stazionari è completamente diverso da quello dei sistemi non lineari e/o non
stazionari.
Per i sistemi lineari e stazionari, la (7.2.5) si particolarizza come segue:

Axe = 0 , (7.2.6)

che ammette soluzione unica data da xe = 0 se det( A)  0 , oppure infinite soluzioni,


compresa quella nulla, che costituiscono un sottospazio lineare dello spazio di stato, se
det( A) = 0 .
Per i sistemi di tipo generale, possono esistere stati di equilibrio isolati, come risulta
dall’esempio 7.2.1.

Esempio 7.2.1. Stati di equilibrio di un modello di un pendolo semplice


Il modello matematico con lo stato di un pendolo semplice si ottiene dal modello ingresso-
uscita, dato da:

ml 2 + b + mgl sin( ) = fl ,

e ponendo:

x1 (t ) =  (t ), x2 (t ) =  (t ), u (t ) = f (t ) .

Tale modello risulta:


 x2 
 x1   
 x  =  1 −mgl sin( x ) − bx + lu  .
 2  2 ( 1 2 ) 
 ml

Dalla (7.2.5), si ha x2 = 0 e sin( x1 ) = 0 . Pertanto, nell’intervallo x1  [0, 2 ) , il modello del


pendolo possiede i seguenti stati di equilibrio isolati:

0   
xe1 =   , xe 2 =   ,
0  0

che corrispondono alle due configurazioni in cui il pendolo si trova in posizione verticale con
la sfera metallica in basso e in alto.

Traiettorie nominali
3

Definizione 7.2.2 Si dice traiettoria nominale corrispondente allo stato iniziale x0 = x0* e
all’ingresso u() = u* () , l’insieme degli stati ottenuti dalla (7.2.1):

 x  X : x(t ) =  (t, t , x , u  ) ) .
0
*
0
*
t 0 ,t (7.2.7)
Movimento nominale
Definizione 7.2.3. Si dice movimento nominale corrispondente allo stato iniziale x0 = x0* e
all’ingresso u() = u* () , l’insieme delle coppie ordinate (t , x (t )) ottenute dalla (7.2.1), dato
da:

(t, x)  T  X : x(t ) =  (t, t , x , u  ) ) .


0
*
0
*
t 0 ,t (7.2.8)

7.2.1 Stabilità degli stati di equilibrio

Definizione 7.2.4 Uno stato di equilibrio xe si dice stabile secondo Lyapunov se:

  0, t0  T ,  ( , t0 ) : x0 : x0 − xe   ( , t0 )  xl (t ) − xe   , t  t0 , (7.2.9)

dove:
x l (t ) =  (t , t 0 , x 0 , 0t ,t ) ) .
0

La quantità x0 − xe viene denominata perturbazione iniziale, mentre la risposta libera nello


stato (7.2.9) viene denominata evoluzione perturbata. La Definizione 7.2.4 afferma che xe si
qualifica come stato di equilibrio stabile se, comunque si scelgano  e t0 , esiste un intorno di
raggio  ( , t0 ) , tale che tutte le infinite perturbazioni iniziali che appartengono a tale intorno
originano evoluzioni perturbate appartenenti all’intorno di raggio  di xe . L’interpretazione
grafica della definizione di stabilità è illustrata in Fig. 7.2.1.

Definizione 7.2.5 Uno stato di equilibrio xe si dice asintoticamente stabile secondo Lyapunov
se esso è stabile e se:

 a (t0 ) : x0 : x0 − xe  a (t0 )  lim xl (t ) − xe = 0 . (7.2.10)


t →

La Definizione 7.2.5 afferma che xe si qualifica come stato di equilibrio asintoticamente


stabile se esso è, anzitutto, stabile nel senso della Definizione 7.2.4, e inoltre comunque si
scelga t0 , esiste un intorno di raggio a (t0 ) , tale che tutte le infinite perturbazioni iniziali che
appartengono a tale intorno originano evoluzioni perturbate che, oltre a mantenersi limitate in
un intorno di xe , convergono asintoticamente a xe . L’interpretazione grafica per un sistema
del secondo ordine è illustrata in Fig. 7.2.2.
4

x2

x0
xe
 
x1

Fig. 7.2.1 Interpretazione grafica della stabilità dello stato di equilibrio.

x2

x0
xe

  x1
a

Fig. 7.2.2 Interpretazione grafica della asintotica stabilità dello stato di equilibrio.

Osservazione 7.2.1 Le definizioni di stabilità e asintotica stabilità di uno stato di equilibrio


sono di tipo locale, nel senso che non è specificata l’entità dell’intorno di raggio  e/o  a
all’interno dei quali deve essere contenuto lo stato iniziale x0 affinché siano soddisfatte le
Definizioni 7.2.4 e 7.2.5.

Osservazione 7.2.2 Gli scalari  e  a dipendono, in generale, da t0 e, pertanto, può accadere


che per certi valori di t0 i valori di tali scalari siano molto piccoli. Dal punto di vista
ingegneristico è importante che le regioni di raggio  e  a siano indipendenti da t0 . Quando
ciò accade, la stabilità e/o l’asintotica stabilità di uno stato di equilibrio vengono dette
uniformi. Per i sistemi stazionari le succitate proprietà sono sempre uniformi.

Osservazione 7.2.3 Dal punto di vista ingegneristico, è importante che il sistema sia in grado
di reagire alle perturbazioni sullo stato iniziale in modo tale da annullarne gli effetti
asintoticamente, indipendentemente dall’entità di tali perturbazioni. In tali condizioni, lo stato
di equilibrio viene detto globalmente asintoticamente stabile.

Definizione 7.2.6 Uno stato di equilibrio xe si dice globalmente asintoticamente stabile se


esso è stabile e se:

x0  X , lim xl (t ) − xe = 0 ,
t →

essendo xl (t ) la risposta libera nello stato a partire da x0 .

7.2.2 Stabilità di un movimento nominale


5


Definizione 7.2.7 Un movimento nominale M = (t , x * )  T  X : x * (t ) =  (t , t 0 , x 0* , u*t0 ,t ) ) , 
corrispondente allo stato iniziale x 0* e all’ingresso u*t ,t ) , si dice stabile se:
0

  0, t0  T ,  ( , t0 ) : x0 : x0 − x0*   ( , t0 ) 

 (t , t0 , x0 , u*t0 ,t ) ) −  (t , t0 , x0* , u*t0 ,t ) )   , t  t0 ,

dove x (t ) =  (t , t0 , x0 , u*t0 ,t ) ) è la risposta nello stato corrispondente allo stato iniziale x 0 e


all’ingresso u*t ,t ) .
0


Definizione 7.2.8 Un movimento nominale M * = (t , x * )  T  X : x * (t ) =  (t , t 0 , x 0* , u*t0 ,t ) ) , 
corrispondente allo stato iniziale x 0* e all’ingresso u*t ,t ) , si dice asintoticamente stabile se è
0

stabile nel senso della Definizione 7.2.7, e se:

 a (t0 ) : x0 : x0 − x0*   a (t0 )  lim  (t , t0 , x0 , u*t ,t ) ) −  (t , t0 , x0* , u*t ,t ) ) = 0 .


t → 0 0

Lo studio della stabilità del movimento si può ricondurre allo studio della stabilità dello
stato di equilibrio di un particolare sistema dinamico errore, che si ottiene come segue.
Assumendo che il sistema dinamico sia descritto dal modello (7.2.4) e (7.2.2), i movimenti
nominale e perturbato soddisfano, rispettivamente, le equazioni differenziali:

x* (t ) = f ( x* (t ), u* (t ), t ), x* (t0 ) = x0* , (7.2.11)


x(t ) = f ( x (t ), u (t ), t ), x(t0 ) = x0
*
(7.2.12)

Ponendo z(t ) = x(t ) − x* (t ) , il sistema dinamico errore è descritto dalla equazione ingresso-
stato, data da:

z(t ) = f ( x(t ), u* (t ), t ) − f ( x* (t ), u* (t ), t ) = f ( x* (t ) + z(t ), u* (t ), t ) − f ( x* (t ), u* (t ), t ) =


h( z (t ), u* (t ), x * (t ), t ) , (7.2.13)

che evolve dallo stato iniziale z0 = x0 − x0* . Il sistema dinamico (7.2.13) viene denominato
sistema non autonomo poiché la funzione h( z(t ), u* (t ), x* (t ), t ) dipende dal tempo, essendo
tale dipendenza generata dalla presenza delle funzioni u* (t ) e x * (t ) , oltre che da quella di t.
Il sistema (7.2.13) risulterebbe, pertanto, non autonomo anche se il modello (7.2.4) e (7.2.2)
fosse tempo-invariante.
Poiché h(0, u* (t ), x* (t ), t ) = 0, t  t0 , ne consegue che x (t ) = x * (t ) può essere
interpretato come uno stato di equilibrio per il sistema (7.2.13). Pertanto, lo studio della
stabilità del movimento nominale M * può essere ricondotto a quello della stabilità dello stato
di equilibrio del sistema non autonomo (7.2.13).
6

Tale studio risulta in generale molto complesso. Una notevole semplificazione si ottiene
per sistemi dinamici lineari e tempo-invarianti. In tal caso, il sistema dinamico errore è
descritto dalla equazione:

( )
z (t ) = Ax (t ) + Bu* (t ) − Ax * (t ) + Bu* (t ) = Az (t ) . (7.2.14)

Ne consegue che per i sistemi dinamici lineari e tempo-invarianti, la stabilità di un


movimento nominale è implicata da quella dello stato di equilibrio z = 0 .

7.2.3 Stabilità dei sistemi lineari e stazionari


Per i sistemi lineari e stazionari, com’è noto, esiste un solo stato di equilibrio xe = 0 se
det( A)  0 , oppure esistono infiniti stati di equilibrio, compreso lo stato xe = 0 , se
det( A) = 0 . In quest’ultimo caso, gli infiniti stati di equilibrio costituiscono un sottospazio
lineare dello spazio di stato.
E’ possibile dimostrare i seguenti due teoremi.
Teorema 7.2.1 In un sistema lineare e stazionario con infiniti stati di equilibrio, la stabilità di
uno stato di equilibrio implica ed è implicata da quella di qualunque altro stato di equilibrio.

Teorema 7.2.2 In un sistema lineare e stazionario, si può avere stabilità asintotica solamente
per lo stato 0 solamente quando esso è l’unico stato di equilibrio. Inoltre, la stabilità asintotica
locale implica quello globale.

L’analisi precedente mostra che nel caso dei sistemi lineari e stazionari (LTI) è sufficiente
effettuare lo studio della stabilità dello stato zero. Se esso è l’unico stato di equilibrio, può
risultare stabile, asintoticamente stabile o instabile. Se esistono infiniti stati di equilibrio, essi
risultano tutti stabili se lo stato zero è stabile o tutti instabili se lo stato zero è instabile.
Queste ultime considerazioni mettono in luce la possibilità di estendere la proprietà di
stabilità dagli stati di equilibrio all’intero sistema. Poiché nel tipo di stabilità che si sta
esaminando viene coinvolta la risposta libera nello stato, la stabilità in esame viene
denominata interna. La succitata estensione viene effettuata in accordo alla seguente
definizione.

Definizione 7.2.9 un sistema LTI si dice stabile internamente, asintoticamente stabile


internamente o instabile a seconda che l’origine dello spazio di stato sia stabile,
asintoticamente stabile o instabile.

7.2.4 Condizioni di stabilità per i sistemi LTI.


Teorema 7.2.3 Un sistema LTI è stabile internamente se e solo se esiste una costante k tale
che la matrice di transizione di stato soddisfa la relazione:

 (t )  k , t  0 , (7.2.20)
dove:
 (t ) x
 (t ) = sup .
xC n , x 0 x

è una norma indotta dalla norma definita sullo spazio vettoriale C n .


7

Prova.
Sufficienza. Si consideri lo stato zero come stato di equilibrio del sistema LTI. La risposta
libera nello stato corrispondente al generico stato iniziale x0 è data da:

xl (t ) =  (t ) x0 , t  0 , (7.2.21)

Ammettendo che lo stato iniziale soddisfi la condizione x0   , si ha:

xl (t ) =  (t ) x0   (t ) x0  k x0 , t  0 . (7.2.22)

Fissato, allora,   0 esiste una quantità  ( ) =  k  0 , tale che:

x0   ( )  xl (t )   t  0 .

Necessità. Si ammetta che lo stato zero sia stabile e che la condizione (7.2.20) non sia
soddisfatta. Allora, esiste almeno un elemento, ad es. ij (t ) illimitato
( M  0, t : ij (t )  M , t  t ). Assumendo come stato iniziale x0 = re j , dove e j è un
vettore avente elementi tutti nulli tranne quello di posto j pari a 1, si ha xl (t ) = r j (t ) , dove
 j (t ) è la j-esima colonna della matrice di transizione di stato. Ne consegue che la
componente i-esima di xl (t ) , pari a xl ,i (t ) = rij (t ) , risulta illimitata, il che contrasta con
l’ipotesi di stabilità dello stato zero.

Teorema 7.2.4 Un sistema LTI è asintoticamente stabile internamente se e solo se:

lim  (t ) = 0 . (7.2.23)
t →

Prova. Dalla relazione (7.2.21), tenendo presente che la (7.2.23) implica che lim  (t ) = 0 si
t →
ha:

lim xl (t ) = lim  (t ) x0 = 0 . (7.2.24)


t → t →

Inoltre, si può dimostrare che per i sistemi lineari e stazionari, la condizione (7.2.10) implica
la (7.2.9). Infatti, dalla (7.2.10) particolarizzata per t0 = 0 e xe = 0 , si ottiene:

x0 : x0  a , k  0  t (k ) : xl (t )  k t  t (k ) . (7.2.25)

Essendo xl (t ) continua nell’intervallo chiuso e limitato [0, t ( k )] , esiste una quantità   0


tale che xl (t )   t  [0, t (k )] . Scegliendo   k e tenendo conto della (7.2.25), si ottiene:

x0 : x0  a , xl (t )   t  0 ,

la quale implica che lo stato zero è stabile.


8

Condizioni di stabilità più semplici e di verifica immediata sono quelle che si ottengono in
termini degli autovalori della matrice dinamica A.

Teorema 7.2.5 Un sistema LTI è stabile internamente se e solo se gli autovalori della matrice
dinamica sono tutti a parte reale non positiva e quelli a parte reale nulla hanno molteplicità
geometrica unitaria.

Prova.
Sufficienza. Osservando che la matrice di transizione di stato di un sistema LTI nel caso più
generale è data da:

r mi −1 t k i t
 (t ) =   Rik e , (7.2.26)
i =1 k = 0 k!

se gli autovalori della matrice dinamica hanno tutti parte reale non positiva e quelli a parte
reale nulla hanno molteplicità geometrica unitaria, vale la (7.2.20) e il sistema è stabile
internamente. Infatti, i termini corrispondenti ad autovalori a parte reale negativa convergono
asintoticamente a zero, mentre i termini corrispondenti ad autovalori a parte reale nulla e con
molteplicità geometrica unitaria si mantengono limitati.

Necessità. Si ammetta che il sistema sia stabile internamente e che la matrice A abbia
autovalori a parte reale positiva e/o un autovalore a parte reale nulla, ma di molteplicità
geometrica maggiore o uguale a due. In entrambi i casi, la (7.2.26) implica che
lim  (t ) →  , e ciò contrasta con l’ipotesi di stabilità.
t →

Teorema 7.2.7. Un sistema LTI è asintoticamente stabile internamente se e solo se gli


autovalori della matrice dinamica sono tutti a parte reale negativa.

Prova
Sufficienza. Se gli autovalori della matrice dinamica sono tutti a parte reale negativa, tutti i
termini della (7.2.26) convergono asintoticamente a zero e, quindi, vale la (7.2.23).

Necessità. Si ammetta che il sistema sia asintoticamente internamente stabile e che la matrice
dinamica abbia autovalori a parte reale positiva e/o nulla. In entrambi i casi lim  (t )  0 , il
t →
che contrasta con l’ipotesi di stabilità asintotica.

7.3 Stabilità esterna

Lo studio della stabilità esterna si effettua assumendo che il sistema si trovi inizialmente in
un generico stato iniziale e che sia soggetto a un ingresso. In particolare, un sistema è stabile
esternamente, o stabile BIBO (bounded input bounded output), se ad un ingresso limitato
corrisponde una uscita limitata quale che sia lo stato iniziale a partire dal quale evolve il
sistema stesso. La definizione formale è di seguito riportata, con riferimento a un sistema
descritto dal modello con lo stato dato da:

x (t ) =  (t , t 0 , x 0 , ut ,t ) ) , (7.3.1)
0
9

y (t ) =  (t , t 0 , x 0 , ut ,t  ) . (7.3.2)
0

Definizione 7.3.1 Un sistema descritto dalle (7.3.1) e (7.3.2) si dice esternamente stabile se:

M  0, t0 , x0 , N ( M , t0 , x0 ) : u(t )  M   (t , t0 , x0 , ut ,t  )  N , t  t0 .


0

(7.3.3)

Definizione 7.3.2 Un sistema descritto dalle (7.3.1) e (7.3.2) si dice esternamente stabile nello
stato zero se:

M  0, t0 , N ( M , t0 ) : u(t )  M   (t , t0 , 0, ut ,t  )  N , t  t0 . (7.3.4)


0

7.3.1 Stabilità esterna di sistemi LTI


Con riferimento ai sistemi LTI, le condizioni per la stabilità esterna e per quella esterna
nello stato zero sono fornite dai seguenti teoremi.

Teorema (7.3.1). Un sistema LTI è esternamente stabile se e solo se esistono due costanti, k1 e
k 2 , tali che:

 (t )  k1, t  0 , (7.3.5)
t
0 W (t ) dt  k2 , t  0 . (7.3.6)

Prova.
Sufficienza. Si ammetta che valgano le (7.3.5) e (7.3.6). Com’è noto, la risposta nell’uscita di
un sistema LTI, assumendo t0 = 0 , è data da:

t
y (t ) =  (t , 0, x 0 , u[t0 ,t ] ) = (t ) x 0 +  W (t −  )u( ) d . (7.3.7)
0

Assumendo che l’ingresso sia limitato da M, i.e. u(t )  M t  0 , dalla (7.3.7) si ha:

t t
y(t ) =  (t ) x 0 +  W (t −  )u( )d   (t ) x 0 + 0 W (t −  )u( )d 
0
t t
  (t ) x 0 +  W (t −  ) u( ) d   (t ) x 0 + M  W ( ) d 
0 0
t
  (t ) x 0 + M  W ( ) d  k1 x 0 + Mk 2 .
0

Ponendo, quindi, N ( M , x 0 ) = k1 x 0 + Mk 2 , si ha y(t )  N ( M , x0 ) t  0 e, pertanto, il


sistema risulta esternamente stabile.

Necessità. Si ammetta, adesso, che il sistema LTI sia esternamente stabile e che sia valida la
(7.3.6), ma non la (7.3.5). Assumendo, ad esempio, che l’elemento  ij (t ) sia illimitato e
10

scegliendo lo stato iniziale x0 = re j , la componente j-esima della risposta libera nell’uscita,


i.e. yl , j (t ) = r ij (t ) , risulta illimitata. Ne consegue che y (t ) risulta illimitata, il che
contrasta con l’ipotesi di stabilità esterna del sistema. Si ammetta che sia valida la (7.3.5), ma
t
non la (7.3.6). Ciò implica che k  t (k ) : 0 W ( ) d  k . Scegliendo l’operatore norma
come segue:

p
W ( ) 
= max
i
 wij ( ) , (7.3.8)
j =1
si ha:

 wij ( ) d  k , t  t .
t
0 max
i
j =1
(7.3.9)

La (7.3.9) implica che esiste un valore h di i in corrispondenza al quale si ha:

0 
t
whj ( ) d   k , t  t . (7.3.10)
j =1

Scegliendo l’ingresso come segue:

sgn( whj ( t − t )), t  0, t 


u j (t ) = , (7.3.11)
0, > t

per il quale si ha u(t )  1 t  0 , la componente h-esima della risposta forzata nell’uscita


risulta:

p p

0  0 
t t t
y f ,h (t ) = 0 W ( t −  )u( )d =
j =1
whj ( t −  ) sgn( whj ( t −  ))d =
j =1
whj ( t −  ) d =

0 
t
= whj ( ) d   k ,
j =1

tenuto conto anche della (7.3.10). Ne consegue che la risposta forzata all’ingresso limitato
(7.3.11) è illimitata, il che contrasta con l’ipotesi di stabilità esterna.

Teorema 7.3.2. Un sistema LTI è esternamente stabile nello stato zero se e solo se è valida la
(7.3.6).

Condizioni di stabilità esterna più semplici da verificare, sono quelle che si riferiscono alle
trasformate di Laplace delle matrici  (t ) e W (t ) . Tuttavia, prima di enunciare tali
condizioni occorre definire i poli di una matrice di funzioni di s.
11

Definizione 7.3.3 I poli di una matrice di funzioni di s sono gli zeri del minimo denominatore
comune di tutti gli elementi della matrice stessa.

Teorema (7.3.3). Un sistema LTI è esternamente stabile se e solo se: a) i poli della matrice
 ( s ) hanno tutti parte reale non positiva e quelli a parte reale nulla hanno molteplicità
unitaria; b) i poli della matrice di trasferimento W ( s ) hanno tutti parte reale negativa.

Prova. Le condizioni a) e b) del Teorema si dimostrano osservando che le antitrasformate


delle matrici  ( s ) e W ( s ) hanno le seguenti espressioni:

r m i −1
t k pit
 (t ) =   Rik e , (7.3.12)
i =1 k =0 k!
rw m wi −1 tk
W (t ) =   Rw ik e p w it , (7.3.13)
i =1 k = 0 k!

dove si è assunto che  ( s ) e W ( s ) avessero, rispettivamente, r poli distinti ciascuno di


molteplicità m i , e rw poli distinti ciascuno di molteplicità mwi .

Sufficienza. Se valgono le condizioni a) e b), si ha  (t ) limitata e lim W (t ) = 0 , il che


t →
t
implica che lim 
t → 0
W ( ) d è limitato t  0 .

Necessità. Si dimostra per assurdo nell’ipotesi che il sistema sia esternamente stabile e che
siano violate alternativamente le condizioni a) e b).

Teorema (7.3.4). Un sistema LTI è esternamente stabile nello stato zero se e solo se i poli
della matrice di trasferimento W ( s ) hanno tutti parte reale negativa.

7.4 Legami fra la stabilità esterna e quella interna per i sistemi LTI

Nel presente paragrafo vengono stabiliti i legami fra la stabilità esterna e quella interna per
i sistemi LTI, rappresentati dalle equazioni:

x (t ) = Ax (t ) + Bu(t ) , (7.4.1)
y (t ) = Cx (t ) . (7.4.2)

L’avere considerato sistemi strettamente propri non è una limitazione. Infatti, un sistema
proprio, i.e. con D  0 , è costituito da un sistema strettamente proprio connesso in parallelo a
un sistema istantaneo avente legame ingresso-uscita pari a D. La stabilità dell’intero sistema è
ovviamente stabilita da quella del sistema strettamente proprio.

La stabilità interna asintotica implica sempre quella esterna e quella esterna nello stato zero.
I poli delle matrici  ( s ) e W ( s ) sono sottoinsiemi degli autovalori di A. Pertanto, se tali
autovalori hanno tutti parte reale negativa, anche i poli di  ( s ) e W ( s ) hanno parte reale
negativa.
12

La stabilità esterna nello stato zero implica quella esterna se il sistema è raggiungibile.
Si ammetta che il sistema LTI sia esternamente stabile nello stato zero e completamente
raggiungibile, ma non esternamente stabile. Ciò implica che esiste almeno uno stato iniziale
x0 per il quale la corrispondente risposta libera nell’uscita non è limitata:

  t ( ) : yl (t ) = Ce At x0   t  t ( ) . (7.4.3)

Poiché x0 è raggiungibile, esiste un ingresso u () che trasferisce il sistema dallo stato 0 allo
stato x0 in un intervallo tempo finito [0, t f ] , in accordo alla relazione:

tf A(t f − )
x0 = 0 e Bu ( )d . (7.4.4)

Sollecitando, adesso, il sistema con l’ingresso u () per t [0, t f ) e con l’ingresso
identicamente nullo a partire da t f , la risposta nell’uscita è data da:

A(t −t f )
 (t , 0, 0, u[0,t ] ) =  (t , t f , x0 , 0[t f ,t ] ) = Ce x0 , t  t f

che risulta illimitata. Ciò contrasta con l’ipotesi che il sistema sia esternamente stabile nello
stato zero.

La stabilità esterna nello stato zero implica la stabilità interna asintotica se il sistema è
raggiungibile e osservabile.

La stabilità esterna implica quella interna asintotica se il sistema è raggiungibile e


osservabile
La stabilità esterna implica sempre quella esterna nello stato zero e, quindi, la stabilità
interna asintotica, ammesso che il sistema sia raggiungibile e osservabile.

7.5 Criteri di stabilità per sistemi LTI


I criteri di stabilità sono degli algoritmi che permettono di verificare se sono soddisfatte o
meno le condizioni di stabilità. Per i sistemi LTI valgono le seguenti considerazioni:

a) le condizioni di asintotica stabilità interna riguardano la verifica che gli zeri del
polinomio caratteristico abbiano tutti parte reale negativa;
b) le condizioni di stabilità interna riguardano la verifica che gli zeri del polinomio minimo
abbiano tutti parte reale negativa o nulla, e che gli zeri a parte reale nulla abbiano
molteplicità unitaria;
c) le condizioni di stabilità esterna nello stato zero si riferiscono alla verifica che gli zeri del
polinomio minimo denominatore comune di tutti gli elementi della matrice di
trasferimento abbiano tutti parte reale negativa;
d) le condizioni di stabilità esterna si riferiscono alla verifica della stabilità esterna nello
stato zero, e alla verifica che gli zeri del polinomio minimo denominatore comune di tutti
13

gli elementi della matrice  ( s ) abbiano tutti parte reale negativa o nulla, e che gli zeri a
parte reale nulla abbiano molteplicità unitaria.

In tutti i casi il problema dello studio della stabilità viene ricondotto a quello della
determinazione della dislocazione degli zeri di un opportuno polinomio. Per sistemi LTI
esistono alcuni criteri algebrici di stabilità che permettono di stabilire la succitata dislocazione
degli zeri senza doverli determinare. I criteri algebrici di stabilità più utilizzati sono il criterio
di Routh e quello di Hurwitz. Nel seguito verrà studiato il criterio di Routh.
Prima di illustrare tale criterio, conviene premettere la seguente condizione necessaria
affinchè gli zeri del generico polinomio p ( ) , dato da:

p( ) = an n + an−1 n−1 + a1 + a0 , (7.5.1)

abbiano tutti parte reale negativa.

Condizione necessaria affinchè gli zeri del polinomio (7.5.1) abbiano tutti parte reale
negativa, è che i coefficienti ai , i = 0, n − 1 , siano tutti diversi da zero e dello stesso segno.

7.5.1 Criterio di Routh


Il criterio di Routh si basa sulla costruzione dello schema di Routh, avente la struttura di
Fig. 7.5.1, dove:

a) le righe di indice n e n − 1 si costruiscono con i coefficienti del polinomio (7.5.1), come


segue:

(rn,1, , rn, j , rn, j +1, ) = (an , an−2 , an−4 , ) , (7.5.2)


(rn−1,1, , rn−1, j , rn−1, j +1, ) = (an−1, an−3 , an−5 , ) , (7.5.3)

b) gli elementi della riga di indice i vengono determinati mediante l’espressione:

1 ri +2,1 ri +2, j +1 (i + 1) 2, i dispari


ri , j = − , j = 1,  , i = n − 2, , 0 . (7.5.4)
ri +1,1 ri +1,1 ri +1, j +1  (i + 2) 2, i pari

n rn,1 rn, j rn, j +1


n-1 rn−1,1 rn−1, j rn−1, j +1

i+2 ri+2,1 ri+2, j ri+2, j +1


i+1 ri+1,1 ri+1, j ri+1, j +1
i ri,1 ri, j ri, j +1

1 r1,1
0 r0,1
14

Fig. 7.5.1 Schema di Routh

Ciò premesso, nell’ipotesi che lo schema di Routh possa essere completato, il criterio di
Routh si enuncia come segue.

Criterio di Routh. Condizione necessaria e sufficiente affinchè gli zeri del polinomio p ( ) ,
dato dalla (7.5.1), abbiano tutti parte reale negativa è che gli elementi della prima colona dello
schema di Routh, i.e. rn,1, rn−1,1, r1, r0 , siano tutti diversi da zero e dello stesso segno.

Nelle ipotesi che lo schema possa essere completato e che gli elementi della prima colona
dello schema di Routh non abbiano tutti lo stesso segno, il Criterio di Routh fornisce
informazioni sul numero di zeri a parte reale positiva del polinomio p ( ) . Sussiste infatti il
seguente corollario.

Corollario del Criterio di Routh. Il numero di zeri a parte reale positiva del polinomio p ( ) è
pari al numero di variazioni di segno fra gli elementi della prima colonna dello schema di
Routh.

L’esame della (7.5.4) mostra che lo schema di Routh non può essere completato se nel
corso della sua costruzione il primo elemento di una riga risulta nullo. In tale caso, la
necessità della condizione espressa dal Criterio di Routh implica che non tutti gli zeri del
polinomio p ( ) hanno parte reale negativa. Volendo, inoltre, determinare il numero di zeri a
parte reale positiva e/o la molteplicità degli eventuali zeri a parte reale nulla, è possibile
procedere come segue.

Casi critici del Criterio di Routh


a) La riga di indice i ha il primo elemento nullo, ma ha altri elementi diversi da zero.
Tale situazione indica che il polinomio p ( ) ha zeri a parte reale positiva. Per
determinarne il numero si sostituisce all’elemento nullo una quantità  e si continua a
costruire lo schema. Ovviamente, gli elementi delle righe successive sono funzioni di  .
Ammesso che lo schema possa essere completato, si fa tendere  a zero da destra o da
sinistra e si applica il corollario del Criterio di Routh, contando le variazioni di segno fra gli
elementi della prima colonna dello schema stesso.

Es. 7.5.1 Si consideri il polinomio p ( ) dato da:

p() = 4 + 3 + 22 + 2 + 1.

Le prime tre righe dello schema sono riportate in Fig. 7.5.2.

4 1 2 1
3 1 2
2 0 1
Fig. 7.5.2

Sostituendo all’elemento nullo la quantità  e procedendo in accordo a quanto detto in


precedenza, si ottiene lo schema di Fig. 7.5.3.
15

4 1 2 1
3 1 2
2 0 ( ) 1
1 2 −1 
0 1
Fig. 7.5.3

Facendo tendere  a zero da sinistra o da destra, gli elementi della prima colonna dello
schema di Routh assumono i segni indicati nella Tabella 7.5.1. L’esame della Tabella mostra
che in entrambi i casi nella prima colonna dello schema do Routh si manifestano due
variazioni di segno, il che implica che il polinomio p ( ) ha due zeri a parte reale positiva.

Tabella 7.5.1
 → 0+  → 0−
+ +
+ +
+ −
− +
+ +

b) La riga di indice i ha tutti gli elementi nulli.


Ovviamente, la presenza di un elemento nullo nella prima colonna dello schema di Routh
indica che non tutti gli zeri di p ( ) hanno parte reale negativa.
Infatti, tale situazione si manifesta quando p ( ) ha zeri radiali e simmetrici rispetto
all’origine, i.e. reali e opposti (1,2), immaginari coniugati (3,4) o a simmetria quadrantale
(5,6,7,8), come indicato nella Fig. 7.5.4.
j

3
5 7
1 2 
2
2
6 4 8

Fig. 7.5.4 Esempi di zeri radiali e simmetrici rispetto all’origine

Gli zeri a simmetria quadrantale sono gli zeri del polinomio pi +1 ( ) associato alla riga
i + 1 , dato da:
pi +1 ( ) = ri +1,1 i +1 + ri +1,2 i −1 + ri +1,3 i −3 + + ri +1,(i +1) 2 (7.5.5)

Poiché il numero degli zeri di pi +1 ( ) è pari, la riga nulla, se esiste, deve essere
necessariamente di indice dispari. Inoltre, il polinomio p ( ) è dato da:

p( ) = pi +1 ( )d ( ) , (7.5.6)
16

dove d ( ) è un polinomio che contiene gli altri zeri di p ( ) .


Al fine di ottenere informazioni ulteriori sulla dislocazione degli zeri di p ( ) , si continua
la costruzione dello schema di Routh, sostituendo agli elementi nulli della riga i, i coefficienti
della derivata rispetto a  del polinomio ausiliario pi +1 ( ) , data da:

d
pi +1 ( ) = (i + 1)ri +1,1 i + (i − 1)ri +1,2  i −2 + . (7.5.7)
d

Si possono presentare i seguenti casi.

b.1) Lo schema può essere completato.

b.2) Lo schema non può essere completato poiché si incontra una seconda riga nulla, di indice
dispari j. Ciò si manifesta quando alcuni degli zeri di pi +1 ( ) hanno molteplicità 2. Tali zeri
sono gli zeri del polinomio ausiliario, p j +1 ( ) , associato alla riga j + 1 . La costruzione dello
schema può essere continuata derivando p j +1 ( ) e sostituendo i coefficienti nulli con i
coefficienti del polinomio derivato. Se si incontra una terza riga nulla, alcuni degli zeri di
pi +1 ( ) hanno molteplicità 3. Tali zeri sono gli zeri del polinomio ausiliario associato alla
riga che precede la terza riga nulla. Derivando tale polinomio e sostituendo i coefficienti del
polinomio derivato al posto degli elementi della terza riga nulla si può continuare la
costruzione dello schema, fino al suo completamento.

Dopo avere completato lo schema, basta valutare:


• il numero di variazioni di segno fra gli elementi della prima colonna, dalla riga di
indice n alla riga di indice i + 1 , pari al numero di zeri a parte reale positiva di d ( ) ;
• il numero di variazioni di segno fra gli elementi della prima colonna, dalla riga di
indice i alla riga di indice 0, pari al numero di zeri a parte reale positiva di pi +1 ( ) ;
• il numero di zeri a parte reale positiva di p ( ) uguale alla somma delle succitate
variazioni di segno;
• se il numero complessivo di variazioni di segno è pari a zero, p ( ) ha zeri sull’asse
immaginario;
• l’ordine massimo della molteplicità degli zeri sull’asse immaginario di p ( ) , è uguale
al numero di righe nulle incontrate nella costruzione dello schema di Routh.

Es. 7.5.2 Si consideri il polinomio p ( ) dato da:

p() = 5 + 4 + 23 + 22 +  + 1.

Le prime tre righe sono riportate nella Fig. 7.5.5.

5 1 2 1
4 1 2 1
3 0 0
Fig. 7.5.5
17

Poiché la riga 3 è nulla, non tutti gli zeri hanno parte reale negativa, e p ( ) ha zeri radiali
e simmetrici rispetto all’origine. Il polinomio ausiliario p4 ( ) è dato da:

p4 ( ) =  4 + 2 2 + 1 ,

e ha quattro zeri radiali e simmetrici rispetto all’origine. Il polinomio derivato risulta:

d
p4 ( ) = 4 3 + 4 2 ,
d

e quindi continuando a costruire lo schema, si ottiene lo schema di Fig. 7.5.7.

5 1 2 1
4 1 2 1
3 0 (4) 0 (4)
2 1 1
1 0
Fig. 7.5.6

Poiché la riga di indice 1 ha un solo elemento, si è in presenza di una seconda riga nulla. Pertanto,
alcuni degli zeri di p4 ( ) hanno molteplicità 2. Il polinomio ausiliario associato alla riga nulla
è dato da:
p2 ( ) =  2 + 1 ,
la cui derivata risulta:
d
p2 ( ) = 2 .
d

Sostituendo il coefficiente 2 all’elemento nullo della riga di indice 1, si ottiene lo schema


completo di Fig. 7.5.

5 1 2 1
4 1 2 1
3 (0) 4 (0) 4
2 1 1
1 (0) 2
0 1
Fig. 7.5.7

Poiché non esistono variazioni nella prima colonna dello schema di Routh di Fig. 7.5.7, il
polinomio p ( ) ha zeri sull’asse immaginario. La presenza di due righe nulle implica che
p ( ) ha due zeri di molteplicità 2 sull’asse immaginario e uno zero reale negativo.
Lezione Lezione

Stabilitá

Dato un sistema dinamico


ẋ = f (x(t)), x(t0) = x0
Teorema di Lyapunov
Definition 1 Un equilibrio x̄ si dice stabile se, per ogni ε > 0,
esiste δ > 0 tale che per tutti gli stati iniziali x0 che soddisfano
la relazione
Definition 4 Una funzione V (·) si dice definita positiva (nega-
kx0 − x̄k ≤ δ
tiva) se esiste un intorno (circolare) dell’origine in cui V (x) >
risulti (<)0 per x 6= 0 e V (0) = 0.
kx (t) − x̄k ≤ ε
Definition 5 Una matrice quadrata e simmetrica P si dice definita
per tutti i t ≥ 0.
positiva (negativa) se V (x) = x0P x è una funzione definita posi-
Definition 2 Un equilibrio x̄ si dice instabile se non è stabile. tiva (negativa).

Definition 3 Un equilibrio x̄ si dice asintoticamente stabile se, Theorem 1 C.N.E.S. perchè una matrice quadrata simmetrica
se è stabile e inoltre di ordine n sia definita positiva è che siano positivi tutti gli n
minori principali D1,. . . , Dn da essa estraibili
lim kx (t) − x̄k = 0
t→∞
D1 = det(p11)
 
µ· ¸¶ p11 · · · p1j
p11 p12 . ... ...  , j ≤ n
D2 = det , Dj = det  ..
p12 p22
p1j . . . pjj

Teoria dei Sistemi/Controlli Automatici 2003 Teoria dei Sistemi/Controlli Automatici 2003
Lezione Lezione

Theorem 2 Sia x = 0 un punto di equilibrio per ẋ = f (x(t)).


Sia V: D ⊂ Rn → R una funzione differenziabile con continuità, Pendolo
tale che
V (0) = 0 e V (x) > 0 in D − {0}
V̇ (x) ≤ 0 in D
Allora, x = 0 è un punto di equilibrio stabile. Inoltre, se
V̇ (x) < 0 in D - {0}
allora x = 0 è asintoticamente stabile.
M = massa, l = lunghezza asta x1 = posizione angolare rispetto
Theorem 3 Sia x = 0 un punto di equilibrio per ẋ = f (x(t)). alla verticale, x2 la velocità angolare, coppia d’attrito proporzionale
Sia V: D ⊂ Rn → R una funzione differenziabile con continuità, alla velocità angolare secondo un coefficiente d’attrito k > 0
tale che
Ml2θ̈ = −k θ̇ − M lg sin(θ)
V (0) = 0 e V (x) > 0 in D − {0}
V̇ (x) > 0 in D ẋ1 (t) = x2 (t)
g k
ẋ2 (t) = − sin (x1 (t)) − x2 (t)
Allora, x = 0 è un punto di equilibrio instabile. l Ml2
dove g è l’accelerazione di gravità.
g 1
V (x) = (1 − cos x1) + x22
l 2
g
V̇ (x) = ẋ1 sin (x1) + x2ẋ2
l
g g k 2 k
= x2 sin (x1) − x2 sin (x1) − 2
x2 (t) = − 2 x22 (t)
l l Ml Ml
Se k = 0 allora V̇ (x) = 0 quindi l’origine è stabile e non asintoti-
camente stabile.
Teoria dei Sistemi/Controlli Automatici 2003 Teoria dei Sistemi/Controlli Automatici 2003
Lezione Lezione

k
Con p22 = 1, (elimino sin(x1)x2) p11 = p12 2 > 0 (elimino
Ml
k
Pendolo x2 e rispetto def-pos 1), p12 − p22 2 < 0 (negativo x22), 0 <
Ml
k k
p12 < 2
(negativo x1+condizione precedente), p12 2 − p212 >
2
Ml Ml
k
Con k > 0 V̇ (x) è semidefinita negativa perchè è indipendente 0 (condizione def-pos 2 noti p11 e p22), p12 = 0.5 2
Ml
da x1. Quindi possiamo solo concludere che l’origine è stabile
mentre l’intuizione ci dice che è asintoticamente stabile. Proviamo k g k
V̇ (x) = −0.5 2 x1 sin (x1) − 0.5 2 x22
con un’altra funzione definita positiva. Ml l Ml
g 1 Quindi poiché x1sinx1 > 0 per 0 ©< |x1| < π, V (x) ª soddisfa
V (x) = (1 − cos x1) + x0P x 2
il Teorema di Lyapunov con D = x ∈ R | |x1| < π e quindi
l 2 · ¸· ¸
g 1£ ¤ p11 p12 x1 l’origine è un punto di equilibrio asintoticamente stabile.
= (1 − cos x1) + x1 x2
l 2 p12 p22 x2
dove P è una matrice definita positiva (i.e. p11 > 0; p11p22 −p212 >
0)
· ¸· ¸
0 g £ ¤ p11 p12 ẋ1
V̇ (x) = x P ẋ + sin x1ẋ1 = x1 x2
l p12 p22 ẋ2
h g i
= p11x1 + p12x2 + sin (x1) ẋ1 + (p12x1 + p22x2)ẋ2
h l i
g
= p11x1 + p12x2 + sin (x1) x2
µl ¶
g k
+(p12x1 + p22x2) − sin (x1) − x2
l Ml2
g k
= −p12 x1 sin (x1) + (p12 − p22 2 )x22
l Ml
k g g
+(p11 − p12 2 )x2 + ( sin (x1) − p22 sin (x1))x2
Ml l l
Teoria dei Sistemi/Controlli Automatici 2003 Teoria dei Sistemi/Controlli Automatici 2003
Lezione Lezione

Esempio

½
ẋ1 = −2x1 − 3x2
Teorema di Lyapunov per sistemi lineari ẋ2 = 4x1 − 2x2
Studiare la stabilità con l’equazione di Lyapunov
· ¸
−2 −3
Theorem 4 Un sistema lineare e invariante è asintoticamente A= ,Q = I
4 −2
stabile se e solo se per ogni matrice simmetrica e definita positiva
Q esiste una matrice simmetrica definita positiva P che soddisfa · ¸· ¸ · ¸· ¸
−2 4 a b a b −2 −3
l’equazione di Lyapunov + = −I
−3 −2 b c b c 4 −2
· ¸
P A + A0P = −Q −2a + 4b − 2a + 4b −2b + 4c − 3a − 2b
= −I
−3a − 2b − 2b + 4c −3b − 2c − 3b − 2c
Inoltre , se il sistema è asintoticamente stabile, allora P è l’unica
soluzione.   1+8b
 −4a + 8b = −1 a= 4
Nota che V (x) = x0P x è una funzione di Lyapunov per il sis- −4b + 4c − 3a = 0 c = 1−6b
4
 
tema ẋ = Ax. Infatti −6b − 4c = −1 −4b + 1 − 6b − 34 (1 + 8b) = 0

½  b = 64
1
V̇ (x) = x0P Ax + x0A0P.x = x0(P A + A0P )x = −x0 Qx 1 9
−16b + = 0 a = 32
4  58 29
c = 64∗4 = 128
· ¸
1 36 2
P = > 0 ⇒ As.Stabile
128 2 29
P = Lyap(A0, Q)

Teoria dei Sistemi/Controlli Automatici 2003 Teoria dei Sistemi/Controlli Automatici 2003
LECTURE 8

Internal or Lyapunov Stability


CONTENTS
This lecture introduces a notion of stability that expresses how the (internal) state of the
system evolves with time.

1. Matrix Norms (review)


2. Lyapunov Stability
3. Eigenvalue Conditions for Lyapunov Stability
4. Positive-Definite Matrices (review)
5. Lyapunov Stability Theorem
6. Discrete-Time Case
7. Stability of Locally Linearized Systems
r
8. Stability Tests with MATLAB⃝
9. Exercises

8.1 MATRIX NORMS (REVIEW)


Several matrix norms are available. The following are the most common matrix
norms for an m × n matrix A = [ai j ].
1. The one-norm,
MATLAB⃝
R
Hint 21.
m
!
norm(A,1)
computes the ∥A∥1 := max |ai j |.
1≤ j≤n
one-norm of A. i=1
"ℓ
For a (column) vector v = [vi ] ∈ Rℓ , ∥v∥1 := i=1 |vi |.

2. The ∞-norm,
MATLAB⃝ R
Hint 22.
n
!
norm(A,inf)
computes the ∥A∥∞ := max |ai j |.
1≤i≤m
∞-norm of A. j=1

For a (column) vector v = [vi ] ∈ Rℓ , ∥v∥∞ := max1≤i≤ℓ |vi |.


64 LECTURE 8

Notation. In the 3. The two-norm,


absence of a subscript,
∥ · ∥ generally refers to
the two-norm. ∥A∥2 := σmax [A],
MATLAB⃝
R
Hint 23.
norm(A,2), or where σmax [A] denotes the largest singular value of A. For a (column) vector
simply norm(A), v# = [vi ] ∈ Rℓ , this norm corresponds to the usual Euclidean norm v :=
computes the "ℓ 2
two-norm of A. i=1 vi .

MATLAB⃝ R
Hint 24. 4. The Frobenius norm,
svd(A) computes $ $
the singular values of %! % n
A, which are the
n
% m ! 2
%!
∥A∥ F := & ai j = & σi [A]2 ,
square roots of the
eigenvalues of A′ A. i=1 j=1 i=1

MATLAB⃝ R
Hint 25. where the σi [A] are the singular values of A. For (column) vectors, the Frobe-
norm(A,’fro’) nius norm coincides with the two-norm (and also with the Euclidean norm),
computes the
Frobenius norm of A. but in general this is not true for matrices.
All matrix norms are equivalent in the sense that each one of them can be upper and
lower bounded by any other times a multiplicative constant:
∥A∥1 √
√ ≤ ∥A∥2 ≤ n∥A∥1 ,
n
∥A∥∞ √
√ ≤ ∥A∥2 ≤ m∥A∥∞ ,
n
∥A∥ F
√ ≤ ∥A∥2 ≤ ∥A∥ F .
n
The four matrix norms above are submultiplicative; i.e., given two matrices A and B

∥AB∥ p ≤ ∥A∥ p ∥B∥ p , p ∈ {1, 2, ∞, F}.

For any submultiplicative norm ∥ · ∥ p , we have

∥Ax∥ p ≤ ∥A∥ p ∥x∥ p , ∀x

and therefore
∥Ax∥ p
∥A∥ p ≥ max .
x̸=0 ∥x∥ p
The one-, two-, and ∞-norms are also subordinate to the corresponding vector norms;
Note. For subordinate i.e., we actually have
norms, we can view
the value of ∥A∥ p as ∥Ax∥ p
the maximum vector ∥A∥ p = max , p ∈ {1, 2, ∞}. (8.1)
norm amplification x̸=0 ∥x∥ p
that can result from
multiplying a vector The equality in (8.1) arises from the fact that subordinate norms have the property
by A. that for every matrix A there exists a vector x ∗ ∈ Rn for which
∥Ax ∗ ∥ p
∥A∥ p = , p ∈ {1, 2, ∞}. (8.2)
∥x ∗ ∥ p
INTERNAL OR LYAPUNOV STABILITY 65

Attention! The Frobenius norm is submultiplicative but not subordinate, which means
that
∥Ax∥ F ∥Ax∥2
∥A∥ F > max = max = ∥A∥2 .
x̸=0 ∥x∥ F x̸=0 ∥x∥2
' ( √
One can check this, e.g., for the matrix 20 01 , for which ∥A∥ F = 5 ≈ 2.24, and yet
∥Ax∥ F
max = ∥A∥2 = 2.
x̸=0 ∥x∥ F
This example shows that the Frobenius norm typically overestimates how much am-
plification can result from multiplying by A. !

8.2 LYAPUNOV STABILITY


Consider the following continuous-time LTV system
ẋ = A(t)x + B(t)u, y = C(t)x + D(t)u, x ∈ Rn , u ∈ Rk , y ∈ Rm . (CLTV)

Definition 8.1 (Lyapunov stability). The system (CLTV) is said to be


1. (marginally) stable in the sense of Lyapunov or internally stable if, for every ini-
tial condition x(t0 ) = x0 ∈ Rn , the homogeneous state response
x(t) = #(t, t0 )x0 , ∀t ≥ 0
is uniformly bounded,
2. asymptotically stable (in the sense of Lyapunov) if, in addition, for every initial
condition x(t0 ) = x0 ∈ Rn , we have that x(t) → 0 as t → ∞,
3. exponentially stable if, in addition, there exist constants c, λ > 0 such that, for
every initial condition x(t0 ) = x0 ∈ Rn , we have
∥x(t)∥ ≤ ceλ(t−t0 ) ∥x(t0 )∥, ∀t ≥ 0, or

4. unstable if it is not marginally stable in the Lyapunov sense. !


The matrices B(·), C(·), and D(·) play no role in this definition; only A(·) matters
because this matrix completely defines the state transition matrix #. Therefore one
often simply talks about the Lyapunov stability of the homogeneous system
ẋ = A(t)x, x ∈ Rn .
Attention!
1. For marginally stable systems, the effect of initial conditions does not grow un-
bounded with time (but it may grow temporarily during a transient phase).
2. For asymptotically stable systems, the effect of initial conditions eventually dis-
appears with time.
3. For unstable systems, the effect of initial conditions (may) grow over time (de-
pending on the specific initial conditions and the value of the matrix C). !
66 LECTURE 8

8.3 EIGENVALUE CONDITIONS FOR LYAPUNOV STABILITY


The results in Lecture 7 about matrix exponentials provides us with simple condi-
tions to classify the continuous-time homogeneous LTI system

ẋ = Ax, x ∈ Rn (H-CLTI)

in terms of its Lyapunov stability, without explicitly computing the solution to the sys-
tem.
Theorem 8.1 (Eigenvalue conditions). The system (H-CLTI) is

1. marginally stable if and only if all the eigenvalues of A have negative or zero real
parts and all the Jordan blocks corresponding to eigenvalues with zero real parts
are 1 × 1,
2. asymptotically stable if and only if all the eigenvalues of A have strictly negative
real parts ,
Notation. A matrix is
called Hurwitz or a 3. exponentially stable if and only if all the eigenvalues of A have strictly negative
stability matrix if all real parts, or
its eigenvalues have
strictly negative real 4. unstable if and only if at least one eigenvalue of A has a positive real part or zero
parts.
real part, but the corresponding Jordan block is larger than 1 × 1. !

Attention! When all the eigenvalues of A have strictly negative real parts, all entries
of e At converge to zero exponentially fast, and therefore ∥e At ∥ converges to zero ex-
ponentially fast (for every matrix norm); i.e., there exist constants c, λ > 0 such that
Note. When all
Jordan blocks have
multiplicity equal to ∥e At ∥ ≤ c e−λt , ∀t ∈ R.
1, we can choose λ to
be the largest (least
negative) real part of In this case, for a submultiplicative norm, we have
the eigenvalues.
Otherwise, λ has to be ∥x(t)∥ = ∥et−t0 x0 ∥ ≤ ∥e A(t−t0 ) ∥ ∥x0 ∥ ≤ c e−λ(t−t0 ) ∥x 0 ∥, ∀t ∈ R.
strictly smaller than
that. See Exercise 8.3. This means that asymptotic stability and exponential stability are equivalent concepts
for LTI systems. !

Attention! These conditions do not generalize to time-varying systems, even if the


eigenvalues of A(t) do not depend on t. One can find matrix-valued signals A(t) that
Note. See Exercise 8.4. are stability matrices for every fixed t ≥ 0, but the time-varying system ẋ = A(t)x is
not even stable. !
INTERNAL OR LYAPUNOV STABILITY 67

8.4 POSITIVE-DEFINITE MATRICES (REVIEW)


Notation. When one A symmetric n × n matrix Q is positive-definite if
talks about
positive-definite, x ′ Qx > 0, ∀x ∈ Rn \ {0}. (8.3)
negative-definite or
semidefinite matrices, When > is replaced by <, we obtain the definition of a negative-definite matrix.
it is generally implicit
Positive-definite matrices are always nonsingular, and their inverses are also positive-
that the matrix is
symmetric. definite. Negative-definite matrices are also always nonsingular, and their inverses
are negative-definite.
When (8.3) holds only for ≤ or ≥, the matrix is said to be positive-semidefinite or
negative-semidefinite, respectively.
The following statements are equivalent for a symmetric n × n matrix Q.
1. Q is positive-definite.
MATLAB⃝ R
Hint 15. 2. All eigenvalues of Q are strictly positive .
eig(A) computes
the eigenvalues of the
matrix A. ! p. 77
3. The determinants of all upper left submatrices of Q are positive.
4. There exists an n × n nonsingular real matrix H such that
Note. Every n × n
symmetric matrix has Q = H ′ H.
real eigenvalues and n
orthogonal For a positive-definite matrix Q we have
(independent)
eigenvectors. 0 < λmin [Q]∥x∥2 ≤ x ′ Qx ≤ λmax [Q]∥x∥2 , ∀x ̸= 0, (8.4)
Note. In (8.4) we are
using the two-norm
where λmin [Q] and λmax [Q] denote the smallest and largest eigenvalues of Q, re-
for x. spectively. The properties of positive-definite matrices are covered extensively, e.g.,
in [10, 14].

8.5 LYAPUNOV STABILITY THEOREM


The Lyapunov stability theorem provides an alternative condition to check whether
or not the continuous-time homogeneous LTI system
ẋ = Ax, x ∈ Rn (H-CLTI)
Notation. A matrix is is asymptotically stable.
called Hurwitz or a
stability matrix if all Theorem 8.2 (Lyapunov stability). The following five conditions are equivalent:
its eigenvalues have
strictly negative real 1. The system (H-CLTI) is asymptotically stable.
parts.
2. The system (H-CLTI) is exponentially stable.
MATLAB⃝ R
Hint 26.
P=lyap(A,Q)
3. All the eigenvalues of A have strictly negative real parts.
solves the Lyapunov
equation AP + PA′ =
−Q. ! p. 77
4. For every symmetric positive-definite matrix Q, there exists a unique solution P
to the following Lyapunov equation
Note 6. We will later
add a sixth equivalent
A′ P + P A = −Q. (8.5)
condition that will
allow Q in (8.5) to be
only positive-
Moreover, P is symmetric and positive-definite.
semidefinite.
! p. 114
68 LECTURE 8

Note. The equation 5. There exists a symmetric positive-definite matrix P for which the following Lya-
(8.6) is called a linear punov matrix inequality holds:
matrix inequality
(LMI). The term
“linear” comes from A′ P + P A < 0. (8.6)
the linearity of the
left-hand side in P,
and < refers to the Proof of Theorem 8.2. The equivalence between conditions 1, 2, and 3 has already
fact that the left-hand been proved.
side must be negative-
definite. We prove that condition 2 ⇒ condition 4 by showing that the unique solution to
Note. To prove that (8.5) is given by
multiple statements
P1 , P2 , . . . , Pℓ are ) ∞

equivalent, one simply P := e A t Qe At dt. (8.7)
needs to prove a cycle 0
of implications:
P1 ⇒ P2 , To verify that this is so, four steps are needed.
P2 ⇒ P3 , . . . ,
Pℓ−1 ⇒ Pℓ , and 1. The (improper) integral in (8.7) is well defined (i.e., it is finite). This is a conse-
Pℓ ⇒ P1 . quence of the fact that the system (H-CLTI) is exponentially stable, and there-

fore ∥e A t Qe At ∥ converges to zero exponentially fast as t → ∞. Because of
this, the integral is absolutely convergent.
2. The matrix P in (8.7) solves the equation (8.5). To verify this, we compute
) ∞
′ ′

A P + PA = A′ e A t Qe At + e A t Qe At Adt.
0

But
d * A′ t + ′ ′
e Qe At = A′ e A t Qe At + e A t Qe At A,
dt

therefore
) ∞ , ′ -∞
d * A′ t +

A P + PA = e Qe At dt = e A t Qe At
0 dt 0
* A′ t At
+ A′ 0 A0
= lim e Qe − e Qe .
t→∞

Equation (8.5) follows from this and the facts that limt→∞ e At = 0 because of
asymptotic stability and that e A0 = I .
3. The matrix P in (8.7) is symmetric and positive-definite. Symmetry comes from
the fact that
Note.
* At +′Check that ) ∞ ) ∞ ) ∞
e

= eA t . * A′ t +
At ′
* At +′ ′ * A′ t ′ ′
(Cf. Exercise 8.5.)

P = e Qe dt = e Q e ) dt = e A t Qe At dt = P.
0 0 0

To check that P is positive-definite, we pick an arbitrary (constant) vector z ∈


Rn and compute
) ∞ ) ∞

z′ P z = z ′ e A t Qe At zdt = w(t)′ Qw(t)dt,
0 0
INTERNAL OR LYAPUNOV STABILITY 69

where w(t) := e At z, ∀t ≥ 0. Since Q is positive-definite, we conclude that


z ′ P z ≥ 0. Moreover,
) ∞

z Pz = 0 ⇒ w(t)′ Qw(t)dt = 0,
0

which can only happen if w(t) = e At z = 0, ∀t ≥ 0, from which one concludes


that z = 0, because e At is nonsingular. Therefore P is positive-definite.
4. No other matrix solves this equation. To prove this by contradiction, assume
Note 7. To prove a that there exists another solution P̄ to (8.5); i.e.,
statement P by
contradiction, one A′ P + P A = −Q, and A′ P̄ + P̄ A = −Q.
starts by assuming
that P is not true and
then one searches for
Then
some logical
inconsistency. A′ (P − P̄) + (P − P̄)A = 0.

Multiplying the above equation on the left and right by e A t and e At , respec-
tively, we conclude that
′ ′
e A t A′ (P − P̄)e At + e A t (P − P̄)Ae At = 0, ∀t ≥ 0.

On the other hand,


d * A′ t + ′ ′
e (P − P̄)e At = e A t A′ (P − P̄)e At + e A t (P − P̄)Ae At = 0,
dt

and therefore e A t (P − P̄)e At must remain constant for all times. But, because
of stability, this quantity must converge to zero as t → ∞, so it must be always
zero. Since e At is nonsingular, this is possible only if P = P̄.

The implication that condition 4 ⇒ condition 5 follows immediately, because if we


select Q = −I in condition 4, then the matrix P that solves (8.5) also satisfies (8.6).
To prove that condition 5 ⇒ condition 2, let P be a symmetric positive-definite ma-
trix for which (8.6) holds and let

Q := −(A′ P + P A) > 0.

Consider an arbitrary solution to equation (H-CLTI), and define the scalar signal

v(t) := x ′ (t)P x(t) ≥ 0, ∀t ≥ 0.

Taking derivatives, we obtain

v̇ = ẋ ′ P x + x ′ P ẋ = x ′ (A′ P + P A)x = −x ′ Qx ≤ 0, ∀t ≥ 0. (8.8)

Therefore v(t) is a nonincreasing signal, and we conclude that

v(t) = x ′ (t)P x(t) ≤ v(0) = x ′ (0)P x(0), ∀t ≥ 0.


70 LECTURE 8

Note. Here we are But since v = x ′ P x ≥ λmin [P]∥x∥2 , we conclude that


using the two-norm
for x. x ′ (t)P x(t) v(t) v(0)
∥x(t)∥2 ≤ = ≤ , ∀t ≥ 0, (8.9)
λmin [P] λmin [P] λmin [P]
which means that the system (H-CLTI) is stable. To verify that it is actually exponen-
tially stable, we go back to (8.8) and, using the facts that x ′ Qx ≥ λmin [Q]∥x∥2 and
that v = x ′ P x ≤ λmax [P]∥x∥2 , we conclude that
λmin [Q]
v̇ = −x ′ Qx ≤ −λmin [Q] ∥x∥2 ≤ − v, ∀t ≥ 0. (8.10)
λmax [P]
To proceed, we need the Comparison lemma.
Lemma 8.1 (Comparison). Let v(t) be a differentiable scalar signal for which

v̇(t) ≤ µ v(t), ∀t ≥ t0

for some constant µ ∈ R. Then

v(t) ≤ eµ(t−t0 ) v(t0 ), ∀t ≥ t0 . (8.11)


Applying the Comparison lemma (Lemma 8.1) to (8.10), we conclude that

λmin [Q]
v(t) ≤ e−λ(t−t0 ) v(t0 ), ∀t ≥ 0, λ := − ,
λmax [P]
which shows that v(t) converges to zero exponentially fast and so does ∥x(t)∥ [see
(8.9)].

Proof of Lemma 8.1. Define a new signal u(t) as follows:

u(t) := e−µ(t−t0 ) v(t), ∀t ≥ t0 .

Taking derivatives, we conclude that

u̇ = −µe−µ(t−t0 ) v(t) + e−µ(t−t0 ) v̇(t) ≤ −µe−µ(t−t0 ) v(t) + µe−µ(t−t0 ) v(t) = 0.

Therefore u is nonincreasing, and we conclude that

u(t) = e−µ(t−t0 ) v(t) ≤ u(t0 ) = v(t0 ), ∀t ≥ t0 ,

which is precisely equivalent to (8.11).

8.6 DISCRETE-TIME CASE


Consider now the following discrete-time LTV system

x(t + 1) = A(t)x(t) + B(t)u(t), y(t) = C(t)x(t) + D(t)u(t). (DLTV)


INTERNAL OR LYAPUNOV STABILITY 71

Definition 8.2 (Lyapunov stability). The system (DLTV) is said to be


1. (marginally) stable in the Lyapunov sense or internally stable if, for every initial
condition x(t0 ) = x0 ∈ Rn , the homogeneous state response
x(t) = #(t, t0 )x 0 , ∀t0 ≥ 0
is uniformly bounded,
2. asymptotically stable (in the Lyapunov sense) if, in addition, for every initial
condition x(t0 ) = x0 ∈ Rn , we have x(t) → 0 as t → ∞,
3. exponentially stable if, in addition, there exist constants c > 0, λ < 1 such that,
for every initial condition x(t0 ) = x0 ∈ Rn ,
∥x(t)∥ ≤ cλt−t0 ∥x(t0 )∥, ∀t ≥ t0 , or

4. unstable if it is not marginally stable in the Lyapunov sense. !


The matrices B(·), C(·), and D(·) play no role in this definition; therefore, one
often simply talks about the Lyapunov stability of the homogeneous system
x(t + 1) = A(t)x, x ∈ Rn . (H-DLTV)

Theorem 8.3 (Eigenvalue conditions). The discrete-time homogeneous LTI system


x + = Ax, x ∈ Rn (H-DLTI)
is
1. marginally stable if and only if all the eigenvalues of A have magnitude smaller
than or equal to 1 and all the Jordan blocks corresponding to eigenvalues with
magnitude equal to 1 are 1 × 1,
2. asymptotically and exponentially stable if and only if all the eigenvalues of A
Notation. A matrix is have magnitude strictly smaller than 1, or
called Schur stable if
all its eigenvalues have 3. unstable if and only if at least 1 eigenvalue of A has magnitude larger than 1 or
magnitude strictly magnitude equal to 1, but the corresponding Jordan block is larger than 1 × 1. !
smaller than 1.
Theorem 8.4 (Lyapunov stability in discrete time). The following five conditions are
equivalent:
1. The system (H-DLTI) is asymptotically stable.
2. The system (H-DLTI) is exponentially stable.
3. All the eigenvalues of A have magnitude strictly smaller than 1.
4. For every symmetric positive-definite matrix Q, there exists a unique solution
P to the following Stein equation (more commonly known as the discrete-time
MATLAB⃝ R
Hint 27. Lyapunov equation)
P=dlyap(A,Q)
solves the Stein A′ P A − P = −Q. (8.12)
equation APA′ − P =
−Q. ! p. 77 Moreover, P is symmetric and positive-definite.
72 LECTURE 8

5. There exists a symmetric positive-definite matrix P for which the following Lya-
punov matrix inequality holds:

A′ P A − P < 0. !

Attention! In discrete time, in the proof of the Lyapunov stability theorem (Theo-
rem 8.4) one studies the evolution of the signal

v(t) = x ′ (t)P x(t), ∀t ≥ t0 .

In this case, along solutions to the system (H-DLTI), we have

v(t + 1) = x ′ (t + 1)P x(t + 1) = x(t)A′ P Ax(t),

and the discrete-time Lyapunov equation (8.12) guarantees that

v(t + 1) = x(t)(P − Q)x(t) = v(t) − x(t)Qx(t), ∀t ≥ 0.

From this we conclude that v(t) is nonincreasing and, with a little more effort, that
it actually decreases to zero exponentially fast. !
Table 8.1 summarizes the results in this section and contrasts them with the
continuous-time conditions for Lyapunov stability.

8.7 STABILITY OF LOCALLY LINEARIZED SYSTEMS


Consider a continuous-time homogeneous nonlinear system

ẋ = f (x), x ∈ Rn , (8.13)

with an equilibrium point at x eq ∈ Rn ; i.e., f (x eq ) = 0. We saw in Lecture 2 that the


local linearization of (8.13) around x eq is given by
˙ = A δx,
δx (8.14)

with δx := x − x eq and
∂ f (x eq )
Notation. When this A := .
happens, we say that ∂x
x eq is a locally
exponentially stable It turns out that the original nonlinear system (8.13) inherits some of the desirable
equilibrium point of stability properties of the linearized system.
the nonlinear system
(8.13). The qualifier Theorem 8.5 (Stability of linearization). Assume that the function f in (8.13) is twice
“locally” refers to the differentiable. If the linearized system (8.14) is exponentially stable, then there exists a
fact that the ball B ⊂ Rn around x eq and constants c, λ > 0 such that for every solution x(t) to the
exponentially
nonlinear system (8.13) that starts at x(t0 ) ∈ B, we have
decaying
bound (8.15) needs to
hold only for initial ∥x(t) − x eq ∥ ≤ ceλ(t−t0 ) ∥x(t0 ) − x eq ∥, ∀t ≥ t0 . (8.15)
conditions in a ball B
around x eq [8]. !
74 LECTURE 8

Proof of Theorem 8.5. Since f is twice differentiable, we know from Taylor’s theorem
that
. /
r (x) := f (x) − f (x eq ) + A δx = f (x) − A δx = O(∥δx∥2 ),

which means that there exist a constant c and a ball B̄ around x eq for which
∥r (x)∥ ≤ c∥δx∥2 , ∀x ∈ B̄. (8.16)
Since the linearized system is exponentially stable, there exists a positive-definite ma-
trix P for which
A′ P + P A = −I.
Inspired by the proof of the Lyapunov stability theorem (Theorem 8.2), we define the
scalar signal
v(t) := δx ′ P δx, ∀t ≥ 0
and compute its derivative along trajectories to the nonlinear system in equation
(8.13):
Note. In (8.17) we
used the v̇ = f (x)′ P δx + δx ′ P f (x)
submultiplicative
property of the = (A δx + r (x))′ P δx + δx ′ P(A δx + r (x))
two-norm. = δx ′ (A′ P + P A)δx + 2 δx ′ P r (x)
= −∥δx∥2 + 2 δx ′ P r (x)
≤ −∥δx∥2 + 2 ∥P∥ ∥δx∥ ∥r (x)∥. (8.17)
To make the proof work, we would like to make sure that the right-hand side is neg-
ative; e.g.,
1
−∥δx∥2 + 2 ∥P∥ ∥δx∥ ∥r (x)∥ ≤ − ∥δx∥2 .
2
To achieve this, let ϵ be a positive constant sufficiently small so that the ellipsoid
Notation. The set E
was constructed so E := {x ∈ Rn : (x − x eq )′ P(x − x eq ) ≤ ϵ}
that x(t) ∈ E ⇔
v(t) ≤ ϵ. centered at x eq satisfies the following two properties.
1. The ellipsoid E is fully contained inside the ball B̄ arising from Taylor’s theo-
rem (cf. Figure 8.1). When x is inside this ellipsoid, equation (8.16) holds, and
therefore
* +
x(t) ∈ E ⇒ v̇ ≤ −∥δx∥2 + 2 c ∥P∥ ∥δx∥3 = − 1 − 2 c ∥P∥ ∥δx∥ ∥δx∥2 .

2. We further shrink ϵ so that inside the ellipsoid E we have


1 1
1 − 2 c ∥P∥ ∥δx∥ ≥ ⇔ ∥δx∥ ≤ .
2 4 c ∥P∥
For this choice of ϵ, we actually have
1
x(t) ∈ E ⇒ v̇ ≤ − ∥δx∥2 . (8.18)
2
INTERNAL OR LYAPUNOV STABILITY 75

Figure 8.1. Construction of ball B for the proof of Theorem 8.5.

We therefore conclude that


Notation. A set such
as E, with the
0
property that if the v(t) ≤ ϵ
x(t) ∈ E ⇒ ⇒ v cannot increase above ϵ ⇒ x cannot exit E.
state starts inside the v̇(t) ≤ 0
set it remains there
forever, is called
forward invariant.
Therefore if x(0) starts inside E, it cannot exit this set. Moreover, from (8.18) and
the fact that δx ′ P δx ≤ ∥P∥∥δx∥2 , we further conclude that if x(0) starts inside E,
v
v̇ ≤ −
2∥P∥
and therefore, by the Comparison lemma (Lemma 8.1), v and consequently δx :=
x − x eq decrease to zero exponentially fast. The ball B around x eq in the statement
of the theorem can be any ball inside E.
When the linearized system is unstable, the nonlinear system also has undesirable
properties (proof in [1, Chapter 6]):
Theorem 8.6 (Instability of linearization). Assume that the function f in (8.13) is
twice differentiable. If the linearized system (8.14) is unstable, then there are solutions
that start arbitrarily close to x eq , but do not converge to this point as t → ∞. !

Attention! When the linearized system is only marginally stable, not much can be
said about the nonlinear system merely from analyzing the linearized system. For
example, the two systems

ẋ = −x 3 and ẋ = +x 3 (8.19)

have the same local linearization,


˙ = 0,
δx

around x eq = 0, which is only marginally stable. Yet for the left-hand side system
in (8.19), x always converges to zero, while for the right-hand side system, x always
diverges away from the equilibrium point. !
76 LECTURE 8

Example 8.1 (Inverted pendulum). Consider the inverted pendulum in Figure 8.2
and assume that u = T and y = θ are its input and output, respectively.
The local linearization of this system around the equilibrium point for which θ =
π is given by
Note. This
equilibrium point is ˙ = A δx + Bu,
δx δy = C δx,
x eq = π, u eq = 0,
y eq = π, and
therefore δx := where
x − x eq = x − π , 1 2 3 4
δu := u − u eq = u, 0 1 0 ' (
δy := y−y eq = y−π. A := , B := , C := 1 0 .
− gℓ − mℓb 2 1

The eigenvalues of A are given by


. 5.
b / g b b / g
det(λI − A) = λ λ + + =0 ⇔ λ=− ± − ,
mℓ2 ℓ 2mℓ2 2mℓ2 ℓ
and therefore the linearized system is exponentially stable, because
5.
b b / g
− ± −
2mℓ2 2mℓ2 ℓ
Note. We now know has a negative real part. This is consistent with the obvious fact that in the absence of
that this convergence u the (nonlinear) pendulum converges to this equilibrium.
is actually
exponential. The local linearization of this system around the equilibrium point for which θ =
0 is given by
Note. This
equilibrium point is ˙ = A δx + Bu,
δx δy = C δx,
x eq = 0, u eq = 0,
y eq = 0, and
therefore where
δx := x − x eq = x, 1 2 3 4
δu := u − u eq = u, 0 1 0 ' (
δy := y − y eq = y. A := g , B := , C := 1 0 .
ℓ − mℓb 2 1

From Newton’s law,

mℓ2 θ̈ = mgℓ sin θ − bθ̇ + T,

where T denotes a torque applied at the


base and g is the gravitational accelera-
tion.

Figure 8.2. Inverted pendulum.


INTERNAL OR LYAPUNOV STABILITY 77

The eigenvalues of A are given by


. 5.
b / g b b / g
det(λI − A) = λ λ + − =0 ⇔ λ=− ± + ,
mℓ2 ℓ 2mℓ2 2mℓ2 ℓ
and therefore the linearized system is unstable, because
5.
b b / g
− + + > 0.
2mℓ2 2mℓ2 ℓ
This is consistent with the obvious fact that in the absence of u the (nonlinear) pen-
dulum does not naturally move up to the upright position if it starts away from it.
However, one can certainly make it move up by applying some torque u.

DISCRETE-TIME CASE
Consider a discrete-time homogeneous nonlinear system
x + = f (x), x ∈ Rn ,
with an equilibrium point at x eq ∈ Rn ; i.e., f (x eq ) = x eq . The local linearization of
(8.13) around x eq is given by
δx + = A δx, (8.20)
with δx := x − x eq and
∂ f (x eq )
A := .
∂x
Theorem 8.7. Assume that the function f in (8.13) is twice differentiable.
1. If the linearized system (8.20) is exponentially stable, then there exists a ball B
around x eq such that every solution x(t) to the nonlinear system (8.13) that starts
at x(0) ∈ B converges to x eq exponentially fast as t → ∞.
2. If the linearized system (8.20) is unstable, then there are solutions that start arbi-
trarily close to x eq , but do not converge to this point as t → ∞. !

8.8 STABILITY TESTS WITH MATLAB⃝


R

MATLAB⃝ R
Hint 15 (eig). The function eig(A) computes the eigenvalues of the
matrix A. Alternatively, eig(sys) computes the eigenvalues of the A matrix for a
state-space system sys specified by sys=ss(A,B,C,D), where A,B,C,D are a
realization of the system. !
Attention! To solve
MATLAB⃝ R
Hint 26 (lyap). The command P=lyap(A,Q) solves the Lyapunov
A′ P + PA = −Q,
equation
one needs to use
P=lyap(A’,Q). AP + PA′ = −Q. !
Attention! To solve
MATLAB⃝ R
Hint 27 (dlyap). The command P=dlyap(A,Q) solves the Lya-
A′ PA − P = −Q,
punov equation
one needs to use
P=dlyap(A’,Q). APA′ − P = −Q. !
78 LECTURE 8

8.9 EXERCISES
8.1 (Submultiplicative matrix norms). Not all matrix norms are submultiplicative.
Verify that this property does not hold for the norm

∥A∥* := max max |ai j |,


1≤i≤m 1≤ j≤n

which explains why this norm is not commonly used.


' (
Hint: Consider the matrices A = B = 10 11 . !
8.2. For a given matrix A, construct vectors for which (8.2) holds for each of the
three norms ∥ · ∥1 , ∥ · ∥2 , and ∥ · ∥∞ . !
8.3 (Exponential of a stability matrix). Prove that when all the eigenvalues of A have
strictly negative real parts, there exist constants c, λ > 0 such that

∥e At ∥ ≤ c e−λt , ∀t ∈ R.

Hint: Use the Jordan normal form. !

8.4 (Stability of LTV systems). Consider a linear system with a state-transition


#(t, τ ) matrix for which
3 t 4
e cos 2t e−2t sin 2t
#(t, 0) = .
−et sin 2t e−2t cos 2t

(a) Compute the state transition matrix #(t, t0 ).


(b) Compute a matrix A(t) that corresponds to the given state transition matrix.
(c) Compute the eigenvalues of A(t).
(d) Classify this system in terms of Lyapunov stability.
Hint: In answering part (d), do not be misled by your answer to part (c).

8.5 (Exponential matrix transpose). Verify that (e At )′ = e A t .
Hint: Use the definition of matrix exponential. !
8.6 (Stability margin). Consider the continuous-time LTI system

ẋ = Ax, x ∈ Rn

and suppose that there exists a positive constant µ and positive-definite matrices
P, Q ∈ Rn for the Lyapunov equation

A′ P + P A + 2µP = −Q. (8.21)

Show that all eigenvalues of A have real parts less than −µ. A matrix A with this
property is said to be asymptotically stable with stability margin µ.
Hint: Start by showing that all eigenvalues of A have real parts less than −µ if and only
if all eigenvalues of A + µI have real parts less than 0 (i.e., A + µI is a stability matrix).
!
INTERNAL OR LYAPUNOV STABILITY 79

8.7 (Stability of nonlinear systems). Investigate whether or not the solutions to the
following nonlinear systems converge to the given equilibrium point when they start
close enough to it.

(a) The state-space system

ẋ 1 = −x1 + x 1 (x12 + x 22 )
ẋ 2 = −x2 + x 2 (x12 + x 22 ),

with equilibrium point x1 = x2 = 0.


(b) The second-order system

ẅ + g(w)ẇ + w = 0,

with equilibrium point w = ẇ = 0. Determine for which values of g(0) we can


guarantee convergence to the origin based on the local linearization.

This equation is called the Lienard equation and can be used to model several
mechanical systems, depending on the choice of the function g(·). !
1

Cap. 8

Risposta in frequenza e legami globali

8.1 Risposta in frequenza

La risposta in frequenza, detta anche risposta armonica, verrà definita per sistemi
unidimensionali (modelli SISO), ma è facilmente generalizzabile per modelli
multidimensionali (modelli MIMO).
La risposta armonica viene definita come la trasformata di Fourier della risposta impulsiva ed
è quindi data da:

+ +
W ( j ) =  w(t ) e− jt dt =  w(t ) e− jt dt , (8.1.1)
− 0

essendo la risposta impulsiva nulla per tempi negativi.


È ovvio che l’esistenza della risposta armonica è subordinata all’esistenza della trasformata
di Fourier della risposta impulsiva, che è assicurata quando tale risposta è sommabile
nell’intervallo [0, +), cioè quando k  0 tale che:

+
0 w(t ) dt  k . (8.1.2)

Com’è noto, la (8.1.2) è condizione necessaria e sufficiente per la stabilità esterna del sistema
nello stato zero.
La risposta armonica è una funzione complessa di variabile reale . Infatti, la (8.1.1) si può
scrivere come segue:

+
W ( j ) =  w(t ) cos(t ) − j sin(t )  dt = R( ) + jI ( ) ,
0
dove:
+ +
R( ) =  w(t ) cos(t )dt , I ( ) = −  w(t )sin(t )dt ,
0 0

vengono denominate caratteristiche frequenziali. Poiché w(t ) è reale, si ha:

R(− ) = R( ), I (− ) = − I ( ) .

Ne consegue che R() è una funzione pari di , mentre I() è una funzione dispari di . La
risposta armonica, essendo una funzione complessa di variabile reale , può anche essere
scritta nella seguente forma polare:

W ( j) = M ()e j ( ) ,

dove:

I ( )
M ( ) = R 2 ( ) + I 2 ( ),  ( ) = tg −1 .
R( )
2

Dalle espressioni precedenti, si ottiene facilmente che il modulo e la fase della risposta
armonica sono, rispettivamente, funzioni pari e dispari di .
La risposta armonica caratterizza in modo completo il comportamento in regime
permanente di sistemi asintoticamente stabili internamente, sollecitati da ingressi sinusoidali.
Prima di dimostrare quanto detto, è necessario definire la risposta in regime permanente.

Definizione 8.1.1 Si chiama stato di riferimento quel particolare stato   X , definito da:

 = lim  (t , t0 , x0 , 0[t0 ,t ) ) , (8.1.3)


t →

ammesso che tale limite esista e sia indipendente da x0 .

Si noti che se lo stato di riferimento esiste, esso è unico per il teorema di unicità del limite.

Definizione 8.1.2 Dicesi risposta in regime permanente corrispondente all’ingresso u() la


funzione y p (t ) data da:

y p (t ) = lim  (t , t0 ,  , u[t0 ,t ] ) . (8.1.4)


t0 →−

L’esistenza della risposta in regime permanente è dunque condizionata dall’esistenza dello


stato di riferimento e del limite (8.1.4).
Nel caso di modelli lineari e stazionari, nell’ipotesi che esistano r autovalori distinti della
matrice dinamica, ciascuno di molteplicità geometrica mi , l’espressione della risposta libera
nello stato corrispondente al generico stato iniziale x (t0 ) x0 , com’è noto, è data da:

r mi −1 (t − t 0 ) k i (t −t 0 )
x l (t ) =   Rik x 0 e , t  t 0 . (8.1.5)
i =1 k = 0 k!

Pertanto, se gli autovalori di A hanno tutti a parte reale negativa, si ha:

 = lim xl (t ) = 0, x0 . (8.1.6)


t →

Quindi, per un modello lineare e stazionario asintoticamente internamente stabile lo stato di


riferimento esiste e coincide con lo stato 0.
Si ammetta, adesso, di sollecitare un modello lineare e stazionario, con ingresso e uscita
unidimensionali, con un ingresso propriamente sinusoidale, dato da:

u(t ) = e jωt , (8.1.7)

un segnale utile per scopi di analisi, ma non fisicamente realizzabile in laboratorio in quanto
complesso. La corrispondente risposta in regime permanente risulta:

y p (t ) = lim  (t , t0 , 0, u[t0 ,t ] ) = lim tt w(t −  )e j d = lim 0t −t0 w( )e j (t − ) d  =
t0 →− t0 →− 0 t0 →−
3

=e jt lim 0t −t0 w( )e− j d  . (8.1.8)


t0 →−

Poiché la stabilità interna asintotica implica quella esterna nello stato zero, la risposta
impulsiva risulta sommabile e, quindi, il limite nella (8.1.8) converge alla trasformata di
Fourier della risposta impulsiva stessa, e quindi alla risposta armonica. Pertanto, si ha:

y p (t ) = e jtW ( j ) . (8.1.9)

Esprimendo la W ( j ) in coordinate polari, si ottiene:

y p (t ) = M ( )e j (t + ( )) . (8.1.10)

La (8.1.10) mette in luce che la risposta in regime permanente di un sistema lineare e


stazionario, asintoticamente stabile internamente, corrispondente a un ingresso propriamente
sinusoidale è anch’essa propriamente sinusoidale della stessa pulsazione  dell’ingresso,
avente ampiezza pari a M() volte quella dell’ingresso e sfasata rispetto ad esso di (). Ciò
è dovuto alla linearità del modello. Per modelli non lineari, infatti, la risposta a un ingresso
sinusoidale è ricca di armoniche.
Si noti, inoltre, che la (8.1.10) vale anche a frequenza zero, cioè per segnali costanti della
forma u (t ) = 1 per i quali si ha:

y p (t ) = W ( j0) = M (0) = R(0) . (8.1.11)

Si ammetta, adesso, di sollecitare il sistema con un ingresso sinusoidale dato da:

e j0t − e− j0t
u (t ) = a0 sin(0t ) = a0 . (8.1.12)
2j

Applicando il principio di sovrapposizione degli effetti, la risposta in regime permanente


risulta:

a0  a
y p (t ) = W ( j0 )e j0t − W (− j0 )e− j0t  = 0 M (0 ) e j (0t + (0 )) − e− j (0t + (0 ))  =
2j   2j  
= a0 M (0 )sin(0t +  (0 )) . (8.1.13)

La (8.1.13) mostra che la conoscenza del modulo e della fase della risposta armonica
permette di determinare immediatamente la risposta in regime permanente a un ingresso
sinusoidale.

8.2 Determinazione sperimentale della risposta in frequenza

L’importanza della risposta armonica è dovuta anche al fatto che essa può essere
determinata sperimentalmente con un buon grado di precisione, grazie al seguente teorema.

Teorema 8.2.1 Per un sistema lineare e stazionario asintoticamente stabile internamente, con
ingresso e uscita unidimensionali, fissato arbitrariamente una quantità  > 0 esiste un istante
t ( ) tale che il valore assoluto della differenza tra la risposta forzata corrispondente
4

all’ingresso u (t ) = e j0t −1 (t ) e la risposta in regime permanente corrispondente all’ingresso


u (t ) = e j0t è minore di  per tutti i t  t ( ) . In simboli, si ha:

 > 0  t ( ) :  (t , 0, 0 , u[0, t ] ) − W ( j0 )e j0t   , t  t ( ) .

Prova. Si consideri un sistema LTI asintoticamente stabile internamente, e siano la f.d.t.


W ( s ) e l’ingresso u (t ) dati da:

n( s )
W ( s) r
, u(t ) u0e j0t .
( s pi )mi
i 1

La trasformata di Laplace della risposta forzata nell’uscita risulta:

n( s ) u0
Y f ( s) W ( s)U ( s) ,
r
s j0t
( s pi )mi
i 1

e lo sviluppo in frazioni parziali corrispondente, è dato da:

r mi 1 Rik R0
Y f ( s) ,
i 1 k 1 ( s pi ) k 1
s j0t

con:

1 d ( mi 1 k )
Rik lim ( m 1 k ) ( s pi )Y f ( s) ,
(mi 1 k )! s pi ds i
n( j0 )
R0 lim s j0 Y f ( s) u0 r W ( j0 )u0 .
s j0
( j0 pi ) mi

i 1

La risposta nel dominio del tempo è data da:

r mi 1 t k pit
y f (t ) L 1 Y f (s) Rik e R0e j0t ytr (t ) y p (t ) ,
i 1 k 1 k!

dove:

r mi 1 t k pit
ytr (t ) Rik e , y p (t ) W ( j0 )u0e j0t .
i 1 k 1 k!

Poiché il sistema è asintoticamente stabile internamente, i poli pi hanno tutti parte reale
negativa e, quindi, la riposta transitoria ytr (t ) converge a zero asintoticamente. In pratica,
5

fissato un  0 esiste un istante di tempo t ( ) tale che ytr (t )  t t ( ) e, di


conseguenza, y f (t ) y p (t ) per t t ( ) .

Al fine di rilevare sperimentalmente la risposta in frequenza, il Teorema 8.2.1 suggerisce il


seguente procedimento:

• si sollecita il sistema con un ingresso sinusoidale (8.1.12) e si rilevano


sperimentalmente l’ingresso e la risposta nell’uscita a transitorio esaurito (uscita
perfettamente sinusoidale);
• si misurano l’ampiezza dell’uscita sinusoidale, y0 , e lo sfasamento fra ingresso e
uscita,  0 ;
• poiché per la (8.1.13) y0 = a0 M (0 ) e  (0 ) =  0 , si ottengono facilmente sia
M (0 ) che  (0 ) ;
• si ripetono i tre passi precedenti per un numero sufficiente di valori di  .

8.3 Interpretazione della risposta in frequenza

La risposta in frequenza permette di individuare le prestazioni di un sistema lineare e


stazionario in presenza sia di ingressi sinusoidali sia di ingressi generici trasformabili secondo
Fourier.

8.3.1 Ingressi sinusoidali

Si consideri un sistema caratterizzato da un f.d.t. a guadagno unitario e con due poli


complessi e coniugati, data da:

 nk
2
W (s) = , (8.3.1)
s 2 + 2 k  nk s +  nk
2

cui corrisponde la seguente risposta in frequenza:

−1
 2 2 
W ( j ) = 1 + k j − 2  ,
  nk  nk 

i cui diagrammi di Bode, per assegnati valori di  k e nk sono illustrati nella Fig. 4.2.11 che
si riporta di seguito per comodità del lettore.
6

Bode Diagram
20

Magnitude (dB)
-20

-40

-60

-80
0

-45
Phase (deg)

-90

-135

-180
0 1 2 3
10 10 10 10
Frequency (rad/sec)
Fig. 4.2.11 Diagrammi di bode del fattore trinomio a denominatore;
 k = 0.2 e nk = 10 rad/s .

Come già rilevato in precedenza, per  k  0.707 il modulo presenta un picco e si manifesta il
fenomeno della risonanza. La frequenza e l’ampiezza corrispondenti al valore di picco della
risposta in frequenza, vengono denominati frequenza di risonanza e ampiezza di risonanza e
sono dati da (cfr. (4.2.24) e (4.2.25)):

rk = nk 1 − 2 k2 ,
M rk = −20log10 2 |  k | 1 −  2 .
k

Ingressi sinusoidali singoli

Dall’esame della Fig. 4.2.11 si rileva che:

1. i segnali sinusoidali singoli a frequenza    nk (segnali di bassa frequenza con


basso numero di oscillazioni per secondo; segnali con derivata massima, che si ha
quando il segnale passa per lo zero crescente, relativamente piccola, ossia segnali che
variano lentamente nel tempo) vengono trasmessi in uscita con la stessa ampiezza
dell’ingresso e con un piccolo sfasamento rispetto all’ingresso;
2. al crescere della frequenza e fino a  =  nk i segnali sinusoidali singoli vengono
trasmessi in uscita con un’ampiezza sempre crescente e con uno sfasamento sempre
maggiore; l’ampiezza massima della grandezza di uscita si ha in corrispondenza alla
frequenza  =  rk , denominata frequenza di risonanza, e vale 10M r 20 volte
l’ampiezza dell’ingresso, dove M r è l’ampiezza di risonanza;
3. per    nk , al crescere della frequenza, l’ampiezza della grandezza di uscita
diminuisce sempre più fino a diventare trascurabile (ad esempio, a frequenza 100
rad/s, pari a 10 nk , l’ampiezza della grandezza di uscita è pari a 10−2 volte
l’ampiezza della grandezza di ingresso);
4. le considerazioni di cui al punto 3. mostrano che la dinamica del sistema in esame è
tale da non consentire al sistema stesso di riprodurre segnali a frequenza superiore a
10nk (se si accetta trascurabile una grandezza la cui ampiezza è inferiore o uguale
7

all’1% della grandezza di ingresso); per poter riprodurre segnali a frequenze


dell’ordine di 10nk occorre riprogettare il sistema in modo adeguato, ad esempio con
una frequenza naturale non smorzata ˆ nk = 100nk .

Ingressi sinusoidali composti da due sinusoidi

Si consideri, adesso, il comportamento del sistema (8.3.1) sollecitato da due sinusoidi, in


accordo alla espressione:

u (t ) = sin(1t ) + sin(2t ) , (8.3.2)

con 1 = 1 rad/s , mentre 2 è pari a 2 rad/s, nel primo esperimento, e 8 rad/s nel secondo
esperimento. I risultati ottenuti nei due esperimenti sono illustrati nelle Figg. 8.3.1-8.3.4.
L’esame di tali figure mostra anzitutto che, dopo un transitorio di breve durata, la risposta del
sistema tende alla risposta in regime permanente che si ripete periodicamente.
2

1.5 u
y
1

0.5
u, y

-0.5

-1

-1.5

-2
0 2 4 6 8 10 12 14 16 18 20
t [s]

Fig. 8.3.1 Forme d’onda di ingresso e di uscita per 2 = 2 rad/s .


0.5

0.4

0.3

0.2
u-y

0.1

-0.1

-0.2
0 2 4 6 8 10 12 14 16 18 20
t [s]

Fig. 8.3.2 Scostamento ingresso-uscita per 2 = 2 rad/s .


8

3 u
y
2

u, y
0

-1

-2

-3

-4
0 2 4 6 8 10 12 14 16 18 20
t [s]

Fig. 8.3.3 Forme d’onda di ingresso e di uscita per 2 = 8 rad/s .

1.5

0.5
u-y

-0.5

-1

-1.5

-2
0 2 4 6 8 10 12 14 16 18 20
t [s]

Fig. 8.3.4 Scostamento ingresso-uscita per 2 = 8 rad/s .

Inoltre, al crescere di 2 cresce lo scostamento fra il segnale applicato in ingresso e quello


riprodotto in uscita. Ciò non è sorprendente poiché è possibile dimostrare che affinché un
sistema possa riprodurre in uscita un segnale di ingresso composto da un certo numero di
sinusoidi, occorre che il modulo della risposta in frequenza del sistema sia costante a tutte le
frequenze dell’ingresso e la sua fase vari linearmente con la frequenza nel campo di frequenze
contenuto dall’ingresso.
Infatti, com’è noto, la risposta in regime permanente di un sistema lineare e stazionario,
con f.d.t. W ( s ) , sollecitato dall’ingresso (8.3.2), per il principio di sovrapposizione degli
effetti, è data da:

y p (t ) = M (1)sin(1t +  (1)) + M (2 )sin(2t +  (2 )) . (8.3.3)

Assumendo M ( ) = M e  ( ) = − a , a  0 ,   0,   ,   2 , la (8.3.3) diviene:

y p (t ) = M sin (1 (t − a) ) + sin (2 (t − a) ) = Mu(t − a) , (8.3.4)

che coincide con l’ingresso amplificato M volte e ritardato di a secondi lungo l’asse dei tempi.
Ovviamente, nell’intervallo   [1, 2] le precedenti ipotesi sul modulo e sulla fase sono
9

soddisfatte con buona approssimazione, mentre nell’intervallo   [1,8] le ipotesi in questione


non sono soddisfatte né per il modulo né per la fase.
Gli scostamenti del modulo della risposta in frequenza dal valore costante producono la
distorsione di ampiezza, mentre gli scostamenti della fase dalla linearità determinano la
distorsione di fase.

Ingressi qualunque trasformabili secondo Fourier

Si consideri, adesso, un ingresso u (t ) definito nell’intervallo (−, + ) , tale che


u (t ) = 0, t  0 , trasformabile secondo Fourier con trasformata U ( j ) , dato da:

1 +
− U ( j )e
jt
u (t ) = d . (8.3.5)
2

La risposta forzata di un sistema asintoticamente stabile internamente, corrispondente


all’ingresso (8.3.5), a transitorio esaurito, è data da:

1 +
− Y f ( j )e
jt
y f (t ) = d , (8.3.6)
2
dove:

Y f ( j) = W ( j)U ( j) . (8.3.7)

Infatti, si ha:

1
U ( j )e jt d  d
t t
y f (t ) w(t  )u ( )d w(t  )
0 0 2
1 1
w(t  )e jt d d  w( )e j (t )
t t
U ( j ) U ( j ) d d .
2 0 2 0

Poiché il sistema è asintoticamente stabile, la risposta impulsiva risulta sommabile e converge


a zero, teoricamente in un tempo infinitamente grande, ma praticamente in un tempo finito,
t f , in corrispondenza al quale si esauriscono i transitori dovuti all’applicazione dell’ingresso.
Si può quindi affermare che “a transitorio esaurito”, cioè per t t f , il contributo
dell’integrale della risposta impulsiva si mantiene inalterato e, quindi, il limite superiore
dell’integrale si può estendere all’infinito. La precedente espressione, a transitorio esaurito,
diviene:

1 1
y f (t ) U ( j ) w( )e j (t )
d d U ( j ) w( )e j
d  e jt d 
2 0 2 0

1
U ( j )W ( j )e jt d  , t tf ,
2

dalla quale si ottiene la (8.3.7).

Sia  una quantità piccola, scelta a piacere, e si ammetta che U ( j )   ,   u ; ciò


significa ammettere che il contenuto armonico dell’ingresso risulta trascurabile per   u ,
10

ovvero che il contenuto armonico dell’ingresso si estende fino alla frequenza u . Si ammetta,
inoltre, che W ( j) = Me− ja , a  0   0, u  . Allora, la risposta forzata corrispondente
all’ingresso u (t ) , a transitorio esaurito, è data da:

1 + 1 +u
y f (t ) =
2 − Y f ( j )e jt d  M
2 − u
U ( j )e j (t −a ) d =  u (t − a) . (8.3.8)

La (8.3.8) mostra che anche in tale caso, assumendo che il sistema sia asintoticamente
internamente stabile, esso è in grado di riprodurre, approssimativamente, il segnale di
ingresso, a transitorio esaurito. L’approssimazione consiste nel fatto che il modulo della
U ( j ) si suppone nullo per   u .

8.4 Sistemi MIMO

Per sistemi MIMO stabili esternamente nello stato zero, si definisce la matrice delle risposte
armoniche come trasformata di Fourier della matrice delle risposte impulsive, data da:

+
W ( j ) = 0 W (t )e− jt dt . (8.4.1)

Assumendo che il sistema sia asintoticamente stabile internamente, la risposta in regime


permanente all’ingresso u() : u(t ) =  e jt risulta:

y p (t ) = W ( j ) e jt . (8.4.2)

Assumendo che esista la risposta in regime permanente all’ingresso u() , la risposta forzata
all’ingresso u() : u(t ) = u(t ) −1 (t ) è data da:

y f (t ) = y p (t ) + ytr (t ) , (8.4.3)

dove:

lim ytr (t ) = 0 .
t →
11

8.5 Legami globali

I legami globali sono legami fra grandezze caratteristiche di una risposta canonica in un
dominio e caratteristiche di una risposta canonica in un altro dominio. Le risposte canoniche
di interesse sono la risposta al gradino unitario, la risposta in frequenza e la funzione di
trasferimento. Verranno dapprima studiati i legami − t fra le grandezze caratteristiche della
risposta al gradino unitario e quelle della risposta in frequenza, e successivamente i legami
s − t fra le grandezze caratteristiche della risposta al gradino unitario e quelle della funzione
di trasferimento.

8.5.1 Legami globali − t

Prima di stabilire i legami globali − t occorre individuare le grandezze caratteristiche


della risposta al gradino unitario e di quella in frequenza, ossia grandezze significative
dell’andamento globale di tali risposte, nel senso che note le grandezze caratteristiche è
possibile tracciare un andamento temporale qualitativo di esse.

Grandezze caratteristiche della risposta al gradino unitario

Per sistemi dinamici almeno del secondo ordine, asintoticamente stabili internamente, due
tipici andamenti della risposta al gradino unitario sono quelli riportati nella Figg. 8.5.1 e 8.5.2.
Le grandezze caratteristiche della risposta al gradino unitario di Fig. 8.5.1 sono:

• il valore finale K;
• il tempo di salita o di risposta tr , dato dall’intervallo di tempo che intercorre fra
l’istante in cui la risposta al gradino unitario eguaglia il valore 0.1K e l’istante in cui
la risposta al gradino unitario eguaglia il valore 0.9K ;
• il tempo di formazione t f , dato da k-volte la cotangente dell’angolo formato con
l’orizzontale dalla retta tangente alla risposta al gradino unitario nel punto di ordinata
0.5K;
• il tempo all’emivalore te , dato dal tempo necessario affinché la risposta al gradino
unitario raggiunga il valore 0.5K;
• il tempo di assestamento ta , dato dal tempo necessario affinché la risposta al gradino
unitario entra e si mantiene all’interno della fascia (1 −  ) K , (1 +  ) K  ; valori usuali
di  sono 0.01, 0.02 e 0.05, in corrispondenza ai quali si definisce il tempo di
assestamento all’1%, al 2% e al 5%;
• il tempo al picco t p , dato dall’istante in cui la risposta al gradino unitario assume il
valore di picco;
• la sovraelongazione S, definita come il massimo scostamento fra la risposta al gradino
unitario e il valore finale, dopo il primo annullamento di tale scostamento;
• lo pseudoperiodo T dato dal periodo della prima oscillazione.

Tali grandezze possono essere associate ad alcuni degli aspetti significativi del
comportamento di un sistema, che sono: la stabilità, il comportamento in regime permanente
e il comportamento transitorio dai punti di vista della prontezza di risposta e della precisione
dinamica.
Il tempo di salita e il tempo di formazione sono indicative della prontezza di risposta del
sistema, ossia della rapidità con cui il sistema si adegua alle brusche variazioni del segnale
12

d’ingresso (che in questo caso è un gradino unitario). Più sono piccoli sono tali tempi, più
pronto è il sistema.

w-1(t )
T

S
(1+)K
K
(1– )K K
0.9 k
0.9 k
0.9K
0.9 k te

0.1K
t

tf
tr
Fig. 8.5.1 Risposta al gradino unitario oscillatoria smorzata.

Fig. 8.5.2 Risposta al gradino unitario aperiodica.

Il tempo all’emivalore caratterizza il ritardo con cui la risposta al gradino unitario tende a
stabilirsi. Esso dipende dall’eccesso poli-zeri della funzione di trasferimento del sistema. Si
può infatti dimostrare che se tale eccesso è n-m, si annullano le prime n-m-1 derivate della
risposta al gradino unitario calcolate nell’origine, cioè si ha:

 w−( k1) (t )  = 0, k = 0, n − m − 1 .
  t =0
Ovviamente, maggiore è il numero di derivate nell’origine nulle, maggiore risulta il tempo
all’emivalore. Si noti che esistono sistemi che hanno tempi di salita e di formazione prossimi
fra loro, ma tempi all’emivalore notevolmente diversi.
13

Il tempo di assestamento ta rappresenta la durata complessiva delle perturbazioni


transitorie superiori a una soglia prefissata, intendendo per perturbazioni transitorie lo scarto
fra la risposta al gradino unitario e il valore finale. In definiva, si assume che a partire
dall’istante ta il sistema si porta alle condizioni di funzionamento a regime.
Il tempo al picco si può assumere come misura della prontezza di risposta del sistema. Più
piccolo è t p , più pronto risulta il sistema.
La sovraelongazione è una misura della precisione dinamica del sistema. Minore è la
sovraelongazione, migliore è la precisione dinamica.
Lo pseudo periodo caratterizza l’andamento oscillatorio smorzato della risposta al gradino
unitario del sistema.
Ovviamente, nel caso di risposta al gradino unitario aperiodica, possono essere definite
tutte le succitate grandezze eccetto il tempo a picco, la sovraelongazione e lo pseudo periodo.

Grandezze caratteristiche della risposta armonica

Tipici andamenti della risposta in frequenza sono quelli riportati nelle Figure 8.5.3 e 8.5.4.

W (j)

W (j0) 0.707 Mr
Mr 0.707 W (j0)
0.5 W (j0)

2B’ 0.1 W (j0) 


r 2B 2B6 2B20

a) modulo

W (j)
2B 2B20 

 20

b) fase

Fig. 8.5.3 Andamento tipico dei diagrammi del modulo e della fase di una risposta in frequenza con
risonanza.

Con riferimento alla risposta di Fig. 8.5.3, le grandezze caratteristiche della risposta
armonica sono:

• il valore del modulo per  = 0 , W ( j 0) , che rappresenta il guadagno della f.d.t. ingresso-
uscita;
• la banda passante a k-decibel, definita come la pulsazione 2 k in corrispondenza alla
quale il modulo si attenua di k decibel rispetto a W ( j 0) , W ( j 0) db − k . Valori usuali di k
sono 3, 6 e 20. La banda passante a 3-db viene indicata con 2 ;
14

• l’ampiezza di risonanza M r , data dal valore di picco del modulo della risposta in
frequenza;
• la pulsazione di risonanza r , data dal valore della pulsazione in corrispondenza alla quale
il modulo della risposta in frequenza assume il valore di picco;
• il valore 2 ' in corrispondenza al quale il modulo della risposta in frequenza assume il
valore 0.707 M r .

Nel caso in cui il modulo della risposta in frequenza non presenta risonanza le ultime tre
grandezze non possono essere definite. In Fig. 8.5.4 sono riportati gli andamenti dei
diagrammi di Bode in assenza di risonanza.
0

-15
W(jw)

-30

-45 -1 0 1
10 10 10
w [rad/s]
a) modulo

-15
Fase [gradi]

-30

-45 -2 -1 0 1
10 10 10 10
w [rad/s]
a. fase

Fig. 8.5.4 Andamento tipico dei diagrammi del modulo e della fase di una risposta in frequenza senza risonanza.

8.5.2 Legami globali − t per sistemi semplici del 2° ordine

Un sistema semplice del 2° ordine è un sistema descritto da una f.d.t. del tipo:
15

n2
W (s) = . (8.5.1)
s 2 + 2n s + n2

Il guadagno della W(s) è unitario, e i suoi poli sono complessi e coniugati per   ( 0,1) , reali
e coincidenti per  = 1 , e reali e distinti per   1 .

8.5.3.1 Grandezze caratteristiche della risposta al gradino

Il problema che ci si pone è quello di determinare la risposta al gradino unitario e quella in


frequenza. La risposta al gradino unitario si ottiene calcolando la sua trasformata di Laplace
data dal prodotto della f.d.t. e dalla trasformata di Laplace del gradino unitario, come segue:

1
W−1 (s) = W ( s ) .
s

Allora, la risposta al gradino unitario si calcola come segue:

w−1 (t ) = L−1 W−1 ( s) .

Risposta al gradino unitario nel caso di poli complessi e coniugati: p1,2 = −n  jn 1 −  2
Nel caso di poli complessi e coniugati, la risposta al gradino unitario risulta:

w−1 (t ) = 1 −
1
1−  2 ( )
e−nt sin n 1 −  2 t + cos −1 ( ) , t 0 (8.5.2)

e il suo andamento nel tempo è riportato nella Fig. 8.5.5. L’esame di tale figura mostra che la
risposta al gradino unitario ha un andamento oscillatorio smorzato, compreso fra le curve
inviluppo, i1 (t ) e i2 (t ) , date da:

1
i1 (t ) = 1 + e−nt , (8.5.3)
1−  2

1
i2 (t ) = 1 − e−nt . (8.5.4)
1−  2

Il valore finale della risposta al gradino unitario è data da:

w−1 () = lim w−1 (t ) = 1


t →

Il tempo al picco t p si ottiene determinando i valori di t che annullano la derivata della


risposta al gradino unitario, i.e. w−1 (t ) = 0 , e scegliendo il primo di tali istanti diverso da
zero. Si ha:


tp = . (8.5.5)
n 1 −  2
16

Sostituendo tale valore nella risposta al gradino unitario, si ottiene il suo valore di picco, M p ,
dato da:


M p = w−1 (t p ) = 1 + exp(− ),
1−  2

e sottraendo da tale valore il valore finale, si ottiene la sovraelongazione, che risulta:


S = exp(− ), (8.5.6)
1−  2

il cui andamento in funzione di  è riportato nella Fig. 8.5.6. Tale andamento mostra che la
sovraelongazione cresce al diminuire di  , e poiché è inaccettabile che essa superi il 25%
quale che sia il sistema in esame, occorre porre un limite inferiore a  che è pari a 0.4.

2.5

2
i1

1.5

0.3
w-1

0.5
i2

-0.5
0 5 10 15
wn t
Fig. 8.5.5 Risposta al gradino unitario per  = 0.3 e inviluppi superiore e inferiore.

Lo pseudoperiodo è dato da:

2
T 2t p , (8.5.7)
n 1  2

e i valori dei tempi tr , t f , te , e ta possono essere ottenuti soltanto per via numerica, poiché tale
calcolo richiede la soluzione di equazioni trascendenti.
Una espressione approssimata del tempo di assestamento può essere determinata
valutandolo a partire da una delle due curve inviluppo di Fig. 8.5.5, invece che dalla effettiva
risposta al gradino. Considerando l’inviluppo i1 (t ) , tale espressione viene determinata a
partire dalla relazione:
17

i1(ta, ) 1  , (8.5.8)

che nel caso in esame, diviene:

nta
e
,
1 2

a partire dalla quale si ottiene:

nta ln(1  ) ln( 1  2 ) . (8.5.9)

Fig. 8.5.6 Sovraelongazione vs. 

Nell’intervallo  0, 0.707 , ln( 1  2 ) 0.33, 0 e tenendo conto che  0.01, 0.05 ,

se si trascura ln( 1  2 ) rispetto a ln(1  ) , si ottiene un errore massimo del 11% circa per
 0.05 . Accettando tale approssimazione, si ottiene la seguente espressione approssimata
del tempo di assestamento:

3
,  0.05
n
ta . (8.5.10)
4
,  0.02
n

Risposta al gradino unitario nel caso di poli reali e coincidenti (  1 ): p1 p2 n

La f.d.t. e la trasformata di Laplace della risposta al gradino sono date da:


18

n2
W (s) ,
( s n ) 2
n2
W 1 ( s) . (8.5.11)
s( s n )2

La risposta al gradino si ottiene calcolando l’antitrasformata della (8.5.11), che risulta:

nt
w 1 (t ) 1 e (1 nt ) , t 0. (8.5.12)

L’andamento della risposta al gradino è di tipo aperiodico, ed è illustrato nella Fig. 8.4.5 dove
x nt .

Fig. 8.5.7 Risposta al gradino per diversi valori di  .

Risposta al gradino unitario nel caso di poli reali e distinti (  1 ):

s1 n   2 1 , s2 n  2 1

La risposta al gradino risulta:

t T1 t T2
T1e T2e
w 1 (t ) 1 ,t 0, (8.5.13)
T1 T2

dove T1 1 s1 e T2 1 s2 . L’andamento della risposta al gradino per  2 è illustrato


nella Fig. 8.5.7.
L’esame della Fig. 8.5.6 mostra che, a parità di n , il tempo di risposta tr nel caso di
 1 è minore dei tempi di risposta corrispondenti a  1 . Inoltre, per  0.5,1 il tempo di
assestamento ta è inferiore a quello che si ottiene per  1 . Ne consegue che la risposta di
19

tipo oscillatorio smorzato, salvo casi particolari, è sempre preferibile alle risposte che si
ottengono per  1 .
Si osservi, però, che al diminuire di  diminuisce il tempo di risposta ma aumentano
sovraelongazione e tempo di assestamento. In generale, il valore della sovraelongazione non
deve mai superare il 25%, il che implica che deve risultare  0.4 (cfr. Fig. 8.5.6). La
relazione fra sovraelongazione e il coefficiente di smorzamento mette in luce che, poiché S
caratterizza la precisione dinamica, anche  è una misura della precisione dinamica.
A pari valore di  , tr diminuisce al crescere di n , e poiché tr è una misura della
prontezza di risposta, anche n è una misura della prontezza di risposta. Si noti che anche i
tempi ta , te e t p diminuiscono al crescere di n .
In sede di sintesi, scelto il valore di  in modo da soddisfare la specifica sulla massima
sovraelongazione ammissibile, il valore di n può essere scelto in modo da ottenere valori
accettabili per ta , te e tr .

8.5.3.2 Grandezze caratteristiche della risposta in frequenza per un sistema semplice del 2°
ordine

Con riferimento al modello (8.5.1), nel caso in cui  0,1 la risposta in frequenza è
costituita da un fattore trinomio a denominatore che si riporta di seguito per comodità:

1
W ( j ) .
2 n j j n
2
1

Il modulo e la fase sono dati da:

1
M ( ) , (8.5.14)
2
1  n2 4  n
2 2 2

 ( ) tg 1
2 n 1  2 n2 . (8.5.15)

Dalla (8.5.14) si ricava che per  0, 0.707 il modulo presenta un massimo e si manifesta il
fenomeno della risonanza. I valori dell’ampiezza e della pulsazione di risonanza sono dati da:

1
Mr , r n 1 2 2 .
2 1  2

Il legame fra M r e M p 1 S è illustrato nella Fig. (8.5.8). Tale legame mostra che
nell’intervallo  0.4, 0.707 i valori di M r e M p , praticamente, coincidono. Poiché  è
una misura della precisione dinamica, anche M r è una misura della precisione dinamica.
Inoltre, poiché n è una misura della prontezza di risposta, anche r è una misura della
prontezza di risposta.
Il calcolo della banda passante 2 , calcolato mediante la relazione  (2 ) 1 2 ,
fornisce il seguente risultato:
20

2 n 1 2 2 2 4 2 4 4 . (8.5.16)

Quest’ultima relazione mette in luce che, a parità di  , la banda passante è proporzionale a


n e quindi è una misura della prontezza di risposta del sistema.

Fig. 8.5.8 M p e M r vs. 

8.5.3 Legami globali − t per sistemi semplici di ordine maggiore di 2.

Per sistemi di ordine maggiore di 2, i legami globali − t possono essere ottenuti per via
empirica. In proposito, sono stati ottenuti i seguenti legami.

Tempo di salita - Per sistemi aventi sovraelongazione inferiore o uguale al 10%, esiste il
seguente legame fra tempo di salita e banda passante a 3 decibel:

Btr 0.3, 0.45 . (8.5.17)

Per sistemi aventi sovraelongazione inferiore al 5%, si consiglia di utilizzare il legame


Btr 0.3, 0.35 .

Tempo di formazione – Per sistemi con sovraelongazione S 8%, 20% , è stato ottenuto il
legame:

B6t f 0.5 . (8.5.18)

La struttura di entrambe le relazioni (8.5.17) e (8.5.18) può essere giustificate per via
teorica.

Tempo all’emivalore – Il tempo all’emivalore può essere calcolato mediante la relazione:


21

W j 2 W ( j 0)
te . (8.5.19)
2

Sovraelongazione – Nel caso in cui M r 1.3,1.5 , la sovraelongazione è legata all’ampiezza


di risonanza dalla relazione:

1 S 0.85M r . (8.5.20)

Pulsazione di risonanza - Nel caso in cui M r 1.3,1.5 , si può utilizzare la seguente


relazione fra pulsazione di risonanza e temo di salita:

r tr 2 0.2 . (8.5.21)

8.5.4 Legami globali s t

I legami s t sono legami fra grandezze caratteristiche della risposta al gradino e


grandezze caratteristiche della funzione di trasferimento. In generale, i legami s t non
possono essere stabiliti perché risulta difficile individuare grandezze caratteristiche della
funzione di trasferimento. Tuttavia, se la f.d.t. ha poli distinti e una coppia di poli complessi
coniugati dominante, alla quale corrisponde un modo pseudoperiodico che “domina” la
risposta al gradino insieme al termine costante di regime, nel senso che, dopo un transitorio di
breve durata, la risposta al gradino coincide con la somma della risposta a regime e e del
modo pseudoperiodico dominante.
Tale comportamento si manifesta se fra i poli della f.d.t. esiste una coppia di poli complessi
coniugati relativamente vicina all’asse immaginario, mentre tutti gli altri poli sono lontani e
alla sinistra di tale coppia, oppure hanno zeri vicino che rendono piccoli i residui di tali poli.
Ciò può essere giustificato come segue.
Sia W ( s ) una f.d.t. con poli distinti, data da:

l
( s zi )
W (s) K w in1 . (8.5.22)
( s pi )
i 1

Com’è noto, la risposta al gradino si ottiene antitrasformando la funzione:

1
W 1 (s) W (s) .
s

Lo sviluppo in frazioni parziali della W 1 ( s ) risulta:

R0 n Ri
W 1 ( s) , (8.5.23)
s i 1 s pi
dove:
22

l
( zi )
R0 lim sW 1 ( s) W(0) K w in1 , (8.5.24)
s 0
( pi )
i 1
l
( pi zj)
j 1
Ri lim ( s pi )W 1 ( s ) n
. (8.5.25)
s pi
pi ( pi pj)
j 1
j i

Ammettendo che la W ( s ) abbia  poli reali e  coppie di poli complessi e coniugati, la


risposta al gradino è data da:

   jt
w 1 (t ) R0 Ri e pit 2 Rj e cos( j t Rj ) , t t0 . (8.5.26)
i 1 j 1

Si ammetta, adesso, che la W ( s ) abbia la coppia di poli complessi coniugati


p1,2 n jn 1  2 , corrispondente al modo relativo a j 1 nella (8.5.26), e che tutti
gli altri poli siano o lontani e alla sinistra della coppia p1,2 , o abbiano zeri vicino. Com’è
facile rendersi conto, i modi corrispondenti a poli lontani convergono a zero in tempi rapidi
poiché la parte reale di tali poli è in modulo molto maggiore di n , mentre i modi
corrispondenti a poli vicini a p1,2 , o addirittura più vicini all’asse immaginario della coppia
p1,2 , convergono a zero con la stessa rapidità del modo corrispondente a j 1 , ma il loro
contributo alla risposta al gradino è istante per istante molto piccolo rispetto alla
sovrapposizione del modo relativo a j 1 e del termine di regime, poiché i residui di tali poli
hanno modulo relativamente piccolo.
Ne consegue che, dopo un transitorio di breve durata, la risposta al gradino si può
approssimare con il termine di regime e il modo pseudoperiodico dominante, in accordo alla
seguente espressione:

nt
w 1 (t ) R0 2 R1 e cos(n 1  2 t R1 ) , t t0 . (8.5.26)

dove:

l l
( p1 z j ) ( p1 z j )
j 1 j 1
R1 Kw n
, R1 Kw n
,
p1 ( p1 pj) p1 ( p1 pj)
j 2 j 2
l n
R1 ( p1 z j ) p1 ( p1 pj) .
j 1 j 2
23

In proposito, si osservi che il modulo e la fase di p1 e del generico fattore p1 zi hanno il


significato illustrato nella Fig. 8.5.9. In particolare, il generico fattore p1 zi può essere
rappresentato da un vettore che ha origine nel punto zi ed estremità nel punto p1 . Il modulo e
la fase di tale vettore sono, rispettivamente, p1 zi e p1 zi .

Fig. 8.5.9 Interpretazione dei fattori del tipo p1 zi in termini di vettori nel piano
complesso.

Derivando la (8.5.26) rispetto al tempo e uguagliando a zero la derivata, si ottiene:

1  l n
tp ( p1 z j ) p1 ( p1 pj) . (8.5.27)
 2 j 1 j 2

Il valore di picco della risposta al gradino, è data da:

2
nt p  nt p
Mp w 1 (t p ) R0 2 R1 e cos(t p R1 ) R0 2 R1 e (8.5.28)
n
Ne consegue che la sovraelongazione risulta:

2
 nt p
S Mp R0 2 R1 e . (8.5.29)
n

Per quanto concerne il tempo di assestamento si può sempre calcolare mediante


l’espressione approssimata (8.5.10).
24
1

Cap. 9 Sistemi di controllo

Come già detto, in generale, un sistema è solo potenzialmente in grado di soddisfare gli
obiettivi per i quali è stato costruito, e cioè di comportarsi nella maniera desiderata. Per
conseguire tale obiettivo occorre esercitare sul sistema un complesso di azioni, dette azioni di
controllo o, più semplicemente controllo.
Per dare una definizione precisa di controllo si ammetta che:
a) il comportamento effettivo del sistema possa essere riassunto dall’andamento temporale di
una o più grandezze d’uscita;
b) l’informazione sul comportamento desiderato del sistema possa essere riassunta
dall’andamento temporale di una o più grandezze, dette grandezze di comando o grandezze
di riferimento, il cui valore sia, istante per istante, proporzionale al valore desiderato delle
grandezze di uscita.
Forzare il sistema a comportarsi nel modo desiderato significa, allora, far sì che le
grandezze d’uscita risultino proporzionali alle grandezze di comando entro prefissati margini
di tolleranza, contrastando gli effetti dei disturbi e delle variazioni parametriche che agiscono
sul sistema.
È possibile a questo punto fornire la seguente definizione di controllo.
Definizione 9.1 Si chiama controllo un insieme di azioni che consente di far variare nel modo
voluto le grandezze di uscita di un sistema, alle quali sia associato un livello di potenza
notevolmente superiore rispetto a quello delle grandezze di comando. 
Il controllo che di esercita senza l’intervento dell’uomo si dice controllo automatico. Un
sistema di controllo automatico è un insieme di elementi fra loro interagenti, nei quali almeno
una interazione rientra nella definizione di azione di controllo automatico.
Il sistema al quale si vuole imporre il comportamento desiderato viene denominato, come
detto sistema controllato, le grandezze che esercitano l’azione di controllo su di esso vengono
denominate grandezze controllanti, quelle di uscita vengono denominate grandezze
controllate.
Il problema del controllo viene risolto associando al sistema controllato un opportuno
sistema controllante, il cui compito è quello di sviluppare le azioni di controllo a partire dalle
grandezze di riferimento ed, eventualmente, da altre grandezze.

9.1 Classificazione dei sistemi di controllo

Un primo criterio di classificazione dei sistemi di controllo è quello basato sulle modalità
di controllo impiegate. Le modalità di controllo di base sono:

 il controllo a catena aperta;


 il controllo a catena chiusa o a controreazione.

Il controllo si dice a catena aperta se le azioni di controllo vengono esercitate a partire dalle
grandezze di comando e dalle cause di errore, cioè dai disturbi e dalle variazioni
parametriche, qualora questi possano essere misurati.
In proposito, con riferimento ai disturbi si osservi che alcuni tipi di disturbi possono essere
direttamente misurati, mentre altri tipi possono solamente essere stimati indirettamente, cioè a
partire dalle misure di altre grandezze accessibili per la misura. Le variazioni parametriche,
invece, possono solamente essere stimate indirettamente.
Un sistema di controllo si dice a catena aperta se la modalità di controllo impiegata è
quella a catena aperta. Lo schema strutturale di principio di un sistema di controllo a catena
aperta è riportato in Fig. 9.1.1. Si noti che il dispositivo di controllo, usualmente realizzato
mediante l’impiego di sistemi digitali basati su microprocessore, ha il compito di elaborare
2

segnali di controllo di adeguato andamento temporale. Gli organi di potenza vengono


utilizzati per conferire a tali segnali il livello di potenza adeguato generando azioni di
controllo in grado di guidare l’evoluzione del sistema controllato.

SISTEMA
CONTROLLANTE
MISURA DISTURBI

MISURA VARIAZ.
PARAMETRICHE

DISPOSITIVO ORGANI DI SISTEMA


DI CONTROLLO POTENZA CONTROLLATO
u (t ) m(t ) y (t )

Fig. 9.1.1 Schema di principio di un sistema a catena aperta.

Il controllo si dice invece a catena chiusa, o a controreazione se le azioni di controllo


vengono esercitate a partire dalla differenza tra le grandezze di riferimento e le misure delle
grandezze controllate.
Un sistema di controllo si dice a catena chiusa se in esso vengono sviluppate azioni di
controllo a catena chiusa. Lo schema strutturale di principio di un sistema di controllo a
catena chiusa è riportato nella Fig. 9.1.2.

variazioni disturbi
parametriche

DISPOSITIVO DI ORGANI DI SISTEMA


CONFRONTO E CONTROLLO POTENZA CONTROLLATO

DISPOSITIVO
DI MISURA

SISTEMA CONTROLLANTE

Fig. 9.1.2 Schema di principio di un sistema a catena chiusa.

L’esame degli schemi di controllo a catena aperta e chiusa, mostra che:

 lo schema a catena aperta genera le azioni di controllo a partire dalle cause di errore,
disturbi e variazioni parametriche, mentre lo schema a catena chiusa genera le azioni
di controllo a partire dagli effetti che le cause di errore hanno sull’uscita;
 se disturbi e variazioni parametriche potessero essere tutti misurati (anche
indirettamente), i dispositivi di misura fossero istantanei e privi di errori, il dispositivo
di controllo fosse in grado di elaborare i segnali di controllo in tempo reale e gli organi
3

di potenza fossero istantanei, lo schema a catena aperta potrebbe funzionare in assenza


di errore sulle variabili di uscita; lo schema a catena chiusa, anche nelle succitate
ipotesi ideali, comporterebbe la presenza di un errore finito che, a seconda del tipo di
legge di controllo elaborata dal dispositivo di controllo, potrebbe o meno convergere a
zero;
 lo schema a catena aperta, in presenza di disturbi o variazioni parametriche non
previste, e quindi non misurate, non è in grado di modificare le azioni di controllo
generate in assenza di tali addizionali cause di errore, mentre lo schema a catena
chiusa è in grado di reagire ad esse poiché tali cause provocano effetti sulle grandezze
di uscita che rilevate dal dispositivo di confronto e controllo, determinano una
modifica delle azioni di controllo preesistenti;

Ne consegue che lo schema a catena chiusa è in grado di assicurare prestazioni migliori di


un sistema di controllo a catena aperta. Ovviamente, possono essere realizzati schemi di
controllo nei quali sono presenti entrambe le modalità di controllo.
Un secondo criterio di classificazione dei sistemi di controllo è quello basato sulle finalità
che tale sistema persegue. In accordo a tale criterio, i sistemi di controllo si distinguono in:

 sistemi di regolazione;
 sistemi di asservimento.

In un sistema di regolazione le grandezze di riferimento sono costanti, e quindi la sua


finalità è quella di mantenere costanti e pari al livello desiderato le grandezze di uscita
contrastando gli effetti dei disturbi e delle variazioni parametriche. Un sistema di
asservimento è invece caratterizzato dal fatto che le grandezze di comando sono generiche
funzioni del tempo, e la sua finalità è quella di forzare le grandezze di uscita ad assumere un
andamento proporzionale a quello delle grandezze di ingresso, entro prefissati margini di
tolleranza, opponendosi anche in questo caso agli effetti dei disturbi e delle variazioni
parametriche.
Un terzo criterio di classificazione è quello basato sulla natura fisica delle grandezze
controllate. In accordo a tale criterio, i sistemi di controllo si distinguono in:

 sistemi di controllo cinetici;


 sistemi di controllo di processo.

Nei sistemi di controllo cinetici le grandezze controllate sono di natura meccanica (posizione,
velocità, accelerazione), mentre nei sistemi di controllo di processo le grandezze controllate
sono di natura non meccanica (temperature, livelli, portate, tensioni, frequenze).
I sistemi di asservimento di tipo cinetico vengono anche denominati servomeccanismi.
Nelle Figg. 9.1.3 e 9.1.4 vengono illustrati due possibili schemi di controllo, a catena
aperta e a catena chiusa, il cui scopo è quello di mantenere costante il livello del liquido in un
serbatoio.
Nel sistema di Fig. 9.1.3 viene, anzitutto, misurato il disturbo qu . Tale informazione viene
inviata al dispositivo di controllo che riceve anche quella relativa al livello desiderato. A
partire da tali informazioni, il dispositivo di controllo elabora un segnale elettrico che viene
amplificato in livello e in potenza, al fine di forzare un motore a corrente continua a trascinare
in rotazione il rotore di una pompa volumetrica alla velocità idonea a immettere nel serbatoio
liquido con una portata qi idonea a contrastare gli effetti di qu . E’ facile rendersi conto che a
causa di inevitabili errori di misura e di ritardi nel calcolo della legge di controllo, il livello
4

del liquido non si mantiene costante e pari a quello desiderato. Il serbatoio potrebbe, al limite,
svuotarsi del tutto o riempirsi completamente.

MOTORE AMPLIFICATORE DISPOSITIVO


C. C. DI POTENZA DI
E DI LIVELLO CONTROLLO


POMPA
VOLUMETRICA
qi l qu
MISURA DELLA
PORTATA qu

Fig. 9.1.3 Sistema di regolazione a catena aperta del livello del liquido in un serbatoio.

Nel sistema di Fig. 9.1.4 la grandezza l (t) viene misurata tramite un galleggiante e trasformata in
una grandezza di tipo elettrico, ad essa proporzionale, collegando il galleggiante stesso al cursore di un
potenziometro a due cursori. L’altro cursore viene posizionato in modo da fornire una grandezza
elettrica proporzionale al valore desiderato del livello del liquido. La differenza fra le differenze di
potenziale fra i due cursori e la massa del potenziometro è, quindi, proporzionale all’errore di livello.
A partire da tale grandezza proporzionale all’errore, il dispositivo di controllo elabora una legge di
controllo che forza tale grandezza, e quindi l’errore di livello, a seguire un andamento temporale
desiderato che tende a zero o a un valore inferiore a una soglia prefissata.

AMPLIFICATORE DI DISPOSITIVO DI
POTENZA CONTROLLO
r1 (t )
 E DI LIVELLO

r2 (t )
guide

POMPA
VOLUMETRICA
qi l (t) qu

Fig. 9.1.4 – Sistema di controllo a catena chiusa.

9.2 Struttura dei sistemi di controllo a controreazione

Lo schema strutturale di un sistema di controllo a controreazione è illustrato nella Fig.


9.1.5, dove i blocchi e le grandezze mostrati hanno il significato che segue.

 u: grandezza di comando;
 G: generatore della grandezza di comando, ammesso che essa sia nota a priori;
 T’, T”: trasduttori, cioè dispositivi che modificano la natura fisica dei segnali d’in-
gresso u e y, generando segnali r e yc della stessa natura fisica, ma di natura fisica
diversa da u e y, legati a queste ultime grandezze tramite una legge nota; le grandezze
di uscita dei due trasduttori sono, generalmente, di natura elettrica per la semplicità
5

con cui tali segnali possono essere manipolati, e la notevole disponibilità di dispositivi
in grado di manipolarli;
 r: segnale di riferimento in senso stretto;
 yc: segnale di controreazione;
 u d: segnale agente;
 m: grandezza controllante;
 C: controllore o dispositivo di controllo, che ha il compito di elaborare la legge di
controllo in modo che la grandezza v1 abbia un andamento temporale desiderato;
 Al: amplificatore elettrico di livello (v2 > v1), che agisce in modo che il guadagno della
funzione di trasferimento che lega y a ud sia sufficientemente elevato;
 Ap: amplificatore elettrico di potenza (v3 ha un potenza maggiore di v2);
 E: esecutore o attuatore, che fornisce in uscita una grandezza fisica m di natura idonea
a poter pilotare il sistema controllato; poiché le grandezze di ingresso e di uscita di E
hanno una potenza elevata, si può ritenere che E sia un trasduttore a livello di potenza
di potenza;
 S.C.: sistema controllato.

LINEA DI AZIONE DIRETTA

u r ud v1 v2 v3 m y
G T’ C Al Ap E S.C.
+
– y
c
T”

LINEA DI CONTROREAZIONE

Fig. 9.1.5 Struttura dei sistemi di controllo a controreazione.

I blocchi da C a S.C. costituiscono la linea di azione diretta, il ramo su cui è presente T”


costituisce la linea di controreazione.
Il segnale agente ud può, in generale, non essere proporzionale all’errore
e(t )  yd (t )  y (t ) dato dalla differenza fra l’uscita desiderata e quella effettiva. Tuttavia, in
molti casi si preferisce utilizzare uno schema di controllo nel quale la legge di controllo viene
elaborata a partire dall’errore o da una grandezza ad esso proporzionale.
Si supponga, ad esempio, che u(t) rappresenti proprio l’andamento desiderato della
grandezza di uscita yd (t ) , e che T’ e T” abbiano la stessa funzione di trasferimento costante e
pari a h. In tal caso si ha:

r (t )  hu(t ) ,
yc (t )  hy (t ) ,
ud (t )  r (t )  yc (t )  h( yd (t )  y (t ))  he(t ) (9.1.1)

Assumendo, invece, che:

yd (t )  K d u (t ) , (9.1.2)
6

è ancora possibile realizzare un sistema di controllo basato sull’errore disponendo sulla linea
di controreazione un blocco di trasferenza pari a 1 K d , come indicato nella Fig. 9.1.6.

u (t) + u d (t) y (t)


h

yc 1
h
Kd

Fig. 9.1.6 Schema di controllo basato sull’errore.

9.3 Analisi dello schema funzionale a controreazione

Si ammetta, adesso, che associando a ciascun elemento dello schema di Fig. 9.1.6 il
relativo modello matematico e utilizzando le relazioni di interconnessione, che esprimono il
modo in cui i vari elementi sono interconnessi fra loro, sia possibile pervenire allo schema
funzionale di Fig. 9.1.7.

U (s) U d (s ) Y ( s)
G (s)
+

Yc ( s )
H (s)

Fig. 9.1.7 Schema elementare a controreazione.

Come già detto in precedenza, allo schema di Fig. 9.1.7 è possibile associare la funzione di
trasferimento:

Y ( s) G (s )
W ( s)   . (9.1.3)
U ( s ) 1  G ( s ) H ( s)

Inoltre, al succitato schema possono essere associate la funzione di trasferimento a catena


aperta F ( s) e la funzione differenza D( s ) , date da:

F ( s )  G (s ) H (s ) , (9.1.4)
D ( s)  1  F ( s )  1  G ( s ) H ( s ) . (9.1.5)

La funzione differenza gioca un ruolo fondamentale nello studio dei sistemi di controllo.
Infatti, dalla (9.1.3) emerge che gli zeri della funzione differenza coincidono con i poli della
W ( s ) . Inoltre, in certe condizioni, esiste una importante relazione tra la funzione differenza e
il polinomio caratteristico della matrice dinamica, Acl , del modello con lo stato del sistema a
catena chiusa. Al fine di stabilire tale relazione, si consideri il sistema a controreazione di Fig.
9.1.8, dove i due sottosistemi Sd (della linea diretta) e Sc (della linea di controreazione) sono
descritti dai seguenti modelli con lo stato:
7

 x d  Ad xd  bd ud
Sd :  T
(9.1.6)
 yd  cd xd
 x c  Ac xc  bc uc
Sc :  T
(9.1.7)
 yc  cc xc  dc uc

con xd  C nd , xc  C nc . Le relazioni di interconnessione sono date da:

ud  u  yc  u  ccT xc  d c uc  u  ccT xc  d c cdT xd


 . (9.1.8)
T
uc  yd  cd xd

u (t ) ud (t ) y (t )
Sd
+

yc (t )
Sc

Fig. 9.1.8 Schema a controreazione costituito dall’interconnessione di Sd e Sc .

Dalle relazioni (9.1.6)- (9.1.8) si ottiene:

x d  Ad xd  bd (u  ccT xc  d c cdT xd ) ,
x c  Ac xc  bc cdT xd ,

che in forma matriciale diventano:

 x d   Ad  bd d c cd bd ccT   xd  bd 


T

 x        u . (9.1.9)
 c   bc cdT Ac   xc   0 

Assumendo come stato dell’intero sistema a controreazione l’insieme degli stati dei
T
sottosistemi Sd e Sc , x   xdT xcT  , il modello a catena chiusa risulta:
 

x  Acl x  bcl u , (9.1.10)


T
y  ccl x , (9.1.11)

dove:

 Ad  bd d c cdT bd ccT   bd  T


 , bcl    , ccl   cd 0 T  .
T
Acl  
 bc cdT Ac  0

Le funzioni di trasferimento dei sistemi Sd e Sc sono date da:


8

d ( s)
G (s )  cdT (sI  Ad ) 1 bd  , (9.1.12)
d (s )
 ( s)
H ( s)  ccT ( sI  Ac ) 1 bc  d c  c , (9.1.13)
c (s )

dove d ( s ) e c ( s ) sono, rispettivamente, i polinomi caratteristici delle matrici Ad e Ac . Si


dimostra il risultato che segue.

Teorema 9.1.1 Il polinomio caratteristico della matrice Acl , cl ( s) , risulta:

  ( s ) c ( s ) 
cl ( s )  det( sI  Acl )  d ( s) c ( s) 1  d   d ( s) c ( s)  d ( s)c ( s) ,(9.1.14)
 d (s ) c ( s ) 

La dimostrazione del Teorema 9.1.1 è riportata nell’Appendice A.

La funzione differenza del sistema di Fig. 9.1.8, è data da:

d ( s ) c (s )
D ( s )  1  G ( s ) H ( s)  1  . (9.1.15)
d ( s) c ( s )

Il confronto fra le (9.1.14) e (9.1.15) permette di dimostrare la seguente Asserzione.

Asserzione 9.1.1 Assumendo che non esistano fenomeni di cancellazione nella funzione di
trasferimento a catena aperta F ( s )  G ( s) H ( s) , gli zeri della funzione differenza coincidono
con gli zeri di cl ( s) , cioè con gli autovalori della matrice dinamica del modello a catena
chiusa. 

Osservazione 9.1.1 I fenomeni di cancellazione non devono essere presenti né nella G (s ) , né


nella H ( s ) , né nel prodotto G (s ) H ( s ) ; conseguentemente, Sd e Sc devono essere
completamente controllabili e completamente osservabili e, inoltre, non devono esistere zeri
di G( s) comuni a poli di H ( s ) , né poli di G( s) comuni a zeri di H ( s ) . 

9.4 Confronto fra sistemi a catena aperta e a catena chiusa

Si consideri il sistema a catena aperta illustrato nella Fig. 9.1.9, dove Gc ( s) e G p (s ) sono,
rispettivamente, le funzioni di trasferimento del dispositivo di controllo e del sistema
controllato, Z (s ) è la trasformata di Laplace di un disturbo z (t ) , non misurabile, che agisce
all’uscita del sistema controllato e M ( s ) è la trasformata di Laplace della grandezza
controllante. Si noti che l’uscita del blocco G p (s ) non è accessibile per la misura; infatti,
l’insieme dei blocchi da M (s ) a Y (s ) , compreso il disturbo Z (s ) , costituiscono tutti una
schematizzazione del sistema controllato.
Si consideri, inoltre, il sistema a catena chiusa illustrato nella Fig. 9.1.10, dove N (s )
rappresenta la trasformata di Laplace di un segnale equivalente di rumore introdotto dal
dispositivo di misura della grandezza di uscita, H ( s ) rappresenta la funzione di trasferimento
del dispositivo di misura, mentre le altre grandezze e/o funzioni hanno lo stesso significato
illustrato in precedenza.
9

Z ( s)
U ( s) M ( s) +
Gc ( s ) G p (s )
+ Y (s )
Fig. 9.1.9 Schema a catena aperta.

Z (s )
U ( s) M (s ) + Y (s)
Gc ( s ) G p (s )
+ +
 + +
N ( s)
H ( s)
Fig. 9.1.10 Schema a catena chiusa

Con riferimento ai sistemi di Figg. 9.1.9 e 9.1.10, si definisca l’errore e(t ) come segue:

e(t )  yd (t )  y (t )  K d u(t )  y (t ) , (9.1.16)

Sistema a catena aperta

Nel dominio di s, applicando il principio di sovrapposizione degli effetti, si ha:

Y (s )  Yz ( s)  Yu ( s ) , (9.1.17)

dove:

Yz ( s )  Z ( s ), Yu ( s )  W ( s)U ( s ) ,

dove W ( s)  Gc ( s)G p ( s ) è la funzione di trasferimento ingresso-uscita.L’errore nel dominio


di s, per la (9.1.16), è dato da:

E ( s )  K d U ( s )  Y ( s )   K d  W ( s ) U (s )  Z (s )  Eu ( s )  E z (s ) , (9.1.18)

dove Eu ( s ) ed E z ( s ) sono le componenti dell’errore dovute all’ingresso e al disturbo,


rispettivamente, date da:

Eu ( s )   K d  W ( s ) U (s ) , (9.1.19)
Ez ( s )   Z (s ) . (9.1.20)
10

L’errore prodotto dalla grandezza di comando è dovuto all’imperfetto legame ingresso-


uscita, al fatto cioè che la funzione di trasferimento ingresso-uscita W ( s ) è diversa da K d .
Infatti, usualmente, Gc (s )G p (s ) risulta strettamente propria e, quindi, lim W ( s )  0 .
s 
Conviene osservare che, dal punto di vista pratico, il fatto di non potere realizzare il
sistema a catena chiusa in modo tale che W ( s )  K d è vantaggioso poiché il segnale u(t ) ,
come detto, viene generato da un dispositivo reale che introduce segnali di rumore che si
sovrappongono al segnale utile che si desidera generare. Conseguentemente, esistono le
seguenti due esigenze contrastanti:

1. quella di riprodurre fedelmente i segnali di comando utili;


2. quella di cancellare gli effetti sull’uscita del rumore sovrapposto al segnale di
comando utile.

Al fine di soddisfare con un certo margine di tolleranza le due esigenze contrapposte,


conviene scegliere la W ( s ) in modo tale che la corrispondente risposta in frequenza W ( j )
soddisfi la condizione:

W ( j )  K d ,   u , (9.1.21)

essendo  u la regione della frequenza in cui si suppone confinato il contenuto armonico del
segnale di comando utile, e che il modulo della risposta in frequenza sia ridotto a zero il più
rapidamente possibile all’esterno di tale regione (   u ).
In tale caso, infatti, denotando con u (t )  u (t )  nu (t ) l’effettivo segnale di comando
generato, ivi incluso il segnale di rumore nu (t ) ad esso sovrapposto, l’effettiva uscita yu (t ) ,
nel dominio di  , è data da:

Yu ( j )  W ( j )U ( j )  W ( j ) Nu ( j ) ,

la quale mostra che del rumore sovrapposto al segnale di comando viene riprodotta all’uscita
solamente quella parte che ha contenuto armonico all’interno nella regione in cui
W ( j ) ³  , essendo  la soglia al disotto della quale si può ritenere trascurabile W ( j ) .
L’esame della (9.1.20) mette in luce che il disturbo z (t ) agisce direttamente sull’errore
senza alcuna possibilità di contrastarlo a meno che non si proceda a una sua misura.
Infine, se si manifestano variazioni nei parametri della funzione G p (s ) , il comportamento
del sistema potrebbe deteriorarsi poiché la condizione W ( j )  Gc ( j )G p ( j )  K d
potrebbe non risultare più soddisfatta.

Sistema a catena chiusa

Per il sistema a catena chiusa, si ha:

Y (s )  Z (s )  Gc (s )G p ( s) U ( s )  H ( s) Y (s )  N ( s )   ,
da cui si ottiene:

1
Y ( s)   Z ( s )  Gc ( s)G p ( s )U ( s )  F ( s ) N ( s )  , (9.1.22)
1  F (s) 
11

dove:
F ( s )  Gc ( s )G p ( s ) H ( s ) . (9.1.23)

Ne consegue che, in accordo con la (9.1.16), l’errore E ( s ) risulta:

E ( s )   K d  W (s ) U ( s )  Wz (s ) Z ( s )  Wn ( s ) N (s )  Eu ( s )  E z ( s )  En (s ) , (9.1.24)

dove le funzioni di trasferimento ingresso-uscita, W ( s ) , disturbo-uscita, Wz (s ) e rumore-


uscita, Wn ( s ) , sono date da:

Gc ( s )G p ( s )
W (s)  , (9.1.25)
1  F (s)
1
Wz (s )  , (9.1.26)
1  F ( s)
F ( s)
Wn ( s)  , (9.1.27)
1  F ( s)

e le tre componenti l’errore complessivo sono date da:

Eu ( s )   K d  W ( s ) U (s ) , (9.1.28)
E z ( s)  Wz ( s ) Z ( s ) , (9.1.29)
En ( s )  Wn ( s) N ( s ) . (9.1.30)

L’esame della (9.1.24) mette che in un sistema a catena chiusa l’errore complessivo è dato
dalla sovrapposizione di tre componenti, dovute alla grandezza di comando, al disturbo e al
rumore di misura della grandezza di uscita. Conviene esaminare in dettaglio il contributo delle
tre succitate componenti.

Errore dovuto alla grandezza di comando

Dall’analisi svolta per i sistemi a catena aperta, è emerso che conviene scegliere la W ( s ) in
modo tale che la corrispondente risposta in frequenza W ( j ) soddisfi la condizione:

W ( j )  K d ,   u , (9.1.31)

essendo  u la regione della frequenza in cui è confinato il contenuto armonico del segnale di
comando utile, e che il modulo della risposta in frequenza sia ridotto a zero il più rapidamente
possibile all’esterno di tale regione (   u ).
Dall’esame della funzione di trasferimento W ( s ) (cfr. (9.1.25)) emerge che la (9.1.31) può
essere ottenuta progettando Gc (s ) e H ( s) in modo tale che:

F ( j )  Gc ( j )G p ( j ) H ( j )  1,   u . (9.1.32)

e scegliere H ( j ) in modo tale che risulti:


12

1
H ( j )  ,    u . (9.1.33)
Kd

Infatti, in tale caso, è possibile trascurare 1 rispetto a F ( j ) nella espressione della W ( j )


che, pertanto, diviene:

Gc ( j )G p ( j ) 1
W ( j )   ,   u . (9.1.34)
Gc ( j )G p ( j ) H ( j ) H ( j )

Errore dovuto al disturbo

Assumendo F ( j )  1,   u , la funzione di trasferimento disturbo-uscita soddisfa


la condizione Wz ( j )  1,   u e, di conseguenza, le armoniche del disturbo all’interno
della banda di frequenza utile u vengono fortemente attenuate.
Tuttavia, conviene osservare che, usualmente, il sistema a retroazione è strettamente
proprio a catena aperta, il che implica che lim F ( j )  0 . Ne consegue che lim Wz ( j )  1 ,
   
il che implica che eventuali armoniche del disturbo al disopra di una certa frequenza si
ripercuotono sull’uscita quasi per intero.
Le precedenti considerazioni mostrano che il sistema a controreazione di Fig. 9.1.10 è in
grado di riprodurre i segnali di comando, attenuare gli effetti del rumore ad essi sovrapposto e
attenuare anche gli effetti di quei disturbi che hanno lo stesso contenuto armonico del segnale
di comando.
Nell’ipotesi che il disturbo contenga armoniche a frequenza maggiore della massima
frequenza presente nel segnale utile e sufficientemente elevate, il sistema di Fig. 9.1.10
diviene inefficace per contrastare gli effetti del disturbo stesso. In tale caso, se si volesse
contrastare gli effetti del disturbo occorrerebbe utilizzare uno schema a controreazione a due
gradi di libertà, come quello illustrato nella Fig. 9.1.11.
Con riferimento a tale schema, si ha che le funzioni Wz ( s) e Wn ( s ) rimangono invariate;
quindi, E z ( s ) ed En ( s ) rimangono invariate, mentre l’errore Eu ( s) è dato da:

Eu ( s )   K d  W (s )Gu ( s ) U (s ) , (9.1.35)

dove W ( s ) ha ancora l’espressione 9.1.25.

Z (s )
M (s ) + Y (s )
U (s )
Gu ( s ) Gc ( s ) G p (s )
+ +
 + +

H ( s)
Fig. 9.1.11 Schema a catena chiusa a due gradi di libertà.
13

Tali considerazioni mostrano che lo schema di Fig. 9.1.11 è in grado di contrastare gli
effetti degli errori dovuti al disturbo e al segnale di comando anche se tali grandezze hanno
contenuti armonici in bande di frequenza differenti. Infatti, per contrastare gli effetti del
disturbo z (t ) si sceglie opportunamente la funzione F ( s )  Gc ( s )G p (s ) H (s ) , mentre per
contrastare quelli dovuti al segnale di comando basta scegliere convenientemente la funzione
Gu ( s ) .

Errore dovuto al rumore n(t )

L’esame della (9.1.26) mostra che nella banda di frequenze  u , si ha:

Wn ( j )  1 ,

mentre al di fuori di  u e al crescere di  il modulo di tale Wn ( j ) diminuisce e si ha:

lim Wn ( j )  0 .
 

Ne consegue che il sistema a controreazione è sensibile alle armoniche del rumore di misura
che ricadono nel campo di frequenze  u , mentre attenua le armoniche ad alta frequenza. Ciò
costituisce un vantaggio poiché, usualmente, il rumore di misura ha un contenuto armonico
confinato alle alte frequenze.

Effetti delle variazioni parametriche

L’esame della (9.1.31) mostra che nella banda di frequenze  u la funzione di


trasferimento ingresso-uscita coincide praticamente con l’inverso della funzione di
trasferimento della linea di controreazione. Ciò significa che la controreazione attenua
notevolmente gli effetti delle variazioni parametriche che si manifestano nella funzione di
trasferimento della linea di azione diretta, mentre non ha praticamente alcun effetto sulle
variazioni parametriche che si manifestano nella funzione di trasferimento della linea di
controreazione. Ne consegue che gli elementi della linea di azione diretta possono essere
progettati con tolleranze maggiori di quelli della linea di controreazione.

9.5 Analisi dello schema a retroazione per H (s )  1

Nel caso di H (s )  1 , le (9.1.22) - (9.1.27) diventano:

F ( s )  Gc (s )G p ( s ) . (9.1.36)
F ( s)
W ( s)  , (9.1.37)
1  F (s)
1
Wz (s )  , (9.1.38)
1  F ( s)
F ( s)
Wn (s )   , (9.1.39)
1  F ( s)
14

mentre l’errore, per K d  1 , diviene:

E ( s )  S ( s ) U (s )  Z (s )   C ( s ) N (s ) , (9.1.40)

dove:

1
S (s )  , (9.1.41)
1  F ( s)
F ( s)
C ( s )  Wn ( s)  . (9.1.42)
1  F ( s)

Le funzioni S (s ) e C ( s ) vengono, rispettivamente, denominate funzione di sensibilità e


funzione di sensibilità complementare. Com’è facile verificare, le due funzioni sono legate fra
loro dalla relazione:

S (s )  C (s )  1 . (9.1.43)

Naturalmente, in tale caso, le considerazioni svolte nel paragrafo precedente sono ancora più
evidenti.

9.6 Impostazione dello studio dei sistemi di controllo

Nell’ambito della teoria classica, lo studio dei sistemi di controllo viene effettuato in
accordo ai criteri della soluzione parziale e del legame diretto fra il comportamento
dell’intero sistema e quello delle singole parti di cui è costituito.
Il criterio della soluzione parziale consiste nell’isolare e analizzare separatamente i vari
aspetti del comportamento del sistema; come già osservato in precedenza, sono aspetti
caratteristici del comportamento di un sistema la stabilità, il comportamento in regime
permanente e il comportamento transitorio dal doppio punto di vista della prontezza di
risposta e della precisione dinamica.
I segnali di comando e i disturbi che si considerano nella valutazione del comportamento di
un sistema sono i segnali canonici, l’impulso di Dirac e i suoi integrali successivi o i segnali
sinusoidali di frequenza opportuna.
Il criterio del legame diretto consiste nella individuazione di metodi di studio che
permettono di ottenere informazioni sull’intero sistema a partire da quelle sulle singole parti
di cui esso è costituito.
15

Appendice A

La dimostrazione del Teorema 9.1.1 si basa sui seguenti due Lemma.

Lemma 1 - Data la matrice a blocchi M Î C n´ n :

éM M12 ù
M = ê 11 ú,
ëêM 21 M 22 ûú

assumendo M11 invertibile, si ha:

(
det ( M ) = det ( M11 ) det M 22 - M 21 M11
-1
M12 . ) (A.1)

Se risulta invertibile M 22 , si ha:

(
det ( M ) = det ( M 22 ) det M11 - M12 M 22
-1
M 21 . ) (A.2)

Lemma 2 – Siano M Î C m´ n ed N Î C n´ m due matrici. Sussiste la seguente relazione:

det( I m + MN ) = det( I n + NM ) . (A.3)

Il polinomio caratteristico della matrice Acl del modello (9.1.10) e (9.1.11) è dato da:

ésI - A + b d c T bd ccT ùú
ê nd d d c d
det( sI - Acl ) = det ê
T ú. (A.4)
êë - bc cd sI nc - Ac úû

Poiché la matrice dinamica ( sI nc - Ac ) è invertibile per tutti i valori di s diversi dagli


autovalori, per il Lemma 1 si ha:

cl = det(sI - Acl ) = det( sI nc - Ac ) det éëêsI nd - Ad + bd dc cdT + bd ccT ( sI nc - Ac ) - 1 bc cdT ùûú =
é - 1ù
( ) ( )(
det( sI nc - Ac ) det sI nd - Ad det êI nd + bd d c cdT + bd ccT ( sI nc - Ac ) - 1 bc cdT sI nd - Ad ú =
ë û )
é ù
(
- 1
( ) ) (
det( sI nc - Ac ) det sI nd - Ad det êI nd + bd d c + ccT ( sI nc - Ac ) - 1 bc cdT sI nd - Ad ú .
ë û)
Considerando, adesso, le seguenti relazioni di appartenenza delle matrici:

( )
-1
(
bd dc + ccT ( sI nc - Ac )- 1 bc Î C nd ´ 1, cdT sI nd - Ad ) Î C1´ nd ,

per il Lemma 2, si ottiene:

é ù
(
-1
( ) ) (
cl (s ) = det( sI nc - Ac ) det sI nd - Ad det ê1 + d c + ccT ( sI nc - Ac ) - 1 bc cdT sI nd - Ad
ë ) bd ú ,
û
16

che, per le (9.1.12) e (9.1.13), diviene:

é  ( s)  ( s ) ù
cl (s ) = c ( s )d ( s ) det [1 + H ( s)G ( s)] = c ( s) d ( s) det ê1 + c d ú=
êë c ( s ) d ( s) úû
c (s ) d ( s ) +  c ( s ) d ( s ) , (A.5)
17

Cap. 10 Stabilità dei sistemi di controllo a controreazione. Criterio di Nyquist

Lo studio della stabilità dei sistemi di controllo a controreazione può essere effettuato
ricorrendo ai criteri algebrici di stabilità o a criteri basati sulla considerazione di funzioni
associate alle singole parti di cui è costituito il sistema. Al primo gruppo appartiene il già noto
criterio di Routh, mentre al secondo gruppo appartiene il criterio di Nyquist che verrà
illustrato nel presente capitolo.
L’inconveniente principale dei criteri algebrici si manifesta quando si vuole impiegarli per
risolvere un problema di sintesi. In tal caso, infatti, occorre determinare i parametri liberi del
sistema controllante in modo tale che il sistema sia stabile. Utilizzando il criterio di Routh, la
soluzione del problema implica quella del seguente sistema di disequazioni non lineari:

rn,1  0, rn 1,1  0,  , r0,1  0 .

10.1 Criterio di Nyquist

Si consideri il sistema a controreazione e a ciclo unico riportato nella Fig. 10.1.7, che si
riporta di seguito per comodità, e si ammetta che:

U ( s) U d (s ) Y (s )
G (s)
+

Yc (s )
H (s)

Fig. 10.1.1 Schema elementare a controreazione.

1. gli zeri della funzione differenza coincidano con gli autovalori della matrice dinamica
del sistema a catena chiusa;
2. la funzione di trasferimento a catena aperta F ( s )  G (s ) H (s ) sia propria o
strettamente propria;

Osservazione 10.1.1 - L’ipotesi 1 permette di valutare la stabilità interna asintotica del


sistema di Fig. 10.1.1 a partire dalla dislocazione degli zeri della funzione differenza
D( s)  1  F ( s )  1  G ( s ) H (s ) ; l’ipotesi 2 assicura che quest’ultima funzione sia propria e
quindi della forma:

 (s  zi )
i 1
D ( s)  K D n
. (10.1.1)
 (s  pi )
i 1

Per lo studio della stabilità interna asintotica occorre e basta verificare che gli zeri della
funzione differenza D( s ) abbiano tutti parte reale negativa, in quanto essi, come detto (cfr.
ipotesi 1), coincidono con quelli del polinomio caratteristico relativo al sistema a retroazione.
Tale verifica può essere effettuata mediante il criterio di Nyquist che si basa sul seguente
principio dell’argomento.
18

Principio dell’argomento Nella ipotesi che la funzione differenza non abbia zeri e/o poli
sull’asse immaginario, la variazione di fase  D , della funzione D( j ) quando s descrive
l’asse immaginario da  j a j , valutata positivamente in senso antiorario, è uguale a
2  volte la differenza fra il numero di poli, P, e il numero di zeri, Z, a parte reale positiva
della funzione differenza D( s ) . In simboli, si ha:

 D,  2 ( P  Z ) . (10.1.2)

Prova. Al fine di dimostrare il principio dell’argomento, si consideri la Fig. 10.1.2, dove i


fattori j  zi e j  pi vengono interpretati come vettori che hanno origine nei poli o negli
zeri ed estremo nel punto j . Poiché si ha (cfr. (10.1.1)):

n
 D ( j )    i ( )   i ( )  , (10.1.3)
i 1

ne consegue che:

n
 D,     i ,   i ,  , (10.1.4)
i 1

dove  i , e  i , sono, rispettivamente, le variazioni di fase dei vettori j  zi e j  pi


quando s descrive l’asse immaginario da  j a j , valutate positivamente in senso
antiorario. L’esame della Fig. 10.1.2 mostra che:

 per poli e zeri a parte reale negativa


 i , ( i , )=
 per poli e zeri a parte reale positiva

Assumendo quindi che D( s ) abbia P poli e Z zeri a parte reale positiva, si ha:

 D,  (n  Z )     (n  P)  P   2 ( P  Z ) . (10.1.5)



j
zi j
i ( )
 i ( )
pi 

Fig. 10.1.2 Interpretazione dei fattori j  zi e j  pi .

Indicando con T il numero di giri che il vettore rappresentativo della funzione D( j )


compie intorno all’origine del piano di Nyquist della D( j ) , si ha:
 D,  2 T , (10.1.6)
19

e quindi risulta:

T  PZ . (10.1.7)

Osservazione 10.1.2 Si noti, adesso, che P è noto poiché i poli della D( s ) coincidono con
quelli della F ( s ) . Ne consegue che se si riesce a calcolare T, è possibile calcolare Z con la
(10.1.7) e quindi valutare la stabilità interna asintotica del sistema a controreazione di Fig.
10.1.1. Avendo escluso che la funzione D( s ) abbia zeri sull’asse immaginario, per la stabilità
del sistema a controreazione occorre e basta che risulti Z  0 . Di conseguenza, la condizione
necessaria e sufficiente di stabilità è T  P .

Osservazione 10.1.3 Il calcolo di T può essere effettuato a partire dal diagramma polare della
funzione di trasferimento a catena aperta F ( j ) . Con riferimento alla Fig. 10.1.3,
interpretando 1 come un vettore che ha origine nel punto di coordinate (1, j 0) , denominato
punto critico, ed estremità nell’origine del piano di Nyquist della F ( j ) , la somma vettoriale

di tale vettore e del vettore rappresentativo della F ( j ) , vettore OQ , fornisce proprio il
vettore rappresentativo della D( j ) , vettore che ha origine nel punto critico ed estremità nel
punto Q. Pertanto, il numero di giri che il vettore rappresentativo di D( j ) compie intorno
all’origine del piano di Nyquist di D( j ) è pari al numero di giri che il vettore
rappresentativo di D( j ) compie intorno al punto critico del piano della F ( j ) .

(1, j 0) Im[ F ( j )]
1 O
D( j ) Re[ F ( j )]
F ( j )
 Q

Fig. 10.1.3 Determinazione del vettore rappresentativo di D ( j ) sul piano della F ( j ) .

Le osservazioni 10.1.2, 10.1.3 e 10.1.4 permettono di enunciare il seguente Criterio di


Nyquist generalizzato.

Criterio di Nyquist generalizzato. Sia dato un sistema lineare e stazionario, a controreazione,


a ciclo unico, tale che la funzione di trasferimento a catena aperta sia propria o strettamente
propria, e priva di fattori comuni a numeratore e a denominatore. Condizione necessaria e
sufficiente affinché il sistema sia asintoticamente stabile internamente è che il numero di giri
T che il vettore rappresentativo della funzione D( j ) compie attorno al punto critico del
piano di Nyquist della F ( j ) , valutato positivamente in senso antiorario e per  variabile
da  a, sia pari al numero P di poli a parte reale positiva della funzione di trasferimento
a catena aperta F ( s ) .

Osservazione 10.1.4 Si noti che il numero di giri T dovrebbe essere valutato in corrispondenza
a un percorso chiuso, descritto una sola volta dal punto s, costituito dall’intero asse
immaginario e da una semicirconferenza di raggio infinitamente grande in modo da
racchiudere tutto il semipiano positivo del piano complesso e, di conseguenza, tutti gli
eventuali poli a parte reale positiva della D( s ) . Tuttavia, l’ipotesi che la f.d.t. a catena aperta
20

sia propria o strettamente propria, implica che lim F ( s) = c , dove c ¹ 0 se F ( s) è propria,


s® ¥
o nulla se F ( s) è strettamente propria. In entrambi i casi, quando il punto s descrive la
succitata semicirconferenza la variazione di fase della D( j ) è nulla.

10.2 Casi critici

I casi critici del criterio di Nyquist hanno origine dalla presenza di zeri o poli della
funzione differenza sull’asse immaginario del piano complesso.

Zeri sull’asse immaginario


La presenza di zeri sull’asse immaginario viene immediatamente messa in evidenza dal
fatto che il diagramma polare della F ( j ) passa per il punto critico. Infatti, ammesso che
D( s ) abbia uno zero nel punto j , si ha:

D( j )  1  F ( j )  0 , (10.2.1)

da cui risulta F ( j )  1 .


In tale caso, si può affermare che il sistema non è asintoticamente stabile internamente né
stabile esternamente nello stato zero. Si suole dire che esso è al limite della stabilità.
Conviene osservare che la condizione F ( j )  1 è una condizione necessaria affinché
nell’anello di controllo 10.2.1 persista una oscillazione sinusoidale di frequenza  , in assenza
di un segnale di ingresso. Infatti, con riferimento alla Fig. 10.2.1, che si riporta di seguito per
comodità del lettore, assumendo ud (t )  a sin( t ) e u (t )  0 si ha
yc (t )  a F ( j ) sin( t  F ( j )) e, nell’ipotesi che F ( j )  1 e F ( j )   ,
ud (t )   yc (t )  a F ( j ) sin( t  F ( j ))  a sin( t ) .

U ( s) U d (s ) Y (s )
G (s)
+

Yc ( s )
H (s)
Fig. 10.2.1 Schema elementare a controreazione.

Esempio 10.2.1 L’esempio che segue ha lo scopo di provare il comportamento di un sistema


al limite della stabilità. In particolare, data la f.d.t. di un sistema viene, dapprima, portato il
sistema a catena chiusa al limite di stabilità modificando il guadagno della f.d.t. a catena
aperta, e poi viene esaminato il comportamento del sistema a catena chiusa.
1
In particolare, assumendo H (s )  1 e G (s )  K p , con K p  1 , il diagramma
s (s  1)(s  5)
di Bode della funzione F ( j )  G( j ) è quello riportato nella Fig. 10.2.2. Tali diagrammi
mostrano che assumendo K p  29.5 dB si ottiene F ( j 2.26)  1 e F ( j 2.26)  180 .
Simulando il comportamento del sistema a catena chiusa in ambiente Simulink, mediante lo
schema di Fig. 10.2.3, il sistema a catena chiusa risulta instabile. Infatti, la risposta del
21

sistema all’ingresso di Fig. 10.2.4 è costituita da una oscillazione di ampiezza crescente, come
illustrato nella Fig. 10.2.5.

Bode Diagram
50
System: Gp
Frequency (rad/s): 2.23
0 Magnitude (dB): -29.5

-50

-100

-150
-90

-180
System: Gp
Frequency (rad/s): 2.24
Phase (deg): -180
-270
10-2 10-1 100 101 102
Frequency (rad/s)
Fig. 10.2.2 Diagrammi di Bode della G ( j )

Fig. 10.2.3 Schema Simulink del sistema di Fig. 10.1.1

Fig. 10.2.4 Reference input


22

Fig. 10.2.5 Risposta del sistema a catena chiusa di Fig. 10.2.3, all’ingresso di Fig. 10.2.4, con K p  30.9

Un’analisi più accurata mostra che assumendo K p  30 la risposta del sistema a catena
chiusa diviene quella di Fig. 10.2.6 costituita, a regime, da una oscillazione persistente. Ciò
trova conferma nel fatto che la f.d.t. a catena chiusa, per tale valore di K p , risulta data da
30
W (s)  3 2
i cui poli sono p1  6 , p2  j 2.236 e p3   j 2.236 . La f.d.t. a
s  6 s  5s  30
catena chiusa ha un polo reale e una coppia di poli immaginari e coniugati, il che implica che,
a regime, la risposta del sistema all’ingresso di Fig. 10.2.4 è costituita da una oscillazione
persistente di frequenza 2.236 rad/s. L’ampiezza si ottiene mediante antitrasformata della
1 1
funzione Y (s )  W ( s)U ( s ) con U ( s )   e0.01s . Ovviamente, risulta
s s
y(t )  w1 (t )  w1 (t  0.01) . Da notare che per fare apparire questa oscillazione, è stato
necessario sollecitare il sistema a catena chiusa con un impulso rettangolare di durata 10 ms e
ampiezza 1, mostrato nella Fig. 10.1.6. Inoltre, il diagramma polare della funzione F ( j )
con K p  30 risulta quello di Fig. 10.2.7, che passa per il punto critico -1+j0.
Quanto descritto in precedenza mostra che la condizione F ( j )  1 è solamente
condizione necessaria ma non sufficiente per il manifestarsi di una oscillazione.

Fig. 10.2.6 Risposta del sistema a catena chiusa di Fig. 10.2.3, all’ingresso di Fig. 10.2.4, con K p  30
23

Nyquist Diagram
2

1.5

0.5

-0.5

System: Gp1
-1
Real: -2.08
Imag: -0.671
-1.5 Frequency (rad/s): 1.48

-2
-4 -3.5 -3 -2.5 -2 -1.5 -1 -0.5 0
Real Axis

Fig. 10.2.7 Diagramma polare della funzione F ( j )  G ( j ) , K p  30 . F ( j )  1 , with   2.24 rad/s

Si consideri, adesso, un sistema a controreazione con:

(s  0.1)(s  0.2)(s  0.5)


F ( s)  G( s)  K p ,
(s 10)(s 20)(s 5)

i cui diagrammi di Bode sono riportati nella Fig. 10.2.8. Assumendo K p  15.8489 (24 dB),
si ha F ( j 4.57)  1 (cfr Fig. 10.2.9) e la risposta del sistema a catena chiusa, con H (s )  1 ,
all’ingresso 10.2.4 risulta oscillante ma diverge molto lentamente. Assumendo K p  15.8 la
risposta è costituita da un’oscillazione persistente di piccola ampiezza, come illustrato nella
Fig. 10.2.11.

Bode Diagram
0

-20
System: Gp
-40
Frequency (rad/s): 4.57
-60 Magnitude (dB): -24

-80

-100
270

180
System: Gp
Frequency (rad/s): 4.57
90 Phase (deg): 180

0
10-3 10-2 10-1 100 101 102 103
Frequency (rad/s)

Fig. 10.2.8 Diagrammi di Bode della F ( j )


24

Nyquist Diagram

10

System: F
Real: 10.6
5 Imag: 9.22
Frequency (rad/s): 46.1

-5

-10

-5 0 5 10 15 20
Real Axis

Fig. 10.2.8 Diagramma polare della funzione F ( j )  G ( j ) , K p  15.8 . F ( j )  1 , con   4.57 rad/s

Fig. 10.2.10 Schema Simulink del sistema di Fig. 10.2.1


output

Fig. 10.2.11 Risposta del sistema a catena chiusa di Fig. 10.2.10, all’ingresso di Fig. 10.2.4, con K p  15.8 .

Esempio 10.2.2 L’esempio che segue ha lo scopo di provare che un sistema a catena chiusa
può essere portato nelle condizioni al limite di stabilità anche variando i parametri del
sistema, cioè poli, zeri e guadagno. Più precisamente, si consideri la f.d.t. data da:

(s  0.1)(s  0.2)(s  0.5)


F ( s )  10 ,
(s 10)(s 5)(s  20)
25

e si ammetta che per qualche motivo i parametri subiscano variazioni del 30% nel fattore di
trasferimento, nel polo -5 e nel polo -10. La nuova f.d.t. diviene quindi:

(s  0.1)(s  0.2)(s  0.5)


F ( s )  13 .
(s  13)(s  6.5)(s  20)

I diagrammi di Bode corrispondenti alle funzioni F ( s) e F ( s) sono illustrate nelle figure


10.2.12 e 11.2.13.

Bode Diagram
20

0
System: Gp
-20 Frequency (rad/s): 5.63
Magnitude (dB): -0.0277
-40

-60

-80
270 System: Gp
Frequency (rad/s): 5.63
Phase (deg): 168
180

90

0
10-3 10-2 10-1 100 101 102 103
Frequency (rad/s)
Fig. 10.2.12 Diagrammi di Bode della F ( j )

Bode Diagram
50

0
System: Gp
Frequency (rad/s): 5.82
-50 Magnitude (dB): -0.0601

-100
270 System: Gp
Frequency (rad/s): 5.84
Phase (deg): 180
180

90

0
10-3 10-2 10-1 100 101 102 103
Frequency (rad/s)
Fig. 10.2.13 Diagrammi di Bode della F ( j )

Il confronto fra i diagrammi di Bode delle Figg. 10.2.12 e 10.2.13 mostra che il sistema a
catena chiusa caratterizzato dalla f.d.t F ( s ) ha un margine di fase di circa 12°, mentre quello
caratterizzato dalla f.d.t F ( s) è praticamente al limite della stabilità.

Poli sull’asse immaginario Il problema connesso con la presenza di poli sull’asse


immaginario nasce per il fatto che quando il punto s passa per uno di tali poli, ad es. p i , si ha
26

una brusca variazione di fase del vettore corrispondente j  p i il cui segno è indeterminato;
inoltre, il modulo della funzione F ( j ) , e quindi quello della D( j ) , tende a  .
Al fine di superare tale problema, si deforma l’asse immaginario mediante un percorso
semicircolare di raggio infinitesimo e centrato nel polo immaginario che lasci alla propria
sinistra o alla propria destra il polo stesso (cfr. Fig. 10.1.4 per il caso di un polo nell’origine).
Come già osservato, quando s passa per il polo j il modulo tende a  e il diagramma
polare si spezza in due rami, uno dei quali termina per     mentre l’altro inizia da
   + . Tali rami possono essere raccordati osservando che, quando s descrive uno dei due
percorsi semicircolari (a o b), l’estremo del vettore rappresentativo della funzione F ( j )
descrive tante semicirconferenze di raggio infinitamente grande quante ne indica la
molteplicità del polo, in verso orario se si sceglie il percorso a o in verso antiorario se si
sceglie il percorso b.

j
a
b 

Fig. 10.2.1 Deformazione dell’asse immaginario in prossimità di un polo nell’origine.

Esempio 10.1.1
Si supponga che la funzione F ( s) abbia la distribuzione poli e zeri mostrata in Fig. 10.1.5, cui
corrisponde la seguente espressione analitica nella variabile :

KF . (10.2.2)
F ( j ) 
 1  1 
j  j    j  
 T1   T2 

j
a 
1 1
  b
T2 T1

Fig. 10.2.2 distribuzione poli-zeri di una funzione F (s ) .

Seguendo le regole per il tracciamento del diagramma polare, si ottiene il diagramma di


Fig. 10.2.3 per    0 ,   e per    , 0   . I due tratti del diagramma polare vengono
   
raccordati con la semicirconferenza a di raggio infinito se si sceglie il percorso a o con quella
b se si sceglie il percorso b.
Come è facile verificare, scegliendo il percorso a risulta T  0 ed essendo P  0 risulta
T  P e il sistema è asintoticamente stabile internamente. Scegliendo il percorso b risulta
T  1 ed essendo P  1 il sistema risulta asintoticamente stabile internamente.
E’ facile rendersi conto che se il punto critico si trovasse alla destra del punto di intersezione del
diagramma polare con il semiasse reale negativo, come illustrato nella Fig. 10.2.4, il sistema sarebbe
instabile. Infatti, per quanto concerne il calcolo di T, scegliendo il percorso a si ha T  2 , mentre
scegliendo il percorso b si ha T  1 . Poiché nel primo caso P  0 (il polo nell’origine viene
27

computato come un polo a parte reale negativa), mentre nel secondo caso P  1 (il polo nell’origine
viene computato come un polo a parte reale positiva), si ha in entrambi i casi T  P e Z  2 . Ne
consegue che il sistema è instabile.
Come è facile verificare, scegliendo il percorso a risulta T  0 ed essendo P  0 risulta
T  P e il sistema è asintoticamente stabile internamente. Scegliendo il percorso b risulta
T  1 ed essendo P  1 il sistema risulta asintoticamente stabile internamente.
E’ facile rendersi conto che se il punto critico si trovasse alla destra del punto di intersezione del
diagramma polare con il semiasse reale negativo, come illustrato nella Fig. 10.2.4, il sistema sarebbe
instabile. Infatti, per quanto concerne il calcolo di T, scegliendo il percorso a si ha T  2 , mentre
scegliendo il percorso b si ha T  1 . Poiché nel primo caso P  0 (il polo nell’origine viene
computato come un polo a parte reale negativa), mentre nel secondo caso P  1 (il polo nell’origine
viene computato come un polo a parte reale positiva), si ha in entrambi i casi T  P e Z  2 . Ne
consegue che il sistema è instabile.

0 a

j Im[ F ( j )]
b
 Re[ F ( j )]
0 
D (j)

F ( j )

0

Fig. 10.2.3 Diagramma completo per la valutazione della stabilità. Punto critico a sinistra dell’intersezione con il
semiasse reale negativo.

10.3 Sistemi a stabilità regolare e condizionata

Dall’esempio 10.1.1 si evince che, aumentando il guadagno della funzione di trasferimento


a catena aperta, il sistema da stabile diventa instabile. Può, comunque, accadere che il
passaggio dalla stabilità alla instabilità si manifesti anche a seguito di riduzioni del guadagno.
Con riferimento alle variazioni del guadagno, i sistemi di controllo si classificano in:
 sistemi a stabilità regolare
 sistemi a stabilità condizionata.

0 a

Im[ F ( j )]
b
 Re[ F ( j )]
0 
D (j)

F ( j )

0
Fig. 10.2.4 Diagramma completo per la valutazione della stabilità. Punto critico a destra dell’intersezione con il
semiasse reale negativo.
28

I sistemi a stabilità regolare sono caratterizzati dalla esistenza di un solo valore critico del
guadagno kc tale che per k  kc il sistema a catena chiusa risulta instabile (IST), mentre
k  kc il sistema è asintoticamente internamente stabile (S) (cfr. Fig. 10.3.1). Per tali sistemi,
il diagramma polare della funzione di trasferimento a catena aperta presenta una sola
intersezione con il semiasse reale negativo.

S IST

kc k

Fig. 10.3.1 Influenza del guadagno sulla stabilità: sistemi a stabilità regolare.

Nella Fig. 10.3.2 sono riportati i diagrammi polari per sistemi a stabilità regolare
corrispondenti a modelli stabili, instabili e al limite di stabilità (LS). Il guadagno critico è
quello corrispondente al caso in cui il diagramma polare della funzione di trasferimento a
catena aperta passa per il punto critico (-1, j0).

S
IST LS
10.3.2 Diagrammi polari F ( j ) per sistemi a stabilità regolare.

I sistemi a stabilità condizionata sono caratterizzati da diversi valori critici del guadagno
che individuano regioni contigue all’interno delle quali il sistema risulta alternativamente
stabile (S) o instabile (IST, cfr. Fig. 10.3.3). I sistemi in questione sono caratterizzati da
diversi punti di intersezione del diagramma polare della funzione di trasferimento a catena
aperta presenta con il semiasse reale negativo (cfr. Fig. 10.3.4).

S IST S IST

kc1 kc 2 kc 3 k

Fig. 10.3.3 Influenza del guadagno sulla stabilità: sistemi a stabilità condizionata.

Con riferimento alla Fig. 10.3.4, kc1 è il guadagno corrispondente al caso in cui
l’intersezione C del diagramma polare della F ( j ) con il semiasse reale negativo coincide
con il punto critico (-1, j0), kc 2 corrispondente al caso in cui l’intersezione B del diagramma
polare della F ( j ) con il semiasse reale negativo coincide con il punto critico (-1, j0), e kc3
corrispondente al caso in cui l’intersezione A del diagramma polare della F ( j ) con il
semiasse reale negativo coincide con il punto critico (-1, j0).
29

Utilizzando il criterio di Nyquist è facile verificare che:

C A
B O

Fig. 10.3.4 Diagramma polare della F ( j ) per sistemi a stabilità condizionata.

 per k  kc1 il punto C è a destra del punto critico e il sistema a catena chiusa risulta
asintoticamente stabile internamente;
 per k  (kc1 , kc 2 ) il punto critico appartiene al tratto BC e il sistema è instabile;
 per k  ( kc 2 , kc 3 ) il punto critico appartiene al tratto BA e il sistema è
asintoticamente stabile internamente;
 per k  kc 3 il sistema risulta instabile.

10.4 Margini di stabilità

L’analisi svolta in precedenza mette in luce che mediante il criterio di Nyquist è possibile
studiare la stabilità del modello matematico “nominale” di un sistema reale, cioè di un
modello nel quale figurano i valori nominali dei parametri. Com’è noto, a causa delle
tolleranze dei componenti utilizzati, del loro invecchiamento e delle condizioni operative del
sistema reale stesso i parametri del modello sono noti con un certo margine di incertezza. E’
dunque di fondamentale importanza valutare, oltre alla stabilità nominale, se la stabilità è
anche robusta, nel senso che essa viene mantenuta per tutti i valori previsti per i parametri del
modello.
Nell’ambito della teoria classica del controllo, un modo per valutare la robustezza della
proprietà di stabilità è quello di fare ricorso ai margini di stabilità, il margine di guadagno e il
margine di fase, i quali misurano la distanza del modello dalle condizioni limite di stabilità.
Per definire i margini di stabilità si ipotizza che la curva polare abbia una sola intersezione
con il semiasse reale negativo (cioè che il sistema sia a stabilità regolare) e che abbia una sola
intersezione col cerchio di raggio unitario centrato nell’origine del piano di Nyquist (cfr. Fig.
10.4.1). In tali ipotesi è possibile definire un solo margine di fase e un solo margine di
guadagno.

I ( )

(1, j 0) R ( )

Fig. 10.4.1 Diagramma polare utile per definire i margini di stabilità.

Com’è noto, per i sistemi a stabilità regolare le condizioni limite di stabilità sono
caratterizzate dal fatto che la curva polare della F ( j ) passa per il punto critico: esiste cioè
30

un certo valore  * di  tale che F ( j*)  1 . Tale equazione equivale alle seguenti due
equazioni scalari:

F ( j*)  1 , (10.4.1)
F ( j*)   . (10.4.2)

I margini di stabilità vengono, allora, definiti ammettendo che sia soddisfatta una delle
precedenti condizioni e valutando il margine che rimane perché sia soddisfatta anche la
condizione rimanente.
Per definire il margine di guadagno mg si considera il valore  di  in corrispondenza
al quale viene soddisfatta la condizione di fase (10.4.2), con il segno positivo o con quello
negativo, e si valuta il margine che rimane affinché sia soddisfatta la condizione sul modulo
(10.4.1). In particolare, il margine di guadagno viene definito come quel numero per cui
occorre moltiplicare il F ( j ) per ottenere un risultato pari a 1. Quindi, si ha:

1
mg  . (10.4.3)
F ( j )

Ne consegue che il margine di guadagno è maggiore di 1 se l’intersezione della curva polare


con il semiasse reale negativo è a destra del punto critico.
Il margine di guadagno può essere dedotto a partire dalla curva polare o dai diagrammi di
Bode della F ( j ) . Con riferimento alla Fig. 10.4.2, il margine di guadagno è pari all’inverso
del modulo corrispondente al punto di intersezione del diagramma polare con il semiasse
reale negativo. Con riferimento alla Fig. 10.4.3, il margine di guadagno espresso in decibel è
dato da mg   F ( j ) dB e risulta positivo se F ( j ) dB  0 .
dB

1 I ( )
mg

(1, j 0) R ( )

Fig. 10.4.2 Valutazione del margine di guadagno a partire dal diagramma polare della F ( j ) .

In maniera del tutto analoga, per definire il margine di fase m si considera il valore t di
 in corrispondenza al quale è soddisfatta la (9.4.1), cioè F ( jt )  1 ( F ( jt ) dB  0) , e si
valuta il margine che rimane affinché sia soddisfatta la condizione sulla fase (10.4.2).
Dai risultati dell’analisi svolta nel paragrafo 2, esempi 10.2.2, se il vettore rappresentativo
di F ( jt ) è nel terzo o quarto quadrante, per portare il sistema a catena chiusa al limite di
stabilità occorre sottrarre alla F ( jt ) un angolo pari a m  0 in modo tale che
F ( jt )  m   , per F ( jt )  0 , oppure F ( jt )  m   , per F ( jt )  0 . Il
margine di fase m , allora, risulta:

m  F ( jt )   sgn( F ( jt )) . (10.4.4)


31

Se il vettore rappresentativo di F ( jt ) è nel primo o secondo quadrante, per portare il


sistema a catena chiusa al limite di stabilità occorre sommare alla F ( jt ) un angolo pari a
m in modo tale che F ( jt )  m   , per F ( jt )  0 , oppure sommare un angolo pari a
m in modo tale che F ( jt )  m   , per F ( jt )  0 . Il margine di fase m , allora,
risulta:

m   sgn(F ( jt ))  F ( jt ) . (10.4.5)

La pulsazione t viene denominata pulsazione di attraversamento.


Il margine di fase può essere dedotto dal diagramma polare come indicato nella Fig. 10.4.3.
Con riferimento a tale figura, poiché F ( jt )  0 , il margine di fase è positivo; infatti,
perché si abbia F ( jt )  1 occorre sottrarre a F ( jt ) un angolo positivo pari proprio a
m .

I ( )
F ( jt )
m
R ( )
P

Fig. 10.4.3 Valutazione del margine di fase a partire dal diagramma polare della F ( j ) .

Il margine di fase può anche essere dedotto dai diagrammi di Bode della F ( j ) come
indicato nella Fig. 10.4.4. Più precisamente, si determina, anzitutto, la pulsazione t in
corrispondenza alla quale F ( jt ) dB  0 ; essendo F ( jt )  0 si valuta l’angolo che si deve
sottrarre a F ( jt ) per ottenere  .

F ( j ) dB

t 
F ( j ) dB

F ( j )

 

m


Fig. 10.4.4 Valutazione del margine di guadagno a partire dai diagrammi di Bode della F ( j ) .
32

La definizione di due margini di stabilità è giustificata dal fatto che nessuno dei due
margini è sufficiente a misurare da solo la distanza del modello nominale dalle condizioni per
cui si ha il passaggio alla instabilità. Ciò emerge chiaramente dall’esame della Fig. 10.4.5,
dove sono illustrati i diagrammi polari di due funzioni che di trasferimento a catena aperta
alle quali corrisponde identico valore per il margine di guadagno ma valori ben diversi del
margine di fase. Chiaramente, il sistema caratterizzato dalla funzione II, cui corrisponde il
valore più piccolo del margine di fase, è più vicino alle condizioni per cui si ha il passaggio
alla instabilità rispetto al sistema caratterizzato dalla funzione I.
Valori tipici di m e mg sono, rispettivamente, 40°  60° e 6  8 dB.

I ( )

R ( )

II

I
Fig. 10.4.5

Si noti, adesso, che in un sistema con un solo margine di guadagno e con un solo margine
di fase la stabilità del sistema a catena chiusa implica che il margine di guadagno espresso in
dB e il margine di fase sono entrambi positivi. Il viceversa non è, in generale, vero.
In proposito, esiste una varietà di situazioni molto ampia e, di conseguenza, risulta molto
difficile individuare condizioni sui margini di stabilità in grado di coprire tutte le situazioni
che possono presentarsi in pratica, cioè segni del fattore di trasferimento e del guadagno,
distribuzione poli-zeri, presenza di elementi di ritardo finito nelle funzioni di trasferimento,
presenza di zeri a parte reale positiva, e presenza di poli nell’origine o a parte reale positiva.
L’obiettivo che ci si pone è quello di individuare una classe di funzioni di trasferimento a
catena aperta che portano a sistemi a catena chiusa, la cui stabilità possa essere caratterizzata
dai margini di stabilità.
A tale scopo, conviene considerare le principali caratteristiche delle f.d.t. che descrivono i
sistemi di interesse pratico.
1. La f.d.t. può essere propria o strettamente propria. Nel primo caso, si ha
lim F ( j )  K F , dove K F è il fattore di trasferimento della funzione, mentre nel
 
secondo caso si ha lim F ( j )  0 .
 
2. La f.d.t. può avere poli con parte reale positiva, negativa o nulla. Nel primo e nel
secondo caso si ha lim F ( j )  K gF , mentre nel terzo caso si ha lim F ( j )   .
 0  0
3. La f.d.t. può essere a fase minima o non minima. Nel primo caso, la funzione non ha
zeri o poli a parte reale positiva, mentre nel secondo caso ha zeri o poli a parte reale
positiva.
4. La f.d.t. può avere poli a parte reale positiva o meno. Nel secondo caso per lo studio
della stabilità si ha P  0 , e la funzione è a fase minima se non ha zeri a parte reale
positiva.
5. Se la f.d.t. è a fase minima, il guadagno ha lo stesso segno del fattore di trasferimento.
Se la f.d.t. è a fase non minima guadagno e fattore di trasferimento potrebbero avere
segno opposto.
33

6. Il diagramma polare corrispondente alla f.d.t. può non avere intersezioni con il semiasse
reale negativo, oppure può averne una o più. Nel caso in cui ne abbia una, il sistema può
essere a stabilità regolare o meno.
7. Il diagramma polare corrispondente alla f.d.t. può non avere intersezioni con il cerchio
di raggio unitario centrato nell’origine del piano, oppure averne una o più. Nel caso in
cui ne abbia una, il sistema a catena chiusa caratterizzato a catena aperta dalla f.d.t. in
questione ha un solo margine di fase.

Il Criterio di Bode che segue fornisce condizioni necessarie e sufficienti perché i margini di
stabilità forniscano informazioni sia sulla stabilità del sistema, che sulla robustezza della
stabilità stessa in presenza di variazioni parametriche, per una classe di funzioni di
trasferimento a catena aperta di sistemi a catena chiusa. Prima di studiare il Criterio di Bode,
conviene fornire i risultati che seguono.

Lemma 10.4.1 Condizione sufficiente affinché un sistema a controreazione sia


asintoticamente internamente stabile è che F ( s ) non abbia poli a parte reale positiva ( P  0 ),
e il diagramma polare completo della F ( j ) sia tutto all’interno della circonferenza di raggio
unitario del piano di Nyquist della F ( j ) stessa.

Lemma 10.4.2 Condizione sufficiente affinché un sistema a controreazione tale che F ( s ) non
abbia poli a parte reale positiva ( P  0 ), sia asintoticamente internamente stabile è che il
diagramma polare completo della F ( j ) non contenga il punto critico.

Criterio di Bode. Un sistema a controreazione caratterizzato da una f.d.t. a catena aperta F ( s )


tale che:

1. sia strettamente propria;


2. il corrispondente diagramma polare abbia una sola intersezione con il semiasse reale
negativo (un solo margine di guadagno), cioè il sistema a catena chiusa sia a stabilità
regolare;
3. il diagramma di Nyquist della f.d.t. F ( j ) abbia una sola intersezione con il cerchio di
raggio unitario (un solo margine di fase);
4. sia priva di poli con parte reale positiva ( P  0 );

è asintoticamente stabile internamente se e solo se i margini di stabilità sono entrambi


positivi.

Prova La necessità si dimostra tenendo conto che i margini di stabilità, definiti per sistemi a
stabilità regolare e con un solo margine di fase, misurano la distanza di un modello LTI
asintoticamente stabile internamente dalle condizioni per cui si ha il passaggio alla instabilità.
Quindi, assumendo il margine di guadagno espresso in dB, nel caso di sistemi asintoticamente
stabili internamente sono entrambi positivi per definizione.
Occorre, adesso, dimostrare la sufficienza nelle ipotesi 1-4. L’ipotesi che F ( s ) sia
strettamente propria implica che il F ( j ) converge a zero per    . L’ipotesi che il
margine di fase sia ben definito, cioè esista un’unica pulsazione di attraversamento del
cerchio di raggio unitario da parte del diagramma polare della F ( j ) , implica che tale
modulo sia maggiore di uno per valori di  da 0 a t . Tale intersezione avviene dall’esterno
verso l’interno del cerchio unitario, nel primo o secondo quadrante oppure nel terzo o quarto
quadrante. L’ipotesi di sistema a stabilità regolare implica che per portare il sistema al limite
34

di stabilità occorre aumentare il guadagno a catena aperta fino a che si abbia F ( j )  1 . Le
succitate ipotesi implicano che il diagramma polare completo della F ( j ) , per  che va da
 a  , non contiene il punto critico e, quindi, risulta T  0 . L’ipotesi P  0 implica che
P  T , da cui segue l’asintotica stabilità interna del sistema a catena chiusa.
L’importanza della ipotesi di stabilità regolare emerge chiaramente dalle situazioni
illustrate negli esempi che seguono.

Esempio 10.4.1 Si consideri la situazione descritta nelle figure 10.4.6-10.4.8, che si


riferiscono alla funzione:

(s  1)( s  2)
F ( s )  0.8 . (10.4.7)
s3

Nella Fig. 10.4.6 è riportato il diagramma di Bode della funzione (10.4.7), da cui si deduce
che il sistema ha un solo margine di guadagno pari a mg  1.7 e un solo margine di fase
dB
pari a m  5 , ma i segni di tali margini sono opposti. In assenza dell’ipotesi di stabilità
regolare, si dovrebbe concludere che il sistema a catena chiusa sia instabile. Invece, la
semplice applicazione del criterio di Nyquist mostra che il sistema risulta asintoticamente
internamente stabile.
Per provare quanto detto, si consideri il diagramma polare della funzione F ( j ) illustrato
in Fig. 10.4.7. Al fine di studiare la stabilità del sistema a catena chiusa con la f.d.t. a catena
aperta (10.4.7), si consideri il corrispondente diagramma polare completo di Fig. 10.4.8. In
tale figura sono indicati:
Bode Diagram
200

150

100 System: Gp
System: Gp
Frequency (rad/s): 2.41
50 Frequency (rad/s): 6.73
Magnitude (dB): 15.6
Magnitude (dB): 0.0672
0

-50
-90
System: Gp
Frequency (rad/s): 2.42
Phase (deg): -180 System: Gp
-180 Frequency (rad/s): 6.73
Phase (deg): -140

-270
10-2 10-1 100 101 102 103
Frequency (rad/s)
Fig. 10.4.6 Diagrammi di Bode della f.d.t. (10.4.7)
35

105
Nyquist Diagram
1.5

0.5

System: F
-0.5
Real: -8.08e+03
Imag: -1.06e+05
Frequency (rad/s): -0.0663
-1

-1.5
-10000 -8000 -6000 -4000 -2000 0 2000
Real Axis
Fig. 10.4.7 Diagramma di Nyquist della f.d.t. (10.4.7)

Nyquist Diagram
1

0.8

0.6

0.4 System: F
Real: -7.17
0.2 Imag: 0.544
Frequency (rad/s): 2.23
0

-0.2

-0.4

-0.6

-0.8

-1
-8 -7 -6 -5 -4 -3 -2 -1 0 1
Real Axis
Fig. 10.4.7 Diagramma di Nyquist della f.d.t. (10.4.7), nell’intorno del punto -1.

 il cerchio di raggio unitario C


 il diagramma di Nyquist per valori positivi di 
 il punto A di intersezione del diagramma di Nyquist con il semiasse reale negativo
 il diagramma di Nyquist per valori negativi di 
 i tre semicerchi di raggio infinito che raccordano i due succitati diagrammi di
Nyquist da 0 a 0 (percorsi III, IV, V)
 il vettore rappresentativo della funzione D( j ) centrato nel punto critico del piano

Il numero di giri che il vettore rappresentativo della D( j ) centrato nel punto critico del
piano risulta dalla seguente Tabella 1.

Tabella 1
Percorso Numero di giri corrispondente
Percorso I,  da  a t +1 2
Percorso II,  da t a 0 1 4
36

Percorsi III e IV,  da 0  a 0  3 2


Percorso V,  da 0 a t 1 4
Percorso VI,  da t a  +1 2
Numero complessivo di giri, T 0

0
IV
V
I

III A

VI1
C
II

0

Fig. 10.4.8 Diagramma polare completo qualitativo della f.d.t. (10.4.7)

Ne consegue che T  P  0 e il sistema a catena chiusa è stabile.

Esempio 10.4.2 Si consideri, adesso, il sistema a catena chiusa avente la f.d.t. a catena aperta
data da:

F ( s )  10000
 s  10 s  20  s  5 . (10.4.8)
 s  0.1 s  0.5 s  0.2  s  1000 
I diagrammi di Bode della f.d.t. a catena aperta F ( j ) , illustrati nella Fig. 10.4.9, mostrano
che il sistema a catena chiusa ha un solo margine di fase per t  104 rad/sec, e due
attraversamenti del semiasse negativo, per  1  0.484 e   4.601 , con margini di
guadagno entrambi negativi. Senza l’ipotesi di sistema a stabilità regolare, il sistema sarebbe
instabile. Tuttavia, l’applicazione del criterio di Nyquist, che può essere effettuata
considerando la sequenza di diagrammi di Fig. 10.4.10 a), b), c) e d), mostra che il sistema è
asintoticamente internamente stabile. Infatti, considerando il diagramma polare di Fig.
10.4.10, e applicando il criterio di Nyquist, il numero di giri che il vettore rappresentativo
della funzione D( j ) , centrato nel punto critico del piano e con estremo sulla curva polare,
risulta pari al doppio della somma di 0.5 (cfr. d)), -0.5 (cfr. c), b), a)), -0.5 ( cfr. a)), +0.5 (cfr.
b), c), d)), e quindi pari a zero. Poiché P  0 , il sistema risulta asintoticamente stabile
internamente.
37

Ciò non contrasta con il criterio di Bode, poiché la F ( j ) presenta due intersezioni con il
semiasse negativo e, quindi, l’ipotesi di stabilità regolare non è soddisfatta.

Magnitude (dB)
Phase (deg)

Fig. 10.4.9 Diagramma di Bode della f.d.t. (10.4.8)


Imaginary Axis

a) Diagrama polare completo

Nyquist Diagram
104
6

System: F
2 Real: -1.5e+03
Imag: 857
Frequency (rad/s): 1.82
0

-2

-4

-6
-5 -4 -3 -2 -1 0 1
Real Axis 104
b) Diagramma polare per   0.631
38

Nyquist Diagram
600

400

System: F
200 Real: -183
Imag: 12.2

Imaginary Axis
Frequency (rad/s): 4.34
0

-200

-400

-600
-2000 -1500 -1000 -500 0 500
Real Axis
c) Diagramma polare per   1.82

Nyquist Diagram
60

40 System: F
Real: -183
Imag: 12.2
20 Frequency (rad/s): 4.34
Imaginary Axis

-20

-40

-60
-200 -150 -100 -50 0
Real Axis
d) Diagramma polare per   4.34

Fig. 10.4.10 Diagramma polare completo della f.d.t. (10.4.8)

Esempio 10.4.3 Si consideri, adesso, il sistema a catena chiusa avente la f.d.t. a catena aperta
data da:

F ( s )  10000
 s  0.1 s  0.5 s  0.2  . (10.4.9)
 s  10  s  20  s  5 s  1000 
L’esame della Fig. 10.4.11 mostra che la F ( j ) corrispondente alla (10.4.9) attraversa due
volte sia l’asse reale negativo, sia il cerchio di raggio unitario centrato nell’origine del piano.
Le fasi della f.d.t. in corrispondenza alle due pulsazioni di attraversamento, t1  5.71 e
t 2  1.02 104 , risultano opposti in segno e quindi i margini di fase sono dati da
m1  180  F ( jt1 )  180  167  13 e m 2  180  F ( jt 2 )  180  84.3  95.7 . I
39

due attraversamenti dell’asse reale negativo si hanno per  1  0.484 e  2  4.54 , e i


margini di guadagno corrispondenti sono mg1  55 e mg 2  4.03 .
db db
L’esame della Fig. 10.4.12 mostra che il sistema è asintoticamente stabile internamente,
poiché il diagramma di Nyquist completo non contiene il punto critico e, quindi, risulta
T  0.
L’esame della Fig. 10.4.13 mostra che il diagramma di Nyquist parte dal punto del
semiasse reale positivo di coordinate ( K gF , 0 ) e termina nell’origine con fase 90 . Infine,
l’esame della Fig. 10.4.14 mostra una parte del diagramma polare che è utile per evidenziare
l’andamento dello stesso diagramma polare.

System: F Bode Diagram


20 Frequency (rad/s): 5.71
Magnitude (dB): 0.232
0
System: F
System: F
-20 Frequency (rad/s): 4.57
Frequency (rad/s): 1.02e+04
Magnitude (dB): -0.252
Magnitude (dB): -4.03
-40

-60
System: F
Frequency (rad/s): 0.482
-80 Magnitude (dB): -55 System: F
270 Frequency (rad/s): 4.54
Phase (deg): 180
180
System: F System: F
Frequency (rad/s): 0.484
90 Frequency (rad/s): 5.71
Phase (deg): 180 Phase (deg): 167
System: F
0 Frequency (rad/s): 1.04e+04
Phase (deg): -84.3
-90
10-2 100 102 104
Frequency (rad/s)
Fig. 10.4.11 Diagrammi di Bode della f.d.t. (10.4.9)

Nyquist Diagram
8

0
System: F
Real: 9.75
-2 Imag: -0.0618
Frequency (rad/s): 189

-4

-6

-8
-2 0 2 4 6 8 10
Real Axis
Fig. 10.4.12 Diagramma di Nyquist della f.d.t. (10.4.9), per valori positivi di 
40

10-4
Nyquist Diagram
4

System: F
0 Real: 9.17e-05
Imag: 5.53e-05
Frequency (rad/s): 0.0334

-1

-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5


Real Axis 10-3

Fig. 10.4.13 Diagramma di Nyquist della f.d.t. (10.4.9), per valori di  prossimi a zero e a  .

Nyquist Diagram
1

0.8

0.6

0.4 System: F
Real: -0.633
0.2 Imag: 0.00395
Frequency (rad/s): 4.58
0

-0.2

-0.4

-0.6

-0.8

-1
-2 -1.5 -1 -0.5 0
Real Axis
Fig. 10.4.14 Diagramma di Nyquist della f.d.t. (10.4.9), nell’intorno del punto critico

Con riferimento ai sistemi a stabilità condizionata e ai sistemi con più margini di fase, vale
quanto prima detto a proposito dei sistemi con una sola intersezione con il semiasse reale
negativo e con il cerchio di raggio unitario, purché ci si limiti a considerare il sistema al limite
di stabilità soltanto nel caso peggiore. Più precisamente, con riferimento ai sistemi a stabilità
condizionata (cfr. Fig. 10.3.4), si consideri il sistema al limite di stabilità solamente se C
coincide con il punto critico, mentre per un sistema con più margini di fase (cfr. Fig. 10.4.15)
si consideri ancora il caso C al fine di definire il sistema al limite di stabilità.

Fig. 10.4.15 Esempio di funzione a catena aperta con tre intersezioni con il cerchio unitario
41

Sistemi con ritardo


Come già detto in precedenza, nel caso in cui la f.d.t. di un sistema presenta un forte
eccesso di poli su zeri, il tempo all’emivalore risulta elevato poiché la risposta al gradino si
stabilisce nel sistema dopo un certo intervallo di tempo. In questi casi è utile modellare il
sistema con un ritardo di tempo finito, oltre che con i poli più significativi e il guadagno. Ciò
accade, ad esempio, nella modellazione di un processo chimico o termico in cui spesso si
associa al sistema reale un modello della forma:

e  s
G p ( s)  K p , (10.4.10)
(1  sT )

dove  , T e K p sono, rispettivamente, il ritardo finito, la costante di tempo e il guadagno del


processo.
I diagrammi di Bode della f.d.t. (10.4.10) sono illustrati nella Fig. 10.4.16, e mettono in
luce che il termine esponenziale non influisce sul modulo. Per quanto concerne la fase, il
termine esponenziale produce infiniti attraversamenti del semiasse reale negativo e questo è
evidente anche in Fig. 10.4.16, dove sono evidenziati due attraversamenti alle frequenze 3.31
e 62.9 rad/s. Come detto in precedenza, con riferimento all’attraversamento del semiasse reale
negativo, il punto che si considera per definire il limite di stabilità è quello che corrisponde
alla frequenza  1  3.31 rad/s. Il sistema ha un solo margine di fase alla pulsazione
t  2.17 rad/s, pari a m  15 , mentre il margine di guadagno significativo è dato da
mg  7.23 . In base al Criterio di Bode esteso come detto in precedenza, il sistema a catena
db
chiusa avente f.d.t. a catena aperta (10.4.10) è asintoticamente stabile internamente con un
grado di stabilità molto basso dovuto prevalentemente al margine di fase.
La stabilità del sistema a catena chiusa emerge anche dal diagramma polare completo di
Fig. 10.4.18, che mostra che tale diagramma non contiene il punto critico e, quindi, il sistema
risulta asintoticamente internamente stabile.

Bode Diagram
50

0
System: G
System: G
Frequency (rad/s): 2.17
Frequency (rad/s): 3.31
Magnitude (dB): -0.323
-50 Magnitude (dB): -7.23

-100
0

-180
System: G System: G
Frequency (rad/s): 2.17 Frequency (rad/s): 3.29
-360 Phase (deg): -165 Phase (deg): -180

-540

-720
10-3 10-2 10-1 100 101 102
Frequency (rad/s)
Fig. 10.4.17 Diagrammi di Bode corrispondenti alla f.d.t. (10.4.10). K p  50,   0.1 s, T  10 s .
42

Nyquist Diagram
30

20

10

System: G
-10 Real: 41.6
Imag: -19.7
Frequency (rad/s): 0.042
-20

-30
-10 0 10 20 30 40 50
Real Axis

Fig. 10.4.18 Diagramma polare completo corrispondente alla f.d.t. (10.4.10). K p  50,   0.1 s, T  10 s

Si noti, adesso, che assumendo   0.5 s , il diagramma polare completo della f.d.t. a catena
aperta diviene quello di Fig. 10.4.19. Tale diagramma mostra che T  2, P  0 e quindi il
sistema a catena chiusa è instabile.
Quest’ultimo esempio mostra che un ritardo di tempo superiore a un certo valore, nella
propagazione dei segnali sulla linea di azione diretta, può rendere instabile il corrispondente
sistema a catena chiusa.

Nyquist Diagram
30

20

10

-10

-20

-30
-10 0 10 20 30 40 50
Real Axis

Fig. 10.4.19 Diagramma polare completo corrispondente alla f.d.t. (10.4.10). K p  50,   0.5 s, T  10 s .

Sistemi a fase non minima con P  0


I sistemi a fase non minima con P  0 sono, come detto, quei sistemi descritti da f.d.t. aventi
zeri a parte reale positiva. Lo studio della stabilità di tali sistemi può essere effettuata
mediante il criterio di Nyquist. Si vuole verificare se vale il Criterio di Bode. A tale scopo, si
consideri il seguente esempio.

Esempio 10.4.4 Si consideri il sistema descritto dalla f.d.t. data da:


43

sz
F (s)  K F , (10.4.11)
(s  p1 )(s p2 )

con K F  0.5, z  0.8, p1  0.1, p2  1 , i cui diagrammi di Bode e polare completo sono
illustrati nella Fig. 10.4.20 e 10.4.21, rispettivamente.
Bode Diagram
20

0
System: F
-20 Frequency (rad/s): 0.408
Magnitude (dB): -0.095

-40

-60
180
System: F
Frequency (rad/s): 0.407
90 Phase (deg): 54.6

-90
10-3 10-2 10-1 100 101 102
Frequency (rad/s)
Fig. 10.4.20 Diagrammi di Bode alla f.d.t. (10.4.11).

Nyquist Diagram
2.5

1.5

0.5

-0.5

-1
System: F
-1.5 Real: 0.529
Imag: -0.953
-2 Frequency (rad/s): -0.366

-2.5
-4 -3 -2 -1 0 1
Real Axis
Fig. 10.4.21 Diagramma polare completo corrispondente alla f.d.t. (10.4.11).

L’esame dei diagrammi di Bode di Fig. 10.4.20 mostra che esiste un unico margine di fase
pari a circa 54.6° per t  0.407 rad/s , e che il margine di guadagno è infinitamente grande,
essendo la fase della F ( j ) tendente asintoticamente a 180 . Il diagramma di Bode per
valori positivi di  non ha nessuna intersezione con il semiasse reale negativo, ma parte da
un punto di tale asse, per   0 , di ascissa pari a K gF  4 , e per    tende
all’origine essendo F ( s ) strettamente propria. Poiché K gF  1 , il diagramma polare
completo della F ( j ) contiene il punto critico, T  1 , e il sistema è instabile. Anche in
44

questo caso, l’ipotesi di sistema a stabilità regolare viene violata e il Criterio di Bode non può
essere applicato.
Per stabilizzare il sistema in questione, ocorre ridurre il guadagno a catena aperta in modo
che risulti K gF  1 . A tal fine, si consideri la f.d.t. F (s )  KF (s ) , con F (s ) data dalla
(10.4.11) e K  1 / 8 . Il diagramma polare completo, riportato nella Fig. 10.4.22, è contenuto
nel cerchio di raggio unitario, e il sistema a catena chiusa caratterizzato dalla f.d.t. a catena
aperta F ( j ) è asintoticamente internamente stabile.

Nyquist Diagram
0.4

0.3

0.2

0.1

-0.1

-0.2

-0.3

-0.4
-1 -0.8 -0.6 -0.4 -0.2 0 0.2
Real Axis

Fig. 10.4.22 Diagramma polare completo corrispondente alla f.d.t. F ( j ) .

Esempio 10.4.5 Si consideri il sistema descritto dalla f.d.t. data da:

( s  z1 )( s  z2 )
F ( s)  K F , (10.4.12)
(s  p1 )(s  p2 )(s  p3 )

con K F  0.5, z1  0.8, z 2  2, p1  0.1, p2  1, p3  5 , i cui diagrammi di Bode e polare


completo sono illustrati nella Fig. 10.4.23 e 10.4.24, rispettivamente.
Bode Diagram
20
System: F
0 Frequency (rad/s): 4.91
System: F Magnitude (dB): -22.3
-20 Frequency (rad/s): 0.126
Magnitude (dB): 0.000818

-40

-60

-80
540

System: F
360 Frequency (rad/s): 0.127 System: F
Phase (deg): 467 Frequency (rad/s): 4.92
Phase (deg): 180
180

0
10-3 10-2 10-1 100 101 102 103
Frequency (rad/s)
Fig. 10.4.23 Diagrammi di Bode alla f.d.t. (10.4.12).
45

Nyquist Diagram
1.5

0.5

-0.5
System: F
Real: 0.235
Imag: -0.516
-1 Frequency (rad/s): -0.272

-1.5
-2 -1.5 -1 -0.5 0 0.5
Real Axis
Fig. 10.4.24 Diagramma polare completo corrispondente alla f.d.t. (10.4.12).

L’esame della Fig. 10.4.23 mostra che il margine di guadagno è positivo, ma il margine di
fase è negativo, pari a m  180  467  287  0 . Essendo le 4 ipotesi del Criterio di Bode
verificate, il sistema a catena chiusa è instabile. Ciò è anche evidente dall’andamento del
diagramma polare completo di Fig. 10.4.24, il quale mostra che T  1 .

Sistemi a fase minima


Per sistemi a fase minima, per i quali si possa ritenere valida la seguente relazione
approssimata fra modulo e fase, in corrispondenza alla pulsazione di attraversamento, data da:

  d F ( j ) dB 
F ( jt )    , (10.4.5)
40  d log 
  t

è possibile giudicare qualitavamente la stabilità del sistema a catena chiusa in base alla
pendenza del diagramma dei moduli in corrispondenza alla pulsazione di attraversamento.
Assumendo infatti P  0 , per il Teorema 10.2 la condizione necessaria e sufficiente per la
stabilità è che risulti:

  d F ( j ) dB 
F ( jt )      ,
40  d log 
  t

ovvero che:

 d F ( j ) dB 
   40 dB/dec . (10.4.6)
 d log   t
46

10.5 Legame fra il comportamento di un sistema, i margini di stabilità e la pulsazione di


attraversamento

Il margine di fase e la pulsazione di attraversamento caratterizzano il comportamento


transitorio di un sistema di controllo semplice del secondo ordine, a catena chiusa. Con
riferimento al sistema a catena chiusa di Fig. 10.5.1, si ha:

G (s) n2
W (s)   2 , 10.5.1)
1  G ( s ) s  2n s  n2

che, com’è noto, è la funzione di trasferimento di un sistema semplice del secondo ordine.

U + Y
G (s)

n2
Fig. 10.5.1 Sistema semplice del secondo ordine: G ( s )  .
s (s  2n )

Il margine di fase e la pulsazione di attraversamento del sistema di Fig. 10.5.1, sono dati
da:

t  n 1  4 4  2 2 , (10.5.2)

 1  4 4  2 2
m   arctan . (10.5.3)
 2

L’esame della (10.5.2) mostra che, a parità di  , t è proporzionale a n e, quindi è una


misura della prontezza di risposta. L’esame della (9.5.3) mostra che il margine di fase dipende
esclusivamente da  e, quindi, è una misura della precisione dinamica. Una relazione
approssimata fra m e  , che può essere ottenuta per   0.707 , è data da:

  0.01m .

10.6 Criterio di Nyquist per sistemi a più anelli di controreazione

Lo studio della stabilità asintotica interna di sistemi con più anelli di controreazione, può
essere effettuato applicando ripetutamente il criterio di Nyquist a partire dall’anello più
interno. Considerato, ad esempio, il sistema di Fig. 10.6.1, assorbendo l’anello interno, la cui
funzione di trasferimento W1 ( s) è data da:

G1 (s )
W1 (s )  ,
1  G1 (s ) H1( s )
47

U + Ud1 + Ud2 Y
G1

H1

H2

Fig. 10.6.1 Schema di controllo a due anelli di controreazione.

e il sistema di Fig. 10.6.1 si riduce a quello di Fig. 10.6.2.

U+ Y
W1
-
H2

Fig. 10.6.2 Schema di controllo di Fig. 10.6.1 con l’anello interno assorbito

Per tale sistema il criterio di Nyquist se e solo se TD2 ( j )  PF2 ( s ) , dove TD2 ( j ) è il numero
di giri della funzione differenza D2 ( j )  1  F2 ( j ) con F2 ( j )  W1 ( j ) H 2 ( j ) , e PF2 ( s )
è il numero di poli a parte reale positiva della funzione F2 ( s ) . Il calcolo di PF2 ( s ) può essere
effettuato applicando il principio dell’argomento all’anello interno di Fig. 10.6.1, riportato
nella figura 10.6.3, dalla relazione PF2 ( s )  Z D1 ( s )  TD1 ( j )  PF1 ( s ) , con F1 (s )  G1 (s ) H1 ( s ) e
D1 ( j )  1  F1 ( j ) .

G1

H1

Fig. 10.6.3 Anello interno dello schema di Fig. 10.6.1


48

Cap. 10 Comportamento in regime permanente e transitorio

Premessa - Il comportamento in regime permanente e transitorio di un sistema di controllo


viene studiato a partire dall’errore E ( s ) dato da:

E ( s )   K d  W ( s ) U (s )  Wz ( s ) Z ( s )  Eu ( s )  E z ( s ) , (10.1.1)

che coincide con la (9.1.21) assumendo n(t )  0 t  0 . Più precisamente, il comportamento


di un sistema di controllo viene valutato assumendo che:

1. il sistema sia asintoticamente internamente stabile;


2. il sistema evolva dallo stato zero;
3. i segnali di ingresso, cioè disturbi e segnali di comando, siano i segnali canonici dati
da:

tk
 ( k 1) (t )   1 (t ) , (10.1.2)
k!

4. nella prima fase di studio, sia presente uno solo dei segnali in gioco: per i sistemi di
asservimento sia presente il segnale di comando e non il disturbo, mentre per i sistemi
di regolazione sia presente il disturbo e non il segnale di comando.

10.1 Comportamento in regime permanente e transitorio dei sistemi di asservimento

In accordo al punto 4, lo studio del comportamento in regime permanente e transitorio dei


sistemi di asservimento viene sviluppato a partire dallo schema di controllo di riferimento
illustrato nella Fig. 10.1.1. Ovviamente, l’errore che si considera è quello dovuto
all’imperfetto legame funzionale ingresso-uscita, dato dalla (9.1.25) che si riporta di seguito
per comodità:

Eu ( s )   K d  W ( s ) U (s )  Weu ( s )U (s ) . (10.1.3),
dove:

Weu (s )  K d  W (s ) .

U (s) M (s) Y (s )
Gc ( s) G p (s)
+

H ( s)

Fig. 10.1.1 Schema di controllo di riferimento per un sistema di asservimento

10.1.1 Comportamento in regime permanente.

Il Comportamento in regime permanente viene effettuato a partire dall’errore finale così


definito.
49

Definizione 10.1.1 Si dice errore finale corrispondente a un segnale di comando di tipo


canonico di ordine k, la grandezza euk  lim eu (t ) dove eu (t ) è l’errore corrispondente al
t 
segnale di comando stesso. 

Per il teorema del valore finale, si ha:

1 Weu ( s )
euk  lim sEu (s )  lim sWeu ( s) k 1
 lim . (10.1.4)
s 0 s 0 s s 0 sk

Dal punto di vista del comportamento in regime permanente, i sistemi di asservimento


vengono classificati in tipi, in accordo alla seguente definizione.

Definizione 10.1.2 Un sistema di asservimentosi dice di tipo  se l’errore finale


corrispondente a un segnale di comando di ordine  risulta finito e diverso da zero. 

E’ facile dimostrare il seguente Teorema.

Teorema 10.1.1 Un sistema di asservimento è di tipo  se e solo se la funzione di


trasferimento dell’errore dovuto all’ingresso, Weu (s ) , ha uno zero di molteplicità 
nell’origine. 

Prova Dall’esame della (10.1.4) emerge che se Weu ( s ) ha uno zero di molteplicità 
nell’origine, allora eu  è finito e diverso da zero. Inoltre, eu  finito e diverso da zero implica
che Weu (s ) abbia uno zero di molteplicità  nell’origine. Infatti, se Weu (s ) avesse uno zero
nell’origine di molteplicità maggiore di  allora eu   0 , mentre se Weu ( s ) avesse uno zero
nell’origine di molteplicità minore di  allora eu    . 

Dal Teorema 10.1.1 emerge che:


 un sistema di asservimento di tipo  , sollecitato da un ingresso canonico di ordine
minore di  ha un errore finale nullo, il che implica che il sistema, a partire da un
certo istante di tempo, è in grado di inseguire perfettamente il segnale di comando;
 un sistema di asservimento di tipo  , sollecitato con un ingresso canonico di ordine
 , è in grado di inseguire asintoticamente il segnale di comando, ma con un errore
finito e diverso da zero;
 un sistema di asservimento di tipo  , sollecitato con un ingresso canonico di ordine
maggiore di  , non è in grado di inseguire il segnale di comando.

Adesso, nello spirito del legame diretto fra il comportamento dell’intero sistema e quello
delle singole parti di cui è costituito, conviene determinare condizioni per l’appartenenza di
un sistema al tipo  direttamente sulle funzioni G (s )  Gc (s )G p (s ) e H ( s ) . In proposito
conviene distinguere il caso dei sistemi a reazione proporzionale da quello dei sistemi a
reazione dinamica.
50

Sistemi a reazione proporzionale

Un sistema a reazione proporzionale è un sistema a controreazione (cfr. 10.1.1) nel quale


H ( s )  1 K d . Per tale sistema, la funzione Weu (s ) risulta:

K d2
Weu ( s)  K d  W (s )  , (10.1.5)
K d  G (s )

dove G (s )  Gc (s )G p (s ) e, pertanto, gli zeri della funzione Weu ( s ) coincidono con i poli
della funzione G (s ) . Si dimostra, allora, la seguante Asserzione.

Asserzione 1 Un sistema a reazione proporzionale è di tipo  se la funzione G ( s) ha un polo


di molteplicità  nell’origine. 

Per un sistema di tipo  , l’errore finale è dato da (cfr. (10.1.4)):

K d2
eu   lim Weu (s )  lim . (10.1.6)
s 0 s 0 K s   s  G ( s)
d

Poiché G( s) ha un polo di molteplicità  nell’origine, com’è noto, si ha lim s  G ( s) K gG


s 0
dove K gG è il guadagno della funzione G( s) . Ne consegue che:

 K d2
 ,  0
 K d  K gG
eu   . (10.1.7)
 K d2
 , 1
 K gG

La (10.1.7) mostra che l’errore finale diminuisce al crescere del guadagno della funzione di
trasferimento della linea di azione diretta.

Sistemi a reazione dinamica

Si assuma, adesso, che la retroazione sia dinamica e, cioè, che H ( s ) sia data da:

 j s j
j 0
H ( s)  P
. (10.1.8)
 js j

j 0

In tale caso, il fatto che la funzione G (s ) abbia un polo di molteplicità  nell’origine non
implica che il sistema sia di tipo  . Ciò può essere verificato osservando che la funzione
Weu (s ) ha uno zero di molteplicità  nell’origine se risulta:
51

dk
lim Weu ( s )  0, k  0,   1 , (10.1.9)
s 0 ds k

d
lim  Weu ( s )  0 e finito . (10.1.10)
s 0 ds

Assumendo che G (s ) abbia un polo nell’origine di molteplicità 1 e scrivendo tale funzione


come segue:

1
G (s )  G ( s ) , G (0)  0 ,
s

la funzione Weu ( s ) diviene:

G( s) G ( s )
Weu ( s)  K d  W (s )  K d   Kd  ,
1  G ( s) H (s) s  G ( s ) H (s )

e per s  0 , si ha:

G (0) 1
lim Weu ( s )  K d   Kd  . (10.1.11)
s 0 
G (0) H ( s ) H (0)

Ne consegue che il sistema è di tipo 0, a meno che il guadagno della funzione H ( s ) non
venga scelto pari a:
 1
H (0)  0  . (10.1.12)
 0 Kd

Osservazione 10.1.1 Si noti che la condizione (10.1.12), molto semplice da realizzare, è anche
semplice da mantenere nel tempo, poiché essa coinvolge parametri della funzione H ( s ) che,
come già detto, deve essere realizzata con tolleranze molto strette.
Assumendo, adesso, che G ( s ) abbia un polo nell’origine di molteplicità 2, ponendo:

1
G (s )  G ( s) 2 , G (0)  0
s

le condizioni per l’appartenenza del sistema di asservimento al tipo 2 sono date dalla
(10.1.12) e dalla relazione:
d
lim Weu (s )  0 . (10.1.13)
s 0 ds
Poiché risulta:

d d G (s )
Weu (s ) Weu(1) ( s)   
ds ds s 2  G ( s ) H ( s )


  
G (1) ( s) s 2  G ( s) H (s )  G ( s ) 2 s  G (1) ( s) H (s )  G ( s) H (1) ( s) , (10.1.14)
s 
2
2
 G ( s ) H (s )
52

si ottiene:

d
lim Weu ( s )  

G (1) (0)G (0) H (0)  G (0) G (1) (0) H (0)  G (0) H (1) (0)
 
H (1) (0)
.

 
s 0 ds 2 2

G (0) H (0) H (0)
(10.1.15)

Essendo inoltre:

L P L P

 j j s   j s    j s  j j s j 1
j 1 j j

j 1 j 0 j 0 j 1
H (1) ( s)  2
,
 P 

  js j 
 j 0 
 

si ha:

1 0   0 1
H (1) (0)  ,
 02

e la (10.1.13) diviene:

1 0   0 1
d  02 1 0   0 1
lim Weu ( s )   2
  0. (10.1.16)
s 0 ds
 0   02
 
 0 

Le (10.1.12) e (10.1.16) mostrano che la presenza di un polo doppio nell’origine nella


funzione di trasferimento della linea di azione diretta, G( s) , non implica che il sistema sia di
tipo 2. Tuttavia, se G (s ) ha un polo doppio nell’origine, le condizioni di appartenenza del
sistema al tipo  sono soddisfatte se e solo se risulta:

0 1
H (0)   , (10.1.17)
 0 Kd
1  0 1
  . (10.1.18)
1  0 Kd

Le (10.1.17) e (10.1.18) sono semplici da realizzare e da mantenere nel tempo per le stesse
motivazioni illustrate nella Osservazione 10.1.1.

10.1.2 Comportamento transitorio

Lo studio del comportamento transitorio viene effettuato assumendo che il segnale di


comando sia a gradino unitario. In tal caso, l’errore a regime risulta costante e pari all’errore
finale eu 0 . Ne consegue che l’errore transitorio è dato da:
53

eutr (t )  eu (t )  eu 0 , (10.1.19)

dove eu 0 è l’errore finale ed eu (t ) è l’errore complessivo dato da:

 1

eu (t )  L1  Eu ( s)   L1  K d  W ( s )   K d  w1 (t ), t  0 .
 s
(10.1.20)

Ne consegue che:

eutr (t )  K d  eu 0  w1 (t ), t  0 . (10.1.21)

Poiché lim eutr (t )  0 , si ha lim w1 (t )  K d  eu 0 .


t  t 

Ciò premesso, lo studio del comportamento transitorio dei sistemi di asservimento può
essere effettuato in due modi.
Nel primo vengono utilizzate le grandezze caratteristiche dell’errore transitorio e cioè il
tempo di salita, il tempo di formazione, la eventuale sovraelongazione, il tempo di
assestamento, il tempo all’emivalore e l’eventuale tempo al picco.
Nel secondo vengono impiegati gli indici di qualità. Tali indici permettono di valutare il
comportamento transitorio in maniera globale, in quanto sono dei funzionali che permettono
di associare un numero all’andamento dell’errore transitorio nell’intervallo  0,   .
L’espressione generale di un indice di qualità è la seguente:


J 0 f (etr (t ))t i dt , (10.1.22)

dove f (etr (t )) , denominata funzione importanza, pesa gli errori in relazione alla loro entità,
mentre t i , denominata funzione peso, pesa gli errori in relazione al tempo in cui si
manifestano.
Scegliendo come funzione importanza la funzione:

f (etr (t ))  etr2 (t ) , (10.1.23)

possono essere definiti i seguenti indici:


0 etr (t )dt ,
2
ISE  (10.1.24)

ITSE   etr2 (t )tdt . (10.1.25)
0

Scegliendo come funzione peso la funzione:

f (etr (t ))  etr (t ) , (10.1.26)


possono essere definiti gli indici:
54


IAE  0 etr (t ) dt , (10.1.27)

ITAE  0 etr (t ) tdt . (10.1.28)

L’impiego più interessante degli indici di qualità si ha nella sintesi di un sistema di


controllo. In tale ambito, il problema che ci si pone è quello di progettare un controllore in
modo tale da minimizzare l’indice di qualità prescelto.
L’indice più diffuso è l’indice ISE poiché può essere minimizzato per via analitica.
Tuttavia, la minimizzazione di tale indice porta a controllori troppo aggressivi. Infatti, la
funzione importanza di tipo quadratico penalizza fortemente gli errori elevati e,
conseguentemente, il controllore progettato minimizzando l’indice ISE tende a ridurre
rapidamente tali errori. Ciò comporta una elevata prontezza di risposta accompagnata, però,
da una elevata sovraelongazione e da una rilevante tendenza alle oscillazioni poiché, a causa
della elevata azione di controllo iniziale, l’uscita supera di molto il valore finale prima di
iniziare a diminuire; la riduzione dell’errore è ancora piuttosto rapida dovuta a una forte
azione di controllo, il che comporta una sottoelengazione dell’uscita. D’altra parte, poiché la
funzione importanza attribuisce poco peso agli errori piccoli, il tempo di assestamento può
risultare elevato.
Risultati migliori possono essere ottenuti con gli altri indici di qualità che, però, possono
essere minimizzati solamente per via numerica.

10.2 Comportamento in regime permanente e transitorio dei sistemi di regolazione

Lo studio del comportamento in regime permanente e transitorio dei sistemi di regolazione,


nell’ambito della teoria classica dei sistemi di controllo, viene effettuato assumendo che
l’ingresso sia costituito da un disturbo a gradino unitario. Lo schema di riferimento è quello
illustrato nella Fig. 10.1.2 e l’errore corrispondente è dato dalla 9.1.26 che si riporta di seguito
per comodità:

Ez ( s)  Wz (s ) Z ( s ) . (10.1.29)

10.2.1 Comportamento in regime permanente

Dal punto di vista del comportamento in regime permanente, i sistemi di regolazione si


suddividono in sistemi statici e astatici, in accordo alla seguente definizione.

Definizione 10.1.3 Un sistema di regolazione si dice statico o astatico rispetto a un disturbo a


gradino, a seconda che l’errore finale conseguente al disturbo sia, rispettivamente, finito e
diverso da zero o nullo. 

Teorema 10.1.2 Un sistema di regolazione è astatico se e solo se la funzione di trasferimento


disturbo-uscita presenta uno zero nell’origine. 

Prova L’errore relativo al disturbo è dato dalla (10.1.29); quindi l’errore finale ez 0 ,
corrispondente a un disturbo a gradino, risulta:

1
ez 0  lim sEz (s )   lim sWz (s )  Wz (0) . (10.1.30)
s 0 s 0 s

55

Z (s )
M (s ) + Y (s)
Gc ( s ) G p (s )
+ +

H (s)

Fig. 10.1.2 Schema di controllo di riferimento per un sistema di regolazione.

Conviene, adesso, determinare le condizioni da soddisfare perché il sistema sia astatico,


sulle funzioni associate alle singole parti del sistema stesso. In proposito, conviene osservare
che la funzione di trasferimento disturbo-uscita, con riferimento allo schema di Fig. 10.1.2, è
data da:

1
Wz (s )  .
1  F ( s)

Pertanto, il sistema è astatico se e solo se la funzione di trasferimento a catena aperta


F ( s )  Gc ( s )G p (s ) H (s ) ha un polo nell’origine. Escludendo che H ( s ) abbia un polo
nell’origine, perché altrimenti una grandezza di uscita costante produrrebbe una grandezza di
controreazione a rampa lineare, si deduce che il sistema di Fig. 10.1.2 è astatico se e solo se la
funzione Gc (s )G p (s ) ha un polo nell’origine.
Se il disturbo agisce all’ingresso della funzione di trasferimento G p (s ) , com’è facile
verificare, si ha:

G p ( s)
Wz (s )  . (10.1.31)
1  F ( s)

Osservando che gli zeri di Wz (s ) sono gli zeri di G p (s ) e i poli di Gc ( s ) H ( s ) , che H ( s ) non
può avere poli nell’origine e che G p (s ) non può avere zeri nell’origine, altrimenti l’uscita non
potrebbe risultare costante, si conclude che il polo nell’origine, che rende astatico l’intero
sistema, deve essere contenuto nella Gc ( s ) . Risulta quindi dimostrato il seguente risultato:

Teorema 10.1.3 Un sistema di regolazione è astatico se e solo se la funzione di trasferimento


della linea di azione diretta, che sta a monte del punto di ingresso del disturbo, presenta un
polo nell’origine. 

10.2.2 Comportamento transitorio

Lo studio del comportamento transitorio dei sistemi di regolazione si effettua assumendo


che il disturbo sia a gradino unitario, z (t )   1 (t ) . Tale studio si basa sul calcolo dell’errore
transitorio, in accordo alla seguente espressione:

eztr (t )  ez (t )  ez 0 , t  0 (10.1.32)
56

dove ez 0 è l’errore finale, che coincide con l’errore a regime , ed ez (t ) è l’errore complessivo
dato da:

 1
ez (t )  L1  Ez ( s )   L1  Wz (s )    wz, 1 (t ), t  0 . (10.1.33)
 s

Ne consegue che:

eztr (t )  ez 0  wz ,1 (t ), t  0 . (10.1.34)

Poiché lim eztr (t )  0 , si ha lim wz,1 (t )  eu 0 .


t  t 

Ciò premesso, lo studio del comportamento transitorio dei sistemi di regolazione si effettua
in modo analogo a quello dei sistemi di asservimento.
1

12. SINTESI DEI SISTEMI DI CONTROLLO

12.1 Introduzione

Come osservato in precedenza, un sistema di controllo è costituito dal sistema controllato,


al quale si vuole imporre il comportamento desiderato, e dal controllore che sviluppa le azioni
di controllo necessarie pe soddisfare gli obiettivi desiderati. Controllore e sistema controllato
sono opportunamente interconnessi fra loro, e l’interconnessione che fornisce risultati
migliori è quella a controreazione.
Il problema della sintesi dei sistemi di controllo consiste, quindi, nella scelta della struttura
e dei parametri della parte controllante da associare al sistema controllato in modo che il
sistema complessivo si comporti nel modo desiderato, sia in grado, cioè, di riprodurre i
segnali di comando, entro prefissati margini di tolleranza, contrastando gli effetti dei disturbi
e delle variazioni parametriche.

12.2 Strutture di controllo SISO

Com’è noto, una struttura di controllo semplice, ma di interesse, è quella a controreazione


con organi di correzione parte in cascata e parte in controreazione, illustrata nella Fig. 12.2.1.

Z (s)
U (s) M (s) + Y (s)
Gc ( s) G p (s)
+ +
+ +
N (s)
H (s)

Fig. 12.2.1 Schema a catena chiusa a un grado di libertà.

Nel caso in cui H ( s) 1 K d 1 , si ha:

F ( s) Gc ( s )G p ( s ) . (12.2.1)
F ( s)
W ( s) , (12.2.2)
1 F ( s)
1
Wz ( s) , (12.2.3)
1 F ( s)
F ( s)
Wn ( s) , (12.2.4)
1 F ( s)

mentre l’errore diviene:

E ( s) Kd W (s) U (s) Wz (s)Z (s) Wn (s) N (s) Eu (s) Ez (s) En (s) . (12.2.5)
2

Come già osservato, la struttura di Fig.12.2.1 è efficace quando il disturbo z (t ) ha un


contenuto armonico appartenente al campo dei valori di frequenza u 0, xu relativo al
segnale di comando u (t ) , e quando il contenuto armonico n in , xn del rumore di
misura n(t ) è confinato nella regione ad alta frequenza ( in xu ).
Se il contenuto armonico del disturbo non è contenuto in quello del segnale di comando,
occorre fare ricorso strutture di controllo a due gradi di libertà, come quella di Fig. 12.2.2. Si
noti che tale struttura è ancora a due gradi di libertà assumendo H ( s ) 1 .

Z (s)
M (s) + Y (s)
U (s)
Gu ( s) Gc ( s) G p (s)
+ +
+ +

H (s)

Fig. 12.2.2 Schema a catena chiusa a due gradi di libertà.

12.3 Sintesi per tentativi

Il metodo di sintesi per tentativi consiste nelle seguenti fasi:

1. scelta della struttura della parte controllante fra quelle più semplici ed efficienti;
2. determinazione dei parametri della parte controllante in modo da soddisfare le specifiche di
progetto, e utilizzando i legami diretti fra il comportamento del sistema complessivo e
quello delle sue singole parti;
3. verifica delle prestazioni ottenute;
4. eventuale modifica della struttura e/o dei parametri della parte controllante fino a
conseguire le prestazioni desiderate.

Con riferimento alla fase 1, si osservi che le strutture più semplici ed efficienti per ottenere
le prestazioni usualmente richieste sono quelle a controreazione a uno o due gradi di libertà,
riportate nelle Figg. 12.3.3 e 12.3.4 dove si è supposto K d 1 .
Z
U + Y
Gc (s) Gp (s) +
+ _

Fig. 12.3.3 Schema di correzione in cascata a un grado di libertà

Nello schema di Fig. 12.3.3, Gc ( s) è la f.d.t. del dispositivo di correzione data da


Gc ( s) KcGec (s) , dove K c è il guadagno del dispositivo di correzione e Gec ( s) è la f.d.t.
dell’elemento di correzione. Nello schema di Fig.12.3.4, Gc ( s) è la f.d.t. del dispositivo di
correzione il cui scopo è quello di contrastare gli effetti del disturbo, mentre Gu ( s) è la f.d.t.
3

del compensatore il cui scopo è quello di forzare il sistema a inseguire la grandezza di


comando.

Z
U + Y
Gu (s) Gc (s) Gp (s) +
+ _

Fig. 12.3.4 schema di correzione a due gradi di libertà

Con riferimento alla fase 2, la determinazione dei parametri del dispositivo di correzione
viene effettuata in modo tale che il sistema complessivo soddisfi le prestazioni desiderate.
Queste ultime vengono assegnate ispirandosi al criterio della soluzione parziale che, come
detto, consiste nell’isolare e trattare separatamente i diversi aspetti del comportamento del
sistema, ossia la stabilità, il comportamento in regime permanente e il comportamento
transitorio. Poiché i legami diretti relativi al comportamento transitorio sono piuttosto incerti,
affinché il procedimento di sintesi possa essere condotto a buon fine con un numero di
tentativi ragionevole, occorre assegnare le succitate specifiche in maniera non rigida.
La verifica delle prestazioni ottenute viene effettuata utilizzando i procedimenti di analisi
precedentemente studiati. In proposito va ricordato che, poiché le specifiche vengono, di
solito, assegnate sulla risposta al gradino, la valutazione del comportamento transitorio
richiede il calcolo della risposta al gradino relativa all’ingresso o al disturbo o delle relative
grandezze caratteristiche. Il calcolo della risposta al gradino può essere effettuato mediante il
luogo delle radici che permette il calcolo della espressione analitica della f.d.t. ingresso-uscita
o disturbo-uscita, mentre il calcolo delle grandezze grandezze caratteristiche della risposta al
gradino può essere effettuato in modo agevole utilizzando la carta di Hall o la carta di
Nichols.
Nel seguito verranno trattate separatamente la sintesi dei sistemi di asservimento e quella
dei sistemi di regolazione. Questa distinzione è dovuta al fatto che la parte controllante di un
sistema di regolazione, denominata regolatore, ha struttura fissa e parametri aggiustabili. Il
compito del progettista è allora quello di stabilire i valori dei parametri nel loro campo di
escursione. Per i sistemi di asservimento, invece, esiste una certa libertà di scelta della
struttura della parte controllante e la progettazione viene effettuata caso per caso.
Sia per i sistemi di asservimento che per quelli di regolazione, si farà riferimento allo
schema di correzione a reazione unitaria di Fig. 12.3.3. Successivamente, verranno illustrate
le modifiche per sistemi a reazione proporzionale con K d 1 .
Si noti, adesso che il metodo di sintesi per tentativi può essere sviluppato sia nel dominio
di s, sia nel dominio di . Verrà illustrato, dapprima, il metodo di sintesi per tentativi nel
dominio di , e successivamente quello nel dominio di s.

12.4 Sintesi per tentativi nel dominio di per i sistemi di asservimento

Con riferimento alla struttura di controllo SISO a un grado di libertà con H ( s) 1 / Kd 1,


si ha:

E ( s) S ( s) U ( s) Z ( s) C ( s) N ( s) , (12.4.1)
4

dove le funzioni di sensibilità e di sensibilità complementare, S (s) e C ( s) Wn ( s) , sono


date da:

1
S (s) , (12.4.2)
1 F ( s)
F (s)
C (s) . (12.4.3)
1 F ( s)
con:
S (s) C (s) 1 , (12.4.4)

essendo:
F ( s) Gc ( s)G p ( s) .

12.4.1 Loop shaping

Il metodo di sintesi denominato loop shaping consiste nella scelta della f.d.t. del
dispositivo di controllo la Gc ( s) in modo da “sagomare” la f.d.t. a catena aperta F ( j ) come
segue:
a) F ( j ) 1, u;
b) F ( j ) 1, in ;
c) la regione di transizione xu , in sia sufficientemente stretta, ma con una adeguata scelta
della pulsazione di attraversamento e della pendenza del diagramma dei moduli, tale da
garantire la stabilità del sistema a catena chiusa;
d) la grandezza m(t ) non sia tale da sollecitare troppo l’attuatore che pilota il sistema
controllato.

Progettando Gc ( s) in modo tale che F ( j ) 1, u , si ha:

S( j ) 1, u , (12.4.5)
C( j ) 1, C( j ) 0, u. (12.4.6)

e quindi il sistema è in grado di riprodurre i segnali di comando con contenuto armonico u ,


attenuare fortemente i disturbi con contenuto armonico appartenente a u . Inoltre,
progettando Gc ( s) in modo tale che F ( j ) 0 rapidamente per xu il sistema è in
grado di filtrare adeguatamente il rumore sovrapposto al segnale di comando utile. Infine, se
F ( s ) è strettamente propria e tale che F ( j ) 1, in , il sistema è anche in grado di
attenuare gli effetti del rumore di misura il cui contenuto armonico è confinato nella regione
in .
Nella Fig. 12.4.1 è illustrato un andamento ammissibile della funzione F ( j ) . Assumendo
i limiti F ( j ) 1 e F( j ) 1 pari, rispettivamente a F ( j ) 100 ( F ( j ) dB 40 ) e
F( j ) 0.01 ( F ( j ) dB 40 ), il sistema a catena chiusa è in grado di riprodurre
5

fedelmente segnali di comando con contenuto armonico nell’intervallo 0,0.01 rad/s,


attenuare gli effetti di disturbi con contenuto armonico appartenente a tale intervallo e
attenuare gli effetti del rumore di misura con contenuto armonico 8.62, rad/s.
Nella Fig. 12.4.2 è riportata la risposta in frequenza corrispondente alla f.d.t. di Fig. 12.4.1.

10
Fig. 12.4.1 Diagrammi di Bode della funzione F ( s ) .
s( s 1)( s 10)

Bode Diagram
50
System: W
Frequency (rad/sec): 1.31
Magnitude (dB): -3.02
0
Magnitude (dB)

-50 System: W
Frequency (rad/sec): 8.68
Magnitude (dB): -40

-100

-150
0

-90
Phase (deg)

System: W
Frequency (rad/sec): 1.3
-180
Phase (deg): -128

-270
-3 -2 -1 0 1 2
10 10 10 10 10 10

Frequency (rad/sec)

10
Fig. 12.4.2 Risposta in frequenza del sistema a catena chiusa corrispondente a F ( s ) .
s( s 1)( s 10)
L’esame della Fig. 12.4.2 conferma quanto già osservato in precedenza, cioè che il sistema
a catena chiusa è in grado di riprodurre fedelmente segnali di comando con contenuto
armonico nell’intervallo 0,0.1 rad/s. Infatti, in tale intervallo di frequenze, il modulo e
6

la fase della risposta in frequenza sono, rispettivamente, costante e pari a 1 e praticamente


nulla.
La f.d.t. a catena chiusa corrispondente alla risposta in frequenza di Fig. 12.4.2, e i relativi
poli sono dati da:
10
W ( s) 3 2
,
s 11s 10s 10

p1 10.1086, p2 0.4457 j 0.8892, p3 p2* .

Si osservi che il passaggio dalla condizione F ( j ) 1 a quella F ( j ) 1 avviene in


circa tre decadi, da 0.01 a 8.62 rad/s. Agendo sulla funzione Gc ( s) si potrebbe ridurre tale
intervallo di frequenze riducendo la pulsazione di attraversamento t , pari a circa 0.8 rad/s
nell’esempio di Fig. 12.4.1. Aggiungendo ad esempio un ulteriore polo per s 0.02 e un
guadagno tale da mantenere inalterato il guadagno di partenza, si ha la situazione descritta
nella Fig. 12.4.3.
L’esame della Fig.12.4.3 mette in luce che il passaggio dalla condizione F ( j ) 1 a
quella F ( j ) 1 avviene in circa due decadi, da 0.01 a 1, ma il sistema a catena chiusa
diviene instabile; infatti, il margine di fase risulta pari a 2 in corrispondenza a una
pulsazione di attraversamento pari a 0.142 rad/s.
La ragione di questa situazione è che esiste un limite superiore alla pendenza del
diagramma dei moduli in corrispondenza alla pulsazione di attraversamento. Com’è noto, tale
limite può essere facilmente determinato per la classe dei sistemi la cui funzione di
trasferimento a catena aperta sia a fase minima, e che abbia pendenza del modulo
sufficientemente costante nell’intorno di due decadi centrate sulla pulsazione di
attraversamento stessa. In tal caso, la pendenza in questione, valutata per t , è data da:

d F ( j ) db
40 dB/decade . (12.4.7)
d log10 ( )
t
7

Bode Diagram

System: Gp
Frequency (rad/sec): 0.141
40
Magnitude (dB): -0.0805
0

-40

Magnitude (dB)

-90

-180
Phase (deg)

System: Gp
Frequency (rad/sec): 0.148
Phase (deg): -182

-270

-360
-3 -2 -1 0 1 2 3
10 10 10 10 10 10 10

Frequency (rad/sec)

0.2
Fig. 12.4.3 Diagrammi di Bode della funzione F ( s) .
s( s 0.02)( s 1)( s 10)

Come già osservato, il sistema a catena chiusa corrispondente alla f.d.t. a catena aperta di
Fig. 12.4.3 risulta instabile. L’instabilità è dovuta alla coppia di poli complessi e coniugati a
parte reale leggermente positiva presenti nella f.d.t. a catena chiusa data da:

0.2
W ( s) 4 3
,
s 11.02s 10.22s 2 0.2s 0.2
i cui poli sono:
p1 1.0021, p2 10.1997, p3 0.0009 j0.1399, p4 p3* .

La risposta in frequenza non esiste poiché il sistema è instabile, e la risposta al gradino


unitario del sistema a catena chiusa è illustrata nella Fig. 12.4.4 che, ovviamente, diverge.
Step Response
5

2
Amplitude

-1

-2

-3
0 500 1000 1500

Time (sec)

0.2
Fig. 12.4.4 Risposta al gradino del sistema a catena chiusa corrispondente a F ( s) .
s( s 0.02)( s 1)( s 10)
8

12.4.2 Sintesi per tentativi basata su specifiche assegnate sulla risposta al gradino o sulla
risposta in frequenza.

Un modo semplice di sagomare la F ( j ) in modo da ottenere prestazioni soddisfacenti, è


quello di tradurre le specifiche di progetto in specifiche sulla F ( j ) stessa, e di progettare il
dispositivo di correzione in modo che siano soddisfatte tali specifiche.

12.4.2.1 Fasi in cui si articola il metodo

Il metodo di sintesi per tentativi nel dominio di , basato su specifiche assegnate sulla
risposta al gradino o sulla risposta in frequenza, si articola nelle seguenti fasi.

1. Traduzione delle specifiche di progetto usualmente assegnate sulla risposta al gradino in


specifiche sulla risposta in frequenza del sistema a catena chiusa.
2. Traduzione delle specifiche assegnate sulla risposta in frequenza in specifiche assegnate
sulla f.d.t. a catena aperta F ( j ) .
3. Determinazione della Gc ( j ) in modo da soddisfare le specifiche sulla F ( j ) .
4. Verifica delle specifiche di progetto assegnate sulla risposta al gradino.
5. Se la verifica di cui al punto 4 non ha dato esito positivo, si ripercorrono i passi 1-4.

La traduzione delle specifiche di progetto dalla risposta al gradino alla risposta in


frequenza viene effettuata ricorrendo ai legami globali. In proposito, si osservi che tali legami
hanno una struttura tale da consentire il calcolo delle grandezze caratteristiche della risposta al
gradino a partire da quelle della risposta in frequenza. Pertanto, al fine di poterli utilizzare per
la traduzione delle specifiche in questione occorre operare con una certa forzatura. Ad
esempio, a partire dai legami seguenti, validi per sistemi a controreazione con f.d.t. a catena
aperta avente da due a cinque poli di cui uno o due nell’origine, dati da:

B
S log10 1.5M r , (12.4.10)
B6
B
B6ta ,5% 2.16M r 0.4 , (12.4.11)
B6
e dal legame:
1 S 0.85M r , (12.4.12)

conoscendo le specifiche sulla sovraelongazione e sul tempo di assestamento, è possibile


ottenere specifiche sull’ampiezza di risonanza e sulla banda passante, come segue:

B
dalla (12.4.10) si ottengono vincoli su M r ;
B6
B
dalla (12.4.11), noti ta ,5% e M r ,si ottengono vincoli su B6 ;
B6
B
dalla (12.4.12), si determina M r e, successivamente, e B.
B6
9

La traduzione delle specifiche sulla risposta in frequenza in specifiche sulla f.d.t. a catena
aperta F ( j ) può essere effettuata, in modo semplice, assumendo che la f.d.t. del sistema
controllato soddisfi le ipotesi previste dal criterio di Bode. In tal caso, infatti, i segni positivi
di m g ed m costituiscono condizioni necessarie e sufficienti per la stabilità, e m può essere
considerato come misura della precisione dinamica, oltre che una misura del grado di stabilità
del sistema a catena chiusa.
La traduzione da M r a m può essere effettuata utilizzando i luoghi a M e costanti.
Con riferimento alla Fig. 12.4.7, ammettendo che il vincolo su M r sia dato da M r [1,3] dB ,
i punti di intersezione dei luoghi a M 1 e a M 3 con l’asse 0 dB forniscono vincoli
inferiore e superiore sul margine di fase. In particolare, si ha m [42 ,53 ] .
La prontezza di risposta può essere caratterizzata dalla pulsazione di attraversamento, la
quale è legata alla banda passante a 3 dB dalla relazione:

t [3B,5B] , (12.4.13)
dove B è la banda passante in Hz.
Ovviamente, i succitati legami sul comportamento transitorio, sono noti con un rilevante
margine di incertezza.
La traduzione delle specifiche inerenti il comportamento a regime risulta, invece, semplice
e priva di incertezze. Infatti, l’appartenenza di un sistema a un determinato tipo implica un
ben definito numero di poli nell’origine nella F ( s ) , mentre la specifica sull’errore finale
implica un ben definito limite inferiore sul guadagno della F ( s ) stessa.
Nel caso in cui la f.d.t. del sistema controllato abbia poli a parte reale positiva ( P 0 ) il
margine di fase non è più indicativo né della stabilità né della precisione dinamica. Tale caso
verrà trattato nel seguito.

12.4.2.2 Azioni elementari di correzione

Con riferimento alla scelta della Gc ( s) , le azioni elementari di correzione utilizzate sono le
azioni attenuatrice, anticipatrice e combinata. Denotando con Gec ( s) la f.d.t. dell’azione
elementare di correzione, il dispositivo di correzione ha la struttura che segue,
Gc ( s) KcGec (s) .

Azione attenuatrice. Viene utilizzata nei casi in cui è necessario attenuare il modulo della
f.d.t. a catena aperta F ( j ) . La f.d.t. di un elemento di correzione ad azione attenuatrice è
caratterizzata da una coppia polo-zero, con il polo più vicino all’origine, ed è data da:

mr
s
1 r
Gecr ( s) . (12.4.14)
mr s 1
r

I diagrammi di Bode della funzione:


10

r
1 j
mr
Gecr ( j ) , (12.4.15)
1 j r

Nichols Chart
20
1 dB -1 dB

15

3 dB
10

-3 dB
6 dB
5
Open-Loop Gain (dB)

0 -6 dB

-5

-12 dB
-10

-15

-20 dB
-20
-180 -170 -160 -150 -140 -130 -120 -110 -100 -90 -80 -70 -60 -50 -40 -30 -20 -10 0.0
Open-Loop Phase (deg)

5
Fig.12.4.7 Diagramma di Nichols della funzione .
s( s 1)( s 5)

sono riportati nella Fig. 12.4.8. L’esame della Fig. 12.4.8 mostra che l’elemento di correzione
Gecr ( j ) fornisce attenuazione al modulo a partire dal punto di rottura relativo al polo; la
massima attenuazione è pari a 20 log mr . Inoltre, l’elemento in questione fornisce un ritardo
di fase indesiderato, da una decade prima del punto di rottura relativo al polo a una decade
dopo il punto di rottura relativo allo zero.
11

Diagramma di Bode
40

20
Modulo M [db]

-20

-40

-60
-1 0 1 2 3
10 10 10 10 10

90
Fase [gradi]

45

-45

-90
-1 0 1 2 3
10 10 10 10 10
Pulsazione [rad/s]

Fig. 12.4.8 Diagrammi di Bode di un elemento di correzione Gecr ( j ) : r 0.5 , mr 10 .

Reti elettrica e meccanica caratterizzate da una f.d.t. del tipo Gecr ( s ) , sono illustrate nella Fig.
12.4.9 e 12.4.10. Il massimo valore di mr è pari a 16.
Il controllore Gc (s) KcGecr (s) , e il guadagno è dato da K c .

Azione anticipatrice. In generale, viene utilizzata quando è necessario introdurre un anticipo


di fase nella f.d.t. a catena aperta F ( j ) . La f.d.t. di un elemento di correzione ad azione
anticipatrice è caratterizzata da una coppia zero-polo, con lo zero più vicino all’origine, ed è
data da:

1
s
Ta
Geca ( s ) . (12.4.16)
ma
s
Ta

R1

R2
U (s) Y ( s)
C2
12

R1 R2
Fig. 12.4.9 Rete elettrica descritta da una f.d.t. (12.4.14) con mr , r mr R2C2 .
R2

U (s)
K1

Y ( s)
B2

K2

K1 K2 B2
Fig. 12.4.10 Rete meccanica descritta da una f.d.t. (12.4.14) con mr , r mr .
K2 K2

I diagrammi di Bode della funzione:

1 1 1 j Ta
Geca ( j ) Geca ( j ) , (12.4.17)
ma ma 1 j Ta
ma

sono riportati nella Fig. 12.4.11. L’esame della Fig. 12.4.11 mostra che l’elemento di
correzione Gecr ( j ) fornisce un anticipo di fase, da una decade prima del punto di rottura
relativo allo zero a una decade dopo il punto di rottura relativo al polo. Inoltre, l’elemento in
questione fornisce una attenuazione al modulo, pari a 20log ma , da 0 al punto di rottura
relativo allo zero, che può essere utilizzato per migliorare il comportamento a regime del
sistema .
Reti elettrica e meccanica caratterizzate da una f.d.t. del tipo Geca ( s ) , sono illustrate nella
Fig. 12.4.12 e 12.4.13. Il massimo valore di ma è pari a 16.
13

Diagramma di Bode
60

40
Modulo M [db]

20

-20

-40
-1 0 1 2 3
10 10 10 10 10

90
Fase [gradi]

45

-45

-90
-1 0 1 2 3
10 10 10 10 10
Pulsazione [rad/s]

Fig. 12.4.11 Diagrammi di Bode di un elemento di correzione Geca ( j ) : Ta 0.5 , ma 10 .

C1

R1
U (s) R2 Y (s)

R1 R2
Fig. 12.4.12 Rete elettrica descritta da una f.d.t. (12.4.16) con ma , a R1C1 .
R2

U (s)
B1 K1

Y ( s)
K2

K1 K2 B1
Fig. 12.4.13 Rete meccanica descritta da una f.d.t. (12.4.16) con ma , a .
K1 K1
14

Il controllore Gc (s) KcGeca (s) , e il guadagno è dato da K c ma .

Azione combinata anticipatrice-attenuatrice. In generale, viene utilizzata quando occorre


introdurre sia un’attenuazione nel modulo, sia un anticipo di fase nella F ( j ) . La f.d.t. di un
elemento di correzione ad azione combinata è caratterizzata da una coppia polo-zero-zero-
polo, ed è data da:

m 1
s s
r Ta
Gecra ( s) . (12.4.18)
1 m
s s
r Ta

1 m 1 m
con . I diagrammi di Bode della funzione:
r r Ta Ta

r
1 j
Gecra ( j ) m 1 j Ta , (12.4.19)
1 j r 1 j Ta
m

sono riportati nella Fig. 12.4.14.

Diagramma di Bode

50
Modulo M [db]

-50

-1 0 1 2 3 4
10 10 10 10 10 10

90
Fase [gradi]

45

-45

-90
-1 0 1 2 3 4
10 10 10 10 10 10
Pulsazione [rad/s]

Fig. 12.4.14 Diagrammi di Bode di un elemento di correzione Gecra ( j ) : Ta 0.02 , m 10 , r 0.5 .


15

L’esame della Fig. 12.4.11 mostra che l’elemento di correzione ad azione combinata è in
grado di introdurre sia un anticipo di fase sia un’attenuazione nel modulo della F ( j ) ,
sebbene in due intervalli diversi di valori di .
Reti elettrica e meccanica caratterizzate da una f.d.t. del tipo Gecra ( s) , sono illustrate nella
Fig. 12.4.15 e 12.4.16. Il massimo valore di ma è pari a 16.

C1

R1
R2
U(s) Y(s)
C2

Fig. 12.4.15 Rete elettrica descritta da una f.d.t. (12.4.19) con r R1C1 , Ta R2C2 , T12 R1C2 ,

r Ta T12 ( r Ta T12 )2 4 r Ta
m .
2 r

U(s)
B1 K1

B2 Y(s)

K2

Fig. 12.4.16 Rete meccanica descritta da una f.d.t. (12.4.19) con , r B1 K1 , Ta B2 K2 , T12 B2 K1 ,
2
r Ta T12 ( r Ta T12 ) 4 r Ta
m .
2 r

Il controllore Gc (s) KcGecra ( s) , e il suo guadagno è dato da K c .

Diagrammi universali

Per agevolare il procedimento di sintesi, sono stati costruiti i diagrammi del modulo e della
fase della funzione:
1 j
Gun ( j ) , (12.4.20)
j
1
m
in funzione di log( ) per diversi valori di m. I diagrammi in questione sono riportati nelle
Figg. 12.4.17 e 12.4.18.
16
17
18

12.4.2.3 Scelta della struttura del dispositivo di correzione

Con riferimento allo schema illustrato nella Fig. 12.4.19, la scelta della struttura e il
calcolo dei parametri del dispositivo di correzione vengono effettuati in modo tale da
soddisfare le specifiche sulla f.d.t. a catena aperta F ( j ) . Le specifiche in questione sono
assegnate come segue:

m m , (12.4.21)
t t, (12.4.22)
K gF K gF , (12.4.23)
sistema di tipo “ ” (12.4.24)

Si desidera, inoltre, un margine di guadagno almeno pari a 6 dB e che tali specifiche siano
soddisfatte quanto più possibile prossime al segno di uguaglianza.

Nelle ipotesi fatte, e cioè che la f.d.t. del sistema controllato non abbia poli a parte reale
positiva, e che siano soddisfatte le ipotesi previste nel criterio di Bode, i segni positivi dei
margini di fase e di guadagno sono condizioni necessarie e sufficiente di stabilità, e il margine
di fase caratterizza la precisione dinamica. Inoltre, la pulsazione di attraversamento
caratterizza la prontezza di risposta, il tipo di sistema definisce i segnali canonici che il
sistema a catena chiusa è in grado di inseguire con errore finale nullo o finito e diverso da
zero, e il guadagno della f.d.t. a catena aperta caratterizza il valore massimo dell’errore finale
stesso.
Ciò premesso, la scelta della struttura del dispositivo di correzione può essere effettuata in
accordo alla seguente procedura per passi.

1
1. Si definisce una funzione G p ( s) G p (s) , dove il numero di poli che occorre
s
aggiungere alla funzione G p ( s ) per soddisfare la specifica (12.4.24) sul tipo di sistema.
2. Si scelgono i valori della pulsazione di attraversamento e del guadagno, ˆt e ˆ gF , nei
rispettivi intervalli (12.4.22) e (12.4.23) previsti dalle specifiche di progetto.
3. Si tracciano i diagrammi di Bode della funzione G p ( j ) e si impongono le condizioni su
tale funzione e sulla f.d.t del dispositivo di correzione a guadagno unitario Gˆ ( j ) , in c
modo da poter soddisfare le specifiche di progetto. Tali condizioni sono:

Gˆ c ( j ˆt )G p ( j ˆt ) 180 sgn Gˆ c ( j ˆt )G p ( j ˆt ) m , (12.4.25)

Gˆ c ( j ˆ t ) G p ( j ˆt ) ˆ
gF dB gp dB . (12.4.26)
dB dB

Con riferimento alla (12.4.25), occorre anzitutto precisare che il contributo alla fase fornito
dalla funzione Gˆ c ( j ) non è tale da alterare il segno della fase complessiva, rispetto a quello
della fase della funzione G ( j ) . Si ha cioè sgn Gˆ ( j ˆ )G ( j ˆ ) sgn G ( j ˆ ) Le
p c t p t p t
19

condizioni (12.4.25) e (12.4.26) assicurano, rispettivamente, di poter ottenere il margine di


fase e il comportamento a regime desiderati.
Più precisamente, la (12.4.25) afferma che scegliendo opportunamente Gˆ c ( j ˆt ) è
possibile conseguire il desiderato margine di fase in corrispondenza della pulsazione di
attraversamento desiderata. Dalla definizione di margine di fase, è noto che affinché il sistema
abbia il margine di fase desiderato, occorre che ˆt sia pulsazione di attraversamento. In
proposito, la (12.4.26) afferma che tale risultato si ottiene aggiungendo alla funzione
Gˆ c ( j )G p ( j ) un guadagno, Kt* Gˆ c ( j ˆt )G p ( j ˆt ) , maggiore o uguale a quello
dB dB
necessario per soddisfare la specifica sull’errore a regime. Infatti, si ha
Kt* Kˆ gF K gp , il che implica che il guadagno a catena aperta risulti
db db db

K gF Kt* K gp Kˆ gF . Ne consegue che le due condizioni (12.4.25) e (12.4.26)


db db db db
sono sufficienti per soddisfare tutte le specifiche di progetto. Dalle (12.4.25) e (12.4.26) si
ottengono i contributi al modulo e alla fase che il dispositivo di correzione a guadagno
unitario deve essere in grado di fornire.
4. Si sceglie il tipo di azione correttrice in accordo alle seguenti situazioni:
a. Gˆ c ( j ˆ t ) 0 , occorre impiegare l’azione attenuatrice;
dB
b. Gˆ c ( j ˆt ) 0 , occorre impiegare l’azione anticipatrice;
c. Gˆ c ( j ˆt ) 0 e Gˆ c ( j ˆ t ) 0 , potrebbe bastare l’azione anticipatrice;
dB

d. Gˆ c ( j ˆt ) 0 e Gˆ c ( j ˆ t ) 0 , potrebbe bastare l’azione attenuatrice;


dB
e. ovviamente, se le situazioni a. e b. sono contemporaneamente verificate, occorre
utilizzare l’azione combinata.

Dispositivo di
correzione
U Y
Gc (s) Gp (s)
+ _

Fig.12.4.19 Schema di controllo a catena chiusa.

12.4.2.4 Calcolo dei parametri del dispositivo di correzione

Dimensionamento del dispositivo di correzione ad azione attenuatrice

Il dispositivo in questione è descritto dalla f.d.t.:

r
1 j
mr
Gc ( j ) KcGecr ( j ) K gc . (12.4.27)
1 j r
20

Tale dispositivo introduce un’attenuazione nel modulo della f.d.t. a catena aperta e, nel
contempo, un ritardo di fase. Ovviamente, il dimensionamento del dispositivo è giustificato
dal fatto che la procedura descritta in precedenza per la scelta del tipo di azione correttrice ha
dato come risultato Gˆ c ( j ˆ t ) 0 e Gˆ c ( j ˆt ) 0 , entrambi ottenuti dalle (12.4.26) e
dB
(12.4.25), rispettivamente.
Nel caso in questione, si ha Gˆ c ( j ) Gecr ( j ) . Il dimensionamento del dispositivo di
correzione ad azione attenuatrice verrà effettuato in due passi; nel primo verrà dimensionato
l’elemento di correzione a guadagno unitario Gecr ( j ) , mentre nel secondo passo verrà
determinato il guadagno K gc . Il procedimento suggerito è il seguente.

1. Si determina l’attenuazione richiesta mediante la relazione (cfr. (12.4.26)):

Gecr ( j ˆt ) dB G p ( j ˆt ) Kˆ gF K gp . (12.4.28)
dB db db

2. Utilizzando i diagrammi universali, si determina il valore di mr in modo tale che


l’elemento di correzione sia in grado di fornire l’attenuazione richiesta.
3. Si determina r in modo che sia soddisfatta la (12.4.25). Più precisamente, determinato il
valore di r in corrispondenza al quale vale la (12.4.25), si valuta r mediante la
relazione:

ˆt r r. (12.4.29)

5. Si tracciano i diagrammi di Bode della funzione Gecr ( j )G p ( j ) e si determina il valore


del guadagno K t* da associare a tale funzione, in modo tale che ˆt sia pulsazione di
attraversamento.
Il sistema progettato è illustrato nella Fig. 12.4.20. Tale sistema ha le seguenti prestazioni:
Margine di fase: m
Pulsazione di attraversamento: ˆt
Sistema di tipo
Guadagno a catena aperta:

K gF = Kt* + K gp ³ Kˆ gF - K gp + K gp = Kˆ gF
dB dB dB dB dB dB dB

U Y
Kt*Gecr ( j ) Gp ( j )
+ _

Fig. 12.4.20 Schema a blocchi del sistema progettato.


21

6. Si determina il valore del guadagno K c del dispositivo di correzione, considerando che il


sistema di Fig. 12.4.19 risulta equivalente a quello di Fig. 12.4.20 se si sceglie K gc Kt*
(vedi anche la (12.4.27)).

Dimensionamento del dispositivo di correzione ad azione anticipatrice

Il dispositivo in questione è descritto dalla f.d.t.:

1 1 j a "
Gc ( j ) K cGeca ( j ) Kc K gcGeca ( j ), (12.4.30)
ma 1 j a
ma
dove K gc K c ma è il guadagno del dispositivo di correzione. Tale dispositivo introduce un
anticipo di fase e un’attenuazione nel modulo della f.d.t. a catena aperta. Ovviamente, il
dimensionamento del dispositivo è giustificato dal fatto che la procedura descritta in
precedenza per la scelta del tipo di azione correttrice ha dato come risultato Gˆ c ( j ˆt ) 0 e
Gˆ ( j ˆ )
c t 0 , entrambi ottenuti dalle (12.4.25) e (12.4.26).
dB
Nel caso in questione, si ha Gˆ c ( j ) G ''eca ( j ) , mentre il guadagno del dispositivo di
correzione è K gc . Il dimensionamento del dispositivo di correzione ad azione anticipatrice
verrà effettuato in due passi; nel primo verrà dimensionato l’elemento di correzione Gˆ ( j ) , c
mentre nel secondo passo verrà determinato il guadagno K gc . Il procedimento suggerito è
quello che segue.

1. Mediante i diagrammi universali, si determina ma in modo che l’elemento di correzione a


guadagno unitario sia in grado di fornire l’anticipo di fase richiesto e, successivamente, si
determinano i valori di a , a1 o a 2 a1 , in corrispondenza ai quali l’elemento di
correzione fornisce detto anticipo di fase.

3. Si sceglie il valore di a che soddisfa la condizione sul modulo data da:

Gˆ c ( j ˆ t ) G p ( j ˆt ) Kˆ gF K gp . (12.4.31)
dB dB dB dB

Se entrambi i valori di soddisfano la (12.4.32), si sceglie a 2 cui corrisponde il


a
massimo valore del modulo di Gˆ ( j ) e quindi il minimo valore di guadagno addizionale
c
che dovrà essere aggiunto per soddisfare le specifiche di progetto. Si determina Ta
mediante la relazione:
ˆtTa a. (12.4.32)

4. Si tracciano i diagrammi di Bode della funzione Gˆ c ( j )G p ( j ) e si determina il valore


del guadagno K t* in modo tale che ˆt sia pulsazione di attraversamento.
22

5. Si verifica se il guadagno a catena aperta K gF dato da K gF Kt* K gp soddisfa la


db db db
specifica di progetto.
6. Se la verifica di cui al punto 5 è positiva, si calcola il guadagno del dispositivo di
correzione in modo tale che il sistema progettato, riportato nella Fig. 12.4.21, sia
equivalente a quello di Fig. 12.4.19. Perché ciò accada, basta imporre la relazione
Kc
K gc Kt* , dalla quale si ricava K c . In caso contrario, occorre effettuare altri
ma
tentativi.

U Y
Kt*Gˆ c ( j ) Gp ( j )
+ _

Fig. 12.4.21 Schema del sistema di controllo progettato

Dimensionamento del dispositivo di correzione ad azione combinata

La f.d.t. del dispositivo di correzione ad azione combinata è data da:

r
1 j
Gcra ( j ) K cGecra ( j ) K gcGecr ( j )Geca ( j ) m 1 j Ta ,
K gc
1 j r 1 j Ta
m
(12.4.33)
dove K gc K c . Ovviamente, il dimensionamento del dispositivo è giustificato dal fatto che la
procedura descritta in precedenza per la scelta del tipo di azione correttrice ha dato come
risultato Gˆ c ( j ˆt ) 0 e Gˆ c ( j ˆ t ) 0 , entrambi ottenuti dalle (12.4.25) e (12.4.26). Nel
dB

caso in esame, si ha Gˆ c ( j ) Gecra ( j ) .


I passi per il dimensionamento del dispositivo in questione sono di seguito illustrati.

1. A partire dalla (12.4.25), osservando che Gˆ c ( j ) Gecr ( j )Geca ( j ) , si determina


l’anticipo di fase che deve fornire la sezione anticipatrice Geca ( j t ) , stimando in circa -5
gradi il contributo di fase fornito dalla sezione attenuatrice. Tale anticipo di fase è dato da:

Geca ( j ˆt ) Gecr ( j ˆt ) Gˆ p ( j ˆt ) 180 sgn Gecr ( j ˆt ) Gˆ p ( j ˆt ) m ,


(12.4.34)

2. Si sceglie un valore di m in modo tale che la sezione anticipatrice Geca ( j ) sia in grado di
fornire l’anticipo richiesto, e che la sezione attenuatrice Gecr ( j ) sia in grado di fornire
l’attenuazione richiesta, calcolata mediante la (12.4.26), compensando il contributo
positivo al modulo fornito dalla sezione anticipatrice.
23

3. Si calcola della sezione anticipatrice mediante la relazione ˆt a


a a1 ( ˆ t a a 2 ), e

r della sezione attenuatrice mediante la relazione ˆ t r r , dove r è un valore di in


corrispondenza al quale il ritardo di fase fornito dalla sezione attenuatrice è di 5°.
6. Si tracciano i diagrammi di Bode della funzione Gˆ c ( j )G p ( j ) e si determina il valore
del guadagno K t* in modo tale che ˆt sia pulsazione di attraversamento.
7. Se le specifiche sono tutte soddisfatte si determina il valore del guadagno K gc del
dispositivo di correzione mediante la relazione K gc Kt* .
Se le specifiche non sono soddisfatte, occorre effettuare altri tentativi.

12.4.2.5 Sintesi per tentativi per sistemi con poli a parte reale positiva ( P 0 )

Come già detto, se il sistema controllato è instabile per la presenza di poli a parte reale
positiva, il margine di fase non è più indicativo della stabilità del sistema e, pertanto, non è
possibile progettare direttamente il controllore nel dominio di , poiché il segno del margine
di fase non è più indicativo della stabilità e, quindi, il valore del margine di fase non è
indicativo della robustezza della proprietà di stabilità stessa.
In tale situazione, è possibile costruire un sistema di controllo, come quello illustrato nella
Fig. 12.4.23, costituito da un anello di controllo interno che ha lo scopo di stabilizzare il
sistema, e da un anello esterno che ha lo scopo di ottenere prestazioni statiche e dinamiche
desiderate. L’anello interno può essere progettato mediante il luogo delle radici, mentre
l’anello esterno può ancora essere progettato mediante le tecniche nel dominio della frequenza
precedentemente illustrate. Più precisamente, la f.d.t. Gc1 ( s) verrà progettata, mediante il
luogo delle radici, in modo da stabilizzare l’anello interno, mentre la f.d.t. Gc 2 ( s ) verrà
progettata in modo da soddisfare specifiche di progetto espresse nel dominio della frequenza
utilizzando i diagrammi di Bode.

U1
U Y
+
Gc2 (s) Gc1 (s) Gp (s)
+ _ _

Fig. 12.4.23 schema di controllo a due anelli.

Esempio 1 Progettare un sistema di controllo a catena chiusa per un sistema controllato


descritto dalla f.d.t.:

100 10
G p ( s) ,
( s 1)( s 10) (1 0.1s)(1 s)

in modo da soddisfare le seguenti specifiche: a) sistema stabile con m m 45 ; b)


t t 6 rad/s ; c) sistema di tipo 1 con errore finale eu1 0.2 .
24

Sintesi Il diagramma polare della f.d.t. G p ( j ) è illustrato nella Fig. 12.4.24. L’esame di tale
figura mostra che non esistono valori di guadagno da associare alla G p ( j ) in modo da
stabilizzare il sistema a catena chiusa costruito attorno alla f.d.t. stessa. Poiché P 1 , occorre
progettare un dispositivo di correzione tale che il numero di giri della funzione
D( j ) 1 F ( j ) 1 Gc1 ( j )G p ( j ) attorno al punto critico del piano di Nyquist della
F ( j ) sia pari a +1. Uno di tali dispositivi è costituito da Gc1 ( j ) Kc1 1 illustrato nella
Fig. 12.4.25.

Fig. 12.4.24 Diagramma polare della f.d.t. G p ( j )

Infatti, il diagramma polare della f.d.t. a catena aperta del sistema di Fig. 12.4.44 diviene
quello di Fig. 12.4.26. L’esame di tale figura mostra che risulta T 1 e, quindi, che il
sistema a catena chiusa risulta stabile.

U1 Kc1G p ( j ) Y

+ _

Fig. 12.4.25 Anello di controllo costruito attorno al processo a guadagno unitario.

Ai fini della sintesi del sistema di controllo conviene, allora, aggiungere un guadagno tale
da rendere stabile l’anello di controllo interno e, nel contempo, che i poli della f.d.t. di tale
anello siano in posizione opportuna per conseguire le specifiche di progetto dell’intero
sistema stesso
.
25

Fig.12.4.26 Diagramma polare della f.d.t. Kc1Gp ( j )

A tal fine conviene tracciare il luogo positivo delle radici dell’equazione:

100
1 Gc1 ( s)G p ( s) 1 K .
( s 1)( s 10)

Il luogo in questione è riportato nella Fig. 12.4.27. L’esame di tale figura mostra che per
K 0.506 i poli a catena chiusa sono complessi e coniugati con 0.708 e n 6.36 .
Conviene allora scegliere Kˆ p 0.506 . Il corrispondente diagramma polare della funzione
Kˆ pG p ( j ) è riportato nella Fig. 12.4.28. L’esame di tale figura mostra che l’anello interno è
stabile ( T 1 ).

100
Fig.12.4.27 Luogo positivo delle radici della funzione 1 K
( s 1)( s 10)
26

Nyquist Diagram
2.5

1.5

0.5

Imaginary Axis
0

-0.5
System: Gp
Real: -0.907
-1 Imag: -1.29
Frequency (rad/sec): 2.91

-1.5

-2

-2.5
-6 -5 -4 -3 -2 -1 0
Real Axis

Fig.12.4.28 Diagramma polare della f.d.t. 0.506Gp ( j )

Con la scelta effettuata, la f.d.t. dell’anello interno risulta:

50.6 50.6
G p1 ( s) .
( s 4.5 j 4.5)( s 4.5 j 4.5) s2 9s 40.5

Sintesi dell’anello esterno di controllo

Si consideri la f.d.t. data da:

G p1 ( j ) K gp1
G p1 ( j ) ,
s s2
s (1 2 ns 2
)
n
dove 0.706 , n 6.37 e K gp1 50.6 / 40.5 1.25 , e il polo nell’origine è stato aggiunto
alla G p1 ( s ) al fine di ottenere un sistema di tipo1. I diagrammi di Bode della G p1 ( j ) sono
illustrati nella Fig. 12.4.29. Le specifiche di progetto sono:

m m 45 , t t 6 , K gF K gF 14 dB .
dB dB

Poiché la fase della G p ( j ˆt ) è negativa, Le condizioni da soddisfare perché il problema di


sintesi ammetta soluzione sono:

Gˆ c ( j ˆt ) G p ( j ˆt ) 180 m , (12.4.25)
Gˆ c ( j ˆ t ) G p ( j ˆt ) ˆ
gF dB gp1 dB . (12.4.26)
dB dB

Scegliendo ˆ t t , ˆF F dB , si ha G p1 ( j ˆ t ) 16.25 dB e G p1 ( j ˆt ) 176 ,


dB dB
da cui:

Gˆ c ( j ˆt ) 135 176 41 , (12.4.41)


Gˆ c ( j ˆ t ) (14 2) 16.25 4.25 dB . (12.4.42)
dB
27

Fig.12.4.29 Diagrammi di Bode della funzione G p1 ( j ) .

Le specifiche sul controllore mostrano che le specifiche potrebbero essere soddisfatte con
la sola azione anticipatrice. Per verificare se ciò è possibile, dai diagrammi universali si
ottiene che le specifiche sul controllore (12.4.41) e (12.4.42) possono essere quasi soddisfatte
per ma 6 e a 1.4 . Infatti, per tale valore di a si ha Gˆ c ( j a ) 4.5 dB , leggermente
dB
maggiore di quello richiesto. Supponendo accettabile il conseguente peggioramento delle
prestazioni ottenute, rispetto a quelle richieste, il controllore Gˆ c ( j ) risulta:

1 j Ta
Gˆ c ( j ) , ma 6, Ta 0.234 s ,
Ta
1 j
ma

con ma 6 e Ta 0.234 s . I diagrammi di Bode della f.d.t. Fˆ ( j ) Gˆ c ( j )G p1 ( j ) sono


riportati nella Fig. 12.4.30. Si deduce che il guadagno da associate a F ( j ) affinché la
pulsazione di attraversamento sia pari a t 6 è dato da K t* 12 dB . Ne consegue che
dB
K gc
K t* , e quindi K gc ma Kt* =24.
ma

Fig. 12.4.30 Diagrammi di Bode della Fˆ ( j ) .


28

Le risposte al gradino e alla rampa lineare del sistema a catena chiusa sono illustrate nelle
Figg. 12.4.31 e 12.4.32. L’andamento delle risposte mostra che le specifiche a regime sono
soddisfatte.

1.4

ingresso
1.2 risposta

1
rispost indiciale

0.8

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
t [s]

Fig.12.4.31 Risposta al gradino

1.8
ingresso
1.6 risposta

1.4
risposta alla rampa

1.2

0.8

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
t [s]

Fig. 12.4.32 Risposta alla rampa lineare.


1

12.5 Sintesi per tentativi nel dominio di s

Il metodo di sintesi per tentativi nel dominio di s presenta difficoltà rispetto a quella nel
dominio di  , per i seguenti motivi:

a) non esistono, in generale, legami globali fra grandezze della risposta indiciale e grandezze
della f.d.t. a catena chiusa W ( s) ;
b) non esistono, legami o relazioni empiriche che permettono di tradurre le specifiche sulla
f.d.t. a catena chiusa W ( s) in specifiche sulla f.d.t. a catena aperta F ( s ) .

Il problema di cui al punto a) viene risolto ammettendo che la W ( s) abbia una coppia di
poli complessi coniugati dominante p1,2 =   j = −n  jn 1 −  2 . Tali poli vengono
scelti all’interno di un settore che viene determinato a partire dalle specifiche di progetto che
vengono assegnate come segue:

SS , (12.5.1)
tr  tr , (12.5.2)
ta ,  ta , (12.5.3)
tipo  , (12.5.4)
F  F . (12.5.5)

La procedura per la determinazione del succitato settore è costituita dai seguenti passi.

1) A partire dalla massima sovraelongazione ammissibile, si determina il valore minimo


ammissibile per  , denotato con  . Poiché deve risultare    , i poli dominanti devono
giacere all’interno delle semirette che formano con i semiassi positivo e negativo dell’asse
immaginario, un angolo pari a  = sin −1 ( ) (cfr. Fig. 12.5.1).

j
β

Fig. 12.5.1 Settore ammissibile: compreso fra le semirette.

2) A partire dalla specifica sul tempo di assestamento (12.5.3), osservando che per sistemi
con poli dominanti a catena chiusa si ha:

ln(1  )
ta,  , (12.5.6)

2

dove  assume, usualmente, valori pari a 0.02 o 0.05, si determina la retta parallela
all’asse immaginario che delimita la regione ammissibile, data da:

ln(1  )
 = . (12.5.7)
ta

Ovviamente, dovrà risultare    e, quindi, il settore ammissibile è quello situato alla


sinistra della verticale passante per  (cfr Fig. 12.5.2).

j

 

Fig.12.5.2 Settore ammissibile alla sinistra della retta.

3) A partire dalla specifica sulla prontezza di risposta (12.5.2) si sceglie il valore di n .


Ovviamente, dovrà risultare n  n e, quindi, il settore ammissibile è quello situato alla
sinistra della circonferenza di raggio n (cfr. Fig. 12.5.3).

j

n 

Fig.12.5.3 Settore ammissibile alla sinistra del semicerchio.

Ovviamente, se due o tre specifiche sul comportamento transitorio debbono essere


contemporaneamente soddisfatte, il settore risultante sarà dato dalla composizione dei
corrispondenti settori illustrati nelle figure 12.5.1-12.5.3.
Il problema di cui al punto b) viene risolto progettando il dispositivo di controllo in modo
tale da ottenere i poli dominanti desiderati a catena chiusa, indipendentemente dalla posizione
degli altri poli.

12.5.1 Azioni elementari di correzione

Le azioni elementari di correzione sono le stesse di quelle utilizzate nell’ambito della


sintesi per tentativi nel dominio di  .

Azione attenuatrice. E’ caratterizzata dalla f.d.t. data da:

1 s−z 1 m 1
Gecr ( s ) = = Gecr ( s ), z = − r , p = − , (12.5.8)
mr s − p mr r r
3

dove Gecr ( s ) è la f.d.t. del dispositivo di correzione a fattore di trasferimento unitario.


L’azione attenuatrice viene impiegata per migliorare il comportamento in regime
permanente, dal punto di vista dell’errore finale, poiché consente di aumentare il guadagno
della f.d.t. della linea di azione diretta.

Azione anticipatrice. E’ caratterizzata dalla f.d.t. data da:

s−z 1 m
Geca ( s ) = , z=− , p=− a . (12.5.9)
s− p Ta Ta

L’azione anticipatrice viene impiegata per migliorare il comportamento transitorio del


sistema, poiché permette di ottenere che il luogo delle radici passi per la coppia di poli
dominanti desiderata.

Azione combinata. E’ descritta dalla f.d.t. che segue:

s − zr s − za m 1 1 m
Gecra ( s ) = , z r = − , pr = − , za = − , pa = − . (12.5.10)
s − pr s − pa r r Ta Ta

L’azione combinata viene impiegata per migliorare il comportamento sia a regime che
transitorio del sistema.

12.5.2 Scelta dell’azione correttrice

L’azione correttrice può essere scelta in accordo ai seguenti passi.

a) Indicando con G p ( s ) la f.d.t. del processo, data da:

m
 (s − z pi )
i =1
G p ( s) = K p n
,
 (s − p pi )
i =1

G p (s)
Ponendo G p ( s ) = , dove  è il numero di poli nell’origine che occorre aggiungere
s K p
alla f.d.t. a catena aperta per soddisfare la condizione sul tipo, si traccia il luogo delle radici
della equazione:

m
 (s − z pi )
1 + Kˆ p G p ( s) = 1 + Kˆ p i =1
n
= 0, (12.5.11)
s 
 (s − p pi )
i =1
4

al variare di Kˆ p da 0 a + se il fattore di trasferimento K p della G p ( s ) è positivo, o da


− a 0 se il fattore di trasferimento della G p ( s ) è negativo. Il luogo in questione viene
denominato luogo originario delle radici.

b) A partire della specifiche di progetto, si determina il settore all’interno del quale debbono
giacere i poli della f.d.t a catena chiusa.
c) Se il luogo originario delle radici giace alla destra del settore desiderato, corrispondente
alle specifiche di progetto assegnate, occorre impiegare un’azione anticipatrice che attrae i
rami del luogo verso sinistra, grazie alla presenza dello zero.
c.1) Se è possibile posizionare i poli dominanti sul nuovo luogo delle radici, e il guadagno
a catena aperta necessario per ottenere tali poli soddisfa le specifiche, l’azione
anticipatrice può risultare sufficiente.
c.2) Se è possibile posizionare i poli dominanti sul nuovo luogo delle radici, ma il
guadagno a catena aperta necessario per ottenere tali poli non soddisfa le specifiche,
occorre impiegare anche un’azione attenuatrice.
d) Se è possibile posizionare i poli dominanti su due dei rami del luogo originario e tutti i
rimanenti rami giacciono, almeno in parte, nel semipiano sinistro, il che implica che è
possibile fare in modo che i poli della f.d.t. a catena chiusa posizionati su tali rami abbiano
parte reale negativa, ma il guadagno relativo ai poli dominanti è inferiore a quello previsto
dalle specifiche di progetto, si impiega un’azione attenuatrice.

12.5.3 Dimensionamento dei dispositivi di correzione ad azione attenuatrice e anticipatrice.

Dimensionamento dell’azione attenuatrice


I dati di partenza sono: a) i poli dominanti possono essere posizionati sul luogo delle radici
(originario o su quello risultante dall’inserimento dell’azione anticipatrice) all’interno del
settore desiderato; b) il guadagno corrispondente a tali poli non soddisfa le specifiche di
progetto.
La procedura per il dimensionamento del dispositivo di correzione ad azione attenuatrice,
si basa sulla considerazione che i nuovi poli dominanti, conseguenti all’inserimento del
dispositivo di correzione, debbono risultare sufficientemente prossimi a quelli
preliminarmente scelti sul luogo originario delle radici. Per conseguire tale obiettivo, occorre
che il ritardo di fase, introdotto dalla coppia polo-zero del dispositivo in questione nella
regione del piano in cui si trovano i poli dominanti già scelti sul luogo originario delle radici,
sia contenuto entro i 5°. Ciò implica che il polo e lo zero del dispositivo di correzione
debbono risultare vicini fra loro.
Inoltre, un possibile criterio per individuare i nuovi poli dominanti sul nuovo luogo delle
radici, è quello di mantenere lo stesso coefficiente di smorzamento di quelli posizionati sul
luogo originario delle radici.
Indicando con s1,2 = −  j = −n  jn 1 −  2
, per evitare che il luogo delle radici si
modifichi sensibilmente nell’intorno dei vecchi poli dominanti a seguito dell’inserimento
dell’azione attenuatrice, si impone la condizione che il ritardo di fase introdotto dalla coppia
polo-zero per s = s1 , sia non superiore a 5°:

( s1 − z ) − ( s1 − p)  −5 . (12.5.12)
5

Tal condizione implica, come detto, che il polo e lo zero debbono essere posizionati molto
vicini fra loro. In tali condizioni, indicando con Kˆ p1 il fattore di trasferimento valutato sul
luogo originario per s = s1 , dato da:

n
s1  ( s1 − p pi )
Kˆ p1 = m
i =1
, (12.5.13)
 ( s1 − z pi )
i =1

il corrispondente valore del guadagno, Kˆ gp1 , risulta:

m
 (− z pi )
Kˆ gp1 = Kˆ p1 i =1
n
. (12.5.14)
 (− p pi )
i =1

dove la produttoria al denominatore va estesa ai poli diversi da zero. Il valore del fattore di
trasferimento con il correttore inserito, valutato per s = sn1 , essendo sn1 il nuovo polo
dominante a catena chiusa prossimo come detto a s1 (cfr. Fig. 12.5.4), risulta:

n
( sn1 − p) sn1 
 (sn1 − p pi )
Kˆ nF 1 = m
i =1
. (12.5.15)
( sn1 − z )  ( sn1 − z pi )
i =1

sn1
x s j
x1
sin −1 ( )

p z 

Fig. 12.5.4 Poli dominanti con e senza correzione.

Poiché p e z sono vicini fra loro, si ha (sn1 − p)  (sn1 − z) (cf. Fig. 12.5.4). Inoltre, poiché
anche s1 e sn1 sono vicini fra loro, si ha:
6

 n
s1  (s1 − p pi )
Kˆ nF 1  m
i =1
= Kˆ p1 . (12.5.16)
 (s1 − z pi )
i =1

Tuttavia, il nuovo guadagno corrispondente a Kˆ nF1 , Kˆ gnF1 , è dato da:

m m

z
 (− z pi ) z
 (− z pi ) z
Kˆ gnF 1 = Kˆ nF 1 i =1
n
 Kˆ p1 i =1
n
= Kˆ gp1 . (12.5.17)
p p p
 (− p pi )  (− p pi )
i =1 i =1

La (12.5.17) mostra che, a parità di fattore di trasferimento, il guadagno della f.d.t. a catena
aperta con il dispositivo di correzione inserito aumenta del rapporto z p = mr . Ne consegue
che, dovendo risultare z e p molto vicini fra loro, se si desidera ottenere valori di mr elevati, è
necessario posizionare z e p sufficientemente vicini all’origine.
Si osservi, adesso, che la coppia polo-zero può essere dimensionata in modo sistematico.
Infatti, ponendo s1 = 1 + j1 , si ha:

 1   1 
 − 
−1  1  −1  1  −1   1 − z    1 − p 
( s1 − z ) − ( s1 − p ) = tg   − tg   = tg ,
 1 − z   1 − p  1+ 
 1   1 
 
 1 − z   1 − p 
(12.5.18)
valida per:

    1 
− 1    1. (12.5.19)
 1 − z   1 − p 

Assumendo la (12.5.12) valida con il segno di uguaglianza, la (12.5.18), diviene:

 1   1 
 − 

 1 − z   1 − p  = tg (− 5 ) ,
   1  180
1 +  1  
  1 − z   1 − p 

5
dalla quale, ponendo k = tg (− ) e z = mr p , si ottiene:
180
kmr p2 − (mr + 1)k1 + 1 (mr -1) p + k s1 = 0 .
2
(12.5.20)

Può essere facilmente verificato che la (12.5.20) ammette due radici negative per mr  1.19 .
7

Dimensionamento dell’azione anticipatrice


I dati di partenza sono: a) i poli dominanti non possono essere posizionati sul luogo
originario delle radici. E’ possibile utilizzare la seguente procedura per passi.
1. Si calcola l’anticipo di fase  necessario affinché il nuovo luogo delle radici, con il
dispositivo di correzione inserito, passi per i poli dominanti scelti all’interno del settore
ottenuto a partire dalle specifiche di progetto.
2. Si posiziona la coppia zero-polo in modo da ottenere l’anticipo di fase  richiesto in
corrispondenza a uno dei poli dominanti. La seguente procedura permette di posizionare la
coppia zero-polo in modo da rendere massimo il valore del guadagno a catena aperta,
corrispondente al fattore di trasferimento relativo ai poli dominanti.
2.1) Dal punto P corrispondente a un polo dominante, si traccino una semiretta parallela
all’asse reale in direzione del semiasse reale negativo, e una semiretta che congiunge
il punto P con l’origine del piano s.
2.2) Si traccia la bisettrice dell’angolo formato dalle due semirette, e si tracciano due
ulteriori semirette che formano con la bisettrice stessa un angolo pari a  2 (cfr. Fig.
12.5.14).
3. Si traccia il luogo delle radici della equazione:

1 + Kˆ pGeca ( s)G p ( s) = 0 , (12.5.18)

e dopo avere posizionato i poli dominanti, si calcola il fattore di trasferimento in


corrispondenza a uno dei poli dominanti stessi, utilizzando la condizione di modulo.
Successivamente, si calcola il guadagno da associare alla f.d.t. a catena aperta
Geca ( s)G p ( s) al fine di ottenere i poli dominanti desiderati.
4. Se le specifiche di progetto sono tutte soddisfatte, si valuta il guadagno del dispositivo di
correzione in modo tale che il sistema progettato e il sistema da realizzare siano identici e,
cioè, abbiano poli, zeri e guadagno delle f.d.t catena aperta identici.

j
P

 2 
1
 
x o
 2 

Fig.12.5.5 Determinazione della coppia zero-polo che fornisce l’anticipo di fase  nel punto P
massimizzando il guadagno a catena aperta.

Dall’ esame della Fig. 12.5.5 emerge che:

1
1.  = (1 −  ) ,
2
8

1
2.  = 1 −  = (1 +  ) ,
2
3.  − P = tg ( ) ( −  P ) ,
4.  − P = tg ( ) ( −  P ) .

Dalle 3. e 4. si ottiene:

P 
za =  P − , pa =  P − P .
tg ( ) tg ( )

Esempio 12.5.3.1 Per il sistema descritto dalla f.d.t. G p ( s ) data da:

Kp
G p ( s) = , K p = 11.84
s(s + 16.3)( s + 7.2)

progettare un dispositivo di correzione in cascata in modo da soddisfare le seguenti specifiche


di progetto:

S  S = 25%, ta,5%  ta = 1.5 s, sistema di tipo 1, K F  K F = 20 .

Il settore all’interno del quale debbono giacere i poli dominanti viene ottenuto osservando
che:

ta,5%  3  = 3 n  1.5    3 1.5 = 2 .

Inoltre, utilizzando la relazione fra sovraelongazione e coefficiente di smorzamento valida per


un sistema semplice del secondo ordine il cui andamento è illustrato in Fig. 12.5.6, dalla
specifica sulla sovraelongazione stessa, si ha:

S  S = 25%     = 0.4 .
9

0.9

0.8

0.7

0.6

0.5
S

0.4

0.3

0.2

0.1

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
zita

Fig. 12.5.6 S vs.  per un sistema del secondo ordine

Dall’andamento del luogo originario delle radici, illustrato nella Fig. 12.5.7, emerge che il
luogo giace parzialmente all’interno del settore considerato. In particolare, scegliendo i poli
dominanti s1,2 = −n  n 1 −  2 all’interno del settore desiderato, i cui parametri sono
 = 0.5 e n = 4.57 , riportati nella Fig. 12.5.7, sul terzo ramo del luogo si ottiene il terzo
polo s3 = −18.4 . Poiché s3 n = 8.035 , i poli complessi e coniugati sono effettivamente
dominanti. La verifica delle prestazioni ottenute può essere effettuata mediante simulazione. Il
fattore di trasferimento è pari a K F = 438 . Mediante simulazione si ottiene la risposta
indiciale riportata in Fig. 12.5.8. Il guadagno a catena aperta corrispondente al succitato
valore di K F risulta:
1
K gF = K F = 3.73  K F .
7.2  16.3
10

Root Locus
20
0.76 0.64 0.5 0.34 0.16
0.86
15

10 0.94
System: Fcap
Gain: 438
Pole: -2.29 + 3.96i
Imaginary Axis (seconds -1)

Damping: 0.5
System: Fcap Overshoot (%): 16.3
Gain: 439
5 0.985 Pole: -18.4
Frequency (rad/s): 4.57
Damping: 1
Overshoot (%): 0
Frequency (rad/s): 18.4
30 25 20 15 10 5
0

-5 0.985

-10 0.94

-15
0.86
0.76 0.64 0.5 0.34 0.16
-20
-30 -25 -20 -15 -10 -5 0 5 10
Real Axis (seconds -1)

Fig. 12.5.7 Luogo originario delle radici. Poli dominanti

1.4

1.2

0.8
w-1

0.6

0.4

0.2

0
0 1 2 3 4 5
t [s]

Fig.12.5.8 Risposta indiciale del sistema a catena chiusa originario, per K F = 438 .

La risposta alla rampa lineare è mostrata in Fig. 12.5.9. La linea tracciata per y = 7.95 mostra
che l’errore finale è  0.05 .
11

10

6
delta-2, w-2
5

0
0 2 4 6 8 10
t [s]

Fig. 12.5.9 Ingresso a rampa lineare e relativa risposta.

Dall’analisi effettuata in precedenza, emerge che occorre utilizzare l’azione attenuatrice. I


dati di partenza sono quelli relativi all’incremento di guadagno desiderato, pari a
KgF ,min = KF KgF = 5.36 . Occorre, quindi, risolvere l’equazione:

( s1 − z ) − ( s1 − p) = −5 = −0.0872 rad

con il vincolo mr = z p  5.36 .


Al fine di determinare i paramentri del disoositivo di correzione, nel caso in esame, si ha
s1 = −2.29 + j3.95 e le soluzioni della (12.5.20) sono −0.0988 e −39.342 . L’unica soluzione
ammissibile, che soddisfa la (12.5.16) è data da p = −0.0988 , cui corrisponde z = −0.53 .
Il luogo delle radici del sistema corretto è illustrato nella Fig. 12.5.10. I poli dominanti
sono dati da sn1,2 = −2.29  j 3.92 , e caratterizzati da KnF 1 = 434 . Il terzo polo è dato da
sn3 = −18.4 , e il quarto polo si trova sul quarto ramo, mostrato in dettaglio in Fig. 12.5.11, nel
punto sn 4 = −0.601 e cioè in prossimità dello zero z = −0.5298 .
La f.d.t. a catena aperta è data da:

s + 0.5298
F ( s) = 434 .
s( s + 7.2)( s + 16.3)( s + 0.0988)

Il guadagno è dato da K g nF 1 = 19.83 .


La verifica delle prestazioni del sistema a catena chiusa progettato può essere effettuata
direttamente in simulazione. In Fig. 12.5.12 è illustrata la risposta al gradino il cui andamento
mostra che la sovraelongazione è pari a circa il 28% mentre il tempo di assestamento è
inferiore a 1.5 s.
12

Root Locus
20
0.76 0.64 0.5 0.34 0.16
0.86
15

10 0.94
System: Fcap
Gain: 434
Imaginary Axis (seconds -1) Pole: -2.29 + 3.92i
Damping: 0.504
System: Fcap Overshoot (%): 16
Gain: 432
5 0.985 Pole: -18.4
Frequency (rad/s): 4.54
Damping: 1
Overshoot (%): 0
Frequency (rad/s): 18.4
30 25 20 15 10 5
0

-5 0.985

-10 0.94

-15
0.86
0.76 0.64 0.5 0.34 0.16
-20
-30 -25 -20 -15 -10 -5 0 5 10
Real Axis (seconds -1)

Fig. 12.5.10 Luogo delle radici del sistema corretto

Root Locus 20
20
0.21 0.15 0.105 0.07 0.044 0.02
17.5
15
15 0.32
12.5
System: Fcap 10
10 Gain: 434
Pole: -2.29 + 3.92i 7.5
0.55
Imaginary Axis (seconds -1)

Damping: 0.504
Overshoot (%): 16
Frequency (rad/s): 4.54 5
5
2.5

0
System: Fcap
Gain: 438
Pole: -0.601 2.5
-5 Damping: 1
Overshoot (%): 0 5
Frequency (rad/s): 0.601
0.55
7.5
-10
10
12.5
-15 0.32
15

0.21 0.15 0.105 0.07 17.5


0.044 0.02
-20
-5 -4 -3 -2 -1 20 0
-1
Real Axis (seconds )

Fig. 12.5.11 Particolare del luogo delle radici del sistema corretto

La risposta alla rampa lineare è mostrata in Fig. 12.5.13. Si è rilevato che l’errore finale per
ingresso a rampa lineare è pari a circa 0.052.
Al fine di soddisfare in pieno tutte le specifiche occorre impiegare l’azione combinata.
13

1.4

1.2

0.8

w-1
0.6

0.4

0.2

0
0 1 2 3 4 5
t [s]

Fig. 12.5.12 Risposta indiciale del sistema a catena chiusa

10

6
delta-2,w-2

0
0 2 4 6 8 10
t [s]

Fig.12.5.13 Risposta alla rampa lineare.


Più, precisamente, verrà progettata dapprima l’azione anticipatrice e, successivamente,
l’azione attenuatrice.
L’azione anticipatrice viene progettata in modo da ottenere i poli dominanti caratterizzati
da  = 0.5 e n = 8 , tenendo conto del ritardo di fase di 5° introdotto dall’azione attenuatrice,
e utilizzando il metodo descritto in precedenza. I poli in questione si ottengono per un fattore
di trasferimento a catena aperta, dato da Kˆ F = 1380 , come illustrato nella Fig. 12.5.14. Con
quest’ultimo valore di Kˆ , si passa alla sintesi dell’azione attenuatrice in modo che essa
F
KF
introduca un ritardo di fase di 5°, e un valore di mr = , dove:
Kˆ gF

− za
Kˆ gF = Kˆ F ,
( − pa )(7.2)(16.3)

dove za = −5.247 e pa = −12.198 . Il valore di mr è pari a mr = 4.51 .


14

Root Locus
10
0.93 0.87 0.78 0.64 0.46 0.24
8
0.97
System: F_cap1
6 Gain: 1.38e+003
Pole: -4.25 + 7.35i
Damping: 0.501
Overshoot (%): 16.3
Imaginary Axis (seconds -1) 4 0.992 Frequency (rad/s): 8.49

30 25 20 15 10 5
0

-2

-4 0.992

-6

0.97
-8
0.93 0.87 0.78 0.64 0.46 0.24
-10
-30 -25 -20 -15 -10 -5 0
Real Axis (seconds -1)

Fig. 12.5.14 Luogo delle radici con il dispositivo di correzione ad azione anticipatrice.

Utilizzando la (12.5.20), si ottiene la soluzione ammissibile pr = −0.1966 , cui corrisponde


lo zero zr = −1.029 . Il luogo delle radici corrispondente è quello di Fig. 12.5.15. Da notare
che si ottengono i poli preliminarmente ipotizzati (  = 0.5 , n = 8.13 ).
Il dispositivo di correzione ottenuto è dato da:

s − za s − z r
Gc ,eq ( s ) = K F ,
s − pa s − pr

con K F = 1380 , ottenuto assumendo il fattore di trasferimento del processo unitario e, quindi,
assumendo che la f.d.t. del processo sia Gˆ ( s ) . Tenendo presente che il processo ha fattore di
p
trasferimento K P = 11.84 e che le azioni attenuatrice e anticipatrice standard sono date da:

1 s − zr s − za
Gecr = , Geca = ,
mr s − p r s − pa

per determinare il fattore di trasferimento del dispositivo di correzione basta imporre


l’equazione:
15

Root Locus
10
0.93 0.87 0.78 0.64 0.46 0.24
8
0.97
System: Fcap
6 Gain: 1.38e+003
Pole: -4.06 + 7.05i
Damping: 0.5
Imaginary Axis (seconds -1) 4 0.992 Overshoot (%): 16.3
System: Fcap System: Fcap Frequency (rad/s): 8.13
Gain: 1.38e+003 Gain: 1.38e+003
Pole: -22.7 Pole: -4.22
2 Damping: 1 Damping: 1
Overshoot (%): 0 Overshoot (%): 0
Frequency (rad/s): 22.7 Frequency (rad/s): 4.22
30 25 20 15 10 5
0
System: Fcap
Gain: 1.27e+003
Pole: -0.904
-2 Damping: 1
Overshoot (%): 0
Frequency (rad/s): 0.904
-4 0.992

-6

0.97
-8
0.93 0.87 0.78 0.64 0.46 0.24
-10
-30 -25 -20 -15 -10 -5 0
Real Axis (seconds -1)

Fig. 12.5.15 Luogo delle radici con le azioni anticipatrice e attenuatrice.

1
Kc K p = KF ,
mr
dalla quale si ottiene:
1
K c = K F mr .
Kp

Il dispositivo di correzione ottenuto è dato da:

s − za s − z r
Gc ,eq ( s ) = K F ,
s − pa s − pr

con K F = 1380 , ottenuto assumendo il fattore di trasferimento del processo unitario e, quindi,
assumendo che la f.d.t. del processo sia Gˆ ( s ) . Tenendo presente che il processo ha fattore di
p
trasferimento K P = 11.84 e che le azioni attenuatrice e anticipatrice standard sono date da:

1 s − zr s − za
Gecr = , Geca = ,
mr s − p r s − pa

per determinare il fattore di trasferimento del dispositivo di correzione basta imporre


l’equazione:

1
Kc K p = KF ,
mr
16

dalla quale si ottiene:


1
K c = K F mr .
Kp

Il guadagno a catena aperta dell’intero sistema è dato da:

( − za )( − zr ) 1
K gF = K F = 20 .
( − pa )( − pr ) (7.2)(16.3)

Nelle Figg. 2.5.16 – 2.5.18 sono illustrate le risposte al gradino, alla rampa lineare e l’errore
di inseguimento della rampa lineare.

1.4

1.2

0.8
w-1

0.6

0.4

0.2

0
0 1 2 3 4 5
t [s]
Fig. 2.5.16 Risposta indiciale del sistema a catena chiusa. Fascia per la valutazione del tempo di
assestamento e limite superiore della sovra elongazione desiderata.

10

0
0 2 4 6 8 10
t [s]

Fig. 2.5.17 Ingresso a rampa lineare e risposta del sistema a catena chiusa.
17

0.25

errore di inseguimento della rampa lineare


0.2

0.15

0.1

0.05

0
0 10 20 30 40 50
t [s]

Fig. 12.5.18 Errore di inseguimento dell’ingresso a rampa lineare.

L’esame delle Figg. 12.5.16 -12.5.18 mostra che le specifiche di progetto sono tutte
soddisfatte.
Si riporta di seguito il listato del file utilizzato per il progetto del controllore. Il file va
usato in maniera interattiva.

s=tf('s');
zp=[];
pp=[0,-7.2,-16.3];
K_cap_p=1;
[np,dp]=zp2tf(zp,pp,K_cap_p);
Gcap_p=tf(np,dp);
%rlocus(Gcap_p)
%poli dominanti desiderati
om_n1=8;
zita1=0.5;
alfad=asind(zita1);
alfar=(pi/180)*alfad;
om1=om_n1*cos(alfar);
sigma1=-om_n1*sin(alfar);
p1=sigma1+j*om1;
%fine poli dominanti desiderati
%anticipo di fase: fase per ottnere i poli dominanti+ compensazione 5 gradi
Gcap_p_p1=1/((p1)*(p1-pp(2))*(p1-pp(3)));
phase_Gcap_p_p1=angle(Gcap_p_p1);
phi=pi-phase_Gcap_p_p1+5*(pi/180);
phi_d=phi*(180/pi);
gamma=0.5*(angle(p1)+phi);
coef_ang_gamma=tan(gamma);
18

zc=(coef_ang_gamma*sigma1-om1)/coef_ang_gamma;
ro=0.5*(angle(p1)-phi);
coef_ang_ro=tan(ro);
pc=(coef_ang_ro*sigma1-om1)/coef_ang_ro;
G_eca=tf([1,-zc],[1,-pc]);
F_cap1=G_eca*Gcap_p;
%rlocus(F_cap1)
%azione attenuatrice
sigma_eca=-4.25;
om_eca=7.35;
zita_eca=0.5;
K_eca=1380;
K_g_eca=K_eca*(-zc)/((-pp(2))*(-pp(3))*(-pc));
mr=1.0*20/K_g_eca;
k=tan(-5*pi/180);
a=k*mr;
b=(mr+1)*k*sigma_eca+om_eca*(mr-1);
c=k*(sigma_eca^2+om_eca^2);
roots([a,-b,c])
%%
pr=-0.196648210942599;
zr=mr*pr;
Gcap_ecr=tf([1,-zr],[1,-pr]);
Fcap=Gcap_ecr*F_cap1;
rlocus(Fcap)
%%
Kcap_F=1380;
Kcap_g_F=Kcap_F*((-zc)*(-zr))/((-pc)*(-pr)*(-pp(2))*(-pp(3)));
%%
Kp=11.84;
Kc=Kcap_F*mr/Kp
% F1=Kc/m*Fcap
1

Analysis and synthesis of feedback systems:


quadratic functions and LMIs
Luca Zaccarian and Antonino Sferlazza
Version updated on: May 16, 2017

I. I NTRODUCTION
This handout deals with the use of the Linear Matrix Inequalities (LMIs) applied to the linear system expressed
in the state-space form
ẋ = Ax + Ew
(1)
z = Cx + F w .
In particular this handout starts by developing tools for verifying internal stability and quantifying L2 external
stability for system (1). Then the design of a state-feedback control action will be shown, by treating also the
case of the optimal Linear Quadratic Regulator (LQR) design by means of LMIs. Finally also the observer design
problem will be addressed, adapting the LMI presented for the stability analysis in the case of an asymptotic state
observer, and deriving sufficient conditions for the stability of the estimation error dynamics.

A. Quadratic functions and semidefinite matrices


The tools used here rely on nonnegative, quadratic functions for analysis. Such functions will lead to numerical
algorithms that involve solving a set of linear matrix inequalities (LMIs) in order to certify internal stability or
quantify external performance. Efficient commercial LMI solvers are widely available.
A nonnegative, quadratic function is a mapping x 7→ xT P x where P is symmetric, in other words, P is equal
to its transpose, and xT P x ≥ 0 for all x. A symmetric matrix P that satisfies xT P x ≥ 0 for all x is called a
positive semidefinite matrix, written mathematically as P ≥ 0. If xT P x > 0 for all x 6= 0, then P is called a
positive definite matrix, written mathematically as P > 0. A symmetric matrix Q is negative semidefinite, written
mathematically as Q ≤ 0, if −Q is positive semidefinite. A similar definition applies to a negative definite matrix.
All of these terms are reserved for symmetric matrices. The reason for this is that a general square matrix Z can
be written as Z = S + N where S is symmetric and N is skew-symmetric, i.e., N = −N T and then it follows that
xT Zx = xT Sx. In other words, the skew-symmetric part plays no role in determining xT Zx. The notation P1 > P2 ,
respectively P1 ≥ P2 , indicates that the matrix P1 − P2 is positive definite, respectively positive semidefinite. Recall
that symmetric matrices have real eigenvalues and that denoting by λM (P ), λm (P ) the maximum and the minimum
eigenvalues of P , one has λM (P )I ≥ P ≥ λm (P )I . Moreover if P > 0 (respectively P ≥ 0), then λm (P ) > 0
(respectively λm (P ) ≥ 0). Note that if P > 0 then there exists ε > 0 sufficiently small so that P > εI . In particular
one may select ε := λm2(P ) .

II. S TABILITY ANALISYS


A. Internal stability
When checking internal stability, w is set to zero, z plays no role, and (1) becomes simply ẋ = Ax. To certify
exponential stability of the origin of this system, one method is to find a positive definite1 , quadratic function
V (x) := xT P x that decreases strictly along solutions, except at the origin. Quadratic functions are convenient
because they lead to linear stability tests.
To determine whether a function is decreasing along solutions, it is enough to check whether, when evaluated
along solutions, the function’s time derivative is negative. For a continuously differentiable function, the time
1
A positive definite function V : Rn → R is zero at x = 0 and positive eigenvalues else.
2

derivative can be obtained by computing the directional derivative of the function in the direction Ax and then
evaluating this function along a solution x(t). This corresponds to the mathematical equation
·
z }| { ∂V (x(t))
V (x(t)) = Ax(t) = h∇V (x(t)), Ax(t)i,
∂x
·
z }| {
where V represents the function, V (x(t)) represents its time derivative along solutions at time t, ∇V (x) ∈ Rn is the
gradient of the function at x and h∇V (x), Axi is the directional derivative of the function at x in the direction Ax.
For a quadratic function V (x) = xT P x, where P is a symmetric matrix, it is easy to prove ∇V (x) = (P +P T )x =
2P x and then the classical chain rule gives that this directional derivative corresponds to
h∇V (x), Axi = xT (P A + AT P )x.
Thus, in order for the time derivative to be negative along solutions, except at the origin, it should be the case that
the directional derivative satisfies
xT (AT P + P A)x < 0, ∀x 6= 0 ,
in other words, AT P + P A < 0. In summary, to certify internal stability for system (1) with a given matrix A,
one looks for a symmetric matrix P satisfying
P ≥ 0
(2)
AT P + P A < 0 .
This is a particular example of a set of linear matrix inequalities (LMIs), which will be discussed in more detail
in Section III. Software for checking the feasibility of LMIs is widely available. It turns out that the LMIs in (2)
are feasible if and only if the system (1) is internally stable, or equivalently A is Hurwitz [4, Theorem 8.3].

B. Certified convergence rate


If LMIs in (2) are feasible, then it is useful to enforce the strengthened conditions
P ≥ 0
(3)
AT P + P A < −2αP .
where α ≥ 0 is a scalar associated to the exponential convergence rate of solutions. Indeed, LMIs (3) imply that:
(A + αI)T P + P (A + αI) < 0,
which implies ([4, Theorem 8.3]) that A+αI is Hurwitz or equivalently has eigenvalues with negative real part. Then
A has eigenvalues with real part smaller than −α, which provides a nice exponential bound |x(t)| ≤ M e−αt |x(0)|
on solutions. One may then be interested in finding a lower bound of the scalar:
α∗ := sup α, subject to: (4)
P =P T ,α>0
P ≥ 0,
AT P + P A < −2αP.
Problem (4) is not linear because of the product between P and α, however it has a nice structure stemming from
the fact that given any value α = ᾱ for which the constraints in (4) are feasible (some P exists), they are also
feasible for any smaller value α < ᾱ. Conversely, if they are infeasible (no P exists) for α = ᾱ, then they are
infeasible for any α > ᾱ. This suggest to use of bisection2 to find a lower bound of α∗ .
It should be also noted that once a lower bound on ᾱ of α∗ has been determined, one can minimize the upper
bound M on the overshoot reported in the exponential bound introduced before equation (4) by solving
min k, subject to:
k,P =P T
AT P + P A < −2ᾱP,
I ≤ P ≤ kI, (5)
2
Refer to the following page for an example: https://yalmip.github.io/example/decayrate/
3

to obtain the guaranteed bound along all solutions



|x(t)| ≤ M e−ᾱt |x(0)| = ke−ᾱt |x(0)|, ∀t ≥ 0. (6)

C. External stability
Now the external disturbance w is no longer set to zero. Thus, the relevant equation is (1). The goal is to
determine an upper bound γ > 0 of the L2 gain from the disturbance input w to the performance output z , and
simultaneously establish internal stability. More specifically, we search for γ > 0 such that for all w satisfying
Z T  21
T
||w||2 := lim w (t)w(t)dt <∞
T →∞ 0

(equivalently written w ∈ L2 ), the solution to (1) starting from x(0) = 0 satisfies


||z||2 ≤ γ||w||2 . (7)
It is possible to give an arbitrarily tight upper bound on this gain by again exploiting nonnegative, quadratic
functions. However, the quadratic function will not always be decreasing along solutions. Instead, an upper bound
on the time derivative will be integrated to derive a relationship between the energy in the disturbance w and the
energy in the performance output variable z . Again, the directional derivative of the function xT P x in the direction
Ax + Ew generates the time derivative of the function along solutions. This time the directional derivative is given
by
h∇V (x), Ax + Ewi = xT (AT P + P A)x + 2xT P Ew.
In order to guarantee that the L2 gain be less than a number γ > 0 and to establish internal stability at the same
time, it is sufficient to have P = P T ≥ 0 and
   
T T T 1 T T x
x (A P + P A)x + 2x P Ew < −γ 2
z z−w w ∀ 6= 0 . (8)
γ w
The fact that (8) implies (7) follows from integrating both sides of (8) and using x(0) = 0 and V (x) = xT P x ≥ 0
to get
1 t T
Z Z t Z t
z (τ )z(τ )dτ ≤ − V̇ (x(τ ))dτ + γ wT (τ )w(τ )dτ
γ 0 0 0
Z t
≤ V (x(0)) − V (x(t)) + γ wT (τ )w(τ )dτ
0
Z t
≤ γ wT (τ )w(τ )dτ (9)
0
and then taking the limit as t tends to ∞. Using the definition of z in (1), condition (8) can be written as
T  T
1 CT 
       
x A P + PA PE  x x
T + T C F < 0, ∀ 6= 0 .
w E P −γI γ F w w
In other words, the large matrix in the middle of the previous expression should be negative definite.
In summary, to certify internal stability and L2 external stability with gain less than γ > 0 for system (1) with
a given set of matrices (A, B, E, F ), it suffices to find a symmetric matrix P satisfying
P ≥ 0
 T
1 CT 
  
A P + PA PE  (10)
0 > T + T C F .
E P −γI γ F
This is another set of LMIs, the feasibility of which can be tested with standard commercial software. Moreover,
such software can be used to approximate the smallest possible number γ that makes the LMIs feasible. The
feasibility of the LMIs in (10) is also necessary for the L2 gain to be less than γ with internal stability (This results
is called bounded real lemma and its proof is nontrivial).
4

III. L INEAR M ATRIX I NEQUALITIES


As the preceding sections show, the analysis of dynamical systems benefits greatly from the availability of
software to solve linear matrix inequalities (LMIs). The sections that follow show that LMIs also arise when using
quadratic functions to analyze feedback loops. The goal of this section is to provide some familiarity with LMIs
and to highlight some aspects to be aware of when using LMI solvers.
Linear matrix inequalities are generalizations of linear scalar inequalities. A simple example of a linear scalar
inequality is
2za + q < 0, (11)
where a, q are known parameters and z is a free variable. In contrast to the linear scalar equality 2za + q = 0,
which either admits no solution (if a = 0 and q 6= 0), an infinite number of solutions (if a = 0 and q = 0), or one
solution (if a 6= 0), the linear scalar inequality (11) either admits no solutions (if a = 0 and q ≥ 0) or admits a
convex set of solutions given by {z ∈ R : z < −q/(2a)}. In the former case the inequality is said to be infeasible.
In the latter case it is said to be feasible.
Linear matrix inequalities generalize linear scalar inequalities by allowing the free variables to be matrices,
allowing the expressions in which the free variables appear to be symmetric matrices, and generalizing negativity
or positivity conditions to negative or positive definite matrix conditions.
Replacing the quantities in (11) with their matrix counterparts and insisting that the resulting matrix is symmetric
gives the linear matrix inequality
AT Z T + ZA + Q < 0 . (12)
In this LMI, A and Q are known matrices and Q is symmetric. The matrix Z comprises m times n free variables
where m denotes the number of columns of Z and n denotes the number of rows of Z . Characterizing the solution
set of (12) is not as easy as before, because the solution space will be delimited by several hyperplanes that depend
on the entries of the matrices A and Q. However, one important property of this solution set is that it is convex. In
particular, if the matrices
Pk {Z1 , . . . , Zk } all satisfy the LMI (12) then for any set of numbers {λ1 , . . . , λk }, satisfying
0 ≤ λk ≤ 1 and i=1 λi = 1, the matrix
k
X
Z := λ i Zi
i=1

also satisfies the LMI (12). The convexity property arises from the fact that (12) is affine in the free variable Z .
Now consider the case where Q is taken to be zero and the free variable Z is required to be symmetric and positive
definite. The variable Z will be replaced by the variable P for this case. With the free variable being symmetric,
the parameter A is now required to be a square matrix. Now, recall that the matrix condition AT P + P A < 0 is
equivalent to the existence of ε > 0 such that AT P + P A + εI ≤ 0. Therefore, an extra free variable ε can be
introduced to write the overall conditions as the single LMI
 
P 0
≥0. (13)
0 −(AT P + P A + εI)
The implicit constraint that P is symmetric reduces the number of free variables in the matrix P to the quantity
n(n + 1)/2 where n is the size of the square matrix P . The feasibility of the LMI (13) is equivalent to the
simultaneous feasibility of the two LMIs
P ≥ 0
(14)
0 > AT P + P A
which match the LMIs (2) that appeared in the analysis of internal stability for linear systems. It is worth noting
that most LMI solvers have difficulty with inequalities that are not strict. This is because sometimes, in this case,
the feasibility is not robust to small changes in the parameters of the LMI. For example, with the choice
 
0 1
A=
−1 0
the LMIs P > 0 and 0 ≥ AT P + P A are feasible (note that the strictly inequality and the nonstrict inequality
have been exchanged relative to (14)) as can be seen by taking P = I . However, the LMIs are not feasible if one
5

adds to A the matrix εI for any ε > 0. On the other hand, strict LMIs, if feasible, are always robustly feasible.
Fortunately, the feasibility of the LMIs (14) is equivalent to the feasibility of the LMIs
P > 0
(15)
0 > AT P + P A .
This can be verified by letting Pb denote a feasible solution to (14) and observing that Pb + εI must be a feasible
solution to (15) for ε > 0 sufficiently small. From the discussion in Section II-A, it follows that the LMIs (15) are
feasible if and only if the system ẋ = Ax is internally stable.
Next consider the matrix conditions that appeared in Section II-C, the feasibility of which was equivalent to
having L2 external stability with gain less than γ > 0 and internal stability for (1). Using the same idea as above
to pass to a strict inequality for the matrix P , the feasibility of the matrix conditions in (10) is equivalent to the
feasibility of the matrix conditions
P > 0
 T
1 CT 
  
A P + PA PE  (16)
0 > T + T C F .
E P −γI γ F
The matrices (A, E, C, F ) are parameters that define the problem. If the value γ is specified, then the feasibility of
the resulting LMIs in terms of the free variable P can be checked with an LMI solver. If the interest is in finding
values for γ > 0 to make the matrix conditions feasible, then γ can be taken to be a free variable. However, the
matrix conditions do not constitute LMIs because of the nonlinear dependence on the free parameter γ through the
factor 1/γ that appears. Fortunately, there is a way to convert the matrix conditions above into LMIs in the free
variables γ and P using the following fact:
(Schur complement) Let Q and R be symmetric matrices and let S have the same number of rows as Q
and the same number of columns as R. Then the matrix condition
 
Q S
>0
ST R
is equivalent to the matrix conditions
R > 0
Q − SR−1 S T > 0 .
This fact can be applied to the matrix conditions (16) to obtain the matrix conditions
γ > 0
P > 0
AT P + P A P E C T

(17)
0 >  ET P −γI F T 
C F −γI
which are LMIs in the free variables P and γ . If the system ẋ = Ax is internally stable then these LMIs will be
feasible. This follows from the fact that there will exist P > 0 satisfying AT P + P A < 0, which is the matrix that
appears in the upper left-hand corner of the large matrix in (17), and a consequence of Finsler’s Lemma, which is
the following:
(Finsler’s Lemma) Let Q be symmetric and let H have the same number of columns as Q. If ζ T Qζ < 0
for all ζ 6= 0 satisfying Hζ = 0 then, for all γ > 0 sufficiently large, Q − γH T H < 0.
If one applies this fact with the matrix
 T
A P + P A P E CT

Q :=  ET P 0 FT 
C F 0
and  
0 0 0
H= 0 I 0 
0 0 I
6

one sees that the LMIs in (17) will be feasible for an appropriate P matrix and large enough γ > 0.
To determine a tight upper bound on the L2 gain, one is interested in making γ as small as possible. The task of
minimizing γ subject to satisfying the LMIs (17) is an example of an LMI eigenvalue problem and can be written
as:
min γ, subject to
P,γ
P > 0, (18a)
AT P CT
 
+ PA PE
0> ET P −γI F T  . (18b)
C F −γI
Since large block matrices that appear in LMIs must always be symmetric, the entries below the diagonal must
be equal to the transposes of the entries above the diagonal. For this reason, such matrices can be replaced by the
‘?’ symbol without any loss of information. For example, (18) can be written as
min γ, subject to
P,γ
P > 0, (19a)
AT P CT
 
+ PA PE
0> ? −γI F T  . (19b)
? ? −γI
with no loss of information.
An alternative notation that may simplify (18) relies on the use of the function “He” which, given any square
matrix X is defined as HeX := X + X T , so that (18) can be written as
min γ, subject to
P,γ
P > 0, (20a)
 
PA PE 0
0 > He  0 −γI/2 0  . (20b)
C F −γI/2
The LMI feasibility and eigenvalue problems can be solved efficiently using modern numerical software packages.
As an example, the code needed in MATLAB’s LMI control toolbox to implement the search for the optimal solution
to (18) or, equivalently, of (19) and (20) is given next.
LMIs have played a foundational role in analysis and control of dynamical systems for several decades. A
comprehensive book on this topic is the classic [1], where an extensive list of references can be found. That book
also contains the facts quoted herein concerning Schur complements, Finsler Lemma, the S-procedure, and the
elimination lemma.
Example 1: Implementing LMIs using the MATLAB’s LMI control toolbox requires first defining the LMI
constraints structure and then running the solver on those constraints. The LMI constraints are specified by a start
line (setlmis([]);) and an end line (mylmisys=getlmis;) which also gives a name to the LMI constraints.
Then the LMI constraints consist of a first block where the LMI variables are listed and of a second block where
the LMI constraints are described in terms of those variables. The following code gives a rough idea of how this
should be implemented. Comments within the code provides indications of where the different blocks are located.
For more details, the reader should refer to the MATLAB’s LMI control toolbox user’s guide.
% Initialize the LMI system
setlmis([]);

% Specify the variables of the LMI


P = lmivar(1,[length(A) 1]);
gamma = lmivar(1,[1 0]);
7

% Describe the LMI constraints

% 1st LMI (P>0)


Ppos = newlmi;
lmiterm([-Ppos 1 1 P],1,1);

% 2nd LMI (L2 gain)


L2lmi = newlmi;
lmiterm([L2lmi 1 1 P],1,A,’s’);
lmiterm([L2lmi 1 2 P],1,E);
lmiterm([L2lmi 2 2 gamma],-1/2,eye(size(E,2)),’s’);
lmiterm([L2lmi 3 1 0],C);
lmiterm([L2lmi 3 2 0],F);
lmiterm([L2lmi 3 3 gamma],-1/2,eye(size(C,1)),’s’);

% Assign a name to the LMI system


mylmisys=getlmis;

% Solve the LMI

% Choose the function to be minimized (gamma)


n = decnbr(mylmisys);
cost = zeros(n,1);
for j=1:n,
cost(j)=defcx(mylmisys,j,gamma);
end

% Run the LMI solver


[copt,xopt]=mincx(mylmisys,cost);

% Decode the solution (if any)


if not(isempty(copt)),
Psol = dec2mat(mylmisys,xopt,P);
gammasol = dec2mat(mylmisys,xopt,gamma);

% compare to alternative Hinf norm computation


sys = pck(A,E,C,F);
out = hinfnorm(sys);
disp([out(2) gammasol])
end

Example 2: The MATLAB code illustrated in the previous example is quite streamlined and using the LMI
control toolbox in such a direct way can many times become quite complicated in terms of actual MATLAB code.
An alternative to this is to indirectly specify the LMI constraints and use the LMI control toolbox solver by way
of the YALMIP (=Yet Another LMI Parser) front-end. The advantages of using YALMIP mainly reside in the
increased simplicity of the code (thereby significantly reducing the probability of typos) and in the code portability
to alternative solvers to the classical LMI control toolbox (SeDuMi is a much used alternative as well as SDPT3
on recent solver MOSEK). The same calculation reported in the previous example is computed using the YALMIP
front-end in the following code:
% compute the size of the matrices
n = length(A);
[ny,nu] = size(F);
8

% decision variables
P=sdpvar(n); % symmetric n-x-n
gamma=sdpvar(1); % scalar

% define the inequality constraints


M = [ P*A P*E zeros(n,ny);
zeros(nu,n) -gamma/2*eye(nu) zeros(nu,ny);
C F -gamma/2*eye(ny)];

constr = set(M+M’<0) + set(P>0);

% set the solver and its options


% here we use the LMI Control Toolbox
opts=sdpsettings;
opts.solver=’lmilab’;

% solve the LMI minimizing gamma


yalmipdiagnostics=solvesdp(constr,gamma,opts)

% evaluate solution variables (if any)


Psol=double(P);
gammasol=double(gamma);

% compare to alternative Hinf norm computation


sys = pck(A,E,C,F);
out = hinfnorm(sys);
disp([out(2) gammasol])

Example 3: CVX is another useful program for solving structured convex optimization problems, including LMIs.
The previous calculations in CVX are as follows:
cvx_begin sdp

% compute the size of the matrices


n = length(A);
[ny,nu] = size(F);

% decision variables
variable P(n,n) symmetric;
variable gamma;

% define the inequality constraints


M = [ P*A P*E zeros(n,ny);
zeros(nu,n) -gamma/2*eye(nu) zeros(nu,ny);
C F -gamma/2*eye(ny)];

minimize gamma
subject to
gamma>0;
P>0;
M+M’<0;
9

cvx_end

There are a few points to make about the variability in solutions to LMI eigenvalue problems returned by using
different commercial solvers. First, notice that the LMI eigenvalue problem in (19) involves an optimization over
an open set of matrices. So, technically, it is not possible to achieve the minimum. It would be more appropriate
to say that the optimization problem is looking for the infimum. Indeed, if a minimum γ ∗ existed and satisfied
the LMIs then it would also be the case that γ − ε satisfied the LMIs for ε > 0 sufficiently small, contradicting
the fact that γ ∗ is a minimum. A consequence of this fact is that, since it is not possible to reach an infimum,
each solver will need to make its own decision about the path to take toward the infimum and at what point to
stop. Different paths to the infimum and different stopping conditions will cause different solvers to return different
solutions. Second, unless the optimization is strictly convex, the solution to the optimization problem may not be
unique. This fact may also contribute to variability in the solutions returned by different solvers. In each of these
cases, the different minima returned should be quite close to one another (because convexity ensures the existence
of a global optimum), whereas the matrices returned that satisfy the LMIs may be quite different.
Regarding the LMI solvers mentioned in Examples 1-3, the LMI control toolbox [2] of MATLAB can be purchased
together with MATLAB. YALMIP [5] is a modeling language for defining and solving advanced optimization
problems. CVX [3] is a package for specifying and solving convex programs. Both [5] and CVX [3] are extensions
of MATLAB which can be downloaded from the web for free and easily installed as toolboxes on a MATLAB
installation. Finally MOSEK [6] in a high performance software for large-scale LP, QP, SOCP, SDP and MIP
including interfaces to C, Java, MATLAB and Python.

IV. F EEDBACK S YNTHESIS


A. A static feedback
The Section II was devoted to the analysis of a dynamical system described by the model in (1). This section
presents a method for designing a static feedback from the state x in order to assign a desired dynamics to the
arising closed-loop system, or possibly stabilize the open-loop if it is not asymptotically. In particular the goal is
to design a time-invariant injection term K , for the closed loop
ẋ =Ax + Bu + Ew
z =Cx + Du + F w (21)
u =Kx
By replacing u = Kx in (21) in, the closed loop system is
ẋ = (A + BK)x + Ew = Acl x + Ew
(22)
z = (C + DK)x + F w = Ccl x + F w .
Now the theory shown in the first Section, about internal stability, can be used here for designing K . Indeed by
using the same quadratic function, the following sufficient condition for the internal stability can be derived by
generalizing (2)
P > 0
(23)
P (A + BK) + (A + BK)T P = He(P A + P BK) < 0 .
However conditions (23) are not linear because of the bilinear term involving K and P , so a trick is used to
solve this problem. In particular, defining W = P −1 , and multiplying from the left and from the right both the
inequalities in (23), the following alternative linear problem can be written
W > 0
(24)
He(AW + BKW ) = He(AW + BX) < 0 ,
where X = KW . It is noted that (24) is now linear in W = W T > 0 and X . Then one may look for a symmetric
matrix W , and a matrix X satisfying (24), and the gain K and Lyapunov matrix P are computed as
P = W −1 , K = XW −1 = XP. (25)
10

This problem can be configured as a stabilization problem, because the system with K = 0 could be unstable,
so the LMIs in (2) are not feasible, but the feedback gain, K , can be designed by looking to the feasibility of
(24), which ensures the internal stability of the closed-loop system between plant (21) and the static state feedback
controller u = Kx.

B. Speed of convergence vs gain size


While the previous section parallels the internal stability analysis section II-A, one may follow similar steps to
synthesize a static state feedback gain K minimizing the convergence rate α in Section II-B. Nevertheless, merely
minimizing α may lead to arbitrarily large feedback gains K that lead to excessive use of the actuators authority.
In particular, it is known from [4, Thm. 12.6] that when pair (A, B) is controllable, an arbitrarily fast convergence
rate can be assigned by a static state feedback selection u = Kx.
We address this issue here by performing a suitable trade-off between the obtained speed of convergence α and
the size of the gain K in the feedback selection. In particular, by applying the the method proposed in Section II-B
to the closed-loop matrix A + BK , it is possible to certify a desired speed of convergence α of the closed-loop
system by solving the following LMIs instead of (24)
W > I
(26)
He(AW + BX) < −αW ,
where we observe that we replaced W > 0 (of (24)) by the stronger constraints W > I . Note that this does not
lead to a restriction of the feasibility set, indeed, if any solution (W, X) of (24) exists (with W > 0), then we may
multiply both W and X by the positive scalar 1 + λm (P )−1 to obtain a feasible solution to (26).
The advantage of imposing W > I in (26) is that we can now propagate a bound on the size of solution X towards
a bound on the size |K| of the feedback gain. Indeed, one easily verifies that |K| = |XW −1 | ≤ |X||W −1 | ≤ |X|,
because W −1 < I , It then makes much sense to fix a desired convergence rate α and solve the following LMI
eigenvalue problem:
min κ, subject to
W,X,κ
W = W T > I,
He(AW + BX) < −αW
(27)
κI X T
 
> 0.
X κI
We note that from [4, Thm. 12.6] this problem is solvable if pair (A, B) is controllable, therefore it is an effective
method of computing a state feedback gain with a prescribed speed of convergence α and at the same time minimize
the size κ of gain K . Note that the bound on gain K arises from applying a Schur complement to the last constraint
in (27) to obtain
XT X
κI − > 0 ⇒ X T X < κ2 I,
κ
which clearly implies |X| ≤ κ, and then the property W > I can be used in the bounds highlighted in the text
before (27), to obtain |K| < κ.
Note that one can select a set of desirable values for α, and then solve (27) for each one of them, thereby
selecting a set of possible choices of K , which could be tested in simulation, to ensure that the correcte trade-off
between speed of convergence and size of the control input u (which is directly related to the size of K ). Note also
that one could fix κ in (27), and then find the maximmum α for that value of κ. The alternative method is more
compliated due to the bilinear term involving α and W , but is still solvable in a convenient way using bisection,
because, as noted also around equation (4), this is a quasi-convex generalized eigenvalue problem. 3
3
Refer to the following page for an example: https://yalmip.github.io/example/decayrate/
11

C. Linear quadratic regulator


The optimal LQR problem consists in finding a control input, for (21) with w = 0, that minimizes the integral
cost Z ∞
JLQR = xT (t)Qx(t) + uT (t)Ru(t)dt, (28)
0
where Q ∈ Rn×n and R ∈ Rm×m are symmetric positive-definite matrices. Obviously also in this case the problem
can be viewed as a state feedback problem, which may be addressed following similar derivation to those in Section
II-C. In particular, assume that we can find P = P T > 0 and the arising V (x) = xT P x such that
xT (ATcl P + P Acl )x + xQx + (Kx)T R(Kx) < 0, ∀x 6= 0. (29)
Then we may integrate between 0 and T and take the limit as T → ∞ to obtain, with u = Kx,
Z ∞
d
JLQR < V (x(τ ))dτ = V (x(0)) = x(0)T P x(0), (30)
0 dt
where we used the fact that (29) implies that ATcl P + P Acl < 0 and that x(t) (therefore also V (x(t))) converges
to zero a t → ∞. Clearly one is interested in minimizing P in some sense, to obtain the tight bound on JLQR .
To ensure (29) we recall that Acl = A + BK and search for a symmetric positive-definite matrix P , and a matrix
K , such that
He(P A + P BK) + C T QC + K T RK < 0. (31)
Condition (29) is not linear, and also in this case, a trick is used to solve this problem. In particular, defining
W = P −1 , and multiplying from the left and from the right the inequality in (29), the following problem can be
written
He(AW + BKW ) + W C T QCW + W K T RKW =
He(AW + BX) + W C T QCW + X T RX < 0. (32)
where X = KW . Now, by using a Schur-complement twice, the inequality (32) is equivalent to the following
He(AW + BX) W C T XT
 
 ? −Q−1 0  < 0, (33)
? ? −R−1
So one looks for a symmetric matrix W , and a matrix X satisfying (33), and then the gain K and matrix P are
computed as
P = W −1 , K = XW −1 = XP. (34)
To obtain the tight upper bound on JLQR one may then solve the following eigenvalue problem
β ∗ = max β, subject to: (35)
β,W,X
βI < W,
which obviously ensures, from (30), that JLQR = x(0)T P x(0) = x(0)T W −1 x(0) ≤ β −1 |x(0)|2 . An alternative
could be to maximize the trace of W .

V. A SYMPTOTIC OBSERVER GAIN DESIGN


As reported in [4], if the state x is not accessible for measurement, but an output y is available, from which the
state x is observable, we may combine any state feedback design synthesize with a favourite tool from the previous
section, with an asymptotic observer providing a state estiamte x̂. Then one can implement a static feedback from
the estimated state u = K x̂ (see, [4, Sections 16.5–16.7]).
In particular, let us consider the following plant dynamics, obtained from adding a measurement output equation
to (21):
ẋ = Ax + Bu + Ew
(36)
y = Cy x + Dy u + Fy w,
12

We may introduce the following Luenberger structure to the asymptotic observer:


x̂˙ = Ax̂ + Bu + L(ŷ − y)
(37)
ŷ = Cy x̂ + Dy u,
where the gain matrix L is a design parameter to be selected below. Suitable techniques for deriving the gain L
can be well understood if one keeps in mind the ultimate goal of wanting suitable behavior of the error dynamics
e = x̂ − x, whose evolution is easily derivated by combining equations (36) and (37):
ė = x̂˙ − ẋ (38)
+ Ax̂ + Bu + L(ŷ − y) − (Ax + Bu + Ew) (39)
= Ae + L(Cy x̂ + Dy u − (Cy x + Dy u + Fy w)) − Ew (40)
= (A + LCy )e − (LFy + E)w. (41)
One may then focus on this dynamics for tuning the selection of L via LMI-based approaches, to optimize some
performance criterion.
We don’t discuss here possible performance criteria concerning the effect of the noise w, but we rather concentrate
on the case with w = 0, where the gain L could be selected in such a way to induce desirabnle properties of the
eigenvalues of the matrix A + LCy (and possibly some desirable norm bound on gain L). To this end, it is enough
to transfer those properties to the transposed AT + CyT LT = Ā = B̄ K̄ and follow the techniques presented in
Section IV.

R EFERENCES
[1] S. Boyd, L. El Ghaoui, E. Feron, and V. Balakrishnan. Linear Matrix Inequalities in System and Control Theory. Society for Industrial
an Applied Mathematics, 1994.
[2] P. Gahinet, A. Nemirovski, A.J. Laub, and M. Chilali. LMI Control Toolbox. The MathWorks Inc., 1995.
[3] M. Grant and S. Boyd. CVX: Matlab software for disciplined convex programming. (web page and software). http://stanford.
edu/ boyd/cvx.
[4] Joao P Hespanha. Linear systems theory. Princeton university press, 2009.
[5] J. Lofberg. YALMIP : A toolbox for modeling and optimization in MATLAB. In IEEE International Symposium on Computer Aided
Control Systems Design, pages 284 –289, Taipei, Taiwan, 2004.
[6] APS Mosek. The mosek optimization software. Online at http://www. mosek. com, 54:2–1, 2010.

Potrebbero piacerti anche