Sei sulla pagina 1di 223

Analisi dei Sistemi

Dispense per i Corsi di Laurea in


Ingegneria Elettronica e Ingegneria Informatica
Ciro Natale
Ciro Natale

Analisi dei Sistemi


Dispense per i Corsi di Laurea in
Ingegneria Elettronica e Ingegneria Informatica
Questo testo è la raccolta delle lezioni tenute dall’autore al secondo anno dei corsi
di Laurea in Ingegneria Elettronica e Ingegneria Informatica presso la Facoltà di
Ingegneria della Seconda Università degli Studi di Napoli.

Il testo è stato composto interamente dall’autore in LATEX.


Prefazione

La conoscenza non può derivare dall’esperienza sola, ma occorre


il paragone fra ciò che lo spirito umano ha concepito e ciò che ha osservato.
(A. Einstein)

L’insegnamento di Analisi dei Sistemi intende fornire allo studente gli strumenti
e le metodologie per la caratterizzazione dei sistemi dinamici lineari e lo studio
delle loro proprietà strutturali. Esso si colloca nell’ambito delle discipline dell’in-
gegneria che costituiscono il settore scientifico disciplinare chiamato Automatica.
Nel nuovo assetto degli studi della Facoltà di Ingegneria della Seconda Univer-
sità degli Studi di Napoli, l’insegnamento di Analisi dei Sistemi risulterà il primo
modulo fra quelli del settore dell’Automatica, ed è posto, insieme a quello di
Controlli Automatici, al secondo anno del corso degli studi fra gli insegnamenti
che caratterizzano le classi di Ingegneria Elettronica ed Informatica. Nella classe
di Ingegneria Informatica è inserito un orientamento di Automazione Industria-
le in cui sono previsti gli insegnamenti di Tecnologie dei Sistemi di Controllo,
Controlli Automatici II ed Azionamenti ed Elettronica Industriale del settore
scientifico disciplinare Automatica. Tali insegnamenti, congiuntamente all’uso
delle tecnologie informatiche, consentiranno al laureato in Ingegneria Informatica
con orientamento Automazione Industriale di operare su impianti automatizzati.
Impianti automatizzati sono presenti in ogni ambiente industriale: meccanico,
aeronautico, automobilistico, manifatturiero, chimico, ovvero in ogni ambiente in
cui il governo di un determinato processo per ottenere una risposta desiderata o
una produzione di beni viene effettuata senza il diretto intervento dell’uomo. Si
può, quindi, affermare che il compito dell’ingegnere dell’automazione è quello di
comprendere e governare processi naturali o artificiali allo scopo di fornire pro-
dotti utili alla società. Poiché il primo passo è quello di comprendere e descrivere
un processo naturale, un impianto o in termini del tutto generali un sistema,
l’insegnamento di Analisi dei Sistemi fornirà allo studente gli strumenti operati-
vi necessari per la modellazione, la descrizione delle proprietà e l’individuazione
delle informazioni utili per il governo di un sistema.
G. De Maria

i
Indice

1 Modellistica dei sistemi dinamici 1


1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Elementi di modellistica di sistemi dinamici . . . . . . . . . . . . . 7
1.2.1 Modellistica dei sistemi elementari . . . . . . . . . . . . . . 8
1.2.2 Determinazione delle equazioni del modello dinamico . . . . 13
1.3 La rappresentazione ingresso–stato–uscita . . . . . . . . . . . . . . 20
1.3.1 Classificazione dei sistemi dinamici . . . . . . . . . . . . . . 22
1.4 I sistemi lineari tempo invarianti . . . . . . . . . . . . . . . . . . . 24
1.4.1 La rappresentazione ingresso–uscita . . . . . . . . . . . . . 26
1.5 Passaggi tra le forme di rappresentazione . . . . . . . . . . . . . . 28
1.5.1 Passaggio da i–s–u a i–u . . . . . . . . . . . . . . . . . . . . 28
1.5.2 Passaggio da i–u a i–s–u . . . . . . . . . . . . . . . . . . . . 29
1.6 Linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7 Comandi MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.8 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2 Analisi dei sistemi a tempo continuo 45


2.1 La trasformata di Laplace . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Risposta dei sistemi lineari tempo invarianti . . . . . . . . . . . . . 54
2.2.1 Antitrasformazione delle funzioni razionali fratte . . . . . . 56

iii
iv Indice

2.2.2 La funzione di trasferimento . . . . . . . . . . . . . . . . . . 61


2.2.3 Poli e zeri dei sistemi LTI . . . . . . . . . . . . . . . . . . . 63
2.2.4 L’evoluzione libera e i modi di evoluzione . . . . . . . . . . 67
2.2.5 L’evoluzione forzata e la risposta impulsiva . . . . . . . . . 71
2.3 Schemi a blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.4 Stabilità dei sistemi dinamici . . . . . . . . . . . . . . . . . . . . . 82
2.4.1 Stabilità BIBO o esterna . . . . . . . . . . . . . . . . . . . 83
2.4.2 Stabilità sotto perturbazioni o interna . . . . . . . . . . . . 84
2.4.3 Criterio di Routh . . . . . . . . . . . . . . . . . . . . . . . . 90
2.5 Risposta a regime permanente . . . . . . . . . . . . . . . . . . . . . 97
2.6 Risposta indiciale di sistemi del I e II ordine . . . . . . . . . . . . . 100
2.7 Il problema della realizzazione . . . . . . . . . . . . . . . . . . . . . 105
2.7.1 Dallo schema a blocchi alla i–s–u . . . . . . . . . . . . . . . 110
2.8 Comandi MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

3 Analisi dei sistemi a tempo discreto 125


3.1 Le equazioni alle differenze . . . . . . . . . . . . . . . . . . . . . . 125
3.1.1 Gli algoritmi . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.1.2 Processi intrinsecamente discreti . . . . . . . . . . . . . . . 128
3.1.3 La rappresentazione ingresso–stato–uscita . . . . . . . . . . 130
3.1.4 I sistemi a dati campionati . . . . . . . . . . . . . . . . . . 133
3.2 La trasformata Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.3 Risposta dei sistemi lineari tempo invarianti . . . . . . . . . . . . . 140
3.3.1 Metodi di antitrasformazione . . . . . . . . . . . . . . . . . 143
3.3.2 Modi di evoluzione . . . . . . . . . . . . . . . . . . . . . . . 147
3.4 Stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
3.5 Comandi MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . 151
3.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

4 Analisi dei sistemi nel dominio della frequenza 155


4.1 Serie di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.2 Trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 159
4.3 Risposta esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.4 Risposta sinusoidale . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.5 Risposta armonica di un sistema LTI . . . . . . . . . . . . . . . . . 170
Indice v

4.6 Diagrammi di Bode . . . . . . . . . . . . . . . . . . . . . . . . . . . 178


4.6.1 Tracciamento del diagramma asintotico dei moduli. . . . . . 185
4.6.2 Tracciamento del diagramma asintotico delle fasi. . . . . . . 186
4.7 Cenni sui sistemi a tempo discreto . . . . . . . . . . . . . . . . . . 188
4.8 Comandi MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

Bibliografia 192

A Numeri complessi 197


A.1 Definizione di numero complesso . . . . . . . . . . . . . . . . . . . 197
A.2 Operazioni tra numeri complessi . . . . . . . . . . . . . . . . . . . 197
A.3 Forma trigonometrica di un numero complesso . . . . . . . . . . . 198
A.4 Forma esponenziale di un numero complesso . . . . . . . . . . . . . 199

B Elementi di algebra delle matrici 201


B.1 Matrici e vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
B.2 Somma, differenza e prodotto per uno scalare . . . . . . . . . . . . 202
B.3 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
B.4 Trasposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
B.5 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
B.6 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
B.7 Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
B.8 Polinomio caratteristico e teorema di Cayley–Hamilton . . . . . . . 205
B.9 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . . 205
B.10 Matrici simili e diagonalizzazione . . . . . . . . . . . . . . . . . . . 205
B.11 Funzioni di matrici e operazioni differenziali . . . . . . . . . . . . . 206

C Tabella di trasformate di Laplace 207

D Tabella di trasformate Z 209

Indice Analitico 211


CAPITOLO 1

Modellistica dei sistemi dinamici

1.1 Introduzione

Con il termine sistema, che deriva dal greco riunire - comporre, generalmente si
intende un insieme di elementi materiali connessi e coordinati in modo da for-
mare un complesso organico soggetto a determinate regole. Al termine sistema
si fa seguire un aggettivo che caratterizza l’insieme di elementi, ad esempio in
medicina parliamo di sistema immunitario, sistema circolatorio; in astronomia
di sistema solare; in economia di sistema monetario, sistema economico naziona-
le. Nel campo dell’ingegneria lo studente diventerà familiare con la terminologia
sistema meccanico, sistema elettrico, sistema di elaborazione delle informazioni,
a seconda che le grandezze fisiche implicate siano meccaniche, elettriche oppu-
re informazioni numeriche o alfanumeriche, intendendo con ciò un complesso di
apparati interconnessi in cui si individua una relazione causa/effetto. Con il ter-
mine causa si intende la sollecitazione (ingresso o variabile di governo) imposta
al sistema, mentre con il termine effetto il prodotto (uscita o variabile di uscita)
generato dal sistema conseguentemente alla sollecitazione imposta. Ad esempio,
consideriamo un sistema meccanico costituito da una trave fissata ad un’estre-
mità (vedi Fig. 1.1) e supponiamo di caricare l’estremità libera con forze costanti
di entità crescente pari a F1 , F2 , . . ., che individueremo come causa o ingresso.
Se dopo l’applicazione della forza Fi si aspetta che la trave si fermi e si mi-
sura, all’equilibrio, lo spostamento yi , che individueremo come effetto o uscita,
dell’estremità libera rispetto alla posizione in assenza di sollecitazione, e si ripor-

1
2 Capitolo 1. Modellistica dei sistemi dinamici

xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
F
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
y
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
x

Figura 1.1: Esempio di sistema meccanico: trave incastrata

tano sull’ascissa di un diagramma i valori delle forze applicate e sull’ordinata i


valori degli spostamenti dell’estremità libera in corrispondenza delle forze appli-
cate si può verificare che i punti del piano individuati dalle suddette coordinate
giacciono su un segmento –ciò si verifica solo nell’ambito della validità della legge
di Hooke– ciò significa che le variabili di ingresso e di uscita sono legate da una
relazione causa/effetto del tipo
y = kF .

Tale relazione non fornisce informazioni riguardo al movimento y = y(t) che


l’estremità libera della trave compie nel passare da uno spostamento di equilibrio
yi ad un altro yj per effetto della variazione del valore di forza applicata da Fi
a Fj , ma una relazione causa/effetto, in condizioni di equilibrio, che descrive il
fenomeno dello spostamento dell’estremità libera di una trave soggetta a carichi
costanti. Chiameremo tale relazione modello statico del sistema trave. Se siamo
interessati al movimento che l’estremità libera della trave compie nel raggiungere
un punto di equilibrio partendo da un’assegnata posizione iniziale y(t0 ) con velo-
cità iniziale nulla, possiamo registrare, ad esempio con uno strumento ottico, la
posizione y in ogni istante di tempo t, dall’istante t0 di applicazione della forza
F fino a quello in cui possiamo ritenere che essa ha raggiunto la posizione di
equilibrio, e riportarla su un diagramma y verso t (vedi Fig. 1.2). Ripetendo tale
esperimento per diverse posizioni iniziali y(t0 ) –dovute a sollecitazioni precedenti
all’applicazione della forza F attuale– sempre con velocità iniziale nulla, si osser-
vano movimenti differenti dell’estremità libera, pur raggiungendo essa la stessa
posizione di equilibrio individuata dal modello statico. Il movimento, quindi,
contiene informazioni sulla storia passata –espresse nelle condizioni iniziali– del
sistema.
Supponendo di collezionare in una banca dati tutti i movimenti generati a
partire da qualsiasi y(t0 ), appartenente ad un insieme definito di condizioni ini-
ziali, e da F , appartenente ad un insieme definito di sollecitazioni ammissibili
per il sistema, potremmo affermare che tale banca dati costituisce un modello
dinamico della trave fissata ad un’estremità soggetta a carichi costanti all’estre-
mità libera, a cui si è fatto riferimento nell’esperimento considerato, con posizione
1.1. Introduzione 3

t0
t

Figura 1.2: Movimenti misurati della trave

iniziale y(t0 ) e velocità iniziale nulla. Si noti che qualsivoglia movimento, nelle
suddette condizioni iniziali può essere ottenuto dalla banca dati accedendo ad
essa con la coppia di dati (y(t0 ), F ). Si comprende facilmente che tale approccio
è inapplicabile, per l’ovvio motivo della non realizzabilità, e poco utile, per man-
canza di generalità, sia perché ricavato in particolari condizioni, velocità iniziale
nulla dell’estremità libera, sia perché riferito alla specifica trave, con assegnata
geometria e massa, per cui si è effettuato l’esperimento. Per ottenere il modello
dinamico del sistema considerato che descriva il movimento y = y(t) in modo del
tutto generale, ovvero un modello che tenga conto della geometria e della massa
della trave in forma parametrica, quindi valido per tutte le travi incastrate ad
un’estremità, e per generiche condizioni iniziali y(t0 ) e ẏ(t0 ) –posizione e velocità
iniziale dell’estremità libera– bisogna abbandonare l’approccio puramente speri-
mentale, descritto precedentemente, e ricorrere alle leggi della fisica ed in questo
caso a quelle che descrivono il comportamento dei mezzi continui. Tale approccio
conduce alla formulazione del modello dinamico in termini di un’equazione dif-
ferenziale alle derivate parziali con annesse equazioni differenziali ordinarie che
tengono conto delle condizioni al contorno. Tale formulazione risulta essere com-
pleta nel senso che descrive il movimento e la condizione di equilibrio, quindi
contiene in sé anche il modello statico, dell’estremità libera dell’insieme di tutte
le travi incastrate ad un’estremità
" #
∂2 ∂ 2 y(x, t) ∂ 2 y(x, t)
EI(x) + m(x) = F (x, t)
∂ x2 ∂ x2 ∂ t2

con le condizioni al contorno



∂y ∂ 2 y
y(0, t) = 0, = 0, EI =0,
∂ x x=0 ∂ x2 x=L
4 Capitolo 1. Modellistica dei sistemi dinamici

causa effetto
o S o
sollecitazione uscita

Figura 1.3: Sistema astratto orientato

dove y(x, t) è la deflessione all’ascissa x, E è il modulo di Young, I(x) è il momento


di inerzia della sezione all’ascissa x ed F (x, t) è la forza applicata all’ascissa x.
All’ente matematico su descritto, descrivendo esso in forma completa il siste-
ma meccanico considerato, si dà ancora il nome di sistema, intendendo con ciò
che, dal punto di vista dell’analisi del comportamento, è indifferente possedere
del sistema in considerazione la sua struttura o la sua descrizione matematica.
Per affermare che la seconda descrive non una struttura particolare, ma tutto un
insieme, ad essa si da il nome di sistema astratto orientato. Tale ente si rap-
presenta graficamente come in Fig. 1.3, cioè tramite uno schema a blocchi, dove
la lettera S sta per sistema dinamico. Il verso delle frecce in tale schema chia-
risce l’uso dell’aggettivo orientato, nel senso che mette in evidenza che la causa
è una sollecitazione sul sistema da parte dell’ambiente in cui è immerso, quindi
entrante, e l’effetto o uscita è una variabile fisica a disposizione dell’ambiente per
l’osservazione, quindi uscente.
Tale approccio alla modellazione dinamica del sistema meccanico presentato
risulta sconosciuto allo studente che ha seguito, per quanto riguarda la disciplina
della meccanica, un solo modulo di fisica nel quale ha affrontato il problema del
moto di un punto materiale o di un corpo rigido nello spazio; in particolare tale
lettore, pur conoscendo il concetto di lavoro, non conosce il principio dei lavori
virtuali e quello di D’Alembert che consentono di giungere alla formulazione del
modello dinamico dell’oggetto in considerazione. Sembra evidente che per operare
la sostituzione, nella rappresentazione di un sistema dinamico, della sua struttura
fisica disponibile per l’osservazione del comportamento mediante sperimentazione
nelle condizioni di interesse, con il suo modello matematico, che consente un’os-
servazione virtuale mediante simulazione al calcolatore, occorre che esso descriva
in dettaglio il sistema dinamico in considerazione e le sue interazioni con altri
sistemi dinamici, ad esempio l’ambiente in cui esso è immerso. Tale approccio
è seguito dai fisici, con l’obiettivo dello studio di dettaglio del comportamento
dei sistemi dinamici mediante simulazione, o da coloro che hanno quale obiet-
tivo la realizzazione di un apparato e, quindi, hanno bisogno di simulare se ciò
che è stato progettato soddisfa le specifiche imposte. Si pensi, per esempio, alla
realizzazione di un aereo, per giungere ad essa si passa attraverso l’assegnazione
di specifiche preliminari quali la destinazione d’uso –militare o civile–, masse da
trasportare, numero di Mach, altitudine. Tali specifiche vengono poi tradotte da
esperti ingegneri aeronautici in specifiche geometriche, aerodinamiche e struttu-
1.1. Introduzione 5

yn

t0 t

Figura 1.4: Moto desiderato per la trave

rali che consentono di effettuare il progetto dell’aereo. Tutta la fase progettuale


è rivolta alla costruzione di modelli matematici di dettaglio, prove di laboratorio
per la validazione dei modelli e simulazioni al calcolatore, che conducono alla
generazione del modello dinamico dell’aereo in interazione con l’ambiente in cui
sarà immerso o ciò che viene chiamato codice di simulazione di dettaglio. Obiet-
tivo di coloro che si occupano di controlli automatici, disciplina per cui quella
di analisi dei sistemi è propedeutica, è quello di progettare sistemi di governo,
cioè sistemi che siano in grado di generare le opportune sollecitazioni al sistema
dinamico da governare affinché l’uscita segua un movimento assegnato. Ciò che,
quindi, è assegnato come dato del problema è il movimento dell’uscita e ciò che
deve essere determinato è la sollecitazione che è in grado di produrre tale movi-
mento. Tale problema risulta essere l’inverso di quello citato in precedenza con
riferimento all’esempio della trave incastrata, ovvero si assegna la sollecitazio-
ne e si risolve l’equazione differenziale a derivate parziali, che ne rappresenta il
modello dinamico, per ricercare la soluzione, cioè il moto y = y(t).
Per meglio chiarire l’obiettivo descritto, si ritorni all’esempio suddetto e si
assegni a partire dalla condizione di riposo yn (t0 ) = 0, ẏn (t0 ) = 0 il moto yn =
yn (t), supposto ammissibile per il sistema in considerazione, come nel diagramma
in Fig. 1.4, dove il pedice n sta ad indicare moto nominale assegnato. Ciò che
si vuole determinare è la forza F = F (t) da applicare all’estremità libera per
ottenere tale moto.
L’uso del modello dinamico descritto precedentemente risulta essere di scarsa
utilità a questo scopo per i seguenti motivi:

a) anche se esso descrive in dettaglio il comportamento della trave incastrata, i


valori dei parametri propri del sistema meccanico: massa, attriti, coefficienti
elastici, geometria sono ricavati attraverso misure effettuate sulla struttura,
6 Capitolo 1. Modellistica dei sistemi dinamici

quindi affetti da errori propri di misura, ed in particolare gli attriti ed i


coefficienti elastici presentano la maggiore incertezza;
b) nella determinazione del modello matematico si sono fatte ipotesi sempli-
ficative, quali ad esempio supporre che la massa sia uniformemente distri-
buita, l’incastro non sia cedevole; ipotesi che consentono di assumere nota
la deformazione della trave e descriverla mediante funzioni elementari note;
c) si è supposto che l’unica sollecitazione agente sul sistema sia quella appli-
cata dall’operatore che effettua l’esperimento, ovvero si sono trascurate le
sollecitazioni che l’ambiente, in cui è immerso il sistema meccanico, esercita
su di esso quali ad esempio l’azione del vento, vibrazioni della parete a cui
la trave è incastrata.
Queste considerazioni mettono in luce che se nell’equazione differenziale a
derivate parziali operiamo le opportune sostituzioni partendo dalla conoscenza
del moto nominale assegnato yn = yn (t), operazione peraltro non semplice, la
sollecitazione Fn = Fn (t) che si ricava può discostarsi anche molto dalla effettiva
sollecitazione –non nota– F = F (t) che deve essere applicata al sistema reale
affinché il moto effettivo y = y(t) segua quello nominale assegnato yn = yn (t).
Ultima considerazione, ma non per questo di secondaria importanza, è che il
moto yn = yn (t) assegnato deve essere ammissibile per il sistema dinamico in
considerazione, ovvero deve esistere una sollecitazione fisicamente realizzabile e
di ampiezza ammissibile per il generatore di forza disponibile all’operatore che
consente all’estremità libera di effettuare il moto. Tale condizione deve chiara-
mente essere verificata a priori mettendo in luce le proprietà del sistema dinamico
in considerazione, cosa molto ardua a partire dal modello dinamico di dettaglio
a disposizione. Ciò che sembra sensato, per ovviare agli inconvenienti descritti, è
far sı̀ che la sollecitazione effettiva dipenda anche dallo scostamento che si veri-
fica tra uscita effettiva e quella nominale assegnata in modo tale da ridurre tale
scostamento. Per ottenere ciò è necessario, quindi disporre di organi di misura
dello spostamento dell’estremità libera e confronto tra moto effettivo e moto no-
minale assegnato. Intuitivamente tale approccio è rivolto a compensare gli effetti
indesiderati derivanti dagli inconvenienti descritti. La strategia di governo de-
scritta è denominata controllo a ciclo chiuso in contrasto con quella precedente
denominata controllo a ciclo aperto. Nel controllo a ciclo chiuso, quindi, la varia-
bile di uscita e spesso non solo essa, ma anche variabili interne –che nel seguito
denoteremo come stato del sistema– contribuiscono alla sintesi della sollecitazio-
ne impressa al sistema dinamico. Seguendo tale approccio è necessario seguire i
seguenti passi:
1. verificare che il moto assegnato per l’uscita appartenga all’insieme dei moti
ammissibili per il sistema dinamico in considerazione;
2. determinare quali variabili fisiche proprie del sistema dinamico devono con-
tribuire alla generazione dell’appropriata sollecitazione;
1.2. Elementi di modellistica di sistemi dinamici 7

3. verificare che tali variabili fisiche siano disponibili per effettuare misure o
se mediante osservazioni sull’uscita è possibile ricostruire tali variabili;

4. operare la sintesi della sollecitazione.

I passi citati richiedono la disponibilità di un modello dinamico del sistema in


esame che sia “trattabile” ovvero un modello per cui sia semplice evidenziare le
proprietà strutturali ed operare la sintesi della sollecitazione. A tale scopo non è,
quindi, utile utilizzare il modello di dettaglio, ma un modello matematico che ap-
prossimi bene la relazione causa/effetto del sistema reale in condizioni particolari
di funzionamento, ovvero un modello semplificato per cui sia semplice evidenziare
le proprietà strutturali e che possa essere utilizzato per la sintesi della sollecitazio-
ne. In particolare, nel caso della trave incastrata si ricorre ad un’approssimazione
del sistema reale sostituendo ad esso un sistema virtuale costituito da n elementi
rigidi connessi mediante giunti elastici con coefficienti di attrito predeterminati,
in modo che il comportamento ingresso/uscita sia quanto più vicino a quello reale;
tale approssimazione, estremamente utile per l’analisi ed il controllo dei sistemi
dinamici continui, è denominata ad elementi finiti. Un tale approccio non è argo-
mento dell’insegnamento di Analisi dei Sistemi e sarà affrontato in insegnamenti
specifici nell’ambito della laurea specialistica. L’esempio della trave incastrata è
servito unicamente a mostrare come sia complicato porsi il problema del governo
del comportamento di un sistema dinamico strutturalmente semplice.

1.2 Elementi di modellistica di sistemi dinamici

In questo paragrafo ci proponiamo di presentare una procedura sistematica per


la determinazione del modello dinamico di un sistema. La procedura si basa
innanzitutto sulla scomposizione del sistema in sistemi elementari o elementi, che
vanno poi caratterizzati da un punto di vista energetico, e infine sulla scrittura di
un sistema di equazioni differenziali, la cui soluzione descrive il comportamento
del sistema nei limiti delle approssimazioni introdotte nelle prime due fasi.
D’ora in avanti faremo riferimento a sistemi dinamici a dimensione finita, sup-
ponendo di poter rappresentare il sistema dinamico in esame mediante elementi
discreti o parametri concentrati. In particolare, in questo corso, nonostante venga
presentata una metodologia di modellazione abbastanza generale, affronteremo il
problema della determinazione di un modello matematico solo per sistemi mec-
canici ed elettrici. Ciò perché nell’ambito dell’ingegneria dell’automazione questi
sono i principali sistemi che compongono sistemi più complessi, mentre la model-
listica di altri tipi di sistemi è rimandata a corsi specialistici. I sistemi meccanici
verranno rappresentati mediante masse, molle e smorzatori concentrati, i sistemi
elettrici mediante resistori, condensatori ed induttori concentrati.
8 Capitolo 1. Modellistica dei sistemi dinamici

1.2.1 Modellistica dei sistemi elementari


Il comportamento dei sistemi meccanici ed elettrici elementari verrà ora caratte-
rizzato in termini di una relazione di equilibrio e di una relazione energetica. La
prima serve a mettere in relazione le sollecitazioni (cause) applicate all’elemento
con gli effetti prodotti da queste; la seconda serve ad esprimere le caratteristiche
energetiche dell’elemento, ad esempio se è un elemento che tende ad accumulare
o a dissipare energia.
Iniziamo a descrivere il comportamento dei sistemi meccanici elementari.

Elementi di inerzia. Per elementi di inerzia si intendono masse e momenti


di inerzia. L’inerzia può essere definita come la variazione di forza (coppia)
necessaria ad ottenere una variazione unitaria di accelerazione (accelerazione
angolare)
 
variazione di forza N
massa = = [kg]
variazione di accelerazione m/s2
 
variaz. di coppia N·m  
momento di inerzia = 2 = kg·m2
variaz. di acceleraz. angolare rad/s
Un elemento di massa, se sottoposto all’applicazione di una forza f , reagisce con
una forza proporzionale alla derivata della velocità ν, per cui vale la relazione di
equilibrio “dinamico” (vedi Fig. 1 di Tab. 1.1)

f −m =0
dt
essendo la derivata prima della velocità rispetto al tempo pari all’accelerazione
della massa stessa, ed avendo indicato con m la massa dell’elemento. Analoga-
mente, un elemento di inerzia (rotazionale attorno ad un asse), sottoposto ad una
coppia C, se ω è la sua velocità angolare, reagisce con una coppia proporzionale
alla derivata della velocità angolare, e quindi vale la relazione di equilibrio (vedi
Fig. 2 di Tab. 1.1)

C −J =0
dt
essendo la derivata prima della velocità angolare rispetto al tempo pari all’ac-
celerazione angolare dell’inerzia stessa, ed avendo indicato con J il momento di
inerzia dell’elemento rispetto all’asse di rotazione. Da un punto di vista ener-
getico, gli elementi di inerzia sono in grado di accumulare energia cinetica, cioè
la capacità di fare lavoro in virtù della velocità che ad essi è stata impressa.
L’energia cinetica posseduta da una massa m che si muove con velocità ν vale1
1
T = mν 2
2
1
Con ν si è indicato il modulo del vettore velocità.
1.2. Elementi di modellistica di sistemi dinamici 9

mentre, quella posseduta da un’inerzia rotazionale J che ruota con velocità


angolare ω vale2
1
T = Jω 2
2
Va detto anche che, se una massa è sottoposta all’attrazione gravitazionale ter-
restre, essa è in grado di accumulare anche energia potenziale, cioè la capacità
di fare lavoro in virtù della sua stessa posizione, o, più precisamente, della sua
altezza rispetto ad un livello di riferimento. In tal caso, l’energia potenziale di
una massa m posta ad un’altezza h vale
V = mgh
dove g è l’accelerazione di gravità che vale circa 9.81 m/s2 .

Elementi elastici (molle). Una molla lineare è un elemento meccanico privo


di massa e di attrito che se deformato da una sollecitazione esterna è tale che
la deformazione risulta direttamente proporzionale alla sollecitazione. Nel caso
di sollecitazioni in forza e deformazioni in traslazione, la molla è detta molla
traslatoria; se la sollecitazione è in coppia e la deformazione è in rotazione, la
molla è detta molla rotatoria o molla torsionale. Per le molle traslatorie (vedi
Fig. 3 di Tab. 1.1) detto f il valore di forza applicata agli estremi e x1 e x2 le
posizioni assunte dagli estremi misurate rispetto ad uno stesso riferimento, la
forza con cui l’elemento reagisce risulta proporzionale alla deformazione, e perciò
vale la relazione di equilibrio
f − k(x1 − x2 ) = 0
dove k è una costante di proporzionalità caratteristica della molla, detta costante
elastica o rigidezza della molla. Per le molle torsionali (vedi Fig. 4 di Tab. 1.1),
detto C il valore della coppia applicata agli estremi, e dette α1 e α2 le posi-
zioni degli estremi rispetto ad uno stesso riferimento, la coppia di reazione è
proporzionale alla deformazione angolare e la relazione di equilibrio è
C − k(α1 − α2 ) = 0
dove k è la rigidezza torsionale della molla. Naturalmente, per le molle traslatorie,
si ha  
variazione di forza N
rigidezza =
variazione di spostamento m
mentre, per le molle torsionali, si ha
 
variazione di coppia N·m
rigidezza torsionale =
variazione angolare rad
2
La formula vale nel caso di un corpo rigido che ruota attorno ad uno degli assi principali di
inerzia, nel caso più generale andrebbe scritta considerando il tensore d’inerzia J del corpo e il
vettore velocità angolare ω: T = 1/2ω T Jω.
10 Capitolo 1. Modellistica dei sistemi dinamici

Da un punto di vista energetico, le molle sono elementi in grado di accumulare


solo energia potenziale. In particolare, per una molla traslatoria essa vale
1
V = k(x1 − x2 )2
2
mentre, per una molla torsionale, vale
1
V = k(α1 − α2 )2
2

Elementi di attrito (smorzatori). Uno smorzatore ideale è un elemento, pri-


vo di massa e di elasticità, che, a differenza degli elementi di inerzia ed elastici che
immagazzinano energia, dissipa energia sotto forma di calore. In uno smorzatore
traslatorio, se si applica la forza f agli estremi, la reazione dell’elemento è una
forza proporzionale alla differenza di velocità degli estremi stessi, cioè

f − β(ν1 − ν2 ) = 0

dove la costante β è detta coefficiente di attrito viscoso. Analogamente, uno


smorzatore rotatorio reagisce all’applicazione di una coppia C ai suoi estremi con
una coppia proporzionale alla differenza di velocità angolare degli estremi stessi,
cioè
C − β(ω1 − ω2 ) = 0
dove la costante β è detta coefficiente di attrito viscoso rotatorio. Le dimensioni
dei coefficienti di attrito sono le seguenti
 
variazione di forza N
coeff. attrito viscoso =
variazione di velocità m/s
 
variaz. di coppia N·m
coeff. attrito viscoso rotatorio =
variaz. di velocità angolare rad/s
Da un punto di vista energetico già si è detto che l’elemento di attrito dissipa
energia. In particolare, la funzione che tiene conto dell’energia dissipata, detta
funzione di dissipazione di Rayleigh da uno smorzatore traslatorio con coefficiente
di attrito viscoso β e differenza di velocità degli estremi ν1 − ν2 vale3
1
D = β(ν1 − ν2 )2
2
mentre, uno smorzatore rotatorio con coefficiente di attrito viscoso β e differenza
di velocità angolare degli estremi ω1 − ω2 ha una funzione di dissipazione
1
D = β(ω1 − ω2 )2
2
3
Si noti che tale funzione ha le dimensioni di una potenza e non di un’energia, ma in ogni
caso tiene conto degli effetti dissipativi.
1.2. Elementi di modellistica di sistemi dinamici 11

Passiamo ora alla modellistica dei sistemi elettrici elementari. Diciamo su-
bito che si troverà una piena corrispondenza tra elementi meccanici ed elementi
elettrici, a patto di considerare al posto della velocità la corrente e al posto della
forza la tensione, mentre il ruolo della posizione è svolto dalla carica elettrica.

Induttori. Un induttore è un elemento elettrico ideale (privo di resistenza e


capacità) che (vedi Fig. 1 di Tab. 1.2), ad una tensione v applicata ai suoi capi
risponde con una tensione proporzionale alla derivata temporale della corrente
che scorre nell’induttore secondo la relazione di equilibrio “dinamico”
di
v−L =0
dt
dove L è detta induttanza dell’induttore e si misura in Henry
 
variazione di tensione V
induttanza = = [H]
variazione di corrente nell’unità di tempo A/s
Da un punto di vista energetico, un induttore è capace di immagazzinare energia
magnetica (che indicheremo ancora con il simbolo T dell’energia cinetica, vista
l’analogia con l’elemento di massa), cioè la capacità di svolgere un lavoro in
virtù della corrente elettrica che scorre in esso (ad esempio far girare un motore
elettrico). L’energia immagazzinata da un induttore di induttanza L in cui scorre
una corrente i è pari a
1
T = Li2
2

Condensatore. Un condensatore è un elemento elettrico ideale (privo di resi-


stenza e induttanza) che (vedi Fig. 2 di Tab. 1.2) se sottoposto ad una tensione v
è in grado di accumulare una carica χ proporzionale alla tensione stessa secondo
la relazione di equilibrio4

1
v−
χ=0
C
dove C è detta capacità del condensatore e si misura in Farad
 
variazione di carica C
capacità = = [F]
variazione di tensione V
Poiché, nella pratica, nei sistemi con cui avremo a che fare le grandezze sono
sempre variabili nel tempo, quello che è di interesse in un sistema elettrico com-
plesso non è tanto la carica ma la corrente elettrica, cioè la derivata temporale
della carica, allora è più utile considerare la relazione di equilibrio delle correnti
4
Si noti l’analogia con l’elemento elastico, in cui alla posizione corrisponde la carica e alla
rigidezza k corrisponde l’inverso della capacità 1/C.
12 Capitolo 1. Modellistica dei sistemi dinamici

che si ottiene derivando rispetto al tempo la relazione precedente e considerando


che i = dχ/dt
dv
i−C =0
dt
Un condensatore è in grado di immagazzinare energia elettrostatica (che indiche-
remo ancora con il simbolo V usato per l’energia potenziale vista l’analogia con
l’elemento elastico), cioè la capacità di compiere un lavoro in virtù della carica
elettrica accumulata in esso (ad esempio accendere una lampadina). L’energia
immagazzinata da un condensatore di capacità C dotato di carica χ e ai cui capi
ci sia una tensione v è data da
11 2 1 2
V = χ = Cv
2C 2

Elemento Equilibrio Energia


ν
f
M
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx dν 1
T = M ν2
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
f −M =0
dt 2
Massa
ω C
J dω 1
C−J =0 T = Jω 2
dt 2
Inerzia
k f

x2 x1 1
f − k(x1 − x2 ) = 0 V = k(x1 − x2 )2
2
Molla traslatoria
α1
α2
C

k 1
C − k(α1 − α2 ) = 0 V = k(α1 − α2 )2
2
Molla rotatoria

Tabella 1.1: Elementi costitutivi dei sistemi meccanici

Resistore. Un resistore è un componente elettrico ideale (privo di induttanza


e capacità) che (vedi Fig. 3 di Tab. 1.2) ad una tensione v applicata ai suoi capi
1.2. Elementi di modellistica di sistemi dinamici 13

risponde con una tensione proporzionale alla corrente che scorre in esso, secondo
la relazione di equilibrio5
v − Ri = 0
dove R è detta resistenza del resistore e si misura in Ohm
 
variazione di tensione V
resistenza = = [Ω]
variazione di corrente A
Un resistore, analogamente ad uno smorzatore meccanico, dissipa energia elet-
tromagnetica sotto forma di calore. In particolare, la funzione di dissipazione di
Rayleigh per un resistore di resistenza R in cui scorre una corrente i vale
1
D = Ri2
2
Le caratteristiche dei sistemi meccanici elementari sono riassunte in Tab. 1.1,
mentre quelle degli elementi elettrici sono riassunte in Tab. 1.2. In Tab. 1.3 sono
riportate i sistemi elementari dissipativi elettrici e meccanici.

Elemento Equilibrio Energia

i L

v di 1
v−L =0 T = Li2
dt 2
Induttore
C
i

v dv 1 1 2
i−C =0 V = Cv 2 = χ
dt 2 2C
Condensatore

Tabella 1.2: Elementi costitutivi dei sistemi elettrici

1.2.2 Determinazione delle equazioni del modello dinamico


Nell’analizzare le caratteristiche dei sistemi elementari elettrici e meccanici è
emerso che alcuni elementi hanno la capacità di accumulare energia, questo si-
gnifica che sono in qualche modo in grado di tenere memoria di quanto è ad essi
accaduto nel passato. Ciò ci porta a introdurre il concetto di stato
Lo stato di un sistema è il minimo insieme di variabili, dette variabili di stato, che
contiene sufficienti informazioni sulla storia passata del sistema per permetterci
5
Tale relazione è nota anche come Legge di Ohm.
14 Capitolo 1. Modellistica dei sistemi dinamici

Elemento Equilibrio Funzione di dissipazione


ts
β f
ν2 ν1 1
f − β(ν1 − ν2 ) = 0 D = β(ν1 − ν2 )2
2
Smorzatore traslatorio
ω2 β ω1
C
1
C − β(ω1 − ω2 ) = 0 D= β(ω1 − ω2 )2
2
Smorzatore rotatorio

i R

v 1
v − Ri = 0 D = Ri2
2
Resistore

Tabella 1.3: Elementi dissipativi

xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
x
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
k M
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Figura 1.5: Sistema massa-molla

di calcolare tutti gli stati futuri del sistema, supponendo noti tutti gli ingressi
futuri e le equazioni che descrivono il sistema.
Strettamente legato a questo concetto è quello di funzione di stato
Una funzione di stato è ogni funzione scalare delle variabili di stato e del tempo il
cui valore ad ogni istante di tempo è completamente determinato dai valori delle
variabili di stato in quell’istante e dal tempo stesso.
Funzioni di stato sono, ad esempio, l’energia cinetica e l’energia potenziale.
Una funzione di stato che si rivela molto utile per la determinazione di modelli
matematici di sistemi fisici reali è la cosiddetta funzione di Lagrange o Lagran-
giana. La Lagrangiana è definita come la differenza fra l’energia cinetica totale
T e l’energia potenziale totale V di un sistema.

Esempio 1.1 Si consideri il sistema massa-molla in Fig. 1.5. Tale sistema meccanico
è costituito da due elementi, un elemento di inerzia di massa M e un elemento elastico
1.2. Elementi di modellistica di sistemi dinamici 15

v
L

Figura 1.6: Circuito elettrico LC

(molla traslatoria) di costante elastica k. Come visto nel paragrafo precedente, il


primo ha un’energia cinetica
1
T (ẋ) = M ẋ2
2
dove x è la posizione della massa e quindi ẋ è la sua velocità6 . La molla, invece, è
un elemento che accumula energia potenziale, che vale
1 2
V (x) = kx
2
La Lagrangiana di questo sistema è allora
1 1
L(x, ẋ) = T (ẋ) − V (x) = M ẋ2 − kx2
2 2

Vediamo un esempio di sistema elettrico.

Esempio 1.2 Si consideri il sistema elettrico in Fig. 1.6, dove v è la tensione ai capi
del condensatore di capacità C e i è la corrente nell’induttore di induttanza L. Dalle
relazioni in Tab. 1.2, si trova subito che l’energia cinetica totale del sistema è
1
T (i) = Li2
2
mentre, ricordando che la carica del condensatore è pari a χ = Cv, quella potenziale

1 2
V (χ) = χ
2C
6
Nel seguito indicheremo con f˙(t) la derivata temporale di f (t), cioè f˙(t) = df
dt
e con f (n) (t)
n
la derivata n−ma, cioè f (n) (t) = ddtnf .
16 Capitolo 1. Modellistica dei sistemi dinamici

e quindi la Lagrangiana vale

1 2 1 2
L(χ, i) = T (i) − V (χ) = Li − χ
2 2C
Notiamo esplicitamente che la corrente i nell’induttore è la stessa che circola nel
condensatore e quindi è pari alla derivata temporale della carica nel condensatore,
quindi si ha i = χ̇ e la Lagrangiana diventa

1 1 2
L(χ, χ̇) = Lχ̇2 − χ
2 2C
che formalmente è identica a quella trovata per il sistema massa-molla.

In generale, per un sistema meccanico, la Lagrangiana dipende da posizione


e velocità degli elementi di inerzia, mentre per un sistema elettrico, dipende da
correnti negli induttori e tensioni (o cariche) sui condensatori. Tali grandezze
allora rappresentano le variabili di stato di un sistema elettro-meccanico. Vista
la forte analogia tra sistemi meccanici ed elettrici messa in luce nei due esempi
precedenti, è possibile prescindere dal significato fisico delle variabili di stato, per
cui è conveniente adottare i simboli più generici q e q̇, dove q non rappresenta
necessariamente una coordinata cartesiana di posizione e q̇ non rappresenta ne-
cessariamente una velocità. Quello che si sta cercando di fare è di generalizzare il
concetto stesso di posizione e velocità di un sistema. Ricordiamo che per deter-
minare la posizione nello spazio di un sistema di N punti materiali è necessario
assegnare 3N coordinate. In generale, il numero di grandezze indipendenti che
si debbono assegnare per determinare univocamente la posizione di un sistema si
chiama numero di gradi di libertà del sistema. Si chiameranno coordinate genera-
lizzate i valori assunti da tali variabili q1 , q2 , . . . , ql che caratterizzano la posizione
del sistema. Con q̇1 , q̇2 , . . . , q̇l si indicheranno le derivate prime rispetto al tempo
delle coordinate generalizzate, che rappresentano la generalizzazione del concetto
di velocità. Dunque
Le variabili di stato di un sistema generico sono costituite dall’insieme delle
coordinate generalizzate e delle loro derivate prime rispetto al tempo.
Una volta generalizzati i concetti di posizione e velocità è possibile estende-
re a sistemi non meccanici anche il concetto di moto in un dato intervallo di
tempo [ti , tf ]. Si chiama moto o movimento del sistema l’insieme dei valori as-
sunti dalle coordinate generalizzate e dalle loro derivate prime rispetto al tempo
nell’intervallo [ti , tf ], cioè

{qi (t), q̇i (t) : t ∈ [ti , tf ], i = 1, 2, . . . , l}.

A questo punto non rimane che generalizzare le leggi del moto. A tale scopo
faremo riferimento al Principio di Hamilton, secondo cui
1.2. Elementi di modellistica di sistemi dinamici 17

xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
y
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
k
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
u
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
M
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
β
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Figura 1.7: Sistema massa-molla-smorzatore

Proposizione 1.1 Dati due istanti di tempo t1 e t2 , se un sistema occupa posi-


zioni determinate caratterizzate da due insiemi di valori delle coordinate genera-
lizzate, allora il moto del sistema tra gli istanti t1 e t2 è tale che l’integrale
Z " l
#
t2 X
L(q1 , . . . , ql , q̇1 , . . . , q̇l ) + Fi qi dt
t1 i=1

assume un valore estremo (minimo) lungo la traiettoria q = q(t) del moto.

Con il simbolo Fi sono state indicate tutte e sole le forze generalizzate che agiscono
sulle variabili generalizzate e che non derivano da un potenziale (non conserva-
tive)7 . Il principio di Hamilton, in altre parole, afferma che un sistema effettua
moti che minimizzano una funzione dipendente dai vari tipi di energia che entrano
in gioco nel sistema: cinetica, potenziale e fornita dall’esterno.
Facendo uso del calcolo delle variazioni è possibile determinare il minimo
dell’integrale nel principio di Hamilton e quindi le equazioni che il moto di un
sistema dinamico deve soddisfare. Tali equazioni sono dette di Eulero-Lagrange e
sono costituite dal sistema di l equazioni differenziali ordinarie (dove l è il numero
di gradi di libertà del sistema)8

d ∂L(q, q̇) ∂L(q, q̇)


− = Fi , i = 1, . . . , l (1.1)
dt ∂ q̇i ∂qi
valido nell’ipotesi che nel sistema non siano presenti elementi dissipativi. Se
invece tali elementi sono presenti, le equazioni di Eulero-Lagrange diventano
d ∂L(q, q̇) ∂L(q, q̇) ∂D(q̇)
− + = Fi , i = 1, . . . , l (1.2)
dt ∂ q̇i ∂qi ∂ q̇i
dove D(q̇) è la funzione di dissipazione totale.
7
È questo il motivo per cui la forza di attrazione gravitazionale (che è conservativa!) è stata
considerata come sorgente di energia potenziale per una massa.
8
Nello scrivere le equazioni si è indicato con q il vettore delle coordinate generalizzate.
18 Capitolo 1. Modellistica dei sistemi dinamici

Esempio 1.3 Dato il sistema meccanico in Fig. 1.7, in cui si individuano i tre ele-
menti massa, molla e smorzatore (tutti traslatori) sottoposti alla forza u, vogliamo
determinare le equazioni del suo modello dinamico. Il primo passo è quello dell’indi-
viduazione delle coordinate generalizzate. Nel caso in esame è chiaro che la posizione
del sistema è completamente individuata dalla posizione della massa M , quindi q = y.
Le variabili di stato sono allora q e q̇. Il passo successivo è quello della determinazio-
ne delle energie cinetica e potenziale totali oltre alla funzione di dissipazione totale.
Applicando le relazioni in Tab. 1.1 e Tab. 1.3, si ha

1 1 1
T = M q̇ 2 , V = kq 2 , D = β q̇ 2
2 2 2
La funzione Lagrangiana vale dunque

1 1
L(q, q̇) = T − V = M q̇ 2 − kq 2
2 2
Calcoliamo ora i singoli termini che compaiono nell’equazione (1.2)

∂L(q, q̇) d ∂L(q, q̇)


= M q̇ ⇒ = M q̈
∂ q̇ dt ∂ q̇

∂L(q, q̇) ∂D(q̇)


= −kq, = β q̇
∂q ∂ q̇
che sostituiti nell’equazione forniscono

M q̈ + β q̇ + kq = u

che è un’equazione differenziale del secondo ordine lineare a coefficienti costanti9 .

Vediamo anche un esempio di sistema elettrico.

Esempio 1.4 Dato il circuito elettrico in Fig. 1.8, in cui si individuano i tre elementi
induttore, condensatore e resistore sottoposti alla tensione u, vogliamo determinare
le equazioni del suo modello dinamico. Il primo passo è quello dell’individuazione
delle coordinate generalizzate. Ricordando che la “posizione in un circuito elettrico è
rappresentata dalla carica dei condensatori, si ha che q = χ. Le variabili di stato sono
allora q e q̇. Osservando che q è legata alla corrente nell’induttore da una relazione
di derivata temporale (i = χ̇), si ritrova che la corrente in un induttore è variabile
di stato di un circuito elettrico. Il passo successivo è quello della determinazione
9
Lo stesso risultato può essere ottenuto anche applicando il secondo principio della dinamica
e le relazioni di equilibrio per i tre elementi costituenti il sistema.
1.2. Elementi di modellistica di sistemi dinamici 19

C
R

v
L
u
i

Figura 1.8: Circuito elettrico RLC

delle energie cinetica e potenziale totali, oltre alla funzione di dissipazione totale.
Applicando le relazioni energetiche di Tab. 1.2 e Tab. 1.3, si ha
1 1 2 1
T = Lq̇ 2 , V = q , D = Rq̇ 2
2 2C 2
La funzione Lagrangiana vale dunque
1 1 2
L(q, q̇) = T − V = Lq̇ 2 − q
2 2C
Calcoliamo ora i singoli termini che compaiono nell’equazione (1.2)

∂L(q, q̇) d ∂L(q, q̇)


= Lq̇ ⇒ = Lq̈
∂ q̇ dt ∂ q̇

∂L(q, q̇) 1 ∂D(q̇)


= − q, = Rq̇
∂q C ∂ q̇
che sostituiti nell’equazione forniscono
1
Lq̈ + Rq̇ + q=u
C
che è ancora una volta un’equazione differenziale del secondo ordine lineare a coeffi-
cienti costanti perfettamente analoga a quella ottenuta per il sistema massa-molla-
smorzatore. La stessa equazione avremmo potuto ottenerla semplicemente applican-
do i principi di Kirchhoff. Infatti, applicando il secondo principio all’unica maglia,
e tenendo conto delle relazioni di equilibrio dei singoli componenti di Tab. 1.2 e
Tab. 1.3, si ha
di
u = Ri + v + L
dt
e, tenendo conto che v = 1/Cq e i = q̇, si riottiene l’equazione di sopra.
20 Capitolo 1. Modellistica dei sistemi dinamici

Nel seguito, per determinare il modello dinamico di un circuito elettrico appli-


cheremo sempre i principi di Kirchhoff, in quanto questa è ancora la metodologia
più usata per la modellazione dei circuiti, ed inoltre è quella che verrà adoperata
anche in tutti i corsi successivi. Inoltre, come variabile di stato di un condensatore
si assumerà sempre la tensione e non la carica.

1.3 La rappresentazione ingresso–stato–uscita


Negli esempi precedenti abbiamo visto come il modello matematico di un sistema
dinamico a parametri concentrati assume la forma di un’equazione differenziale.
In generale, il modello di un sistema di questo tipo può essere sempre scritto nella
forma di un sistema di equazioni differenziali tutte del primo ordine, detta forma
normale. Con riferimento ai risultati dell’Esempio 1.3, analizziamo il seguente
esempio.

Esempio 1.5 Facendo le seguenti posizioni

x1 = q, x2 = q̇

si ha che l’equazione differenziale del secondo ordine in q(t)

M q̈ + β q̇ + kq = u

risulta equivalente alle due equazioni differenziali del primo ordine

ẋ1 = x2 (1.3)
k β 1
ẋ2 = − x1 − x2 + u (1.4)
M M M
che costituiscono la forma normale dell’equazione differenziale del secondo ordine da
cui siamo partiti.

La forma normale più generale in cui si può scrivere il modello matematico


di un sistema dinamico è

ẋ1 (t) = f1 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t)


ẋ2 (t) = f2 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t)
..
.
ẋn (t) = fn (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t)

dove con x1 , . . . , xn si sono indicate tutte le variabili di stato, quindi il numero


totale delle variabili di stato è pari a n = 2 · l, dove l è il numero di gradi di
libertà del sistema, ed è detto ordine del sistema, e con u1 , . . . , ur si sono indicate
1.3. La rappresentazione ingresso–stato–uscita 21

le variabili di ingresso del sistema. L’insieme delle equazioni precedenti è detto


equazione di stato.
Alle equazioni differenziali che regolano l’evoluzione delle variabili di stato,
si affianca sempre una relazione algebrica che serve ad individuare le variabili di
uscita del sistema, cioè quelle variabili che rappresentano l’evoluzione di grandezze
fisiche di interesse nel sistema

y1 (t) = g1 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t)


y2 (t) = g2 (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t)
..
.
ym (t) = gm (x1 (t), . . . , xn (t), u1 (t), . . . , ur (t), t)

detta equazione di uscita. L’insieme delle equazioni di stato e di uscita è detta


rappresentazione ingresso–stato–uscita del sistema.
Da un punto di vista matematico, le prime domande che si pongono in ogni
problema di equazioni differenziali sono quelle riguardanti l’esistenza della solu-
zione x1 (t), . . . , xn (t). La risposta a questi interrogativi dipende dalla particolare
struttura delle funzioni f1 , . . . , fn . In questa sede è sufficiente dire che l’esistenza
della soluzione è garantita dal fatto che le funzioni fi e le loro derivate parziali
∂fi /∂xj siano definite e continue per i, j = 1, . . . , n. Naturalmente, da un punto
di vista pratico, la sola esistenza della soluzione è di poca utilità, in quanto risul-
ta altrettanto importante l’unicità della soluzione. È noto dalla matematica che
l’unicità della soluzione è invece assicurata dalla specificazione delle condizioni
iniziali x1 (t0 ), . . . , xn (t0 ). Risulta cosı̀ evidente che se di un sistema dinamico è
noto lo stato ad un certo istante di tempo t0 ed è noto l’ingresso a partire da
quell’istante di tempo è possibile determinare l’evoluzione dello stato stesso negli
istanti di tempo futuri t ≥ t0 .
Per convincersene, facciamo la seguente considerazione: formalmente potrem-
mo pensare di risolvere il sistema in forma normale integrando sull’intervallo
temporale [t0 , t] ogni singola equazione, ottenendo
Z t
xi (t) − xi (t0 ) = fi (x1 , . . . , xn , u1 , . . . , ur , τ )dτ , i = 1, . . . , n
t0

e quindi
Z t
xi (t) = xi (t0 ) + fi (x1 , . . . , xn , u1 , . . . , ur , τ )dτ , i = 1, . . . , n .
t0

Quest’ultima equazione ci mostra che la soluzione del problema è univocamente


determinata in ogni istante di tempo se conosciamo l’ingresso nell’intervallo [t0 , t]
e le condizioni iniziali su ogni singola variabile xi (t0 ). Nel caso dell’Esempio 1.5
quindi le condizioni iniziali necessarie riguardano posizione e velocità iniziali della
massa.
22 Capitolo 1. Modellistica dei sistemi dinamici

Introduciamo ora la notazione vettoriale per rendere più snella la trattazione.


Indichiamo con x il vettore delle variabili di stato x1 , . . . , xn , con u il vettore degli
ingressi u1 , . . . , ur e con y quello delle uscite y1 , . . . , ym , cioè
     
x1 u1 y1
     
 x2   u2   y2 
x=
 .. ,
 u=
 .. ,
 y=
 ..  ,

 .   .   . 
xn ur ym

mentre, con f e g indichiamo le funzioni vettoriali le cui componenti sono f1 , . . . ,fn


e g1 , . . . , gm , rispettivamente
   
f1 (x, u, t) g1 (x, u, t)
   
 f2 (x, u, t)   g2 (x, u, t) 
f (x, u, t) = 
 .. ,
 g(x, u, t) = 
 ..  .

 .   . 
fn (x, u, t) gm (x, u, t)

In definitiva, esplicitando la dipendenza delle variabili dal tempo, la i–s–u di un


sistema dinamico nella sua forma più generale può essere scritta nella forma

ẋ(t) = f (x(t), u(t), t) (1.5)


y(t) = g(x(t), u(t), t) . (1.6)

1.3.1 Classificazione dei sistemi dinamici


In base alle proprietà delle funzioni f e g che compaiono nella rappresentazione
i–s–u, è possibile classificare i sistemi dinamici come segue.

• Sistemi SISO e MIMO. Si dicono monovariabili o SISO i sistemi dotati


di una sola variabile di ingresso e una sola variabile di uscita (m = r = 1).
Si dicono multivariabili o MIMO tutti gli altri.
• Sistemi strettamente propri o puramente dinamici. Sono siste-
mi in cui l’uscita dipende dall’ingresso solo attraverso lo stato, ma non
direttamente, cioè
y(t) = g(x(t), t)

• Sistemi algebrici o adinamici. Si tratta di sistemi in cui l’uscita y ad


ogni istante di tempo dipende esclusivamente dal valore assunto dall’ingres-
so u nello stesso istante di tempo ed eventualmente dal tempo

y(t) = g(u(t), t) ,

in altre parole, il sistema non ha memoria del passato e quindi non ammette
alcuna variabile di stato né alcuna equazione di stato.
1.3. La rappresentazione ingresso–stato–uscita 23

• Sistemi dinamici tempo invarianti o stazionari. Sono quei sistemi in


cui le funzioni di stato e di uscita non dipendono esplicitamente dal tempo,
per cui le equazioni (1.5),(1.6) assumono la forma semplificata

ẋ(t) = f (x(t), u(t))


y(t) = g(x(t), u(t)) .

In tal caso, si può affermare che se la sollecitazione u(t) genera l’uscita y(t),
la stessa sollecitazione traslata nel tempo u(t − T ) genera la stessa uscita
traslata nel tempo y(t − T ).

• Sistemi lineari. Sono quei sistemi che soddisfano il Principio di sovrap-


posizione degli effetti:

Proposizione 1.2 Supposto che la sollecitazione u1 (t), con condizioni ini-


ziali x10 generi lo stato x1 (t) e l’uscita y1 (t) ed una diversa sollecitazio-
ne u2 (t), con diverse condizioni iniziali x20 , generi lo stato x2 (t) e l’u-
scita y2 (t), allora la sollecitazione αu1 (t) + βu2 (t), con condizioni iniziali
αx10 + βx20 , genera lo stato αx1 (t) + βx2 (t) e l’uscita αy1 (t) + βy2 (t).

Si può anche affermare che ciò è vero se e solo se le funzioni f e g delle


equazioni di stato e di uscita (1.5),(1.6) sono combinazioni lineari delle
variabili x ed u con coefficienti eventualmente dipendenti dal tempo.

• Sistemi a dimensione finita e infinita. I primi sono quelli che ne-


cessitano solo di un numero finito di variabili scalari perché il loro stato
interno sia completamente specificato. D’altra parte, nella realtà esistono
moltissimi sistemi che per essere descritti compiutamente, istante per istan-
te, necessitano di intere funzioni di una o più variabili10 , questi si dicono a
dimensione infinita e le equazioni che ne regolano il comportamento sono
equazioni differenziali alle derivate parziali.

• Sistemi stocastici. Sono quei sistemi in cui alcune o tutte tra le variabili
di stato, uscita o ingresso sono di tipo aleatorio.

Notiamo esplicitamente che abbiamo finora fatto l’ipotesi che nei sistemi dinamici
finora esaminati l’effetto in un generico istante di tempo non dipende dai valori
della sollecitazione successivi a tale istante. Tale proprietà è detta di causalità.
In generale, non tutti i sistemi godono di tale proprietà, ma lo studio dei sistemi
non causali sarà oggetto soprattutto dei corsi di Telecomunicazioni, nei quali si
studieranno anche i sistemi stocastici.
10
Ad esempio, la deflessione y della trave descritta nel Paragrafo 1.1, in ogni istante di tempo
è funzione dell’ascissa x.
24 Capitolo 1. Modellistica dei sistemi dinamici

1.4 I sistemi lineari tempo invarianti


Nel corso di Analisi dei Sistemi affronteremo quasi esclusivamente lo studio dei
sistemi dinamici lineari e tempo invarianti a dimensione finita (sistemi LTI). Ciò
deriva dal fatto che per tale classe di sistemi dinamici è possibile mettere a punto
metodologie di analisi e sintesi di validità generale; inoltre, essi, in particolari
condizioni di funzionamento, rappresentano quali sistemi astratti orientati con
buona approssimazione un ampio insieme di sistemi dinamici reali. Inoltre, da
un punto di vista prettamente applicativo, spesso è più conveniente avere a di-
sposizione degli strumenti semplici che conducano ad una soluzione ingegneristi-
camente efficace, piuttosto che strumenti complessi ma di ardua o poco efficiente
applicazione.
Cosı̀, il sistema dell’Esempio 1.3 soddisfa le ipotesi di linearità e stazionarietà,
e le equazioni (1.3),(1.4) possono essere riscritte nella forma matriciale
   
0 1 0
ẋ =  k β x +  1 u
− −
M M M
!
x1
avendo posto x = .
x2
Cosı̀ come per un generico sistema dinamico non lineare, anche per i sistemi
LTI, in numerevoli applicazioni, si è spesso interessati solo ad alcune grandez-
ze che evolvono all’interno del sistema, le cosiddette variabili di uscita. Con
riferimento all’Esempio 1.4

Esempio 1.6 Scriviamo l’equazione del secondo principio di Kirchhoff prendendo


come variabili di stato la tensione sul condensatore, anziché la carica, (x1 ) e la
corrente nell’induttore (x2 )
u = Rx2 + Lẋ2 + x1
e poi tenendo conto della relazione di equilibrio del condensatore si ha

x2 = C ẋ1 ,

che scritte in forma matriciale diventano


! !
0 1/C 0
ẋ = x+ u
−1/L −R/L 1/L

Se siamo interessati all’evoluzione della sola tensione ai capi del resistore, allora il
modello matematico va arricchito di un’ulteriore equazione, detta equazione di uscita,
che metta in relazione tale variabile con lo stato del sistema ed eventualmente con
1.4. I sistemi lineari tempo invarianti 25

R i1 A x2 L B
i2
y1
u1 x1 y2 u2
C R

Figura 1.9: Circuito elettrico dell’Esempio 1.7

l’ingresso. Detta y tale tensione, si ha y = Ri = Rx2 , che in forma matriciale si


scrive
y = (0 R)x .

In generale, per un sistema lineare tempo invariante, la rappresentazione


ingresso–stato–uscita è sempre del tipo

ẋ = Ax + Bu (1.7)
y = Cx + Du , (1.8)

dove la matrice A di dimensioni n × n, se n è l’ordine del sistema, è detta matrice


dinamica, la matrice B di dimensioni n × r, se r è il numero degli ingressi, è
detta matrice degli ingressi, la matrice C di dimensioni m × n, se m è il numero
delle uscite, è detta matrice delle uscite, e la matrice D ha dimensioni m × r.
Facciamo un esempio di sistema lineare a più ingressi e più uscite (MIMO).

Esempio 1.7 Il circuito in Fig. 1.9, avendo un condensatore ed un induttore, avrà


due variabili di stato, siano x1 la tensione ai capi del condensatore e x2 la corrente
nell’induttore. Di conseguenza, la matrice dinamica avrà dimensioni 2×2. La presen-
za di due generatori indipendenti implica la presenza di due ingressi, quindi la matrice
degli ingressi avrà dimensioni 2. Se siamo interessati all’evoluzione della tensione ai
capi dei due resistori, il sistema avrà due uscite e quindi la matrice delle uscite avrà
dimensioni 2×2, cosı̀ come la matrice D. Scriviamo l’equazione del secondo principio
di Kirchhoff alla maglia contenente il generatore di tensione, considerando anche la
relazione di equilibrio del resistore

u1 = Ri1 + x1 .

Scriviamo l’equazione del primo principio di Kirchhoff al nodo B

u2 = x2 + i2 .
26 Capitolo 1. Modellistica dei sistemi dinamici

Tenendo conto della relazione di equilibrio del condensatore, per il primo principio di
Kirchhoff al nodo A vale la relazione

i1 = C ẋ1 − x2 ,

mentre la relazione di equilibrio dell’induttore e il secondo principio di Kirchhoff alla


maglia centrale implicano l’equazione

Ri2 = x1 + Lẋ2 .

Per eliminare le variabili i1 e i2 , si sostituiscono le ultime due equazioni nelle prime


due e quindi si ricavano le derivate prime delle variabili di stato ottenendo l’equazione
di stato, che in forma matriciale (posto x = (x1 x2 )T , u = (u1 u2 )T ) si scrive
 1 1   1 
− 0

 RC C 

 RC



ẋ =  x +  u
 1 R   R 
− − 0
L L L
L’equazione di uscita si ottiene dalle prime due equazioni tenendo conto che per la
relazione di equilibrio del resistore si ha y1 = Ri1 e y2 = Ri2 . L’equazione in forma
matriciale (posto y = (y1 y2 )T ) si scrive
! !
−1 0 1 0
y= x+ u.
0 −R 0 R

In particolare, per sistemi con un solo ingresso ed una sola uscita (SISO), la
rappresentazione i–s–u assume la forma semplificata

ẋ = Ax + bu
y = cT x + du

dove i vettori b e c hanno dimensione n e A è sempre una matrice di dimensioni


n × n, essendo n l’ordine del sistema, pari al numero di variabili di stato (vedi
Esempi 1.4 e 1.6).

1.4.1 La rappresentazione ingresso–uscita


Nel modellare un sistema, a volte, può avvenire che non si è in grado di individuare
facilmente le variabili di stato perché non si riesce a dare un chiaro significato
fisico alle grandezze che entrano in gioco nella descrizione del comportamento del
sistema dinamico. Facciamo un esempio.
1.4. I sistemi lineari tempo invarianti 27

k β
x

Figura 1.10: Sistema di sospensione di un autoveicolo

Esempio 1.8 Consideriamo il sistema meccanico in Fig. 1.10, che schematizza il


sistema di sospensione di un autoveicolo. Indichiamo con x lo spostamento del
veicolo di massa M , con k e β la costante elastica e il coefficiente di attrito della
sospensione, rispettivamente, infine, indichiamo con u lo spostamento impresso alla
sospensione dal fondo stradale11 . Applicando il metodo di Lagrange, abbiamo che
1 1 1
T = M ẋ2 , V = k(x − u)2 , D = β(ẋ − u̇)2
2 2 2
per cui i termini dell’equazione di Eulero-Lagrange, con q = x, sono
∂L(x, ẋ) d ∂L(x, ẋ)
= M ẋ ⇒ = M ẍ
∂ ẋ dt ∂ ẋ
∂L(x, ẋ) ∂D(ẋ)
= −k(x − u), = β(ẋ − u̇)
∂x ∂ ẋ
e l’equazione del moto risulta

M ẍ + β(ẋ − u̇) + k(x − u) = 0

Essendo interessati all’evoluzione della sola posizione del veicolo, scegliamo come
uscita la posizione della massa M (y = x) e otteniamo l’equazione

M ÿ + β ẏ + ky = β u̇ + ku

Come si vede nell’equazione differenziale compare la derivata dell’ingresso e quindi


non è possibile scrivere facilmente l’equazione in forma normale.
11
Nel modello abbiamo trascurato la massa e l’elasticità del pneumatico, mentre la forza di
gravità non gioca alcun ruolo in quanto influenza unicamente la posizione di equilibrio delle
molle, e quindi la costante a meno della quale è definita l’energia potenziale, ma che non può
mai comparire nelle equazioni del moto.
28 Capitolo 1. Modellistica dei sistemi dinamici

Il modello a cui siamo giunti nell’esempio precedente è costituito ancora da


un’equazione differenziale che, però, coinvolge solo le variabili di ingresso e uscita
del sistema, per questo è detto rappresentazione ingresso–uscita.
Per un sistema LTI generico, l’ipotesi di linearità che abbiamo fatto sul siste-
ma assicura che l’equazione differenziale della rappresentazione ingresso–uscita
che governa l’evoluzione del sistema è lineare, mentre per l’ipotesi di tempo
invarianza essa è a coefficienti costanti.
La forma più generale possibile del modello dinamico, nella forma di rap-
presentazione ingresso–uscita, di un sistema che rispetti le precedenti ipotesi

y (n) + a1 y (n−1) + · · · + an y = b0 u(n) + b1 u(n−1) + · · · + bn u (1.9)
dove a1 , . . . , an e b0 , . . . , bn sono costanti scalari. La (1.9) descrive completamente,
fissati y (n−1) (0), . . . , y(0) e u(t), l’evoluzione dell’uscita y(t) del sistema12 .
Nel paragrafo successivo vedremo come è possibile passare da una forma di
rappresentazione all’altra.

1.5 Passaggi tra le forme di rappresentazione


In questo paragrafo analizzeremo come, data una rappresentazione i–s–u del si-
stema, si può ottenere la rappresentazione i–u e viceversa. Siccome può essere
dimostrato che la rappresentazione i–s–u non è unica, il secondo problema ha più
soluzioni, delle quali noi ci limiteremo a considerare le più frequentemente utiliz-
zate. Vedremo inoltre che gli algoritmi per costruire la rappresentazione i–s–u for-
niscono un utile strumento per realizzare sistemi il cui comportamento sia gover-
nato dall’equazione differenziale assegnata. Per tale motivo una rappresentazione
i–s–u di un sistema è detta anche realizzazione del sistema.

1.5.1 Passaggio da i–s–u a i–u


Consideriamo un sistema SISO di ordine n espresso tramite una rappresentazione
i–s–u del tipo visto finora

ẋ = Ax + bu
y = cT x + du

e proponiamoci di ricavare la corrispondente rappresentazione i–u

y (n) + a1 y (n−1) + · · · + an y = b0 u(n) + b1 u(n−1) + · · · + bn u


12
Si noti che la rappresentazione i–u nella forma dell’equazione (1.9) è valida solo per sistemi
con un solo ingresso e una sola uscita (SISO).
1.5. Passaggi tra le forme di rappresentazione 29

Sia inoltre a(λ) = λn + a1 λn−1 + · · · + an il polinomio caratteristico della matrice


A (per questo e i seguenti concetti si veda l’Appendice B).
Considerando l’equazione di uscita e le sue derivare temporali fino all’ordine
n si ottiene

y = cT x + du
ẏ = cT Ax + cT bu + du̇
ÿ = cT A2 x + cT Abu + cT bu̇ + dü
..
.
(n)
y = cT An x + cT An−1 bu + · · · + cT bu(n−1) + du(n)

Moltiplicando ora la prima identità per an , la seconda per an−1 e cosı̀ via fino alla
penultima, moltiplicata per a1 , e sommando, i termini contenenti lo stato x si
annullano in virtù del teorema di Caley–Hamilton, e quindi resta solo un legame
fra ingresso (e sue derivate) e uscita (e sue derivate), che può essere espresso nella
forma voluta:

y (n) + a1 y (n−1) + · · · + an y = b0 u(n) + b1 u(n−1) + · · · + bn u

dove

b0 = d (1.10)
b1 = cT b + a1 d
b2 = cT Ab + a1 cT b + a2 d
..
.
bn = cT An−1 b + a1 cT An−2 b + · · · + an d

1.5.2 Passaggio da i–u a i–s–u


Prima di esaminare in dettaglio gli algoritmi di realizzazione, vediamo perché la
rappresentazione i–s–u di un sistema LTI non è unica. Dato un sistema LTI,
supponiamo nota una sua i–s–u nella forma (1.7),(1.8) ed eseguiamo il seguente
cambiamento di variabili
z = Tx (1.11)
nell’ipotesi che la matrice di trasformazione T sia invertibile, per cui è ben definita
anche la trasformazione inversa

x = T −1 z .

Calcolando la derivata temporale della nuova variabile di stato z, si ottiene

ż = T ẋ = T (Ax + Bu) = T Ax + T Bu = T AT −1 z + T Bu ,
30 Capitolo 1. Modellistica dei sistemi dinamici

e analogamente nell’equazione di uscita

y = CT −1 z + Du

per cui, la i–s–u nella variabile di stato z è

ż = Âz + B̂u
y = Ĉz + Du ,

dove la matrice dinamica, quella degli ingressi e quella delle uscite sono legate alle
corrispondenti matrici della rappresentazione i–s–u di partenza dalle relazioni

 = T AT −1 , B̂ = T B, Ĉ = CT −1 .

In definitiva, di un sistema esistono infinite i–s–u, perciò è evidente che il pas-


saggio da una rappresentazione i–u ad una rappresentazione i–s–u può avvenire
in più modi.
Iniziamo con una prima maniera di procedere, che ci condurrà alla cosiddetta
forma canonica di osservazione. Integrando l’equazione i–u (1.9) n volte si ottiene
Z ZZ Z Z
y = b0 u+ (b1 u−a1 y)dτ1 + (b2 u−a2 y)dτ1 dτ2 +· · · + · · · (bn u−an y)dτ1 · · ·dτn

È vantaggioso a questo punto rappresentare graficamente questa equazione tra-


mite uno schema a blocchi, cioè un disegno in cui le operazioni sulle variabili
sono rappresentate con dei blocchi (integratore, sommatore e prodotto per una
costante) come in Fig. 1.11.
Definendo come variabili di stato le uscite degli integratori si ottengono le
seguenti relazioni

ẋ1 = −an y + bn u = −an xn + (bn − b0 an )u


ẋ2 = x1 − an−1 y + bn−1 u = x1 − an−1 xn + (bn−1 − b0 an−1 )u
..
.
ẋn = xn−1 − a1 y + b1 u = xn−1 − a1 xn + (b1 − b0 a1 )u
y = xn + b0 u

che in forma matriciale diventano


   
0 0 ··· 0 −an bn − b0 an

 1 0 ··· 0 −an−1 


 bn−1 − b0 an−1 

   
ẋ =  0 1 ··· 0 −an−2 x +  bn−2 − b0 an−2 u
   
 .. .. . . .. ..   .. 
 . . . . .   . 
0 0 ··· 1 −a1 b1 − b0 a1
 
y = 0 0 0 ··· 1 x + b0 u
1.5. Passaggi tra le forme di rappresentazione 31

bn b2 b1 b0

u ẋ1 R x1 ẋn−1 R xn−1 ẋ R xn y


n

−an −a2 −a1

Figura 1.11: Schema di sistema in forma canonica di osservazione

Si noti che la matrice dinamica associata a questa rappresentazione è in forma


compagna verticale destra (Si veda l’Appendice B per le proprietà peculiari di
questa forma). Una rappresentazione che abbia questa struttura è detta forma
canonica di osservazione.
Vediamo ora una forma alternativa della descrizione i–s–u ottenuta con un
diverso procedimento. Il punto di partenza è il seguente: supponiamo di voler
ottenere una rappresentazione schematica dell’equazione differenziale di ordine n
 
y (n) = F y (n−1) , . . . , ẏ, y, u, t

Come spesso accade, la soluzione di un problema che non può essere ottenuta
per via diretta viene trovata ribaltando l’ottica da cui si osservano i dati. Nel
1876 Lord Kelvin osservò che, supponendo di avere a disposizione la derivata n–
esima y (n) è possibile tramite integratori ricavare le derivate di ordine più basso.
Queste derivate possono essere mandate in ingresso ad un dispositivo che realizzi
la funzione F , la cui uscita sarà proprio y (n) , il che ci permette di chiudere il
ciclo, come illustrato in Fig. 1.12. In questa maniera la simulazione è ottenuta
utilizzando solo integratori.
Dopo questa premessa siamo in grado di presentare la nuova forma di rappre-
sentazione i–s–u. Illustriamo il metodo con un esempio sufficientemente generale
da non complicare poi la successiva generalizzazione.
Si consideri un sistema la cui rappresentazione i–u sia
... ...
y +a1 ÿ + a2 ẏ + a3 y = b0 u +b1 ü + b2 u̇ + b3 u (1.12)
32 Capitolo 1. Modellistica dei sistemi dinamici

y (n) R y (n−1) R y (n−2) ẏ R y

 
F y (n−1) , y (n−2) , . . . , ẏ, u, t
u

Figura 1.12: Schema di Kelvin

e sia ξ la soluzione del sistema


...
ξ +a1 ξ¨ + a2 ξ̇ + a3 ξ = u (1.13)

Supponiamo ora che le condizioni iniziali nelle (1.12), (1.13) siano nulle. In
questa ipotesi è possibile sfruttare la linearità delle equazioni per ottenere un’e-
quazione che definisca l’uscita y della (1.12) in funzione delle variabili ausiliarie ξ
ottenute dalla (1.13). Infatti l’ingresso applicato alla (1.12) è una combinazione
lineare (ricordando che l’operatore di derivazione è lineare) di quello applicato
alla (1.13), quindi l’uscita y sarà esprimibile come
...
y = b0 ξ +b1 ξ̈ + b2 ξ˙ + b3 ξ (1.14)

La simulazione della (1.13) può essere eseguita utilizzando il metodo di Lord


Kelvin illustrato in precedenza, mentre in un primo momento l’uscita y può essere
ricavata dalla (1.14) tramite derivatori, ottenendo lo schema in Fig. 1.13.
...
Per eliminare ora i derivatori osserviamo che le variabili ξ, ξ, ˙ ξ̈, ξ sono già
disponibili all’ingresso degli integratori, quindi è sufficiente spostare le linee di
ingresso della (1.14) per eliminare la necessità di derivatori, come illustrato in
Fig. 1.14.
A questo punto la rappresentazione i–s–u è ottenuta semplicemente ponendo
¨ che soddisfano le equazioni
x1 = ξ, x2 = ξ̇, x3 = ξ,

ẋ1 = x2
ẋ2 = x3
ẋ3 = −a3 x1 − a2 x2 − a1 x3 + u
y = (b3 − b0 a3 )x1 + (b2 − bo a2 )x2 + (b1 − b0 a1 )x3 + b0 u
1.5. Passaggi tra le forme di rappresentazione 33

d3 b0
dt3
d2 b1
dt2
y
d b2
dt
...
u ξ R ξ̈ R ξ˙ R ξ
b3

−a1

−a2

−a3

Figura 1.13: Passo intermedio per la realizzazione

che in forma matriciale diventano


   
0 1 0 0
   
ẋ =  0 0 1 x +  0 u
−a3 −a2 −a1 1
y = (b3 − b0 a3 b2 − b0 a2 b1 − b0 a1 )x + b0 u
Questa forma di rappresentazione è detta forma canonica di controllo. La forma
generale di questo tipo di realizzazione di un sistema con rappresentazione i–
u (1.9) è
   
0 1 0 ··· 0 0

 0 0 1 ··· 0 


 0 

ẋ =
 .. .. .. .. ..  
x +  .. 
u

 . . . . .   . 
   
 0 0 0 ··· 1   0 
−an −an−1 −an−2 · · · −a1 1
 
y = bn − b0 an bn−1 − b0 an−1 bn−2 − b0 an−2 · · · b1 − b0 a1 x + b0 u

Si noti che ancora una volta la matrice dinamica è in forma compagna, questa
volta però orizzontale inferiore, e che la rappresentazione è duale rispetto alla
forma canonica di osservazione, nel senso che valgono le relazioni Ac = ATo ,
bc = co , cc = bo e dc = do , dove i pedici “c” e “o” sono riferiti alle variabili in
forma canonica di controllo e osservazione rispettivamente.
34 Capitolo 1. Modellistica dei sistemi dinamici

replacemen b0

b1
y
b2

u ẋ3 R x3 R x2 R x1
b3

−a1

−a2

−a3

Figura 1.14: Forma canonica di controllo

In questo paragrafo, abbiamo visto che di un sistema esistono infinite realiz-


zazioni, che hanno tutte lo stesso comportamento ingresso–uscita, nel senso che
sotto gli stessi ingressi generano le stesse evoluzioni della variabile di uscita, e
in tal senso vanno considerate equivalenti. Tuttavia, non è possibile attribuire
alcun significato fisico alle variabili di stato che compaiono nelle diverse rappre-
sentazioni i–s–u. Ciò significa che l’evoluzione delle singole variabili di stato non
ci dà alcuna informazione su quanto sta avvenendo all’interno del sistema reale.
Inoltre, il sistema reale potrebbe avere delle particolari proprietà del tutto diver-
se da quelle possedute dal sistema realizzato a partire dalla sua rappresentazione
i–u, proprietà legate evidentemente alla particolare struttura interna del sistema
stesso. Vediamo un esempio.

Esempio 1.9 Consideriamo il sistema LTI

ẋ1 = −3x1
ẋ2 = 2x1 − 4x2 + u
y = x1 + x2

la cui rappresentazione i–u si ottiene calcolando il polinomio caratteristico della


matrice dinamica e successivamente applicando le relazioni (1.10)

ÿ + 7ẏ + 12y = u̇ + 3u .
1.6. Linearizzazione 35

Applicando la forma canonica di controllo, da questa rappresentazione i–u si otter-


rebbe la rappresentazione i–s–u

ż1 = z2
ż2 = −12z1 − 7z2 + u
y = 3z1 + z2 ,

avendo avuto cura di usare un diverso simbolo per le variabili di stato. Da una
semplice ispezione delle equazioni della rappresentazione i–s–u originaria si nota che
l’ingresso u non ha alcun effetto sulla variabile di stato x1 , difatti istante per istante
tale variabile vale x1 (t) = e−3t x10 e quindi risulta indipendente da u. Al contrario, è
evidente dalle equazioni della forma canonica di controllo, che l’ingresso è in grado
di influenzare entrambe le variabili di stato. Infatti, z1 è l’integrale di z2 che dipende
direttamente dall’ingresso u. Se ne deduce che la struttura interna dei due siste-
mi è completamente differente, ciononostante presentano lo stesso comportamento
ingresso–uscita. La situazione può essere visualizzata graficamente esaminando i due
schemi a blocchi in Fig. 1.15, dove si nota che nel sistema originario la variabile di
stato x1 evolve solo in virtù di una eventuale condizione iniziale ma non in virtù del-
l’ingresso u, che invece influenza entrambe le variabili di stato del secondo sistema
realizzato in forma canonica di controllo.

Dall’esempio appena presentato si comprende come è possibile che in alcuni


sistemi esistano delle variabili di stato la cui evoluzione non può essere influenzata
dall’ingresso; tali variabili costituiscono lo stato di un particolare sottosistema (in
pratica scollegato dall’ingresso) del sistema originario, detto parte non controlla-
bile (schema a blocchi in alto in Fig. 1.15). Nell’esempio precedente le equazioni
di stato erano in una forma tale che la parte non controllabile era di immediata
individuazione, ma ciò non sempre è possibile. Tuttavia, esistono degli algoritmi
che consentono di determinare sempre una trasformazione di variabili di stato
del tipo (1.11) tale che nelle nuove equazioni di stato venga evidenziata la parte
non controllabile. In maniera duale, esistono sistemi in cui alcune variabili di
stato non concorrono nel determinare l’evoluzione dell’uscita, esse individuano
la cosiddetta parte non osservabile del sistema. Una trattazione completa dei
concetti di controllabilità e osservabilità di un sistema dinamico LTI può essere
trovata, ad esempio, in [11] o in [7].

1.6 Linearizzazione
Fino a questo punto ci siamo occupati solo di sistemi lineari e stazionari, ma va
sottolineato che a rigore nessun sistema fisico può rientrare in questa classe13 .
13
In realtà nessun sistema fisico è descrivibile con relazioni di tipo esclusivamente logico–ma-
tematico.
36 Capitolo 1. Modellistica dei sistemi dinamici

R x1 parte non controllabile

−3 2

u R x2 y

−4

u R z2 R z1 y
3

−7

−12

Figura 1.15: Sistema originario (alto) e realizzazione in forma canonica di


controllo (basso) dell’Esempio 1.9

D’altra parte il vantaggio della descrizione lineare dei sistemi è innegabile in


termini di semplicità computazionale e disponibilità di strumenti matematici, ed
è giustificata quando le variazioni dello stato del sistema siano sufficientemente
“piccole”. Per chiarire questa affermazione, consideriamo il seguente esempio.

Esempio 1.10 Per ricavare il modello dinamico di un pendolo senza attrito (vedi
Fig. 1.16), fissiamo come coordinata generalizzata l’angolo θ e troviamo le energie
cinetica e potenziale
1 2
T = J θ̇ , V = mgh = mgl(1 − cos θ)
2
dove J = ml2 è il momento di inerzia della massa m che ruota attorno al punto di
sospensione. I termini dell’equazione di Eulero-Lagrange, con q = θ, sono

∂L(θ, θ̇) d ∂L(θ, θ̇)


= J θ̇ ⇒ = J θ̈
∂ θ̇ dt ∂ θ̇
1.6. Linearizzazione 37

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

C
l

θ
xxxxxxxxx
xxxxxxxxx
xxxxxxxxx
xxxxxxxxx
xxxxxxxxx
xxxxxxxxx
m
xxxxxxxxx
xxxxxxxxx

Figura 1.16: Pendolo semplice

∂L(θ, θ̇)
= −mgl sin θ,
∂θ
E quindi l’equazione del moto risulta
g C
θ̈ + sin θ =
l J
La descrizione del sistema risulta quindi non lineare. È noto d’altra parte che nell’i-
potesi di piccoli valori dell’angolo θ è lecito approssimare la funzione seno con il suo
argomento:
g C
θ̈ + θ =
l J
e quindi la descrizione è stata resa lineare.
Si pone ora il problema di generalizzare questo modo di procedere, per poter
affrontare casi in cui la linearizzazione sia meno banale dell’esempio presentato.
Per risolverlo, conviene riconsiderare l’approssimazione del seno con il suo argo-
mento adottata nell’esempio. Da un punto di vista matematico l’approssimazione
è permessa dallo sviluppo in serie di Mc Laurin della funzione seno:
x3 x5
sin x = x − + − ···
3! 5!
secondo la quale sin x = x + o(x2 ). Questa considerazione ci fornisce una me-
todologia per estendere la linearizzazione ai casi più complessi, formalizzando il
problema come segue.
Si consideri il sistema non lineare e stazionario con rappresentazione i–s–u
ẋ = f (x, u), x(0) = x0
y = g(x, u)
38 Capitolo 1. Modellistica dei sistemi dinamici

e supponiamo di conoscere, per un assegnato ingresso û(t) la soluzione x̂(t) cor-


rispondente alle condizioni iniziali x̂(0) = x̂0 , e corrispondentemente l’uscita sia
ŷ = g(x̂, û). Consideriamo ora un nuovo ingresso che si ottiene perturbando
“leggermente”14 il precedente, v(t) = û(t) + δu(t) e condizioni iniziali perturbate
z(0) = x̂0 + δx0 ; esprimiamo la soluzione di questo nuovo sistema nella forma
z = x̂ + δx e w = ŷ + δy (cosa sempre possibile). Avremo quindi

ż = f (z, v), z(0) = x̂0 + δx0


y = g(z, v) .

D’altra parte ż = x̂˙ + δẋ e sviluppando le funzioni f e g in serie di Taylor di


punto iniziale (x̂, û) abbiamo

∂f ∂f
f (z, v) = f (x̂, û) + δx + δu + o(k(δx, δu)k)
∂x x=x̂ ∂u x=x̂
u=û u=û


∂g ∂g
g(z, v) = g(x̂, û) + δx + δu + o(k(δx, δu)k)
∂x x=x̂ ∂u x=x̂
u=û u=û

Ora poniamo
∂f ∂f
A(t) = , B(t) = (1.15)
∂x x=x̂ ∂u x=x̂
u=û u=û

∂g ∂g
C(t) = , D(t) = (1.16)
∂x x=x̂ ∂u x=x̂
u=û u=û

e otteniamo una descrizione al primo ordine della dinamica delle variazioni δx


della soluzione:

δẋ = A(t)δx + B(t)δu, δx(0) = δx0


δy = C(t)δx + D(t)δu ,

detto modello linearizzato del sistema non lineare di partenza.


Si osservi che se pure le funzioni f e g non dipendono esplicitamente dal tempo
(cioè se il sistema non lineare di partenza è stazionario) allora la dipendenza dal
tempo delle matrici A, B, C e D è dovuta solo alle funzioni x̂(t) e û(t). In
particolare quindi se l’ingresso nominale û e la soluzione nominale x̂ sono costanti
nel tempo, anche la descrizione linearizzata è stazionaria. Un movimento x̂ che sia
14
Cioè la perturbazione deve essere tale che kδuk << kuk in modo che kδxk << kxk e
Pn 2 1/2
kδyk << kyk. Con il simbolo kxk, x ∈ Rn si intende lo scalare x
i=1 i
, detto norma
(Euclidea) del vettore x.
1.6. Linearizzazione 39

costante (x̂˙ = 0) in presenza di un ingresso costante è detta “punto di equilibrio”


del sistema, e può essere ricavato risolvendo l’equazione implicita

f (x̂, û) = 0 . (1.17)

Va sottolineato che tale equazione può ammettere più soluzioni, quindi in cor-
rispondenza di un ingresso costante il sistema potrebbe ammettere più punti di
equilibrio. Alla domanda verso quale punto di equilibrio il sistema si porta sarà
possibile rispondere solo dopo che nel capitolo successivo avremo introdotto il
concetto di stabilità.
In conclusione, la ricerca di un modello lineare e stazionario che descriva
l’evoluzione di piccoli spostamenti intorno a un punto di equilibrio si sviluppa nei
seguenti passi:

1. Assegnato l’ingresso costante û si calcolano i punti di equilibrio x̂ risolven-


do l’equazione (1.17). Per ciascun punto di equilibrio si eseguono i passi
successivi.

2. Si definiscono le matrici (costanti) A, B, C, D dalle (1.15),(1.16).

3. Si studia il sistema lineare e stazionario

δẋ = Aδx + Bδu, δx(0) = δx0


δy = Cδx + Dδu .

4. La soluzione effettiva del sistema non lineare è

x(t) ≃ x̂ + δx(t), y(t) ≃ ŷ + δy(t) .

In definitiva, per ogni punto di equilibrio si ottiene una rappresentazione i–s–u


lineare diversa.
A titolo di esempio possiamo ora ricavare il modello linearizzato della dina-
mica del rollio di una nave.

Esempio 1.11 Il moto di rollio di un natante (Fig. 1.17) cui sia applicata una
coppia trasversale (conseguenza ad esempio di un’onda) è descritto dall’equazione
differenziale
 
1
J α̈ + β α̇ + mgb 1 + tan2 α sin α − mga sin α = u (1.18)
2

dove m è il dislocamento del natante, J il momento di inerzia rispetto all’asse bari-


centrico longitudinale, β lo smorzamento idrodinamico, a e b le quote rispettivamente
40 Capitolo 1. Modellistica dei sistemi dinamici

u(t)

M
G a α
b

Figura 1.17: Nave

del baricentro e del metacentro, α l’angolo di rollio e l’ingresso u la coppia applicata.


Posto x1 = α e x2 = α̇, l’equazione del moto si riscrive in forma normale

ẋ1 = x2
 
mgb 1 mga β 1
ẋ2 = − 1 + tan2 x1 sin x1 + sin x1 − x2 + u
J 2 J J J
y = x1

In assenza di ingresso (û = 0) è facile constatare che la traiettoria di equilibrio è


x̂ = 0, quindi le matrici linearizzate sono ricavabili calcolando
∂f1 ∂f1
a11 = = 0, a12 = =1
∂x1 ∂x2
∂f2 mg ∂f2 β
a21 = = (a − b), a22 = =−
∂x1 x̂=0 J ∂x2 J
û=0

Per quanto riguarda i vettori di ingresso e di uscita, osserviamo che essi non necessi-
tano di linearizzazione in quanto la funzione f dipende linearmente da u e la funzione
g dipende linearmente da x, quindi il modello linearizzato può essere scritto come
! !
0 1 0
δẋ = mg β δx + 1 δu
J (a − b) − J J
 
δy = 1 0 δx
1.7. Comandi MATLAB 41

1.7 Comandi MATLAB


Il MATLAB è un pacchetto software, la cui diffusione è sempre più vasta sia
a livello accademico che industriale, finalizzato alla simulazione e all’analisi di
sistemi lineari e non lineari, e, più in generale, all’analisi numerica15 . Il nome
è l’acronimo di MATrix LABoratory e difatti l’elemento base del programma è
appunto la matrice. La principale caratteristica, che forse è il principale motivo
della grande diffusione del pacchetto, è la sua organizzazione in Toolbox, cioè
in librerie di sottoprogrammi dedicate alla risoluzione dei più comuni problemi
di analisi e progetto al calcolatore, scritte dagli esperti dei vari settori dell’inge-
gneria. I toolbox in cui sono presenti le principali funzioni di analisi dei sistemi
lineari e non lineari sono il Simulink e il Control System Toolbox. Il primo è
specificamente dedicato alla simulazione di sistemi dinamici tempo continuo e
tempo discreto, mentre il secondo è rivolto maggiormente a problemi di progetto
di sistemi di controllo automatico.
Iniziamo a descrivere come in MATLAB è possibile operare con le matrici e i
vettori. Una matrice può essere definita racchiudendo fra parentesi quadre “[ ]” i
suoi elementi, separando le colonne con lo spazio e le righe con il punto e virgola
“;”. Ad esempio, le matrici
! !
−1 0 1 0 −2
A= , B=
2 3 3 −1 1

si definiscono usando la sintassi

>> A=[-1 0;2 3];


>> B=[1 0 -2;3 -1 1];

e il loro prodotto si calcola con l’istruzione A*B. Da notare che se si tentasse di


eseguire il prodotto B*A il MATLAB risponderebbe con un messaggio di errore,
infatti il prodotto righe per colonne B*A non è ben definito. Per calcolare l’inversa
di una matrice o il suo determinante si possono usare le funzioni inv e det, ri-
spettivamente. L’operatore di trasposizione è invece ’. Ad esempio, l’espressione
C T A−1 B si calcola con l’istruzione C’*inv(A)*B. Infine, per calcolare autovalori
e autovettori di una matrice quadrata si può usare la funzione eig, secondo la
seguente sintassi

>> [V,D]=eig(A);

dove D è la matrice diagonale contenente gli autovalori di A e V è la matrice dei


rispettivi autovettori, cioè tale che A*V=V*D, per cui se A è diagonalizzabile V è
invertibile e si ha inv(V)*A*V=D.
15
Per una guida operativa a MATLAB si veda [3].
42 Capitolo 1. Modellistica dei sistemi dinamici

xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
k1 β k2 xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
xxxxx
m1 m2 xxxxx
xxxxx
xxxxx
xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx
xxxxx
xxxxx f1 f2 xxxxx
xxxxx
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxx
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxx
xxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxx
xxxxx

Figura 1.18: Sistema meccanico dell’Esercizio 1.1.

C ωa αa
ra
Ja
k ωc αc
Jc
αb rb ωb

Figura 1.19: Sistema meccanico dell’Esercizio 1.2.

Il Control System Toolbox, mette a disposizione un tipo di variabile detto


“sistema”, che è possibile adoperare con tutta una serie di comandi dedicati
all’analisi dei sistemi LTI. Per definire una variabile di questo tipo esistono varie
possibilità a seconda della forma di rappresentazione scelta per il sistema. Cosı̀,
se si vuole definire un sistema S di cui si conoscono le matrici A, B, C, D della
rappresentazione i–s–u, allora si può usare il comando

>> S = ss(A,B,C,D);

1.8 Esercizi

Esercizio 1.1 Determinare le equazioni del moto del sistema meccanico rappresen-
tato in Fig. 1.18.

Esercizio 1.2 Determinare una rappresentazione i–s–u del sistema meccanico in


Fig. 1.19, assumendo come ingresso la coppia C e come uscita la deformazione della
1.8. Esercizi 43

molla rotazionale. Si noti che il riduttore (o trasformatore meccanico) è un sistema


adinamico che trasferisce il moto tra assi paralleli conservando la potenza meccanica.
Dunque, la relazione che lo caratterizza è
ωb = kr ωa , dove kr = −ra /rb

u2
iR R R

iC y2 x2 = y1
vR

x1 L
u1 C

Figura 1.20: Sistema elettrico dell’Esercizio 1.3.

Esercizio 1.3 Applicando i principi di Kirchhoff, determinare una i–s-u del sistema
elettrico in Fig. 1.20.

y
px m

ϕ
py
x l

0 x
M u

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Figura 1.21: Sistema meccanico dell’Esercizio 1.4.

Esercizio 1.4 Determinare le energie cinetica e potenziale del sistema meccanico in


Fig. 1.21, scegliendo come variabili lagrangiane x e ϕ indicate in figura.

Esercizio 1.5 Data la seguente rappresentazione i–u di un sistema LTI


3ÿ + 12ẏ − 15y = 6u̇ + 9u ,
determinarne le realizzazioni in forma canonica di controllo e di osservazione.
44 Capitolo 1. Modellistica dei sistemi dinamici

i
i 1
π
C v N.L. 0 v
u −π

tratto di
sinusoide

Figura 1.22: Circuito elettrico dell’Esercizio 1.6.

Esercizio 1.6 Determinare una rappresentazione i–s–u del circuito in Fig. 1.22 con
C = 1 F, quindi determinare √ il sistema linearizzato attorno ai punti di equilibrio
corrispondenti all’ingresso û = 2/2 V.

Esercizio 1.7 Determinare la proprietà di stabilità dei punti di equilibrio del sistema

ẋ1 = x2
ẋ2 = −2u sin x1 − x2 + u
y = x1

in corrispondenza dell’ingresso û = 1.

Esercizio 1.8 Disegnando lo schema a blocchi del sistema LTI


! !
1 0 0
ẋ = x+ u
−1 −3 1
y = ( 1 1 )x ,

verificare l’eventuale presenza di una parte non controllabile.


CAPITOLO 2

Analisi dei sistemi a tempo continuo

Dopo aver esaminato nel precedente capitolo le tecniche di descrizione di un si-


stema lineare e stazionario a tempo continuo, ne analizzeremo in questo capitolo
l’evoluzione dinamica. Lo strumento principale adoperato per questo fine è la
trasformata di Laplace, di cui verranno forniti brevi richiami nel paragrafo intro-
duttivo. Successivamente definiremo la funzione di trasferimento e calcoleremo la
risposta del sistema ad ingressi e condizioni iniziali nel dominio di Laplace. An-
titrasformando torneremo nel dominio del tempo e caratterizzeremo le risposte
tipiche per sistemi del primo e del secondo ordine. Quindi definiremo la stabilità
dei sistemi dinamici e affronteremo il problema della determinazione della risposta
in regime permanente. Infine introdurremo lo strumento di analisi degli schemi
a blocchi dando qualche cenno sulle tecniche di realizzazione di un’assegnata
funzione di trasferimento.

2.1 La trasformata di Laplace

La trasformata di Laplace è un operatore che associa biunivocamente una gene-


rica funzione del tempo f (t) a una funzione F (s) definita sul campo dei numeri
complessi C e a valori ancora complessi. La notazione in uso per indicare la
trasformazione è

F (s) = L[f (t)] .

45
46 Capitolo 2. Analisi dei sistemi a tempo continuo

La definizione che ora daremo è la più generale possibile (se la funzione f (t) è
una funzione ordinaria1 ) ed è la cosiddetta trasformata di Laplace bilatera 2
Z +∞
F (s) = f (t)e−st dt . (2.1)
−∞

Naturalmente, in generale, l’espressione (2.1) potrebbe non essere ben definita


per tutti i valori complessi di s, allora il sottoinsieme dei valori di s per cui
l’integrale può essere calcolato è detto dominio di convergenza e si può dimostrare
essere sempre una striscia verticale del piano complesso, o un semipiano o un
piano. Inoltre, vale la seguente

Proposizione 2.1 Se la funzione f (t) è nulla per t < a (con a ∈ R) allora,


il dominio di convergenza è sempre un semipiano destro, cioè formato dalle s
complesse che hanno parte reale maggiore di un opportuno α0 , detto ascissa di
convergenza.

La biunivocità della trasformazione è garantita quando alla funzione trasfor-


mata F (s) si associa sempre il dominio di convergenza, per cui esiste l’operatore
di antitrasformata di Laplace

f (t) = L−1 [F (s)]

definito da Z
1 α+j∞
f (t) = F (s)est ds (2.2)
2πj α−j∞

dove l’integrale è esteso a qualsiasi retta parallela all’asse immaginario e contenuta


nel dominio di convergenza. Siccome, nella maggior parte delle applicazioni si ha
a che fare con funzioni del tempo che iniziano ad un certo istante t0 , e le cui
trasformate di Laplace hanno quindi per dominio di convergenza un semipiano
destro, quando è assegnata una F (s) si sottintende sempre che il suo dominio di
convergenza sia il più grande semipiano destro di C in cui F (s) è analitica.
Un’importante considerazione pratica è che nella maggior parte dei casi, il
calcolo della antitrasformata non richiede l’applicazione della formula (2.2), ma
è sufficiente riconoscere nell’espressione della F (s) da antitrasformare una tra-
sformata nota. Di conseguenza, nel seguito affronteremo il calcolo di qualche
trasformata comune, mentre un più completo insieme di trasformate notevoli è
riportato in Appendice C.
Prima però di procedere con gli esempi, è bene premettere, senza peral-
tro riportarne la dimostrazione, qualche proprietà formale della trasformata di
Laplace.
1
Per la definizione rigorosa della trasformata di Laplace quando f (t) è una distribuzione
vedi [5].
2
Per alcuni richiami sull’esponenziale complesso vedi Appendice A.
2.1. La trasformata di Laplace 47

• Linearità
L[k1 f1 (t) + k2 f2 (t)] = k1 F1 (s) + k2 F2 (s)

• Coniugazione
F (s∗ ) = F ∗ (s)

• Cambiamento di scala

L[f (t/a)] = |a|F (as)

• Traslazione in t
L[f (t − T )] = e−sT F (s)

• Traslazione in s
L[es0 t f (t)] = F (s − s0 )

Ma la principale caratteristica della trasformata di Laplace è la sua capacità di


tramutare operazioni integro–differenziali in algebriche, grazie alle proprietà

• Derivata in t  
d
L f (t) = sF (s)
dt
• Derivata in s
d
L[−tf (t)] = F (s)
ds
• Integrale in t. Se f (t) = 0, t < 0, allora
Z t 
1
L f (τ )dτ = F (s)
0 s

Altre importanti proprietà sono

• Valore finale. Se esiste il lim f (t), allora


t→+∞

lim f (t) = lim sF (s)


t→+∞ s→0

• Valore iniziale Se f (t) = 0, t < 0, allora

lim f (t) = lim sF (s)


t→0+ s→∞

• Convoluzione3
Z +∞ 
L f (τ )g(t − τ )dτ = F (s)G(s)
−∞
48 Capitolo 2. Analisi dei sistemi a tempo continuo

wT (t)

− T2 0 T
2 t

Figura 2.1: Funzione finestra wT (t)

Passiamo ora al calcolo di qualche trasformata particolare. Particolare inte-


resse assumono le cosiddette funzioni finestra, cioè funzioni del tempo nulle al di
fuori di un certo intervallo.

Esempio 2.1 La funzione finestra rettangolare di durata T (il cui grafico è riportato
in Fig. 2.1) è definita come
(
1 −T /2 < t < T /2
wT (t) = (2.3)
0 altrove

La sua trasformata di Laplace è facilmente calcolabile come


Z +∞ Z T /2  T /2
−st −st 1
L[wT (t)] = wT (t)e dt = e dt = − e−st =
−∞ −T /2 s −T /2

esT /2 − e−sT /2 sinh(sT /2)


= =2
s s
che è una funzione analitica in tutto C, che quindi è il dominio di convergenza della
trasformata calcolata, in altri termini la sua ascissa di convergenza è −∞.

Di particolare importanza è la trasformata seguente.

Esempio 2.2 Calcoliamo la trasformata di Laplace del gradino unitario, cioè la


funzione definita come4 (
1 t≥0
δ−1 (t) =
0 t<0
3
L’operazione di integrazione tra parentesi, detta integrale Rdi convoluzione, è indicata di
+∞
solito col simbolo f (t) ∗ g(t). Si può verificare che f (t) ∗ g(t) = −∞ f (t − τ )g(τ )dτ .
4
Più avanti sarà chiaro il perché del simbolo δ−1 .
2.1. La trasformata di Laplace 49

Ancora facendo riferimento alla definizione (2.1), la sua trasformata di Laplace sarà
data da
Z +∞ Z +∞  +∞
−st 1 1 1
L[δ−1 (t)]= δ−1 (t)e dt = e dt = − e−st
−st
= lim − e−st + =
−∞ 0 s 0 t→+∞ s s
s=α+jω 1 −αt 1 1
= lim − e (cos ωt − j sin ωt) + =
t→+∞ s s s

per ogni α > 0; infatti solo in tal caso si ha che il limite di sopra tende a zero.
Dunque, l’ascissa di convergenza della trasformata di Laplace del gradino unitario è
proprio 0.

Anziché applicare la definizione, è spesso possibile determinare una trasfor-


mata facendo riferimento a trasformate già note e applicando le proprietà della
trasformata stessa. Vediamo due esempi.

Esempio 2.3 Il segnale δ−1 (t − T ) non è altro che un gradino unitario il cui istante
di inizio non è 0 ma T , per cui la sua trasformata di Laplace può essere calcolata a
partire da quella del gradino e applicando la proprietà di traslazione in t

1 −sT
L[δ−1 (t − T )] = L[δ−1 (t)]e−sT = e .
s

L’esempio seguente riveste particolare importanza nell’analisi dei sistemi di-


namici LTI, per cui si invita il lettore a porre particolare attenzione.

Esempio 2.4 Determiniamo la trasformata del segnale esponenziale eat δ−1 (t), con
esponente in generale complesso, cioè a ∈ C. Per la proprietà di traslazione in s
applicata alla trasformata del gradino si ha

1
L[eat δ−1 (t)] = L[δ−1 (t)]|s=s−a = .
s−a

Se, in particolare a ∈ R− , la funzione del tempo è decrescente (converge asintotica-


mente e zero) e la sua trasformata di Laplace presenta una singolarità nel semipiano
sinistro del piano complesso. Mentre, se a ∈ R+ , la funzione del tempo è crescente
(diverge asintoticamente) e la singolarità della sua trasformata di Laplace stavolta
giace nel semipiano destro del piano complesso.

Vediamo ora un’altra coppia di trasformate notevoli, di uso molto frequente


nelle applicazioni.
50 Capitolo 2. Analisi dei sistemi a tempo continuo

Esempio 2.5 Calcoliamo la trasformata di un segnale sinusoidale

ejω0 t − e−jω0 t
L[sin(ω0 t)δ−1 (t)] = L[δ−1 (t) ] = per la linearità
2j
1 1
= L[δ−1 (t)ejω0 t ] − L[δ−1 (t)e−jω0 t ] = per la traslaz. in s
2j 2j
1 1 1 1
= − =
2j s − jω0 2j s + jω0
1 2jω0 ω0
= 2 = 2
2
2j s + ω0 s + ω02

che è analitica per ogni s con parte reale positiva, infatti le sole singolarità del-
la funzione F (s) sono due poli sull’asse immaginario in ±jω0 , dunque l’ascissa di
convergenza è ancora una volta 0. Con passaggi del tutto analoghi si trova che la
trasformata del coseno è pari a

1 1 s
L[cos(ω0 t)δ−1 (t)] = L[δ−1 (t)ejω0 t ] + L[δ−1 (t)e−jω0 t ] = 2
2 2 s + ω02

la cui ascissa di convergenza è ancora 0.

Prima di introdurre la trasformata di Laplace unilatera, è opportuno accenna-


re al calcolo della trasformata di Laplace di una distribuzione 5 molto particolare,
cioè di una funzione generalizzata che riveste particolare importanza in diversi
campi dell’Ingegneria. Consideriamo la seguente successione di funzioni finestra
(
1
n se |t| ≤ 2n
wn (t) =
0 altrimenti

rappresentata in Fig. 2.2 per diversi valori del parametro n. È facile verificare
che tale successione gode delle tre proprietà

• l’area sottesa dal grafico della funzione è pari a 1, cioè


Z +∞
wn (t) dt = 1, ∀n ∈ N
−∞

• il valore (massimo) in t = 0 delle wn (t) tende all’infinito per n → +∞, cioè

lim wn (0) = +∞
n→+∞

5
Per una definizione rigorosa del termine distribuzione si faccia riferimento, ad esempio, a [5].
2.1. La trasformata di Laplace 51

wn (t)
4
n=4

2
n=2
1
n=1

1
− 12 − 14 − 18 1
8
1
4 2 t

Figura 2.2: Approssimazioni dell’impulso di Dirac

• il grafico delle wn (t) si “assottiglia” al crescere di n, cioè

lim wn (t0 ) = 0, ∀t0 6= 0


n→+∞

ovvero, la successione converge puntualmente a 0 per t 6= 0.

Dall’analisi di tali proprietà si intuisce come il limite di questa successione di


funzioni non possa essere una funzione ordinaria, in quanto dotata di integrale
finito ma nulla quasi ovunque6 , infatti in 0 non è definita. Per formalizzare un
comportamento di questo genere occorrerebbe introdurre la teoria dei funzionali
lineari, ma in questa sede ci limiteremo a definire la distribuzione delta di Dirac o
impulso di Dirac, indicata col simbolo δ(t), proprio come il limite della successione
di funzioni prima considerata. Un’importante proprietà della delta di Dirac è la
cosiddetta proprietà del campionamento

Proposizione 2.2 Se f (t) è una funzione continua e derivabile in 0, si ha

δ(t)f (t) = f (0)δ(t) . (2.4)


R +∞
da cui, per la proprietà che −∞ δ(t)dt = 1, si ha pure
Z +∞
δ(t)f (t)dt = f (0) . (2.5)
−∞

6
Con la locuzione “quasi ovunque” si intende “dovunque tranne su un insieme di misura
nulla”.
52 Capitolo 2. Analisi dei sistemi a tempo continuo

Esempio 2.6 In base alla Proposizione 2.2 è facile calcolare la trasformata di Laplace
dell’impulso Z +∞
L[δ(t)] = δ(t)e−st dt = e−0s = 1
−∞
analitica in tutto C, che quindi è il suo dominio di convergenza.

Vediamo ora che relazione esiste tra l’impulso unitario e il gradino unitario.
Dalla proprietà del campionamento discende che
Z (
t 0 t<0
δ(τ )dτ =
−∞ 1 t≥0

in quanto, finché t < 0 l’intervallo di integrazione non comprende lo zero e quindi


il risultato è nullo, da quando invece t diventa maggiore o uguale a 0 l’intervallo
di integrazione comprende lo 0 e quindi il risultato dell’integrale vale 1. In altre
parole, al variare di t il risultato dell’integrale coincide con la funzione gradino
unitario, da cui la seguente

Proposizione 2.3 Tra gradino unitario e impulso unitario sussiste la seguente


relazione Z t
δ−1 (t) = δ(τ )dτ (2.6)
−∞

La precedente relazione, letta da “destra verso sinistra”, consente di estendere la


definizione di derivata a funzioni con discontinuità di prima specie, infatti, risulta
d
δ−1 (t) = δ(t) (2.7)
dt
dove il significato del simbolo di derivata va intenso in un senso più generale
di quello usuale, tant’è che il risultato dell’operazione di derivazione non è una
funzione ordinaria ma una distribuzione. Dall’equazione (2.6) si evince il signi-
ficato del simbolo δ−1 , dove il pedice sta ad indicare appunto una relazione di
integrazione semplice7 .

Esempio 2.7 Calcoliamo la derivata della funzione rappresentata graficamente in


Fig. 2.3. Dall’esame del diagramma e dalla relazione (2.7) risulta immediatamente
d
f (t) = (δ−1 (t) − δ−1 (t − 1)) ⇒ f (t) = δ(t) − δ(t − 1)
dt

7
Iterando il ragionamento che ha portato alla Proposizione 2.3, si potrebbero introdurre
anche i simboli δ−2 (t), per indicare la funzione “rampa” tδ−1 (t) e δ−3 (t), per indicare la funzione
“parabola” t2 δ−1 (t).
2.1. La trasformata di Laplace 53

f (t)

0 1 t
d
f (t)
dt
δ(t)
1
0 t
−δ(t − 1)

Figura 2.3: Funzione dell’Esempio 2.7 e sua derivata

Come si è visto negli esempi e come si vedrà in tutte le applicazioni di interesse


per questo corso, i segnali di cui è interessante calcolare la trasformata di Laplace
sono nulli per t < 0, di conseguenza l’integrale nella definizione (2.1) sarà sempre
calcolato solo per t > 0. Ciò porta alla definizione della cosiddetta trasformata
di Laplace unilatera
Z +∞
L+ [f (t)] = f (t)e−st dt . (2.8)
0

La differenza con la trasformata di Laplace bilatera risiede nel fatto che la


definizione (2.8) non porta in alcun conto la condizione iniziale sul segnale f (t)
da trasformare e cioè sul limite

f (0− ) = lim f (t) .


t→0−

Quando tale valore è nullo, le due definizioni sono equivalenti per segnali nulli
per t < 0, e le proprietà della trasformata unilatera e bilatera coincidono. In
generale, tuttavia, alcune proprietà vanno enunciate in maniera opportuna.

• Derivata in t  
+ d
L f (t) = sF (s) − f (0− )
dt
54 Capitolo 2. Analisi dei sistemi a tempo continuo

Problema nel Integrazione Soluzione nel


dominio del eq. diff.li dominio del
tempo tempo

L L−1

Problema nel Soluzione


Soluzione nel
dominio di eq. algebriche
dominio di
Laplace Laplace

Figura 2.4: Schema di soluzione di equazioni differenziali

• Convoluzione8
Z t 
L+ f (t − τ )g(τ )dτ = F (s)G(s)
0

D’ora in poi useremo sempre la trasformata unilatera (2.8).

2.2 Risposta dei sistemi lineari tempo invarianti


Definita la trasformata di Laplace, siamo ora in grado di affrontare il problema
posto nel capitolo precedente: calcolare la risposta di un sistema LTI ad un
assegnato segnale di ingresso e con assegnate condizioni iniziali. Abbiamo già
visto che se di un sistema dinamico si conosce lo stato ad un generico istante di
tempo t0 e l’ingresso a partire da quell’istante di tempo, è possibile determinarne
l’evoluzione negli istanti di tempo successivi9 . Per questo motivo, nel seguito
analizzeremo sempre e solo il problema della determinazione della risposta di
sistemi LTI a segnali nulli per t < 0, prima facendo l’ipotesi che le condizioni
iniziali siano nulle e poi tenendo conto anche di queste ultime.
Determinare la risposta di un generico sistema dinamico equivale a determi-
nare la soluzione di un’equazione (o, più in generale, di un sistema di equazioni)
differenziale con assegnate condizioni iniziali. Se il sistema è LTI tale equazio-
ne è lineare a coefficienti costanti, e in questo paragrafo studieremo un metodo
abbastanza generale per la risoluzione di questo tipo di equazioni basato sull’uso
della trasformata di Laplace.
8
L’integrale tra parentesi coincide con l’integrale di convoluzione già definito se le due funzioni
sono entrambe nulle per t < 0.
9
Assumeremo, dunque, come origine dell’asse dei tempi l’istante nel quale sia noto lo stato
del sistema, cioè t0 = 0.
2.2. Risposta dei sistemi lineari tempo invarianti 55

La proprietà di derivazione in t ci dice che nel dominio di Laplace le equazioni


differenziali diventano algebriche, quindi la nostra strada sarà quella rappresen-
tata in Fig. 2.4. Anziché integrare direttamente le equazioni differenziali, con-
vertiremo il problema dal dominio del tempo a quello di Laplace, passando dalle
variabili u(t), x(t) e y(t) alle corrispondenti trasformate U (s), X(s) e Y (s), quindi
lo risolveremo nel dominio di Laplace calcolando con semplici passaggi algebrici
Y (s), ed eventualmente X(s), e infine, antitrasformando, torneremo nel dominio
del tempo, ottenendo la soluzione y(t), ed eventualmente x(t). È evidente che
l’unico limite di tale metodo consiste nell’ipotizzare che i segnali di ingresso siano
trasformabili secondo Laplace e che siamo in grado di calcolarne la trasformata.
Ad esempio, data l’equazione differenziale lineare a coefficienti costanti

y (n) + a1 y (n−1) + · · · + an−1 ẏ + an y = f (t)

con condizioni iniziali tutte nulle, cioè y (k) (0) = 0, k = 0, . . . , n − 1, trasforman-


do ambo i membri secondo Laplace e applicando iterativamente la proprietà di
derivata in t si ottiene l’equazione algebrica

Y (s)sn + a1 Y (s)sn−1 + · · · + an−1 Y (s)s + an Y (s) = F (s)

la cui soluzione può calcolarsi una volta nota la trasformata del segnale di ingresso
F (s) come
F (s)
Y (s) = n n−1
.
s + a1 s + · · · + an−1 s + an
Per calcolare, infine, la soluzione nel dominio del tempo y(t) occorre antitrasfor-
mare la soluzione nel dominio di Laplace Y (s).
Un tale procedimento richiede, come si vede, due passi fondamentali, un primo
passo di trasformazione secondo Laplace e un successivo passo di antitrasforma-
zione. Se alcuni esempi del primo sono già stati affrontati, nulla si è ancora detto
riguardo al secondo problema. Dato che nella pratica la maggior parte dei segnali
di ingresso ha per trasformata una funzione razionale fratta e visto che, come si
intuisce già dall’esempio e come vedremo più in dettaglio nel seguito, le operazioni
algebriche di soluzione nel dominio di Laplace coinvolgono sempre e solo funzioni
razionali fratte, sarà di interesse per questo corso la sola antitrasformazione di
funzioni razionali fratte, cioè del tipo

n(s)
Y (s) =
d(s)

dove n(s) e d(s) sono polinomi nella variabile complessa s a coefficienti reali. Per
il teorema fondamentale dell’algebra le radici di tali polinomi possono essere reali
e/o a coppie complesse e coniugate, in numero pari al grado del polinomio stesso.
Le radici di d(s) si dicono poli della funzione razionale fratta, mentre le radici di
n(s) si dicono zeri.
56 Capitolo 2. Analisi dei sistemi a tempo continuo

2.2.1 Antitrasformazione delle funzioni razionali fratte


Il caso più semplice è quello in cui la funzione da antitrasformare abbia un
denominatore d(s) con una sola radice reale in p, cioè

k
Y (s) = .
s−p
Ricordando la trasformata dell’Esempio 2.4 si deduce che l’antitrasformata cer-
cata è
y(t) = kept δ−1 (t) .

A questo caso banale è possibile ricondurre anche il caso più complesso in cui
d(s) abbia più radici semplici reali; è sufficiente riferirsi allo sviluppo in fratti
semplici della funzione razionale fratta, cioè
n
X ri
Y (s) = , (2.9)
i=1
s − pi

dove n è il grado del denominatore d(s) le cui n radici sono pi e ri sono i cosiddetti
residui, calcolabili in questo caso come
 
n(s)
ri = (s − pi ) , i = 1, . . . , n . (2.10)
d(s) s=pi

Applicando la proprietà di linearità e con riferimento al risultato precedente è


ovvio trovare che l’antitrasformata cercata è
n
X
y(t) = ri epi t δ−1 (t) . (2.11)
i=1

Esempio 2.8 Risolviamo la seguente equazione differenziale del secondo ordine, con
condizioni iniziali nulle
ÿ + 5ẏ + 6y = u(t)
con ingresso u(t) = δ(t) − 3 δ−1 (t). Trasformando secondo Laplace si ottiene
 
1 3 s−3
Y (s) = 2
1− = .
s + 5s + 6 s (s2 + 5s + 6)s

Come si vede, il denominatore di terzo grado ha tre radici in 0, −2 e −3, per cui la
Y (s) si scompone in fratti semplici come
r1 r2 r3
Y (s) = + +
s s+2 s+3
2.2. Risposta dei sistemi lineari tempo invarianti 57

dove i residui sono calcolabili applicando la (2.10)


     
s−3 1 s−3 5 s−3
r1 = = − , r2 = = , r3 = = −2
(s + 2)(s + 3) s=0 2 s(s + 3) s=−2 2 s(s + 2) s=−3

Antitrasformando, la soluzione dell’equazione nel dominio del tempo è


 
1 5
y(t) = − + e−2t − 2e−3t δ−1 (t) .
2 2

Consideriamo ora il caso in cui i poli siano ancora semplici, ma non necessa-
riamente reali. In tal caso lo sviluppo in fratti semplici è ancora del tipo (2.9),
ma saranno presenti anche poli e residui complessi. In particolare, dato che i po-
linomi n(s) e d(s) sono sempre a coefficienti reali, è possibile dimostrare che sia i
poli che i corrispondenti residui appaiono sempre a coppie complesse e coniuga-
te. Prendiamo allora in esame il problema dell’antitrasformazione della generica
coppia
r r∗
Y (s) = +
s − p s − p∗
la cui corrispondente funzione del tempo è, come al solito
 ∗t

y(t) = rept + r ∗ ep δ−1 (t).

Per ottenere un’espressione contenente solo numeri reali, consideriamo la rappre-


sentazione cartesiana del polo p = α + jω e quella polare del residuo r = ρejϕ ,
che sostituite nella relazione precedente danno
   
y(t) = ρ ejϕ e(α+jω)t + e−jϕ e(α−jω)t δ−1 (t) = ρeαt ej(ωt+ϕ) + e−j(ωt+ϕ) δ−1 (t)

che, applicando le formule di Eulero, si riscrive come

y(t) = 2ρeαt cos(ωt + ϕ)δ−1 (t).

Generalizzando questo risultato, è possibile ottenere la formula di antitra-


sformazione di una funzione razionale fratta con m coppie di poli complessi e
coniugati semplici e n − 2m poli reali semplici
n−2m m
!
X X
pi t αi t
y(t) = ri e +2 ρi e cos(ωi t + ϕi ) δ−1 (t) (2.12)
i=1 i=1

dove pi sono i poli reali, i cui corrispondenti residui ri sono ancora dati dal-
la (2.10), αi e ωi sono parte reale e parte immaginaria dell’i-ma coppia di poli
58 Capitolo 2. Analisi dei sistemi a tempo continuo

complessi e coniugati, e infine ρi e ϕi sono modulo e argomento dell’i-mo residuo


complesso e calcolabili con le formule
 

n(s)

ρi = (s − αi − jωi ) (2.13)
d(s) s=α i +jωi

i = 1, . . . , m
  !
n(s)
ϕi = arg (s − αi − jωi ) . (2.14)
d(s) s=αi +jωi

Esempio 2.9 Calcoliamo la soluzione dell’equazione differenziale con condizioni ini-


ziali nulle
ÿ − 2ẏ + 2y = δ−1 (t) .
Passando nel dominio di Laplace si ottiene la soluzione
1 r1 r2 r2∗
Y (s) = = + + ,
s(s2 − 2s + 2) s s−1−j s−1+j
dove i residui sono pari a
 
1 1
r1 = 2
=
s − 2s + 2
s=0 2
 

1
1
|r2 | = = √
s(s − 1 + j) s=1+j 2 2
  !
1 3
arg(r2 ) = arg =− π
s(s − 1 + j) s=1+j 4

e quindi la soluzione cercata è


  
1 1 3
y(t) = + √ et cos t − π δ−1 (t) .
2 2 4

Non rimane che affrontare il caso più generale di poli multipli. A tale scopo
è utile richiamare dall’Appendice C la trasformata notevole
 
tn at 1
L e δ−1 (t) = .
n! (s − a)n+1
Iniziamo a trattare il caso di un polo reale di molteplicità k, cioè una funzione
razionale fratta che ammetta la scomposizione in fratti semplici del tipo
k
n(s) r1 rk−1 rk X rl
Y (s) = k
= k
+ · · · + 2
+ = .
(s − p) (s − p) (s − p) s − p l=1 (s − p)k−l+1
2.2. Risposta dei sistemi lineari tempo invarianti 59

Per la proprietà di linearità e per la trasformata notevole appena richiamata,


abbiamo
k
X rl tk−l ept
y(t) = δ−1 (t) ,
l=1
(k − l)!
dove i residui si calcolano con la formula
" #
1 dl−1 n(s)
rl = l−1
(s − p)k , l = 1, . . . , k . (2.15)
(l − 1)! ds d(s) s=p

Generalizzando al caso di una funzione razionale fratta con P denominatore di grado


n e h poli reali di molteplicità ki , i = 1, . . . , h (si noti che hi=1 ki = n), abbiamo
h X i k
n(s) X ril
Y (s) = k k k
= , (2.16)
(s − p1 ) 1 (s − p2 ) 2 · · · (s − ph ) h i=1 l=1
(s − pi )ki −l+1

dove i residui si calcolano come


" # (
1 dl−1 n(s) i = 1, . . . , h
ril = l−1
(s − pi )ki , (2.17)
(l − 1)! ds d(s) l = 1, . . . , ki
s=pi

mentre la risposta nel dominio del tempo assume la forma


ki
h X
X ril tki −l epi t
y(t) = δ−1 (t) . (2.18)
i=1 l=1
(ki − l)!

Il caso più generale possibile di poli multipli sia reali che complessi e coniugati
può essere affrontato in maniera analoga ma qui non verrà riportato, solo che la
funzione del tempo che si otterrà antitrasformando conterrà sia termini esponen-
ziali che coseni moltiplicati per potenze di t. Inoltre, abbiamo sempre considerato
funzioni razionali fratte con grado del numeratore minore o uguale del grado del
denominatore (per un motivo che sarà chiaro tra breve), ma nel caso ciò non sia
vero, la soluzione conterrà termini impulsivi e derivate successive della funzione
impulsiva, che però non abbiamo definito. Preferiamo, invece, presentare due
esempi riepilogativi.

Esempio 2.10 Si calcoli la soluzione dell’equazione differenziale con condizioni ini-


ziali nulle
ÿ + 2ẏ + y = e−2(t−5) δ−1 (t − 5).
Ricordando la proprietà di traslazione in t, nel dominio di Laplace la soluzione è
 
1 r11 r12 r2
Y (s) = e−5s = + + e−5s .
(s + 1)2 (s + 2) (s + 1)2 s+1 s+2
60 Capitolo 2. Analisi dei sistemi a tempo continuo

I residui associati al polo reale doppio in −1 sono dati dalla (2.17)


   
1 d 1
r11 = = 1, r12 = = −1 ,
s+2 s=−1 ds s + 2 s=−1

mentre, il residuo associato al polo reale semplice in −2 si ottiene applicando la (2.10)


 
1
r2 = =1
(s + 1)2 s=−2
e quindi la soluzione cercata, riapplicando la proprietà di traslazione in t, vale
   
y(t) = te−t − e−t + e−2t δ−1 (t) = (te−(t−5) − 6e−(t−5) + e−2(t−5) δ−1 (t−5)

t=t−5

Concludiamo questo lungo paragrafo sull’antitrasformazione delle funzioni


razionali fratte con un esempio più complesso.

Esempio 2.11 L’equazione da risolvere sia


y (4) + 8y (3) + 26ÿ + 40ẏ + 25y = δ−1 (t).
Passando nel dominio di Laplace si ottiene la soluzione
1 1
Y (s) = =
s(s4 + 8s3 + 26s2 + 40s + 25) s(s2 + 4s + 5)2
che scomposta in fratti semplici è
r1 r21 r22 ∗
r21 ∗
r22
Y (s) = + + + + .
s (s + 2 − j)2 s + 2 − j (s + 2 + j)2 s + 2 + j
Applicando la (2.10) si ottiene il residuo reale
 
1 1
r1 = =
(s + 4s + 5)2
2
s=0 25
mentre, applicando la (2.17) si ottengono i residui complessi10
  √
1 5 j0.46
r21 = 2
= e
s(s + 2 + j) s=−2+j 20
e   √
d 1 2 j1.71
r22 = = e
ds s(s + 2 + j)2 s=−2+j 10
e quindi l’antitrasformata vale
√ √ !
1 5 −2t 2 −2t
y(t) = + te cos (t + 0.46) + e cos (t + 1.71) δ−1 (t).
25 10 5

10
Si ricorda che la fase di un numero complesso va espressa in radianti per poterla sommare
alla variabile temporale nell’argomento del coseno.
2.2. Risposta dei sistemi lineari tempo invarianti 61

2.2.2 La funzione di trasferimento


Finora abbiamo visto come è possibile risolvere una generica equazione differen-
ziale lineare a coefficienti costanti e condizioni iniziali nulle tramite l’ausilio della
trasformata di Laplace. Tuttavia, il problema che ci eravamo posti era quello di
determinare la risposta nell’uscita ed eventualmente nello stato di un generico
sistema LTI con assegnate condizioni iniziali e sottoposto ad un generico segnale
di ingresso. È chiaro quindi che occorre trasferire nel dominio di Laplace il con-
cetto stesso di sistema dinamico, cioè, come nel dominio del tempo un sistema
dinamico è stato rappresentato nella forma ingresso–uscita o nella forma spazio
di stato, cosı̀ ora, occorre trovare un modo per caratterizzare il comportamento
del sistema nel dominio di Laplace.
Iniziamo con il considerare un sistema LTI ad un ingresso ed una uscita (SISO)
la cui rappresentazione ingresso–uscita, già vista nel Capitolo 1, è
y (n) + a1 y (n−1) + · · · + an−1 ẏ + an y = b0 u(n) + b1 u(n−1) + · · · + bn−1 u̇ + bn u .
Abbiamo già detto che la risposta del sistema si ottiene risolvendo questa equazio-
ne differenziale tenendo conto delle condizioni iniziali assegnate. Per ora, suppo-
niamo che le condizioni iniziali siano nulle, allora trasformando secondo Laplace,
in virtù della proprietà di derivazione nel tempo, si ottiene
 
sn + a1 sn−1 + · · · + an−1 s + an Y (s) =
 
= b0 sn + b1 sn−1 + · · · + bn−1 s + bn U (s)

da cui si vede che ciò che mette in relazione ingresso e uscita del sistema non è
altro che il rapporto di polinomi
Y (s) b0 sn + b1 sn−1 + · · · + bn−1 s + bn
W (s) = = n . (2.19)
U (s) s + a1 sn−1 + · · · + an−1 s + an
La funzione W (s) prende il nome di funzione di trasferimento (f.d.t.) del sistema
e costituisce a tutti gli effetti una rappresentazione ingresso–uscita del sistema
stesso. Inoltre, da un punto di vista operativo, riveste un’importanza notevo-
le, visto che permette di ricavare con estrema facilità la trasformata dell’uscita
corrispondente ad un dato ingresso u(t). Infatti, vale la seguente

Proposizione 2.4 Dato un sistema LTI con funzione di trasferimento W (s) e


data la trasformata di Laplace dell’ingresso U (s), nell’ipotesi di condizioni iniziali
nulle, la trasformata di Laplace dell’uscita Y (s) si può ottenere dalla relazione
Y (s) = W (s)U (s) . (2.20)

Questo metodo basato sulla trasformata di Laplace, per come è stato presen-
tato, sembra non permettere il calcolo della risposta del sistema quando le condi-
zioni iniziali non sono nulle. Invece, nel caso in cui siano assegnate le condizioni
62 Capitolo 2. Analisi dei sistemi a tempo continuo

iniziali in termini di valori dell’uscita e delle sue derivate successive nell’istante


iniziale, sarebbe sufficiente applicare il teorema di derivazione nel tempo scritto
nella sua forma più generale
h i n
X
L f (n) (t) = sn F (s) − sn−k f (k−1) (0− )
k=1

Tale procedimento è seguito, ad esempio, in [4], ma qui si preferirà adottare un


metodo alternativo che fa uso della rappresentazione i–s–u del sistema. Ciò in
quanto è più facilmente generalizzabile al caso di sistemi MIMO e perché nella
pratica è spesso impossibile conoscere le condizioni iniziali in termini di deriva-
te successive dell’uscita, mentre è più semplice conoscerle in termini di valori
iniziali assunti dalle variabili di stato, in quanto molto spesso esse rappresen-
tano grandezze fisiche e quindi misurabili, al contrario delle derivate successive
dell’uscita.
A tale scopo richiamiamo la rappresentazione del sistema in spazio di stato

ẋ(t) = Ax(t) + Bu(t), x(0) = x0 (2.21)


y(t) = Cx(t) + Du(t) (2.22)

Trasformando secondo Laplace e ricordando la proprietà di derivata in t della


trasformata di Laplace unilatera, abbiamo

sX(s) − x0 = AX(s) + BU (s)


Y (s) = CX(s) + DU (s)

e ricavando X(s) dalla prima

X(s) = (sI − A)−1 BU (s) + (sI − A)−1 x0 (2.23)

e sostituendo nella seconda


 
Y (s) = C(sI − A)−1 B + D U (s) + C(sI − A)−1 x0 (2.24)

si ottiene il risultato cercato, nel dominio di Laplace.


Dall’analisi delle (2.23),(2.24) si evince che la risposta di un sistema LTI (tan-
to nello stato quanto nell’uscita) è somma di due contributi. I primi termini delle
due relazioni corrispondono al contributo alla risposta prodotto dall’applicazione
del segnale di ingresso, o forzamento, da cui il nome di risposta forzata; i secondi
termini, invece, tengono conto del contributo alla risposta prodotto dalle condi-
zioni iniziali, il quale è presente anche in assenza di forzamento, da cui il nome di
evoluzione libera. Nelle sezioni successive effettueremo un’analisi dettagliata dei
due contributi.
Per ora, notiamo solo che confrontando la (2.24) nell’ipotesi di condizioni
iniziali nulle con la (2.20), si vede che la funzione di trasferimento W (s) può
2.2. Risposta dei sistemi lineari tempo invarianti 63

essere anche calcolata a partire dalle matrici che caratterizzano il sistema in


spazio di stato come
W (s) = C(sI − A)−1 B + D . (2.25)
È importante però osservare che nel caso più generale di sistema MIMO la f.d.t. è
in realtà una matrice i cui elementi sono funzioni razionali fratte, con un numero
di righe pari al numero delle uscite del sistema e un numero di colonne pari al
numero degli ingressi del sistema. Ciò non toglie che la relazione (2.20) è ancora
valida, solo che il prodotto è da intendersi righe per colonne.

2.2.3 Poli e zeri dei sistemi LTI


Vediamo ora qualche proprietà della f.d.t. e della cosiddetta matrice di transizione
Φ(s) = (sI − A)−1 . Quest’ultima è certamente una matrice di funzioni razionali
fratte, come si deduce dall’equazione

adj(sI − A)
Φ(s) = (sI − A)−1 = , (2.26)
det(sI − A)

dove det(sI − A) è il polinomio caratteristico della matrice A (vedi Appendice B).


Siccome il polinomio caratteristico di una matrice di dimensioni n × n è di grado
n, mentre l’aggiunta di (sI − A) è una matrice di polinomi di grado al più n − 1.
In generale, è possibile che esistano dei fattori comuni a tutti gli elementi dell’ag-
giunta e al polinomio caratteristico, fattori che possono dunque essere semplificati
riducendo il grado del polinomio a denominatore. Si definisce polinomio minimo
della matrice A il polinomio che si ottiene dal polinomio caratteristico dopo aver
semplificato tutti i fattori comuni con gli elementi dell’aggiunta.
In definitiva, gli elementi di Φ(s) saranno tutte funzioni razionali fratte con
denominatore di grado m e numeratore di grado al più m − 1, dove m è il grado
del polinomio minimo di A.

Esempio 2.12 Calcoliamo polinomio caratteristico e polinomio minimo della matrice


identità di ordine 3
 
s−1 0 0
0  = (s − 1)3
 
p(I) = det(sI − I) = det  0 s−1
0 0 s−1

per trovare il polinomio minimo calcoliamo l’aggiunta di (sI − I)


   
s−1 0 0 (s − 1)2 0 0
(s − 1)2
   
adj  0 s−1 0 = 0 0 
0 0 s−1 0 0 (s − 1)2
64 Capitolo 2. Analisi dei sistemi a tempo continuo

per cui è evidente che tra il polinomio caratteristico e ciascun elemento dell’aggiunta
vi è in comune il fattore (s − 1)2 , e di conseguenza il polinomio minimo di I è s − 1.
Risulta chiaro che ciò è valido per la matrice identità di ordine qualunque.

Gli elementi di W (s) = CΦ(s)B + D, invece, saranno tutte funzioni razionali


fratte in cui il grado del denominatore è m, mentre il grado del numeratore di-
pende dalla matrice D; se D = 0 allora questo grado sarà al più m − 1, altrimenti
potranno esserci anche numeratori di grado m. In ogni caso, il grado del nume-
ratore sarà sempre minore o uguale a quello del denominatore, anche in presenza
di cancellazioni, e di conseguenza risulterà finito il limite

lim W (s) .
s→∞

Tutti i sistemi fisicamente realizzabili godono di questa proprietà, mentre quelli


per cui essa non è soddisfatta si dicono sistemi dinamici impropri e sono pura-
mente fittizi. Quelli per i quali il limite di cui sopra è nullo si dicono strettamente
propri 11 .
Le radici del polinomio a numeratore della f.d.t. si dicono zeri del sistema12 ,
mentre le radici del denominatore si dicono poli del sistema e, data l’espressione
della f.d.t. (2.25), sono anche le radici del polinomio caratteristico di (sI − A),
cioè gli autovalori (vedi Appendice B) della matrice dinamica13 A. In realtà que-
st’ultima affermazione non è a rigori esatta, in quanto nel calcolo della (2.25)
potrebbero esserci delle cancellazioni, e quindi alcuni autovalori della matrice di-
namica potrebbero non essere poli del sistema. Infatti, a valle delle semplificazio-
ni, il denominatore della f.d.t. non ammetterebbe più quelle radici. Quando tale
eventualità si verifica, vuol dire che nel sistema esiste una parte non controllabile
o una parte non osservabile, cosı̀ come le abbiamo definite in maniera intuitiva
nel capitolo precedente. Per fissare le idee, riprendiamo l’Esempio 1.9,1.7.

Esempio 2.13 Abbiamo già visto che il sistema


!  
−3 0 0
ẋ = x+ u
2 −4 1
y = ( 1 1 )x

presenta una parte non controllabile. Applicando la (2.25), la sua f.d.t. è


s+3 1
W (s) = cT (sI − A)−1 b = =
(s + 3)(s + 4) s+4
11
In tal caso, nell’ espressione (2.19) della f.d.t. deve necessariamente risultare b0 = 0.
12
Tale definizione è però limitata al caso di sistemi SISO, nel caso MIMO la questione è molto
più complessa ed esula dagli scopi di questo corso.
13
Si può altresı̀dimostrare che ogni radice del polinomio caratteristico è radice anche del
polinomio minimo.
2.2. Risposta dei sistemi lineari tempo invarianti 65

e come si vede l’autovalore −3 è cancellato da uno zero e il sistema presenta un solo


polo in −4.

L’esempio mostra come la presenza di una parte non controllabile nel sistema
determina il cosiddetto fenomeno della cancellazione nel calcolo della sua f.d.t.
Tuttavia, non è vero il viceversa, cioè se nella funzione di trasferimento di un
sistema LTI si verifica il fenomeno della cancellazione non è detto che il sistema
non sia controllabile. Questo perché la f.d.t. è solo una rappresentazione i–u
del sistema e non ci dà informazioni sufficienti sulla sua struttura interna. Per
convincersene si consideri il seguente esempio.

Esempio 2.14 Dato il sistema LTI in forma canonica di controllo


! !
0 1 0
ẋ = x+ u
−2 −3 1
y = (1 1 )x .

Nel capitolo precedente abbiamo detto che per costruzione una realizzazione in forma
canonica di controllo non può presentare parti non controllabili (poiché l’ingresso
agisce su ogni variabile di stato). Ciononostante, nella sua funzione di trasferimento
si verifica una cancellazione, infatti
s+1 1
W (s) = cT (sI − A)−1 b = = .
(s + 1)(s + 2) s+2
Si può dimostrare che in tal caso il sistema è non osservabile, nel senso che alcune
variabili di stato non influenzano l’uscita.
A questo punto appaiono indispensabili degli strumenti che ci consentano
di determinare le proprietà di controllabilità e osservabilità di un sistema. È
evidente che tali strumenti devono basarsi sulla rappresentazione i–s–u del sistema
ottenuta applicando le leggi della fisica ai vari sottosistemi che compongono il
sistema originario e non su quella ottenuta da una rappresentazione i–u che non
conserva la struttura interna del sistema. Supposte note le matrici (A, B, C, D) di
tale rappresentazione i–s–u, si può dimostrare che valgono le seguenti proprietà.

Proposizione 2.5 Un sistema di ordine n risulta controllabile se e solo se il


rango della matrice di controllabilità

C = (B AB A2 B ··· An−1 B ) (2.27)

è massimo (e quindi pari a n).

Si noti che la matrice C è quadrata nel caso di sistemi con un solo ingresso, per
cui si può affermare che un sistema ad un solo ingresso risulta controllabile se e
solo se det(C) 6= 0.
66 Capitolo 2. Analisi dei sistemi a tempo continuo

Proposizione 2.6 Un sistema di ordine n risulta osservabile se e solo se il rango


della matrice di osservabilità
 
C
 CA 
 
O =  CA2 
 
(2.28)
 .. 
 . 
CA n−1

è massimo (e quindi pari a n).

Si noti che la matrice O è quadrata nel caso di sistemi con una sola uscita, per
cui si può affermare che un sistema ad una sola uscita risulta osservabile se e solo
se det(O) 6= 0.

Esempio 2.15 Verifichiamo che il sistema dell’Esempio 2.13 sia non controllabile,
calcolando la sua matrice di controllabilità
!
0 0
C= .
1 −4

Il rango è 1 < 2, dunque, come avevamo già osservato, il sistema risulta non control-
labile. Verifichiamo invece che il sistema dell’Esempio 2.14 risulta controllabile ma
non osservabile, calcolando le sue matrici di controllabilità e osservabilità.
!
0 1
C=
1 −3

è non singolare per cui il sistema è controllabile, mentre


!
1 1
O=
−2 −2

ha determinante nullo, per cui il sistema è effettivamente non osservabile.

In conclusione, i poli di un sistema, cioè le radici del denominatore della f.d.t.


ottenuta una volta effettuate tutte le cancellazioni, sono gli autovalori della sola
parte controllabile e osservabile del sistema. D’ora in poi, se non diversamente
indicato, considereremo sempre sistemi completamente controllabili e osservabili,
per i quali i poli coincidono con gli autovalori della matrice dinamica. L’unica
differenza è che i poli avranno le stesse molteplicità degli autovalori della matrice
dinamica come radici del polinomio minimo, ma non come radici del polinomio
caratteristico.
2.2. Risposta dei sistemi lineari tempo invarianti 67

2.2.4 L’evoluzione libera e i modi di evoluzione


Nel paragrafo precedente abbiamo determinato la risposta di un sistema LTI nel
dominio di Laplace, nello stato (2.23) e nell’uscita (2.24). Volendo pervenire ad
un’espressione in forma chiusa della soluzione al sistema (2.21),(2.22) nel dominio
del tempo, bisognerebbe calcolare in forma chiusa l’antitrasformata delle relazioni
sopra richiamate.
Iniziamo ad analizzare il termine di evoluzione libera nello stato

Xl (s) = Φ(s)x0 . (2.29)

Siccome la matrice di transizione è una matrice di funzioni razionali fratte, la


funzione Xl (s) sarà certamente un vettore di funzioni razionali fratte. Per quanto
visto nel Paragrafo 2.2.1, antitrasformando tali funzioni si ottengono funzioni del
tempo che sono combinazioni lineari di termini del tipo

tk ept , tk eαt cos(ωt), k = 0, 1, 2, . . . (2.30)

dove p è la generica radice reale e α + jω è la generica radice complessa del deno-


minatore di Xl (s) che, in virtù della (2.26), è il polinomio minimo della matrice
dinamica A. Ciascuno di questi termini è detto modo proprio di evoluzione del
sistema, intendendo con tale espressione la possibilità che il sistema ha di evolvere
anche in assenza di sollecitazione esterna, ma solo in virtù di condizioni iniziali
non nulle sulle sue variabili di stato. I coefficienti della combinazione lineare sono
i residui delle scomposizioni in fratti semplici. A questo proposito, osserviamo
che tali coefficienti possono anche risultare nulli, ciò significa che le condizioni
iniziali scelte non sono in grado di eccitare tutti i modi propri del sistema. Per
capire quando ciò accade è sufficiente ricordare le relazioni che ci consentono di
calcolare i residui (2.10),(2.17), da cui si evince che il residuo si annulla se il polo
è anche zero del numeratore.
Ricordando la definizione di esponenziale complesso (vedi Appendice A), cia-
scuno dei termini può essere espresso nella forma generale tk eλt , dove λ è il gene-
rico autovalore della matrice dinamica. Dunque, ad ogni autovalore della matrice
dinamica è associato un modo di evoluzione del sistema. È evidente che il tipo di
andamento nel tempo dell’evoluzione libera di un sistema dipende esclusivamente
dalle caratteristiche intrinseche del sistema stesso e non dalle sollecitazioni che
possono essergli applicate dall’esterno. Naturalmente, esattamente gli stessi ter-
mini compariranno nell’andamento temporale della risposta in evoluzione libera
nell’uscita, visto che questa si ottiene antitrasformando l’espressione

Yl (s) = C(sI − A)−1 x0 = CΦ(s)x0 , (2.31)

anch’essa costituita da un vettore di funzioni razionali fratte14 , il cui denomi-


natore è sempre il polinomio minimo della matrice dinamica. In particolare, a
14
Nel caso di sistemi SISO, Yl (s) = cT Φ(s)x0 sarà una semplice funzione razionale fratta.
68 Capitolo 2. Analisi dei sistemi a tempo continuo

ciascun modo di evoluzione è associato un andamento tipico che dipende solo


dalla posizione nel piano complesso dell’autovalore corrispondente e dalla mol-
teplicità dell’autovalore stesso. Dunque, anche nell’evoluzione libera nell’uscita
yl (t) di un sistema LTI, compariranno termini del tipo (2.30), i cui andamenti
tipici, in funzione della posizione degli autovalori di A nel piano complesso, sono
riassunti graficamente in Fig. 2.5.
Anticipiamo a questo punto un’osservazione che ci sarà particolarmente utile
in seguito. Se tutti i modi propri di un sistema sono convergenti (e ciò accade
evidentemente se e solo se tutti gli autovalori della matrice dinamica apparten-
gono al semipiano sinistro del piano complesso) allora, comunque si scelgano le
condizioni iniziali, l’evoluzione libera del sistema (sia nello stato che nell’uscita)
tende asintoticamente a zero. Se invece esiste qualche autovalore della matrice
dinamica nel semipiano destro, certamente esistono delle opportune condizioni
iniziali tali da rendere divergente l’evoluzione libera del sistema. Dall’analisi dei
modi relativi ad autovalori multipli, si evince che ciò può accadere se esiste qual-
che autovalore sull’asse immaginario ma con molteplicità maggiore di uno come
radice del polinomio minimo. Se, invece, tale molteplicità è unitaria, al più l’e-
voluzione libera può rimanere o costante nel tempo o essere combinazione lineare
di funzioni sinusoidali. In sintesi vale la proposizione

Proposizione 2.7 L’evoluzione libera di un sistema LTI è

• convergente a zero (comunque si scelgano le condizioni iniziali) se e solo se


gli autovalori della matrice dinamica sono tutti a parte reale negativa.

• limitata ma non convergente a zero (comunque si scelgano le condizioni


iniziali) se e solo se la matrice dinamica ammette autovalori a parte reale
negativa o nulla e questi ultimi hanno tutti molteplicità unitaria come radici
del polinomio minimo.

• divergente (con opportune condizioni iniziali) se e solo se la matrice dina-


mica ammette almeno un autovalore a parte reale positiva oppure almeno
un autovalore a parte reale nulla con molteplicità maggiore di uno come
radice del polinomio minimo.

Esempio 2.16 Dato il sistema massa-molla-smorzatore la cui rappresentazione i–s–u


è stata ricavata nell’Esempio 1.5, calcoliamo la sua evoluzione libera nello stato a
partire da condizioni iniziali x1 (0) = 0.1 m e x2 (0) = 0 m/s. Con i seguenti valori
dei parametri M = 1 kg, k = 100 N/m, β = 0 Ns/m (sistema privo di attrito),
l’equazione di stato diventa
!  
0 1 0
ẋ = x+ u
−100 0 1
2.2. Risposta dei sistemi lineari tempo invarianti 69

Im(s) periodico

aperiodico
aperiodico divergente
convergente

0 costante Re(s)
pseudo-periodico
divergente

pseudo-periodico
convergente

Figura 2.5: Modi di evoluzione di un sistema a tempo continuo

Nel dominio di Laplace, l’evoluzione libera si calcola con la (2.29)


!−1  !
 0.1s
−1 s −1 0.1 s2 +100
Xl (s) = (sI − A) x0 = = −10
100 s 0 s2 +100

Il sistema ammette una coppia di autovalori complessi e coniugati a parte reale nulla,
a cui corrisponde un andamento puramente sinusoidale. Per ottenere l’andamento
effettivo delle due variabili di stato nel dominio del tempo dobbiamo antitrasformare
le due funzioni razionali fratte ricavate. Ricordando le trasformate notevoli del seno
e del coseno, otteniamo

x1l (t) = 0.1 cos(10t)


x2l (t) = − sin(10t) .

Come si vede, il sistema evolve nonostante non sia applicato alcun forzamento esterno,
e,
p in particolare, oscilla all’ampiezza costante di 0.1 m con una pulsazione pari a
k/M = 10 rad/s pari alla parte immaginaria dell’autovalore della matrice dinamica.
Tale pulsazione è detta pulsazione naturale del sistema massa-molla, in quanto è
l’unica pulsazione a cui il sistema può oscillare in assenza di ingresso, qualunque
siano le condizioni iniziali.
70 Capitolo 2. Analisi dei sistemi a tempo continuo

Calcoliamo ora l’evoluzione libera del sistema a partire dalle stesse condizioni iniziali
ma con un coefficiente di attrito pari a β = 10 Ns/m. La matrice dinamica diventa
!
0 1
A=
−100 −10

per cui l’evoluzione libera vale


!
0.1s+1
Xl (s) = (sI − A) −1
x0 = s2 +10s+100
−10
s2 +10s+100

che vanno poi antitrasformate


   
−1 0.1s + 1 −1 r r∗
x1l (t) = L = L + =
s2 + 10s + 100 s + 5 − j8.66 s + 5 + j8.66
= 0.1155e−5t cos(8.66t − 0.52)
   
−10 r r∗
x2l (t) = L−1 2 = L−1 + =
s + 10s + 100 s + 5 − j8.66 s + 5 + j8.66
= 1.155e−5t cos(8.66t + π/2)
Come si vede, in presenza di attrito, i modi del sistema diventano pseudo-periodici
convergenti (o smorzati) con pulsazione della parte periodica tanto più vicina a quella
naturale quanto più basso è il coefficiente di attrito.

Nell’esempio abbiamo visto che per calcolare l’evoluzione libera di un sistema


nel dominio del tempo basta antitrasformare le funzioni razionali fratte Xl (s)
o Yl (s) calcolate mediante le (2.29),(2.31). Volendo pervenire ad un’espressione
in forma chiusa generale per l’evoluzione libera di un sistema LTI nel domi-
nio del tempo, occorre calcolare esplicitamente l’antitrasformata della matrice di
transizione (sI − A)−1 . Si può dimostrare che
h i
L[eAt ] = (sI − A)−1 ⇒ L−1 [Φ(s)] = L−1 (sI − A)−1 = eAt , (2.32)

dove la definizione rigorosa dell’esponenziale matriciale eAt è riportata in Appen-


dice B. È possibile intuire che ciò è vero come generalizzazione della trasformata
notevole L[eat ] = (s − a)−1 , dove a può essere considerata la matrice dinamica
di un sistema del primo ordine. Allora l’evoluzione libera nello stato assume
l’espressione notevole
xl (t) = eAt x0 . (2.33)
Per convincersi definitivamente che effettivamente la (2.33) sia l’evoluzione libera
del sistema (2.21), basta verificare che essa verifica le condizioni iniziali e l’equa-
zione di stato con u = 0 (evoluzione libera), cioè il seguente sistema di equazioni
differenziali con condizioni iniziali
ẋ = Ax, x(0) = x0 .
2.2. Risposta dei sistemi lineari tempo invarianti 71

Tenendo presente la definizione dell’esponenziale matriciale data dalla (B.5),


abbiamo
" #
2
2t


xl (0) = I + At + A + ··· x0 = [I + 0 + 0 + · · ·]x0 = x0 ,
2!
t=0

mentre, calcolando la derivata rispetto al tempo, abbiamo


" #
d At t t2
ẋl (t) = e x0 = A + 2A + 3A3 + · · · x0 =
dt 2! 3 · 2!
" #
2
2t
= A I + At + A + · · · x0 = AeAt x0 = Axl (t) .
2!

Nota l’evoluzione libera dello stato, per calcolare l’evoluzione libera dell’uscita
basta tener conto dell’equazione di uscita (2.22) (sempre con u = 0) e ottenere
l’espressione
yl (t) = CeAt x0 . (2.34)

2.2.5 L’evoluzione forzata e la risposta impulsiva


Passiamo ora ad analizzare la parte di evoluzione forzata della risposta dei sistemi
LTI. Con riferimento alla (2.23), il termine di evoluzione forzata nello stato (cioè
la risposta del sistema a partire da condizioni iniziali nulle) nel dominio di Laplace
è dato da
Xf (s) = (sI − A)−1 BU (s) . (2.35)
Applicando la proprietà di convoluzione della trasformata di Laplace unilatera e
tenendo conto della (2.32), si ottiene la risposta forzata nello stato nel dominio
del tempo Z t
xf (t) = eA(t−τ ) Bu(τ )dτ, t≥0 (2.36)
0
mentre, dall’antitrasformazione della evoluzione forzata nell’uscita

Yf (s) = (C(sI − A)−1 B + D)U (s) = W (s)U (s) (2.37)

si ottiene la risposta forzata nell’uscita nel dominio del tempo


Z t
yf (t) = C eA(t−τ ) Bu(τ )dτ + Du(t), t≥0. (2.38)
0

Analizziamo la risposta forzata nel caso particolare di un ingresso impulsivo.


Dalla relazione (2.37) si evince anche che se l’ingresso applicato al sistema è
di tipo impulsivo, cioè u(t) = δ(t) per cui U (s) = 1, si ha che la trasformata
dell’uscita coincide con la funzione di trasferimento; tale particolare risposta è
72 Capitolo 2. Analisi dei sistemi a tempo continuo

detta risposta impulsiva e viene di solito indicata col simbolo w(t). A rigori,
occorrerebbe precisare che la trasformata di Laplace della risposta impulsiva non
può ritenersi “uguale” alla f.d.t., in quanto quest’ultima è sempre il rapporto delle
trasformate di Laplace di due funzioni del tempo (uscita e ingresso del sistema),
con le loro dimensioni, ma non è la trasformata di Laplace di alcuna funzione del
tempo, a rigori andrebbe sempre scritto

W (s) = L[w(t)]/L[δ(t)] . (2.39)

Nella pratica, trasformare secondo Laplace la risposta impulsiva è semplicemen-


te un metodo per calcolare la f.d.t., e, viceversa, antitrasformare quest’ultima
consente di calcolare la riposta impulsiva.
La risposta impulsiva gioca un ruolo fondamentale nella determinazione del-
la risposta di un sistema LTI ad un generico ingresso, infatti, antitrasforman-
do la relazione (2.20), tenendo conto della (2.39) e ricordando la proprietà di
convoluzione, si ha
Z +∞ Z +∞
y(t) = w(t) ∗ u(t) = w(t − τ )u(τ )dτ = u(t − τ )w(τ )dτ . (2.40)
−∞ −∞

Se poi la risposta impulsiva del sistema è nulla per t < 0, cioè il sistema è causale
e il segnale di ingresso è applicato a partire da t = 0, allora occorre riferirsi alla
proprietà di convoluzione della trasformata di Laplace unilatera15
Z t Z t
y(t) = w(t) ∗ u(t) = w(t − τ )u(τ )dτ = u(t − τ )w(τ )dτ . (2.41)
0 0

In ogni caso, la risposta di un sistema LTI ad un generico ingresso (e con con-


dizioni iniziali nulle) si ottiene come integrale di convoluzione con la risposta
impulsiva del sistema.
Per dare un’interpretazione alla risposta impulsiva, approssimiamo l’integrale
di convoluzione tramite una somma finita su n termini ottenuti partizionando
l’intervallo [0, t] in n intervalli di ampiezza ∆τ individuati dagli istanti di tempo
τ 0 , τ 1 , . . . , τn
Z t n
X
y(t) = u(t − τ )w(τ )dτ ≃ u(t − τi )w(τi ) .
0 i=1

Questa formula può essere interpretata come la sovrapposizione dei contributi che
l’ingresso presente τi secondi prima fornisce all’uscita, ciascuno pesato tramite la
risposta impulsiva. Dunque, la risposta impulsiva fornisce al sistema una sorta
di “memoria” di quanto il sistema “ricorda” degli ingressi precedenti. Cosı̀ un
sistema con una risposta impulsiva che si esaurisce in breve tempo “ricorderà”
15
Nel resto del capitolo si farà riferimento sempre a sistemi causali.
2.2. Risposta dei sistemi lineari tempo invarianti 73

poco degli ingressi precedenti; viceversa, un sistema con una risposta impulsiva
non trascurabile per intervalli di tempo lunghi fornirà in un istante contributi
all’uscita che dipendono fortemente dall’ingresso applicato anche molto tempo
prima. Il caso estremo di un sistema con risposta impulsiva pari ad un impulso di
Dirac di area K, quindi di durata nulla, in ogni istante avrà un’uscita che dipende
esclusivamente dall’ingresso applicato nello stesso istante. Un sistema siffatto,
come abbiamo visto nel Capitolo 1, si dice istantaneo o algebrico o adinamico e,
se lineare, altro non è che un semplice guadagno di valore pari a K, difatti la sua
f.d.t. è W (s) = L[w(t)]/L[δ(t)] = L[Kδ(t)] = K. È interessante notare che se
il sistema fosse stato non causale nella sommatoria avremmo dovuto considerare
anche τi negativi e quindi avremmo trovato che l’uscita ad un certo istante t
dipende anche da campioni dell’ingresso in istanti di tempo futuri (t − τi > t),
cioè il sistema oltre a “ricordare” deve anche “prevedere”, da cui il nesso con la
proprietà di causalità.
Dal confronto tra l’equazione (2.39) con l’equazione (2.38) si deduce che l’e-
spressione della risposta impulsiva di un sistema LTI. Ricordando che la risposta
impulsiva nell’uscita altro non è che l’antitrasformata della f.d.t., è immediato
trovare che
w(t) = CeAt B + Dδ(t), t≥0 (2.42)
da cui si evince che la risposta impulsiva di un sistema LTI non strettamente
proprio (con D 6= 0) contiene termini impulsivi. Dalla (2.42) si vede anche che
la risposta impulsiva è combinazione lineare dei modi propri di evoluzione del
sistema. Vediamolo con un esempio.

Esempio 2.17 Dato il sistema SISO


!  
−1 0 5
ẋ = x+ u
0 −3 1
y = (1 2 )x + u

calcoliamone la risposta impulsiva tramite la (2.42)


 
−1 0
t    
0 −3 5 e−t 0 5
w(t) = ( 1 2 )e + δ(t) = ( 1 2) + δ(t)
1 0 e−3t 1
 
5e−t
= (1 2) + δ(t) = 5e−t + 2e−3t + δ(t) ,
e−3t

dove abbiamo sfruttato la (B.6) visto che A è diagonale. Nel caso generale la A va
prima diagonalizzata e, se ciò non è possibile, occorre utilizzare la forma generale
di diagonalizzazione di una matrice, detta forma di Jordan. Tuttavia qui non verrà
trattata, in quanto, in virtù della relazione che c’è tra w(t) e W (s), la risposta impul-
siva può essere calcolata anche antitrasformando la f.d.t. e quindi non è necessario
74 Capitolo 2. Analisi dei sistemi a tempo continuo

ricorrere all’espressione in forma chiusa direttamente nel dominio del tempo (2.42).
Verifichiamolo nel caso in esame
 
7s + 17
w(t) = L−1 [W (s)] = L−1 [cT (sI − A)−1 b + d] = L−1 +1 =
(s + 1)(s + 3)
 
5 2
= L−1 + + δ(t) = 5e−t + 2e−3t + δ(t) .
s+1 s+3

Sull’equazione (2.37) è possibile fare alcune interessanti considerazioni. Nel


caso di sistemi SISO e nell’ipotesi che la trasformata di Laplace dell’ingresso U (s)
sia una funzione razionale fratta, anche Yf (s) è una funzione razionale fratta e
quindi la sua antitrasformata sarà una combinazione lineare di termini del tipo
tk eλt , k = 0, 1, 2, . . ., dove λ è la generica radice del denominatore di Yf (s). Con
le seguenti posizioni
nW (s) nU (s)
W (s) = , U (s) =
dW (S) dU (s)
la Yf (s) può essere riscritta nella forma
nW (s)nU (s)
Yf (s) = , (2.43)
dW (s)dU (s)
per cui le radici del denominatore sono le radici del denominatore di W (s), cioè
i poli del sistema, e le radici del denominatore della trasformata di Laplace del-
l’ingresso. Di conseguenza, l’evoluzione forzata nel dominio del tempo sarà una
combinazione lineare dei modi propri del sistema, cioè termini del tipo tk eλW t cor-
rispondenti alle radici λW di dW (s) e dei modi propri dell’ingresso, cioè termini
del tipo tk eλU t corrispondenti alle radici λU di dU (s).
Come abbiamo già osservato per la risposta in evoluzione libera, anche nella
risposta forzata i coefficienti della combinazione lineare di modi propri del sistema
e dell’ingresso sono i residui della scomposizione in fratti semplici della (2.43).
Di conseguenza, alcuni di questi possono risultare nulli, e in particolare saranno
nulli quelli in corrispondenza dei poli che sono anche zeri del numeratore. Il
lettore dovrebbe chiedersi a questo punto come è possibile che ciò accada se
abbiamo definito la f.d.t. come la funzione razionale fratta che si ottiene dalla
formula (2.25) una volta eseguite tutte le semplificazioni. La risposta è che,
osservando che nella (2.43) compare anche la trasformata di Laplace dell’ingresso,
uno dei termini con residuo nullo può essere quello corrispondente ad uno dei
modi dell’ingresso che è anche uno zero della f.d.t., tale evenienza è la cosiddetta
proprietà bloccante degli zeri. Vediamo un esempio semplice.

Esempio 2.18 Calcoliamo la risposta indiciale del sistema con f.d.t.


s
W (s) = 2
s + 3s + 2
2.2. Risposta dei sistemi lineari tempo invarianti 75

L’uscita nel dominio di Laplace vale


1 r1 r2 r3
Y (s) = W (s) = + +
s s s+1 s+2
dove i residui si calcolano come

r1 = [Y (s)s]s=0 = 0, r2 = [Y (s)(s + 1)]s=−1 = 1, r3 = [Y (s)(s + 2)]s=−2 = −1

e quindi la risposta nel dominio del tempo conterrà solo i modi propri del sistema,
in quanto il modo proprio dell’ingresso è “bloccato” dallo zero nell’origine presente
nella f.d.t.
y(t) = (e−t − e−2t )δ−1 (t)

Circa l’eventualità delle cancellazioni tra numeratore e denominatore della


f.d.t., abbiamo già detto che ciò è indice della presenza di una parte non con-
trollabile o non osservabile del sistema. Anche se nella pratica tale eventualità
può considerarsi remota (accadrebbe solo se numeratore e denominatore avessero
esattamente la stessa radice), ci possono essere dei casi in cui è vero che non
c’è semplificazione, ma poli e zeri sono cosı̀ vicini che il residuo corrispondente
è piccolo rispetto a tutti gli altri, cosicché il modo corrispondente ha un peso
trascurabile nella combinazione lineare. Facciamo un esempio per chiarire questo
caso.

Esempio 2.19 Dato il sistema con f.d.t.


s+b
W (s) =
s+a
con a e b numeri reali qualunque, la sua realizzazione in forma canonica di osserva-
zione è

ẋ = −ax + (b − a)u
y = x+u

Immaginiamo di applicare in ingresso un segnale cha sia funzione a sua volta dello
stato del sistema, ad esempio della forma
c
u(t) = − x(t)
b−a
Con tale scelta, il sistema ha la nuova rappresentazione i–s–u

ẋ = −(a + c)x
b−a−c
y = x
b−a
76 Capitolo 2. Analisi dei sistemi a tempo continuo

1 1

0.8 0.8

0.6 0.6
x(t)

x(t)
0.4 0.4

0.2 0.2

0 0
0 2 4 6 8 10 0 2 4 6 8 10
t t

0 0

−0.05 −0.5
u(t)

u(t)
−0.1 −1

−0.15 −1.5

−0.2 −2
0 2 4 6 8 10 0 2 4 6 8 10
t t

Figura 2.6: Evoluzione libera e forzamento del sistema controllato nel caso b = 1.5
(sinistra) e nel caso b = 1.05 (destra)

Si vede dunque che esiste sempre un valore della costante c tale da far assumere al
polo del nuovo sistema un qualunque valore. Ciò significa che con la scelta fatta
dell’ingresso u, siamo in grado di portare lo stato del sistema ad assumere qualunque
tipo di comportamento vogliamo. Naturalmente è chiaro che ciò è possibile solo finché
b 6= a, inoltre quanto più b è vicino ad a (cioè lo zero è vicino al polo del sistema),
tanto più l’ingresso deve crescere in ampiezza a parità di valori dello stato. Questo
significa che occorre un forzamento più elevato per modificare il comportamento dello
stato. In Fig. 2.6, dove sono riportati gli andamenti dello stato (evoluzione libera
a partire da x(0) = 1) e dell’ingresso per i valori dei parametri a = 1, c = 0.1 nei
due casi b = 1.5 e b = 1.05, si nota che nel caso in cui lo zero è più vicino al polo,
l’ingresso assume valori più elevati, mentre gli andamenti dello stato sono identici.

Un esempio meno astratto è quello del controllo della dinamica laterale di un


aeroplano.

Esempio 2.20 Il modello linearizzato della dinamica laterale del Boeing 767 può
2.2. Risposta dei sistemi lineari tempo invarianti 77

Im(s)
0

−1

−2
−2 −1 0 1
Re(s)

Figura 2.7: Mappa poli-zeri della dinamica laterale di un Boeing 767

essere scritto nella forma


   
−0.0868 −1 −0.0391 0 0
 2.14 −0.228 0 −0.0204   −0.065 
   
ẋ =  x +  u
 0 0 0 1   0 
−4.41 0.334 0 −1.181 −2.11

dove il vettore delle variabili di stato assume il seguente significato fisico: x1 è la


velocità laterale, x2 è la velocità di imbardata, x3 è l’angolo di rollio e x4 è la velocità
di rollio, mentre l’ingresso u è la coppia da applicare agli alettoni. Immaginando di
assumere come uscita l’angolo di rollio, si ottiene la f.d.t.

s2 + 0.3251s + 2.297
W (s) = −2.11
(s + 1.155)(s − 0.004583)(s2 + 0.3449s + 2.147)

dove si vede che la coppia di poli complessi e coniugati relativi alla dinamica dell’im-
bardata è molto prossima ad una coppia di zeri (vedi Fig. 2.7), ciò significa che se
volessimo controllare l’angolo di imbardata agendo sugli alettoni avremmo bisogno
di coppie molto elevate. Difatti negli aerei l’imbardata non viene controllata agendo
sugli alettoni ma sul timone.

Concludiamo questo paragrafo, riportando le formule esplicite per il calco-


lo della risposta di un sistema LTI nel dominio del tempo ottenute sommando
evoluzione libera e forzata
Z t
x(t) = eA(t−τ ) Bu(τ )dτ + eAt x0 , t≥0 (2.44)
0
Z t
y(t) = C eA(t−τ ) Bu(τ )dτ + Du(t) + CeAt x0 , t≥0. (2.45)
0
78 Capitolo 2. Analisi dei sistemi a tempo continuo

Per convincersi definitivamente che questa è la soluzione del problema che ci


eravamo posti, si lascia per esercizio al lettore il compito di sostituire le espres-
sioni appena trovate nelle equazioni del sistema (2.21),(2.22) e verificare che tali
equazioni sono soddisfatte16 . In ogni caso, il risultato delle ultime due espressio-
ni consisterà sempre in combinazioni lineari di modi di evoluzione del sistema e
modi propri dell’ingresso. Vediamo un esempio riepilogativo.

Esempio 2.21 Consideriamo il sistema SISO del secondo ordine


! ! !
−2 0 0 1
ẋ = x+ u(t), x(0) =
1 −3 1 0
 
y = 0 1 x

Vogliamo determinare la risposta al gradino unitario17 . Iniziamo col calcolare la


matrice di transizione Φ(s) = (sI − A)−1
!!−1 !−1 !
−2 0 s+2 0 1 s+3 0
sI − = =
1 −3 −1 s + 3 (s + 2)(s + 3) 1 s+2

Applicando la (2.23) troviamo la risposta nello stato nel dominio di Laplace


" ! ! ! !#
1 s+3 0 0 1 s+3 0 1
X(s) = +
(s + 2)(s + 3) 1 s+2 1 s 1 s + 2 0
 
  1
s+3
1 

  s+2 

= 
=
  
(s + 2)(s + 3)  s + 2 2s + 2

+1  
s s(s + 2)(s + 3)
Si noti come nel calcolare la prima variabile di stato è stata effettuata la semplifica-
zione del termine s + 3 a numeratore e a denominatore della funzione razionale fratta
che rappresenta la trasformata di Laplace della risposta nella prima variabile di stato.
Antitrasformando il primo elemento del vettore dello stato si ha

x1 (t) = e−2t δ−1 (t)

che coincide, in effetti, con la sola evoluzione libera, come era prevedibile visto che
la prima equazione del sistema ha la forma

ẋ1 (t) = −2x1 (t)


16 d
Rt
A tale scopo è utile ricordare la formula di derivazione dt 0
f (t, τ )dτ = f (t, t) +
Rt d
0 dt
f (t, τ )dτ .
17
La risposta al gradino unitario a partire da condizioni iniziali nulle è detta risposta indiciale.
2.3. Schemi a blocchi 79

u y
G(s)

Figura 2.8: Schema a blocchi di un sistema dinamico

ua

ub + + y

uc

Figura 2.9: Nodo sommatore

per cui l’andamento di x1 (t) non può essere influenzato affatto dall’ingresso18 u(t).
Per calcolare l’antitrasformata della seconda variabile di stato occorre effettuare la
decomposizione in fratti semplici

2s + 2 1/3 1 4/3
X2 (s) = = + −
s(s + 2)(s + 3) s s+2 s+3

a cui corrisponde la funzione del tempo


 
1 4
x2 (t) = + e−2t − e−3t δ−1 (t).
3 3

Visto che l’equazione di uscita è y(t) = x2 (t), la risposta nell’uscita è già stata
trovata.

2.3 Schemi a blocchi


Nell’analisi dei sistemi lineari e stazionari costituiti da più sottosistemi collega-
ti tra loro in vario modo, è spesso conveniente adoperare una rappresentazione
grafica delle connessioni basata sui cosiddetti schemi a blocchi. Tale rappre-
sentazione rende agevole il calcolo della funzione di trasferimento tra una data
variabile di ingresso e una data variabile d’uscita, e quindi permette una rapida
caratterizzazione di un sistema complesso.
18
Questo fatto è legato strettamente alla semplificazione effettuata nei calcoli ed è indicativo
della presenza all’interno del sistema di una parte dello stato su cui l’ingresso non può agire
(cioè una parte non controllabile), ma che evolve solo in virtù dello stato iniziale.
80 Capitolo 2. Analisi dei sistemi a tempo continuo

ya

u yb

yc

Figura 2.10: Punto di diramazione

u = ua ya = ub yb = y u y
Ga (s) Gb (s) ⇔ Gb (s)Ga (s)

Figura 2.11: Connessione in serie o cascata

Nella simbologia degli schemi a blocchi una variabile è rappresentata da una


freccia etichettata col nome della variabile stessa e un sistema è rappresentato
da un blocco, cioè da un rettangolo al cui interno è indicata la f.d.t. del siste-
ma, dotato di una freccia entrante e una uscente rappresentative dell’ingresso e
dell’uscita del sistema, rispettivamente. Cosı̀ un sistema con funzione di trasfe-
rimento G(s) tra l’ingresso u e l’uscita y è rappresentato dallo schema a blocchi
di Fig. 2.8. Per poter rappresentare la connessione di sistemi sono necessari
altri due elementi, il nodo sommatore e il punto di diramazione, rappresenta-
ti in Figg. 2.9, 2.10, rispettivamente, in due casi esemplificativi. Il primo va
interpretato come rappresentativo della relazione

y(t) = ua (t) + ub (t) − uc (t) ,

mentre il secondo equivale alle condizioni

ya (t) = yb (t) = yc (t) = u(t) .

In questa sede assumeremo che tutti i sistemi negli schemi a blocchi sono SISO
e di conseguenza tutte le variabili sono scalari, tuttavia le regole di connessione che
troveremo sono facilmente estendibili al caso più generale di sistemi multivariabili
(si veda ad es. [1]).
Il caso di connessione più semplice tra due sistemi è la connessione serie o
cascata, che si verifica quando l’uscita di un sistema coincide con l’ingresso di un
altro sistema. Con riferimento alla Fig. 2.11, è immediato comprendere che

Y (s) = Gb (s)Ya (s) = Gb (s)Ga (s)U (s)


2.3. Schemi a blocchi 81

ua ya
Ga (s)
u + y u y
⇔ Ga (s) + Gb (s)
ub yb +
Gb (s)

Figura 2.12: Connessione in parallelo

u + ua ya y
Ga (s)
− u Ga (s) y

yb 1 + Ga (s)Gb (s)
ub
Gb (s)

Figura 2.13: Connessione in retroazione negativa

per cui la f.d.t. del sistema complessivo risulta19


G(s) = Gb (s)Ga (s) . (2.46)

Un altro caso semplice di connessione è quella in parallelo, che si verifica


quando due sistemi hanno il medesimo ingresso e le uscite vengono poi sommate.
Cosı̀ in Fig. 2.12 è immediato constatare che
 
Y (s) = Ya (s) + Yb (s) = Ga (s)U (s) + Gb (s)U (s) = Ga (s) + Gb (s) U (s)
e quindi la funzione di trasferimento del sistema complessivo risulta pari a
G(s) = Ga (s) + Gb (s) . (2.47)

Passiamo ora ad un tipo di connessione un pò più complesso, quella in retroa-


zione o reazione, rappresentata in Fig. 2.13. Dall’analisi dello schema a blocchi
si deduce che
 
Y (s) = Ga (s)Ua (s) = Ga (s) U (s) − Yb (s) = Ga (s)U (s) − Ga (s)Gb (s)Y (s)
da cui si può ricavare il rapporto tra uscita e ingresso e quindi la f.d.t. del sistema
complessivo, detto anche ad anello chiuso
Y (s) Ga (s)
G(s) = = . (2.48)
U (s) 1 + Ga (s)Gb (s)
19
Si osservi come nel caso MIMO l’ordine in cui si esegue il prodotto delle f.d.t. non è
indifferente.
82 Capitolo 2. Analisi dei sistemi a tempo continuo

u + ua ya y
Ga (s)
+ u Ga (s) y

yb ub 1 − Ga (s)Gb (s)
Gb (s)

Figura 2.14: Connessione in retroazione positiva

Nel caso in cui il nodo sommatore nella configurazione in retroazione presenti


entrambi i segni positivi, allora la connessione si dice in retroazione positiva, e la
f.d.t. del sistema ad anello chiuso può facilmente essere determinata con passaggi
analoghi a quelli visti per la retroazione negativa, con il risultato

Y (s) Ga (s)
G(s) = = . (2.49)
U (s) 1 − Ga (s)Gb (s)

In entrambi i casi, affinché la f.d.t. ad anello chiuso sia sempre ben definita
deve verificarsi una condizione di congruenza e cioè

lim Ga (s)Gb (s) 6= −1


s→∞

per la connessione in reazione negativa, e

lim Ga (s)Gb (s) 6= 1


s→∞

per quella in reazione positiva. Se ciò non fosse verificato, risulterebbe

lim G(s) = ∞
s→∞

e il sistema complessivo non sarebbe fisicamente realizzabile, cosı̀ come discusso


nel Paragrafo 2.2.3.

2.4 Stabilità dei sistemi dinamici


Affronteremo ora un argomento di estrema importanza, in quanto concerne una
proprietà dei sistemi dinamici di particolare interesse nelle applicazioni. Nel-
la prima sezione, inizieremo ad analizzarla nel caso dei sistemi LTI, ma nella
successiva sezione verrà trattata per sistemi dinamici in generale non lineari,
particolarizzando poi i risultati al caso dei sistemi LTI.
2.4. Stabilità dei sistemi dinamici 83

x1

x̃0 δε
ε
x0

x(t)
x̃(t) 0 x2

Figura 2.15: Movimento stabile

2.4.1 Stabilità BIBO o esterna


In tutti gli esempi di antitrasformazione della funzione Y (s) visti nel Paragra-
fo 2.2.1, si può notare come l’uscita y(t) sia una funzione convergente a 0 per
t → +∞ nel caso in cui i poli della funzione Y (s) siano tutti a parte reale nega-
tiva. Abbiamo già detto che i poli di Y (s) sono i poli di W (s) = nW (s)/dW (s)
e quelli di U (s) = nU (s)/dU (s), infatti una funzione razionale fratta può essere
sempre decomposta nella somma di due funzioni razionali fratte, come

nW (s)nU (s) r(s) k(s)


Y (s) = W (s)U (s) = = + , (2.50)
dW (s)dU (s) dW (s) dU (s)

dove i polinomi r(s) e k(s) sono le soluzioni dell’equazione diofantina20

dW (s)k(s) + dU (s)r(s) = nW (s)nU (s).

Dall’equazione (2.50) si vede che l’uscita divergerà se ci sono radici a parte


reale positiva in dW (s) (poli della f.d.t.) oppure in dU (s) (cioè se l’ingresso è
divergente), di conseguenza si può affermare che se l’ingresso è convergente, ma
qualunque, l’uscita converge se e solo se tutti i poli della f.d.t. del sistema sono
20
Le tecniche di soluzione di tale equazione, seppure non estremamente complesse, richiedono
un approfondimento di alcuni concetti non affrontati in questo corso e quindi saranno oggetto
di corsi specialistici.
84 Capitolo 2. Analisi dei sistemi a tempo continuo

x1

x̃0 δε
ε
x(t) x0

0 x2
x̃(t)

Figura 2.16: Movimento instabile

a parte reale negativa. Nel caso in cui l’uscita di un sistema LTI rimane limitata
qualunque sia l’ingresso limitato applicato, si dice che il sistema è stabile BIBO.21
Dunque, vale la seguente

Proposizione 2.8 Un sistema LTI è stabile BIBO o esternamente se e solo se


la f.d.t. del sistema ha tutti i poli a parte reale negativa.

Facciamo notare che una tale proprietà è una caratteristica propria del sistema,
infatti è stata enunciata per qualunque ingresso.

2.4.2 Stabilità sotto perturbazioni o interna


La proprietà di stabilità, tuttavia, per sistemi più generali di quelli LTI non può
essere ritenuta una proprietà del sistema, ma il concetto stesso di stabilità ha
connotati legati alle traiettorie che il sistema esegue; si parla allora di stabilità
sotto perturbazioni. Diamo la definizione di stabilità di un movimento22 di un ge-
nerico sistema dinamico non lineare e stazionario, cioè governato da un’equazione
21
Nel corso di comunicazioni elettriche si vedrà che una tale condizione equivale alla limitatezza
dell’integrale (sommabilità) della risposta impulsiva.
22
È opportuno non confondere il movimento, cioè la soluzione dell’equazione di stato con
assegnata condizione iniziale, con la traiettoria, cioè la proiezione nello spazio di stato del
movimento.
2.4. Stabilità dei sistemi dinamici 85

x1

x̃0 δε
ε
x0

x̃(t)
x(t)
0 x2

Figura 2.17: Movimento asintoticamente stabile

differenziale in forma normale del tipo

ẋ(t) = f (x, u), x(0) = x0 .

Dato un ingresso nominale ũ(t) e una condizione iniziale nominale x̃0 , sia x̃(t) il
movimento risultante del sistema. Allora si pongono le seguenti definizioni:

• x̃(t) si dice stabile se, per ogni ε > 0, esiste un δε > 0 tale che, per tutti gli
stati iniziali tali che
kx0 − x̃0 k < δε ,
risulta
kx(t) − x̃(t)k ≤ ε ∀t ≥ 0 .

• x̃(t) si dice instabile se non è stabile.

• x̃(t) si dice asintoticamente stabile se è stabile e se risulta

lim kx(t) − x̃(t)k = 0 .


t→+∞

Le tre situazioni sono rappresentate graficamente nelle Figg. 2.15, 2.16, 2.17,
rispettivamente. Inoltre, è chiaro che esse comprendono anche il caso particolare
di un movimento costante x̄, cioè di un punto di equilibrio (x̄˙ = 0).
86 Capitolo 2. Analisi dei sistemi a tempo continuo

In generale, la proprietà di stabilità cosı̀ definita dipende dal particolare movi-


mento, tuttavia, per un sistema lineare e stazionario non è più cosı̀. Infatti, si con-
siderino due ingressi nominali ũa (t), ũb (t) e due condizioni iniziali nominali x̃0a ,
x̃0b e siano x̃a (t), x̃b (t) i due movimenti nominali, rispettivamente. Se applichia-
mo la stessa perturbazione alle due condizioni iniziali nominali: x0a = x̃0a + ∆x0 ,
x0b = x̃0b + ∆x0 , si otterranno i due movimenti perturbati xa (t), xb (t), i quali
potranno sempre scriversi come
xa (t) = x̃a (t) + ∆xa (t), xb (t) = x̃b (t) + ∆xb (t) .
Applicando il principio di sovrapposizione degli effetti, dimostreremo ora che
necessariamente deve risultare ∆xa (t) = ∆xb (t). Se applichiamo al sistema l’in-
gresso ũa (t) − ũb (t) a partire da condizione iniziale x0a − x0b , il movimento che ne
risulta è xa (t) − xb (t). Analogamente, se applichiamo al sistema lo stesso ingresso
ũa (t) − ũb (t) ma a partire da condizione iniziale x̃0a − x̃0b , il movimento che ne
risulta è x̃a (t) − x̃b (t). Tuttavia, siccome risulta x̃0a − x̃0b = x0a − x0b , deve
necessariamente risultare
x̃a (t) − x̃b (t) = xa (t) − xb (t) ⇒ ∆xa (t) = ∆xb (t) .
In conclusione, il comportamento del sistema sotto la stessa perturbazione dello
stato iniziale è sempre lo stesso indipendentemente dal movimento nominale con-
siderato, ciò significa che si può parlare di stabilità del sistema e per studiarla si
può scegliere un movimento nominale qualunque. La scelta più ovvia è natural-
mente quella del punto di equilibrio corrispondente all’ingresso nominale nullo e
cioè l’origine dello spazio di stato. In questo modo l’equazione da studiare è
ẋ = Ax, x(0) = x0 . (2.51)
Visto che l’equazione (2.51) è quella che governa l’evoluzione libera dello stato
(non c’è ingresso), la stabilità del sistema dipende solo dalla convergenza o meno
dei movimenti liberi dello stato, cioè dei modi propri di evoluzione del sistema,
e quindi dalle caratteristiche della matrice dinamica A, in particolare dai suoi
autovalori.
Abbiamo visto, nel Paragrafo 2.2.4, che l’evoluzione libera dello stato nel
dominio di Laplace è data dalla formula
Xl (s) = (sI − A)−1 x0
e che quando si torna nel dominio del tempo antitrasformando, xl (t) sarà com-
binazione lineare di tutti termini esponenziali, sinusoidali, eventualmente molti-
plicati per potenze di t. Ricordando la Proposizione 2.7, è evidente allora che
valgono le seguenti proposizioni.

Proposizione 2.9 Un sistema LTI è23


23
Si ricorda che antitrasformando Xl (s) a denominatore compare il polinomio minimo di A,
le cui radici sono gli autovalori di A.
2.4. Stabilità dei sistemi dinamici 87

• asintoticamente stabile se e solo se tutti i modi propri del sistema sono


convergenti e quindi se e solo se tutti gli autovalori di A sono a parte reale
negativa.
• stabile se e solo se gli autovalori di A sono a parte reale non positiva e quelli
a parte reale nulla hanno molteplicità pari a uno come radici del polinomio
minimo.
• instabile se e solo se almeno uno degli autovalori di A è a parte reale positiva
oppure a parte reale nulla e con molteplicità maggiore di uno come radice
del polinomio minimo.

Per comprendere come è possibile che esistono sistemi instabili con autovalori
sull’asse immaginario e nessun autovalore a parte reale positiva, analizziamo il
seguente esempio.

Esempio 2.22 Il sistema con i–s–u


! !
0 1 0
ẋ = x+ u
−1 0 1
y = (1 0)x
ha autovalori in ±j, cioè due autovalori sull’asse immaginario ma di molteplicità
unitaria, quindi è stabile (ma non asintoticamente!). Se ora consideriamo il sistema
costituito dalla serie di due sistemi identici a quello di sopra, si ottiene un sistema la
cui matrice dinamica è  
0 1 0 0
 −1 0 0 0 
 
A= 
 0 0 0 1 
1 0 −1 0
che ha due autovalori, uno in j di molteplicità due e uno in −j di molteplicità due
come radici del polinomio minimo. Per vedere che tale sistema è instabile, basta
considerare una condizione iniziale tale da generare una evoluzione che non rimane
limitata, ad esempio se si sceglie x0 = ( 1 0 0 0 )T , si ottiene, nel dominio di
Laplace, un’evoluzione libera nello stato
 −1  
s −1 0 0 1
 1 s 0 0  0
Xl (s) = (sI − A)−1 x0 = 
   
  =
 0 0 s −1  0
−1 0 1 s 0
  
s3 +s s2
+1 0 0 1
1  2 3
−s − 1 s + s 0 0 0
  
=
s3 + s s2 + 1
  
(s2 + 1)2  s 1  0
s2 s −s2 − 1 s3 + s 0
88 Capitolo 2. Analisi dei sistemi a tempo continuo

u + v s−1 z 1 y
− s+2 s2 −1

Figura 2.18: Schema a blocchi del sistema dell’Esempio 2.23

e quindi le singole variabili di stato sono


s L−1
X1 (s) = −→ x1 (t) = cos t
s2 + 1
−1 L−1
X2 (s) = 2 −→ x2 (t) = − sin t
s +1
s L−1 1
X3 (s) = 2 −→ x3 (t) = t sin t
(s + 1)2 2
s2 L−1 1
X4 (s) = 2 −→ x4 (t) = (sin t + t cos t)
(s + 1)2 2

da cui si vede che alcune variabili di stato divergono per t → +∞, e quindi il sistema
è instabile24 .

Concludiamo il paragrafo accennando alla relazione che c’è tra stabilità BIBO
e stabilità sotto perturbazioni. Nel caso di sistemi completamente controllabili e
osservabili i poli del sistema e gli autovalori della matrice dinamica coincidono, per
cui è evidente che la stabilità BIBO e quella asintotica si equivalgono. Laddove si
ha a che fare con sistemi comprendenti una parte non controllabile e/o una parte
non osservabile, ciò non è più vero. Di conseguenza, se per determinare la stabilità
esterna è sufficiente sempre riferirsi alla f.d.t., per poter stabilire la proprietà di
stabilità interna occorre riferirsi ad una rappresentazione i–s–u che conservi la
“struttura interna” del sistema. Ciò significa che tale rappresentazione non deve
essere quella ottenuta a partire dalla f.d.t. tramite una delle forme canoniche,
ma deve necessariamente essere ottenuta a partire da informazioni riguardanti i
singoli sottosistemi componenti il sistema in esame, in termini di interconnessioni
tra blocchi di cui si conoscono rappresentazioni i–u o anche i–s–u. Per ulteriori
dettagli circa tale problema si veda anche il Paragrafo 2.7.1. Cerchiamo di fissare
le idee con un esempio.

Esempio 2.23 Consideriamo il sistema il cui schema a blocchi è rappresentato in


Fig. 2.18 e determiniamo le proprietà di stabilità esterna ed interna. Per la stabilità
24
Si può verificare che, al contrario, il sistema costituito dal parallelo dei due sistemi del
secondo ordine di partenza è stabile.
2.4. Stabilità dei sistemi dinamici 89

BIBO è sufficiente determinare la f.d.t.


1
W (s) =
s2 + 3s + 3

i cui poli sono −3/2 ± j 3/2, per cui il sistema è stabile BIBO, tuttavia non si
può concludere che lo sia anche internamente. Per stabilire la proprietà di stabilità
interna è necessario trovare la rappresentazione i–s–u a partire dalle rappresentazioni
i–s–u dei singoli sottosistemi. Indicando con x1 la variabile di stato del sottosistema
del I ordine, la sua i–s–u in forma canonica di osservazione25 vale

ẋ1 = −2x1 − 3v
z = x1 + v

mentre, indicando con x2 e x3 le variabili di stato del sottosistema del II ordine, la


i–s–u in forma canonica di controllo vale
! ! ! !
ẋ2 0 1 x2 0
= + z
ẋ3 1 0 x3 1
y = x2

e quindi, tenendo conto della relazione di interconnessione in retroazione negativa


v = u − y, la i–s–u del sistema complessivo si scrive
   
−2 3 0 −3
   
ẋ =  0 0 1  x +  0  u
1 0 0 1
y = x2

Il polinomio caratteristico della matrice dinamica vale

det(sI − A) = s3 + 2s2 − 3

che ha le tre radici −3/2 ± j 3/2 e 1, e quindi il sistema è internamente instabile.
La coesistenza di due proprietà di stabilità cosı̀ diverse si giustifica osservando che il
sistema non è completamente controllabile. In particolare l’ingresso u non è capace di
eccitare la dinamica instabile presente nel sistema del II ordine a causa della presenza
dello zero nel sistema del I ordine che la “maschera”. Tuttavia, tale dinamica è
eccitabile da condizioni iniziali opportune sulle variabili di stato x2 e x3 . È questo
uno dei motivi per cui sistemi stabili BIBO ma internamente instabili non possono
funzionare correttamente nella pratica. Un altro motivo è che spesso si trascurano
alcuni ingressi invece presenti nel sistema, dai quali è possibile che le dinamiche
instabili siano controllabili. Tale argomento verrà comunque approfondito nel corso
di Controlli Automatici.
25
La scelta del tipo di forma canonica per le realizzazioni dei singoli sottosistemi è
assolutamente ininfluente sulle proprietà strutturali del sistema complessivo.
90 Capitolo 2. Analisi dei sistemi a tempo continuo

2.4.3 Criterio di Routh


Nell’ultimo esempio studiato, per determinare la proprietà di stabilità esterna o
interna, abbiamo calcolato esplicitamente le radici di un polinomio. Tuttavia, ciò
non sempre è agevole o addirittura possibile, specialmente per sistemi di ordine
elevato. Si pone dunque il problema di stabilire il segno della parte reale delle
radici di un polinomio senza determinarle esplicitamente. Ricordiamo che il cal-
colo diretto delle radici dei polinomi di grado qualunque può essere fatto solo in
maniera approssimata per via numerica e le equazioni polinomiali di grado supe-
riore al quarto non ammettono soluzioni esprimibili tramite funzioni algebriche.
Spesso, è inoltre interessante non limitarsi all’indagine della posizione delle radici
del polinomio minimo o del denominatore della f.d.t., ma poter trarre conclusioni
su come modificarne i coefficienti per ottenere la stabilità26 .
Iniziamo questa indagine per gradi. Per un polinomio di primo grado p(s) =
s+p l’appartenenza al semipiano sinistro è garantita dalla condizione p > 0, visto
che l’unica radice è s = −p. Per un polinomio di secondo grado p(s) = as2 +bs+c,
il ben noto Teorema di Cartesio afferma che il numero di radici a parte reale
positiva è pari al numero di variazioni di segno dei coefficienti, per cui le radici
appartengono al semipiano sinistro se e solo se a, b e c sono tutti dello stesso
segno. Le cose si complicano per polinomi di grado superiore al secondo, infatti
in questo caso l’uguaglianza del segno dei coefficienti è condizione solo necessaria
per l’appartenenza al semipiano sinistro, cioè si può affermare che

Proposizione 2.10 Se un polinomio ammette tutte radici a parte reale negativa,


allora i suoi coefficienti sono tutti dello stesso segno.

Che tale condizione non sia in generale sufficiente, si può vederlo tramite l’esem-
pio: p(s) = s3 + s2 + 4s + 30 le cui radici sono s = −3 e s = 1 ± j3. Tuttavia, la
condizione necessaria è di estrema utilità in quanto ci consente di affermare che
se nel polinomio in esame c’è qualche variazione di segno, allora certamente c’è
qualche radice nel semipiano destro. Resta da analizzare il caso di un polinomio
con coefficienti tutti dello stesso segno e di grado superiore al secondo. Ci viene
in aiuto il criterio di Routh che fornisce una condizione necessaria e sufficiente
per l’appartenenza al semipiano sinistro delle radici di un polinomio, e quindi per
la stabilità asintotica o quella BIBO se applicato, rispettivamente, al polinomio
minimo della matrice dinamica o al denominatore della f.d.t.
Dato un polinomio

p(s) = a0 sn + a1 sn−1 + a2 sn−2 + · · · + an

con coefficienti tutti dello stesso segno (altrimenti per quanto detto già si può
affermare che il sistema in esame è instabile) la tabella di Routh si costruisce
26
Studi recenti non si limitano alla stabilità ma alla D-stabilità, cioè l’appartenenza delle
radici a regioni del piano complesso più articolate del semipiano sinistro.
2.4. Stabilità dei sistemi dinamici 91

come segue: si scrivono in ordine decrescente gli interi n, n − 1, . . . , 0 e si traccia


una linea verticale
n
n−1
..
.
0
Nella prima riga della tabella si inseriscono i coefficienti del polinomio di indice
pari a0 , a2 , . . . e nella seconda quelli di indice dispari a1 , a3 , . . .

n a0 a2 a4 · · ·
n − 1 a1 a3 a5 · · ·
..
.
0

Il primo elemento della terza riga, b1 , è pari al determinante della matrice 2 × 2


formata dalle due precedenti righe e dalla prima e seconda colonna cambiato di
segno e diviso per il primo elemento della riga precedente

a a2
0

a1 a3
b1 = − = (a1 a2 − a0 a3 )/a1 .
a1
Gli altri elementi della prima riga si ottengono con la stessa formula, solo che nella
matrice la seconda colonna è la colonna successiva delle due righe precedenti, ad
esempio
a a
0 4

a1 a5
b2 = − = (a1 a4 − a0 a5 )/a1 .
a1
Gli elementi delle altre righe si costruiscono nello stesso modo, con i determi-
nanti cambiati di segno degli elementi delle due righe precedenti e della prima e
successive colonne divisi per il primo elemento della riga precedente. Volendo for-
nire una formula generale per la costruzione della tabella, si consideri la generica
tabella
n a0 a2 a4 · · ·
n − 1 a1 a3 a5 · · ·
.. .. .. .. ..
. . . . .
i h1 h2 h3 · · ·
i − 1 k1 k2 k3 · · ·
i − 2 l1 l2 l3 · · ·
..
.
0
92 Capitolo 2. Analisi dei sistemi a tempo continuo

gli elementi della riga i − 2, noti gli elementi delle due righe precedenti, sono dati
da
h h
1 i+1

k1 ki+1
li = − = (k1 hi+1 − h1 ki+1 )/k1
k1
dove gli elementi necessari al calcolo e non definiti nelle righe precedenti vanno
considerati nulli.
Una volta completata la tabella (le righe corrispondenti agli indici 0 e 1 avran-
no un solo elemento) i coefficienti di Routh saranno gli elementi della prima co-
lonna della tabella e il numero delle loro variazioni di segno è pari al numero
delle radici a parte reale positiva, mentre il numero delle loro permanenze di se-
gno è pari al numero di radici a parte reale negativa. Quando compare qualche
coefficiente di Routh nullo, allora la tabella non è ben definita (tale caso sarà
affrontato più avanti). Di conseguenza si può affermare che

Proposizione 2.11 Condizione necessaria e sufficiente affinché un polinomio


abbia tutte radici a parte reale negativa è che i suoi coefficienti di Routh siano
ben definiti e tutti dello stesso segno.

Esempio 2.24 Consideriamo il polinomio

p(s) = s4 + 2s3 + 3s2 + 4s + 5

Siccome tutti i coefficienti sono positivi, la condizione necessaria è soddisfatta e non


può darci alcuna informazione. Iniziamo a costruire la tabella di Routh

4 1 3 5
3 2 4
2
1
0

Il primo elemento della terza riga è



1 3


2 4
b1 = − =1
2
il secondo vale
1 5


2 0
b2 = − =5
2
2.4. Stabilità dei sistemi dinamici 93

ed essendo finite le colonne delle prime due righe, l’ultimo elemento della terza riga
è nullo e non viene riportato e la tabella risulta
4 1 3 5
3 2 4
2 1 5
1
0
L’unico elemento della quarta riga (visto che le due righe precedenti hanno solo due
colonne) è
2 4


1 5
c1 = − = −6
1
e cosı̀ per la quinta
1 5


−6 0
d1 = − =5
−6
Quindi la tabella completa è
4 1 3 5
3 2 4
2 1 5
1 −6
0 5
e i coefficienti di Routh sono
1, 2, 1, −6, 5
che mostrano due permanenze e due variazioni, il che implica due radici a parte
reale positiva e due a parte reale negativa. Difatti, applicando il comando roots in
MATLAB, si calcola che le radici sono
0.2878 ± j1.4161
−1.2878 ± j0.8579

Questo esempio mostra che l’elemento b2 è pari ad a4 e l’elemento d1 è pari a


b2 , ma questa caratteristica è del tutto generale:
Gli ultimi elementi delle righe di indice pari sono uguali agli ultimi elementi delle
precedenti righe di indice pari. Inoltre, poiché tutti i termini di una stessa riga
possono essere moltiplicati per uno stesso numero positivo, nella costruzione delle
righe successive alla seconda non è necessario dividere per il primo termine della
riga precedente, limitandosi a cambiare segno se esso è negativo27 .
27
Nel caso si decida di non effettuare la divisione è indispensabile non effettuarla per alcun
elemento della riga.
94 Capitolo 2. Analisi dei sistemi a tempo continuo

Nella costruzione della tabella possono presentarsi due casi singolari

• il primo elemento di una riga di indice minore di n è nullo;

• tutti gli elementi di una riga sono nulli28 .

Nel primo caso per completare la tabella si sostituisce al termine nullo un valore
ε > 0 piccolo a piacere.

Esempio 2.25 La tabella di Routh del polinomio

p(s) = s3 + 3s + 4


3 1 3
2 0 4
1
0
Si sostituisce al posto di 0 un numero ε > 0 e si completa la tabella secondo le regole
già esposte
3 1 3
2 ε 4
1 3ε − 4 si noti che non si è diviso per ε
0 4
Passando ora al limite per ε → 0+ la sequenza dei segni dei coefficienti di Routh è

+ + −+

e quindi il polinomio ha una radice a parte reale negativa e due a parte reale positiva;
nella fattispecie −1, 0.5 ± j1.9365.

Più complesso è il secondo caso in cui si annulla un’intera riga.

Esempio 2.26 Consideriamo il polinomio

p(s) = s5 + 3s4 − 5s3 − 15s2 + 4s + 12

Se fossimo interessati alla sola stabilità, già potremmo concludere che il sistema
che ammette tale polinomio come polinomio minimo della matrice dinamica o come
denominatore della f.d.t. è instabile in quanto non verifica la condizione necessaria,
tuttavia possiamo usare il criterio di Routh anche semplicemente per determinare il
28
Si può dimostrare che solo righe di indice dispari possono annullarsi.
2.4. Stabilità dei sistemi dinamici 95

numero delle radici a parte reale positiva. Dunque passiamo alla costruzione della
tabella di Routh
5 1 −5 4
4 3 −15 12
3 0 0
2
1
0
A questo punto la costruzione della tabella non può essere proseguita e quindi oc-
corre introdurre la cosiddetta equazione ausiliaria, definita dai coefficienti della riga
precedente a quella nulla
3s4 − 15s2 + 12 = 0
ottenuta utilizzando solo potenze pari a partire dall’indice della riga di cui si utiliz-
zano i coefficienti. Si dimostra che le soluzioni di questa equazione sono le radici
simmetriche rispetto all’origine del polinomio di partenza. Il fatto che ci siano solo
potenze pari di s ci permette di risolvere l’equazione rispetto alla variabile σ = s2 .
Nel nostro esempio l’equazione ausiliare può essere risolta facilmente

 1 ⇒ s1,2 = ±1

3σ 2 − 15σ + 12 = 0 ⇒ σ1,2 =

 4 ⇒ s = ±2
3,4

In conclusione delle 5 radici del polinomio iniziale, 2 sono a parte reale positiva
(+1, +2) e due a parte reale negativa (−1, −2), la quinta è a parte reale negativa
perché nella tabella parziale non c’era alcuna variazione di segno nella prima colonna.

Concludiamo questa lunga trattazione dell’argomento della stabilità di un si-


stema dinamico, accennando al fatto che per i sistemi non lineari lo studio della
stabilità è assai più complesso, innanzitutto perché non è possibile riferire la pro-
prietà al sistema ma solo ai suoi movimenti o ai suoi punti di equilibrio. Inoltre,
non esistono condizioni necessarie e sufficienti per la stabilità, che va quindi sem-
pre analizzata caso per caso. Tuttavia, esiste un metodo, detto primo metodo di
Lyapunov che permette di analizzare la stabilità di un punto di equilibrio di un
sistema non lineare, studiando la stabilità del sistema linearizzato attorno a quel
punto di equilibrio. In particolare

• se il modello linearizzato è asintoticamente stabile, allora il punto di equi-


librio è localmente asintoticamente stabile

• se il modello linearizzato è instabile, allora il punto di equilibrio è instabile

• se il modello linearizzato è stabile, allora nulla si può dire del sistema non
lineare
96 Capitolo 2. Analisi dei sistemi a tempo continuo

Per comprendere il senso della parola “localmente”, ricordiamo che i sistemi non
lineari possono ammettere anche più punti di equilibrio sotto lo stesso ingresso.
A seconda della proprietà di stabilità di ciascuno di essi e delle condizioni iniziali,
il sistema si porterà verso l’uno o l’altro di essi. In particolare, per ogni punto di
equilibrio asintoticamente stabile esiste una regione dello spazio di stato, detta
dominio di attrazione, tale che se le condizioni iniziali appartengono a tale regione,
lo stato del sistema si porterà verso il punto di equilibrio corrispondente.

Esempio 2.27 Consideriamo il sistema dinamico dell’Esempio 1.10 tenendo conto


anche dell’attrito viscoso con l’aria di coefficiente β, la cui equazione di stato in
forma normale è

ẋ1 = x2
ẋ2 = −g/r sin x1 − β/J x2 + 1/J u

dove con x1 = θ abbiamo indicato l’angolo e con u = C la coppia applicata all’asse


di rotazione. Troviamo i punti di equilibrio in corrispondenza dell’ingresso costante
û = 0 e linearizziamo attorno a ciascuno di essi. Ponendo le derivate uguali a zero,
si trovano le soluzioni

x̂2 = 0, sin x̂1 = 0 ⇒ x̂1 = 0, π ,

per cui ci sono due punti di equilibrio distinti, corrispondenti al pendolo con la massa
posta nel punto più basso (x̂1 = 0) della sua traiettoria e al pendolo con la massa
posta nel punto più alto (x̂1 = π):
       
x̂1a 0 x̂1b π
x̂a = = , x̂b = = ,
x̂2a 0 x̂2b 0

Linearizzando attorno al punto di equilibrio x̂a si ottiene il sistema lineare


!  
0 1 0
δẋa = δxa + δu
−g/r −β/J 1/J

i cui autovalori sono le radici del polinomio s2 + β/J s + g/r, che sono tutte e due
a parte reale negativa visto che tutti i parametri fisici sono positivi. Di conseguenza
possiamo concludere che il punto di equilibrio x̂a è asintoticamente stabile.
Linearizzando attorno al punto di equilibrio x̂b si ottiene il sistema lineare
!  
0 1 0
δẋb = δxb + δu
g/r −β/J 1/J

i cui autovalori sono le radici del polinomio s2 + β/J s − g/r, che sono una a parte
reale negativa e una a parte reale positiva. Di conseguenza possiamo concludere che
2.5. Risposta a regime permanente 97

il punto di equilibrio x̂b è instabile. Dato che il sistema presenta un solo punto di
equilibrio stabile, si può concludere anche che esso è “globalmente” asintoticamente
stabile, nel senso che il sistema, sotto l’ingresso û = 0 si porterà in x̂a a partire da
qualunque condizione iniziale, eccetto che nel caso in cui x(0) = x̂b , perché il sistema
rimarrebbe in tale punto. Infatti, in teoria, anche se instabile, un punto di equilibrio
è sempre un movimento ammissibile per un sistema dinamico, è sufficiente che le
condizioni iniziali siano esattamente pari al punto di equilibrio stesso e l’ingresso
sia pari a quello nominale. Il problema è che, in pratica, una condizione simile è
inattuabile.

2.5 Risposta a regime permanente


La risposta di un sistema LTI, oltre a essere decomposta in evoluzione libera e
risposta forzata, in alcuni casi può essere decomposta in un termine transitorio,
cioè che si estingue al passare del tempo, e un termine permanente, cioè che non
si estingue al passare del tempo. Si è detto in alcuni casi, perché la risposta a
regime permanente o semplicemente a regime non sempre esiste. La sua esistenza
dipende sia dalle caratteristiche del sistema che dal tipo di ingresso applicato. In
maniera discorsiva, si può affermare che la risposta a regime di un sistema esiste se
la risposta ad un ingresso applicato a partire da un istante infinitamente lontano
nel tempo è ben definita e non dipende dalle condizioni iniziali.
Si intuisce, osservando l’espressione della risposta nel dominio del tempo
(2.44),(2.45) che affinché la risposta risulti indipendente dalle condizioni iniziali,
il termine in evoluzione libera (l’unico che dipende dalle condizioni iniziali) deve
estinguersi e, come abbiamo visto nel Paragrafo 2.4, ciò accade se e solo se il
sistema è asintoticamente stabile, cioè se e solo se gli autovalori della matrice
dinamica sono tutti a parte reale negativa.
Ciò assunto, per quanto riguarda le condizioni cui deve soddisfare l’ingresso
affinché la risposta a regime sia ben definita, in questa sede ci limitiamo a consi-
derare solo il caso di un ingresso costante, per il quale il calcolo della risposta a
regime è di particolare interesse nelle applicazioni. Dato l’ingresso

u(t) = ū ,

per poter effettuare il calcolo che ci siamo proposti, occorre riscrivere l’espressio-
ne della risposta (2.44) per un istante di tempo generico t0 6= 0 e poi far tendere
t0 a −∞
Z t
x(t) = eA(t−τ ) Bu(τ )dτ + eA(t−t0 ) x0
t0

Siccome gli autovalori di A sono tutti a parte reale negativa, il secondo termine
98 Capitolo 2. Analisi dei sistemi a tempo continuo

tende a 0 quando t0 → −∞, dunque la risposta a regime risulta 29

Z t Z t−t0 Z +∞
A(t−τ ) Aσ
xr (t) = lim e B ūdτ = lim e B ūdσ = eAσ Bdσū =
t0 →−∞ t0 t0 →−∞ 0 0
h i+∞
= A−1 eAσ B ū = −A−1 B ū = [Φ(s)]s=0 B ū (2.52)
0

Con passaggi analoghi si calcola la risposta a regime nell’uscita a partire


dall’equazione (2.45), ottenendo
 
yr (t) = C(−A)−1 B + D ū = W (s)|s=0 ū , (2.53)

dove abbiamo voluto evidenziare come l’uscita a regime di un sistema asintotica-


mente stabile in risposta a un ingresso costante sia ancora una costante di valore
proporzionale all’ingresso, tramite il cosiddetto guadagno statico, cioè il valore
che la f.d.t. del sistema assume per s = 0 e che nel seguito indicheremo con µ,
cioè porremo30
µ = W (s)|s=0 . (2.54)
Osserviamo, infine, che la risposta a regime ad un ingresso costante coincide
con il valore finale (per t → +∞) della risposta ad un gradino, infatti, la risposta
ad un gradino è sempre somma della evoluzione libera e della risposta forzata, ma
la prima va a 0 per t → +∞ visto che il sistema è asintoticamente stabile, mentre,
per il teorema del valore finale, il limite per t → +∞ della risposta forzata vale

y(+∞) = lim sY (s) = lim sW (s) = µū .
s→0 s→0 s

È importante sottolineare che non abbiamo mai affermato che la risposta a


regime coincide con la risposta forzata, ma, nel caso della risposta al gradino, con
il suo valore finale. Chiariamo le idee con un esempio.

Esempio 2.28 Calcoliamo la risposta indiciale del sistema LTI con f.d.t.
9 − 9s
W (s) =
s2 + 4s + 3
Per definizione, dobbiamo calcolare la risposta ad un gradino unitario a partire da
condizioni iniziali nulle, per cui la risposta coincide con la risposta forzata, che vale
1 9 − 9s 3 9 6
Y (s) = W (s) = = − +
s s(s + 1)(s + 3) s s+1 s+3
29
Si noti che A è invertibile dato che non può avere alcun autovalore nullo per l’ipotesi di asin-
d At
totica stabilità. Inoltre, si tenga presente che dt e = AeAt , come peraltro già implicitamente
dimostrato nel Paragrafo 2.2.4.
30
Si osservi che tale valore, in generale, può anche non risultare finito, ad esempio quando
la W (s) ha un polo nell’origine. Ma nell’ipotesi di asintotica stabilità del sistema ciò non è
possibile.
2.6. Risposta indiciale di sistemi del I e II ordine 99

y(t)
1

−1

0 2 4 6 8 10 12
t

Figura 2.19: Grafico della risposta indiciale del sistema dell’Esempio 2.28

che antitrasformata vale

y(t) = 3δ−1 (t) − 9e−t δ−1 (t) + 6e−3t δ−1 (t) ,

dove si vede che il primo termine coincide con la risposta a regime permanente,
mentre gli altri due con la risposta transitoria, in quanto si estinguono al passare del
tempo, grazie al fatto che il sistema gode della proprietà di asintotica stabilità. Dal
grafico di Fig. 2.19 si vede che nei primi istanti della sua evoluzione la risposta si
discosta molto da un segnale costante, che invece è quello che rimane dopo circa 8
secondi.

In conclusione, se un sistema è asintoticamente stabile, la sua risposta può


essere sempre decomposta in una parte transitoria la cui evoluzione è legata ai
modi propri del sistema (comprendente anche l’evoluzione libera se le condizioni
iniziali non sono nulle), e una parte a regime legata al tipo di ingresso applicato al
sistema. In sostanza, la differenza tra la risposta complessiva e tutto ciò che tende
a zero al passare del tempo è ciò che si chiama risposta a regime permanente.
Formalmente, la risposta a regime permanente nello stato (risp. nell’uscita)
per un sistema LTI può essere definita anche come la funzione del tempo xr (t)
(risp. yr (t)) tale che il seguente limite esiste

lim (x(t) − xr (t)) = 0 (risp. lim (y(t) − yr (t)) = 0) . (2.55)


t→+∞ t→+∞

Sarà in base a tale definizione che nel Capitolo 4 affronteremo il calcolo della
risposta a regime permanente per un’altra classe di segnali di ingresso, quelli
sinusoidali.
100 Capitolo 2. Analisi dei sistemi a tempo continuo

y
max

(1+0.01ε)y

y
(1−0.01ε)y ∞

y(t) 0.5y∞

0 T
r TM T

t
Ts

Figura 2.20: Parametri caratteristici della risposta indiciale

2.6 Risposta indiciale di sistemi del I e II ordine


In questo paragrafo analizzeremo più in dettaglio le caratteristiche della risposta
indiciale di alcuni sistemi del I e del II ordine, in quanto il comportamento di
moltissimi sistemi nella pratica è ben approssimabile con quello di tali sistemi
semplici, inoltre esistono numerose applicazioni in cui un sistema è soggetto a se-
gnali costanti per lunghi periodi e quindi è di interesse studiarne il comportamento
quando i segnali di ingresso sono costanti a tratti (successione di gradini).
La risposta indiciale verrà caratterizzata facendo riferimento ai seguenti pa-
rametri, graficamente riportati in Fig. 2.20

• valore di regime y∞ che è pari al guadagno statico del sistema, come già
trovato nel Paragrafo 2.5
• valore massimo ymax definito come il massimo dell’uscita
• sovraelongazione percentuale s% definita come
ymax − y∞
s% = 100
y∞

• tempo di massima sovraelongazione TM definito come il primo istante in


cui y = ymax
• tempo di salita Ts definito come l’intervallo di tempo occorrente affinché
l’uscita passi dal 10% al 90% del valore di regime
• tempo di ritardo Tr definito come l’istante di tempo in cui l’uscita raggiunge
0.5y∞
2.6. Risposta indiciale di sistemi del I e II ordine 101

0.8

0.6

y(t)/µ
0.4

0.2

0
0 2 4 6
t/τ

Figura 2.21: Risposta indiciale di un sistema del I ordine e tangente nell’origine

• tempo di assestamento Taε definito come l’istante di tempo a partire dal


quale la differenza tra l’uscita e il valore di regime sia definitivamente
inferiore al ε% del valore di regime

Sistemi del I ordine. Si consideri il sistema con f.d.t.


µ
G(s) = , τ >0.
1 + sτ
La risposta indiciale si ottiene antitrasformando la risposta nel dominio di Laplace
1 µ µ µτ µ µ
Y (s) = G(s) = = − = −
s s(1 + sτ ) s 1 + sτ s s + 1/τ
e quindi  
y(t) = µδ−1 (t) − µe−t/τ δ−1 (t) = µ 1 − e−t/τ δ−1 (t) ,
il cui diagramma è riportato in Fig. 2.21 in unità normalizzate. Dal grafico si
evince immediatamente che ymax = y∞ = µ, s% = 0, mentre è possibile calcolare
che Ts = log 9 ≃ 2.2τ , Tr ≃ 0.7τ , Ta1 = log 100 ≃ 4.6τ . È quindi evidente
come le caratteristiche “dinamiche” del sistema, cioè quelle che ne descrivono
il comportamento in transitorio, siano legate al parametro τ , detto costante di
tempo. A tale valore è legata la pendenza della tangente nell’origine, che può
essere calcolata immediatamente applicando il teorema del valore iniziale alla
derivata di y(t), e quindi a sY (s) nel dominio di Laplace, cioè

ẏ(0) = lim s(sY (s)) = = µ/τ .
s→∞ 1 + sτ
Più la costante di tempo è piccola, più il tempo di salita diminuisce e il sistema
si porta al valore di regime più rapidamente.
102 Capitolo 2. Analisi dei sistemi a tempo continuo

0.8

0.6

y(t)/µ
0.4

0.2

0
0 5 10 15
t

Figura 2.22: Risposta indiciale di un sistema del II ordine con poli reali

Sistemi del II ordine. Prima consideriamo il caso di un sistema con f.d.t. con
due poli reali
µ
G(s) = , τ1 ≥ τ2 > 0 ,
(1 + sτ1 )(1 + sτ2 )
la cui risposta indiciale nel dominio di Laplace vale

µ µ µτ1 /(1 − τ2 /τ1 ) µτ2 /(1 − τ1 /τ2 )


Y (s) = = − −
s(1 + sτ1 )(1 + sτ2 ) s 1 + sτ1 1 + sτ2
µ µτ1 /(τ1 − τ2 ) µτ2 /(τ1 − τ2 )
= − +
s s + 1/τ1 s + 1/τ2

che antitrasformata diventa


 
τ1 τ2
y(t) = µ 1 − e−t/τ1 + e−t/τ2 δ−1 (t) .
τ1 − τ2 τ1 − τ2
Il diagramma temporale è riportato in Fig. 2.22 e mostra che ancora una volta
non c’è sovraelongazione e quindi ymax = y∞ , mentre ora la tangente nell’origine
ha pendenza nulla. Inoltre, dall’espressione nel dominio del tempo si evince che
l’esponenziale più lento (cioè quello con costante di tempo più grande, τ1 ) è
moltiplicato per un coefficiente (il residuo del polo corrispondente in −1/τ1 ) in
valore assoluto più grande di quello relativo all’esponenziale più veloce. Se, al
limite, si può ritenere τ1 >> τ2 , allora la risposta può essere approssimata da
 
y(t) ≃ µ 1 − e−t/τ1 δ−1 (t) ,

che è quella di un sistema del primo ordine. In altre parole, in un sistema di questo
tipo gli effetti delle dinamiche veloci oltre a scomparire rapidamente pesano meno
di quelli dovuti alle dinamiche lente.
2.6. Risposta indiciale di sistemi del I e II ordine 103

ζ=0.1
ζ=0.2
1.5
ζ=0.3
ζ=0.4
ζ=0.5
1

y/µ
ζ=0.6
ζ=0.7
0.5 ζ=0.8
ζ=0.9
ζ=1
0
0 5 10 15
ωnt

Figura 2.23: Risposta indiciale di un sistema del II ordine con poli complessi e
coniugati

Passiamo ora al caso di un sistema con f.d.t. con due poli complessi e coniugati

µωn2
G(s) = , ωn > 0, 0 < ζ < 1
s2 + 2ζωn s + ωn2
che nel dominio di Laplace ha risposta indiciale

µωn2 µ r r∗
Y (s) = = + +
s(s2 + 2ζωn s + ωn2 ) s s − p s − p∗
dove il polo p è pari a q
p = −ζωn + jωn 1 − ζ 2
e quindi se fosse ζ < 0 il sistema sarebbe instabile perché avrebbe poli con parte
reale positiva. Il residuo r, in base alle (2.13),(2.14) si calcola come

µω 2 µ
n
|r| = [(s − p)Y (s)]s=p = = p
p(p − p∗ ) 2 1 − ζ2
 q q 
ζ
arg(r) = − arg −2ωn2 1 − ζ 2 − j2ζωn2 1 − ζ 2 = π − atan p
1 − ζ2
e dunque la risposta indiciale nel dominio del tempo vale
q  !
1 −ζωn t 2
y(t) = µ 1 + p e cos ω n 1 − ζ t + arg(r) δ−1 (t) .
1 − ζ2

Il diagramma temporale, riportato in Fig. 2.23 per diversi valori dello smorza-
mento, rivela la presenza di sovraelongazione per ζ < 1 e si può dimostrare che
104 Capitolo 2. Analisi dei sistemi a tempo continuo

y(t)
2

0
0 2 4 6
t

Figura 2.24: Risposta indiciale del sistema dell’Esempio 2.29

vale
− √ ζπ
s% = 100e 1−ζ 2

da cui si evince che la sovraelongazione dipende solo dallo smorzamento ζ, e in


particolare essa aumenta sempre al diminuire dello smorzamento, mentre stime
del tempo di assestamento all’1% e al 2% sono date dalle formule

4.6 4
Ta1 ≃ , Ta2 ≃ ,
ζωn ζωn

in cui compare anche la dipendenza dalla pulsazione naturale ωn , e si vede che


il sistema si porta al valore di regime tanto più rapidamente quanto più grande
è il prodotto ζωn , che è il valore assoluto della parte reale dei poli del sistema.
Ancora una volta dunque, la distanza dei poli dall’asse immaginario è indicativa
della “rapidità” del sistema.
Abbiamo visto che nel caso di poli complessi e coniugati il sistema del II ordine
sovraelonga in risposta ad un gradino, tuttavia ciò non deve portare a concludere
che nessun sistema del II ordine con poli reali può sovraelongare, basta analizzare
il caso dell’esempio seguente.

Esempio 2.29 La risposta indiciale del sistema con f.d.t.

10s + 6
W (s) =
s2 + 3s + 2
vale
y(t) = (3 + 4e−t − 7e−2t )δ−1 (t) ,
2.7. Il problema della realizzazione 105

PSfrag R

u C y

Figura 2.25: Rete RC

R z R

u C C y

Figura 2.26: Doppia rete RC

il cui andamento è riportato in Fig. 2.24, dove si vede chiaramente la presenza di


sovraelongazione nonostante i poli del sistema siano in −1 e −2. Tale effetto non può
che essere dovuto alla presenza dello zero in −3/5, più vicino all’asse immaginario
dei due poli.

2.7 Il problema della realizzazione


Abbiamo visto come ricavare la funzione di trasferimento di sistemi lineari e sta-
zionari e inoltre le formule per l’espressione di funzioni di trasferimento risultanti
dall’interconnessione di sistemi più semplici. Dobbiamo ora evidenziare che l’in-
terconnessione presenta un problema dal punto di vista realizzativo. Illustriamo
questo punto con un esempio.

Esempio 2.30 Consideriamo la rete RC di Fig. 2.25 la cui funzione di trasferimento



1
W (s) =
1 + sτ
con τ = RC (basta trasformare secondo Laplace la relazione i–u u = RC ẏ + y
ottenuta applicando il II principio di Kirchhoff). Ora connettiamo in cascata due reti
RC uguali (Fig. 2.26). In un primo momento si sarebbe portati a pensare che la f.d.t.
risultante sia quella che si ottiene dalla serie delle due f.d.t. componenti, cioè
 2
1 1
= . (2.56)
1 + sτ 1 + 2τ s + τ 2 s2
106 Capitolo 2. Analisi dei sistemi a tempo continuo

− O

e f (e) e O
+
+

Figura 2.27: Schema ideale dell’amplificatore operazionale e simbolo circuitale

Invece, calcoliamo la f.d.t. del sistema complessivo dalle equazioni


u = Rz + x1
x1 = RC ẋ2 + x2
z = C ẋ1 + C ẋ2 (2.57)
ricavando
1
W (s) = . (2.58)
1 + 3τ s + τ 2 s2

A cosa è dovuta la discrepanza fra la (2.56) e la (2.58)? Il problema è che negli


schemi a blocchi il flusso di variabili è sempre assunto unidirezionale, ovvero nello
schema di Fig. 2.11 il sistema a influenza il sistema b ma non vale il viceversa.
Nella connessione delle due reti invece il secondo sistema interagisce con il primo,
come si vede dall’equazione (2.57) o dalla seguente considerazione: supponiamo
che l’ingresso sia nullo e il primo condensatore scarico; una condizione iniziale
non nulla nel secondo condensatore induce un’evoluzione non nulla anche sulla
tensione ai capi del primo condensatore, evoluzione che non si ritrova nella sche-
matizzazione a blocchi. Il problema è quindi nella connessione fra i due blocchi,
che dovrebbe avvenire con un elemento che forzasse un’evoluzione unidirezionale
dei flussi di variabili.
Un elemento in grado di approssimare con sufficiente accuratezza questo com-
portamento è l’amplificatore operazionale. Si tratta di un amplificatore ad elevato
guadagno e con impedenza di ingresso molto grande e impedenza di uscita molto
piccola. Nello schema ideale di Fig. 2.27 l’impedenza di ingresso è infinita e quella
di uscita nulla.
L’andamento della funzione f (e) è riportato in Fig. 2.28, da cui si evince che
l’uscita dell’amplificatore operazionale reale è pari a tan(α) volte il segnale di
ingresso se quest’ultimo è sufficientemente contenuto da non causare la satura-
zione; inoltre, essendo α > 90◦ , il guadagno è negativo e l’amplificatore si dice
che è invertente. Se invece il segnale di ingresso eccede in valore assoluto il limite
−Es / tan(α), allora l’uscita è in valore assoluto pari a Es .
Nel seguito supporremo di trovarci sempre nel caso ideale in cui l’angolo α
tende a 90◦ . È chiaro che in tale caso affinché l’uscita sia |y(t)| < Es in ingresso
2.7. Il problema della realizzazione 107

f (e)

Es

−Es / tan(α) Es / tan(α) e

−Es

Figura 2.28: Caratteristica dell’operazionale

I(s)

V (s)

Figura 2.29: Definizione dell’impedenza operazionale

deve essere31 e(t) = 0. Inoltre, essendo l’impedenza di ingresso infinita, anche


la corrente in ingresso deve essere nulla. Assumeremo infine che l’impedenza
di uscita sia nulla in modo che la corrente erogata dall’operazionale dipenda
esclusivamente dal carico esterno che applicheremo.
Conviene analizzare il comportamento di un circuito piuttosto generale che
fa uso dell’amplificatore operazionale ideale, per poi particolarizzare il tipo di
elementi impiegati in schemi specifici. Per far ciò definiamo l’impedenza opera-
zionale come la f.d.t. di un bipolo passivo il cui ingresso sia la corrente che scorre
nel bipolo e la cui uscita sia la tensione ai capi del bipolo stesso, quindi con
riferimento alla Fig. 2.29 porremo
V (s)
Z(s) = . (2.59)
I(s)

In particolare, ricordando che la relazione costitutiva dell’elemento condensa-


tore è i = Cdv/dt, trasformando secondo Laplace con tensione iniziale nulla, è
31
Questa condizione è anche detta corto circuito virtuale.
108 Capitolo 2. Analisi dei sistemi a tempo continuo

replacemen
Z0 (s)

I(s) I0 (s)
I1 (s)
Z1 (s) −
U1 (s)
I2 (s) E(s)
Z2 (s)
+

U2 (s)
Y (s)

In (s)
Zn (s)
Un (s)

Figura 2.30: Schema generale con operazionale

immediato trovare che l’impedenza operazionale di un condensatore vale


V (s) 1
Z(s) = = (2.60)
I(s) sC
Analogamente, ricordando che per un induttore vale la relazione v = Ldi/dt,
trasformando secondo Laplace con corrente iniziale nulla, si ha che l’impedenza
operazionale di un induttore vale
V (s)
Z(s) = = sL . (2.61)
I(s)

Ora consideriamo lo schema di Fig. 2.30. Per quanto detto prima E(s) = 0,
quindi
Ui (s)
Ii (s) = , i = 1, . . . , n
Zi (s)
Y (s)
I0 (s) = .
Z0 (s)
Essendo inoltre I(s) = 0 avremo
n
X
Ii (s) = −I0 (s)
i=1
2.7. Il problema della realizzazione 109

R0

R1

U1 (s)

+
R2
U2 (s)
Y (s)
Rn

Un (s)

Figura 2.31: Schema di un sommatore

e quindi
n
X Z0 (s)
Y (s) = − Ui (s) . (2.62)
i=1
Zi (s)
Dalla (2.62) si deduce che scegliendo opportunamente le impedenze Zi (s), i =
0, . . . , n è possibile realizzare delle unità operazionali elementari che ci consenti-
ranno di realizzare una qualunque funzione di trasferimento.
La prima configurazione è illustrata in Fig. 2.31. In questo caso le impedenze
operazionali sono Zi (s) = Ri , i = 0, . . . , n e quindi dalla (2.62) otteniamo
n
X R0
Y (s) = − Ui (s) ,
i=1
Ri

che antitrasformata fornisce


n n
X R0 X
y(t) = − ui (t) = − ai ui (t) .
i=1
Ri i=1

Quindi lo schema di Fig. 2.31 realizza un sommatore analogico con guadagni


ai = RRi facilmente variabili con un’opportuna scelta delle resistenze Ri .
0

Consideriamo ora lo schema di Fig. 2.32. Tenendo conto dell’espressione


dell’impedenza operazionale di un condensatore (2.60), dalla (2.62) si ottiene
n
X 1
Y (s) = − Ui (s)
i=1
sRi C
110 Capitolo 2. Analisi dei sistemi a tempo continuo

R1

U1 (s)
+
R2
U2 (s)
Y (s)
Rn

Un (s)

Figura 2.32: Schema di un sommatore–integratore

la cui antitrasformata è
n Z t
X 1
y(t) = y0 − ui (τ )dτ ,
i=1
Ri C 0

dove y0 è la tensione all’istante t0 presente sul condensatore. Dunque l’unità


operazionale appena esaminata realizza un sommatore–integratore.
Ricordando ora che gli schemi delle forme canoniche analizzate (vedi Paragra-
fo 1.5) fanno uso solo di sommatori, integratori e guadagni, siamo ora in grado
di “simulare elettronicamente” qualunque sistema lineare e stazionario, cioè di
realizzare un circuito elettronico analogico in cui le tensioni evolvono secondo le
stesse equazioni che regolano il funzionamento del sistema dinamico in esame.

2.7.1 Dallo schema a blocchi alla i–s–u


Abbiamo visto che per realizzare un sistema occorre determinarne una i–s–u.
Tuttavia, abbiamo anche detto che esistono infinite rappresentazioni i–s–u di un
sistema, per cui occorre porsi la domanda se è possibile scegliere una qualunque
di esse. La risposta è che dipende dalle applicazioni, cioè dallo scopo per cui la
realizzazione del sistema deve essere adoperata. In numerose applicazioni, di un
sistema si conoscono le rappresentazioni i–u dei diversi sottosistemi che lo com-
pongono e spesso è necessario determinare una sua realizzazione le cui proprietà
2.7. Il problema della realizzazione 111

u s+2 z=v 1 y
s+1 s+2

u 1 z=v s+2 y
s+2 s+1

Figura 2.33: Schemi a blocchi relativi all’Esempio 2.31

strutturali 32 siano le stesse del sistema originario. Già nell’Esempio 1.9 abbiamo
visto come due i–s–u di uno stesso sistema possono avere proprietà strutturali di-
verse. Di conseguenza, nel realizzare33 un sistema di cui sia assegnato lo schema
a blocchi dei sottosistemi componenti, se si vogliono preservare le proprietà strut-
turali del sistema di partenza, è necessario realizzare prima i singoli sottosistemi
e poi provvedere a connetterli tra loro cosı̀ come indicato dallo schema a blocchi.
Tale procedimento garantisce che le variabili di stato della rappresentazione i–s–u
che si trova hanno pieno significato fisico, nel senso che di ciascuna di esse è noto
il sottosistema a cui appartiene, e di conseguenza la i–s–u complessiva possiede
le stesse proprietà strutturali del sistema originario.
Vediamo, dunque, un esempio che metta in evidenza come due sistemi possano
avere la stessa funzione di trasferimento ma proprietà strutturali diverse, per cui
il “procedimento di realizzazione a singoli sottosistemi” è necessario ai fini della
determinazione di queste ultime.

Esempio 2.31 Dati i due sistemi in Fig. 2.33, è evidente che essi hanno la stessa
funzione di trasferimento pari a

1
G(s) = .
s+1
Innanzitutto, notiamo che in entrambi i casi è presente una cancellazione polo-zero,
e ciò ci consente di prevedere che i sistemi complessivi non possono essere completa-
mente controllabili e osservabili. Allora, determiniamo le realizzazioni dei due sistemi
seguendo il procedimento prima esposto. Iniziamo dallo schema a blocchi in alto.
Le i–s–u dei due blocchi si ottengono applicando, ad esempio, la forma canonica di
controllo

ẋ1 = −x1 + u ẋ2 = −2x2 + v


z = x1 + u y = x2
32
Controllabilità, osservabilità e stabilità.
33
O, equivalentemente, se si vuole determinarne una rappresentazione i–s–u.
112 Capitolo 2. Analisi dei sistemi a tempo continuo

dove con x1 si è indicato lo stato del sottosistema a sinistra e con x2 quello del
sottosistema a destra. Tenendo conto della connessione serie z = v, si ottiene la
i–s–u complessiva
! ! ! !
ẋ1 −1 0 x1 1
= + u
ẋ2 1 −2 x2 1
!
x1
y = (0 1)
x2

È ora possibile determinare la proprietà di controllabilità applicando la Proposizio-


ne 2.5 e quella di osservabilità applicando la Proposizione 2.6
   
1 −1 0 1
C= , O=
1 −1 1 −2

e quindi il sistema complessivo non è controllabile ma è osservabile. Passiamo ora a


realizzare il sistema rappresentato dallo schema a blocchi in basso. Le i–s–u dei due
sottosistemi sono le seguenti

ẋ1 = −2x1 + u ẋ2 = −x2 + v


z = x1 y = x2 + v

dove x1 è lo stato del sottosistema di destra e x2 quello del sottosistema di sinistra.


Tenendo conto della connessione serie z = v, la i–s–u complessiva risulta
! ! ! !
ẋ1 −2 0 x1 1
= + u
ẋ2 1 −1 x2 0
!
x1
y = (1 1)
x2

le cui matrici di controllabilità e osservabilità sono


   
1 −2 1 1
C= , O=
0 1 −1 −1

e quindi il sistema complessivo è controllabile ma non è osservabile. Notiamo espli-


citamente che saremmo giunti alle stesse conclusioni anche se avessimo realizzato i
singoli sottosistemi facendo uso della forma canonica di osservazione, in quanto lo
scopo è quello di analizzare le proprietà strutturali di un sistema composto da sotto-
sistemi dei quali si conosce solo la rappresentazione i–u (f.d.t.), per cui tali proprietà
dipendono solo dalla connessione dei vari blocchi fra loro, ma non dalla struttura
interna di ciascuno di essi.
2.7. Il problema della realizzazione 113

R
R
R
R C
- R C
- R
- C
U (s) Rc
+
+
+
Y (s)

Figura 2.34: Realizzazione analogica di un sistema LTI

R1
- C
+
U1 (s) U2 (s) R2 Y (s)

Figura 2.35: Cella elementare del circuito precedente

Nell’Esempio precedente avremmo potuto anche seguire un’altra strada per


risolvere il problema della realizzazione, e cioè passare dalla f.d.t. complessiva alla
i–s–u del sistema adoperando direttamente una delle forme canoniche. Innanzi-
tutto, va osservato che in questo modo avremmo ottenuto un sistema del primo
ordine anziché del secondo, visto che la f.d.t. complessiva ha un denominatore
di primo grado, a causa della cancellazione polo-zero. La realizzazione ottenuta
in tal modo si dice minima. Senza scendere troppo nei dettagli, si tratta di una
i–s–u che utilizza il minimo numero di variabili di stato in grado di riprodurre
quel dato comportamento ingresso–uscita del sistema. Tuttavia, una realizzazio-
ne del genere avrebbe certamente mancato di qualcosa, e cioè della descrizione
della parte non controllabile e/o non osservabile del sistema. Si potrebbe allora
pensare che il non eseguire esplicitamente la cancellazione nel calcolo della f.d.t.
complessiva porterebbe ad una realizzazione che descrive il sistema in maniera
completa. Purtroppo, ciò non è vero, nel senso che la i–s–u che si otterrebbe
avrebbe proprietà strutturali che dipendono solo dal tipo particolare di forma
canonica scelto per la realizzazione e non dalla effettiva struttura interna del
sistema di partenza.
Concludiamo questo paragrafo risolvendo anche il problema inverso, cioè come
114 Capitolo 2. Analisi dei sistemi a tempo continuo

U (s) + 1 1 1 Y (s)
− − −
+
1 + sRC 1 + sRC 1 + sRC

R
Rc

Figura 2.36: Schema a blocchi del circuito dell’Esempio 2.32

risalire dallo schema realizzativo analogico alla f.d.t.

Esempio 2.32 Si consideri lo schema di Fig. 2.34, in cui sono riconoscibili tre blocchi
del tipo in Fig. 2.35. Con le notazioni usate in precedenza l’impedenza operazionale
Z0 (s) è data dal parallelo fra condensatore e resistore
1
R sC R
Z0 (s) = 1 = 1 + sRC
R + sC

e quindi la risposta della cella in Fig. 2.35 è


 
1 R R
Y (s) = − U1 (s) + U2 (s)
1 + sRC R1 R2
e nel caso particolare in cui R1 = R2 = R, si ha la relazione ingresso–uscita
1
Y (s) = − (U1 (s) + U2 (s)) .
1 + sRC
Quindi il circuito in Fig. 2.34 si schematizza come in Fig. 2.36, la cui f.d.t. è
1
− (1+sτ )3 1
W (s) = K
=− ,
1+ (1+sτ )3
K + (1 + sτ )3

dove τ = RC e K = R/Rc .

2.8 Comandi MATLAB


In MATLAB un polinomio è rappresentato dal vettore dei suoi coefficienti, cosı̀
ad esempio, il polinomio
d(s) = 3s3 + 2s + 5
è rappresentabile in MATLAB dalla variabile
2.8. Comandi MATLAB 115

d=[3 0 2 5];

È possibile anche ottenere i coefficienti di un polinomio di cui siano assegnate


le radici tramite il comando

>> p=poly([-3 -2 1]);

che fornisce i coefficienti del polinomio monico34 s3 + 4s2 + s − 6, che ammette le


radici −3, −2, 1. Viceversa, il comando per calcolare le radici di un polinomio è
roots. Cosı̀, ad esempio, il comando

>> roots([1 4 8])

fornisce il risultato

>> -2 + 2i
-2 - 2i

I comandi MATLAB per il calcolo del prodotto e della divisione di due


polinomi sono conv e deconv. Ad esempio, il prodotto

(s + 1)(s2 + 3s + 4) = s3 + 4s2 + 7s + 4

si calcola con il comando

>> conv([1 1],[1 3 4])

che restituisce il risultato

>> 1 4 7 4

mentre il rapporto

(s3 + 2s2 + 4s + 1)/(s + 1) = s2 + s + 3 − 2/(s + 1)

si calcola con il comando

>> [q,r]=deconv([1 2 4 1],[1 1])

che restituisce il polinomio quoziente

>> q =
>> 1 1 3

e il polinomio resto
34
Si dice monico un polinomio che ha il termine di grado massimo pari a 1.
116 Capitolo 2. Analisi dei sistemi a tempo continuo

>> r =
>> 0 0 0 -2

I residui di una scomposizione in fratti semplici si trovano con l’ausilio del


comando residue. Ad esempio, per scomporre in fratti semplici la funzione
razionale fratta
n(s) s−3
= 3
d(s) s + 5s2 + 6s
si può usare il comando

>> [r,p,k]=residue([1 -3],[1 5 6 0])

che restituisce, nell’ordine, i residui

>> r =
>> -2 2.5 -0.5

i poli corrispondenti

>> p =
>> -3 -2 0

e l’eventuale parte intera

>> k =
>> [ ]

Di seguito si riporta una serie di comandi messi a disposizione dal Control


System Toolbox per l’analisi dei sistemi LTI.
Nel Capitolo 1 abbiamo visto come è possibile definire in MATLAB una va-
riabile sistema quando è nota la sua i–s–u. Se, invece, del sistema è nota la f.d.t.
W (s) = n(s)/d(s), allora si può usare il comando

>> W = tf(n,d);

dove n e d sono i vettori dei coefficienti dei polinomi n(s) e d(s), rispettivamente.
L’applicazione, invece, dei comandi ss e tf a variabili di tipo sistema, deter-
mina la conversione tra un tipo di rappresentazione e l’altro. Per connettere tra
di loro più sistemi, in MATLAB gli operatori + e * quando applicati a variabili di
tipo sistema rappresentano le connessioni in parallelo e in serie, rispettivamente.
Inoltre per risolvere la connessione in retroazione è possibile adoperare l’operato-
re / o, in alternativa, il comando feedback. Se, ad esempio, si vuole determinare
la f.d.t. della serie tra S1 ed S2 in retroazione negativa con S3 si può usare la
sintassi
2.9. Esercizi 117

>> tf(S2*S1/(1+S2*S1*S3));

o equivalentemente

>> feedback(S2*S1,S3,-1);

dove il -1 diventa +1 in caso di reazione positiva. A valle delle operazioni di con-


nessione, si consiglia sempre di chiedere esplicitamente al MATLAB di effettuare
eventuali semplificazioni tra zeri e poli del sistema complessivo. A ciò provvede
il comando minreal applicato al sistema complessivo.
La risposta impulsiva di un sistema LTI, sia esso assegnato in spazio di stato
col comando ss, sia esso assegnato in termini di f.d.t. col comando tf, può essere
determinata col comando impulse. Ad esempio, la risposta impulsiva nell’uscita
e nello stato del sistema W la si determina col comando

>> [y,t,x]=impulse(W);

In maniera del tutto analoga si possono calcolare la risposta indiciale, col


comando step, e quella libera, col comando initial. Per determinare, infine, la
risposta ad un generico ingresso i cui campioni sono memorizzati nella variabile
u basta usare il comando

>> [y,t,x]=lsim(W,u);

Si tenga presente che se i comandi per il calcolo della risposta vengono usati
omettendo i parametri di uscita, essi producono un grafico della risposta, che
altrimenti dovrebbe essere generato tramite il comando grafico plot. Ad esempio,
per tracciare il diagramma temporale della risposta nell’uscita memorizzata nella
variabile y, basta digitare

>> plot(t,y)

2.9 Esercizi

Esercizio 2.1 Determinare la trasformata di Laplace delle seguenti funzioni del tem-
po

f1 (t) = e−3t δ−1 (t) f4 (t)

f2 (t) = sin(t − 5)δ−1 (t − 5)


1
f3 (t) = (t − 2)δ−1 (t − 2)

f4 (t) = vedi grafico a lato 0 1 2 t


118 Capitolo 2. Analisi dei sistemi a tempo continuo

u(t) + 4 v(t) y(t)


ẏ + 3y = v
- s(s + 5)

Figura 2.37: Schema a blocchi del sistema dell’Esercizio 2.6

Esercizio 2.2 Determinare la f.d.t. e una rappresentazione i–s–u del sistema la cui
rappresentazione i–u è
...
2 y +4ẏ + 6y = 2ü − 4u̇

Esercizio 2.3 Determinare una rappresentazione i–s–u del sistema la cui risposta
impulsiva è
w(t) = (2te−t + 3e−4t )δ−1 (t)

Esercizio 2.4 Determinare la risposta nell’uscita del sistema la cui f.d.t. è35
1
W (s) =
s2 + 3s + 3
al segnale di ingresso u(t) = f1 (t) come definito nell’Esercizio 2.1.

Esercizio 2.5 Determinare la risposta nell’uscita del sistema


! ! !
0 1 0 1
ẋ = x+ u, x(0) =
−1 −2 2 1
y = (3 −1 )x

al segnale di ingresso u(t) = f2 (t) come definito nell’Esercizio 2.1.

Esercizio 2.6 Determinare la risposta indiciale del sistema in Fig. 2.37.

Esercizio 2.7 Determinare la f.d.t. e la proprietà di stabilità BIBO del sistema


rappresentato in Fig. 2.38.

Esercizio 2.8 Determinare i valori di k per cui il sistema rappresentato in Fig. 2.39
è esternamente stabile. Per un valore a scelta di k 6= 0, trovare la risposta al segnale
di ingresso u(t) = 5.
2.9. Esercizi 119

−5
s+3 + y(t)
u(t) + 1
s2
- 2 +

Figura 2.38: Schema a blocchi del sistema dell’Esercizio 2.7

4
s+1 + y(t)
u(t) +
2 +
+ −
s
k
s+2

Figura 2.39: Schema a blocchi del sistema dell’Esercizio 2.8

Esercizio 2.9 Determinare i valori di k tali che il sistema rappresentato in Fig. 2.40
è stabile BIBO e quelli per cui è stabile internamente.

Esercizio 2.10 Determinare la proprietà di stablità dei punti di equilibrio del sistema
dell’Esercizio 1.6.

Esercizio 2.11 Nel sistema meccanico in Fig. 2.41, la molla non lineare ha energia
potenziale pari a V = 1/4kx4 , con k = 1000 N/m. Assegnata la massa M = 1 kg,
determinare il valore del parametro β tale che il sistema linearizzato attorno al punto
di equilibrio corrispondente all’ingresso û = 8 N abbia un coefficiente di smorzamento
ζ = 0.3.

Esercizio 2.12 Determinare i punti di equilibrio del sistema non lineare

ẋ1 = −x2 + e−2x1 − u


ẋ2 = e−x1 − x2
y = x2

in corrispondenza dell’ingresso û = 2 e la risposta nell’uscita all’ingresso u(t) =


2 + 0.1 sin(4t)δ−1 (t).
120 Capitolo 2. Analisi dei sistemi a tempo continuo

u(t) + k s−2 y(t)

- s+3 s+6

s+3
s−2

Figura 2.40: Schema a blocchi del sistema dell’Esercizio 2.9

xxxxxx
xxxxxx
xxxxxx
x
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
β
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
u
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
molla non lineare M
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Figura 2.41: Sistema meccanico non lineare dell’Esercizio 2.11

Esercizio 2.13 Determinare una rappresentazione i–s–u del circuito in Fig. 2.42.

Esercizio 2.14 Determinare una rappresentazione i–s–u del circuito in Fig. 2.43.

Esercizio 2.15 Determinare i valori di k tali che il sistema in Fig. 2.44 è asintotica-
mente stabile, e scelto un valore di k 6= 0 a piacere la risposta a regime al segnale di
ingresso u(t) = 5δ−1 (t − 5).

Esercizio 2.16 Determinare una rappresentazione i–s–u del sistema meccanico36 in


Fig. 2.45 assumendo come ingresso la forza f e come uscita la posizione della massa
m. Trovare la risposta nell’uscita al segnale di ingresso f (t) = sin(t)δ−1 (t).

Esercizio 2.17 Dato il sistema LTI in Fig. 2.46 con RC = 0.5 s e RC2 = 1 s,
determinare i valori di k tali che il sistema è esternamente stabile e una sua rappre-
sentazione i–s–u.

35
Avendo assegnato solo la f.d.t., le condizioni iniziali si intendono nulle.
36
Non si consideri la forza di gravità.
2.9. Esercizi 121

R
C
R
- R
- C
U (s) +
R +
R Y (s)

R
-

Figura 2.42: Circuito elettrico dell’Esercizio 2.13

R
R
L
- R
- C
U (s) +
+
Y (s)

Figura 2.43: Circuito elettrico dell’Esercizio 2.14

Esercizio 2.18 Data la rappresentazione i–s–u


! !
0 1 0
ẋ = x+ u
c b 1
y = ( 5 0 )x

trovare b e c tali che il sistema abbia un tempo di assestamento all’1% di circa 9.2 s
e una sovraelongazione del 20%.
122 Capitolo 2. Analisi dei sistemi a tempo continuo

u(t)
s+2 - + y(t)
s2 + 4s

s+5
k
s−4

Figura 2.44: Schema a blocchi dell’Esercizio 2.15

xxxxx
xxxxx xxxxx
xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxxxxxxxxxxxx xxxxx xxxxx
xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx

k2

k1 k1

m
f
β
xxxxxxxxxxxxxx
xxxxxxxxxxxxxx
xxxxxxxxxxxxxx
xxxxxxxxxxxxxx
xxxxxxxxxxxxxx
k2 xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx

xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx
xxxxx xxxxx

Figura 2.45: Sistema meccanico dell’Esercizio 2.16


2.9. Esercizi 123

R
R
- v(t) k y(t)
u(t) s+5
R +
C
C2

R
z(t) -
R
+

Figura 2.46: Schema a blocchi del sistema dell’Esercizio 2.17


CAPITOLO 3

Analisi dei sistemi a tempo discreto

In questo capitolo viene affrontata l’analisi dei sistemi a tempo discreto, in cui la
variabile indipendente non può variare con continuità ma è costretta ad assumere
valori in un insieme discreto1 . La variabile dipendente, al contrario, (l’evoluzione
dello stato o dell’uscita del sistema) può ancora assumere valori con continuità.
La successione seguita nella trattazione è strettamente connessa a quanto fatto
per i sistemi a tempo continuo: descrizione dei sistemi nel dominio del tempo,
analisi in un dominio trasformato, mentre l’analisi in frequenza è rimandata al
capitolo successivo. Importante è evidenziare che, se anche la forma di sistema
discreto più ovvio che si possa pensare deriva dalla discretizzazione di un sistema
continuo, esistono sistemi intrinsecamente discreti, come si vedrà nel prossimo
paragrafo.

3.1 Le equazioni alle differenze


Alcuni fenomeni naturali e numerosi sistemi artificiali hanno un comportamento
che tende ad evolvere solo in corrispondenza di specifici istanti di tempo. Nel
seguito vedremo diversi esempi di sistemi di questo tipo. Nel Capitolo 1 abbiamo
visto come i sistemi a tempo continuo sono modellabili tramite equazioni diffe-
renziali che regolano l’evoluzione delle variabili di stato e di uscita in dipendenza
dagli ingressi applicati dall’esterno. L’analogo a tempo discreto dell’equazione
1
Si ricorda che un insieme è discreto quando può essere messo in corrispondenza biunivoca
con l’insieme dei numeri interi.

125
126 Capitolo 3. Analisi dei sistemi a tempo discreto

f (t)

xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
uk xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
T
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxx

0 a a+T a + kT a + (k + 1)T b t

Figura 3.1: Metodo di integrazione per rettangoli

differenziale è l’equazione alle differenze. Per introdurla consideriamo il seguente


esempio.

Esempio 3.1 Si consideri il processo di integrazione approssimata di una funzione


f (t) definita su un intervallo [a, b] tramite rettangoli. Suddividiamo l’intervallo in n
intervalli uguali con passo T (n = (b − a)/T ). Come riportato in Fig. 3.1, la funzione
integranda è approssimata su ogni intervallo [kT, (k + 1)T ] da un rettangolo di base
T e altezza f (kT ) e quindi è globalmente sostituita da un plurirettangolo la cui area
approssima sempre meglio l’area di f (t) quanto più piccolo è il passo T . Il processo di
integrazione avviene aggiungendo ad ogni passo l’area di un nuovo rettangolo all’area
calcolata in precedenza; espresso in simboli, se yk è l’area al passo k, l’area al passo
successivo sarà
yk+1 = yk + T uk , (3.1)
dove si è posto uk = f (kT + a).

L’equazione a cui siamo giunti nell’Esempio 3.1 prende il nome di equazione


alle differenze e la sua forma più generale è2

y(k + n) + f (y(k + n − 1), y(k + n − 2), . . . , y(k)) = u(k) .

Come per le equazioni differenziali, anche per le equazioni alle differenze si pongo-
no problemi di esistenza e unicità della soluzione e di definizione delle condizioni
iniziali. Vale la seguente
2
Da ora in poi si useranno indifferentemente le notazioni yk e y(k).
3.1. Le equazioni alle differenze 127

Definizione 3.1 L’ordine di un’equazione alle differenze è pari alla differenza


fra il più alto e il più basso indice che appare nell’equazione.

Ancora una volta il numero di condizioni iniziali richieste è pari all’ordine dell’e-
quazione. Ad esempio l’equazione yk+2 = yk è di ordine 2 e richiede per essere
risolta le condizioni iniziali y0 = a e y1 = b.
Per quanto riguarda l’esistenza e l’unicità della soluzione la situazione è mol-
to più semplice del suo analogo continuo, in quanto queste due proprietà sono
assicurate solo dalla definitezza della funzione f . Ancora una volta consideriamo
equazioni lineari

y(k + n) + a1 (k)y(k + n − 1) + · · · + an (k)y(k) = b0 (k)u(k + n) + · · · + bn (k)u(k)

e in particolare stazionarie

y(k + n) + a1 y(k + n − 1) + · · · + an y(k) = b0 u(k + n) + · · · + bn u(k) . (3.2)

Esiste una stretta affinità fra la teoria delle equazioni differenziali lineari e quella
delle equazioni alle differenze. In particolare ancora una volta si definisce un’e-
quazione omogenea associata all’equazione alle differenze completa e la soluzione
generale sarà pari alla soluzione generale dell’omogenea associata e una soluzione
particolare dell’equazione completa.
Il nome “equazione alle differenze” è dovuto al fatto che questo tipo di equa-
zione può essere rappresentata facendo uso degli operatori di differenza, che sono
definiti nel seguente modo:

∆yk = yk+1 − yk (differenza prima)


∆2 y k = ∆yk+1 − ∆yk (differenza seconda)
∆n y k = ∆n−1 yk+1 − ∆n−1 yk (differenza n–esima)

Ad esempio l’equazione

yk+2 + a1 yk+1 + a2 yk = buk

può essere riscritta, come è semplice verificare,

∆2 yk + (a1 + 2)∆yk + (a1 + a2 + 1)yk = buk .

Nel seguito però non faremo uso degli operatori di differenza, per cui assumeremo
la forma generale dell’equazione alle differenze la (3.2) come rappresentazione
ingresso–uscita di sistemi LTI a tempo discreto.
128 Capitolo 3. Analisi dei sistemi a tempo discreto

3.1.1 Gli algoritmi


L’esempio dell’integrazione per rettangoli illustra un caso in cui l’equazione alle
differenze sorge naturalmente da un processo algoritmico. Altri esempi di questo
tipo sono:

• Integrazione per rettangoli in avanti, in cui il valore della funzione è quello


alla fine dell’intervallo piuttosto che all’inizio:

yk+1 = yk + T uk+1

• Integrazione per trapezi, in cui l’area nel singolo intervallo [kT, (k + 1)T ] è
approssimata da un trapezio piuttosto che da un rettangolo (vedi Fig. 3.2)
T
yk+1 = yk + (uk + uk+1 ) (3.3)
2

• Derivazione numerica (approssimata al primo ordine), in cui la derivata è


approssimata dal rapporto incrementale:
y((k + 1)T ) − y(kT )
ẏ(kT ) ≈
T
che può essere usata per risolvere numericamente equazioni differenziali, ad
esempio una soluzione approssimata di ẏ = ay sarà data da

y(k + 1) = (1 + aT )y(k)

3.1.2 Processi intrinsecamente discreti


Gli esempi visti derivano sostanzialmente da un processo di discretizzazione ese-
guito sul continuo. Esistono però problemi che sono intrinsecamente discreti.

Esempio 3.2 Si consideri ad esempio la Letter Chain, che si formula nel seguente
modo: si supponga di ricevere una lettera che contenga un elenco di sei nomi e
indirizzi. La lettera chiede di spedire 1 e alla prima persona dell’elenco, poi di
riscrivere la lettera cancellando il primo nome e aggiungendo il proprio in coda e
spedirne cinque copie ad altrettanti amici. La lettera assicura che in questo modo si
può ricevere una cifra che arriva fino a 15625 e. Possiamo analizzare questo processo
in termini di equazioni alle differenze. Posto infatti y(k) il numero di lettere al passo
k, in cui la lettera che si è ricevuta corrisponde a y(0) = 1, al passo successivo si
produrranno 5 lettere, quindi y(1) = 5, ognuna delle quali ne genererà altre 5 e cosı̀
via; in generale si avrà
y(k + 1) = 5y(k) .
3.1. Le equazioni alle differenze 129

uk+1 xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
uk xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
T
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxx

t0 t1 t2 tk tk+1
t

Figura 3.2: Metodo di integrazione per trapezi

La soluzione di questa equazione, con y(0) = 1 è

y(k) = 5k .

Secondo le istruzioni della lettera al sesto passo il proprio nome sarà passato in cima
alla lista, quindi, nell’ipotesi che la catena non sia stata interrotta, si riceveranno
y(6) = 56 = 15625 lettere, ognuna contenente 1 e, ottenendo cosı̀ 15625 e.

Altri processi intrinsecamente discreti sono quelli finanziari riguardanti il


calcolo di interessi e ammortamenti.

Esempio 3.3 Supponiamo di depositare in banca la somma u(k) all’inizio dell’anno


k. Se indichiamo con y(k) la somma presente sul proprio conto all’inizio dell’anno k
si avrà:

• se la banca non paga interessi la somma sarà (nell’ipotesi che non avvengano
prelievi) semplicemente un accumulo di capitale secondo la legge

y(k + 1) = y(k) + u(k)

• se la banca paga un interesse annuo semplice percentuale pari a I avremo

y(k + 1) = (1 + I)y(k) + u(k)

Analogamente se si contrae un debito con un certo tasso di interesse, il


processo di ammortamento può essere descritto con equazioni alle differenze.
130 Capitolo 3. Analisi dei sistemi a tempo discreto

Esempio 3.4 L’ammortamento a tasso di interesse annuale fisso I è un metodo per


saldare un debito iniziale tramite rate fisse in genere pagate a intervalli di tempo
costanti. Se si effettuano pagamenti costanti U alla fine di ogni anno, il debito
residuo d(k) soddisfa l’equazione

d(k + 1) = (1 + I)d(k) − U

con condizione iniziale d(0) = D, dove D è il debito inizialmente contratto. Si


supponga di volere estinguere completamente il debito dopo n anni. È possibile di-
mostrare, con gli strumenti che saranno forniti nei prossimi paragrafi, che la soluzione
generale è
1 − (1 + I)n
d(n) = D(1 + I)n − U.
1 − (1 + I)
Ponendo d(n) = 0 possiamo ricavare la somma U da pagare annualmente

ID
U= .
1 − (1 + I)−n

È chiaro che questi esempi sono intrinsecamente discreti: sarebbe assurdo


pensare di depositare denaro o estinguere debiti con continuità nel tempo!

3.1.3 La rappresentazione ingresso–stato–uscita


Ricordiamo che per i sistemi LTI a tempo continuo la cui evoluzione era rap-
presentata da un’equazione differenziale di ordine superiore al primo è stato ne-
cessario introdurre la rappresentazione ingresso–stato–uscita. Analogamente, nel
caso tempo discreto, quando l’equazione alle differenze è di ordine superiore al
primo, allora è opportuno descrivere il sistema con una rappresentazione i–s–u,
che risulta essere del tipo

x(k + 1) = Ax(k) + Bu(k) (3.4)


y(k) = Cx(k) + Du(k) (3.5)

dove la prima equazione è un sistema di equazioni alle differenze tutte del primo
ordine e le matrici A, B, C, D hanno la stessa denominazione di quelle della i–s–u
dei sistemi a tempo continuo (1.7),(1.8).

Esempio 3.5 Data l’equazione alle differenze

yk+2 + 3yk+1 + 2yk = 5uk ,


3.1. Le equazioni alle differenze 131

uk ξk+2 ξk+1 ξk

−a1

−a2

Figura 3.3: Passo intermedio per la realizzazione

se si effettuano le posizioni

x1 (k) = yk , x2 (k) = yk+1

si ha

x1 (k + 1) = x2 (k)
x2 (k + 1) = −3x2 (k) − 2x1 (k) + 5u(k)
y(k) = x1 (k)

che in forma matriciale si scrivono


! !
0 1 0
xk+1 = xk + uk
−2 −3 5
 
yk = 1 0 xk

Naturalmente, quando l’equazione alle differenze è più complessa, cioè presen-


ta anche termini del tipo uk+j , allora occorre riferirsi a una procedura sistematica
di realizzazione, che permetta di passare da una rappresentazione i–u ad una rap-
presentazione i–s–u. Analogamente a quanto visto nel Capitolo 1, vedremo degli
algoritmi sistematici che ci consentono di risolvere il problema.
Si consideri un sistema la cui rappresentazione i–u sia

yk+2 + a1 yk+1 + a2 yk = b0 uk+2 + b1 uk+1 + b2 uk (3.6)

e sia ξ la soluzione dell’equazione

ξk+2 + a1 ξk+1 + a2 ξk = uk . (3.7)

Supponiamo ora che le condizioni iniziali nelle (3.6), (3.7) siano nulle. In
questa ipotesi è possibile sfruttare la linearità delle equazioni per ottenere una
132 Capitolo 3. Analisi dei sistemi a tempo discreto

b0
yk
b1 − b0 a1
uk x2k+1 x2k x1k
b2 − b0 a2

−a1

−a2

Figura 3.4: Forma canonica di controllo

equazione che definisca l’uscita y della (3.6) in funzione delle variabili ausiliarie
ξ ottenute dalla (3.7). Infatti l’ingresso applicato alla (3.6) è una combinazione
lineare di quello applicato alla (3.7), quindi l’uscita y sarà esprimibile come
yk = b0 ξk+2 + b1 ξk+1 + b2 ξk . (3.8)
La realizzazione della (3.7) può essere ottenuta ricavando ξk+2 in funzione dei
valori passati ξk+1 e ξk e dell’ingresso uk
ξk+2 = uk − a1 ξk+1 − a2 ξk , (3.9)
il cui schema a blocchi corrispondente è quello di Fig. 3.3, dove si vede che per la
realizzazione sono necessari gli elementi di ritardo unitario, i quali forniscono in
uscita, istante per istante, il valore dell’ingresso all’istante di tempo precedente.
È chiaro quindi che le eventuali condizioni iniziali vanno inserite proprio come
uscite all’istante iniziale di tali blocchi.
Per determinare ora l’uscita, osserviamo che le variabili ξk , ξk+1 , ξk+2 sono
disponibili all’uscita degli elementi di ritardo, quindi si ottiene lo schema a blocchi
illustrato in Fig. 3.4.
A questo punto la rappresentazione i–s–u è ottenuta semplicemente ponendo
x1k = ξk , x2k = ξk+1 , che soddisfano le equazioni
x1 (k + 1) = x2 (k)
x2 (k + 1) = −a2 x1 (k) − a1 x2 (k) + u(k)
y(k) = (b2 − b0 a2 )x1 (k) + (b1 − b0 a1 )x2 (k) + b0 u(k)
che in forma matriciale diventano
! !
0 1 0
xk+1 = xk + uk
−a2 −a1 1
3.1. Le equazioni alle differenze 133

rk +
ek uk u(t) Processo y(t) yk
-
Calcolatore D/A t. continuo A/D

Figura 3.5: Sistema di controllo in retroazione digitale

T
uk u(t) Processo y(t) yk
ZOH t. continuo

Figura 3.6: Schema di sistema a dati campionati

yk = (b2 − b0 a2 b1 − b0 a1 )xk + b0 uk .

Questa forma di rappresentazione è detta forma canonica di controllo e può facil-


mente essere generalizzata al caso di un sistema di ordine n > 2. Infine, è possibile
anche far riferimento a forme canoniche diverse, ad esempio quella canonica di
osservazione.

3.1.4 I sistemi a dati campionati


Probabilmente la configurazione in cui nel mondo fisico emergono con maggiore
evidenza i sistemi discreti si ha quando un processo fisico a tempo continuo è
pilotato da un ingresso calcolato a intervalli di tempo prefissati. L’esempio più
diffuso riguarda il controllo di un processo fisico con un calcolatore digitale, come
in Fig. 3.5.
Senza scendere troppo nei dettagli, che esulano dai limiti di questo corso,
possiamo dire che il segnale di errore ek fra i campioni dell’uscita yk e il riferimento
discreto rk è processato dal computer che genera i campioni uk del segnale di
controllo, che vengono infine convertiti in un segnale di controllo continuo u(t).
Il problema è quello di vedere come si comporta l’intero sistema agli istanti
di campionamento kT , k = 0, 1, . . .. A questo scopo è chiaro che dobbiamo
analizzare il legame che esiste fra le variabili uk e yk , quindi il nostro obbiettivo si
restringe allo studio dello schema di Fig. 3.6 dove il convertitore analogico/digitale
(A/D) è schematizzato con un semplice campionatore, e quello digitale/analogico
con una Tenuta di Ordine Zero (Zero Order Hold), ovvero un dispositivo che
mantiene costante per l’intero periodo di campionamento il segnale acquisito
all’istante t = kT (vedi Fig. 3.7).
134 Capitolo 3. Analisi dei sistemi a tempo discreto

u(t)

uk
uk+1

t0 t1 tk tk+1 t

Figura 3.7: Uscita del filtro ZOH

Il segnale di ingresso è quindi mantenuto costante per l’intero periodo T e


genera una evoluzione dell’uscita che ci proponiamo di esaminare agli istanti
di campionamento. Si noti che, essendo il sistema P (s) continuo, avremo una
evoluzione di y(t) lungo l’intero periodo T , ma il nostro obiettivo è solo studiare
come evolve l’uscita agli istanti di campionamento, ignorando l’evoluzione fra un
campione e l’altro. Per fare ciò, supponiamo di conoscere una rappresentazione
i–s–u del sistema a tempo continuo
ẋ = Ax + Bu (3.10)
y = Cx + Du (3.11)
e determiniamo la rappresentazione i–s–u del sistema a dati campionati rap-
presentato in Fig. 3.6. A tale scopo basta applicare l’equazione che fornisce la
risposta nello stato di un sistema LTI a tempo continuo (2.44) qui di seguito
riscritta per un istante di tempo iniziale generico t0
Z t
x(t) = eA(t−τ ) Bu(τ )dτ + eA(t−t0 ) x0
t0

con t0 = kT e t = (k + 1)T , tenendo conto che l’ingresso u(t) nell’intervallo


[kT, (k + 1)T ] è costante e pari a u(kT ).
Z (k+1)T
x((k + 1)T ) = eA((k+1)T −τ ) Bu(kT )dτ + eAT x(kT )
kT

Indicando con fk = f (kT ) il valore della generica funzione f (t) al k−mo istante
di campionamento, ed effettuando la sostituzione σ = (k + 1)T − τ , si ha
Z T
xk+1 = eAT xk + eAσ dσBuk = Ad xk + Bd uk
0
3.1. Le equazioni alle differenze 135

dove3, Z T
AT
Ad = e , Bd = eAσ dσB
0

sono le matrici della rappresentazione i–s–u cercata. Per il calcolo di eAT con-
viene diagonalizzare A, per cui eAT = U eΛT U −1 , dove Λ e U sono le matrici
degli autovalori e degli autovettori di A, rispettivamente (vedi Appendice B).
È altresı̀ evidente che le matrici dell’equazione di uscita sono identiche a quella
dell’equazione a tempo continuo (3.11) essendo questa algebrica. Vediamo un
esempio.

Esempio 3.6 Dato il sistema a tempo continuo


!  
0 1 0
ẋ = x+ u
−6 −5 1
y = (1 1)x

determiniamo la sua versione a dati campionati con tempo di campionamento T =


0.1 s. Per calcolare la matrice dinamica Ad conviene prima diagonalizzare A, calco-
liamone, quindi, la matrice degli autovalori Λ = diag{λ1 , λ2 }

det(λI − A) = λ2 + 5λ + 6 = 0 ⇒ λ1 = −2, λ2 = −3

e quella degli autovettori U = ( u1 u2 )


!  ! ( !
0 1 x −2x x=1 1
Au1 = λ1 u1 , = ⇒ ⇒ u1 =
−6 −5 y −2y y = −2 −2
!  ! ( !
0 1 x −3x x=1 1
Au2 = λ2 u2 , = ⇒ ⇒ u2 =
−6 −5 y −3y y = −3 −3

Di conseguenza, risulta
! ! !−1 !
AT ΛT −1 1 1 e−2T 0 1 1 0.97 0.08
Ad = e = Ue U = =
−2 −3 0 e−3T −2 −3 −0.47 0.59

Poiché la matrice A è invertibile, la matrice degli ingressi del sistema a dati campionati
ha l’espressione notevole
!−1 ! ! !
−1 0 1 0.97 − 1 0.08 0 0.004
Bd = A (Ad − I)B = =
−6 −5 −0.47 0.59 − 1 1 0.078
3
Nel caso in cui A non ha autovalori nell’origine, risulta Bd = [A−1 eAσ ]T0 B = A−1 (eAT −I)B.
136 Capitolo 3. Analisi dei sistemi a tempo discreto

0.25

0.2

yk
0.15
y(t),
0.1

0.05

0
0 1 2 3
t, k

Figura 3.8: Risposta indiciale del sistema dell’Esempio 3.6

Le matrici dell’equazione algebrica di uscita non cambiano, quindi la i–s–u del sistema
a dati campionati è
! !
0.97 0.08 0.004
xk+1 = xk + uk
−0.47 0.59 0.078
yk = ( 1 1 ) xk

In Fig. 3.8 è mostrata la risposta indiciale del sistema a tempo continuo sovrapposta a
quella del corrispondente sistema a dati campionati. Come si vede, in corrispondenza
degli istanti di campionamento, le due risposte coincidono.

3.2 La trasformata Z
In questo paragrafo presentiamo un operatore che è l’analogo discreto della tra-
sformata di Laplace nel continuo. In particolare, data la sequenza {xk }, se ne
definisce la Z–trasformata come
+∞
X
X(z) = Z{xk } = xk z −k , r0 ≤ |z| ≤ R0 (3.12)
k=−∞

Come si può notare, la regione di convergenza è una corona circolare con cen-
tro nell’origine del piano complesso e, si può dimostrare, diventa l’esterno di un
cerchio se la sequenza è nulla per k < a. Di seguito vengono enunciate alcune pro-
prietà della trasformata Z che sono di interesse per l’analisi del comportamento
dinamico dei sistemi discreti.
3.2. La trasformata Z 137

• Linearità.
Z[αa(k) + βb(k)] = αA(z) + βB(z)

• Traslazione nel tempo.

Z[a(k + n)] = z n A(z) n∈Z

• Scalatura in z.
Z[r −k a(k)] = A(rz)

• Valore finale. Se A(z) converge per |z| > 1 e tutti i poli di (z − 1)A(z)
sono interni al cerchio unitario, allora

lim a(k) = lim (z − 1)A(z)


k→+∞ z→1

Vediamo qualche esempio di calcolo di Z–trasformata tramite la definizione.

Esempio 3.7 Definito l’impulso unitario come


(
1 k=0
δk =
0 k=
6 0

la sua Z–trasformata è
+∞
X
Z[δk ] = δk z −k = 1z 0 = 1
k=−∞

In base a questa trasformata notevole e alle proprietà su enunciate è possibile


calcolare la trasformata del gradino.

Esempio 3.8 Definita la sequenza a gradino unitario come


(
0 k<0
δ−1 (k) =
1 k≥0

essa può essere riscritta come

δ−1 (k) = δ(k) + δ−1 (k − 1)

quindi, applicando le proprietà di linearità e traslazione nel tempo, risulta


1 z
Z[δ−1 (k)] = Z[δ(k)] + z −1 Z[δ−1 (k)] ⇒ Z[δ−1 (k)] = −1
=
1−z z−1
138 Capitolo 3. Analisi dei sistemi a tempo discreto

Anche la convoluzione nel discreto è più semplice del suo analogo nel continuo.
Basta infatti risolvere l’equazione

C(z) = A(z)B(z)

in termini degli elementi delle somme che lo definiscono


+∞
X +∞
X +∞
X
ck z −k = ak z −k bk z −k
k=−∞ k=−∞ k=−∞

che per esteso sono

· · · + c−2 z 2 + c−1 z + c0 + c1 z −1 + c2 z −2 + · · · =
= (· · · + a−2 z 2 + a−1 z + a0 + a1 z −1 + a2 z −2 + · · ·) ·
(· · · + b−2 z 2 + b−1 z + b0 + b1 z −1 + b2 z −2 + · · ·)

da cui, effettuando tutti i prodotti incrociati e raccogliendo i coefficienti dei


termini dello stesso grado,
..
.
+∞
X
c−1 = · · · + a−2 b1 + a−1 b0 + a0 b−1 + a1 b−2 + a2 b−3 + · · · = aj b−1−j
j=−∞
+∞
X
c0 = · · · + a−2 b2 + a−1 b1 + a0 b0 + a1 b−1 + a2 b−2 + · · · = aj b−j
j=−∞
+∞
X
c1 = · · · + a−2 b3 + a−1 b2 + a0 b1 + a1 b0 + a2 b−1 + · · · = aj b1−j
j=−∞
..
.

che in generale si scrive


+∞
X
ck = ak ∗ bk = aj bk−j , k∈Z
j=−∞

che è la somma di convoluzione discreta, analoga all’integrale di convoluzione nel


continuo. È chiaro, dunque, che la trasformata della somma di convoluzione è il
prodotto
Z(ak ∗ bk ) = A(z)B(z) .

Esempio 3.9 Nell’Esempio 3.8 abbiamo calcolato la trasformata della sequenza gra-
dino unitario senza calcolarne la regione di convergenza, facciamolo ora applicando
3.2. La trasformata Z 139

P+∞ k
la definizione e ricordando la somma della serie geometrica di ragione r: k=0 r =
1/(1 − r), convergente se |r| < 1

+∞
X 1 z
Z[δ−1 (k)] = z −k = = , |z| > 1
k=0
1 − z −1 z−1

Se invece trasformiamo (
−1 k < 0
x(k) =
0 k≥0

otteniamo
−1 +∞
!
X
−k
X
k z
X(z) = −z =− z −1 = , |z| < 1
k=−∞ k=0
z−1

Quindi le trasformate sono uguali, ma cambia la regione di convergenza.

Poiché i sistemi che studieremo saranno sempre causali, la nostra regione di


convergenza sarà sempre l’esterno di un cerchio centrato nell’origine.
Come nel caso tempo continuo, per poter trattare il caso di segnali nulli per
k < 0, è possibile introdurre la trasformata Z unilatera

+∞
X
+
Z [x(k)] = xk z −k (3.13)
k=0

per la quale vanno rienunciate le due proprietà

• Traslazione nel tempo.

Z + [a(k + 1)] = zA(z) − za(0)

n−1
X
Z + [a(k + n)] = z n A(z) − z n a(k)z −k , n>1
k=0

• Convoluzione4 .
 
k
X
Z + [ak ∗ bk ] = Z +  aj bk−j  = A(z)B(z)
j=0

4
Pk Pk
Si noti che per sequenze nulle per k < 0, si ha ak ∗ bk = j=0
aj bk−j = j=0
ak−j bj .
140 Capitolo 3. Analisi dei sistemi a tempo discreto

3.3 Risposta dei sistemi lineari tempo invarianti


Per comprendere come lo strumento matematico della Z–trasformata possa essere
utile per calcolare la risposta di un sistema LTI tempo discreto, analizziamo il
caso della regola di integrazione per trapezi (3.3), che riportiamo traslata di un
passo indietro:
T
yk = yk−1 + (uk + uk−1 ) . (3.14)
2
Definita
+∞
X
Y (z) = yk z −k ,
k=−∞

moltiplichiamo ambo i membri della (3.14) per z −k e sommiamo


 
+∞ +∞ +∞ +∞
X X T  X X
yk z −k = yk−1 z −k + uk z −k + uk−1 z −k  . (3.15)
k=−∞ k=−∞
2 k=−∞ k=−∞

Si osservi che, posto j = k − 1, il termine


+∞
X
yk−1 z −k
k=−∞

si riscrive
+∞
X
z −1 yj z −j = z−1 Y (z) ,
j=−∞

quindi la (3.15) fornisce

T  
Y (z) = z −1 Y (z) + U (z) + z −1 U (z)
2
Lo stesso risultato lo si ottiene Z–trasformando la (3.14) e sfruttando la proprietà
di traslazione nel tempo. In definitiva, risulta

T 1 + z −1
Y (z) = U (z) ,
2 1 − z −1
da cui ricaviamo una funzione di trasferimento discreta
Y (z) T 1 + z −1 T z+1
W (z) = = −1
= .
U (z) 2 1−z 2 z−1

Nel caso generale, per un’equazione alle differenze della forma

yk = −a1 yk−1 − a2 yk−2 − · · · − an yk−n + b0 uk + b1 uk−1 + · · · + bm uk−m (3.16)


3.3. Risposta dei sistemi lineari tempo invarianti 141

uk + +
yk
T /2
+ +
uk−1 yk−1
z −1 z −1

Figura 3.9: Schema dell’integrazione per trapezi

la f.d.t. si ottiene Z–trasformando e applicando la proprietà di traslazione nel


tempo a partire da condizioni iniziali nulle

b0 + b1 z −1 + · · · + bm z −m b0 z n + b1 z n−1 + · · · + bm z n−m
W (z) = = . (3.17)
1 + a1 z −1 + · · · + an z −n z n + a1 z n−1 + · · · + an

Analogamente al caso continuo, la trasformata dell’uscita è quindi

Y (z) = W (z)U (z) . (3.18)

Continueremo a chiamare poli e zeri del sistema le radici dei polinomi al deno-
minatore e al numeratore della f.d.t. Possiamo ora dare un significato fisico alla
variabile z: siano tutti nulli i coefficienti della (3.17) tranne b1 = 1; allora si ha

W (z) = z −1

a cui, dalla (3.16), corrisponde

yk = uk−1 ,

quindi l’uscita è pari all’ingresso ritardato di un campione (o di un periodo, se lo


vediamo nel tempo). Possiamo quindi interpretare la funzione di trasferimento
z −1 come un ritardo unitario. Si noti che le equazioni alle differenze sono compo-
ste solo da ritardi, prodotti per costanti e somme, quindi possiamo schematizzarle
facendo uso solo di questi tre operatori. Ad esempio la regola di integrazione per
trapezi si può schematizzare come in Fig. 3.9. Tuttavia si può notare come il nu-
mero di elementi di ritardo usati (due) è maggiore dell’ordine del sistema (uno),
difatti lo schema può essere semplificato come in Fig. 3.10. La realizzazione di
un sistema generico, cosı̀ come spiegato nel Paragrafo 3.1.3, può essere ottenuta
facendo ricorso alle forme canoniche.
Abbiamo già visto come nel domino di z è possibile ricavare la risposta nel-
l’uscita di un sistema LTI tramite la relazione (3.18) valida se il sistema parte
da condizioni iniziali nulle. Per trovare l’evoluzione del sistema quando parte da
condizioni iniziali generiche x0 da un certo di istante di tempo (che assumeremo
142 Capitolo 3. Analisi dei sistemi a tempo discreto

uk yk
+
T /2
+

z −1
+ +

Figura 3.10: Schema dell’integrazione per trapezi semplificato

pari a 0), allora basta trasformare le (3.4),(3.5) secondo la trasformata unilatera


e applicarne la proprietà di traslazione nel tempo con n = 1, ottenendo
zX(z) − zx(0) = AX(z) + BU (z)
Y (z) = CX(z) + DU (z)
da cui si ricava la risposta nel dominio di z
X(z) = (zI − A)−1 BU (z) + z(zI − A)−1 x0 (3.19)
 
Y (z) = C(zI − A)−1 B + D U (z) + zC(zI − A)−1 x0 (3.20)

che confrontate con la (3.18) ci dicono che la f.d.t. di un sistema tempo discreto
può essere ricavata a partire dalla sua rappresentazione i–s–u con la formula
W (z) = C(zI − A)−1 B + D . (3.21)
Da tale espressione si vede che anche nel caso discreto i poli della f.d.t. coincidono
con gli autovalori della matrice dinamica A se non ci sono cancellazioni tra le
radici del numeratore e del denominatore. D’ora in poi assumeremo sempre
verificata tale ipotesi e cioè che la realizzazione del sistema sia sempre minima.
Dall’esame delle equazioni appena ricavate, si vede che la risposta, sia nel-
lo stato che nell’uscita, è somma del termine di evoluzione libera, dovuta alle
condizioni iniziali, e della risposta forzata, dovuta all’ingresso.
Si può inoltre dimostrare che antitrasformando si ottengono le risposte nel
dominio del tempo nella forma5
k−1
X
x(k) = Ak−i−1 Bu(i) + Ak x0 , k≥0 (3.22)
i=0
k−1
X
y(k) = C Ak−i−1 Bu(i) + Du(k) + CAk x0 , k≥0 (3.23)
i=0
5
Per k = 0 il contributo delle sommatorie non va considerato.
3.3. Risposta dei sistemi lineari tempo invarianti 143

in cui si riconosce che l’evoluzione forzata dell’uscita è la somma di convoluzione


della risposta impulsiva
w(k) = CAk B + Dδ(k) (3.24)
con l’ingresso. Notiamo esplicitamente che la (3.22) si può anche ottenere appli-
cando iterativamente l’equazione di stato (3.4) a partire dalla condizione iniziale
x(0) = x0 . Dunque, anche nel caso discreto, la risposta di un sistema LTI può
essere decomposta in un’evoluzione libera (il termine dipendente dalle condizioni
iniziali) e un’evoluzione forzata (il termine dipendente dall’ingresso applicato).
Anche nel caso discreto troviamo il legame fra f.d.t. e risposta all’impulso
visto nel caso continuo. Infatti, ricordando la (3.18) e che la trasformata di un
impulso è unitaria, ad un ingresso impulsivo corrisponde l’uscita Y (z) = W (z),
per cui vale la relazione
W (z) = Z[w(k)]/Z[δ(k)] (3.25)
dove con w(k) abbiamo indicato la risposta impulsiva. Dalla (3.25) si deduce
che per calcolare la risposta impulsiva è sufficiente Z–antitrasformare la f.d.t. e,
viceversa, per calcolare la f.d.t. basta Z–trasformare la risposta impulsiva.

3.3.1 Metodi di antitrasformazione


Abbiamo visto che la Z–trasformata gioca lo stesso ruolo della trasformata di
Laplace come strumento per il calcolo della risposta di un sistema LTI. Si pone
quindi il problema di antitrasformare una F (z).
Formalmente l’antitrasformata è definita dalla relazione
I
1 dz
f (k) = F (z)z k
2πj z
dove l’integrale è calcolato su una qualunque circonferenza contenuta nella regione
di convergenza. Ancora una volta questa formula risulta di difficile applicazione,
per cui si ricorre a metodi alternativi.
Una prima possibilità, peculiare della trasformata discreta, si ottiene osser-
vando che il secondo membro della (3.13) è un’espansione in serie di F (z) intorno
all’infinito. Nel caso in cui F (z) sia un rapporto fra polinomi è sufficiente eseguire
la divisione per ottenere i coefficienti di f (k).
A titolo di esempio si consideri l’integrazione per trapezi, la cui f.d.t. abbiamo
visto essere
T z+1
W (z) =
2 z−1
Considerando un ingresso a gradino la trasformata dell’uscita è
T z2 + z
Y (z) = .
2 z 2 − 2z + 1
Eseguendo la divisione abbiamo
144 Capitolo 3. Analisi dei sistemi a tempo discreto

z2 +z z 2 − 2z + 1
−z 2 +2z −1 1 + 3z −1 + 5z −2 + 7z −3 + · · ·
3z −1
−3z +6 −3z −1
5 −3z −1
−5 +10z −1 −5z −2
7z −1 −5z −2
e quindi
y0 = T /2
y1 = 3T /2
y2 = 5T /2
.. .. ..
. . .
yk = kT + T /2
Un secondo metodo per calcolare l’antitrasformata è usare lo sviluppo in frat-
ti semplici, analogamente a quanto fatto con Laplace. La differenza principale
rispetto a quanto fatto in precedenza è che conviene espandere in fratti semplici
rispetto a z la funzione F (z)/z. Per comprendere il perché calcoliamo le seguenti
trasformate notevoli.

Esempio 3.10 Consideriamo la funzione esponenziale


(
0 k<0
u(k) =
rk k ≥ 0
la sua trasformata è
+∞ +∞
X X 1 z
U (z) = r k z −k = (rz −1 )k = = , |z| > |r|
k=0 k=0
1 − rz −1 z−r

Esempio 3.11 Consideriamo il segnale sinusoidale


x(k) = cos(θk)δ−1 (k)
esprimendolo come
ejθk + e−jθk
x(k) = δ−1 (k) .
2
Usando la trasformata del segnale esponenziale, calcolata nell’Esempio 3.10, abbiamo
 
1  1 z z
X(z) = Z[(ejθ )k ] + Z[(e−jθ )k ] = + =
2 2 z − ejθ z − e−jθ
1 2z 2 − z(ejθ + e−jθ ) z(z − cos θ)
= 2 jθ −jθ
= 2
2 z − z(e + e ) + 1 z − 2z cos θ + 1
3.3. Risposta dei sistemi lineari tempo invarianti 145

Analogamente, si trova che la trasformata del seno vale


z sin θ
Z[sin(θk)δ−1 (k)] = .
z 2 − 2z cos θ + 1

Osservando che a numeratore delle trasformate notevoli appena calcolate com-


pare sempre un termine monomio in z, per ottenere F (z) come sommatoria di tra-
sformate notevoli occorre espandere in fratti semplici F (z)/z. Vediamo qualche
esempio.

Esempio 3.12 Volendo calcolare la risposta di un sistema tempo discreto che esegue
l’algoritmo di integrazione per trapezi con periodo di campionamento T ad un segnale
di ingresso esponenziale con r = 0.5, si ha

T 1 + z −1 1 T z2 + z
Y (z) = W (z)U (z) = =
2 1 − z −1 1 − 0.5z −1 2 (z − 1)(z − 0.5)

Espandendo in fratti semplici rispetto a z la funzione Y (z)/z si ha


 
Y (z) T z+1 T r1 r2
= = +
z 2 (z − 1)(z − 0.5) 2 z − 1 z − 0.5

dove i residui si trovano come al solito


   
z+1 z+1
r1 = = 4, r2 = = −3
z − 0.5 z=1 z−1 z=0.5

quindi la Z–trasformata della risposta vale


 
T z z
Y (z) = 4 −3
2 z−1 z − 0.5
e ricordando le trasformate del gradino e dell’esponenziale possiamo antitrasformare
T  
y(k) = 4 − 3(0.5)k δ−1 (k) .
2

Vediamo un esempio di antitrasformazione nel caso di radici reali multiple.

Esempio 3.13 Determiniamo la risposta indiciale di un sistema a tempo discreto con


f.d.t.
z+1
W (z) = .
z−1
146 Capitolo 3. Analisi dei sistemi a tempo discreto

Tenendo conto della trasformata del gradino unitario, la risposta nel dominio di z
vale
z+1 z z2 + z
Y (z) = W (z)U (z) = =
z−1z−1 (z − 1)2
che dà luogo all’espansione

Y (z) z+1 r11 r12


= 2
= 2
+
z (z − 1) (z − 1) z−1

dove i residui si ottengono come


 
d
r11 = [(z + 1)]z=1 = 2, r12 = (z + 1) =1
dz z=1

e quindi, tenendo conto della trasformata della rampa unitaria riportata in Appendi-
ce D, la risposta nel dominio del tempo vale

y(k) = (2k + 1)δ−1 (k) .

Il caso in cui la funzione razionale fratta da antitrasformare presenta poli com-


plessi e coniugati può essere facilmente ricondotto a quello di poli reali. Infatti,
sia p una radice del denominatore di Y (z)/z, allora anche p∗ lo è. Se la coppia
di radici complesse e coniugate è unica, allora l’espansione in fratti semplici da
considerare è la seguente

Y (z) A A∗ Az A∗ z
= + ⇒ Y (z) = +
z z − p z − p∗ z − p z − p∗

che antitrasformata dà


 
yk = Apk + A∗ (p∗ )k δ−1 (k) .

Posto p = rejθ e A = |A|ej arg(A) si ottiene


   
yk = |A|r k ej(θk+arg(A)) + e−j(θk+arg(A)) δ−1 (k) = 2|A|r k cos θk+arg(A) δ−1 (k) .
(3.26)

Esempio 3.14 La risposta indiciale del sistema a tempo discreto del secondo ordine
con poli complessi e coniugati in 0.71e±j1.93

z+1
W (z) =
z 2 + 0.5z + 0.5
3.3. Risposta dei sistemi lineari tempo invarianti 147

vale
z2 + z
Y (z) = .
(z − 1)(z 2 + 0.5z + 0.5)
Scomponendo in fratti semplici Y (z)/z, si ottiene

z z0.53ej2.78 z0.53e−j2.78
Y (z) = + +
z − 1 z − 0.71ej1.93 z − 0.71e−j1.93
che antitrasformata dà
 
yk = 1 + 1.06(0.71)k cos(1.93k + 2.78) δ−1 (k)

Una tabella di Z–trasformate è riportata in Appendice D.

3.3.2 Modi di evoluzione


Finora abbiamo visto che la risposta di un sistema lineare a tempo discreto, cosı̀
come quella dei sistemi lineari a tempo continuo, è somma dell’evoluzione forza-
ta, dovuta agli ingressi, e dell’evoluzione libera, dovuta alle condizioni iniziali. In
questo paragrafo, analizzeremo le caratteristiche dell’evoluzione libera, in quanto
essa è l’unica che dipende esclusivamente dalle caratteristiche del sistema. Ri-
cordando la (3.19), nel dominio di z l’evoluzione libera nello stato è regolata
dall’espressione
Xl (z) = z(zI − A)−1 x0
quindi, nell’antitrasformare, nel denominatore dell’espansione in fratti semplici
della funzione Xl (z)/z comparirà il polinomio minimo della matrice dinamica,
le cui radici sono gli autovalori della matrice dinamica stessa6 . In base agli
esempi di antitrasformazione visti finora, possiamo dedurre che, nel dominio del
tempo, l’evoluzione liberà sarà sempre combinazione lineare di termini del tipo
km pk , m = 0, 1, 2, . . ., dove p è un autovalore, in generale complesso, di A. Di
conseguenza, l’andamento temporale dell’evoluzione libera sarà una combinazione
di andamenti elementari di funzioni del tipo

k m pk , km r k cos(θk), m = 0, 1, 2, . . .

dette modi propri di evoluzione del sistema, dove p è il generico autovalore reale
di A e rejθ è il generico autovalore complesso di A. Ancora una volta i coefficienti
della combinazione lineare sono costituiti dai residui delle scomposizioni in fratti
semplici, per cui possono essere anche nulli, nel caso siano radici dei polinomi a
numeratore. In tale eventualità è chiaro che l’insieme di condizioni iniziali scelto
6
Che ipotizzeremo, se non diversamente indicato, coincidenti con i poli del sistema, cioè le
radici del denominatore della sua f.d.t.
148 Capitolo 3. Analisi dei sistemi a tempo discreto

Im(z)
periodico
pseudoperiodico
divergente
pseudoperiodico
convergente costante

alternante 1
0 Re(z)
aperiodico
aperiodico convergente aperiodico
aperiodico convergente divergente
divergente alternante
alternante

Figura 3.11: Modi di evoluzione di un sistema a tempo discreto

non è in grado di eccitare tutti i modi del sistema, tuttavia si può dimostrare che è
sempre possibile eccitare tutti i modi della struttura con una scelta di opportune
condizioni iniziali.
In virtù della (3.20), anche l’evoluzione libera nell’uscita
Yl (z) = zC(zI − A)−1 x0
sarà combinazione lineare degli stessi termini. In particolare, ciascun modo di evo-
luzione possiede un andamento tipico che dipende solo dalla posizione nel piano
complesso dell’autovalore corrispondente e dalla sua molteplicità. Tali andamenti
sono riassunti in Fig. 3.11. Notiamo che, a differenza dei modi di evoluzione dei
sistemi a tempo continuo, compare un andamento cosiddetto alternante, legato
alla presenza di autovalori reali negativi.

3.4 Stabilità
Per quanto riguarda la stabilità BIBO, si può dimostrare che si ritrova come
condizione necessaria e sufficiente la sommabilità della risposta impulsiva, cioè
Proposizione 3.1 Un sistema LTI con risposta impulsiva w(k) è stabile BIBO
se e solo se
+∞
X
|w(k)| < +∞
k=−∞
3.4. Stabilità 149

Come per il continuo questa condizione non è molto maneggevole da un punto di


vista computazionale, per cui siamo interessati a un criterio di stabilità che sia
basato sulla posizione dei poli del sistema.
Come per i sistemi a tempo continuo, anche per i sistemi a tempo discreto,
l’uscita può essere scritta come

nW (z) nU (z)
Y (z) = W (z)U (z) =
dW (z) dU (z)

quindi, i poli di Y (z) sono i poli di U (z) (radici di dU (z)) e quelli del sistema
(radici di dW (z)). Affinché l’uscita sia limitata, nell’espansione in fratti semplici
di Y (z)/z devono comparire solo termini con poli di modulo minore di 1. Infatti,
se il polo è reale (p), ad esso corrisponde nel dominio del tempo una funzione del
tipo pk convergente se |p| < 1; se il polo è complesso (rejθ ) ad esso corrisponde
nel dominio del tempo una funzione del tipo r k cos(θk) convergente se |r| < 1. Di
conseguenza, nell’ipotesi di ingresso limitato, le radici di dU (z) saranno tutte in
modulo minore di 1, per cui saranno i poli del sistema a dover essere di modulo
minore di 1. In conclusione vale la seguente proposizione

Proposizione 3.2 Un sistema LTI a tempo discreto è stabile BIBO se e solo se


ha tutti i poli in modulo minore di uno.

Analogamente al caso dei sistemi a tempo continuo, anche per i sistemi a tempo
discreto si può introdurre il concetto di stabilità sotto perturbazioni o stabilità
interna. Dall’analisi dei modi di evoluzione, risulta chiaro che

Proposizione 3.3 Un sistema LTI tempo discreto è

1. asintoticamente stabile se e solo se tutti gli autovalori della matrice dina-


mica sono in modulo minore di uno;

2. instabile se esiste almeno un autovalore della matrice dinamica in modulo


maggiore di 1 o almeno un autovalore di modulo unitario ma di molteplictà
maggiore di uno come radice del polinomio minimo;

3. stabile se gli autovalori della matrice dinamica sono in modulo non maggiore
di uno e quelli di modulo unitario sono di molteplicità unitaria come radici
del polinomio minimo.

Anche nel caso tempo discreto si trova, dunque, che la stabilità asintotica e quella
BIBO sono equivalenti, nel caso di un sistema completamente controllabile e
osservabile.
A questo punto per stabilire la proprietà di stabilità esterna o quella di sta-
bilità interna, occorre un metodo che consenta di stabilire se le radici di un
150 Capitolo 3. Analisi dei sistemi a tempo discreto

Im(z) 1+s Im (s)


z= xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
1−s xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
1
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
0
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx Re(z) 0
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx Re(s)
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Figura 3.12: Trasformazione bilineare

polinomio7 sono in modulo minore di uno o no, senza calcolarle esplicitamente.


La risposta è affermativa, infatti il problema può essere facilmente ricondotto a
quello di stabilire se le radici di un polinomio sono a parte reale negativa o no,
già risolto con il criterio di Routh.
Dato il polinomio in z p(z), vogliamo stabilire se le sue radici abbiano o no
modulo minore di uno. Se facciamo il seguente cambiamento di variabili8
1+s
z= (3.27)
1−s
la condizione |z| < 1 si traduce in

|1 + s|
< 1 ⇔ |1 + s|2 < |1 − s|2 ⇔ (1 + a)2 + b2 < (1 − a)2 + b2
|1 − s|

dove a = Re(s) e b = Im(s). Risolviamo allora la disuguaglianza

(1 + a)2 + b2 < (1 − a)2 + b2 ⇔ 1 + 2a + a2 < 1 − 2a + a2 ⇔ a < 0

dunque, abbiamo trovato che la trasformazione (3.27) non fa altro che trasforma-
re la regione del piano complesso in z appartenente al cerchio di raggio unitario e
centro nell’origine nel semipiano sinistro del piano complesso in s (vedi Fig. 3.12).
Dunque, stabilire se le radici del polinomio p(z) hanno modulo minore di 1 è equi-
valente a stabilire se le radici del polinomio a numeratore di p(z)|z=(1+s)/(1−s) sono
a parte reale negativa. E sappiamo che tale problema si risolve con l’applicazione
del criterio di Routh.
7
Il denominatore della f.d.t. per la stabilità BIBO, il polinomio minimo della matrice dinamica
per la stabilità interna.
8
Si tratta della trasformazione bilineare corrispondente alla regola di integrazione per trapezi.
3.5. Comandi MATLAB 151

Esempio 3.15 Dato il polinomio

p(z) = z 3 − 0.1z 2 + 0.01z − 0.004

per quanto detto, le sue radici sono di modulo minore di 1 se e solo se le radici del
polinomio a numeratore ottenuto ponendo z = (1 + s)/(1 − s) sono a parte reale
negativa

q(s) = (1 + s)3 − 0.1(1 − s)(1 + s)2 + 0.01(1 − s)2 (1 + s) − 0.004(1 − s)3 =


= 1.114s3 + 3.078s2 + 2.902s + 0.906

il quale, applicando il criterio di Routh,

3 1.114 2.902
2 3.078 0.906
1 2.574
0 0.906

ha sicuramente tutte radici a parte reale negativa e quindi p(z) ha tutte radici in
modulo minore di 1.

Accenniamo, infine, al calcolo della risposta a regime permanente ad un se-


gnale costante U . Perché la risposta a regime esista finita e sia indipendente dalle
condizioni iniziali, naturalmente, il sistema deve essere asintoticamente stabile in
modo che l’evoluzione libera si estingua al passare del tempo. In tale ipotesi è
intuibile come il valore di regime dell’uscita sia pari al valore finale della risposta
ad un gradino U δ−1 (k), per cui, applicando il teorema del valore finale, si ha

Uz
y(+∞) = lim y(k) = lim (z − 1)Y (z) = lim (z − 1)W (z) = [W (z)]z=1 U
k→+∞ z→1 z→1 z−1
dove il valore [W (z)]z=1 è il guadagno statico del sistema.

3.5 Comandi MATLAB


I comandi già visti nel Paragrafo 2.8 per l’analisi dei sistemi a tempo continuo,
possono essere adoperati anche per sistemi a tempo discreto, basta definire il siste-
ma assegnandogli un periodo di campionamento T . Ad esempio, per determinare
la risposta impulsiva del sistema
z + 0.1
W (z) = , T = 0.001 s
z − 0.5
basta eseguire l’istruzione
152 Capitolo 3. Analisi dei sistemi a tempo discreto

>> [y,t,x]=impulse(tf([1 0.1],[1 -0.5],0.001));

Avendo adoperato i parametri di uscita, per tracciare il grafico della risposta


impulsiva, ad esempio nell’uscita, occorre usare il comando grafico

>> plot(t,y,’o’)

per evitare che il MATLAB interpoli tra un campione e l’altro del vettore y. In
alternativa, si può usare il comando

>> stem(t,y)

che traccia una linea verticale in corrispondenza di ogni campione del vettore y.
Infine, se si vuole ottenere il grafico dell’uscita di un organo di tenuta di ordine
0 alimentato da una sequenza i cui campioni sono memorizzati nella variabile x,
allora si può adoperare il comando

>> stairs(x)

3.6 Esercizi

Esercizio 3.1 Determinare la rappresentazione a dati campionati con periodo di


campionamento Ts = ln(2) s del sistema
! !
0 −4 1
ẋ = x+ u
1 −5 0
y = (0 1 )x

Ts
uk u(t) 3 y(t) yk
ZOH s2 + 3s + 2

Figura 3.13: Schema a blocchi del sistema dell’Esercizio 3.2

Esercizio 3.2 Determinare una rappresentazione i–s–u del sistema in Fig. 3.13, con
Ts = ln(3/2) s.
3.6. Esercizi 153

Esercizio 3.3 Determinare la risposta nell’uscita del sistema


! ! !
0 1 0 1
xk+1 = xk + uk , x(0) =
0.06 0.5 1 −1
yk = ( 1 0 )xk

al segnale di ingresso uk = 2δ−1 (k).

z
z + 0.4 + yk
uk
4
z − 0.4 +
z + 0.6

Figura 3.14: Schema a blocchi del sistema dell’Esercizio 3.4

Esercizio 3.4 Determinare la risposta del sistema in Fig. 3.14, all’ingresso u(k) =
(0.5)k δ−1 (k).

uk + ek vk v(t) y(t) yk
vk = vk−1 + Hek−1 ZOH ẏ = −ay + bv
- Ts

Figura 3.15: Schema a blocchi del sistema dell’Esercizio 3.5

Esercizio 3.5 Determinare i valori di H tali che il sistema in Fig. 3.15, con Ts = 0.5 s,
a = b = ln(25), è asintoticamente stabile.

uk z + 0.4 1 yk
+ +
2
z + z − 0.1 z + 0.3
- +

Figura 3.16: Schema a blocchi del sistema dell’Esercizio 3.6


154 Capitolo 3. Analisi dei sistemi a tempo discreto

uk z + z + 0.1 yk
z − 0.5 - 2
z −z+1

Figura 3.17: Schema a blocchi del sistema dell’Esercizio 3.7

Esercizio 3.6 Determinare la proprietà di stabilità BIBO del sistema in Fig. 3.16 e
la risposta a regime al segnale di ingresso u(k) = 2.

Esercizio 3.7 Determinare i valori di H tali che il sistema in Fig. 3.17 è stabile BIBO
e, per un valore a scelta di H 6= 0, la risposta indiciale.

Esercizio 3.8 Data il sistema a tempo discreto con risposta impulsiva


 
w(k) = (0.4)k + 2(−0.2)k δ−1 (k)

determinare la risposta al segnale di ingresso u(k) = 5 cos(2k)δ−1 (k).

Esercizio 3.9 Data il sistema a tempo discreto con risposta impulsiva


 
w(k) = (0.4)k + 2(−0.2)k δ−1 (k)

determinare la risposta al segnale di ingresso u(k) = 5 cos(2k)δ−1 (k).


CAPITOLO 4

Analisi dei sistemi nel dominio della frequenza

In questo capitolo introdurremo il concetto di frequenza e di risposta in frequenza


(o armonica) di un sistema, che riveste un ruolo chiave nello studio dei sistemi
lineari tempo invarianti per un duplice motivo. In prima istanza, perché l’anali-
si di questa caratteristica del sistema porta ad evidenziarne alcune proprietà di
notevole importanza in moltissime applicazioni in tutti i campi dell’ingegneria.
In secondo luogo, lo studio del comportamento del sistema sollecitato da segnali
di ingresso sinusoidali permette di risalire, grazie al principio di sovrapposizione
degli effetti, al comportamento del sistema in risposta ad una vasta classe di se-
gnali, basta che siano in qualche modo scomponibili in componenti sinusoidali.
Vedremo, allora, quali classi di segnali possono essere visti come sovrapposizione
di segnali sinusoidali tramite gli strumenti matematici della serie e della trasfor-
mata di Fourier. Infine, introdurremo la risposta armonica di un sistema e lo
strumento dei diagrammi di Bode per il tracciamento del suo diagramma.

4.1 Serie di Fourier

Consideriamo una funzione f (t) di variabile reale a valori complessi, cioè l’appli-
cazione

f : t ∈ R 7→ f (t) ∈ C

155
156 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

e supponiamo che sia periodica di periodo T , cioè f (t) = f (t + T ), ∀t ∈ R.1 Si


definisce frequenza del segnale periodico il reciproco del periodo, cioè f0 = 1/T ,
mentre la pulsazione è definita come ω0 = 2π/T . Nelle ipotesi di f (t) limitata in
modulo e integrabile nell’intervallo [0, T ], nei punti in cui f (t) è derivabile vale
l’uguaglianza
+∞
X
f (t) = Fn ejnω0 t , (4.1)
n=−∞

dove i coefficienti di Fourier sono dati da2


Z T
1
Fn = f (t)e−jnω0t dt, n∈Z (4.2)
T 0

e sono numeri complessi, per cui sono definite le successioni dei moduli {|Fn |},
detta spettro di ampiezza del segnale, e delle fasi {arg(Fn )}, detta spettro di fase
del segnale, i quali hanno un diagramma discreto per cui si dice che un segnale
periodico ha lo spettro a righe.
Un caso notevole è quello in cui il segnale f (t) assume solo valori reali, allora
i suoi coefficienti di Fourier sono tali che

F−n = Fn∗ , n∈N

e quindi la serie di Fourier diventa della forma


+∞
Xh i
f (t) = F0 + Fn ejnω0 t + Fn∗ e−jnω0 t
n=1

e applicando le formule di Eulero (vedi Appendice A) si può dimostrare che può


essere riscritta nella cosiddetta forma trigonometrica
+∞
X +∞
X
f (t) = a0 + [an cos(nω0 t) + bn sin(nω0 t)] = a0 + 2|Fn | cos(nω0 t + arg(Fn ))
n=1 n=1
(4.3)
dove i coefficienti si calcolano come
Z T
1
a0 = F0 = f (t)dt (4.4)
T 0
Z T
2
an = 2Re(Fn ) = f (t) cos(nω0 t)dt, n∈N (4.5)
T 0
Z T
2
bn = −2Im(Fn ) = f (t) sin(nω0 t)dt, n∈N (4.6)
T 0
1
È chiaro che vale anche la relazione f (t) = f (t + nT ), ∀t ∈ R, ∀n ∈ Z.
2
È possibile dimostrare che l’integrale può essere esteso a un generico intervallo [a, a + T ] con
a ∈ R.
4.1. Serie di Fourier 157

f (t)
1

−T /2 −T /4 0 T /4 T /2 t

Figura 4.1: Segnale periodico a onda quadra

0.6

0.4
Fn

0.2

−0.2
0 2 4 6 8 10
n

Figura 4.2: Spettro del segnale periodico a onda quadra

La forma trigonometrica mostra come un segnale periodico può essere scom-


posto in una serie di segnali sinusoidali detti componenti armoniche del segnale,
in quanto le pulsazioni di tali segnali sinusoidali sono tutte multiple della pul-
sazione del segnale di partenza. Se il segnale è tale che solo un numero finito
di armoniche hanno ampiezza non nulla, allora si dirà a banda limitata e la sua
larghezza di banda sarà pari a (ns − ni )ω0 , dove ni ed ns sono il minimo e il
massimo valore di n per cui risulta Fn 6= 0, rispettivamente.
Il termine a0 è detto valor medio o componente continua del segnale f (t)
e indica la parte del segnale f (t) che non varia nel tempo. Al contrario le am-
piezze delle armoniche superiori quantificano la rapidità di variazione del segnale.
Qualitativamente parlando, se il segnale o le sue derivate presentano delle discon-
tinuità3 , certamente il suo sviluppo in serie di Fourier avrà un numero infinito di
armoniche con ampiezza non nulla. Al contrario, quanto più elevato è il numero
di sue derivate continue, tanto più basse saranno le ampiezze delle sue armoniche.

3
Si noti che in corrispondenza di una discontinuità il segnale presenta una variazione finita
in un intervallo di tempo nullo.
158 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

f(t)
3

1
5 10 15 20 25 30
t

Figura 4.3: Segnale periodico dell’Esempio 4.2

Esempio 4.1 Sviluppiamo in serie di Fourier il segnale a onda quadra definito grafi-
camente in Fig. 4.1. I coefficienti di Fourier sono calcolabili applicando la (4.2)
Z Z ( 1
1 T /2
−jnω0 t 1 T /4
−jnω0 t 2 n=0
Fn = f (t)e dt = e dt = 1 sin(nπ/2)
T −T /2 T −T /4 2 nπ/2 n ∈ Z − {0}

Come si vede, i coefficienti sono tutti reali e inoltre per n pari sono tutti nulli, e
infine, dalla Fig. 4.2 si può osservare come decrescono in ampiezza al crescere di n.

Le caratteristiche riscontrate nell’esempio sono proprietà più generali, infatti


se f (t) è una funzione pari (cioè f (t) = f (−t)) allora si ha bn = 0, ∀n ∈ N e lo
spettro è reale, S
mentre se f (t) è una funzione dispari (cioè f (t) = −f (−t)) allora
an = 0, ∀n ∈ N {0} e lo spettro è puramente immaginario. Infine, sotto alcune
ipotesi di continuità su f (t), si può dimostrare che la successione dei coefficienti
di Fourier tende a 0 per n → +∞.

Esempio 4.2 Dato il segnale periodico

f (t) = 3 + sin(2π/3t) + 2 cos(4π/5t)

somma di una costante più due segnali sinusoidali, il suo periodo è il minimo comune
multiplo dei due periodi T1 = 3 s e T2 = 2.5 s, quindi T = 15 s (in Fig. 4.3 ne
sono riportati due periodi), infatti la pulsazione fondamentale ω0 = 2π/15 è tale che
2π/3 = 5ω0 e 4π/5 = 6ω0 . Calcoliamo i suoi coefficienti di Fourier
Z T
1
F0 = f (t)dt = 3
T 0
4.2. Trasformata di Fourier 159

in quanto tutti i segnali sinusoidali hanno integrale nullo su un numero intero di


periodi. Per n 6= 0

1
Z T  −j0.5
 n=5
Fn = f (t)e−jnω0 dt = 1 n=6
T 0 
 0 altrimenti

Infatti, negli integrali


Z T  
3 + sin(5ω0 t) + 2 cos(6ω0 t) cos(nω0 t) − j sin(nω0 t) dt
0

il 3 non dà alcun contributo, cosı̀ come tutti i termini con n 6= 5 e n 6= 6, in quanto
integrali di funzioni sinusoidali calcolati su un numero intero di periodi. Per n = 5
l’unico termine che dà contributo è il segnale sinusoidale di periodo T1 moltiplicato
per j sin(5ω0 t)
Z T Z T
j 2 j 
F5 = − sin (5ω0 t)dt = − 1 − cos(10ω0 t) dt = −j0.5 .
T 0 2T 0

Analogamente, nel determinare F6 , l’unico termine che dà contributo è il segnale


cosinusoidale di periodo T2 moltiplicato per cos(6ω0 t)
Z T Z T
2 2 2 
F6 = cos (6ω0 t)dt = 1 + cos(12ω0 t) dt = 1 .
T 0 2T 0

In conclusione, lo spettro del segnale ha un numero finito di righe, come del resto
era prevedibile visto che è costituito dalla sovrapposizione di un numero finito di
sinusoidi.

4.2 Trasformata di Fourier


Come si è visto nel paragrafo precedente, è possibile vedere un segnale periodico
come sovrapposizione di segnali armonici, allora sorge spontanea la domanda se
ciò possa essere esteso anche a segnali non periodici. La risposta è fornita appunto
dalla trasformata di Fourier , cioè la funzione complessa di variabile reale definita
come Z +∞
F (ω) = f (t)e−jωt dt (4.7)
−∞

che esiste se f (t) è una funzione complessa di variabile reale integrabile4 . La


variabile reale ω è detta pulsazione, mentre la frequenza è definita come f =
ω/(2π).
4
Per la definizione rigorosa di trasformata di Fourier di una distribuzione si veda, ad
esempio, [5].
160 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Cosı̀ come per la trasformata di Laplace, anche per quella di Fourier è stato
introdotto un simbolo particolare per indicare l’operazione di trasformazione

F[f (t)] = F (ω) ,

mentre con il simbolo


F −1 [F (ω)] = f (t)
si indica l’operazione di antitrasformazione definita come
Z +∞
1
f (t) = F (ω)ejωt dω (4.8)
2π −∞

che vale almeno nei punti in cui f (t) è derivabile.


Analogamente alla serie di Fourier, si ha che se f (t) è reale allora

F (−ω) = F ∗ (ω)

per cui risulta


Z +∞ h
1 i
f (t) = F (ω)ejωt + F ∗ (ω)e−jωt dω ,
2π 0

che è possibile scrivere anche nella forma trigonometrica


Z +∞
1  
f (t) = |F (ω)| cos ωt + arg(F (ω)) dω .
π 0

Dunque, anche un segnale non periodico può essere visto come sovrapposizione
(continua) di armoniche opportunamente pesate tramite lo spettro di ampiezza
|F (ω)| e sfasate tramite lo spettro di fase arg(F (ω)). Anche in tal caso si può
definire la larghezza di banda del segnale come la differenza ωs − ωi tra l’estremo
superiore e l’estremo inferiore dell’intervallo per cui F (ω) 6= 0; se ωs < +∞ il
segnale si dice a banda limitata 5 .
La trasformata di Fourier gode di proprietà molto simili a quelle della tra-
sformata di Laplace, vediamone alcune6

• Linearità
F[k1 f1 (t) + k2 f2 (t)] = k1 F1 (ω) + k2 F2 (ω)

• Dualità
1
F (ω) = F[f (t)] ⇒ f (−ω) = F[F (t)]

5
Si può dimostrare che in tal caso il segnale deve necessariamente avere durata illimitata.
6
Per le dimostrazioni si veda, ad esempio, [5].
4.2. Trasformata di Fourier 161

• Coniugazione
F[f ∗ (t)] = F ∗ (−ω)

• Traslazione in t
F[f (t − t0 )] = F (ω)e−jωt0

• Traslazione in ω o modulazione

F[ejω0 t f (t)] = F (ω − ω0 )

• Cambiamento di scala

F[f (t/a)] = |a|F (aω)

• Derivata in t  
d
F f (t) = jωF (ω)
dt
• Derivata in ω
d
F[−jtf (t)] = F (ω)

• Simmetria

f (t) reale e pari ⇔ F (ω) reale e pari


f (t) reale e dispari ⇔ F (ω) immaginaria pura e dispari

• Convoluzione
Z +∞ 
F[f (t) ∗ g(t)] = F f (τ )g(t − τ )dτ = F (ω)G(ω)
−∞

• Prodotto
1
F[f (t)g(t)] = F (ω) ∗ G(ω)

• Uguaglianza di Parseval Se f (t) è a quadrato integrabile
Z +∞ Z +∞
1
|f (t)|2 dt = |F (ω)|2 dω
−∞ 2π −∞

L’ultima proprietà è suscettibile di un’interessante interpretazione fisica: l’energia


associata al segnale nel dominio del tempo deve essere pari a quella nel dominio
della frequenza. Ciò sarà di particolare interesse quando il segnale in questione è
la risposta impulsiva di un sistema LTI.
Servendoci di tali proprietà e della definizione possiamo ora calcolare qualche
trasformata notevole.
162 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Esempio 4.3 Iniziamo dalla funzione finestra di durata T definita dalla (2.3)
Z +∞ Z +T /2  +T /2
−jωt −jωt 1 sin(ωT /2)
F[wT (t)] = wT (t)e dt = e dt = − e−jωt =T
−∞ −T /2 jω −T /2 ωT /2

il cui spettro, come si vede, è reale e pari ed inoltre è a banda illimitata, mentre il
segnale ha durata limitata. Notiamo che, in base alla proprietà di dualità è possibile
subito affermare che lo spettro di un segnale di tipo sinc()7 è a banda limitata ed ha
la forma di una finestra.

Esempio 4.4 Per il calcolo dello spettro di un impulso di Dirac ci serviremo della
proprietà di campionamento (2.4)
Z +∞
F[δ(t)] = δ(t)e−jωt dt = e−jω0 = 1 .
−∞

Ancora una volta, per dualità, si ha che la trasformata della costante unitaria è
l’impulso di area 2π centrato nell’origine, di conseguenza, applicando la proprietà di
modulazione si ha
F[ejω0 t ] = 2πδ(ω − ω0 ) .

Grazie all’ultimo risultato è possibile calcolare immediatamente la trasformata


di segnali sinusoidali

Esempio 4.5 Iniziamo con il coseno

F[cos(ω0 t)] = F[(ejω0 t + e−jω0 t )/2] = per la linearità


 
= (1/2) F[ejω0 t ] + F[e−jω0 t ] = per il risultato precedente
 
= π δ(ω − ω0 ) + δ(ω + ω0 )

e analogamente per la funzione seno si trova


 
F[sin(ω0 t)] = jπ δ(ω + ω0 ) − δ(ω − ω0 )

per cui gli spettri di segnali puramente sinusoidali sono “a righe” e, visto che un
segnale periodico è sviluppabile in serie di Fourier e quindi è sovrapposizione di segnali
sinusoidali, la sua trasformata di Fourier sarà, per linearità, un treno infinito di impulsi
e quindi ancora a righe, ma stavolta le righe sono degli impulsi.
4.2. Trasformata di Fourier 163

1 0.25

0.2
0.5
0.15

|F(ω)|
f(t)

0
0.1
−0.5
0.05

−1 0
−1 −0.5 0 0.5 1 0 50 100 150 200 250
t ω

Figura 4.4: Segnale in banda base (nero) e in banda traslata (grigio) nel dominio
del tempo (sinistra) e della frequenza (destra) relativi all’Esempio 4.6

Vediamo un’importante conseguenza della proprietà di modulazione.

Esempio 4.6 Determiniamo la trasformata di Fourier del segnale ottenuto moltipli-


cando una funzione sinc() per un coseno
 
F[sinc(αt) cos(ω0 t)] = 1/2 F[sinc(αt)]|ω−ω0 + F[sinc(αt)]|ω+ω0
= 1/(2α)w2πα (ω − ω0 ) + 1/(2α)w2πα (ω + ω0 ) .

In generale, il prodotto nel dominio del tempo di un segnale per una sinusoide, in
frequenza consiste in una traslazione dello spettro del segnale di partenza di una
quantità pari alla pulsazione del segnale sinusoidale (detto “portante”). Per questo
il segnale originario si dice anche “in banda base”, mentre la sua versione modulata
si dice “in banda traslata”. In Fig. 4.4 sono riportati tali segnali nel dominio nel
tempo e, per le sole pulsazioni positive, i relativi spettri di ampiezza, nel caso α = 5
e ω0 = 150. È questo il principio su cui si basano le trasmissioni radio, e tutte le
conseguenze di questa proprietà saranno approfondite nei corsi di Telecomunicazioni.

Vista la similitudine formale delle definizioni delle trasformate di Fourier e


Laplace, ci si potrebbe chiedere in che relazione sono le due entità. Confrontando
la (2.1) con la (4.7) si vede subito che vale la relazione, avendo posto come al
solito s = α + jω
L[f (t)] = F[f (t)e−αt ] , (4.9)
che ci fa comprendere come possano esistere funzioni f (t) che tendono anche al-
l’infinito per t → +∞ (ma non “troppo rapidamente”, o meglio “più lentamente
di un esponenziale”) e che sono trasformabili secondo Laplace ma non secondo
7
La funzione reale di variabile reale sin(πx)/πx è detta anche sinc(x).
164 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Fourier, infatti nel trasformare secondo Laplace nell’integrale tra −∞ e +∞ la


f (t) è moltiplicata per e−αt che può rendere il prodotto integrabile se α > 0, men-
tre nel trasformare secondo Fourier ciò non avviene. Le due trasformate invece
esistono entrambe per le funzioni f (t) nulle per t < 0 e se la trasformata di Lapla-
ce ha ascissa di convergenza α0 < 0 in modo che l’asse immaginario appartenga
al semipiano di convergenza, e in tal caso vale la relazione fondamentale

F[f (t)] = L[f (t)]s=jω . (4.10)

4.3 Risposta esponenziale


In questo paragrafo calcoleremo esplicitamente la risposta di un sistema LTI ad
un segnale esponenziale (in generale complesso) perché ci sarà utile ai fini del
calcolo della risposta armonica del sistema stesso.
Consideriamo un generico sistema LTI asintoticamente stabile8 con rappre-
sentazione i–s–u

ẋ(t) = Ax(t) + Bu(t)


y(t) = Cx(t) + Du(t)

e applichiamo il segnale di ingresso u(t) = U es0 t a partire da −∞, con s0 ∈ C. Nel


Capitolo 2 abbiamo trovato che la risposta nell’uscita ad un ingresso applicato
da −∞ si calcola come l’integrale di convoluzione
Z +∞ Z +∞
y(t) = w(τ )U es0 (t−τ ) dτ = w(τ )e−s0 τ dτ U es0 t = W (s0 )u(t) , (4.11)
−∞ −∞
| {z }
L[w(t)]

cioè l’uscita è pari allo stesso segnale esponenziale (in generale complesso) po-
sto in ingresso, moltiplicato per una costante (complessa) pari alla funzione di
trasferimento calcolata in s0 . Questo fatto significa che le funzioni esponenziali
complesse sono delle autofunzioni per sistemi LTI, nel senso che come una ma-
trice non ruota i suoi autovettori, cosı̀ un sistema lineare non modifica segnali di
ingresso esponenziali. Naturalmente, l’uscita calcolata nella (4.11) è un segnale
ben definito solo se la W (s) è ben definita in s0 , cioè s0 non deve essere un polo
del sistema e, ricordando che i poli di W (s) sono gli autovalori della matrice di-
namica A, s0 non deve essere un autovalore della matrice A. Inoltre, va osservato
che tale equazione è valida solo se il segnale di ingresso è applicato da −∞. Se
cosı̀ non fosse, la (4.11) sarebbe valida solo “asintoticamente”, nel senso che la
differenza fra l’uscita effettiva e quella calcolata con la (4.11) tenderebbe a zero
per t → +∞. In altre parole, la formula (4.11) va intesa come risposta a regime
8
I risultati possono essere estesi al caso di sistemi instabili con un’opportuna scelta delle
condizioni iniziali (vedi, ad esempio,[2]).
4.3. Risposta esponenziale 165

permanente cosı̀ come definita nel Paragrafo 2.5 tramite la (2.55). Per chiarire le
idee facciamo un esempio.

Esempio 4.7 Sia dato il sistema

ẋ = −3x + u, x(0) = x0
y = x

con u(t) = et δ−1 (t). La funzione di trasferimento del sistema è banalmente W (s) =
1
s+3 , che ha un polo in −3 diverso dall’esponente del segnale di ingresso e inoltre,
essendo il polo negativo, il sistema è asintoticamente stabile. Verifichiamo che la
differenza fra l’uscita effettiva e l’uscita calcolata con la (4.11) tende asintoticamente
a zero. Applicando la formula (2.45), l’uscita effettiva vale
Z t Z t  t
1 4τ
y(t) = e−3(t−τ ) eτ dτ + x0 e−3t = e−3t e4τ dτ + x0 e−3t = e−3t e + x0 e−3t
0 0 4 0
 
1 1 1 −3t
= e−3t [e4t − 1] + x0 e−3t = et + x0 − e , t≥0.
4 4 4

Mentre dalla (4.11) risulta



t 1 1
y(t) = W (s)|s=1 e = et = et
s + 3 s=1
4

e quindi la differenza fra i due risultati vale (x0 − 1/4)e−3t , che tende a zero per
t → +∞. È importante sottolineare che se pure avessimo scelto semplicemente
x(0) = 0, la (4.11) non sarebbe stata verificata, perché sarebbe rimasto sempre un
termine del tipo e−3t . Tuttavia si intuisce che una scelta opportuna9 della condizione
iniziale rende la (4.11) valida ∀t ∈ R.

Dall’equazione (4.11) si può anche osservare che se s0 coincide con uno zero
della f.d.t. (cioè W (s0 ) = 0) allora l’uscita risulta identicamente nulla (sem-
pre asintoticamente), effetto che abbiamo già indicato nel Paragrafo 2.2.5 come
proprietà bloccante degli zeri.
Concludiamo il paragrafo riportando il risultato analogo alla (4.11) per la
risposta esponenziale nello stato ad un ingresso u(t) = U es0 t

x(t) = Φ(s0 )BU es0 t = Φ(s0 )Bu(t) = (s0 I − A)−1 Bu(t) . (4.12)

9
Si verifichi come tale scelta sia, in generale, x0 = (s0 I − A)−1 BU .
166 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

4.4 Risposta sinusoidale


Come nel paragrafo precedente abbiamo calcolato la risposta ad un segnale espo-
nenziale, ora calcoleremo la risposta di un sistema LTI asintoticamente stabile
con f.d.t. W (s) ad un segnale sinusoidale a pulsazione ω0 e di ampiezza AU , cioè
u(t) = AU cos(ω0 t) . (4.13)
Si noti che il segnale è applicato da −∞, quindi faremo l’ipotesi di asintotica
stabilità del sistema. Se il segnale non dovesse essere applicato da −∞ e se
le condizioni iniziali sono generiche, il risultato che troveremo va inteso come
risposta a regime permanente, nel senso già spiegato nel Paragrafo 2.5, cioè come
quella funzione del tempo tale che la sua differenza con la risposta complessiva
converge asintoticamente a zero. Dimostreremo che tale risposta a regime vale
 
y(t) = |W (jω0 )|AU cos ω0 t + arg(W (jω0 )) (4.14)

A tale scopo immaginiamo di applicare il segnale (4.13) a partire da t = 0 (ad


esempio con condizioni iniziali nulle, ma non è strettamente necessario) e deter-
minare la risposta a regime permanente secondo la definizione data nella (2.55).
L’uscita nel dominio di Laplace vale
n
s X rk r r∗
Y (s) = W (s)U (s) = W (s)AU = + + ,
s2 + ω02 k=1 s − pk s − jω0 s + jω0

dove rk sono i residui dei modi propri del sistema corrispondenti ai poli pk ed
r è il residuo del modo proprio dell’ingresso corrispondente alle radici ±jω0 del
denominatore di Y (s), che vale
 
s W (jω0 )AU
r = [(s − jω0 )Y (s)]s=jω0 = W (s)AU =
s + jω0 s=jω0 2
Antitrasformando secondo la (2.12), si ottiene (nell’ipotesi di poli semplici, ma
non è strettamente necessario)
n
X
y(t) = rk epk t + |W (jω0 )|AU cos(ω0 t + arg(W (jω0 ))
k=1

da cui
P
si vede che la differenza tra questa funzione e la y(t) espressa dalla (4.14)
vale nk=1 rk epk t , che tende a zero per t → +∞, grazie all’ipotesi di asintotica
stabilità del sistema.
In conclusione, la (4.14) rappresenta effettivamente la risposta a regime per-
manente di un sistema LTI ad un segnale sinusoidale, e si può affermare che
questa è ancora un segnale sinusoidale del tipo AY sin(ω0 t + φY ) e tale che
AY
= |W (jω0 )|, φY = arg(W (jω0 )) .
AU
4.4. Risposta sinusoidale 167

L’estensione, invece, della (4.12) al caso di segnale di ingresso sinusoidale è


h i
x(t) = Re Φ(jω0 )BAU ejω0 t (4.15)

dove la funzione Re(·) si intende applicata elemento per elemento al vettore


complesso tra parentesi quadre.
Naturalmente, il risultato che un sistema LTI non “distorce” i segnali sinu-
soidali è basato fortemente sul fatto che il sistema in esame è lineare; se cosı̀
non fosse la risposta ad un segnale sinusoidale potrebbe non essere sinusoidale.
Questa particolarità è una proprietà forte dei sistemi lineari, per cui se da misure
sperimentali effettuate su di un sistema reale emerge che il sistema risponde a
sollecitazioni sinusoidali con segnali non sinusoidali, certamente si può escludere
che il sistema in esame possa essere descritto da un modello puramente lineare.
Nel Paragrafo 4.1 abbiamo visto come un segnale periodico può essere espres-
so come serie di funzioni sinusoidali, dunque, per il principio di sovrapposizione
degli effetti, la risposta di un sistema a un segnale periodico si ottiene come so-
vrapposizione delle risposte alle singole armoniche del segnale di ingresso. Allora
la risposta di un sistema con f.d.t. W (s) ad un segnale periodico u(t) di pulsazione
ω0 la cui serie di Fourier in forma trigonometrica è10
+∞
X
u(t) = An cos(nω0 t + ϕn )
n=1

si calcola applicando la (4.14)

+∞
X
y(t) = An |W (jnω0 )| cos(nω0 t + ϕn + arg(W (jnω0 ))) .
n=1

Concludiamo il paragrafo con qualche esempio. Il primo è mirato a far ve-


dere come, se pure nella realtà non è possibile applicare segnali di ingresso da
−∞, calcolare la risposta del sistema a regime permanente può essere comunque
un’ottima approssimazione di situazioni in cui i segnali sinusoidali sono stati ap-
plicati da un tempo abbastanza grande rispetto alle costanti di tempo tipiche del
sistema.

Esempio 4.8 Dato il sistema LTI con f.d.t.

s+1
W (s) = ,
s2 + s + 10
10
Si considera il caso di un segnale a media nulla, tanto la risposta ad una costante era già
stata calcolata nel Paragrafo 2.5.
168 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

10

y(t), u(t)
0

−5

−10
0 5 10 15
t

Figura 4.5: Ingresso (grigio) e uscita (nero) del sistema dell’Esempio 4.8

determiniamone la risposta al segnale u(t) = 10 cos(2t + π/3). Dato che il sistema è


asintoticamente stabile e il segnale sinusoidale è applicato da −∞ possiamo applicare
la formula (4.14), che richiede di valutare la f.d.t. per s = j2

1 + j2 1 1 2 jπ/4
W (j2) = = +j = e
6 + j2 4 4 4

e quindi l’uscita risulta pari a


√  
5 2 7π
y(t) = cos 2t +
2 12
cioè un segnale sinusoidale di ampiezza più piccola di quella del segnale di ingresso e
sfasato rispetto a questo di π/4 rad in anticipo. Se il segnale di ingresso fosse stato
applicato solo a partire da t = 0 (cioè pari a u(t)δ−1 (t)), la risposta del sistema
sarebbe stata uguale a quella sopra calcolata solo asintoticamente, cioè una volta
esaurito il transitorio iniziale di circa11 8 s, cosı̀ come si può apprezzare in Fig. 4.5,
dove sono riportati i grafici dei segnali di uscita e di ingresso relativi a tale caso.

Nel secondo esempio verificheremo che nel caso non lineare la risposta a segnali
sinusoidali può essere non sinusoidale, per cui si dice che i sistemi non lineari
hanno un effetto “distorcente” sui segnali di ingresso, nel senso che la forma
del segnale sinusoidale di ingresso viene cambiata anche notevolmente in uscita.
Ad esempio, speciali circuiti non lineari, detti appunto “distorsori”, venivano
utilizzati negli anni ‘70 dai musicisti rock per generare particolari effetti acustici
con la chitarra elettrica.
11
Si noti come tale intervallo è circa pari al tempo di assestamento del sistema, una cui stima
è proprio Ta2 = 4/ζωn = 8 s.
4.4. Risposta sinusoidale 169

15

10

y(t), u(t)
5

0 10 20 30
t

Figura 4.6: Ingresso (grigio) e uscita (nero) del sistema dell’Esempio 4.9

Esempio 4.9 Dato il sistema non lineare del primo ordine

ẏ + 2.5yu = 0, y(0) = 1 ,

determiniamone la risposta a regime permanente (se esiste) all’ingresso u(t) = cos(t).


Integrando l’equazione differenziale per separazione di variabili

Z t Z t
dy
= −2.5cosτ dτ ⇒ log y(t) − log y(0) = −2.5 sin t
0 y 0

si ottiene

y(t) = e−2.5 sin t

il cui andamento è riportato in Fig. 4.6 assieme a quello del segnale di ingresso,
dove si vede chiaramente che il segnale di uscita, nonostante sia periodico, è non
sinusoidale, e quindi ha uno spettro a infinite righe.

Dall’ultimo esempio si deduce anche che, in generale, i sistemi non lineari sono
in grado di generare armoniche non presenti nel segnale di ingresso, al contrario
dei sistemi LTI, i cui segnali di uscita possono contenere solo armoniche già
presenti nel segnale di ingresso. Questo concetto sarà chiarito e approfondito nel
prossimo paragrafo.
170 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

4.5 Risposta armonica di un sistema LTI


Si definisce risposta armonica o risposta in frequenza del sistema con f.d.t. W (s) =
C(sI − A)−1 B + D la funzione complessa di variabile reale12

W (jω) = W (s)|s=jω = C(jωI − A)−1 B + D (4.16)

definita per valori non negativi di ω e tali che jω non sia un polo di W (s); ciò
è certamente verificato per qualunque ω se il sistema è asintoticamente stabile,
infatti, in tal caso, la W (s) ha tutti i poli a parte reale negativa. Si vede subito
che la conoscenza di W (jω) per ω > 0 consente di conoscere anche W (−jω),
infatti si ha
W (−jω) = W ∗ (jω) .

In base al risultato espresso dalla (4.14) si può dare subito un’interpretazione


della risposta armonica. Per ciascun valore della pulsazione in cui la (4.16) sia
ben definita, il modulo del numero complesso W (jω) rappresenta il rapporto
tra l’ampiezza della risposta a regime permanente ad un segnale sinusoidale e
l’ampiezza del segnale di ingresso stesso; la fase del numero complesso W (jω),
invece, rappresenta lo sfasamento che c’è tra ingresso e uscita.
Tuttavia, non è questa l’unica interpretazione che si può dare della risposta
armonica. Infatti, calcoliamo la risposta di un sistema ad un generico ingresso
trasformabile secondo Fourier, cioè scomponibile nella sovrapposizione continua
di esponenziali complessi
Z +∞
1
u(t) = U (ω)ejωt dω
2π −∞

allora, per il principio di sovrapposizione degli effetti e applicando la (4.11),


abbiamo Z
1 +∞
y(t) = W (jω)U (ω)ejωt dω
2π −∞
ma, d’altra parte, se anche y(t) è trasformabile secondo Fourier si ha
Z +∞
1
y(t) = Y (ω)ejωt dω
2π −∞

che confrontata con la precedente fornisce il risultato notevole

Y (ω) = W (jω)U (ω) , (4.17)

che ci dice come la funzione di risposta armonica è il rapporto tra la trasformata


di Fourier dell’uscita e quella dell’ingresso, dove questa è non nulla.
12
Per poter usare lo stesso simbolo per la f.d.t. e per la funzione di risposta armonica, abbiamo
indicato la variabile indipendente di quest’ultima con jω, anche se è semplicemente ω.
4.5. Risposta armonica di un sistema LTI 171

L’equazione precedente ci consente di dare ancora un’altra interpretazione


della risposta in frequenza di un sistema. Infatti, ricordando la proprietà di con-
voluzione della trasformata di Fourier e che la risposta nel dominio del tempo di
un sistema LTI asintoticamente stabile è data dalla convoluzione bilatera della
risposta impulsiva con l’ingresso (se questo è applicato da −∞), allora la W (jω)
non può che essere la trasformata di Fourier della risposta impulsiva. Da ciò si
deduce che se si volesse misurare la risposta in frequenza di un sistema per qua-
lunque frequenza occorrerebbe misurarne la risposta impulsiva e poi trasformarla
secondo Fourier, perché solo in questo modo lo spettro del segnale di ingresso
U (ω) non si annullerebbe in alcun punto dell’asse delle frequenze dando luogo
ad un’uscita misurabile. Purtroppo nella pratica un impulso non è realizzabile,
tuttavia, per quanto detto, i segnali più opportuni per la misura della risposta in
frequenza di un sistema sono quelli il cui spettro si avvicina di più a quello piatto
dell’impulso, ad esempio onde quadre con duty cycle13 molto basso.
Dalla relazione (4.17) si intuisce anche che un sistema lineare può presentare
in uscita solo armoniche già presenti nel segnale di ingresso, infatti se U (ω̄) = 0
anche Y (ω̄) = 0 indipendentemente da W (j ω̄). Dunque, il sistema non fa altro
che modellare lo spettro del segnale di ingresso secondo la forma della sua risposta
armonica, in ampiezza e fase. Cosı̀, ad esempio per le frequenze in cui |W | << 1
in uscita il segnale di ingresso si presenterà attenuato 14 , mentre per le frequenze in
cui |W | >> 1 esso sarà amplificato 15 . Queste modificazioni del segnale di ingresso
introdotte dall’azione del sistema si chiamano distorsioni e l’azione svolta dal
sistema si dice filtrante, ma non vanno confuse con le distorsioni vere e proprie
prodotte da sistemi non lineari.
Per poter quantificare tale azione filtrante dei sistemi dinamici, è utile definire
dei parametri caratteristici della risposta in frequenza, cosı̀ come i parametri
della risposta indiciale sono stati già introdotti come parametri caratteristici del
sistema nel dominio del tempo. Con riferimento alla Fig. 4.7, si definisce
• Modulo di risonanza Mr il valore massimo di |W (jω)| (supposto unico)
• Modulo di antirisonanza Ma il valore minimo di |W (jω)| (supposto unico)
• Pulsazione di risonanza ωr il valore di ω per cui |W (jωr )| = Mr
• Pulsazione di antirisonanza ωa il valore di ω per cui |W (jωa )| = Ma
• Banda passante a −k dB 16 Bk l’ampiezza dell’intervallo (espressa in Hz)
contenente ωr
n o
[ωi , ωs ] = ω ≥ 0 : |W (jω)|dB ≥ MrdB − k
13
Si chiama duty cycle di un’onda quadra il rapporto tra l’intervallo di tempo in cui il segnale
è non nullo e il periodo.
14
Cioè di ampiezza più piccola di quella del segnale di ingresso.
15
Cioè di ampiezza più grande di quella del segnale di ingresso.
16
Dato un numero reale positivo α, si pone αdB = 20 log10 α.
172 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

|W (jω)|dB

Mr
Mr − k

Ma + k
Ma

0 ωi ωr ωs ωi′ ωa ωs′ ω

Figura 4.7: Parametri caratteristici della risposta in frequenza

• Banda arrestante a k dB Bk′ l’ampiezza dell’intervallo (espressa in Hz)


contenente ωa
n o
[ωi′ , ωs′ ] = ω ≥ 0 : |W (jω)|dB ≤ MadB + k

• Pulsazione di taglio inferiore ωi e ωi′


• Pulsazione di taglio superiore ωs e ωs′
ωi +ωs ωi′ +ωs′
• Pulsazione di centro banda ωc = 2 e ωc′ = 2

In base ai valori delle pulsazioni di taglio è possibile eseguire la seguente


classificazione dei sistemi

• Passa-tutto se ωi = 0 e ωs = +∞
• Arresta-tutto se ωi′ = 0 e ωs′ = +∞
• Passa-basso se ωi = 0 e ωs < +∞
• Arresta-alto se ωi′ > 0 e ωs = +∞
• Passa-alto se ωi > 0 e ωs = +∞
• Arresta-basso se ωi′ = 0 e ωs < +∞
• Passa-banda se ωi > 0 e ωs < +∞
4.5. Risposta armonica di un sistema LTI 173

|W (jω)|dB

|W (0)|dB
|W (0)|dB − k

0 2πBk ω

Figura 4.8: Risposta in frequenza di un sistema passa-basso

• Arresta-banda se ωi′ > 0 e ωs′ < +∞

Anche per il diagramma delle fasi è possibile definire dei parametri caratteristici,
che possono essere trovati, ad esempio, in [1].
In particolare, per i sistemi passa-basso, si usa definire la banda passante a
−k dB rispetto al valore del modulo a frequenza zero17 , cioè Bk si definisce come
il minimo valore della frequenza tale che

|W (jωk )|dB = |W (j0)|dB − k , con ωk = 2πBk

Come si vede anche in Fig. 4.8, è chiaro che se Mr = |W (j0)| allora tale definizio-
ne coincide con quella già data nel caso generico. Il valore più spesso adoperato
nella pratica per −k è pari a −3 dB, che equivalgono
√ a un rapporto fra ampiez-
za dell’uscita e ampiezza dell’ingresso di circa 2/2, cioè, a quella frequenza,
l’ampiezza del segnale di uscita è pari circa al 70% dell’ampiezza del segnale di
ingresso. Chiariamo meglio questo concetto. Abbiamo detto che il modulo della
funzione di riposta armonica rappresenta il rapporto tra l’ampiezza AY del segna-
le di uscita e quella AU del segnale di ingresso, dunque se alla generica pulsazione
ω0 esso vale x dB, allora vale la relazione
 
AY AY x
= |W (jω0 )|dB = x ⇒ 20 log 10 = x ⇒ AY = 10 20 AU
AU
dB AU

e, in particolare, per x = −3 si ha proprio AY ≃ 0.707AU ≃ 2/2AU .
Per fissare i concetti finora esposti può essere utile presentare un esempio di
risposta in frequenza di un filtro realizzato con un circuito elettrico.
17
Si fa notare come tale valore sia pari al valore assoluto del guadagno statico del sistema.
174 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

0 0

−10 −20

[deg]
[dB]

−20 −40

arg(W)
|W|

−30 −60

−40 −80

−50 −100
2 4 6 8 10 2 4 6 8 10
ω [rad/s] x 10
5 ω [rad/s] x 10
5

Figura 4.9: Risposta in frequenza del sistema del I ordine (scala lineare)

0 0

−10 −20
[deg]
|W| [dB]

−20 −40
arg(W)

−30 −60

−40 −80

−50 0 5
−100 0 5
10 10 10 10
log10 ω [rad/s] log10 ω [rad/s]

Figura 4.10: Risposta in frequenza del sistema del I ordine (scala logaritmica)

Esempio 4.10 Si consideri il circuito RC di Fig. 2.25, la cui f.d.t. del primo ordine,
già ricavata nell’Esempio 2.30, è
1
W (s) = =, con R = 100 Ω e C = 1 µF
1 + sRC
con una costante di tempo τ = RC = 10−4 s. Essendo il sistema asintoticamente
stabile, la sua risposta armonica si ottiene dalla (4.16)
1
W (jω) = ,
1 + jωτ
i cui diagrammi dei moduli in dB e delle fasi in gradi sono riportati in Fig. 4.9
in scala lineare, cioè in funzione di ω, mentre in Fig. 4.10 sono riportati in scala
logaritmica, cioè in funzione di log10 ω. Il vantaggio della scala logaritmica è evidente
in quanto si riesce ad apprezzare meglio l’andamento delle grandezze su un intervallo
4.5. Risposta armonica di un sistema LTI 175

−20

|W| [dB]
−40

−60

−80 0 1 2
10 10 10
log ω
10

Figura 4.11: Risposta in frequenza del sistema dell’Esempio 4.11 con β = 1 Ns/m

di pulsazioni molto elevato (da 0.1 rad/s a 106 rad/s). Dalle figure si vede che il
massimo del modulo si raggiunge per ω = 0 e vale 1 (0 dB), mentre la banda a
−3 dB (B3 = ωs /2π) si ottiene risolvendo l’equazione18
√ √
2 1 = 2 ⇔ 1 + ω 2 τ 2 = 2 ⇔ ωs = 1 ⇔ B3 = 1

|W (jωs )| = ⇔ s
2 1 + jωs τ 2 τ 2πτ

Inoltre, nel diagramma in scala logaritmica si nota come il modulo rimane pratica-
mente costante fino alla pulsazione di taglio superiore (la diminuzione, per definizione
di ωs è inferiore a 3 dB), a partire dalla quale inizia a diminuire costantemente di circa
20 dB ogni decade, cioè un intervallo in cui la pulsazione varia di un fattore 10.

Vediamo un esempio del II ordine.

Esempio 4.11 Dato il sistema meccanico massa-molla-smorzatore dell’Esempio 2.16,


la sua funzione di risposta armonica vale

1 1/M
W (jω) = = 2 ,
k + βjω − M ω 2 ωn − ω 2 + j2ζωn ω
p √
dove ωn = k/M e ζ = β/(2 kM ). In presenza di attrito (β = 1 Ns/m), il
diagramma del modulo della funzione di risposta armonica è riportato in Fig. 4.11.
Questo può essere cosı̀ interpretato: se applichiamo al carrello una forza costante (a
frequenza nulla) di 1 N il carrello si sposta di 0.01 m (|W (j0)| = 0.01 = −40 dB).
18
La pulsazione di taglio superiore in questo caso è detta anche pulsazione a −3 dB, più spesso
indicata col simbolo ω3 .
176 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

150

100

|W| [dB]
50

−50

−100 0 1 2
10 10 10
log ω
10

Figura 4.12: Risposta in frequenza del sistema dell’Esempio 4.11 con β = 0 Ns/m

Se, invece, applichiamo una forza sinusoidale di ampiezza 1 N e pulsazione vicina a


10 rad/s, il carrello si sposta di 0.1 m (o, equivalentemente, per spostare il carrello di
0.01 m bastano 0.1 N). Al crescere della pulsazione della forza sinusoidale applicata,
gli spostamenti sono sempre più bassi. Dunque, il sistema, nell’intorno della pulsa-
zione naturale tende ad avere un comportamento particolare, nel senso che risulta
particolarmente “reattivo” ai segnali di ingresso. Addirittura, in assenza di attrito
(β = 0), il diagramma del modulo della funzione di risposta armonica, riportato in
Fig. 4.12, presenta un asintoto verticale in corrispondenza della pulsazione naturale,
ciò vuol dire che se applicassimo una forza a quella pulsazione, non importa quanto
piccola, l’ampiezza degli spostamenti del carrello sarebbe infinita. Tale fenomeno,
detto “risonanza”, si verifica in moltissimi sistemi reali, di natura meccanica, elet-
trica, ecc., e, in alcuni casi, può essere utilmente sfruttato (ad esempio, nei forni a
microonde, negli oscillatori, negli strumenti medici per la diagnosi), mentre in mol-
ti altri va tenuto in conto nella fase di progettazione del sistema per evitare che
possa provocare danni o malfunzionamenti (ad esempio, nei circuiti elettronici, nelle
strutture meccaniche e aeronautiche e in quelle degli edifici). Calcoliamo la banda
passante a −3 dB19
√ √
2 1/M 2 1
|W (jω3 )| = |W (j0)| ⇒ 2

2
=
2 ωn − ω3 + j2ζωn ω3 2 M ωn2

da cui, elevando al quadrato ambo i membri20


r q
(ωn2 − ω32 )2 + 4ζ 2 ωn2 ω32 = 2ωn4 ⇒ ω3 = ωn 1 − 2ζ 2 + 2 − 4ζ 2 + 4ζ 4 .

19
Si ricordi√che ω3 = 2πB3 ⇒ B3 = ω3 /(2π).
20
Per ζ = 2/2 risulta ω3 = ωn .
4.5. Risposta armonica di un sistema LTI 177

|W (jω)| w(t)

1
1 Ts

−2πB 0 2πB ω 0 Ts t

Figura 4.13: Risposta in frequenza di filtro passa-basso ideale e risposta


impulsiva.

Calcoliamo la banda passante a −6 dB. Occorre determinare la pulsazione a −6 dB


cioè tale che 21
|W (jω6 )| = |W (j0)|/2
e con passaggi analoghi ai precedenti si trova22
r q
ω6 = ωn 1 − 2ζ 2 + 2 1 − ζ 2 + ζ 4 .

Un’interessante interpretazione del significato fisico della banda passante può


essere ricavata basandosi sull’uguaglianza di Parseval, riscritta per la risposta
impulsiva di un sistema passa basso ideale23 di banda B (vedi Fig. 4.13, linea
continua) Z +∞ Z
2 1 +∞
|w(t)| dt = |W (jω)|2 dω
−∞ 2π −∞
da cui, tenendo conto della causalità del sistema e considerando un valore unitario
per la risposta armonica del filtro in banda, si ricava
Z +∞ Z +∞
2 1 2πB
|w(t)| dt = |W (jω)|2 dω = = 2B
0 π 0 π
Il primo membro può essere approssimato considerando l’andamento della rispo-
sta impulsiva anch’esso di tipo rettangolare di durata pari al tempo di salita Ts
e altezza 1/Ts (in modo che l’area sottesa sia pari a |W (0)| = 1) per cui risulta
la seguente uguaglianza
BTs = 0.5
21
Si osservi che raddoppiare i dB equivale ad elevare al quadrato i valori naturali.
22
Per ζ = 1 risulta ω6 = ωn .
23
Si dice “passa-basso ideale” un filtro con risposta in frequenza costante nell’intervallo
[−B, B] e nulla al di fuori.
178 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

cioè, banda e tempo di salita sono inversamente proporzionali; in altre parole,


più la banda di un sistema è ampia e più esso tende a rispondere rapidamente
agli ingressi applicati. Naturalmente, nel procedimento poc’anzi seguito abbiamo
considerato una risposta impulsiva e una risposta armonica che non sono esat-
tamente l’una la trasformata di Fourier dell’altra ma solo con un certo grado
di approssimazione (per non parlare del fatto che sistemi di quel tipo non sono
fisicamente realizzabili), di conseguenza la relazione di sopra non va considerata
esatta, tuttavia essa rimane qualitativamente valida, in quanto le funzioni con-
siderate possono essere considerate come approssimazioni di funzioni reali con
diagrammi del tipo tracciato in Fig. 4.13 con linea tratteggiata.

4.6 Diagrammi di Bode


Già dai semplici esempi presentati nel paragrafo precedente si intuisce come una
rappresentazione grafica della risposta armonica permetta di comprendere in ma-
niera immediata le proprietà filtranti di un sistema, cioè il suo modo di rispondere
al variare del contenuto frequenziale del segnale di ingresso. Infatti, nell’Esem-
pio 4.10, se il segnale di ingresso ha uno spettro confinato tutto all’interno della
banda del sistema, allora lo spettro dell’uscita sarebbe pari a quello dell’ingres-
so stesso (visto che |W | ≃ 1) e dunque il sistema non introdurrebbe alcuna
distorsione di ampiezza.
Appare, quindi, indispensabile avere a disposizione uno strumento semplice
ed efficace che consenta di rappresentare graficamente la risposta armonica di un
sistema di cui sia nota la f.d.t. W (s) e quindi la risposta in frequenza W (jω) =
W (s)|s=jω . Diciamo subito che presenteremo un metodo valido anche nel caso
in cui il sistema non sia asintoticamente stabile e quindi nel caso in cui non
esiste risposta a regime permanente ad un ingresso sinusoidale. Infatti, in tal
caso, da un lato, continua ad essere possibile considerare la restrizione della W (s)
all’asse immaginario, e dall’altro si è detto che comunque la risposta di un sistema
instabile ad un segnale sinusoidale può essere ancora sinusoidale tramite una
scelta opportuna dello stato iniziale e della frequenza.
Tra i diversi tipi di diagrammi a disposizione per rappresentare la risposta
armonica, quelli più diffusi sono i diagrammi di Bode, che consistono in due
grafici, il primo, detto diagramma dei moduli, riporta la grandezza |W (jω)|dB
in funzione di log10 ω, mentre il secondo, detto diagramma delle fasi, riporta
la grandezza arg(W (jω)) (in gradi) sempre in funzione di log10 ω. In realtà
il metodo che stiamo per presentare permetterà di rappresentare i cosiddetti
diagrammi asintotici di Bode, cioè delle approssimazioni dei diagrammi effettivi,
ma semplici da tracciare manualmente. Naturalmente, in MATLAB è possibile
tracciare i diagrammi esatti e i comandi necessari saranno presentati alla fine del
presente capitolo24 .
24
Al contrario, non esiste alcuna funzione predefinita che consenta il tracciamento dei
4.6. Diagrammi di Bode 179

Si consideri la funzione di trasferimento


a1 sm + a2 sm−1 + · · · + am+1
W (s) = , a1 , b1 6= 0
b1 sn + b2 sn−1 + · · · + bn+1

che può essere fattorizzata nella forma


µ ′ ′
Y ν
Y
(1 + sτi′ )mi (1 + 2ζh′ s/ωn′ h + s2 /ωn′2h )mh
W (s) = Ksm0 −n0 i=1
µ
h=1
ν (4.18)
Y Y
ni 2
(1 + sτi ) (1 + 2ζh s/ωnh + s /ωn2 h )nh
i=1 h=1

dove

−1/τi sono i poli reali non nulli di molteplicità ni di W (s)

−1/τi′ sono gli zeri reali non nulli di molteplicità mi di W (s)

ζh sono gli smorzamenti delle coppie di poli complessi e coniugati di moltepli-


cità nh di W (s)

ζh′ sono gli smorzamenti delle coppie di zeri complessi e coniugati di moltepli-
cità mh di W (s)

ωnh sono le pulsazioni naturali delle coppie di poli complessi e coniugati di


molteplicità nh di W (s)

ωn′ h sono le pulsazioni naturali delle coppie di zeri complessi e coniugati di


molteplicità mh di W (s)

m0 molteplicità dell’eventuale zero nell’origine di W (s)

n0 molteplicità dell’eventuale polo nell’origine di W (s)

mentre la costante di guadagno K è pari a


µ
Y ν
Y

τini ωn′2m
h
h

am+1−m0 a1 i=1 h=1


K= = lim sn0 −m0 W (s) =
bn+1−n0 s→0 b1 Yµ′ Yν
τi′mi ωn2nhh
i=1 h=1

in altri termini, K è il guadagno statico del sistema privato degli zeri e dei poli
nell’origine.
diagrammi asintotici.
180 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

40
K>0
30 0
20log |K|
10

[deg]
[dB]

20 −50

arg(W)
|W|

10 −100

0 −150
K<0
−10 −1 0 1 −1 0 1
10 10 10 10 10 10
log10 ω [rad/s] log10 ω [rad/s]

Figura 4.14: Diagramma di Bode della costante di guadagno K

Quello che dobbiamo rappresentare è ovviamente la restrizione di questa fun-


zione all’asse immaginario, cioè per s = jω. Abbiamo scritto la funzione nella
forma di prodotti e rapporti perché per rappresentare il diagramma del modulo
in dB occorre calcolarne il logaritmo e quindi, grazie alle proprietà dei logaritmi,
è possibile tracciare i diagrammi dei singoli fattori e poi sommarli (algebrica-
mente). Allo stesso modo, per rappresentare il diagramma delle fasi, grazie alle
proprietà della funzione argomento di un numero complesso, è possibile tracciare
i diagrammi dei singoli fattori e poi sommarli (algebricamente).
I fattori presenti nell’espressione (4.18) della W (s) sono solo di quattro tipi

K costante di guadagno

(jω)k termine monomio

(1 + jωτ )k termine binomio


!k
2ζ ω2
1+ jω − 2 termine trinomio
ωn ωn

con k ∈ Z.

Costante di guadagno. In Fig. 4.14 sono riportati i diagrammi di Bode e si


vede che, ovviamente, il diagramma dei moduli è una retta orizzontale di ordinata
pari a 20 log10 |K| e cosı̀ come quello delle fasi, dove però l’ordinatà è 0 se K > 0
e −180◦ se K < 0.
4.6. Diagrammi di Bode 181

40 200
k=−2 k=2

20 k=−1 100

[deg]
k=1
[dB]

0 0

arg(W)
|W|

k=1
k=−1
−20 −100
k=2 k=−2
−40 −1 0 1
−200 −1 0 1
10 10 10 10 10 10
log ω [rad/s] log10 ω [rad/s]
10

Figura 4.15: Diagramma di Bode del termine monomio (jω)k

10
0
0
−20 a
[deg]

−20 db/decade
−10 b
[dB]

−40
−20
arg(W)
|W|

−30 −60 −45°/decade

−40 −80

−50 −2 0 2
−100 −2 0 2
10 10 10 10 10 10
log10 ωτ log10 ωτ

Figura 4.16: Diagramma di Bode del termine binomio (1 + jωτ )−1 , per τ > 0 (in
grigio il diagramma reale, in nero il diagramma asintotico)

Termine monomio. Le quantità da diagrammare (modulo e fase) sono date


da25

(jω)k

= 20k log10 ω
dB
 
arg (jω)k = 90◦ k

Dunque, i moduli, come funzioni della variabile log10 ω, sono rette che passano per
l’origine e hanno pendenza 20k dB/decade; le fasi, invece, sono rette orizzontali
di ordinata 90◦ k. In Fig. 4.15 sono riportati i relativi diagrammi per diversi valori
dell’esponente k.

25
Si ricorda che stiamo considerando solo le pulsazioni positive.
182 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

Termine binomio. Le quantità da diagrammare sono


p
(1 + jωτ )k 1 + ω2τ 2

= 20k log10
dB
 
arg (1 + jωτ )k = k arg(1 + jωτ )

che ammettono le seguenti approssimazioni26


(
p 20k log10 1 = 0 ω << 1/|τ |
20k log10 1+ ω2τ 2 ≃
20k log10 ω|τ | ω >> 1/|τ |
(
k arg(1) = 0◦ ω << 1/|τ |
k arg(1 + jωτ ) ≃
k arg(jωτ ) = k90◦ sign(τ ) ω >> 1/|τ |

Per capire come sono fatti i diagrammi, iniziamo a considerare il caso di un ter-
mine binomio relativo ad un polo negativo di molteplicità 1 della f.d.t. (τ > 0 e
k = −1). Con riferimento alla Fig. 4.16 (dove è riportato il diagramma in funzione
della variabile normalizzata log10 ωτ ), si nota che il diagramma dei moduli parte
da 0 dB e fino a che ω < 1/τ si mantiene praticamente costante, e a partire da
ω = 1/τ inizia a decrescere con una pendenza quasi costante di −20 dB/decade.
Infatti, le approssimazioni asintotiche ci dicono che per valori di ω << 1/τ il
modulo vale 0 dB e per valori superiori è una retta di pendenza −20 dB/decade.
Dunque il diagramma asintotico cambia “improvvisamente” aspetto nel punto
1/τ che per questo si chiama punto di rottura. Passiamo ad analizzare il dia-
gramma delle fasi. Esso parte da 0◦ e poi decresce fino al valore asintotico di
−90◦ . Tuttavia, al contrario di quello dei moduli, nell’intervallo delle ω intorno
a 1/τ esso si discosta molto dalla approssimazione asintotica indicata con ‘a’ in
Fig. 4.16. Per questo motivo, nella pratica si adotta una approssimazione diversa
costituita da una retta (indicata con ‘b’ in Fig. 4.16) inclinata di −45◦ /decade
che parte dal punto di rottura sinistro 0.1/τ e termina nel punto di rottura destro
10/τ .
Per un generico termine binomio a denominatore, cioè del tipo (1 + jωτ )k con
τ > 0, k < 0, i diagrammi di Bode si ottengono moltiplicando per |k| le ordinate
di quelli appena visti, mentre quelli di un termine a numeratore, cioè del tipo
(1 + jωτ )k con τ > 0, k > 0, si ottengono moltiplicando per |k| le ordinate e
ribaltando rispetto all’asse delle ascisse quelli appena visti. Nel caso τ < 0 il
diagramma dei moduli rimane identico a quello per τ > 0, mentre quello delle
fasi si ottiene ribaltando rispetto all’asse delle ascisse quello per τ > 0. Cosı̀,
ad esempio, i diagrammi di Bode del termine (1 + jωτ )−2 , τ < 0 sono quelli in
Fig. 4.17.

Termine trinomio. Le funzioni della pulsazione ω da diagrammare sono le


seguenti
26
La funzione sign(x) restituisce +1 se x > 0, −1 se x < 0 e 0 se x = 0.
4.6. Diagrammi di Bode 183

10 200

0
150

[deg]
−10 −40 db/decade
[dB]

+90°/decade
−20 100

arg(W)
|W|

−30
50
−40
0
−50 −2 0 2 −2 0 2
10 10 10 10 10 10
log10ωτ log10ωτ

Figura 4.17: Diagramma di Bode del termine binomio (1 + jωτ )−2 , per τ < 0 (in
grigio il diagramma reale, in nero il diagramma asintotico)

!

2ζ ω 2 k q
1+ jω − 2 = 20k log10 (1 − ω 2 /ωn2 )2 + 4ζ 2 ω 2 /ωn2

ωn ωn
dB
 !  !
k
2ζ ω2 2ζ ω2
arg  1 + jω − 2  = k arg 1 + jω − 2
ωn ωn ωn ωn

che ammettono le approssimazioni


s (
 2
ω2 ω2 20k log10 1 = 0 ω << ωn
20k log10 1− 2 + 4ζ 2 2 ≃
ωn ωn 40k log10 (ω/ωn ) ω >> ωn
! (
2ζ ω2 k arg(1) = 0◦ ω << ωn
k arg 1 + jω − 2 ≃ ◦
ωn ωn k arg(sign(ζ)) = k180 sign(ζ) ω >> ωn

Anche in questo caso, per fissare le idee, consideriamo il caso di un termine


trinomio relativo a due poli complessi e coniugati di molteplicità 1 e con smorza-
mento27 ζ > 0. I relativi diagrammi sono riportati in Fig. 4.18 per vari valori di
ζ e in funzione della variabile normalizzata √
log10 ω/ωn . Si vede
√ che il diagramma
dei moduli ha un massimo = 0 dB per |ζ| > 2/2 e per |ζ| < 2/2 pari al modulo
di risonanza
1
Mr = p
2|ζ| 1 − ζ 2
che si raggiunge in corrispondenza della pulsazione di risonanza
q
ωr = ωn 1 − 2ζ 2 .
27
Si ricorda che lo smorzamento è sempre in valore assoluto minore di 1, altrimenti le radici
sono reali e il termine trinomio è il prodotto di due termini binomi.
184 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

20
ζ=0.1 0 ζ=0.1
10 ζ=0.3 ζ=0.3
ζ=0.5

[deg]
−50
0
[dB]

ζ=0.7 ζ=0.5
ζ=1
−10 ζ=0.7
−100

arg(W)
|W|

ζ=1 −90°/decade
−20 b
−150
−30 −40 dB/decade a

−40 −1 0 1
−200 −2 0 2
10 10 10 10 10 10
log10 ω/ωn log10 ω/ωn

2
Figura 4.18: Diagramma di Bode del termine trinomio (1+ ω2ζn jω − ωω2 )−1 , per ζ =
n
{0.1, 0.3, 0.5, 0.7, 1} (in grigio il diagramma reale, in nero il diagramma asintotico)


Infatti, si ritrova che per ζ = ± 2/2 risulta ωr = 0, mentre per ζ = ±0.5
il diagramma interseca l’asse delle ascisse in corrispondenza della pulsazione
naturale.
L’approssimazione asintotica è costituita dalla retta orizzontale di ordinata
nulla fino a ωn e, da tale pulsazione in poi, dalla retta inclinata di −40 dB/decade,
dunque per il diagramma dei moduli del termine trinomio il punto di rottura è
ωn . Si noti come, a differenza del caso precedente, il diagramma reale si può
discostare sensibilmente da quello asintotico, specialmente per valori piccoli di
ζ. Passando al diagramma delle fasi, si osserva che per valori molto piccoli di
ω (ω << ωn ) il termine trinomio si può approssimare con il numero reale 1 e
quindi la sua fase vale 0◦ , mentre per valori grandi di ω, si può ritenere che la
parte reale tenda a −ω 2 /ωn2 e la parte immaginaria a 2ζω/ωn , dunque al crescere
di ω la parte reale tende a prevalere sull’immaginaria (il rapporto ω/ωn è elevato
al quadrato) e va verso valori sempre più negativi, mentre la parte immaginaria
va verso valori di segno pari a sign(ζ), ma molto più piccoli della parte reale.
In definitiva, la fase del numero complesso può essere approssimata alla fase del
numero reale −sign(ζ), e quindi per ζ > 0 vale −180◦ . Inoltre, per ω = ωn e ∀ζ è
evidente che la fase vale −90◦ sign(ζ), quindi un primo diagramma approssimato
è quello indicato con ‘a’ in Fig. 4.18. Mentre, per ottenere un’approssimazione
asintotica migliore nell’intervallo di pulsazioni intorno a ωn si può usare, anche
in questo caso, una retta inclinata di −90◦ /decade che parte dal punto di rottura
sinistro 0.1ωn e termina nel punto di rottura destro 10ωn , come il diagramma ‘b’
riportato in Fig. 4.18.
 2
k
Per un generico termine trinomio a denominatore, cioè 1 + ω2ζn jω − ωω2
n
con ζ > 0, k < 0, i diagrammi di Bode si ottengono moltiplicando per |k| le
ordinate di quelli appena visti, mentre quelli di un termine a numeratore, cioè
4.6. Diagrammi di Bode 185

80 0
+80 dB/decade
60
−100

[deg]
°
−180 /decade
[dB]

40

arg(W)
−200
|W|

20

0 −300
ζ=−0.2 ζ=−0.2

−20 −1 0 1 −2 0 2
10 10 10 10 10 10
log ω/ω log10 ω/ωn
10 n

ω2 2
Figura 4.19: Diagramma di Bode del termine trinomio (1 + ω2ζn jω − 2 ) ,
ωn per
ζ < 0 (in grigio il diagramma reale, in nero il diagramma asintotico)

 2
k
1 + ω2ζn jω − ωω2 con ζ > 0, k > 0, si ottengono moltiplicando per |k| le ordinate
n
e ribaltando rispetto all’asse delle ascisse quelli appena visti. Nel caso ζ < 0, il
diagramma dei moduli rimane identico a quello per ζ > 0, mentre quello delle
fasi risulta ribaltato rispetto all’asse delle ascisse. Cosı̀, ad esempio, i diagrammi
 2
2ζ ω2
di Bode del termine 1 + ωn jω − 2
ωn
, ζ < 0 sono quelli riportati in Fig. 4.19.
Concludiamo il paragrafo fornendo un algoritmo per il tracciamento dei dia-
grammi di Bode di una f.d.t. generica con l’uso di matita e squadrette.

4.6.1 Tracciamento del diagramma asintotico dei moduli.

Con riferimento ai simboli usati nella forma fattorizzata (4.18), si eseguano i


seguenti passi.

Passo 1. Si segnino le ascisse dei punti di rottura corrispondenti a 1/|τi′ |, 1/|τi |,


ωnh , ωn′ h e si associno a ciascuna le pendenze lj (espresse in dB/decade) cosı̀
definite


 20mi per i termini binomi di molteplicità mi a numeratore

 40m
h per i termini trinomi di molteplicità mh a numeratore
lj =



−20ni per i termini binomi di molteplicità ni a denominatore

−40nh per i termini trinomi di molteplicità nh a denominatore

Passo 2. Si tracci il primo segmento del diagramma, che è una semiretta di


pendenza l0 = 20(m0 − n0 ) dB/decade e che interseca, eventualmente con il suo
186 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

prolungamento, l’asse delle ordinate28 nel punto 20 log10 |K| e quello delle ascisse
1
nel punto29 |K| n0 −m0 .

Passo 3. Si traccino i segmenti successivi del diagramma in modo che ciascuno


risulti inclinato rispetto al precedente di lj dB/decade, ovvero di lj+ = l0 + l1 +
· · · + lj dB/decade rispetto all’asse delle ascisse. Si verifichi che l’ultimo segmento
risulti inclinato di 20(m − n) dB/decade rispetto all’asse delle ascisse.

4.6.2 Tracciamento del diagramma asintotico delle fasi.

Passo 1. Si segnino le ascisse dei punti di rottura in corrispondenza di una


decade prima (punti di rottura sinistri) e una decade dopo (punti di rottura
destri) di ciascun punto di rottura del diagramma dei moduli, e si associno a
ciascuno le pendenze sinistre ljs e destre ljd (espresse in ◦ /decade) cosı̀ definite



45sign(τi′ )miper i termini binomi di molteplicità mi a numeratore

 ′
90sign(ζh )mh per i termini trinomi di molteplicità mh a numeratore
ljs =



−45sign(τi )ni per i termini binomi di molteplicità ni a denominatore

−90sign(ζh )nh per i termini trinomi di molteplicità nh a denominatore
ljd = −ljs

Passo 2. Si tracci il primo segmento del diagramma che è una semiretta orizzon-
tale e che interseca, eventualmente con il suo prolungamento, l’asse delle ordinate
nel punto ϕ0 definito fase iniziale (limω→0 arg(W (ω)))

(
90◦ (m0 − n0 ) se K > 0
ϕ0 = ◦ ◦
90 (m0 − n0 ) − 180 se K < 0

Passo 3. Si traccino i lati consecutivi del diagramma in modo che ciascuno


risulti inclinato rispetto al precedente di lj ◦ /decade, ovvero di lj+ = l1 + l2 +
· · · + lj ◦ /decade rispetto all’asse delle ascisse, e si verifichi che l’ultimo segmento
sia orizzontale e di quota pari a ϕf definita fase finale (limω→+∞ arg(W (ω))),

28
Assumeremo d’ora in avanti che l’asse delle ordinate interseca quello delle ascisse nel punto
di pulsazione 1 rad/s.
29
Infatti, |K(jω)m0 −n0 | = 1 ⇔ ω m0 −n0 = |K|−1 ⇔ ω = |K|−1/(m0 −n0 ) .
4.6. Diagrammi di Bode 187

che si ottiene sommando tra loro i seguenti contributi

−180◦ solo se K < 0


+90◦ (m0 − n0 ) delle singolarità nell’origine
Pµ′
+90◦ sign(τi′ )mi dei termini binomi di molteplicità mi a numeratore
Pi=1
ν ′
+180sign(ζh′ )mh dei termini trinomi di molteplicità mh a numeratore
Ph=1
µ
−90◦ sign(τi )ni dei termini binomi di molteplicità ni a denominatore
Pi=1
ν ◦
h=1 −180 sign(ζh )nh dei termini trinomi di molteplicità nh a denominatore

Illustriamo il funzionamento della procedura con un esempio.

Esempio 4.12 Si vogliano tracciare i diagrammi di Bode della f.d.t.

20s(1 + s/0.5)
W (s) =
(1 + s/2)2 (1 + s/100 + s2 /1002 )

Si vede che la W (s) ha un numeratore di grado m = 2 e un denominatore di grado


n = 4 ed è già in forma fattorizzata, con i seguenti parametri

• Singolarità nell’origine
m0 = 1, n0 = 0

• Costante di guadagno

K = 20 > 0, KdB = 20 log 10 |K| ≃ 26

• Punti di rottura del diagramma dei moduli

1/τ1′ = 0.5, 1/τ1 = 2, ωn1 = 100

• Punti di rottura del diagramma delle fasi

{0.05, 5}, {0.2, 20}, {10, 1000}

Il diagramma dei moduli presenta un primo segmento inclinato di 20(m0 − n0 ) =


+20 dB/decade che incontra l’asse delle ordinate nel punto a 26 dB, in effetti con
il suo prolungamento visto che prima dell’ascissa ω = 1 c’è un punto di rottura
in ω = 0.5. Il tracciamento prosegue cambiando pendenza nei punti di rottura
secondo le regole descritte e termina con un segmento di pendenza 40(m − n) =
−40 dB/decade, come mostra la Fig. 4.20. Il diagramma delle fasi parte con fase
iniziale ϕ0 = 90◦ (m0 − n0 ) = +90◦ e termina con la fase finale ϕf = +90◦ + 90◦ −
2 · 90◦ − 180◦ = −180◦ . Effettuando i cambi di pendenza secondo le regole descritte
si ottiene il diagramma riportato in Fig. 4.20.
188 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

40
+40 dB/dec
−40 dB/dec

20
[dB]

0
|W|

+20 dB/dec
−20

−40 −2 −1 0 1 2 3
10 10 10 10 10 10
log ω [rad/s]
10

+45°/dec −45°/dec
100
[deg]

−90°/dec

−180°/dec
0
arg(W)

−100 −90°/dec

−200 −2 −1 0 1 2 3
10 10 10 10 10 10
log10 ω [rad/s]

Figura 4.20: Diagramma di Bode dell’Esempio 4.12 (in grigio il diagramma reale,
in nero il diagramma asintotico)

4.7 Cenni sui sistemi a tempo discreto


Anche per i sistemi a tempo discreto se si calcola la risposta ad un segnale prima
esponenziale (del tipo u(k) = λk , λ ∈ C) e poi ad un segnale sinusoidale (del tipo
u(k) = sin θk) si scopre che l’uscita è un segnale dello stesso tipo dell’ingresso.
Quindi, per un sistema asintoticamente stabile, si può definire la risposta in
frequenza come la funzione

W (ejθ ) = [W (z)]z=ejθ = C(ejθ I − A)−1 B + D (4.19)

che, per ogni pulsazione θ, può essere interpretata come quel numero complesso
il cui modulo è il rapporto tra l’ampiezza della risposta nell’uscita ad un segnale
sinusoidale e l’ampiezza dell’ingresso, ed il cui argomento è lo sfasamento tra i due
segnali. Difatti, la risposta ad un segnale sinusoidale U cos(θ0 k) si può scrivere
come
 
y(k) = |W (ejθ0 )|U cos θ0 k + arg(W (ejθ0 )) . (4.20)
4.8. Comandi MATLAB 189

Si osservi che, analogamente al caso tempo continuo, anche nel caso tempo
discreto la risposta armonica viene calcolata valutando la f.d.t. del sistema sulla
frontiera della regione del piano complesso all’interno della quale si trovano i
poli di un sistema asintoticamente stabile, nella fattispecie il cerchio di raggio
unitario, la cui circonferenza ha appunto equazione z = ejθ .

Esempio 4.13 Dato il sistema a tempo discreto con f.d.t.


z − 0.1
W (z) =
z2 − 0.4z + 0.03
troviamo la risposta al segnale sinusoidale, applicato da −∞, u(k) = 5 sin(2k). Dato
che il sistema ha due poli in 0.3 e 0.1, è asintoticamente stabile e quindi la risposta
a regime esiste e può essere determinata applicando la (4.20)

y(k) = 5|W (ej2 )| sin(2k + arg(W (ej2 ))) = 4.32 sin(2k − 2.24) .

4.8 Comandi MATLAB


In MATLAB è possibile tracciare i diagrammi di Bode reali ma non quelli asinto-
tici (almeno di non scrivere dei programmi opportuni). Il comando che permette
di disegnare direttamente su una finestra grafica i diagrammi è

>> bode(W)

dove W è una variabile di tipo sistema. Se si volesse avere a disposizione in due


variabili modulo e fase della risposta armonica di W, basterebbe usare i parametri
di uscita del comando bode

>> [m,f,w]=bode(W)

dove il modulo m è in valori naturali, la fase f è in gradi e w è il vettore delle


pulsazioni in rad/s. Se si volesse specificare un intervallo di pulsazioni, viene in
aiuto il comando logspace che ci consente di creare un vettore w a spaziatura
logaritmica, cosı̀, ad esempio, se si volesse avere un vettore w di 500 punti dalla
pulsazione 10−2 alla pulsazione 103 , basterebbe usare l’istruzione

>> w=logspace(-2,3,500);

Per averlo, invece, a spaziatura lineare con passo di 0.1 rad/s basterebbe usare
l’operatore : nel seguente modo30
30
La notazione esponenziale xey equivale a x10y .
190 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

>> w=1e-2;0.1:1e3;

Volendo trovare i punti di rottura del diagramma asintotico, occorrerebbe


calcolare i poli e gli zeri del sistema con i comandi pole e tzero, rispettivamente,
mentre il comando damp fornisce pulsazioni naturali e smorzamenti.
Un comando grafico molto utile per il tracciamento manuale dei diagrammi
di Bode è semilogx(x,y) che permette di tracciare il grafico di y in funzione di
log10(x).
Per i sistemi discreti, i comandi sono tutti identici, in quanto le variabili di
tipo sistema comprendono anche i sistemi a tempo discreto, basta che quando
vengono definite si fornisca anche il valore del periodo di campionamento T . Ad
esempio per definire il sistema con f.d.t.
z − 0.5
W (z) = , T = 0.01 s
z 2 + 0.1z + 0.4
basta eseguire l’istruzione

>> W=tf([1 -0.5],[1 0.1 0.4],0.01);

4.9 Esercizi

Esercizio 4.1 Determinare la risposta del sistema


   
0 1 0 0
   
ẋ =  0 0 1 x +  0 u
−6 −11 −6 1
y = (1 1 0 )x

al segnale di ingresso u(t) = 1 + 3 cos(50t + π/4).

Esercizio 4.2 Dato il circuito in Fig. 4.21 con R = 100 kΩ, progettare il valore di
capacità C in modo che un segnale di ingresso sinusoidale alla pulsazione di 100 rad/s
venga attenuato in uscita di 40 dB.

Esercizio 4.3 dato il sistema in Fig. 4.22 con RC = 1 s, determinare ω tale che
l’uscita del sistema risulti attenuata di 20 dB rispetto al segnale di ingresso u(t) =
20 cos(ωt).

Esercizio 4.4 Dato il sistema in Fig. 4.23, determinare il valore di k in modo che il
sistema abbia una banda a −3 dB pari ad 1 Hz. Come varia la banda al crescere di
k? E il guadagno statico?
4.9. Esercizi 191

R
- C
u(t) + y(t)

Figura 4.21: Circuito dell’Esercizio 4.2

R y(t)
- 2
u(t) + s+4

Figura 4.22: Sistema dell’Esercizio 4.3

Esercizio 4.5 Dato il sistema meccanico dell’Esempio. 1.3 con k = 1000 N/m, de-
terminare i valori di M e β in modo che il sistema abbia una frequenza di risonanza
pari a 100 Hz e un coefficiente di smorzamento pari a 0.2.

Esercizio 4.6 Dato il sistema in Fig. 4.24 con u(t) = A sin(ω0 t) e a = 2, determinare
il valore di p > 0 tale che l’uscita del sistema sia identicamente nulla ∀A. Rispondere
allo stesso quesito nel caso a = 0.5.

Esercizio 4.7 Determinare la risposta nell’uscita del sistema in Fig. 4.25, ai segnali
di ingresso u1 (t) = 5 e u2 (t) = sin(5t).

Esercizio 4.8 Tracciare i diagrammi di Bode dei seguenti sistemi


90s + 270 100s + 20
G1 (s) = , G2 (s) = 3
(s + 10)(s2 + 50s + 900) s + 10s2 + 100s

16s − 4 100
G3 (s) = , G4 (s) =
s2 + 55s + 250 (s − 1)(s2+ 10s + 25)
192 Capitolo 4. Analisi dei sistemi nel dominio della frequenza

replacemen kR
R y(t)
- 1
u(t) + s+1

Figura 4.23: Sistema dell’Esercizio 4.4

u(t)
1 + + 2s + 2 y(t)
s + p2
2
s+a
-

Figura 4.24: Schema a blocchi del sistema dell’Esercizio 4.6

Esercizio 4.9 Determinare la banda passante a −3 dB del sistema con f.d.t. G3 (s)
definita nell’Esempio 4.8.

Esercizio 4.10 Con l’ausilio dei diagrammi di Bode determinare in modo approssima-
to la risposta nell’uscita del sistema in Fig. 4.26, ai segnali di ingresso u1 (t) = sin(t)
e u2 (t) = 100 cos(200t + π/3).
4.9. Esercizi 193

u2 (t)
u1 (t) 1 + y(t)
+ +
s+3
+
s+3

s+6

Figura 4.25: Schema a blocchi del sistema dell’Esercizio 4.7

u1 (t)

+ 400 y(t)
s2 + 20s + 400
u2 (t) +

Figura 4.26: Schema a blocchi del sistema dell’Esercizio 4.10


Bibliografia

[1] A. Balestrino, G. Celentano, Teoria dei Sistemi, vol. III, Liguori, Napoli,
1982.
[2] P. Bolzern, R. Scattolini, N. Schiavoni, Fondamenti di Controlli Automatici,
McGraw-Hill, Milano, 1998.
[3] A. Cavallo, R. Setola, F. Vasca, La nuova guida a Matlab, Simulink e Control
Toolbox, Liguori, Napoli, 2002.
[4] S. Chiaverini, F. Caccavale, L. Villani, L. Sciavicco, Fondamenti di Sistemi
Dinamici, McGraw-Hill, Milano, 2003.
[5] M. Codegone, Metodi Matematici per l’Ingegneria, Zanichelli, Bologna, 1995.
[6] O. I. Elgerd, Control System Theory, Mc Graw-Hill, New York, 1967.
[7] E. Fornasini, G. Marchesini, Appunti di Teoria dei Sistemi, Edizioni Libreria
Progetto, Padova, 1992.
[8] G. F. Franklin, J. D. Powell, A. Emami-Neaini, Feedback Control of Dynamic
Systems, Addison Wesley, Reading, MA, 1986.
[9] G. F. Franklin, J. D. Powell, Digital Control of Dynamic Systems, Addison
Wesley, Reading, MA, 1980.
[10] R. Guidorzi, Teoria dei Sistemi: Esercizi e Applicazioni, Zanichelli, Bologna,
1991.
[11] T. Kailath, Linear Systems, Prentice-Hall, Englewood Cliffs, N.J., 1980.
[12] G. Marro, Controlli Automatici, Zanichelli, Bologna, 1984.

195
APPENDICE A

Numeri complessi

A.1 Definizione di numero complesso


Data una coppia ordinata di numeri reali (a, b), si definisce numero complesso z
l’espressione
z = a + jb
dove i numeri a e b sono detti parte reale e parte immaginaria del numero
complesso z e si indicano anche con le notazioni

a = Re(z)
b = Im(z)

mentre il numero complesso j è detto unità immaginaria.

A.2 Operazioni tra numeri complessi


Dati due numeri complessi z1 = a + jb e z2 = c + jd, la loro somma è il numero
complesso
z1 + z2 = (a + c) + j(b + d)
mentre il loro prodotto è il numero complesso

z1 z2 = (ac − bd) + j(ad + bc)

197
198 Appendice A. Numeri complessi

Im(z)

b z
ρ

θ
0 a Re(z)

Figura A.1: Rappresentazione grafica di un numero complesso.

L’elemento neutro della somma è ovviamente lo 0, mentre quello del prodotto


è 1, di conseguenza, l’opposto di un numero complesso è quello che sommato al
numero stesso restituisce 0, mentre il reciproco di un numero diverso da 0 è quello
che moltiplicato per il numero stesso restituisce 1.

A.3 Forma trigonometrica di un numero complesso


Graficamente un numero complesso può essere rappresentato su di un piano car-
tesiano, sulle cui ascisse si riporta la parte reale e sulle cui ordinate la parte
immaginaria (vedi Fig. A.1), detto piano di Gauss 1 .
Naturalmente, il numero complesso z può essere individuato anche dalle sue
coordinate polari, cioè la distanza ρ dall’origine detta modulo, che si indica col
simbolo |z| e l’angolo θ detto argomento o fase, che si indica col simbolo arg(z).
Dalla Fig. A.1 è evidente che valgono le relazioni

a = Re(z) = |z| cos(arg(z)) (A.1)


b = Im(z) = |z| sin(arg(z)) (A.2)

e quelle inverse
p
|z| = a2 + b2 (A.3)
cos θ = a/ρ (A.4)
sin θ = b/ρ (A.5)
1
A rigori il piano di Gauss comprende anche il punto all’infinito, vedi, ad esempio, [5].
A.4. Forma esponenziale di un numero complesso 199

Si noti come per determinare univocamente l’argomento θ occorrono sempre


le due equazioni (A.4),(A.5).
Si chiama forma trigonometrica del numero complesso z l’espressione
 
z = |z| cos(arg(z)) + j sin(arg(z)) (A.6)

la cui validità discende direttamente dalle relazioni (A.1),(A.2).


Dalle definizioni seguono immediatamente le proprietà

|z1 z2 | = |z1 ||z2 | (A.7)


|z1 + z2 | ≤ |z1 | + |z2 | (A.8)
arg(z1 z2 ) = arg(z1 ) + arg(z2 ) (A.9)
arg(z1 /z2 ) = arg(z1 ) − arg(z2 ) (A.10)
z n = ρn (cos nθ + j sin nθ) (A.11)

A.4 Forma esponenziale di un numero complesso


Dato un numero complesso z 6= 0, si ha che il numero complesso
z
= cos θ + j sin θ
|z|

ha modulo unitario e lo stesso argomento di z, dunque un qualunque numero


complesso non nullo può essere scritto come prodotto di un numero reale (il suo
modulo) per un numero complesso di modulo unitario
z
z = |z| .
|z|

Inoltre, due numeri complessi z1 e z2 di modulo unitario soddisfano delle


particolari proprietà

|z1 z2 | = 1
arg(z1 z2 ) = arg(z1 ) + arg(z2 ) (A.12)

cioè il modulo del loro prodotto è ancora 1, mentre l’argomento è la somma degli
argomenti. Questo comportamento somiglia al comportamento di un esponenziale
reale ex , x ∈ R, infatti ex1 ex2 = ex1 +x2 .
In base a tale analogia è possibile rappresentare i numeri complessi di modulo
unitario nella forma esponenziale

ejω = cos ω + j sin ω (A.13)


200 Appendice A. Numeri complessi

e quindi un generico numero complesso z = a + jb di modulo diverso da 1 è


esprimibile come
z = |z|ej arg(z) . (A.14)

Inoltre, si definisce complesso coniugato del numero complesso z = a + jb il


numero complesso
z ∗ = a − jb = |z|e−j arg(z) (A.15)
che soddisfa le seguenti proprietà

(z1 z2 )∗ = z1∗ z2∗ (A.16)


(z1 + z2 )∗ = z1∗ + z2∗ (A.17)
|z|2 = zz ∗ (A.18)
z + z∗
Re(z) = (A.19)
2
z − z∗
Im(z) = (A.20)
2j

Infine, notevole importanza hanno le seguenti formule, dette formule di Eulero

ejω − e−jω
sin ω = (A.21)
2j

e + e−jω
cos ω = (A.22)
2
che si ottengono facilmente dalla (A.13) sommandole e sottraendole la sua coniu-
gata.
APPENDICE B

Elementi di algebra delle matrici

Scopo di questa appendice è richiamare brevemente gli elementi di teoria del-


le matrici necessari in questo corso. La descrizione sarà perciò volutamente
schematica.

B.1 Matrici e vettori


Una matrice A m × n è un insieme di mn elementi aij , i =, . . . , m, j = 1, . . . , n
organizzati su m righe e n colonne:
 
a11 a12 ··· a1n
 
 a21 a22 ··· a2n 
A=
 .. .. .. ..  .

 . . . . 
am1 am2 · · · amn

Una maniera convenzionale per indicare la stessa matrice è A = {aij }. L’elemento


che occupa la riga i–esima e la colonna j–esima è indicato con aij .
Un vettore colonna x di dimensione n è una matrice con n righe e una colonna
 
x1
 
 x2 
x=
 .. .

 . 
xn

201
202 Appendice B. Elementi di algebra delle matrici

Il suo elemento di posto i–esimo si indica con xi . Analogamente un vettore riga di


dimensione n è una matrice con una riga e n colonne. Poiché nel corso parleremo
genericamente di vettore, intenderemo sempre sottinteso l’attributo “colonna”;
per questo motivo il vettore riga x sarà indicato con il simbolo di trasposta xT
(vedi par. B.4).
Per i nostri scopi è importante menzionare una particolare struttura di ma-
trice: la matrice in forma compagna. In particolare una matrice del tipo
 
0 1 0 ··· 0

 0 0 1 ··· 0 


A= .. .. .. .. .. 
(B.1)
 . . . . .


 
 0 0 0 ··· 1 
−an −an−1 −an−2 · · · −a1

prende il nome di matrice in forma compagna orizzontale inferiore, mentre se ha


la forma  
0 0 ··· 0 −an
 1 0 ··· 0 −an−1 
 
 
A= 0 1 ··· 0 −an−2  (B.2)
 
 .. .. . . . ..
. ..

 . . . 
0 0 ··· 1 −a1
è detta matrice in forma compagna verticale destra.

B.2 Somma, differenza e prodotto per uno scalare


Due matrici A e B delle stesse dimensioni possono essere sommate fra loro. Il
risultato è una matrice i cui elementi sono la somma degli elementi corrispondenti
delle matrici addendo: se C = A + B, allora

cij = aij + bij

Il prodotto di una matrice per uno scalare dà una matrice i cui elementi sono
quelli della matrice di partenza moltiplicati per lo scalare: se B = kA,

bij = kaij

Infine la differenza fra due matrici è definita come la somma della prima e delle
seconda moltiplicata per lo scalare −1: C = A − B ⇒ cij = aij − bij .
Ricordiamo che la somma gode delle proprietà commutativa e associativa:

A+B = B+A
(A + B) + C = A + (B + C)
B.3. Prodotto di matrici 203

B.3 Prodotto di matrici


Di due matrici A m × p e B p × n è possibile definire il prodotto righe per colonne
C = AB come la matrice m × n che ha per elementi
n
X
cij = aik bkj
k=1

Il prodotto gode della proprietà associativa:


A(BC) = (AB)C .
Ma in generale non della proprietà commutativa
AB 6= BA
anzi in generale non è detto che il secondo prodotto esista.

B.4 Trasposizione
Se A è una matrice m × n la sua trasposta B, indicata con il simbolo B = AT è la
matrice che si ottiene scambiando le righe e le colonne della matrice di partenza
bij = aji .
Una matrice si dice simmetrica se A = AT , antisimmetrica se A = −AT . Una
matrice quadrata (n × n) è sempre decomponibile in una parte simmetrica (A +
AT )/2 e una antisimmetrica (A − AT )/2. Proprietà della trasposta sono
(AB)T = B T AT
(ABC)T = C T B T AT
(A + B)T = AT + B T (B.3)

B.5 Determinante
Il determinante di una matrice A n × n, indicato conPi simboli |A| o det(A) è
uno scalare definito dall’espansione di Laplace |A| = nj=1 aij γij , ∀i = 1, . . . , n.
γij è detto cofattore, γij = −1i+j |M |ij e Mij , detto minore della matrice data,
è la matrice che si estrae da quella di partenza eliminando la riga i–esima e la
colonna j–esima. In questo modo il determinante di una matrice di ordine n è
definito tramite n determinanti di ordine n − 1 che a loro volta saranno definiti
con determinanti di ordine n−2 e cosı̀ via. La trasposta della matrice dei cofattori
prende il nome di matrice aggiunta:
adj(A) = {γij }T .
204 Appendice B. Elementi di algebra delle matrici

Una matrice il cui determinante sia nullo è detta singolare, altrimenti è non
singolare.
Proprietà del determinante. Se una riga (o una colonna) di una matrice
è moltiplicata per uno scalare α, allora il determinante è α |A|, quindi

|αA| = αn |A|

Se due righe o due colonne sono scambiate il determinante cambia di segno; da


ciò si può dedurre che
T
A = |A| .

Infine, se A e B sono matrici quadrate,

|AB| = |A| |B| .

B.6 Rango
Il rango di una matrice è il massimo numero di righe o colonne linearmente
indipendenti della matrice. In particolare, se una matrice ha rango r, allora
tutte le possibili sottomatrici (r + 1) × (r + 1) estraibili dalla matrice data hanno
determinante nullo.

B.7 Inversa
Sia A una matrice n×n non singolare; allora la sua inversa, indicata con il simbolo
A−1 esiste ed è definita come
adj(A)
A−1 =
|A|
e gode della proprietà
A−1 A = AA−1 = In ,
dove In è la matrice identità di ordine n.
Valgono le proprietà
(AB)−1 = B −1 A−1
se entrambe le matrici sono invertibili, e inoltre

(A−1 )T = (AT )−1 .

Vale infine il lemma di inversione matriciale:

(A + BCD)−1 = A−1 − A−1 B(DA−1 B + C −1 )−1 DA−1

supposto che tutte le inverse e i prodotti abbiano senso.


B.8. Polinomio caratteristico e teorema di Cayley–Hamilton 205

B.8 Polinomio caratteristico e teorema di Cayley–Ha-


milton
Data una matrice quadrata A, si definisce polinomio caratteristico della matrice:
p(s) = |sI − A| = sn + a1 sn−1 + · · · + an
Le radici del polinomio caratteristico sono dette autovalori della matrice.
Il teorema di Cayley–Hamilton afferma che ogni matrice quadrata è radice
del suo polinomio caratteristico, ovvero
p(A) = An + a1 An−1 + · · · + an I = 0
Una interessante proprietà delle matrici in forma compagna è data dal fatto che
il polinomio caratteristico delle (B.1),(B.2) è proprio sn + a1 sn−1 + · · · + an .

B.9 Autovalori e autovettori


Sia λi un autovalore della matrice quadrata A; allora esiste sempre almeno un
vettore u che soddisfa l’equazione
Au = λi u (B.4)
Il vettore u è detto autovettore della matrice A. In particolare se λi è una radice
di molteplicità unitaria del polinomio caratteristico allora l’autovettore è unico (a
meno di un fattore di scala ovvero se u è un autovettore, anche αu, con α scalare,
lo è), altrimenti possono esistere più autovettori associati allo stesso autovalore.
In genere gli autovettori vengono normalizzati, ovvero kuk = 1.
Due importanti proprietà degli autovalori sono
n
X
λi = tr(A)
i=1

dove tr(A) indica la traccia della matrice, cioè la somma degli elementi sulla
diagonale principale; inoltre
n
Y
λi = |A|
i=1
quindi una matrice è singolare se e solo se ha almeno un autovalore nullo.

B.10 Matrici simili e diagonalizzazione


Due matrici A e B sono dette simili se esiste una matrice T invertibile tale che
B = T −1 AT
206 Appendice B. Elementi di algebra delle matrici

In particolare, per quanto detto al paragrafo precedente, è possibile dimostrare


che se la matrice quadrata A ha autovalori distinti, i corrispondenti autovettori
sono linearmente indipendenti e quindi la matrice U che ha per colonne gli auto-
vettori è invertibile. Posta quindi Λ la matrice diagonale costruita a partire dagli
autovalori, dalla (B.4) si ricava AU = U Λ, e quindi

Λ = U −1 AU

cosı̀ la matrice A è simile ad una matrice diagonale ed è detta diagonalizzabile.

B.11 Funzioni di matrici e operazioni differenziali


1. Esponenziale matriciale.
La funzione exp(A) (o più semplicemente eA ) è definita come
1 2 1
eA ≡ exp(A) = I + A + A + A3 + · · · (B.5)
2! 3!
In particolare se A è diagonalizzabile eA = U eΛ U −1 , dove eΛ = diag{eλi },
e in generale

f (A) = U f (Λ)U −1 , dove f (Λ) = diag{f (λi )} . (B.6)

2. Derivata.
Sia data una matrice A(t) funzione di uno scalare t; allora la sua derivata
rispetto a t è definita elemento per elemento:
 
dA daij (t)
=
dt dt

3. Integrale.
Analogamente l’integrale è definito elemento per elemento:
Z Z 
A(t)dt = aij (t)dt

4. Matrice Jacobiana.
Sia dato una funzione vettoriale di un vettore, f (x); allora la matrice
jacobiana si definisce come
( )
df ∂fi
=
dx ∂xj
APPENDICE C

Tabella di trasformate di Laplace

In questa appendice si indica con F (s) la trasformata di Laplace della funzione


f (t), che viene assunta nulla per t < 0, per cui ogni funzione nel dominio del
tempo è supposta essere moltiplicata per un gradino unitario.

F (s) f (t)

1 δ(t) (impulso unitario in t = 0)

1
1(t) (gradino unitario in t = 0)
s

1
t (rampa unitaria in t = 0)
s2

1 tn
sn+1 n!

1 −sT
e 1(t − T ) (gradino unitario in t = T )
s

1 
1 − e−sT 1(t) − 1(t − T ) (finestra di durata T )
s

207
208 Appendice C. Tabella di trasformate di Laplace

F (s) f (t)

1
e−at
s+a

1 tn −at
e
(s + a)n+1 n!

ω
sin ωt
s2 + ω2

s
cos ωt
s2 + ω2

2ωs
t sin ωt
(s2 + ω 2 )2

s2 − ω 2
t cos ωt
(s2 + ω 2 )2

s sin φ + ω cos φ
sin(ωt + φ)
s2 + ω 2

ω
e−at sin ωt
(s + a)2 + ω 2

s+a
e−at cos ωt
(s + a)2 + ω 2
q
1 1 −ζωn t
p e sin ω n 1 − ζ 2t
s + 2ζωn s + ωn2
2
ωn 1 − ζ2

1 1
(1 − cos ωt)
s(s2 + ω2) ω2
APPENDICE D

Tabella di trasformate Z

In questa appendice si indica con F (z) la trasformata Z della successione f (k),


che viene assunta nulla per k < 0.

F (z) f (k)

1 δ(k) (impulso unitario in k = 0)

z
1(k) (gradino unitario in k = 0)
z−1
z
k (rampa unitaria in k = 0)
(z − 1)2

z(z + 1)
k2 (parabola unitaria in k = 0)
(z − 1)3
z
rk
z−r
zr
kr k
(z − r)2

209
210 Appendice D. Tabella di trasformate Z

F (z) f (k)

z(1 − r)
1 − rk
(z − 1)(z − r)

z sin a
sin ak
z2 − (2 cos a)z + 1

z(z − cos a)
cos ak
z2 − (2 cos a)z + 1

z(z − r cos b)
r k cos bk
z2 − 2r(cos b)z + r 2

zr sin b
r k sin bk
z2 − 2r(cos b)z + r 2
Indice analitico

Amplificatore operazionale, 106 somma di, 138


Argomento, 198 Coordinate generalizzate, 16
Autovalore, 147, 205
Autovalori, 64, 87 Decade, 175
Autovettore, 205 Determinante, 203
Diagrammi di Bode, 178
Banda
arrestante a k dB, 172 Energia
larghezza di, 157, 160 cinetica, 8
passante a −k dB, 171, 173 elettrostatica, 12
potenziale, 9, 10
Campionamento Equazione
periodo di, 133 alle differenze, 126
proprietà del, 51 di Eulero-Lagrange, 17
Coefficienti di Fourier, 156 di stato, 21
Componente continua, 157 di uscita, 21
Componenti armoniche, 157 Equilibrio
Connessione, 80 punto di, 39, 85, 95
in parallelo, 81 relazione di, 8, 9, 11, 13
in retroazione, 81 traiettoria di, 40
in retroazione positiva, 82 Evoluzione
in serie, 80 forzata, 71, 143
Controllabilità, 35, 65, 111 libera, 62, 67, 86, 143
Convertitore
analogico/digitale, 133 Forma canonica
digitale/analogico, 133 di controllo, 33, 89, 133
Convoluzione, 47, 54, 139 di osservazione, 31, 89, 133
integrale di, 48, 54, 72 Formule di Eulero, 200
212 Indice analitico

Frequenza, 156, 159 ingresso–stato–uscita, 20, 25, 130


Funzione di dissipazione, 10, 13 ingresso–uscita, 26, 127
Funzione di trasferimento, 61, 140 Realizzazione, 28, 105, 131
algoritmi di, 29
Gradi di libertà, 16 Risposta
Guadagno statico, 98, 151 a regime permanente, 97, 99, 165, 166
armonica, 170
Impedenza operazionale, 107 esponenziale, 164
Impulso di Dirac, 51 impulsiva, 72, 73, 143, 171
Ingresso, 1 in frequenza, 170
indiciale, 78, 100
Lagrangiana, 14 sinusoidale, 166
Linearizzazione, 35 Routh
coefficienti di, 92
Matrice, 201
criterio di, 90, 150
degli ingressi, 25
tabella di, 90
delle uscite, 25
di transizione, 63
Scala logaritmica, 174
dinamica, 25
Schema a blocchi, 4, 79, 110
in forma compagna, 31, 33, 202
Serie di Fourier, 155
Modello
Sistema, 1
dinamico, 2, 13
a dati campionati, 133
linearizzato, 38, 95
a dimensione finita, 23
matematico, 4
a dimensione infinita, 23
statico, 2
adinamico, 22, 73
Modi di evoluzione, 67, 147
astratto orientato, 4
Modulo, 198
dinamico, 4
Modulo di antirisonanza, 171
elettrico elementare, 11
Modulo di risonanza, 171
Movimento, 16, 84 fisicamente realizzabile, 64
lineare, 23
Osservabilità, 35, 66, 111 LTI, 24
meccanico elementare, 8
Poli, 55, 64, 141 MIMO, 22
Polinomio caratteristico, 63, 205 non lineare, 37
Polinomio minimo, 63, 68, 87, 147 SISO, 22
Pulsazione, 156, 159 stazionario, 23
di antirisonanza, 171 stocastico, 23
di centro banda, 172 strettamente proporio, 22
di risonanza, 171 Smorzamento, 104
di taglio inferiore, 172 Sovraelongazione, 100, 103
di taglio superiore, 172 Spettro
naturale, 104, 176 a righe, 156, 162
Pulsazione naturale, 69 di ampiezza, 156, 160
Punto di rottura, 182, 184 di fase, 156, 160
Stabilità
Rango, 204 asintotica, 87
Rappresentazione BIBO, 84, 88, 148
Indice analitico 213

sotto perturbazioni, 84 Trasformata


Stato, 13 Z, 136, 209
funzione di, 14 di Fourier, 159
variabili di, 16 di Laplace, 163, 207
di Laplace bilatera, 46
Tempo di Laplace unilatera, 53
costante di, 101
di assestamento, 101 Uscita, 1, 24
di massima sovraelongazione, 100
di ritardo, 100 Valor medio, 157
di salita, 100, 177 Vettore, 201
Tenuta di ordine zero, 133
Traiettoria, 84 Zeri, 55, 64, 74, 141, 165